Overblog Suivre ce blog
Administration Créer mon blog
4 février 2014 2 04 /02 /février /2014 15:49

Les historiens et économistes ne s’accordent toujours pas sur les raison de la Grande Divergence : pourquoi la Grande-Bretagne et plus largement l’Europe de l’ouest ont-ils connu une accélération de la croissance économique au dix-neuvième siècle tandis que le niveau de vie continuait de stagner dans le reste du monde ? Plusieurs historiens économiques mettent en avant le rôle joué par le charbon pour expliquer la Révolution industrielle. Ils rejoignent ainsi d'autres auteurs lorsqu'ils suggèrent ainsi que la géographie et les ressources naturelles sont des déterminants cruciaux du développement économique. 

Le principal défenseur de cette thèse est Edward Anthony Wrigley (1961). Celui-ci considère l’utilisation du charbon comme une condition nécessaire à la Révolution industrielle : la maîtrise du charbon a permis à l'humanité d’utiliser une large réserve d’énergie et de se libérer des contraintes malthusiennes. Plusieurs historiens le rejoignent lorsqu’ils affirment que la disponibilité en charbon s’est révélée essentielle à toute région qui eut à s’industrialiser au dix-neuvième siècle. Utilisé alors pour alimenter le processus de producteur, le charbon pourrait expliquer pourquoi la Révolution industrielle est survenue en Europe plutôt qu’en Chine. Il est notoire que la Grande-Bretagne, l’économie la plus dynamique du dix-neuvième-siècle, était abondamment dotée en charbon ; les champs de charbon de Belgique, du Nord de la France et plus tard de la Ruhr devinrent également des hauts lieux de l’industrie lourde. Par contre, en Chine, les réserves houillères étaient localisées au nord et nord-est, c’est-à-dire éloignées des régions les plus dynamiques économiquement, en l’occurrence les régions côtières du sud. Pour les tenants de cette approche, le charbon n’aurait pu se révéler aussi important sans le progrès technique tel que celui-ci s’est manifesté. Les innovations sont apparues en Grande-Bretagne au cours de la Révolution industrielle de manière à économiser le facteur travail devenu trop cher et substituer ce dernier par du capital et du charbon bon marché. L’usage du charbon fut un symptôme du progrès technique, que la majorité des auteurs considèrent comme le principal moteur de la Révolution industrielle ; c’est d’ailleurs pour cela que Wrigley ne considère pas le charbon comme une condition nécessaire à cette dernière. 

Alan Fernihough et Kevin O'Rourke (2014) suggèrent que cette thèse peut se résumer au final par deux hypothèses : la première (qu’ils qualifient d’« hypothèse de croissance ») suggère que l’exploitation de charbon expliqua une part substantielle de la croissance économique observée à partir de la Révolution industrielle ; la seconde (qualifiée d’« hypothèse de localisation ») suggère que la localisation des activités industrielles a été fortement influencée par la localisation des bassins houillers.

Tous les historiens économiques ne prêtent toutefois pas un rôle aussi important au charbon, rejetant l’une ou l’autre des deux hypothèses. Les plus sceptiques mettent plutôt l’accent sur les facteurs culturels et les institutions pour expliquer l’industrialisation et l’accélération de la croissance économique. Les études économétriques ont toutefois jusqu’à présent été insuffisantes pour déterminer si le charbon a effectivement joué un rôle crucial dans la Révolution industrielle. 

Fernihough et O'Rourke ont testé économétriquement les deux hypothèses dans le cadre paneuropéen. Puisque toutes les données relatives au PIB régional ou la production industrielle ne sont pas disponibles pour les époques reculées, les deux auteurs utilisent les données relatives à la taille des villes pour se représenter la répartition géographique de l’activité économique et saisir l’influence exercée par la proximité des bassins houillers. Fernihough et O'Rourke constatent qu’être à proximité d’un bassin houiller importe pour la taille des villes après la Révolution industrielle, mais pas avant, ce qui suggère que l’hypothèse de localisation est valide. Ils constatent également que l’émergence lors de la Révolution industrielle de technologies utilisant le charbon explique plus de 60 % de la croissance urbaine en Europe entre 1750 et 1900. Cette idée que le charbon ait joué un rôle déterminant dans la croissance urbaine après la Révolution industrielle est cohérente avec l’hypothèse de croissance.

Fernihough et O'Rourke reconnaissent toutefois que leurs résultats sont insuffisants pour conclure que l’accès au charbon fut une cause suffisante à la Révolution industrielle ou pour rejeter l’idée que le progrès technique ait amorcé le changement économique moderne. En revanche, en raison de la nature des technologies déployées lors de la Révolution industrielle, l’accès au charbon devint crucial pour le développement économique. Les sources de la croissance sont peut-être ailleurs, mais ni le rôle des énergies fossiles dans la croissance postérieure à la Révolution industrielle, ni le rôle de la géographie pour expliquer pourquoi certaines régions ont connu cette croissance ne peuvent être ignorés. 

 

Références

FERNIHOUGH, Alan, & Kevin Hjortshøj O'ROURKE (2014), « Coal and the European Industrial Revolution », National Bureau of Economic Research, working paper, n ° 19802, janvier. 

WRIGLEY, Edward Anthony (1961), Industrial Growth and Population Change; A Regional Study of the Coalfield Areas of North-West Europe in the Later Nineteenth Century, Cambridge University Press, Cambridge.

Repost 0
1 février 2014 6 01 /02 /février /2014 14:50

Depuis quelques semaines, les pays émergents subissent de très fortes pressions, en particulier sur les marchés des changes. C'est notamment le cas de l'Afrique du Sud, de l'Argentine, du Brésil, de l'Inde, de la Russie et de la Turquie. La dépréciation de la monnaie, l’accélération de l’inflation et la fuite des capitaux incitent leur banque centrale à relever leur taux directeur. Ce resserrement monétaire est bien évidemment susceptible de dégrader l’activité économique et cette dégradation apparaît comme le « prix à payer » pour maintenir la confiance en la monnaie. Or un ralentissement de l’activité est susceptible d’entretenir la sortie des capitaux et la dépréciation de la monnaie, si bien qu’un resserrement de la politique monétaire ne fait au final qu’enfermer les pays émergents dans un cercle vicieux. Ces dynamiques trouvent certainement leur origine dans une multitude de facteurs, notamment des facteurs politiques propres à chaque pays, comme dans le cas de la Turquie. Mais, plus que tout autre acteur, la banque centrale américaine a peut-être joué un rôle significatif dans ces événements. 

En effet, la politique monétaire a été extrêmement accommodante aux Etats-Unis ces dernières années en raison de la sévérité de la Grande Récession. Une fois son taux directeur ramené au plus proche de zéro, la Réserve fédérale s’est tournée vers de nouvelles mesures de politique monétaire pour approfondir le soutien à l’activité. L’une de ces mesures « non conventionnelles » a été l’assouplissement quantitatif (quantitative easing) consistant pour la banque centrale à acheter massivement des titres de longue maturité. Puisque ces achats poussent les prix d’actifs à la hausse, le rendement de ces derniers tend en effet à diminuer ; la baisse des taux d’intérêt de long terme tend alors à stimuler les dépenses d’investissement. Par conséquent, le bilan de la Fed n’a cessé de s’accroître ces dernières années au rythme des achats ; au début de l’année 2013, elle achetait chaque mois l’équivalent de 85 milliards de dollars en titres dans le cadre de l’assouplissement quantitatif. Ce programme n’a toutefois pas eu de répercussions sur les seuls Etats-Unis. La dégradation des perspectives de croissance dans les pays avancés avec la Grande Récession et la baisse des taux d’intérêt nominaux ont incité les investisseurs financiers à se tourner vers les pays émergents pour y trouver de plus hauts rendements. Les pays émergents ont ainsi profité ces dernières années de larges entrées de capitaux qui ont stimulé leur activité ; le programme d’assouplissement quantitatif mené par la Fed n’a fait qu’accentuer cette tendance.

Les banques centrales ne sont toutefois pas incitées à poursuivre indéfiniment une politique monétaire extrêmement accommodante ; celle-ci est source de risques inflationnistes et elle expose l’économie à l’instabilité financière en alimentant une expansion excessive du crédit et des bulles d’actifs ; la Fed est ainsi accusée par certains d’avoir laissé son taux directeur trop longtemps trop bas suite à l’éclatement de la bulle internet au début des années deux mille et d’avoir ainsi alimenté les déséquilibres qui ont conduit à la crise du crédit subprime. Par conséquent, au fur et à mesure que la reprise de l’activité se poursuit et que le chômage reflue aux Etats-Unis, il devient de plus de plus en plus probable que la Fed « normalise » sa politique monétaire. Cette normalisation est d’autant plus probable que tout le monde ne s’accorde pas sur l’efficacité des achats d’actifs dans le soutien de l’activité ; pour certains, elles ne fait qu’alimenter l’instabilité financière.

En mai 2013, les responsables de la Fed ont évoqué pour la première fois la possibilité d’une réduction (tapering) de leurs achats. Ce fut en particulier le cas le 22 mai lorsque Ben Bernanke, alors président de la Fed, témoigna devant le Congrès américain. Cette évocation d’un resserrement de la politique monétaire américaine a immédiatement affecté les pays émergents. Plusieurs d’entre eux ont enregistré au cours des mois suivants des sorties de capitaux, une hausse des rendements obligataires, une baisse des cours boursiers et une dépréciation de leur taux de change. Si effectivement les entrées de capitaux ont alimenté des bulles d’actifs dans les pays émergents, celles-ci sont susceptibles d’éclater et de puissamment dégrader l’activité. Lorsque la Fed déclara en septembre 2013 qu’elle ne réduirait pas immédiatement ses achats d’actifs, les rendements obligataires reculèrent dans les pays émergents, sans toutefois revenir aux niveaux qu’ils atteignaient avant le mois de mai. Cette amélioration n’a été temporaire : les pays émergents font face depuis le début du mois de janvier à de plus fortes pressions que celles qu’ils subirent cet été.

Barry Eichengreen et Poonam Gupta (2013, 2014) mettent particulièrement l’accent sur trois caractéristiques de cette déstabilisation des pays émergents. Tout d’abord, non seulement l’impact fut significatif, mais son ampleur a surpris de nombreux commentateurs. Plusieurs d’entre eux ont soulevé la possibilité que l’actuel resserrement de la politique monétaire américaine fasse basculer les pays émergents dans une crise similaire à celle que nombre d’entre eux connurent il y a à peine quelques décennies. Cette comparaison est d’autant plus pertinente que de nombreux auteurs considèrent que la Fed trouve une responsabilité dans la crise mexicaine de 1994 en resserrant sa politique monétaire à partir de 1993. Ensuite, Eichengreen et Gupta soulignent que l’impact n’a pas été uniforme, certains pays émergents ayant été plus durement touchés que d’autres par l’évocation du tapering. Enfin, les deux auteurs notent que les réticences marquées par les responsables politiques des pays émergents à l’idée d’un tapering se concilient bien mal avec les critiques qu’ils formulaient précédemment à l’égard de l’assouplissement quantitatif qu’ils considéraient comme un véritable acte de « guerre des monnaies » (currency war). 

Eichengreen et Gupta ont observé l’évolution des taux de change, des réserves de devises et des cours boursiers entre avril (soit juste avant la première évocation du « tapering ») et août 2013 pour déterminer quels pays ont été frappés et pourquoi. Leur analyse est particulièrement cruciale aujourd’hui, puisqu’elle permet de mieux saisir ce que les pays émergents sont en train de subir. Trois résultats sont en l’occurrence particulièrement intéressants. Tout d’abord, les deux auteurs constatent que les pays émergents qui ont le plus laissé leur taux de change réel s’apprécier, leurs déficits de compte courant se creuser et leurs prix d’actifs s’accroître durant la période de l’assouplissement quantitatif ont subi les plus amples dommages après mai 2013. Les pays qui ont mis en place des politiques économiques pour contenir l’appréciation du taux de change et la dégradation du déficit courant ont connu par la suite un moindre reflux des flux de capitaux. En l’occurrence, la politique macroprudentielle et le resserrement budgétaire mises en place avant l’annonce d’un resserrement monétaire de la Fed en ont modéré l’impact après coup, mais ces mesures n’ont toutefois pas permis aux pays émergents d’en subir les répercussions. 

Ensuite, Eichengreen et Gupta montrent qu’avoir de meilleurs fondamentaux macroéconomique n’a pas immunisé les pays émergents : ce n’est pas parce qu’un pays présentait de faibles niveaux de déficits budgétaires et de dette publique, de plus hauts niveaux de réserves ou encore une plus forte croissance économique qu’il ait connu une chute limitée de son taux de change après mai 2013. Par contre, la taille du marché financier domestique explique l’ampleur de l’impact : les pays disposant des plus larges marchés ont connu les plus fortes pressions sur leur taux de change, leurs réserves de devises et leurs cours boursiers. Cela dénote le fait que les investisseurs sont mieux capables de rééquilibrer leurs portefeuilles lorsque le pays dispose de marchés financiers relativement larges et liquides. Eichengreen et Gupta rappellent ainsi que l’expansion du secteur financier se révèle être à double tranchant puisqu’elle expose davantage les pays aux crises financières et aggrave l’impact de ces dernières sur l’activité. 

 

Références

EICHENGREEN, Barry, & Poonam GUPTA (2013), « Fed tapering and emerging markets », in voxEU.org, 19 décembre. 

EICHENGREEN, Barry, & Poonam GUPTA (2014), « Tapering talk: The impact of expectations of reduced Federal Reserve security purchases on emerging markets », Banque mondiale, policy research working paper, n° 6754, janvier.

FMI (2013), « Taper talks: What to expect when the United States is tightening », World Economic Outlook: Transitions and Tensions, octobre. Traduction française, « Que se passera-t-il quand les Etats-Unis mettront fin à leur politique d’assouplissement quantitatif ? », Perspectives de l’économie mondiale : transitions et tensions.

Repost 0
28 janvier 2014 2 28 /01 /janvier /2014 20:38

Depuis le milieu des années quatre-vingt-dix, le Japon a connu une déflation faible, mais durable. Le taux d’inflation de l’indice des prix à la consommation atteignait en moyenne 11,6 % dans la première moitié des années soixante-dix ; il déclina par la suite, pour atteindre zéro, voire des valeurs légèrement négatives, à partir du milieu des années quatre-vingt-dix (cf. graphique 1). Les taux d’inflation du Japon ont été inférieurs à ceux des Etats-Unis et de la zone euro. Par exemple, l’écart entre les taux d’inflation du Japon et celui des Etats-Unis s’élevait à 2 points de pourcentage dans les années quatre-vingt-dix, puis atteignit 3 points de pourcentage dans les années deux mille, avant de se resserrer suite à l’effondrement de Lehman Brothers fin 2008. Lorsque Kenji Nishizaki, Toshitaka Sekine et Yoichi Ueno (2013) observent dans le détail, ils constatent que la plupart des composantes de l’indice des prix à la consommation contribuèrent à la désinflation. Les prix des biens durables, qui poussaient déjà l’inflation à la baisse à partir du milieu des années quatre-vingt, chutent encore plus rapidement dans les années deux mille. Les variations des prix des autres biens et services devinrent nulles, voire négatives, dans les années quatre-vingt-dix. En revanche, la hausse des prix des produits énergétiques s’accéléra à partir de 2000.

GRAPHIQUE 1  Taux d'inflation au Japon (en glissement annuel, en %)

Japon-deflation--taux-d-inflation.png

sourceNishizaki et alii (2013)

Nishizaki et ses coauteurs ont cherché à déterminer les causes de la déflation japonaise. Ils observent tout d’abord le rôle des anticipations d’inflation. Si les analyses empiriques suggèrent que ces anticipations ont été régulièrement revues à la baisse au cours des deux dernières décennies, elles ne s’accordent pas sur l’ampleur et les raisons de cette révision. Si l’inflation anticipée est devenue négative, alors le Japon peut s’être retrouvé dans un équilibre de trappe à liquidité ; la borne inférieure zéro (zero lower bound) empêche alors la banque centrale de sortir l’économie de cette trappe en réduisant son taux directeur. Nishizaki et ses coauteurs confirment que l’inflation anticipée a certes diminué, mais ils estiment qu’elle est toutefois restée positive (cf. graphique 2). Plusieurs raisons peuvent être avancées pour expliquer ce déclin : soit la banque centrale a réduit le taux d’inflation qu’elle cible, soit les agents privés ont douté que les autorités monétaires soient à même d’atteindre leur cible lorsque le taux d’intérêt nominal a atteint son niveau plancher. En outre, les années quatre-vingt-dix étaient marquées par un yen très fort, si bien que les agents privés ont pu percevoir les prix au Japon comme trop élevés par rapport aux prix en vigueur dans les autres pays industriels.

GRAPHIQUE 2  Anticipations d'inflation (en %)

Japon-deflation--anticipations-d-inflation.png

source : Nishizaki et alii (2013) 

Les économistes s’accordent pour dire que l’écart de production (output gap) est resté négatif depuis le milieu des années quatre-vingt-dix (la production est restée bien en deçà de son potentiel), excepté lors de courtes périodes à la fin de la décennie et au cours de la suivante (cf. graphique 3). En revanche, il n’y a pas consensus pour expliquer pourquoi l’écart de production est resté négatif. Une réponse relativement simple serait tout simplement la malchance : la Japon aurait subi toute une série de puissants chocs de demande. Ces derniers comprennent l’effondrement des bulles d’actifs au début des années quatre-vingt-dix, l’effondrement de la bulle internet au début des années deux mille et la récente crise mondiale. Certains auteurs comme Paul Krugman (1998) suggèrent que l’écart de production est devenu négatif en raison d’un déclin du taux d’intérêt naturel et de la borne inférieure zéro sur les taux nominaux : le taux d’intérêt naturel est peut-être devenu négatif, si bien que la politique monétaire est restée excessivement restrictive une fois que le taux directeur atteignit sa borne zéro. D’autres auteurs suggèrent un lien entre la faible croissance potentielle et la détérioration de l’écart de production en mettant l’accent sur les anticipations de croissance. La révision à la baisse de ces anticipations aurait davantage dégradé la demande globale plutôt que l’offre. En outre, les prix diminuent si l’offre ne peut pleinement répondre aux variations de la demande globale ; le vieillissement démographique aurait joué ici un rôle important en entraînant précisément une modification de la structure de demande. D’autres auteurs mettent de leur côté l’accent sur les dynamiques financières. Dans la mesure où la dette publique du Japon n’aurait pu s’accroître aussi considérablement sans les achats massifs de titres publics japonais réalisés par les banques, l’écart de production pourrait avoir été affecté par le comportement des banques. L’émission de dette publique aurait pu entraîner une sorte d’effet d’éviction sur l’investissement privé et par là se traduire par des pressions déflationnistes.

GRAPHIQUE 3  Ecart de production au Japon (en %)

Japon-deflation--output-gap.png

source : Nishizaki et alii (2013) 

Les variations des prix des matières premières, notamment de l’énergie, ne peuvent expliquer la déflation chronique au Japon. Les prix à l’import, qui sont largement déterminés par les prix des matières premières, ont connu d’amples fluctuations, si bien qu’ils n’expliquent pas le déclin prolongé et régulier des prix de consommation. Nishizaki et se coauteurs se tournent alors vers d’autres facteurs externes pour expliquer la déflation japonaise. Ils rappellent que le taux de change nominal effectif du Japon a eu tendance à s’apprécier ces dernières décennies. Or, une fois que les anticipations d’une appréciation du yen sont ancrées parmi les agents, l’économie est susceptible de basculer dans une trappe à liquidité. Dans les années quatre-vingt-dix, les décideurs publics et les agents privés s’inquiétaient des larges écarts entre prix domestiques et étrangers. Les années quatre-vingt-dix furent en effet une période au cours de laquelle les prix au Japon furent considérablement plus élevés que ceux en vigueur dans les autres économies avancées. Cependant, la différence déclina substantiellement dans les années deux mille. En effet, le Japon a dérégulé de nombreux secteurs à partir des années quatre-vingt-dix, ce qui a poussé les prix à la baisse en réduisant les marges et en améliorant la productivité dans la chaîne de distribution. Les chocs d’offre qui ont touché les pays émergents ont pu également jouer un rôle dans le basculement dans la déflation. Le Japon se distingue des autres pays avancés par ses liens particulièrement étroits avec des pays émergents comme la Chine, ce qui l’a davantage exposé aux pressions déflationnistes associées à leur intégration dans le commerce international. 

Au final, Nishizaki et ses coauteurs estiment que la déflation japonaise pourrait bel et bien résulter d’une combinaison de facteurs, ce qui expliquerait pourquoi les précédentes études ne soient pas parvenues à isoler une cause unique. Ils concluent leur étude en suggérant que les différentes mesures mises en place par le premier ministre japonaise Shinzo Abe (celles constituant la fameuse « abenomics ») pourraient faciliter la sortie de la déflation. Avec l’engagement de la banque du Japon à atteindre 2 % d’inflation, les anticipations sont susceptibles de s’élever et de s’ancrer à ce niveau. Ensuite, la baisse des coûts de financement devraient permettre de réduire l’écart de production. Enfin, la dépréciation du yen pousse les prix à l’importation à la hausse.

 

Références 

KRUGMAN, Paul R. (1998). « It's baaack: Japan's slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, vol. 29, n° 2.

NISHIZAKI, Kenji, Toshitaka SEKINE & Yoichi UENO (2013), « Chronic deflation in Japan », Banque des Règlements internationaux.

Repost 0
25 janvier 2014 6 25 /01 /janvier /2014 13:03

Les Etats-Unis ont connu une forte amélioration du niveau de vie au cours du vingtième siècle. Le taux de croissance annuel du PIB par personne a été plutôt stable depuis 1870, avoisinant quasiment 2 % (cf. graphique 1). La croissance s’est toutefois éloignée à de nombreuses reprises de sa tendance linéaire. Elle s’établissait en moyenne à 1,76 % entre 1870 et 1929, s’accéléra au sortir de la Seconde Guerre mondiale (atteignant en moyenne 2,5 % entre 1950 et 1973), puis ralentit au début des années soixante-dix (atteignant en moyenne 1,82 % entre 1973 et 1995). La « décennie perdue » (lost decade) du Japon et surtout l’expérience de la Grande Récession ont amené beaucoup à craindre que les pays avancés connaissent un ralentissement durable de la croissance. Une crise financière a en effet des répercussions à long terme sur le niveau de vie. Et si les Etats-Unis ont su au final recouvrir les pertes de la Grande Dépression, le Japon a récemment échoué à renouer avec une croissance soutenue, si bien que le niveau de vie des Japonais n’a cessé de diverger de celui des Américains depuis le début des années quatre-vingt-dix. Les plus pessimistes, notamment Tyler Cowen (2011) et Robert Gordon (2012), considèrent que les pays avancés étaient condamnés à une « grande stagnation » (great stagnation) avant même que survienne la Grande Récession, un pessimisme récemment partagé par Larry Summers lors du discours qu’il a récemment tenu autour de l’idée d’une « stagnation séculaire » (secular stagnation). 

GRAPHIQUE 1  PIB par tête aux Etats-Unis (en dollars 2009)

Fernald-Jones--PIB-par-tete-Etats-Unis.png

source : Fernald et Jones (2014)

John Fernald et Charles Jones (2014) se sont également penchés sur les perspectives de croissance à long terme des Etats-Unis. Le second considérait dans ses précédents modèles de croissance semi-endogène que la croissance de long terme reposait sur la découverte de nouvelles idées [Jones, 2002]. En effet, la production dépend fondamentalement du capital physique, des heures travailleurs, du capital humain par personne et du stock d’idées. Selon Romer (1990), la nature non rivale des idées mène à des rendements croissants, si bien que le revenu par tête dépend du nombre total d’idées dans l’économie : chaque nouvelle idée profite à tout le monde. A long terme, le stock d’idées est proportionnel au nombre de chercheurs et ce dernier est lui-même proportionnel à la population, si bien que l’échelle importe pour les économies dont la croissance repose sur les idées.

Fernald et Jones observent alors les moteurs de la croissance américaine pour la période 1950-2007. Selon leur modélisation, la production par personne dépend du ratio capital sur production (comme chez Robert Solow [1956]), du capital humain par personne (comme chez Robert Lucas [1988]), de l’intensité de la recherche-développement, c’est-à-dire le taux d’investissement qui s’applique à la chasse aux nouvelles idées (comme chez Paul Romer [1990] et les néo-schumpétériens Philippe Aghion et Peter Howitt [1992]) et enfin de la population ; le stock d’idées correspond alors à l’intensité de la recherche et à la population. Partant, la théorie moderne de la croissance économique suggère que plus des trois quarts de la croissance américaine depuis 1950 repose sur la hausse du niveau d’éducation et surtout sur l’intensification de la recherche, puisque la première explique en moyenne 0,4 point de pourcentage des 2 % de croissance annuel, tandis que la seconde en explique 1,2 point de pourcentage.

La croissance américaine du dernier demi-siècle a donc été due à des facteurs transitoires. La croissance du niveau d’éducation, l’intensité en recherche-développement des économies développements et de la population est susceptible d’être significativement plus faible lors des prochaines décennies qu’au cours des précédentes. La hausse du niveau scolaire est déjà en train de ralentir (cf. graphique 2), tandis que le taux d’activité ne pourra s’accroître indéfiniment. Par conséquent, la croissance du niveau de vie aux Etats-Unis risque également d’être plus lente ces prochaines décennies.

GRAPHIQUE 2 Niveau scolaire selon la cohorte

Fernald-Jones--scolarite-Etats-Unis.png

source : Fernald et Jones (2014)

En outre, la production d’idées pourrait être soumise à des rendements décroissants : plus l’on découvre des idées, moins il est facile d’en trouver de nouvelles. C’est précisément cette idée d’épuisement de l’innovation que Tyler Cowen et Robert Gordon mettent en avant dans leurs explications de la grande stagnation. Fernald et Jones estiment toutefois que les rendements décroissants de la production d’idées ne sont pas forcément incompatibles avec la poursuite de la croissante ; cette dernière est assurée si le nombre de chercheurs connaît une croissance exponentielle. Or, l’essor des pays émergents comme la Chine et l’Inde devrait se traduire par une croissance plus rapide du nombre de chercheurs dans le monde, si bien que ces économies vont de plus en plus contribuer à faire repousser la frontière technologique. 

En outre, comme l’ont discuté Erik Brynjolfsson et Andrew McAfee (2012), le développement des intelligences artificielles va permettre de remplacer une part croissante de la main-d’œuvre par du capital dans la production de biens et services. Dans les pays avancés, le partage des revenus avait déjà tendance à se déformer en faveur du capital (et réciproquement au détriment du travail) ces dernières décennies ; cette tendance devrait se poursuivre au cours des prochaines avec la substitution des facteurs impulsée par le progrès technique. Puisque cette dynamique favorise l’offre, Fernald et Jones considèrent qu’elle renforcera la croissance à long terme. Ils reconnaissent toutefois que la hausse des inégalités pourrait à l’inverser peser sur les perspectives de long terme.

 

Références 

AGHION, Philippe & Peter HOWITT (1992), « A model of growth through creative destruction », in Econometrica, vol. 60, n° 2, mars.

BRYNJOLFSSON, Erik & Andrew MCAFEE (2012), Race Against the Machine: How the Digital Revolution is Accelerating Innovation, Driving Productivity and Irreversibly Transforming Employment and the Economy.

COWEN, Tyler (2011), The Great Stagnation: How America Ate All The Low-Hanging Fruit of Modern History, Got Sick, and Will (Eventually) Feel Better.

FERNALD, John G., & Charles I. JONES (2014), « The future of U.S. economic growth », Federal Reserve Bank of San Francisco, working paper, n° 2014-02, janvier.

GORDON, Robert J. (2012), « Is U.S. economic growth over? Faltering innovation confronts the six headwinds », NBER working paper, n ° 18315, août.

JONES, Charles I. (2002), « Sources of U.S. economic growth in a world of ideas », in American Economic Review, mars, vol. 92, n° 1.

LUCAS, Robert E. (1988), « On the mechanics of economic development », in Journal of Monetary Economics, vol. 22, n° 1.

ROMER, Paul M. (1990), « Endogenous technological change », in Journal of Political Economy, vol. 98, n° 5.

SOLOW, Robert M. (1956), « A contribution to the theory of economic growth », in Quarterly Journal of Economics, vol. 70, n° 1.

Repost 0
21 janvier 2014 2 21 /01 /janvier /2014 22:43

Au sortir de la récente crise mondiale, la reprise a été particulièrement lente : la croissance et la création nette d’emplois sont restées faibles. A travers leurs divers travaux, Carmen Reinhart et Kenneth Rogoff (parmi d’autres chercheurs) ont montré que les récessions tendent à être plus profondes et plus longues lorsqu’elles sont précédées d’une crise financière, ce qui est précisément le cas avec la Grande Récession. Ces travaux sont particulièrement cruciaux, car ils permettent de déterminer si oui ou non la reprise est « normale » par rapport aux précédentes et, par conséquent, si la réponse des auteurs publiques est oui ou non adaptée.

Dans une nouvelle étude, Reinhart et Rogoff (2014) ont observé l’évolution du PIB réel par tête au cours de 100 crises bancaires de dimension systémique, c’est-à-dire marqués par des paniques bancaires, un taux élevé de créances douteuses, des liquidations bancaires et de larges interventions publiques visant à soutenir les banques. Plus précisément, ils se penchent sur 63 crises qui se sont produites dans les pays avancés et 37 crises dans les pays émergents. Pour évaluer la durée d’une récession, ils observent la durée nécessaire pour que le PIB réel par tête retrouve son niveau d’avant-crise. Ce sont les pays producteurs de matières qui ont connu les plus dramatiques effondrements dans la production et de véritables décennies perdues. C’est le cas par exemple de l’Australie en 1983 et du Chili en 1926. Plusieurs de ces épisodes ne sont pas de pures crises bancaires, puisqu’ils se sont notamment accompagnés d’un effondrement de la devise, voire d’un défaut souverain.

Une partie des coûts macroéconomiques associés aux crises bancaires est due à la nature prolongée et hésitante de la reprise. La reprise suite à une crise bancaire ne suit pas un profil en V comme certains auteurs ont pu le suggérer. 45 % des crises bancaires ont conduit à une récession en double creux (double dips) : le PIB réel par tête peut à nouveau baisser alors même qu’il n’a toujours pas retrouvé son niveau maximal d’avant-crise. Les crises les plus sévères sont les plus susceptibles de conduire à une récession en double creux. La durée moyenne de retour au pic d’activité est de 8 ans, tandis que la durée médiane est d’environ 6,5 ans. Si les pays émergents expérimentent en moyenne de plus forte chute de leur niveau de production que les pays avancés, ils ne connaissent pas forcément une plus longue crise.

Les auteurs se penchent ensuite sur le profil de la Grande Récession dans 12 pays avancés, en l’occurrence l’Allemagne, l’Espagne, les Etats-Unis, la France, la Grèce, l’Irlande, l’Islande, l’Italie, les Pays-Bas, le Portugal, le Royaume-Uni et l’Ukraine. 5 à 6 ans après le début de la récente crise mondiale, seuls l’Allemagne et les Etats-Unis ont retrouvé le niveau maximal du revenu réel qu’ils avaient atteint en 2007-2008. Le PIB réel par tête continuait de se contracter en 2013 en Espagne, en Grèce, en Italie, aux Pays-Bas et au Portugal. Même en utilisant les prévisions du FMI (réputées pour être optimistes), il n’est pas certain que le PIB réel par tête ait retrouvé en 2018 son niveau d’avant-crise dans les pays périphériques de la zone euro. Pour la Grèce, l’Italie et le Royaume-Uni, la Grande Récession se sera au final révélée être bien plus sévère que la Grande Dépression des années trente. 

Les auteurs en concluent que la lenteur de l’actuelle reprise n’est pas exceptionnelle au regard des crises bancaires qui sont survenues avant la Seconde Guerre mondiale. En revanche, la crise que viennent de traverser les pays européens (excepté l’Allemagne) apparait comme une anomalie au regard de ce qu’ils ont expérimenté après le conflit mondial. Beaucoup d’auteurs (notamment Antonio Fatás et Ilian Mihov) ont précédemment relié la lenteur de l’actuelle reprise aux politiques conjoncturelles mises en place depuis la Grande Récession : les banques centrales maintiennent certes des politiques monétaires ultra-accommodantes, mais les Etats ne cherchent pas de leur côté à stimuler l’activité à travers la relance budgétaire ; ils adoptent au contraire des mesures d’austérité pour réduire leur endettement public. Les gouvernements européens restent persuadés qu’une combinaison d’austérité budgétaire et de réformes structurelles suffiront à assurer la croissance économique, la stabilité financière et la soutenabilité de la dette (tant privée que publique). Au regard des résultats que Reinhart et Rogoff obtiennent au terme de leur nouvelle étude, il n’est pas illégitime de penser que la politique budgétaire contraint effectivement la reprise dans de nombreux pays européens.

D'une part, les gouvernements doivent assouplir leur politique budgétaire (ou tout du moins cesser de la resserrer) pour accélérer la reprise économique. D'autre part, ils doivent enfin se résoudre à renouer avec certaines pratiques qu’ils avaient eu tendance à délaisser ces dernières décennies s’ils désirent véritablement réduire le fardeau de leur endettement : les restructurations de dette, l’accélération de l’inflation, les contrôles de capitaux et d’autres formes de répression financière. 

 

Références

FATÁS, Antonio, & Ilian MIHOV (2013), « Recoveries », CEPR discussion paper, n° 9551.

REINHART, Carmen M., & Kenneth S. ROGOFF (2014), « Recovery from financial crises: Evidence from 100 episodes », NBER working paper, n° 19823, janvier.

REINHART, Carmen M., Kenneth S. ROGOFF & Max HARRIS (2014), « Output cycles and financial crises, 1800-2013 ». 

Repost 0
publié par Martin Anota - dans Instabilité financière
commenter cet article
17 janvier 2014 5 17 /01 /janvier /2014 21:59

Avec la Grande Récession, de nombreux économistes se sont de nouveau penchés sur les relations entre politique budgétaire et activité économique, notamment pour comprendre comment la première influence la seconde. Avant qu’éclate la crise mondiale, les macroéconomistes considéraient que la politique monétaire était non seulement capable de gérer les chocs de demande, mais qu’elle générait moins de distorsions que la politique budgétaire, si bien qu’ils avaient eu tendance à préconiser l’usage exclusif de la première pour stabiliser l’activité et à délaisser la seconde dans leurs analyses. Les événements de la Grande Récession les ont amenés à reconsidérer bien des choses, notamment en ce qui concerne le rôle des politiques conjoncturelles. Les banques centrales eurent beau fixer leurs taux directeurs au plus proche de son niveau plancher, la politique monétaire demeurait insuffisamment accommodante pour ramener l’économie au plein emploi. Les gouvernements avaient dû alors accroître leurs dépenses et laisser leurs déficits se creuser pour amortir la chute de la demande globale. A partir de 2010, les gouvernements commencèrent à resserrer leur politique budgétaire pour maintenir sur une trajectoire soutenable les énormes volumes de dette publique qu’ils avaient accumulés. Mais dans un contexte où la reprise était particulièrement fragile, ces plans d’austérité ont pu faire rebasculer les économies dans la récession.

Si les gouvernements ont rapidement délaissé la relance budgétaire pour adopter l’austérité, c’est notamment parce qu’ils se figuraient que la première ne stimulait que trop peu l’activité et que la seconde n’aurait qu’un impact limité sur l’activité. Il y a tout juste un an, Olivier Blanchard et Daniel Leigh (2013), deux économistes du FMI, ont reconnu que la sensibilité de l’activité à la politique budgétaire avait été particulièrement sous-estimée lors de la récession par leur propre institution et par les différents gouvernements à travers les pays avancés. Or, en affirmant que les gouvernements se sont par conséquent appuyés sur de mauvaises prévisions pour décider de l’orientation de leur politique budgétaire, Blanchard et Leigh suggèrent que le resserrement budgétaire a bel et bien été hâtif. En l’occurrence, les prévisions officielles se basaient sur des estimations des multiplicateurs budgétaires réalisées sur une période précédant la Grande Récession, or la théorie et les analyses empiriques suggèrent que l’effet multiplicateur apparaît beaucoup plus élevé en période de ralentissement économique qu’en « temps normal ». Plus récemment, la Commission européenne a également reconnu que ses propres estimations de l’impact de l’austérité sur l’activité avaient été bien trop optimistes (non seulement parce qu’elle n’a pas pensé que le multiplicateur serait plus élevé en période de récession, mais aussi parce qu’elle a insuffisamment pris en compte les répercussions de chaque plan d’austérité sur l’activité des autres pays-membres). Elle-même suggère ainsi que les efforts de consolidation budgétaire auraient dû être davantage étalés dans le temps.

Comme l’ont rappelé Blanchard et Leigh, la taille du multiplicateur budgétaire est susceptible de varier en fonction de la position dans le cycle économique ; en d’autres termes, le niveau d’activité même conditionne l’efficacité de la politique budgétaire. Lorsque l’activité est déprimée et le chômage élevé, la consommation dépend alors davantage du revenu courant que du revenu futur, tandis que l’investissement dépend davantage des profits courants que des profits futurs, si bien que les multiplicateurs sont plus élevés qu’en temps normal et, en l’occurrence, risquent d’être bien supérieurs à un. Comme l’ont modélisé Gauti Eggertsson et Paul Krugman (2012), c’est a fortiori le cas lorsque les banques restreignent le crédit et que les ménages cherchent à se désendetter rapidement. Robert Hall (2009), Michael Woodford (2011), Lawrence Christiano, Martin Eichenbaum et Sergio Rebelo (2011) suggèrent que les multiplicateurs sont significativement supérieurs à l’unité quand l’économie est plongée dans une trappe à liquidité : lorsque les taux directeurs sont à leur borne inférieure zéro (zero lower bound), les banques centrales ne peuvent pas compenser les répercussions négatives à court terme de l’austérité budgétaire sur l’activité économique (si ce n’est en adoptant des mesures « non conventionnelles », comme les achats d’actifs à large échelle ou le forward guidance). La politique monétaire devient excessivement restrictive, puisque le taux d’intérêt est supérieur au taux naturel (celui qui équilibrerait tous les marchés selon la littérature nouvelle keynésienne) : c’est comme si l’économie subissait alors perpétuellement des chocs de demande négatifs qui l’éloignent de plus en plus du plein emploi. 

Puisque les effets de la politique budgétaire diffèrent selon la taille du multiplicateur, les autorités budgétaires ne peuvent prendre les mêmes décisions selon que l’économie se situe en haut ou en bas du cycle. En effet, les répercussions d’une relance budgétaire sur l’activité sont maximales lorsque la demande est particulièrement déprimée, les agents contraints en termes de liquidité et l’économie confrontée à une trappe à liquidité. Si inversement le gouvernement adopte un plan d’austérité en période de récession, par exemple afin de réduire son endettement, les dommages portés à l’activité de court terme seront maximaux. Lorsque la demande globale est insuffisante, une consolidation budgétaire, qu’elle prenne la forme d’une baisse des dépenses publiques ou d’une hausse des impôts, ne peut qu’amplifier la contraction de la demande et éloigner davantage l’économie du plein emploi. Non seulement le gouvernement risque alors de creuser son déficit public, mais, même s’il parvenait à améliorer son solde budgétaire, le ratio dette publique sur PIB pourrait tout de même s’élever comme le dénominateur est susceptible de diminuer plus rapidement que le numérateur. Cette aggravation de la crise économique risque en outre de réduire le niveau de production potentielle via les effets d’hystérèse. Or, en réduisant les perspectives de croissance à long terme, le gouvernement risque précisément de saper le principal déterminant de la soutenabilité de la dette publique. En revanche, si le gouvernement cherche à consolider ses finances publiques une fois que la reprise s’est pleinement amorcée et que l’économie s’est rapprochée du plein emploi, alors l’activité devient moins sensible aux évolutions de la politique budgétaire et l’Etat pourra alors se désendetter sans la brider.

Par conséquent, si le multiplicateur est significativement positif et surtout supérieur à l’unité en période de récession, tandis qu’il retrouve de plus faibles valeurs en « temps normal », le gouvernement doit adopter une politique budgétaire contracyclique. Il doit assouplir sa politique budgétaire et s’endetter en période de récession pour relancer la croissance et attendre que l’économie renoue avec l’expansion pour resserrer sa politique budgétaire et ramener ses finances publiques à l’équilibre. En adoptant une politique budgétaire procyclique alors que leur économie n’avait pas renoué avec un rythme soutenu de croissance, certains pays européens ont non seulement aggravé leurs ratios dette publique sur PIB, mais se sont retrouvés dans une spirale récessive. 

Guillaume Cléaud, Matthieu Lemoine et Pierre-Alain Pionnier (2013) ont très récemment cherché à évaluer comment le multiplicateur de dépenses publiques a évolué en France depuis le début des années quatre-vingt. Ils notent que la taille du multiplicateur budgétaire est susceptible de changer indépendamment du cycle d’affaires. Par exemple, l’économie française s’est davantage ouverte au cours de la période, si bien que la contrainte extérieure a pu devenir plus forte et la politique budgétaire moins efficace. Pourtant, selon leurs résultats, la taille du multiplicateur ne semble pas varier significativement au cours du temps, puisqu’il reste toujours proche de l’unité. En l’occurrence, il ne semble pas plus élevé en périodes de récession. Les auteurs privilégient la persistance du chômage à un niveau élevé depuis les années quatre-vingt comme explication à ces résultats. Ces derniers suggèrent que le multiplicateur de dépenses est beaucoup moins élevé en période de récession que n’ont pu le suggérer les plus récentes études empiriques, comme celle d’Alan Auerbach et Yuriy Gorodnichenko (2012) dans le cas américain et surtout celle de Jérôme Creel, Eric Heyer et Mathieu Plane (2011) dans le cas français. Toutefois, en trouvant tout de même un multiplicateur proche de l’unité, Cléaud et ses coauteurs n’en concluent pas moins que la relance budgétaire reste tout de même efficace et, réciproquement, que l’austérité budgétaire a un impact significatif sur l’activité française que soit la position dans le cycle économique. 

 

Références

AUERBACH, Alan, & Yuriy GORODNICHENKO (2012), « Measuring the output responses to fiscal policy », in American Economic Journal – Economic Policy, vol. 4. 

BLANCHARD, Olivier, & Daniel LEIGH (2013), « Growth forecast errors and fiscal multipliers », IMF working paper, n° 13/1. Traduction partielle disponible en ligne.

CHRISTIANO, Lawrence, Martin EICHENBAUM & Sergio REBELO (2011), « When is the government spending multiplier large? », in Journal of Political Economy, vol. 119, n° 1.

CLÉAUD, Guillaume, Matthieu LEMOINE & Pierre-Alain PIONNIER (2013), « Which size and evolution of the government expenditure multiplier in France (1980-2010)? », Banque de France,document de travail.

CREEL, Jérôme, Eric HEYER & Mathieu PLANE (2011), « Petit précis de politique budgétaire par tous les temps. Les multiplicateurs budgétaires au cours du cycle », in Revue de l’OFCE, n° 116.

EGGERTSSON, Gauti B., & Paul KRUGMAN (2012), « Debt, deleveraging, and the liquidity trap », inQuarterly Journal of Economics, vol. 127, n° 3.

HALL, Robert E. (2009)« By how much does GDP rise if the government buys more output? », inBrookings Papers on Economic Activity, vol. 40, n° 2, automne.

TIMBEAU, Xavier (2012), « Que valent les multiplicateurs budgétaires aujourd’hui ? », in OFCE (blog), 21 novembre 2012.

WOODFORD, Michael (2011), « Simple analytics of the government expenditure multiplier », inAmerican Economic Journal: Macroeconomics, vol. 3, n° 1.

Repost 0
14 janvier 2014 2 14 /01 /janvier /2014 18:58

Le nombre de personnes vivant dans le monde avec moins de 1,25 dollar par jour a fortement baissé ces dernières décennies. Comme le confirment David Dollar, Tatjana Kleineberg et Aart Kraay (2013), la croissance économique a joué un rôle crucial dans ce reflux de la pauvreté absolue. Cette dernière s’explique en effet en grande partie par la croissance rapide de la Chine et de l’Inde. Toutefois, encore un milliard de personnes vivent aujourd’hui dans l’extrême pauvreté. La Banque mondiale a récemment adopté un objectif de réduction de cette forme de pauvreté : faire passer la proportion de la population vivant sous 1,25 dollar par jour (aux prix internationaux de 2005) de 21 % en 2010 à moins de 3 % d’ici 2030. 

Martin Ravallion (2013) a cherché à prévoir les taux de pauvreté futurs en supposant que la réduction de la pauvreté dans le monde en développement se poursuive à l’avenir au même rythme qu’actuellement. Il a observé le rythme de réduction de pauvreté ces dernières décennies et il a constaté que le taux de pauvreté mondiale a diminué chaque année de pratiquement un point de pourcentage depuis 1981 (cf. graphique). En utilisant la tendance passée, Ravallion estime que le taux de pauvreté du monde en développement atteindrait 3 % en 2027, soit trois ans en avance par rapport au programme de la Banque mondiale.

GRAPHIQUE Pourcentage de la population vivant dans l’extrême pauvreté dans le monde en développement (en %)

Ravallion--pauvrete-extreme-pays-en-developpement.png

source : Ravallion (2013)

Nobuo Yoshida, Hiroki Uematsu et Carlos Sobrado (2014) ne se montrent pas aussi optimistes. Ils dénotent en effet plusieurs fragilités dans le travail de Ravallion. D’une part, ce dernier suppose un taux de croissance de la population uniforme pour tous les pays, mais les dernières projections démographiques présentent de larges variations dans la croissance démographique d’un pays à l’autre, ce qui n’est pas sans avoir un impact significatif sur la projection de la pauvreté. D’autre part, Ravallion suppose qu’il n’y aura pas de changements dans la répartition du revenu mondial au cours du temps pour établir ses projections, alors qu’il observe lui-même de tels changements au cours des dernières décennies : la répartition mondiale est devenue plus inégale soit parce que les pays connaissent différents taux de croissance, soit parce que les inégalités s’accroissent en leur sein. Yoshida et ses coauteurs estiment le taux de pauvreté mondial de 2030 en reprenant l’approche de Ravallion, mais en utilisant cette fois-ci des taux de croissances économique et démographique spécifiques aux pays et en prenant en compte les changements dans les inégalités au sein de chaque pays. Ils estiment alors que le taux de pauvreté mondial atteindra 8,6 % en 2030, soit un chiffre bien plus élevé que la cible de 3 % de la Banque mondiale.

Leurs conclusions soutiennent la thèse de Kaushik Basu (2013) selon laquelle l’accélération de la croissance n’est pas suffisante pour éliminer rapidement l’extrême pauvreté dans le monde et le partage de la prospérité (que ce soit dans et entre les pays) s’avère essentiel pour l’éliminer en une génération. Les fruits de la croissance ne se diffusent pas nécessairement à l’ensemble de l’économie. Si les inégalités continuent de se creuser entre les pays, mais aussi en leur sein, le monde en développement aurait à atteindre des taux de croissance sans précédent afin d’éliminer rapidement l’extrême pauvreté. Pour que l’objectif de la Banque mondiale soit atteint, il apparaît essentiel aux auteurs d’accélérer la croissance parmi les pays les plus pauvres, mais aussi et surtout d’en faire profiter davantage les couches les plus pauvres de la population. Or, comme le notent à nouveau Yoshida et ses coauteurs avec pessimisme, rien ne certifie que les pays en développement continueront à maintenir des performances macroéconomiques au moins aussi belles que ces dernières décennies. Ils ne sont pas à l’abri d’une crise économique ou d’un simple ralentissement de leur croissance et la stagnation de l’activité parmi les pays avancés contraindrait fortement leur développement si elle persistait durablement. 

 

Références

BASU, Kaushik (2013), « Shared prosperity and the mitigation of poverty In practice and in precept », Banque mondiale, policy research working paper, n° 7000.

DOLLAR, David, Tatjana KLEINEBERG & Aart KRAAY (2013), « Growth still is good for the poor », Banque mondiale, policy research working paper, n° 6568, août.

RAVALLION, Martin (2013), « How long will It take to lift one billion people out of poverty? », Banque mondiale, policy research working paper, n° 6325, janvier.

YOSHIDA, Nobuo, Hiroki UEMATSU & Carlos E. SOBRADO (2014), « Is extreme poverty going to end?, An analytical framework to evaluate progress in ending extreme poverty », Banque mondiale, policy research working paper, n° 6740, janvier.

Repost 0
11 janvier 2014 6 11 /01 /janvier /2014 12:10

Depuis les années quatre-vingt-dix, les banques centrales ont adopté plus ou moins officiellement le ciblage d’inflation (inflation targeting) : elles annoncent une cible, c’est-à-dire un taux d’inflation (généralement 2 %), et assouplissent ou resserrent leur politique monétaire de manière à l’atteindre à moyen terme. En n’adoptant qu’un seul objectif et en s’y conformant, la banque centrale évite à ce que le taux d’inflation dérape en ancrant plus fermement les anticipations d’inflation. Pour certains, le ciblage d’inflation a contribué à ce que le taux d’inflation se stabilise à un faible niveau, précisément proche de 2 %, dans les pays avancés (bien que tous les économistes ne partagent pas cette interprétation). Cette pratique n’est toutefois pas sans rencontrer plusieurs critiques. Certains la jugent insuffisante pour garantir la stabilité des prix. D’autres estiment qu’un tel régime favorise l’endettement, la formation de bulles spéculatives et donc les crises financières (c’est notamment l’idée du paradoxe de la crédibilité développée par Claudio Borio au sein de la Banque des Règlements Internationaux). D’autres encore jugent que cibler un taux d’inflation de 2 % ne permet pas aux autorités monétaires de contrer efficacement des chocs de demande de grande ampleur, ce qui fut précisément le cas lors de la Grande Récession : au cours de celle-ci, les banques centrales ont ramené leur taux directeur au plus proche de zéro sans pour autant parvenir à rétablir le plein emploi. Si ces auteurs-ci ne préconisent pas forcément d’abandonner le ciblage d’inflation, ils suggèrent toutefois de relever le niveau ciblé (par exemple, 4 % au lieu de 2 %).

Si beaucoup de banquiers centraux et d’économistes jugent crucial à ce que les autorités monétaires ciblent une valeur nominale de manière à stabiliser plus efficacement les anticipations, tous ne s’accordent pas sur la variable ciblée, notamment pour les raisons que nous venons d’évoquer. Certains ont proposé à ce que les banques centrales ciblent, non pas un taux d’inflation, mais un niveau des prix : les banques centrales annoncent alors un niveau d’indice des prix et utilise ses instruments de politique monétaire de manière à l’atteindre à moyen terme [Kahn, 2009]. En effet, même si le ciblage d’inflation permet de stabiliser l’inflation, il n’amène toutefois pas les banques centrales à rattraper les années où elle n’a pas atteint sa cible et le futur niveau général des prix demeure incertain pour les agents. Le ciblage du niveau des prix permet alors de soulever cette incertitude, ce qui incite les entreprises et entreprises à davantage dépenser lorsque l’activité est déprimée et surtout à mieux gérer leurs investissements de long terme. Puisque l’environnement macroéconomique se caractérise actuellement par une très faible inflation, parvenir à générer des anticipations d’inflation positive permettrait de maintenir des taux d’intérêt négatifs et donc d’inciter les agents à investir davantage.

De leur côté, Scott Sumner et les partisans du monétarisme de marché (market monetarism) ont proposé à ce que les banques centrales adoptent le ciblage du PIB nominal (NGDP targeting). Par exemple, en cherchant une croissance du PIB nominal de 5 %, les autorités monétaires éviteraient à ce que l’économie connaisse une récession en termes nominaux et stimuleraient plus efficacement la demande globale. Si la banque centrale ne parvenait toutefois pas à générer une croissance nominale de 5 % au cours d’une année, elle pourra toujours rattraper son retard les années suivantes. Si par exemple la Fed avait ciblé le revenu nominal, elle aurait assoupli plus rapidement sa politique monétaire au début de la Grande Récession et déployé davantage de mesures non conventionnelles. Selon les partisans du ciblage de la production nominale, l’adoption de cette pratique permettrait également aux autorités monétaires de stimuler plus efficacement la reprise en permettant à l’économie de croître plus rapidement en sortie de récession et à la production nominale de rattraper sa trajectoire d’avant-crise. 

Beaucoup d’auteurs ont souligné qu’il est essentiel que la banque centrale s’engage fermement à atteindre sa cible pour mieux ancrer les anticipations et atteindre effectivement sa cible. L’engagement apparaît particulièrement crucial lorsque la banque centrale cherche à stabiliser l’activité face à un puissant choc de demande globale. Les nouveaux keynésiens Gauti Eggertsson et Michael Woodford (2003) suggèrent que la pratique du forward guidance permet aux banques centrales de sortir l’économie d’une trappe à liquidité. En effet, si la politique monétaire s’avère excessivement restrictive alors même que le taux directeur a déjà atteint sa borne inférieure zéro (zero lower bound), l’économie fait face à de perpétuelles pressions déflationnistes et s’éloigne continûment du plein emploi. La banque centrale peut alors s’engager à maintenir ses taux directeur à un faible niveau sur une période prolongée : en guidant ainsi les anticipations, elle incite les agents privés à investir, ce qui stimule l’activité. Surtout, elle peut s’engager aujourd’hui à maintenir des conditions extrêmement accommodantes même après que l’économie soit sortie de la trappe à liquidité : puisqu’ils anticipent un boom après la période où l’économie est dans une trappe à liquidité, les agents privés sont encore plus incités à investir dans la période courante.

Roc Armenter (2013) se montre bien pessimiste quant à l’efficacité du ciblage d’une variable nominale, quelle qu’elle soit. Il suffit que les anticipations ne s’accordent pas avec le niveau ciblé à un instant donné pour que les autorités monétaires ne parviennent pas à atteindre leur cible, or la présence de la borne du zéro pour les taux directeurs risque précisément de générer un tel décalage. En raison de la borne inférieure zéro, les anticipations d’inflation limitent la gamme possible de taux d’intérêts réels, ce qui limite par conséquent les niveaux d’inflation et de production que la banque centrale peut atteindre. Si les anticipations d’inflation sont très faibles, alors la banque centrale ne peut que pousser les agents privés à revoir leurs anticipations d’inflation et de production à la baisse lorsqu’elle augmente son taux directeur. L’option la moins coûteuse consiste alors pour les autorités monétaires de valider les anticipations des agents privés, auquel cas les équilibres multiples apparaissent. 

Si la banque centrale a adopté le ciblage d’inflation, il n’y a pas d’équilibre unique. Il existe un bon équilibre où l’inflation et la production fluctuent autour de leur cible ; si l’économie fait face à un puissance choc de demande, la banque centrale peut assouplir sa politique monétaire, si bien que le taux directeur n’est que très rarement contraint par la borne inférieure zéro. Mais l’économie peut également se retrouver à un mauvais équilibre où le taux directeur reste bloqué à la borne du zéro et où le taux d’inflation ne cesse pourtant de s’éloigner de sa cible. La banque centrale ne parvient alors pas à ancrer les anticipations et celles-ci demeurent pessimistes : l’économie est enfermée dans une trappe à anticipations (expectations trap). Le ciblage du niveau des prix a beau introduire une variable d’état endogène, en l’occurrence le niveau des prix ou bien son écart par rapport à une trajectoire prédéterminée, l’économie fait toujours face à des équilibres multiples : à un bon équilibre, la banque centrale parvient à maintenir le niveau des prix à la cible ou sur la trajectoire ciblée ; au mauvais équilibre, le taux directeur se retrouve rapidement et durablement à sa borne zéro sans pour autant que les autorités monétaires parviennent à désamorcer la spirale déflationniste : le niveau général des prix chute continûment, s’éloignant sans cesse de sa cible et entretenant ainsi les anticipations pessimistes des agents. L’auteur trouve les mêmes résultats en ce qui concerne le ciblage de la production nominale. 

Surtout, Armenter n’est pas convaincu par l’efficacité de la stratégie de forward guidance en situation de trappe à liquidité. L’engagement à laisser les taux directeurs à un faible niveau bien plus longtemps que l’exigent les conditions macroéconomiques ne permet pas forcément de sortir l’économie d’une trappe à liquidité. A un équilibre déflationniste, les agents privés anticipent déjà un maintien du taux directeur à un faible niveau, si bien que cette forme de forward guidance ne fait que valider ces anticipations et maintient l’économie à ce mauvais équilibre. 

 

Références

ARMENTER, Roc (2013), « The perils of nominal targets », Federal Reserve Bank of Philadelphia, working paper, 10 décembre.

EGGERTSSON, Gauti, & Michael WOODFORD (2003), « The zero bound on interest rates and optimal monetary policy », in Brookings Papers on Economic Activity, vol. 1/2003.

KAHN, George A. (2009), « Beyond inflation targeting: Should central banks target the price level? », in Federal Reserve Bank of Kansas Economic Review, troisième trimestre.

Repost 0
publié par Martin Anota - dans Politique monétaire
commenter cet article
7 janvier 2014 2 07 /01 /janvier /2014 19:29

Lors de la Grande Récession, les pays avancés ont adopté des politiques de relance pour soutenir l’activité et contenir le chômage. Ces impulsions budgétaires et les effets propres à la récession ont conduit à un fort accroissement des niveaux de dette publique. Les inquiétudes quant à la soutenabilité des finances publiques et la hausse des primes de risque souverain dans plusieurs pays « périphériques » de la zone euro ont poussé, non seulement ces derniers, mais aussi les autres pays avancés à resserrer leur politique budgétaire pour réduire le fardeau de leur endettement et maintenir la confiance sur les marchés obligataires. Par exemple, selon les estimations de l’OCDE, les efforts de consolidation budgétaire menés dans les économies avancées ont représenté 1 % de leur PIB en 2013. Or, ces mesures d’austérité ont été précisément adoptées alors même que la reprise était à peine amorcée, c’est-à-dire à un moment où l’activité était particulièrement sensible aux évolutions de la politique budgétaire (le multiplicateur est plus élevé en bas qu’en haut du cycle économique). Ces mesures d’austérité ont fortement ralenti le rythme de reprise et plusieurs pays européens sont même replongés en récession. Elles ont aussi pu entraîner une nouvelle hausse du ratio dette publique sur PIB dans certains pays quand le PIB s’est contracté plus rapidement que le montant de la dette. Inversement, l’accélération de la croissance au sein de la zone euro en 2013 a pu s’expliquer, selon certains, par le ralentissement du rythme de la consolidation budgétaire. 

Si le commerce international joue un rôle majeur dans la transmission d'une crise économique d’un pays à l’autre, il rend également les économies sensibles aux politiques budgétaires adoptées par leurs partenaires commerciaux. En l'occurrence, la notion de contrainte extérieure est régulièrement avancée pour nuancer l'opportunité de mener un plan de relance de façon isolée : puisqu’une partie de la demande domestique s’adresse aux producteurs étrangers, une partie de la relance budgétaire profite donc à ces derniers et non aux entreprises domestiques. En revanche, les Etats-membres de la zone euro auraient tout intérêt à adopter collectivement des plans de relance pour sortir leur économie de la récession, car l’union monétaire constitue une économie relativement fermée. Les effets des plans de relance tendraient alors à se renforcer mutuellement. Pour autant, la contrainte extérieure incite chaque pays, non pas à relancer son économie, mais plutôt à se comporter en passager clandestin, c’est-à-dire à ne rien faire, si ce n’est espérer que ses partenaires commerciaux adoptent des plans de relance pour en profiter indirectement.

Les mêmes mécanismes sont à l’œuvre, mais cette fois-ci en sens inverse, lorsque les gouvernements adoptent collectivement des plans d’austérité. La consolidation budgétaire menée dans une économie donnée est susceptible de réduire la demande domestique pour les importations, auquel cas elle réduit la production des partenaires commerciaux. Comme le montre l’exemple de la zone euro, l’adoption collective de plans d’austérité se révèle particulièrement nocive à l’activité et tend à enfermer l’union monétaire dans la récession. D’une part, si plusieurs pays mènent des plans d’austérité au même instant, leurs effets négatifs sur la production se renforcent mutuellement. D’autre part, ces répercussions sont d’autant plus fortes que les échanges commerciaux entre les économies sont importants. Or, les gouvernements tendent à négliger les répercussions de leur politique budgétaire sur leurs partenaires commerciaux lorsqu’ils adoptent un plan d’austérité. 

Affinant les résultats obtenus par Alan Auerbach et Yuriy Gorodnichenko (2012) dans une précédente étude, Antoine Goujard (2013) a récemment observé comment les différents plans d’austérité qui ont été menés entre 1978 et 2009 se sont répercutés sur la production des pays de l’OCDE via les flux commerciaux. Il confirme que la croissance économique d’une économie donnée est pénalisée lorsque ses partenaires commerciaux consolident leurs finances publiques. Ces effets ne sont toutefois pas les mêmes en toute circonstance. Premièrement, une réduction du solde budgétaire équivalente à 1 % du PIB dans les principaux marchés à l’exportation est associée en moyenne à une contraction de la croissance du PIB domestique de 1,5 point de pourcentage. Deuxièmement, les consolidations basées sur les réductions des dépenses publiques tendent à avoir de plus fortes répercussions sur la production que celles reposant sur les hausses d’impôts. Troisièmement, les répercussions de l’austérité budgétaire diffèrent selon la nature des taux de change. En l’occurrence, elles sont plus fortes entre des pays qui disposent de taux de change fixes ou qui possèdent une devise commune qu’entre pays ayant des taux de change flexibles. D’après Goujard, cela reflète un degré élevé d’intégration commerciale d’une union monétaire, puisque les exportations bilatérales chutent plus rapidement au sein de celle-ci qu’entre pays ayant des taux de change flottants. Quatrièmement, les consolidations budgétaires menées dans des pays partenaires tendent à avoir des effets sur la croissance domestique via une réduction des exportations bilatérales et une hausse des importations bilatérales. Selon l’auteur, ce résultat suggère que les consolidations poussent la production à se réorienter vers la satisfaction de la demande étrangère. Dans un régime de taux de change flottants, le taux de change nominal réel tend à s’apprécier lorsqu’un pays partenaire consolide ses finances publiques ; par contre, dans une union monétaire, le taux de change réel s’ajuste à travers un processus de compression des prix et salaires. Cinquièmement, les politiques budgétaires des partenaires commerciaux ont de plus fortes répercussions sur la croissance domestique durant les récessions qu’en temps « normal ». Enfin, les pays tiers jouent également un rôle dans la transmission des chocs. En effet, lorsque les marchés d’exports d’un pays donné sont affectés par des plans d’austérités, ces derniers tendent également à affecter les pays fournisseurs. 


Références

AUERBACH, Alan, & Yuriy GORODNICHENKO (2012), « Output spillovers from fiscal policy », NBER working paper, n° 18578. Traduction partielle disponible ici.

GOUJARD, Antoine (2013), « Cross-country spillovers from fiscal consolidations », OECD Economics Department working papers, n° 1099, décembre.

Repost 0
5 janvier 2014 7 05 /01 /janvier /2014 13:04

Avant la Grande Récession, l’économie mondiale se caractérisait par d’impressionnants déséquilibres des comptes courants (cf. graphique 1). En 2008, l’excédent courant de la Chine et le déficit courant des Etats-Unis représentaient respectivement 0,7 % et 1 % du PIB mondial (cf. graphique 2). La même année, l’ensemble des excédents des pays excédentaires (notamment la Chine, l’Allemagne, le Japon et les pays exportateurs de pétrole) représentait plus de 2,5 % du PIB mondial et l’ensemble des déficits des pays déficitaires (notamment les Etats-Unis, la zone euro à l’exception de l’Allemagne et les pays émergents non asiatiques) représentait aussi environ 2,5 % du PIB mondial. 

GRAPHIQUE 1  Déséquilibres mondiaux de compte courant (en % du PIB mondial)

Desequilibres-globaux--global-imbalances--The-Ec-copie-1.png

source : The Economist (2013)

Avant qu’éclate la crise financière, plusieurs auteurs avaient suggéré que ces amples déséquilibres pouvaient être soutenables à long terme. Michael P. Dooley, David Folkerts-Landau et Peter Garber (2003) considèrent par exemple que le fonctionnement normal du système monétaire international implique un centre déficitaire et une périphérie excédentaire. Selon eux, les pays émergents d’Asie (en particulier la Chine) joueraient précisément le rôle de périphérie aujourd’hui. Ils peuvent durablement poursuivre une stratégie de croissance fondée sur les exportations en sous-évaluant leurs taux de change et en maintenant des contrôles de capitaux. L’accumulation des réserves de devise leur permet alors de contenir l’appréciation de leur taux de change. De plus, en accumulant des créances sur les Etats-Unis, la Chine ne voit pas son développement être contraint par l’inefficacité de ses institutions financières domestiques. Les économies du centre, en particulier les Etats-Unis, doivent par contre opter pour la libéralisation financière et laisser leur taux de change flotter. La stratégie des pays périphériques leur profite également, car la demande virtuellement illimitée pour leurs actifs financiers leur permet de vivre au-dessus de leurs moyens en maintenant durablement de larges déficits courants. Certes, à un certain moment, les pays émergents d’Asie se seront suffisamment développés pour accéder au club des pays avancés. Ils procéderont alors eux-mêmes à une libéralisation financière et laisseront flotter leurs taux de change plus librement. Mais à cet instant-ci, ce sera au tour d’un autre ensemble de pays en développement d’adopter la même stratégie de croissance fondée sur les exportations et de devenir la nouvelle périphérie dans le système monétaire international. 

GRAPHIQUE 2  Comptes courants de la Chine et des Etats-Unis

Aizenman-Chine-Etats-Unis-comptes-courants.png

source : Aizenman et alii (2013)

Les tenants du mercantilisme moderne ont une vision plus nuancée pour expliquer la persistance des déséquilibres globaux dans les années deux mille. Joshua Aizenman et Jaewoo Lee (2005, 2006) ont confirmé que l’accumulation de réserves de change qui accompagne les excédents de compte courant était dominée par un motif de précaution avant les années deux mille : en l’occurrence, la crise asiatique de 1997 a conduit les pays émergents d’Asie à adopter un comportement plus prudent et à accumuler suffisamment de réserves de devises pour s’assurer contre la volatilité des flux de capitaux. Mais les deux auteurs notent par la suite un changement de régime. Par exemple, les réserves de change de la Chine, qui oscillaient sans réelle tendance autour de 15 % du PIB durant la seconde moitié des années quatre-vingt-dix, ont connu une croissance annuelle de 4 % après 2000, pour finalement représenter près de 45 % du PIB en 2007 (cf. graphique 3). Pour Aizenman et Lee, le mercantilisme monétaire explique précisément ce changement de régime : la Chine a commencé à accumuler des excédents de compte courant et à accroître son stock de réserves de change pour stimuler ses exportations et ainsi sa croissance économique. 

GRAPHIQUE 3  Réserves de change de la Chine (en % du PIB)

Aizenman--Chine--reserves-de-change.png

source : Aizenman et alii (2013)

Tous les auteurs n’ont toutefois pas perçu les déséquilibres globaux comme soutenables. Maurice Obstfeld et Kenneth Rogoff (2005) craignaient notamment de voir les déséquilibres se dénouer violemment. C’est finalement la crise mondiale qui remit en cause les déséquilibres de compte courant. Suite à l’éclatement de la bulle immobilière, les agents privés aux Etats-Unis et dans les autres pays avancés ont cherché à se désendetter, si bien qu’ils ont réduit leurs dépenses et notamment leur demande d’importations. Les déficits des économies avancées ont donc été poussés à la baisse. Le reflux des flux financiers internationaux au cours d'une crise financière a pu également déprécier leurs taux de change réels, ce qui contribua également à réduire les déficits courants. Avec le déclin de la demande extérieure, la Chine a pris conscience de l’extrême dépendance de sa croissance aux exportations et a commencé à promouvoir sa demande domestique, en adoptant une relance budgétaire et en alimentant un boom du crédit. Elle a également laissé son taux de change s’apprécier et commencé à diversifier ses réserves de change. 

Par conséquent, la crise mondiale a conduit à une forte réduction des déséquilibres globaux. Depuis 2009, l’ensemble des excédents des grands pays excédentaires a représenté moins de 2 % du PIB mondial (cf. graphique 1). L’ensemble des déficits des grands pays déficitaires a également été inférieure à 2 % du PIB mondial. Entre 2007 et 2012, l’excédent courant de la Chine est passé de 10,1 % à 2,3 % du PIB (cf. graphique 2). Sur la même période, le déficit courant des Etats-Unis est passé de 5 % à 2,8 % du PIB., l’excédent chinois et le déficit américain devraient représenter respectivement 0,32 % et 0,64 % du PIB mondial à la fin de l’année 2013. 

Si plusieurs études ont cherché à préciser le lien entre les déséquilibres globaux et la récente crise mondiale, peu d'analyses ont observé l'évolution des premiers depuis que celle-ci a éclaté. Joshua Aizenman, Yothin Jinjarak et Nancy Marion (2013, 2014) ont observé un échantillon de 95 pays, dont 30 pays-membres de l’OCDE. Ils constatent que la crise financière a entraîné un changement structurel dans la relation entre les comptes courants et les facteurs économiques : avant la crise financière, les excédents courants étaient positivement corrélés avec les réserves de change, avec les échanges extérieurs et avec le déficit courant des Etats-Unis ; après la crise financière, les deux premières corrélations disparaissent et la corrélation avec la demande américaine devient négative. Les Etats-Unis ne semblent ainsi plus jouer un rôle important comme demandeur en dernier ressort depuis 2006. Le rééquilibrage des comptes courants s’est également accompagné de profonds changements dans l’accumulation des réserves de change. L’inévitable appréciation du renminbi va déprimer davantage le rendement des actifs libellés en dollars. Le déclin dans le stock de devises détenu par la Chine que l’on a pu observer suite à la crise est essentiellement impulsé par une nouvelle vague d’IDE à destination des pays en développement. Il s’explique précisément par une volonté de détenir des actifs étrangers à plus hauts rendements. Puisque, d’une part, la Chine est incitée à ne plus fonder sa croissance économique sur la demande extérieure et, d’autre part, la détention de réserves de change se révèle coûteuse, Joshua Aizenman et ses coauteurs en concluent que la persistance d’excédents modérés et le faible rythme d’accumulation de change pourraient désormais constituer des caractéristiques durables de l’économie chinoise. 

 

Références

AIZENMAN, Joshua, Yothin JINJARAK & Nancy P. MARION (2013), « China's growth, stability, and use of international reserves », NBER Working paper, n° 19739.

AIZENMAN, Joshua, Yothin JINJARAK & Nancy P. MARION (2014), « Why current accounts fell post-crisis? China's growth, stability, and use of international reserves », in vox, 5 janvier. 

AIZENMAN, Joshua, & Jaewoo LEE (2005), « International reserves: Precautionary vs. mercantilist views, theory and evidence », IMF working paper, n° 05/198, octobre.

AIZENMAN, Joshua, & Jaewoo LEE (2006), « Financial versus monetary mercantilism: Long-run view of large international reserves hoarding », IMF working paper, n° 06/280, décembre.

BRENDER, Anton & Florence PISANI (2007), Les Déséquilibres financiers internationaux, La Découverte.

DOOLEY, Michael P., David FOLKERTS-LANDAU & Peter GARBER (2003), « An essay on the revived Bretton Woods system », NBER working paper, n° 9971, septembre.

OBSTFELD, Maurice, & Kenneth ROGOFF (2005), « Global current account imbalances and exchange rate adjustments », Brookings Papers on Economics Activity, n° 2005/1.

Repost 0

Présentation

  • : D'un champ l'autre
  • D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher