Overblog
Suivre ce blog Administration + Créer mon blog
30 décembre 2015 3 30 /12 /décembre /2015 13:00

Il y a plus d'un demi-siècle, Nicholas Kaldor (1961) avait identifié six faits stylisés à propos de la croissance économique que la théorie se devait, selon lui, d’expliquer. Charles Jones et Paul Romer (2010) ont complété son travail en identifiant six autres faits stylisés qu’un demi-siècle supplémentaire de recherches avait permis d’établir. Charles Jones (2015) a récemment cherché à identifier tous les faits empiriques susceptibles de nous éclairer pourquoi les populations des pays les plus riches sont plus riches qu’il y a un siècle et pourquoi certains pays sont plus riches que d’autres.

GRAPHIQUE 1  PIB par personne aux Etats-Unis (échelle logarithmique, en dollars 2009)

Les faits de la croissance économique

Jones se penche tout d’abord sur la croissance économique dans les économies situées à la frontière, c’est-à-dire parmi l’ensemble des pays les plus avancés. Depuis plus d’un siècle, les Etats-Unis ont été la principale économie à la frontière. Entre 1870 et 2014, le PIB par tête des Etats-Unis a augmenté au rythme moyen de 2 % par an ; il a été multiplié par 17, en passant de 3.000 dollars à 50.000 dollars (cf. graphique 1). La Grande Dépression a toutefois entraîné une forte baisse du revenu : le PIB par tête a chuté de près de 20 % en moins de 4 ans. La croissance américaine atteignait 2,23 % par an en moyenne entre 1929 et 2007, contre 1,76 % entre 1870 et 1929. Elle était plus rapide entre 1950 et 1973 qu’entre 1973 et 1995, avant d’accélérer à nouveau à partir de 1995. Jones confirme que la croissance soutenue des niveaux de vie est un phénomène relativement récent : entre le premier siècle après J.C. et 1820, les niveaux de vie à l’Ouest ont doublé, en passant d’environ 600 dollars à 1.200 dollars, tandis qu’ils ont été multipliés par 20 au cours des deux siècles suivants (cf. graphique 2).

GRAPHIQUE 2  PIB par tête et population en Europe occidentale et aux Etats-Unis (en indices, base 100 l’année 0)

Les faits de la croissance économique

Jones étudie ensuite les sources de croissance à travers une simple fonction de production agrégée. La décomposition comptable de la croissance américaine depuis 1948 fait émerger plusieurs faits. Premièrement, la croissance de la production par tête a été légèrement plus rapide que la croissance du PIB par tête. Deuxièmement, le ratio capital sur production est relativement stable au cours du temps, si bien qu’il n’a pratiquement pas contribué à la croissance. Troisièmement, le changement de composition du travail (avec la hausse du niveau de scolarité, la tertiarisation de l’emploi et l’entrée des femmes dans la population active) contribue à 0,3 points de pourcentage de la croissance. Quatrièmement, le résidu de la productivité globale des facteurs (PGF) contribue à 2 points de pourcentage de la croissance économique, soit aux quatre cinquièmes de cette dernière. La période entre 1948 et 1973 fut marquée par une accélération de la croissance du PIB et de la PGF ; la période entre 1973 et 1995 a été marquée par un ralentissement de la croissance du PIB et de la productivité. Ce ralentissement provient essentiellement de la PGF et non du capital physique ou humain. La période entre 1995 et 2007 a été marquée par une forte reprise de la croissance, sans que celle-ci ne renoue avec son rythme des années cinquante et soixante. Elle coïncide avec l’essor des technologies d’information et de communication. La faible croissance de la production par heure depuis 2007 est peut-être attribuable au ralentissement de la croissance de la PGF, mais cette dernière semble être à l’œuvre dès 2003.

GRAPHIQUE 3  Ratio capital physique sur PIB

Les faits de la croissance économique

Jones se tourne ensuite sur le rôle du stock de capital physique et du capital humain dans la croissance à la frontière. La contribution du ratio capital sur production à la croissance suggère que ce ratio a été relativement constant au cours du temps (cf. graphique 3). Malgré la forte baisse du prix relatif des biens d’équipement, la part de l’investissement dans le PIB est restée relativement stable. La stabilité des parts du PIB rémunérant respectivement le travail et le capital a été l’un des faits stylisés identifiés il y a un demi-siècle par Kaldor (1961). Entre 1948 et 2000, ces parts ont effectivement été stables. Par contre, la part du capital a eu tendance à augmenter et la part du travail à diminuer depuis 2000, comme l’ont notamment montré Loukas Karabarbounis et Brent Neiman (2013) et Michael Elsby et alii (2013). Aux Etats-Unis, la part du revenu rémunérant le travail s’élevait à environ 65,8 % entre 1948 et 2000 ; elle atteignait 61,3 % en 2012 (cf. graphique 4). Le capital humain est un autre facteur de production essentiel dans la théorie néoclassique. Il est notamment accumulé à travers l’éducation. Or, entre 1880 et 1950, le niveau de scolarité a fortement augmenté aux Etats-Unis ; par contre, le niveau de scolarité des cohortes nées après 1950 a augmenté plus lentement. La part des travailleurs diplômés du supérieur est passée de 20 % à 50 % entre 1963 et 2012. Au cours de cette période, le surcroît de salaire (la « prime de qualification ») obtenu par les diplômés du supérieur a fortement augmenté, malgré la hausse du nombre de diplômés.

GRAPHIQUE 4  Parts du travail et du capital aux Etats-Unis (en %)

Les faits de la croissance économique

La production d’idées joue un rôle important dans les modèles de croissance modernes, notamment dans les théories de la croissance endogène et notamment dans le paradigme néo-schumpétérien. Le stock d’idées peut résulter d’une activité délibérée de recherche-développement, mais aussi plus indirectement de la production, notamment de l’apprentissage par la pratique (learning by doing). La fonction de production des idées reste une boîte noire : nous n’avons pas de bonnes mesures des idées ou des intrants utilisés pour les produire. Jones observe certains indicateurs traditionnellement utilisés par la littérature. Par exemple, aux Etats-Unis, les dépenses d’investissement dans les produits de propriété intellectuelle sont passées de moins de 1 % à environ 5 % du PIB entre 1929 et aujourd’hui. La part de la population employée dans la recherche-développement a augmenté dans les pays de l’OCDE. Depuis 1980, le nombre de brevets délivrés a connu une croissance exponentielle aux Etats-Unis, mais cette hausse s’explique seulement par l’essor des brevets délivrés aux étrangers. En outre, certains estiment que la productivité de la recherche dans la production de brevets ait fortement chuté durant l’essentiel du vingtième siècle.

GRAPHIQUE 5  Part de l’emploi dans l’agriculture aux Etats-Unis et au Japon (en %)

Les faits de la croissance économique

Les pays situés à la frontière ont été affectés par plusieurs bouleversements structurels associés à la croissance économique. Le changement structurel le plus important a été le déclin de l’agriculture. Aux Etats-Unis, la part des travailleurs embauchés dans le secteur agricole est passée d’environ deux tiers à 2,4 % entre 1840 et 2000 (cf. graphique 5). Le déclin de l’agriculteur est tout d’abord associé à un essor du secteur industriel, avant que ce dernier ne décline également, alors que les services poursuivent leur essor. Un deuxième changement structurel est la substitution du travail par le capital. La mécanisation a par ailleurs contribué au déclin de l’emploi agricole, ainsi qu’à l’essor, puis au déclin de l’emploi industriel.

GRAPHIQUE 6  Dépenses de santé (en % du PIB)

Les faits de la croissance économique

Ce dernier demi-siècle a également été marqué par l’essor de la part des dépenses de santé dans le PIB (cf. graphique 6). Aux Etats-Unis, cette part a été multipliée par trois depuis 1960, en passant de 5 % à 17 % du PIB ; elle a également triplé en France, passant de 4 % à 12 %. Cet essor des dépenses de santé résulte en partie de la croissance. En effet, l’espérance de vie à la naissance a fortement augmenté durant la première moitié du vingtième siècle, notamment grâce aux progrès de santé publique. 

GRAPHIQUE 7  Nombre moyen d’heures travaillées par an

Les faits de la croissance économique

Quatrièmement, le nombre d’heures travaillées dans l’année a fortement baissé depuis 1950 dans les pays avancés (cf. graphique 7). Aux Etats-Unis, il est passé de 1909 à 1704 entre 1950 et 2011 ; en France, il est passé de 2159 à 1476 sur la même période.

GRAPHIQUE 8  Taux de fertilité (nombre de naissances par année pour 1000 personnes)

Les faits de la croissance économique

Cinquièmement, au cours des deux derniers siècles, les pays ont amorcé et achevé leur transition démographique, si bien qu’ils connaissent une baisse de leur taux de fertilité (cf. graphique 8). En 1800, les taux de fertilité s’élevaient à 5,5 % au Etats-Unis et à 3,3 % en France ; ils sont désormais inférieurs à 1,5 %.

GRAPHIQUE 9  Part du revenu national rémunérant les 0,1 % les plus aisés

Les faits de la croissance économique

Sixièmement, les inégalités de revenu et de patrimoine ont eu tendance à diminuer au début du vingtième-siècle : par exemple, selon les données de Facundo Alvaredo et alii (2013), en France et aux Etats-Unis, la part du revenu détenue par les 0,1 % des ménages les plus aisés est passée d’environ 9 % en 1920 à environ 2 % durant les années cinquante, niveau où elle se maintint jusqu’aux années quatre-vingt. Mais depuis, les inégalités tendent à augmenter, en particulier dans les pays anglo-saxons (cf. graphique 9). Aux Etats-Unis, entre la Première Guerre mondiale et les années soixante-dix, ce sont les 99,9 % des ménages les moins aisés qui captèrent l’essentiel des gains de la croissance ; depuis 1980, le PIB par tête des 0,1 % des ménages les plus aisés a augmenté en moyenne de 6,86 % par an, soit au même rythme que l’économie chinoise (cf. graphique 10).

GRAPHIQUE 10  PIB par personne des 0,1 % les plus aisés et des 99,9 % les plus modestes aux Etats-Unis (en milliers de dollars 2009)

Les faits de la croissance économique

Jones se demande ensuite comment la croissance se diffuse à travers le monde. Il cherche à identifier quels pays se rapprochent de la frontière, quels pays s’en éloignent et quels pays stagnent, pour ensuite chercher à identifier les points communs que partagent les différents pays composant chacun de ces trois groupes. Jones rappelle tout d’abord que la croissance ne s’est pas amorcée au même instant dans l’ensemble des pays. Le PIB par habitant augmentait lentement avant l’année 1600, puis l’économie mondiale a subi une « Grande Divergence » des niveaux de vie (cf. graphique 11).

GRAPHIQUE 11  La Grande Divergence des PIB par personne (multiples de 300 dollars)

Les faits de la croissance économique

Jones observe alors les performances des pays vis-à-vis des Etats-Unis au cours des trois dernières décennies (cf. graphique 12). Premièrement, les revenus dans les pays d’Europe de l’Ouest sont restés assez stables, c’est-à-dire à environ 75 % du niveau américain. Le PIB par heure est relativement similaire en Allemagne, en France, au Royaume-Uni et aux Etats-Unis, mais le nombre d’heures travaillées est bien plus faible dans les pays de l’Europe de l’Ouest qu’outre-Atlantique, ce qui explique la relative faiblesse des PIB par tête des premiers. Les Européens présentent toutefois une plus longue espérance de vie et de moindres inégalités de consommation. Deuxièmement, après une forte croissance durant les années quatre-vingt, le revenu du Japon a représenté un maximum de 85 % du revenu américain en 1995, puis la croissance japonaise a fortement ralenti ; le niveau de vie au Japon est désormais égal à 75 % de celui des Etats-Unis. Troisièmement, la croissance a fortement accéléré à partir de 1980 en Chine et à partir de 1990 en Inde. Quatrièmement, le niveau de vie en Afrique subsaharienne représentait 7,5 % du niveau de vie américain en 1980, puis 3,3 % en 2000 ; depuis, le sous-continent connaît une convergence vis-à-vis des Etats-Unis.

GRAPHIQUE 12  PIB par personne (en indices, base 100 aux Etats-Unis)

Les faits de la croissance économique

En 1960 et 2011, les pays de revenue intermédiaire avaient plus de chance de voir leur revenu de vie converger vers celui des Etats-Unis que de s’en éloigner. Parmi les pays de l’OCDE, ceux qui furent relativement pauvres en 1960 (comme le Japon, le Portugal et la Grèce) ont connu ensuite une croissance plus rapide, alors que ceux qui étaient relativement riches en 1960 (comme la Suisse, la Norvège et les Etats-Unis) ont connu ensuite une croissance plus lente. Si l’ensemble des pays de l’OCDE a connu une convergence à partir de 1960, ce n’est pas le cas de l’ensemble des pays. Par exemple, il n’y a pas de tendance claire pour les performances relatives des pays pauvres : 14 des 100 pays pauvres observés par Jones ont vu leur PIB par tête diminuer entre 1960 et 2011.

La répartition interpersonnelle des revenus dans le monde a connu aussi de profonds bouleversements (cf. graphique 13). En 1960, 51 % de la population mondiale vivait avec moins de 3 dollars par jours (aux prix constants de 2005). En 2011, cette part atteignait 5 %. Cette baisse de la pauvreté s’explique essentiellement par les performances de la Chine et de l’Inde, qui concentrent à eux deux plus du tiers de la population mondiale.

GRAPHIQUE 13  La répartition cumulée de la population mondiale en fonction du revenu (en %)

Les faits de la croissance économique

Jones cherche ensuite à expliquer les différences observées d’un pays à l’autre en termes de PIB par travailleur. En l’occurrence, il cherche à expliquer si les pays sont riches parce qu’ils ont de plus larges quantités d’intrants ou parce qu’ils savent les utiliser plus efficacement. Le ratio capital sur production est remarquablement stable d’un pays à l’autre, si bien que les différences en termes de capital physique ne contribuent que très peu aux écarts que l’on observe en termes de PIB par travail entre les pays. La contribution de la scolarisation est plus importante, mais toujours modeste. Ce sont les différences en termes de PGF qui contribuent le plus aux écarts de revenu. 

Beaucoup d’études ont cherché à expliquer ces différences en termes de PGF. Dans la mesure où la mauvaise allocation (misallocation) des ressources au niveau microéconomique pourrait se traduire par de mauvaises performances en termes de PGF, elle est considérée comme un candidat des plus sérieux par les plus récentes études. Plus un pays alloue efficacement ses ressources, plus il se rapprochera de sa frontière de possibilités de production, plus sa PGF sera forte : il produira davantage de biens et services à partir de la même quantité d’intrants. Le fait que les pays allouent plus ou moins efficacement leurs ressources peut expliquer, du moins en partie, pourquoi certains pays ont su s’enrichir plus rapidement que d’autres. La comptabilité de développement suggère que les pays pauvres ont peu d’intrants, mais qu’ils se révèlent également inefficaces pour les utiliser. 

Plusieurs études, notamment basées sur de véritables expériences naturelles, ont montré que les institutions affectaient fortement la croissance des pays, voire même leur permettaient de pallier de mauvaises dotations naturelles. Par exemple, Mancur Olson (1996) a étudié comment la Corée du Sud, qui partageait initialement les mêmes caractéristiques économiques, géographiques et institutionnelles que la Corée du Nord, a vu son niveau de vie fortement s’améliorer après 1953, alors que celui de la Corée du Nord, qui adopta à partir de cette date des règles bien différentes, a stagné, voire même décliné. De leur côté, Daron Acemoglu, Simon Johnson et James Robinson (2002) ont étudié un véritable « revers de fortune » : parmi les anciennes colonies européennes, celles qui furent les plus prospères il y a 500 ans sont aujourd’hui les moins prospères. Les Européens ont peut-être instauré des institutions « extractives » dans ces pays qui avaient pour fonction de transférer leurs gains économiques vers l’Europe.

GRAPHIQUE 14  Recettes fiscales (en % du PIB)

Les faits de la croissance économique

Creusant davantage le rôle des administrations publiques, Jones cherche alors à déterminer l’impact de la fiscalité sur la croissance. Il note que les impôts se sont fortement accrus entre 1929 et 2000, passant de 10 % à 30 % du PIB aux Etats-Unis ; pour autant la croissance américaine a été remarquablement stable au vingtième siècle et elle s’est notamment accélérée à partir des années cinquante. Lorsque l’on observe l’ensemble des pays dans le monde, la part des impôts dans le PIB est positivement corrélée avec le succès économique (cf. graphique 14). Jones suggère une explication à cette corrélation : les gouvernements utilisent une partie de leurs recettes pour assurer des services comme la justice, l’éducation, la santé, l’entretien des infrastructures et la recherche fondamentale, c’est-à-dire des activités qui contribuent tout particulièrement à la croissance selon les théories modernes.

 

Références

ACEMOGLU, Daron, Simon JOHNSON & James A. ROBINSON (2002), « Reversal of fortune: Geography and institutions in the making of the modern world income distribution », in Quarterly Journal of Economics, vol. 117, n° 4.

ALVAREDO, Facundo, Anthony B. ATKINSON, Thomas PIKETTY & Emmanuel SAEZ (2013), « The top 1 percent in international and historical perspective », in Journal of Economic Perspectives, vol. 27, n° 3, été.

ELSBY, Michael W. L., Bart HOBIJN & Ayşegül ŞAHIN (2013), « The decline of US labor share », in Brookings Papers on Economic Activity.

JONES, Charles I. (2015), « The facts of economic growth », NBER, working paper, n° 21142, mai.

JONES, Charles, & Paul ROMER (2010), « The new Kaldor facts: Ideas, institutions, population, and human capital », in American Economic Journal: Macroeconomics, vol.2, n° 1.

KALDOR, Nicholas (1961), « Capital accumulation and economic growth ».

KARABARBOUNIS, Lukas, & Brent NEIMAN (2013), « The global decline of the labor share », NBER, working paper, n° 19136.

OLSON, Mancur (1996), « Big bills left on the sidewalk: Why some nations are rich, and others poor », in Journal of Economic Perspectives, vol. 10, n° 2.

Partager cet article

Repost0
27 décembre 2015 7 27 /12 /décembre /2015 18:01

Le mois de septembre a marqué le trentième anniversaire l’Accord du Plaza. Le 22 septembre 1985, les ministres des Finances et les banquiers centraux des Etats-Unis, de la France, du Japon, de la République Fédérale allemande et du Royaume-Uni ont signé un accord au Plaza Hotel à New York afin d’intervenir collectivement sur les marchés des changes en vue de contenir une appréciation du dollar jugée alors excessive. En effet, au cours des cinq années qui avaient précédé l’accord, le dollar s’était apprécié de 44 % vis-à-vis des autres grandes devises ; en raison de cette appréciation du dollar et de la perte de compétitivité des produits américains sur les marchés internationaux, le solde commercial des Etats-Unis s’était dégradé. L’accord du Plaza constitue l’intervention la plus impressionnante réalisée sur le marché international du dollar depuis que Richard Nixon a laissé flotter la monnaie américaine en 1973. Les différents pays participants se sont accordés sur des fourchettes de taux de change à l’intérieur desquelles ils s’engagent à maintenir leur devise. Au cours des deux ans qui ont suivi, le dollar s’est déprécié de 40 %. Après un certain délai, le solde commercial américain s’est fortement amélioré. 

Jeffrey Frankel (2015) s’est repenché sur cet épisode historique et l’a analysé à la lumière d’aujourd’hui. Il rappelle qu’entre 1980 et 1984 le dollar s’était apprécié de 26 % et que cette appréciation pouvait alors facilement s’expliquer par les fondamentaux. Le resserrement de la politique monétaire opéré par Paul Volker entre 1980 et 1982 et la relance budgétaire impulsée par Ronald Reagan entre 1981 et 1984 ont poussé les taux d’intérêt de long terme à la hausse, ce qui stimula les entrées de capitaux et conduisit à une appréciation de la monnaie, comme l’aurait prédit un modèle traditionnel à la Mundell-Fleming. Comme le subséquent déficit commercial était (du moins initialement) associé à un déficit budgétaire, Martin Feldstein parla de « déficits jumeaux » (twin deficits). Plusieurs partenaires commerciaux, notamment la France, se plaignirent de l’ampleur de l’appréciation du dollar, mais les Etats-Unis ne partagèrent pas cette irritation. Initialement, les responsables américains considérèrent que le dollar fort reflétait la confiance du reste du monde vis-à-vis de l’économie américaine. En outre, non seulement plusieurs économistes, notamment Milton Friedman, jugeaient que la libre flexibilité des taux de change était optimale et que toute intervention serait pernicieuse, mais certaines études qui étaient alors publiées ne parvenaient pas à démontrer que les interventions sur les marchés des changes étaient véritablement efficaces.

Entre mars 1984 et février 1985, le dollar s’apprécia de 17 %. Cette phase d’appréciation se distingua des précédentes, du fait qu’elle s’opéra à un rythme plus rapide, mais aussi du fait qu’elle ne semblait plus s’expliquer par les fondamentaux. Le différentiel des taux d’intérêt attint son maximum en juin 1984, puis il déclina, ce qui aurait dû (théoriquement) s’accompagner d’une dépréciation du dollar. Certains économistes estimèrent alors que le dollar faisait l’objet d’une bulle spéculative. Après avoir atteint 112 milliards de dollars en 1984, le déficit commercial des Etats-Unis s’éleva à 122 milliards de dollars en 1985. L’administration Reagan changea de politique de change : alors qu’elle nourrissait une doctrine du laissez-faire entre 1981 et 1984, elle embrassa un plus grand activisme au cours des années suivantes. Cet activisme s’est notamment traduit par l’accord du Plaza du 22 septembre 1985. 

Pourtant, Jeffrey Frankel préfère dater le changement de régime au début de l’année 1985, en l’occurrence au moins de janvier, lors de l’instauration de la seconde administration Reagan. Avec désormais James Baker à la tête du Trésor, les responsables américains se déclarèrent désormais favorables à reconsidérer la politique de change. En outre, comme le note Frankel, le taux de change du dollar attint son maximum en février, soit plusieurs moins avant l’accord du Plaza ; lorsque ce dernier se tint, le dollar s’était déjà déprécié de 13 %. Même si les autorités américaines n’avaient pris aucune décision, les marchés ont peut-être anticipé des interventions sur le marché des changes en vue de contenir l’appréciation du dollar. En outre, les grands partenaires à l’échange des Etats-Unis, en particulier la République fédérale allemande, commencèrent à intervenir au début de l’année 1985, notamment en vendant des dollars. Ainsi, Frankel préfère inclure dans les « Accords du Plaza » l’ensemble des événements qui se sont produits entre l’intronisation de Baker et la réunion du 22 septembre.

Si les Etats-Unis sont par la suite intervenus à plusieurs reprises sur les marchés des changes, aussi bien pour contenir des appréciations que des dépréciations du dollar, ces interventions devinrent plus rares à partir des années quatre-vingt-dix. En fait, c’est l’ensemble des pays du G7 qui délaissa les interventions sur les marchés des changes ; il y eut quelques exceptions, notamment en 2000, lorsque la BCE intervint pour stopper la dépréciation de l’euro, ou en mars 2011, lorsque la Banque du Japon se coordonna avec les autres grandes banques centrales pour stopper l’appréciation du yen. Les actions entreprises ces dernières années par certaines banques centrales, notamment dans les pays émergents, en vue de contenir l’appréciation de leur le taux de change ont été qualifiées de « manipulations de devises » et beaucoup considèrent qu’elles ont participé à l’apparition des déséquilibres globaux, notamment l’explosion de l’excédent courant chinois (et symétriquement le creusement du déficit courant américaine). Dans la mesure où elles sont perçues comme des mesures non-coopératives, elles sont interprétées comme des mesures agressives lancées dans le cadre de ce que l’on qualifie de véritables « guerres de devises ». En février 2013, les partenaires du G7 ont même accepté la proposition du Trésor américain de ne pas procéder à des intervenions unilatérales sur les marchés des changes.

L’abandon des interventions sur les marchés des changes par les pays du G7 fut en partie motivé par le fait qu’ils jugeaient de telles interventions désormais peu efficaces. Pourtant, plusieurs études, notamment celle de Gustavo Adler, Noemie Lisack et Rui Mano (2015) et celle de Gustavo Adler, Olivier Blanchard et Irineu de Carvalho Filho (2015), ont récemment suggéré que les interventions de change restaient efficaces. Frankel juge que les pays du G7 ont beau ne pas avoir eu à intervenir sur les marchés des changes au cours des dernières années, il n’est pas certain qu’elles n’auront pas à le faire à moyen terme.

En ce qui concerne l’actuelle appréciation du dollar, il n’estime toutefois pas qu’elle nécessite une nouvelle action coordonnée des banques centrales. Le dollar s’est en effet apprécié de 20 % entre le milieu de l’année 2014 et la fin de l’année 2015, ce qui est une variation bien moindre que celle observée au début des années quatre-vingt. L’appréciation actuelle du dollar est, du moins pour l’heure, conforme avec les fondamentaux : l’économie américaine a réalisé de bonnes performances macroéconomiques ces dernières années, en particulier en comparaison avec la zone euro ou le Japon, et elle s’est rapprochée du plein emploi. C’est notamment en raison de ces bons fondamentaux que la Fed a commencé à resserrer sa politique monétaire et notamment décidé de relever ses taux directeurs ce mois-ci après les avoir laissé au plus proche de zéro. Surtout, Frankel estime que l’appréciation du dollar ne devrait pas avoir de significatif effet négatif sur la croissance américaine : il affecte surtout la composition du PIB et non son montant total.

 

Références

ADLER, Gustavo, Olivier BLANCHARD & Irineu de CARVALHO FILHO (2015), « Can foreign exchange intervention stem exchange rate pressures from global capital flow shocks? », FMI, working paper, n° 15/159.

ADLER, Gustavo, Noemie LISACK & Rui C. MANO (2015), « Unveiling the effects of foreign exchange intervention: A panel approach », FMI, working paper, n° 15/130, juin.

FRANKEL, Jeffrey (2015), « The Plaza accord, 30 years later », NBER, working paper, n° 21813, décembre.

Partager cet article

Repost0
25 décembre 2015 5 25 /12 /décembre /2015 09:38

Ces dernières décennies, la macroéconomie a eu tendance à distinguer les questions du cycle d’affaires à court terme des questions de la croissance à long terme. En empruntant l’hypothèse de la « stagnation séculaire » à certains keynésiens de l’entre-deux-guerres, Larry Summers (2013) a ressuscité une vieille tradition du moyen terme qui souligne les puissantes interdépendances entre le court et le long terme. le chômage peut persister à long terme en l’absence d’une relance budgétaire appropriée ; il peut toujours y avoir des expansions et des récessions, qui s’accompagnent respectivement d’une baisse et d’une hausse du taux de chômage, mais ce dernier va osciller autour d’une tendance de long terme plus élevée qu’auparavant. Selon Summers, les pays avancés feraient aujourd’hui face au risque d’une stagnation séculaire en raison de tendances lourdes aussi diverses que la hausse des inégalités, la baisse des prix des biens d’investissement et le vieillissement démographique. Puisque l’épargne a alors tendance à excéder l’investissement, le taux d’intérêt d’équilibre (celui que Wicksell qualifie de « taux d’intérêt naturel ») est poussé à la baisse, voire même en territoire négatif. La banque centrale est alors incapable de fixer ses taux au niveau approprié pour ramener l’économie au plein emploi. Or la persistance même du chômage peut contribuer à réduire le potentiel de croissance à long terme via les effets d’hystérèse et à alimenter par là même l’excès d’épargne sur l’investissement.

Kevin O’Rourke (2015) a étudié d’une perspective historique le développement de la théorie de la stagnation séculaire. Il désigne précisément par celle-ci l’éventualité que l’insuffisance de la demande globale et le chômage puissent persister à long terme en l’absence d’une réaction appropriée des autorités publiques. Ce faisant, il souligne que cette théorie est autant une prédiction qu’une prescription de politique économique. Elle s’écarte en cela des craintes que nourrissent aujourd’hui certains stagnationnistes comme Tyler Cowen et Robert Gordon, celles d’un déclin de la croissance de long terme provoquée par un ralentissement du progrès technique. Ces diverses tendances du côté de l’offre, si elles sont effectivement à l’œuvre, rendent toutefois encore plus probable un scénario de stagnation séculaire, ne serait-ce qu’en réduisant la demande d’investissement. La théorie de la stagnation séculaire se distingue également du scénario d’un progrès technique pervers qui détruirait des emplois en substituant les travailleurs par des machines ; une telle crainte se réfère à une dynamique qui ne s’exerce que du côté de l’offre.

Plusieurs avancées conceptuelles ont été nécessaires pour qu’apparaisse la thèse de la stagnation séculaire. Il fallut tout d’abord une théorie liant la demande globale et l’emploi. C’est ce qu’a proposé John Maynard Keynes (1936) avec sa Théorie générale. Pour y parvenir, il a abandonné l’idée néoclassique selon laquelle l’épargne génère l’investissement en affirmant que c’est au contraire l’investissement qui génère l’épargne. Les contributions de Keynes à l’émergence de l’hypothèse de la stagnation séculaire ne se limitent toutefois pas à cette idée. Il s’est certes focalisé sur le court terme, mais certains passages de la Théorie générale esquissent par exemple une explication structurelle des mauvaises performances de la Grande-Bretagne durant l’entre-deux-guerres. Selon cette explication, l’efficacité marginale du capital diminue à mesure que l’accumulation se poursuit, en raison des rendements décroissants. Par conséquent, l’investissement et la demande globale tendent à décliner et le chômage à s’accroître. Malheureusement, même l’intervention publique ne peut empêcher l’économie d’atteindre un état quasi stationnaire, où les rendements du capital seront nuls et où les rentiers auront disparu.

Dans sa recension de la Théorie générale, John Hicks s’est penché sur ce passage consacré aux difficultés structurelles de la Grande-Bretagne. Il note que la baisse des rendements marginaux du capital suppose une population et une technologie constantes. Hicks repère un autre passage de la Théorie générale où Keynes jugeait que des taux d’intérêts élevés avaient été compatibles avec un haut niveau d’emploi grâce à une forte croissance de la population et de l’innovation. Celle-ci contribuerait à retarder le déclin de l’efficacité marginale du capital. Alvin Hansen a apporté sa première contribution au développement de la thèse de la stagnation séculaire au travers sa propre recension de la Théorie générale. Il y déclarait que la rigidité des prix et salaires lui apparaissait comme une « condition nécessaire » à l’apparition d’un chômage keynésien d’équilibre et il déplorait une analyse qu’il jugeait trop statique. Il note, comme Hicks, que le progrès technique peut accroître l’efficacité marginale du capital et stimuler l’investissement. O’Rourke estime que ces deux recensions ont convaincu Keynes de formuler une théorie plus rigoureuse à propos du chômage à long terme et de rendre plus dynamique son analyse en prenant notamment en compte la dynamique démographique et le progrès technique. Dans une conférence tenue en février 1937, Keynes s’est demandé si la demande d’investissement pouvait suffire pour compenser l’offre d’épargne. Il y liait la demande d’investissement net à la somme du taux de croissance de la population (n) et du taux de croissance de la production par tête (g), soit n + g. Or, comme il estimait lui-même que la croissance démographique tendait vers zéro, il en concluait que la demande d’investissement absorbait une part toujours moins importante de l’épargne dégagée par l’économie.

C’est précisément cette conférence qui « convertit » Hansen au keynésianisme. Quand Hansen fit réimprimer sa recension de la Théorie générale en 1938, il supprima les passages où il jugeait la rigidité des prix et salaires comme nécessaire au chômage keynésien et où il s’inquiétait de voir l’investissement public entraîner une stagnation de l’activité. Dans un discours tenu en 1938, Hansen jugea les perspectives de croissance de long terme bien ternes, en raison du ralentissement du progrès technique et de la croissance démographique, mais aussi parce que les innovations ne seront plus d’une aussi forte intensité capitalistique qu’au dix-neuvième siècle. Comme auparavant, Hansen jugea crucial de stimuler l’innovation, mais il était aussi désormais convaincu que la politique budgétaire avait un rôle à jouer dans la lutte contre le chômage. Il développa plus finement ses idées dans un livre publié en 1941.

Aux yeux d’Alvin Hansen et des autres keynésiens, la Seconde Guerre mondiale a retardé le basculement des économies dans la stagnation séculaire. Les Etats-Unis se sont puissamment réarmés à partir de juin 1940, ce qui généra un puissant choc de demande positif, et l’économie américaine s’est alors rapidement rapprochée du plein emploi. Beaucoup ont alors craint que le chômage de masse réapparaisse à la fin du conflit, lorsque les dépenses publiques liées à l’effort de guerre sont promises à diminuer. Les événements de l’immédiat après-guerre ont démenti les prédictions des stagnationnistes. Entre les années quarante et soixante-dix, les pays avancés ont connu un véritable âge d’or en termes de croissance. Aux Etats-Unis, la croissance de la population doubla au sortir de la guerre. La Grande-Bretagne connut également une accélération de la croissance démographique, c’est aussi et surtout une accélération du progrès technique qui a stimulé sa croissance économique. Outre-Manche, l’Allemagne a également connu son « miracle économique » (Wirtschaftswunder) et la France ses Trente Glorieuses. Ces performances macroéconomiques ont naturellement conduit la thèse de la stagnation séculaire à un relatif oubli pendant plusieurs décennies. Pour autant, même si ses prédictions au sortir de la Seconde Guerre mondiale se sont avérées inexactes, O’Rourke juge qu’il ne faut pas écarter l’idée qu’il existe une relation prévisible entre n + g et les taux de chômage via le canal de l’investissement net. En observant les données relatives aux Etats-Unis et au Royaume-Uni, O’Rourke note que le taux de chômage tend à être d’autant plus faible que n + g est élevé. L’épisode de la Grande Dépression est toutefois une anomalie dans le cas américain : le chômage élevé coïncidait alors avec une forte croissance de la productivité totale des facteurs (PTF).

GRAPHIQUE  Production manufacturière mondiale (en indices, base 100 au pic d’activité)

Les importunités économiques pour nos petits-enfants… Genèse de l’hypothèse de la stagnation séculaire

O’Rourke ne trouve pas surprenant qu’un nouveau keynésien comme Summers ait ressuscité ces dernières années la théorie de la stagnation séculaire. La reprise s’est certes amorcée plus rapidement après la Grande Récession qu’après la Grande Dépression des années trente, mais elle a pourtant été plus lente que cette dernière, comme le suggère l’évolution de la production industrielle mondiale au cours des deux épisodes historiques. La récente crise financière mondiale a été précédée par une succession de bulles spéculatives, or celles-ci sont typiquement le symptôme d’un excès d’épargne sur l’investissement. Selon Summers, le fait même que l’inflation soit restée relativement faible aux Etats-Unis ces dernières décennies malgré les bulles tend à confirmer une insuffisance chronique de la demande globale. 

O’Rourke se demande quelles sont les perspectives futures concernant l’investissement et l’épargne mondiales afin de déterminer si le taux d’intérêt naturel est susceptible de rester faible. Le ralentissement de la croissance démographique et le vieillissement démographique devraient continuer de déprimer la demande de biens d’investissement. O’Rourke note toutefois que c’était déjà la prévision privilégiée au cours des années trente. Il se tourne ensuite vers le rythme du progrès technique. Les perspectives entourant l’évolution future de la PGF dans les pays situés à la frontière technologique, notamment les Etats-Unis, restent particulièrement incertaines. Les pays émergents devraient continuer de connaître une forte croissance de la PGF, mais celle-ci devrait ralentir au fur et à mesure qu’ils se rapprocheront de la frontière technologique. Par contre, si l’Afrique parvient à entretenir son décollage, elle est susceptible de connaître une longue période de forte croissance de la PGF. D’autres facteurs peuvent influencer la demande d’investissement, notamment l’impact dépressif de la Grande Récession sur l’investissement et la baisse du prix relatif des biens d’investissement. Avec la stagnation séculaire, les pays avancés se retrouvent face au dilemme entre chômage et déficit public. En réponse à l’accroissement de leur dette publique, les gouvernements sont incités à réduire leurs dépenses publiques. Une telle consolidation budgétaire a certainement déjà pesé sur le rythme de reprise au sortir de la Grande Récession ; elle ne fait par là même qu’accroître le risque d’une stagnation séculaire. 

 

Références

HANSEN, Alvin H. (1936), « Mr. Keynes on underemployment equilibrium », in Journal of Political Economy, vol. 44.

HANSEN, Alvin H. (1938), Full recovery or stagnation?

HANSEN, Alvin H. (1941), Fiscal policy and business cycles.

HICKS, John R. (1936), « Keynes' Theory of Employment », in The Economic Journal, vol. 46.

KEYNES, John M. (1936)La Théorie générale de l'emploi, de l'intérêt et de la monnaie.

KEYNES, John M. (1937), « Some economic consequences of a declining population », in The Eugenics Review, vol. 29.

O’ROURKE, Kevin Hjortshøj (2015), « Economic impossibilities for our grandchildren? », NBER, working paper, n° 21807, décembre.

SUMMERS, Lawrence (2014), « U.S. economic prospects: Secular stagnation, hysteresis, and the zero lower bound », in Business Economics, vol. 49, n° 2.

Partager cet article

Repost0
22 décembre 2015 2 22 /12 /décembre /2015 14:29

Pourquoi la politique économique peut-elle échouer ? Selon une première interprétation, les responsables politiques sont bienveillants et ils commettent des erreurs parce que les théories économiques sont erronées, donc incapables de décrire la politique économique adéquate. L’un des exemples historiques d’une telle erreur est la Grande Dépression des années trente : la théorie qui dominait alors, en l’occurrence la théorie néoclassique, était incapable d’expliquer pourquoi une crise de surproduction pouvait persister, alors même que le mécanisme censé ramener l’économie à l’équilibre (la déflation) était à l’œuvre. Il fallut attendre la Théorie générale de Keynes pour pouvoir expliquer la crise et offrir une solution : la Grande Dépression peut s’interpréter comme résultant d’une insuffisance de la demande globale et aucun mécanisme marchand ne semble à même de ramener l’économie naturellement à l’équilibre, si bien que les autorités publiques doivent intervenir pour stimuler la demande globale. 

Cette première interprétation est pourtant peu pertinente pour expliquer les grandes crises macroéconomiques suivantes, notamment la stagflation des années soixante-dix et la récente grande crise mondiale. Beaucoup ont l’habitude d’expliquer chacune de ces crises par une erreur dans la théorie qui était dominante à l’époque où elle s’est produite. Par exemple, lors de la Grande Inflation des années soixante-dix, les responsables s’appuyaient sur la courbe de Phillips, or celle-ci suggérait qu’il était possible d’arbitrer entre chômage et inflation, c’est-à-dire qu’il suffisait de laisser l’inflation s’accélérer pour que le chômage diminue. Si un tel arbitrage semblait encore à l’œuvre durant les années soixante, ce ne fut plus le cas lors de la décennie suivante : le chômage et l’inflation augmentaient non plus alternativement, mais simultanément. Comme certains ont pu le suggérer, notamment les monétaristes, puis les nouveaux classiques, la courbe de Phillips pourrait en fait être simplement verticale à long terme, si bien que les possibilités d’arbitrage disparaissent à long terme. Avant qu’éclate la récente crise financière, les responsables de la politique économique auraient pris de mauvaises décisions en s’appuyant excessivement sur des modèles négligeant la finance, c’est-à-dire qui supposent impossibles les crises financières. Simon Wren-Lewis (2015c) juge toutefois ces deux récits excessivement simplistes. Au cours de ces deux épisodes, la théorie susceptible d’expliquer ces crises était disponible et la question à se poser est alors pourquoi ce savoir n’a-t-il pas été utilisé.

Ainsi, pour expliquer pourquoi la politique économique connait régulièrement des échecs, il est possible de considérer que ce n’est pas la théorie économique qui est fautive, mais les responsables même de la politique économique : s’ils ne cherchent qu’à satisfaire des intérêts particuliers, ils peuvent ignorer la théorie qui fait consensus, si bien que leurs décisions peuvent ne pas être optimales d’un strict point de vue macroéconomique et nuire finalement à l’intérêt général.

Ce n’est pourtant pas cette deuxième interprétation, mais une troisième que privilégie Wren-Lewis : il est possible, d’une part, que les responsables politiques désirent prendre les meilleures décisions et, d’autre part, que le consensus en macroéconomie soit juste. Ce qui peut être par contre défaillant, c’est ce que Wren-Lewis appelle le « mécanisme de transmission du savoir » (knowledge transmission mechanism). Il désigne par ce terme le processus par lequel les idées macroéconomiques des universitaire sont prises (ou non) en compte dans l’orientation de la politique macroéconomique.

Wren-Lewis se penche alors sur la crise de la zone euro et sur les développements qui ont touché en parallèle les Etats-Unis et au Royaume-Uni. Il rappelle que les modèles keynésiens préconisent d’adopter des politiques conjoncturelles contracycliques, c’est-à-dire de les assouplir lorsque l’économie fonctionne bien en-deçà de son potentiel et que le chômage est élevé, mais de ne les resserrer que lorsque la reprise est achevée, c’est-à-dire lorsque le PIB a rejoint la trajectoire tendancielle qu’il suivait avant la crise. En effet, les multiplicateurs budgétaires sont particulièrement élevés lors d’une récession, en particulier lorsque l’économie fait face à une trappe à liquidité (un plan de relance est alors des plus efficaces et un plan d’austérité des plus nocifs à l’activité) ; ils sont faibles lorsque l’économie a achevé sa reprise (la relance y est alors inefficace, voire même nocive, tandis que l’austérité est alors la moins dommageable à l’activité). En outre, lorsque l’économie est en récession, c’est-à-dire lorsque la demande d’actifs sûrs est forte, le creusement du déficit public et l’émission résultante de titres public contribuent à satisfaire cette demande. Bref, les gouvernements doivent attendre que la reprise soit achevée pour chercher à consolider leurs finances publiques. S’ils resserrent hâtivement leur politique budgétaire, ils risquent non seulement d’avorter la reprise et de provoquer une récession, mais aussi ne pas parvenir à se désendetter : les ratios dette publique sur PIB sont susceptibles de poursuivre leur hausse.

Les préconisations des modèles des nouveaux keynésiens ont alors été ignorées. Certes les gouvernements des pays avancés ont effectivement adopté des plans de relance lors de la Grande Récession, ce qui permit d’éviter une crise d’une aussi grande ampleur que la Grande Dépression des années trente. Malheureusement, lorsque la crise grecque éclata, les gouvernements de la zone euro, tout comme ceux du Royaume-Uni et des Etats-Unis y réagirent en adoptant des plans d’austérité. Cette généralisation de l’austérité a alors pesé sur le rythme de reprise, affaibli davantage l’inflation et surtout poussé la zone euro dans une seconde récession  Certains modèles macroéconomiques suggèrent que pour la zone euro dans son ensemble, ce resserrement de la politique budgétaire peut avoir amputé 10 % de son PIB. 

Wren-Lewis se demande alors pourquoi le mécanisme de transmission du savoir a échoué en 2010. Il souligne le rôle qu’ont (mal) joué les think tanks, les médias, le secteur financier et les ministères des Finances dans la transmission, mais c’est surtout sur un acteur qu’il se penche tout particulièrement : les banques centrales. Ces dernières ont certes la responsabilité de la politique monétaire, mais elles sont aussi le lieu où réside le savoir sur les cycles d’affaires et les politiques budgétaires. Pour faire leurs prévisions et évaluer les répercussions de telle ou telle mesure de politique économique, les banques centrales s’appuient essentiellement sur les modèles des nouveaux keynésiens, si bien qu’elles connaissent parfaitement les répercussions de la politique budgétaire, en particulier lorsque l’économie est confrontée à une trappe à liquidité. Pourtant, les banquiers centraux n’ont pas critiqué, du moins pas explicitement, le resserrement des politiques budgétaires, alors que ce dernier complique leur mission. Au contraire, la BCE a même appelé à plusieurs reprises à la consolidation budgétaire, alors que cette dernière est promise à dégrader la production et l’inflation à l’instant même où la BCE ne contrôle ni l’une, ni l’autre. 

Wren-Lewis estime que l’austérité peut servir les intérêts d’une certaine élite et que les banques centrales peuvent facilement les défendre. Les banquiers centraux souffrent en outre d’une trop grande proximité avec le secteur financier. Surtout, ils craignent pour leur indépendance et leur crédibilité. En l’occurrence, si la dette publique s’accroît fortement, les banques centrales ont peur d’être forcées de la monétiser et de perdre par là le contrôle de l’inflation. Ces craintes les amène à encourager une consolidation budgétaire qu’elles se montrent incapables de compenser. Elles connaissent les répercussions des plans d’austérité sur l’activité et l’inflation, mais elles nourrissent encore une confiance excessive envers l’efficacité de leurs mesures non conventionnelles. La sortie d’une trappe à liquidité exige pourtant que la relance budgétaire soutienne l’expansion monétaire. Malheureusement, l’indépendance des banques centrales a peut-être amélioré l’efficacité de la politique monétaire, mais elle a également réduit les chances d’une telle coopération entre autorités budgétaires et autorités monétaires.

 

Références

WREN-LEWIS, Simon (2015a), « The knowledge transmission mechanism and macroeconomic crises », in Mainly Macro (blog), 3 juin. Traduction disponible sur Annotations.

WREN-LEWIS, Simon (2015b), « Austerity as a knowledge transmission mechanism failure », in Mainly Macro (blog), 7 juin. Traduction disponible sur Annotations.

WREN-LEWIS, Simon (2015c), « The knowledge transmission mechanism and austerity. Why policy makers, rather than academic economists, made macroeconomic errors in 2010 », IMK, working paper, décembre.

Partager cet article

Repost0
19 décembre 2015 6 19 /12 /décembre /2015 15:30

Carmen Reinhart et Christoph Trebesch (2015) ont décrit comment le rôle joué par le Fonds Monétaire International a changé depuis sa création en 1945. Ces mutations sont cohérentes avec une théorie du changement institutionnel impulsé par la demande, dans la mesure où les besoins de ses clients et le type de crises changea fortement au cours du temps.

Au cours des premières décennies de son existence, les problèmes de change étaient le principal motif d’intervention du FMI. Durant l’époque de Bretton Woods, le système international était en effet organisé autour d’un réseau de taux de change fixes. L’enjeu était alors de trouver les « bonnes » parités entre les devises. En effet, une économie avec une devise surévaluée était susceptible de voir sa balance des paiements se dégrader et de subir des pertes en réserves de change. Le FMI s’assurait à ce que ses clients aient suffisamment de moyens pour intervenir sur le marché des changes et ainsi soutenir leur monnaie. Il ne jouait alors pas le rôle d’une institution engagée dans une activité de prêt à long terme (un rôle que jouaient par contre la Banque mondiale et plusieurs agences de développement régionales).  Les prêts accordés par le FMI au cours des années cinquante et soixante étaient essentiellement des prêts de court terme et ils étaient destinés aux gouvernements des pays avancés. Ces derniers constituaient alors ses principaux clients (cf. graphique 1).

GRAPHIQUE 1  Répartition du montant des prêts du FMI entre pays développés et pays en développement (en milliards de dollars)

Le rôle du FMI : zoom sur soixante-dix ans de mutations

source : Reinhart et Trebesch (2015)

Durant les années soixante-dix, le système de Bretton Woods s’écroula et les pays avancés laissèrent peu à peu librement flotter leur taux de change. C’est à cette époque que le rôle du FMI commença à connaître sa première grande mutation. Le nombre de pays-membres augmentait fortement avec l’adhésion des pays en développement. A partir des années soixante-dix, la fréquence et la nature même des crises changèrent (cf. graphique 2). Par conséquent, le FMI élargit son champ d’intervention au-delà du domaine des crises de change ; les crises bancaires et les défauts souverains devinrent ses principaux motifs d’intervention, notamment durant les années quatre-vingt (avec les crises qui ont secoué l’Amérique latine) et durant les années quatre-vingt-dix (avec les problèmes rencontrés par les économies en transition qui émergèrent de la dissolution du bloc soviétique). Dans la mesure où les crises de la dette souveraine et les crises bancaires sont en général plus longues et plus sévères que les crises de change, la durée des prêts accordés par le FMI a eu tendance à s’allonger. Les programmes du FMI pouvaient s’étendre sur plusieurs décennies, dépassant dans certains cas vingt ans. Ils n’avaient donc plus grand-chose à voir avec les prêts qu’il accordait originellement, lorsqu’il se contentait de fournir un soutien modeste et temporaire en liquidité aux pays avancés souffrant de problèmes de balance de paiements. Ainsi, les interventions du FMI relevèrent de plus en plus d’une logique d’aide au développement de long terme.

GRAPHIQUE 2  Nombre de crises bancaires et de crises de change par an

Le rôle du FMI : zoom sur soixante-dix ans de mutations

source : Reinhart et Trebesch (2015)

Après la crise argentine et la crise uruguayenne qui ont éclaté entre 2001 et 2003, l’économie mondiale a pu sembler aux yeux de certains débarrassée des crises financières, au point que l’utilité du FMI, du moins comme gardien de la stabilité monétaire et financière mondiale, fut remise en cause à la veille de la Grande Récession. Le montant total des prêts du FMI (rapportés en pourcentage du PIB mondiale ou des importations mondiales) avait retrouvé les faibles niveaux qu’il atteignait au cours des années soixante-dix. Comme les prêts accordés aux plus grands pays en développement parvenaient à leur fin, le montant nominal des programmes (exprimé en dollars) chutait plus rapidement que le nombre de programmes. Considérant lui-même la stabilité financière comme durablement acquise, le FMI réduisit la taille de son personnel au cours de cette période.

La crise financière mondiale de 2008, la plus grave et la plus synchronisée que l’économie mondiale ait connue depuis les années trente, démontra que la stabilité financière n’était pas acquise et qu’un prêteur en dernier ressort international restait nécessaire pour la préserver. Au cours des années qui ont suivi la crise financière mondiale, le FMI a de nouveau redéfini son rôle, en accordant à des pays développés d’Europe des prêts d’un très large montant (notamment par rapport à la taille de leur économie). Le montant des prêts accordés par le FMI à divers pays européens après 2008 est le plus important qu’il ait accordé depuis sa création. En l’occurrence, les plus larges prêts ont été accordés à la Grèce pour assurer la soutenabilité de sa dette publique. Exprimés en part du PIB mondial, les engagements du FMI ont atteint un montant jamais atteint jusqu’alors (cf. graphique 3). D’une certaine manière, l’institution a retrouvé son rôle original, celui consistant à aider les pays avancés.

GRAPHIQUE 3  Montant des prêts du FMI (en % du commerce mondial et du PIB mondial)

Le rôle du FMI : zoom sur soixante-dix ans de mutations

source : Reinhart et Trebesch (2015)

Au cours des dernières années, les pays émergents se sont globalement abstenus de réclamer une assistance financière auprès du FMI. Les années deux mille ont constitué une décennie de croissance et de stabilité financière pour les pays en développement. Ils ont fait face à un environnement mondial des plus favorables : les taux d’intérêt américains étaient faibles, voire même négatifs (une fois ajustés à l’inflation), les prix des matières premières étaient élevés, la croissance chinoise était forte, contribuant par là même à soutenir les cours des matières premières, et les rendements des actifs étaient faibles dans les pays avancés. 

Cette ère de tranquillité semble s’être achevée pour les pays émergents. Ces derniers ont vu leurs comptes courants se dégrader, voire laisser place à des déficits courants, et leurs perspectives de croissance ont été régulièrement et significativement révisées à la baisse, notamment avec le ralentissement du commerce mondial et l’effondrement des prix des matières premières. Cette situation est d’autant plus préoccupante que les entreprises et notamment les banques des pays émergents ont de plus en plus emprunté à de faibles taux d’intérêt internationaux, alors même que leurs devises avaient tendance à s’apprécier vis-à-vis du dollar. Aujourd’hui, le resserrement de la politique monétaire américaine et l’appréciation du dollar, dans un contexte de dépréciations des devises des pays émergents, accroissent le fardeau d’endettement extérieur de ces derniers. 

Reinhart et Trebesch estiment ainsi que le contexte est de nouveau « favorable » à ce que les pays en développement aient de nouveau à réclamer une assistance de la part du FMI. Or, comme le démontre notamment l’exemple de la Grèce depuis 2010, l’institution a pris de plus en plus de risques à prêter à des emprunteurs insolvables, alors même que ses engagements ont atteint des niveaux record et que la durée de ses prêts s’est fortement allongée. Reinhart et Trebesch en concluent que ces pratiques nuisent au rôle de prêteur en dernier ressort international du FMI. Ce dernier devrait se contenter de fournir rapidement de la liquidité aux pays subissant des crises financières de court terme.

 

Références

REINHART, Carmen, M. & Christoph TREBESCH (2015), « The International Monetary Fund: 70 years of reinvention », NBER, working paper, n° 21805, décembre.

Partager cet article

Repost0
16 décembre 2015 3 16 /12 /décembre /2015 19:30

Depuis la crise financière mondiale, la Fed a fortement assoupli sa politique monétaire. Après avoir ramené ses taux directeurs au plus proche de zéro, elle a adopté des mesures non conventionnelles comme des achats d’actifs à grande échelle à travers ses programmes d’assouplissement quantitatif (quantitative easing). Ces diverses mesures, menées dans un contexte de faibles perspectives de croissance dans les pays avancés, ont notamment contribué à réorienter les mouvements internationaux de capitaux à destination des pays émergents, ce qui a pu stimuler l’activité, le crédit et les prix d’actifs au sein de ces derniers.

Les taux directeurs de la Fed sont à leur borne zéro depuis déjà six ans. Ils n’ont pas été relevés depuis 2006. A mesure que la reprise se poursuit aux Etats-Unis et que l’économie américaine se rapproche du plein emploi, il est de plus en plus probable que la Fed resserre sa politique monétaire. En effet, les variations des taux directeurs ne se répercutent pas immédiatement à l’économie. Or, si la Fed laisse ses taux trop longtemps trop bas, elle prend non seulement le risque d’un dérapage de l’inflation à moyen terme, mais aussi le risque d’alimenter de nouveau les déséquilibres financiers et d’exposer l’économie américaine à une nouvelle crise financière. En outre, la Fed désire normaliser sa politique monétaire afin d’avoir une marge de manœuvre suffisante pour baisser ses taux si l’économie domestique subissait un nouveau choc.

Ce resserrement a débuté avec le ralentissement (tapering) dans les achats d’actifs. Or les précédents resserrements de la politique monétaire américaine ont pu déstabiliser les pays émergents et notamment les confronter à des crises financières ; la crise de la dette des pays en développement au début des années quatre-vingt, la crise mexicaine en 1994 et la crise asiatique en 1997 sont divers épisodes qui se sont produits lors de cycles de resserrements de la politique monétaire américaine. Or l’ampleur inédite du récent assouplissement de la politique monétaire américaine pourrait laisser présager de plus sévères épisodes d’instabilité financière lors du prochain cycle de resserrement monétaire. La simple évocation du tapering au milieu de l’année 2013 a pu entraîner un effondrement des prix d’actifs, une dégradation des soldes courants, une fuite des capitaux et une dépréciation des taux de change dans le monde émergent. Depuis cet épisode, la Fed a amélioré sa communication sur les perspectives futures d’un resserrement de sa politique monétaire afin que les marchés anticipent mieux ses décisions, de façon à éviter de nouveaux épisodes de volatilité.

Carlos Arteta, Ayhan Kose, Franziska Ohnsorge et Marc Stocker (2015) ont rencensé et évalué les possibles répercussions du resserrement de la politique monétaire américaine sur le reste du monde. D’un côté, dans la mesure où le cycle de resserrement monétaire débute dans un contexte de croissance américaine robuste, or cette dernière est susceptible de bénéficier au reste du monde, notamment via l’accroissement des importations américaines. En outre, la politique monétaire sera probablement resserrée graduellement et cette normalisation a été anticipée depuis longtemps. De plus, les banques centrales des autres économies avancées sont susceptibles de maintenir une politique monétaire extrêmement accommodante, ce qui devrait continuer d’alimenter la liquidité mondiale et maintenir les taux d’intérêt mondiaux à un faible niveau. 

D’un autre côté, rien n’assure que les anticipations de marché ne s’ajusteront pas de façon désordonnée. La vigueur même de la croissance américaine et la situation du marché du travail restent incertaines, or de telles incertitudes ne permettent pas d’évaluer jusqu’à quel point la Fed se rapproche des objectifs associés à son double mandat. En outre, les anticipations de marché quant à l’évolution future des taux d’intérêt sont inférieures aux anticipations du comité de politique monétaire de la Fed, si bien qu'elles sont susceptibles d'être subitement révisées à la hausse. Surtout, les pays émergents font déjà face à un environnement macroéconomique fragile : la croissance mondiale est lente, la croissance des échanges mondiaux est faible et les prix des matières premières sont faibles, détériorant les perspectives de croissance des pays qui les exportent. Aussi bien la croissance du PIB des pays émergents, que la croissance de leur PIB potentiel, ont fortement ralenti ces dernières années. Plusieurs d’entre eux sont marqués par des fragilités domestiques et ont notamment connu une forte hausse de leur dette privée, ce qui expose leurs résidents à de douloureux ajustements de bilan. L’appréciation du dollar est susceptible de se poursuivre avec le resserrement de la politique monétaire américaine, or elle risque d’aggraver davantage les perspectives de croissance des pays émergents [Druck et alii, 2015]. La réalisation soudaine de ces risques peut entraîner un déclin significatif des flux de capitaux à destination des pays émergents. Les plus fragiles d’entre eux font donc face au risque d’un véritable arrêt soudain (sudden stop) dans les entrées de capitaux, ce qui entraînerait non seulement une contraction de leur activité domestique, mais les expose aussi à une crise financière.

Swarnali Ahmed (2015) s’est lui-même récemment penché sur les épisodes passés de resserrements de la politique monétaire américaine pour en déterminer les répercussions sur les mouvements internationaux de capitaux. Il utilise un échantillon de 48 pays, dont 27 pays avancés et 21 pays émergents, entre 1982 et 2006, une période au cours de laquelle il y a eu cinq cycles de resserrements monétaires. Il constate que les répercussions sur les flux de portefeuille ou sur l’ensemble des flux de capitaux privés sont significativement plus fortes pour les pays émergents que pour les pays avancés. Les flux de capitaux des pays émergents sont affectés un trimestre avant le premier relèvement des taux directeurs de la Fed, ce qui suggère que les marchés anticipent cet événement. Ahmed estime toutefois que les pays émergents peuvent difficilement contrer ces répercussions avant la première hausse des taux, par exemple en imposant un contrôle des capitaux, puisque son analyse suggère que les pays qui ont libéralisé leur compte de capital ne sont pas plus affectés que les autres. Par contre, une fois que la Fed a commencé à relever ses taux, les pays émergents peuvent mettre en place des mesures susceptibles d’atténuer les répercussions de ce resserrement monétaire sur les flux de capitaux. Ahmed note par exemple que les pays ayant ouvert leur compte de capital ont connu une reprise plus rapide.

 

Références

AHMED, Swarnali (2015), « If the Fed acts, how do you react? The liftoff effect on capital flows », FMI, working paper, n° 15/256, décembre.

ARTETA, Carlos, M. Ayhan KOSE, Franziska OHNSORGE & Marc STOCKER (2015), « The coming U.S. interest rate tightening cycle: Smooth sailing or stormy waters? », CAMA, working paper, n° 37/2015, octobre.

DRUCK, Pablo, Nicolas E. MAGUD & Rodrigo MARISCAL (2015), « Collateral damage: Dollar strength and emerging markets’ growth », FMI, working paper, n° WP/15/179, juillet.

Partager cet article

Repost0
13 décembre 2015 7 13 /12 /décembre /2015 22:30

Plusieurs études suggèrent que les entreprises françaises ont été incapables de rivaliser avec les entreprises étrangères sur les marchés de biens manufacturés au cours du dix-neuvième siècle. Pourtant, Stéphane Becuwe, Bertrand Blancheton et Christopher Meissner (2015) jugent que cette conclusion repose sur de bien faibles fondations empiriques, notamment parce qu'il n'y a pas de vue globale des échanges et de la spécialisation de l’économie française au dix-neuvième siècle.  et de tester les conclusions obtenues par les précédentes études, les trois auteurs utilisent une large base de données annuelles relatives aux divers produits du commerce français sur la période 1836-1938.

Sur cette période, la France a subi de profonds changements. La croissance du PIB par tête s’est élevée en moyenne à environ 1,2 %. La part des travailleurs du secteur industriel passa de 25 % à 31 % entre 1841 et 1911, date à laquelle elle dépassa la part des travailleurs du secteur agricole. Entre 1841 et 1911, la part de la production totale réalisée par l’industrie passa de 29 % à 39 %. En 1870, la productivité globale dans le secteur industriel en France était environ égale à celle de la Grande-Bretagne et de l’Allemagne ; en 1910, elle ne représentait plus que 80 % de cette dernière. 

Au milieu des années 1830, la France exportait environ 5 % de son PIB ; cette part dépassa 14 % entre 1910 et 1913. Entre 1836 et 1913, la part des biens manufacturés dans l’ensemble des exportations passa de 68 % à  48,9 %. Au début du dix-neuvième siècle, les principaux secteurs français étaient ceux du textile et du vin. Le coton, le cuir et la soie constituaient une large part des exportations. Les textiles représentaient environ un tiers de la production industrielle totale et leur production était réalisée par la moitié de l’ensemble des travailleurs du secteur industriel. 

Becuwe et ses coauteurs confirment le statut de pays avancé que la France avait à cette époque : elle exportait essentiellement des produits manufacturés et importait des matières premières. Entre les années 1830 et la fin des années 1850, les exportations françaises étaient extrêmement concentrées, peu diversifiées. Au cours de cette période, le commerce français était cohérent avec les prédictions d’un modèle ricardien : la France exportait quelques produits en grandes quantités, notamment de la soie, du cuir, du coton et du vin. Elle était en l’occurrence fortement spécialisée dans l’exportation de produits textiles. Connaissant une croissance plus rapide de sa productivité que les autres pays, notamment la France, la Grande-Bretagne aurait acquis et maintenu sa domination sur la production des biens manufacturés. Faisant concurrence avec des produits britanniques, marqués par une plus forte compétitivité-prix, la France aurait été poussée à se spécialiser dans une gamme plus étroite de produits manufacturés. 

Malgré ses mauvaises performances, la France ne s’est pas désindustrialisée au dix-neuvième siècle. Les années 1860 et 1870 furent marquées par un processus de libéralisation commerciale, dans un contexte de chute des coûts d’échanges. Le degré de spécialisation des exportations françaises chuta fortement au cours de cette première mondialisation : au fur et à mesure que la croissance économique se poursuivit, la gamme de produits exportés par la France s’étendit et se diversifia. Une telle dynamique est cohérente avec les prédications d’un modèle ricardien : lorsqu’un pays fait face à une baisse des coûts d’échanges, des produits qui n’étaient auparavant pas compétitifs peuvent désormais être exportés. Les auteurs en concluent que le secteur orienté à l’export était davantage sensible aux variations des coûts d’échanges et aux dynamiques domestiques qu’à la concurrence industrielle exercée par des pays plus avancés technologiquement, notamment la Grande-Bretagne. Autrement dit, ce sont les variations des coûts d’échanges et la croissance économique qui ont constitué les forces dominantes dans le façonnement du commerce et des spécialisations de l’économie française. Même si ses exportations ne s’accrurent pas aussi rapidement que les autres pays et que sa balance commerciale s’est détériorée, la France a diversifié son portefeuille d’exportations après le milieu du dix-neuvième siècle.

Après quelques décennies, la diversification ralentit et stagna. Ce ralentissement s’explique notamment par la politique commerciale menée par la France. Entre le début des années 1880 et la Première Guerre mondiale, un nouveau régime commercial prit place, davantage protectionniste, et c’est celui-ci qui aurait tout particulièrement contribué à stabiliser la structure de spécialisation française. Les tarifs douaniers furent relevés, notamment pour préserver la stabilité politique et sociale. Les différents gouvernements français ont cherché à protéger les secteurs industriels dans lesquels la France est traditionnellement spécialisée, notamment les secteurs produisant du tissu en soie, du tissu en coton, du tissu de laine, du cuir, des articles en cuir et des outils en métal. En 1913, les principaux secteurs exportateurs de la France étaient les mêmes que ceux qui dominaient lors du Second Empire. Ainsi, il se pourrait qu’en ayant cherché à préserver l’économie française de la concurrence étrangère, les autorités l’auraient finalement empêché de connaître les transformations structurelles nécessaires pour la moderniser. En raison d’échecs répétés, la France s’est révélée incapable de prendre réellement pied dans les productions modernes, notamment celles des machines et autres appareils mécaniques.

En se focalisant sur des données postérieures à la Seconde Guerre mondiale, Jean Imbs et Romain Wacziarg (2003) avaient suggéré qu’il y avait une relation en forme de U entre la concentration sectorielle en termes d’emploi et le PIB par tête : la diversification sectorielle s’accroît à de faibles niveaux de vie, mais il existe un niveau de production par tête au-delà duquel la répartition sectorielle se concentre à nouveau. Ils suggèrent ainsi une hausse de la diversification des exportations durant les premières étapes de la croissance économique, suivie par une concentration. Olivier Cadot, Céline Carrère et Vanessa Strauss-Kahn (2011, 2013) ont également suggéré un point d’inflexion dans la diversification : la diversification décline après un niveau critique de PIB par tête. Ils ont mis en lumière que les premières étapes de la croissance économique moderne et la libéralisation commerciale sont les deux vecteurs clés de la diversification commerciale. L’étude de Becuwe et alii confirment ces divers résultats.

 

Références

BECUWE, Stéphane, Bertrand BLANCHETON & Christopher M. MEISSNER (2015), « Stages of diversification: France, 1836-1938 », NBER, working paper, n° 21777, décembre.

CADOT, Olivier, Céline CARRÈRE & Vanessa STRAUSS-KAHN (2011), « Export diversification: What's behind the hump? », in Review of Economics and Statistics, vol. 93, n° 2.

CADOT, Olivier, Céline CARRÈRE & Vanessa STRAUSS-KAHN (2013), « Trade diversification, income, and growth: what do we know? », in Journal of Economic Surveys, vol. 27, n° 4.

IMBS, Jean, & Romain WACZIARG (2003), « Stages of diversification », in American Economic Review, vol. 93, n° 1.

Partager cet article

Repost0
10 décembre 2015 4 10 /12 /décembre /2015 17:13

Dans les grandes économies avancées, les taux de croissance par tête se sont écroulés bien en-deçà de leur moyenne d’avant crise. Plusieurs études suggèrent également que la croissance potentielle s’est également affaissée, notamment en raison du ralentissement de la croissance de la productivité globale des facteurs, mais cet essoufflement semble avoir déjà été à l’œuvre avant même qu’éclate la crise financière mondiale. La croissance potentielle pourrait rester faible ces prochaines décennies en raison du vieillissement démographique et de l’héritage laissé par la Grande Récession. 

GRAPHIQUE 1  Les trajectoires effective et tendancielle de la production de la zone euro (en indices, base 100 en 1991)

 

La zone euro est promise à une longue stagnation

source : Lin (2015)

Les risques d’une longue période de stagnation sont particulièrement élevés pour la zone euro, comme le rappelle Huidan Lin (2015). Depuis la crise financière mondiale, la production par tête de la zone euro peine difficilement à renouer avec la croissance, si bien qu’elle demeure aujourd’hui au même niveau qu’elle atteignait il y a une décennie et que l’écart qu’elle accuse avec celle des Etats-Unis ne cesse de se creuser. Elle s’éloigne de plus en plus de la trajectoire qu’elle suivait avant la crise (cf. graphique 1). En outre, les estimations et prévisions de production potentielle de la zone euro ont régulièrement été révisées à la baisse depuis la crise (cf. graphique 2).

GRAPHIQUE 2  Production effective et estimations de la production potentielle (en indices, base 100 en 2007)

La zone euro est promise à une longue stagnation

source : Lin (2015)

Du point de vue de l’offre, Lin rappelle que la production dépend du facteur travail, de l’accumulation du capital et de la productivité globale des facteurs ; or chacune de ces composantes risque à moyen terme de moins contribuer à la croissance qu’elle ne le faisait avant la crise financière mondiale. Par exemple, le ralentissement de l’accumulation du capital dans les pays avancés s’est accéléré au cours de la Grande Récession. Mais si l’investissement et l’accumulation du capital se sont accrus aux Etats-Unis après la Grande Récession, l’accumulation du capital dans la zone euro s’est poursuivie plus lentement que la croissance de la population. La Grèce et l’Italie ont quant à elle connu une forte contraction de leur stock de capital (cf. graphique 3).

GRAPHIQUE 3  Investissement privé non résidentiel au premier trimestre 2015 (en indices, base 100 en 2007)

La zone euro est promise à une longue stagnation

source : Lin (2015)

Avant la crise financière mondiale, la zone euro connaissait déjà une baisse de la part de la population en âge de travailler, mais celle-ci était compensée par un accroissement de la population active et une baisse du chômage. Durant la crise, la croissance de la population active a ralenti et le chômage a fortement augmenté, si bien que la contribution du facteur travail à la croissance est devenue négative. Avec le vieillissement démographique, la croissance de l’emploi devrait rester en-deçà des niveaux d’avant-crise. Selon les prévisions du FMI (2015), la croissance de la population devrait se maintenir au rythme annuel moyen à 0,3%, soit à un rythme inférieur de deux tiers à celui observé entre 2002 et 2007.

GRAPHIQUE 4  Taux de croissance annuel moyen de la productivité globale des facteurs (en %)

La zone euro est promise à une longue stagnation

source : Lin (2015)

Quant à la productivité du travail (mesurée par la production par heure travaillée), elle a certes augmenté plus rapidement dans la zone euro qu’aux Etats-Unis jusqu’au milieu des années quatre-vingt-dix, ce qui permit de faire converger les niveaux de productivité des deux économies, mais la situation s’est ensuite inversée, si bien que les écarts de productivité se sont à nouveau creusés au début des années deux mille. Pour certains, cette divergence pourrait s’expliquer par le ralentissement de la croissance de la productivité globale des facteurs dans la zone euro (cf. graphique 4). Ce ralentissement s’expliquerait en grande partie par le ralentissement de la productivité dans le tertiaire ; ce dernier s’expliquerait quant à lui par la lenteur de la diffusion des nouvelles technologies d’information et de communication. En conséquence de la Grande Récession, la croissance de la productivité dans les services en zone euro est encore plus faible qu’avant-crise.

GRAPHIQUE 5  Croissance potentielle de la zone euro (en %)

La zone euro est promise à une longue stagnation

source : Lin (2015)

Au final, la croissance potentielle de la zone euro ne devrait que légèrement s’accélérer ces prochaines années : selon les estimations et prévisions du FMI (2015), elle passerait en moyenne de 0,7 % sur la période 2008-2014 à 1,1 % sur la période 2008-2014, soit un rythme inférieur à celui observé sur la période 1999-2007, en l’occurrence 1,9 % par an (cf. graphique 5).

GRAPHIQUE 6  Taux de chômage (en %)

La zone euro est promise à une longue stagnation

source : Lin (2015)

Lin estime également que les perspectives de croissance à moyen terme sont médiocres du point de vue de la demande. Les taux de chômage, notamment de longue durée, restent élevés dans la zone euro, en particulier pour les jeunes (cf. graphique 6). Le taux de chômage s’élève à 11 % dans l’ensemble de la zone euro et atteint le niveau maximal de 25 % en Grèce. La part des personnes au chômage depuis plus d’un an n’a cessé d’augmenter dans l’ensemble de la zone euro, ce qui laisse craindre un enkystement du chômage : au fur et à mesure que les travailleurs restent au chômage, leurs qualifications se dégradent et leurs perspectives d’embauche se réduisent. En raison des effets d’hystérèse, le chômage conjoncturel qui a été généré dans le sillage de la crise financière mondiale se mue peu à peu en chômage structurel. Non seulement une telle dynamique complique la réduction du chômage, mais elle contribue à freiner la demande globale et la croissance potentielle. Surtout, comme le rappelaient notamment Banerji et alii (2014), le chômage élevé des jeunes laisse craindre une véritable « génération perdue ».

 

Références

BANERJI, Angana, Rodolphe BLAVY, Huidan LIN & Sergejs SAKSONOVS (2014), « Youth unemployment in advanced economies in Europe: Searching for solutions », FMI, staff discussion note, n° 14/11, décembre.

FMI (2015), « Where are we headed? Perspectives on potential output », in FMI, World Economic Outlook, Uneven Growth: Short- and Long-Term Factors, avril.

LIN, Huidan (2015), « Risks of stagnation in the euro area », FMI, working paper, décembre.

Partager cet article

Repost0
6 décembre 2015 7 06 /12 /décembre /2015 17:31

La crise financière mondiale de 2008 a entraîné un accroissement de la dette publique : d’une part, elle a réduit directement les recettes fiscales en freinant l’activité économique ; d’autre part, elle a pu inciter les gouvernements à adopter des plans de relance, c’est-à-dire à accroître délibérément leurs dépenses publiques et à alléger la fiscalité, pour stimuler l’activité. Dans plusieurs pays, en particulier les pays avancés, les déficits publics se sont fortement détériorés alors même que le niveau de dette publique était initialement élevé. Cette nouvelle détérioration des ratios d'endettement a suscité d’autant plus d’inquiétudes que de nombreux pays font face à un vieillissement démographique qui pèsera immanquablement ces prochaines décennies sur les finances publiques. 

Isabel Ortiz, Matthew Cummins, Jeronim Capaldo et Kalaivani Karunanethy (2015) ont examiné les prévisions budgétaires de 187 pays fournies par le FMI pour la période s’étalant entre 2005 et 2020. L’analyse des prévisions budgétaires met en évidence deux phases distinctes dans les dynamiques budgétaires depuis le début de la crise financière mondiale. Lors d’une première période s’écoulant entre 2008 et 2009, la plupart des gouvernements ont adopté des plans de relance budgétaire afin de soutenir l’activité et l’emploi. Par contre, à partir de 2010, les gouvernements ont cherché à stabiliser leur endettement, si bien que les baisses de dépenses publiques et les hausses d’impôts ont eu tendance à se généraliser à travers le monde. La seconde période est caractérisée par deux chocs budgétaires majeurs : un premier survenant entre 2010 et 2011 et un second commençant en 2016 et durant au moins jusqu’en 2020.

Les mesures de consolidation budgétaire, quelle que soit leur forme, pèsent sur l’activité économique et l’emploi, ce qui contribue par là même à réduire leur efficacité. Le resserrement de la politique budgétaire en 2010 a pu apparaître prématuré dans la mesure où la reprise était lente et où le chômage restait élevé dans plusieurs pays, alors même que les pertes de production occasionnées par la crise financière mondiale n’avaient pas été comblées. Les mesures d’austérité ont pu conduire à éloigner davantage le PIB et l’emploi des trajectoires qu’ils auraient suivie s’il n’y avait eu ni crise financière mondiale, ni ajustement budgétaire. Autrement dit, la Grande Récession et la généralisation de l’austérité qui l’a suivie ont appauvri de façon permanente les populations. Au final, la Grande Récession a beau avoir été moins sévère et plus courte que la Grande Dépression, grâce à l’assouplissement des politiques conjoncturelles, mais la reprise qui l’a suivie a été plus lente que celle qui a suivi la crise des années trente en raison de l’austérité budgétaire : sept ans après le début de la crise, les pertes en production mondiale suite à la Grande Récession se sont révélées être plus persistantes que celles occasionnées lors de la Grande Dépression [O’Rourke, 2015].

GRAPHIQUE  Production industrielle mondiale (en indices, base 100 au pic d’avant-crise)

L’économie mondiale face à une décennie d’austérité

source : O’Rourke (2015)

Ortiz et ses coauteurs ont examiné 616 country reports réalisés par le FMI pour identifier quelle forme prend l’ajustement budgétaire dans chaque pays. Ils constatent que les gouvernements s’appuient sur diverses mesures pour consolider leurs finances publiques. En l’occurrence, 132 pays ont recours à des réductions de subventions, notamment sur le carburant, l’agriculture et les produits alimentaires ; 130 pays ont réductions à des réductions ou gels des salaires, notamment dans les secteurs publics de l’éducation et de la santé ; 107 pays réduisent les aides sociales ; 105 pays réforment leur système de retraite ; 89 pays réforment leur marché du travail ; 56 pays réforment leur système de santé. Outre les réductions de dépenses publiques, plusieurs pays ont recours à des hausses d’impôts pour consolider leurs finances publiques. En l’occurrence, 138 pays introduisent ou augmentent des taxes à la consommation (notamment une TVA) ; 55 pays privatisent les services publics et vendent des actifs publics. Les auteurs notent que les mesures d’austérité sont loin d’être adoptées par les seuls gouvernements européens. La majorité des mesures d’austérité qui sont mises en œuvre à travers le monde sont en fait adoptées par les pays en développement.

L’ajustement budgétaire à venir devrait affecter 132 pays en 2016 et persister jusqu’en 2020 selon les estimations d’Ortiz et alii. Le monde en développement en sera le plus sévèrement affecté. 81 pays en développement et 45 pays à haut revenu devraient réduire leurs dépenses publiques au cours du prochain choc. La comparaison du choc prévu ces prochaines années avec la période comprise entre 2005 et 2007 suggère qu’un tiers des pays réduisent excessivement leurs dépenses publiques. L’austérité budgétaire devrait affecter plus des deux tiers des pays entre 2016 et 2020 et concerneront par là même plus de 6 milliards de personnes, soit 80 % de la population mondiale.

La poursuite de l’austérité après 2016 ne manquera pas d’affecter le PIB et l’emploi via ses répercussions sur la demande globale. Les prévisions que réalisent Ortiz et ses coauteurs à partir d’un modèle macroéconomique des Nations Unies indiquent que les réductions budgétaires de ces cinq prochaines années affecteront négativement le PIB et l’emploi dans toutes les régions. En 2020, le PIB mondial sera inférieur de 5,5 % à ce qu’il serait si les gouvernements n’adoptaient pas de mesures d’austérité ces cinq prochaines années ; cette perte en production mondiale se traduira par la perte nette de 12 millions d’emplois à travers le monde sur la seule période comprise entre 2016 et 2020. Les pays à faible revenu et les pays à revenu intermédiaire de la tranche supérieure seront les pays les plus affectés par l’austérité : en 2020, le PIB des pays à revenu intermédiaire de la tranche inférieure sera inférieur de 7,5 % à ce qu’il serait en l’absence d’austérité ces cinq prochaines années ; le PIB des pays à faible revenu sera inférieur de 6 % à ce qu’il serait en l’absence d’austérité. Quant aux pays à haut revenu, leur PIB et leur emploi seront respectivement inférieurs de 4,98 % et 4,75 % aux niveaux qu’ils atteindraient si leurs gouvernements n’adoptaient pas de mesures d’austérité. Géographiquement, ce seront les pays de l’Asie de l’Est et du Pacifique (subissant en moyenne une perte de 11 % de leur PIB) qui seront les plus affectés. En l’occurrence, l’austérité devrait amputer 13 % du PIB en Chine.

 

Références

O’ROURKE, Kevin (2015), « It has finally happened », in The Irish Economy (blog), 29 novembre. Traduction française, « C’est finalement arrivé », in Annotations.

ORTIZ, Isabel, Matthew CUMMINS, Jeronim CAPALDO & Kalaivani KARUNANETHY (2015), « The decade of adjustment: A review of austerity trends 2010-2020 in 187 countries », Organisation Internationale du Travail, ESS working paper, n° 53.

Partager cet article

Repost0
3 décembre 2015 4 03 /12 /décembre /2015 17:04

La Grande Récession a été si violente et l’inflation s’est par la suite tellement affaiblie que plusieurs banques centrales ont dû ramener leurs taux directeurs au plus proche de zéro. Un tel assouplissement s’est toutefois révélé insuffisant pour ramener les économies au plein emploi et le taux d’inflation à sa cible (généralement 2 %). Pour certains, le taux d’intérêt naturel, c’est-à-dire le taux d’intérêt qui devrait être en vigueur pour stabiliser l’activité et assurer le plein emploi, a même été fortement négatif. Dans une telle situation de trappe à liquidité, beaucoup de banques centrales ont multiplié les mesures « non conventionnelles » pour assouplir davantage leur politique monétaire. Elles ont par exemple réalisé des achats d’actifs à grande échelle, notamment dans le cadre de programmes d’assouplissement quantitatif et elles ont cherché à mieux guider les anticipations des agents à travers la pratique du forward guidance. Certains suggèrent également que les banques centrales relèvent le taux d’inflation qu’elles ciblent, qu’elles se mettent à cibler le PIB nominal ou encore qu’elles émettent de la monnaie-hélicoptère. Aujourd’hui, la Réserve fédérale envisage peut-être de relever enfin ses taux directeurs, mais beaucoup des autres banques centrales du monde développé cherchent toujours à davantage soutenir l’activité économique.

GRAPHIQUE  Les taux directeurs de la BCE, de la Banque nationale du Danemark, de la Banque nationale suisse et de la Banque de Suède (en %)

A zéro et en-deçà. Que nous enseigne la récente expérience avec les taux d’intérêt négatifs ?

source : Jackson (2015)

Beaucoup supposent que la borne inférieure effective des taux directeurs est proche de zéro, mais pas inférieure à celle-ci. Or, plusieurs banques centrales ont adopté ces dernières années des taux d’intérêt négatifs. Depuis le milieu de l’année 2014, quatre banques centrales ont introduit des taux directeurs négatifs : la Banque nationale du Danemark, la Banque centrale européenne, la Banque nationale suisse et la Banque de Suède. En l’occurrence, soit elles ont appliqué un taux d’intérêt négatif sur les dépôts des banques commerciales (cas de la Banque nationale suisse, de la Banque nationale du Danemark et de la BCE), soit elles ont réduit la cible de leur principal taux directeur sous zéro (cas avec la Banque de Suède et la Banque nationale suisse). Ces diverses banques centrales ont généralement adopté des taux d’intérêt négatifs pour stimuler plus amplement leur économie, dans un contexte de faible inflation et de faible croissance ; comme ce contexte persiste, il est probable qu’elles cherchent à davantage pousser leurs taux directeurs en territoire négatif : par exemple, lors de la réunion qui s’est tenue aujourd’hui, la BCE a passé son taux d’intérêt de facilité de dépôt de -0,2 % à -0,3 %. Au Danemark et en Suisse, les banques centrales ont introduit des taux négatifs afin de freiner les entrées de capitaux et de contenir l’appréciation du taux de change. Ces dernières années, même les autres banques centrales, notamment la Fed, n’ont pas exclu la possibilité de réduire leur taux directeur en deçà de zéro.

La transmission d’une variation des taux directeurs négatifs à l’activité économique devrait être en théorie assez similaire à celle d’une variation des taux directeurs au-dessus de zéro [Jackson, 2015]. Les taux directeurs négatifs vont décourager les banques à détenir des réserves excessives à la banque centrale et donc les inciter à prêter, ce qui se traduit par une baisse des taux d’intérêt. En outre, les agents sont incités à ne pas laisser leur épargne oisive sur leurs comptes bancaires, mais plutôt à la placer sous la forme d’actions et d’obligations, ce qui contribue à pousser les prix d’actifs à la hausse via les rééquilibrages de portefeuille. La baisse des taux d’intérêt devrait stimuler le crédit, tandis que la hausse des prix d’actifs devrait générer des effets de richesse. La plus grande disponibilité du crédit et les effets de richesse incitent les résidents, notamment les entreprises et les ménages, à davantage dépenser. En décourageant les entrées de capitaux, les taux directeurs négatifs vont pousser le taux de change à la baisse, donc accroître la compétitivité des produits domestiques sur les marchés internationaux et par là les exportations. L’accroissement de la demande domestique et extérieure stimule alors la production, incite les entreprises à embaucher et conduit finalement à une accélération de l’inflation. En outre, les taux d’intérêt négatifs sont susceptibles de réduire la charge de la dette publique, ce qui accroîtrait la marge de manœuvre budgétaire des gouvernements et leur permettrait de ralentir le rythme de la consolidation budgétaire, réduisant par là la contrainte que cette dernière fait peser sur l’activité.

Les banques centrales ont pu envisager d’adopter des taux d’intérêt négatifs pour éviter les effets pervers que l’on prête aux autres mesures non conventionnelles, notamment à l’assouplissement quantitatif. Les taux d’intérêt négatifs ne sont pourtant pas sans susciter également des inquiétudes. Par exemple, ils sont susceptibles de réduire la profitabilité des banques commerciales et de dégrader finalement l’intermédiation financière. Les banques pourraient être incitées à moins emprunter à la banque centrale pour éviter les réserves excessives et éviter ainsi d’avoir à payer un taux de dépôt négatif, auquel cas les taux d’intérêt pourraient s’accroître sur les marchés interbancaires et obligataires, annulant les bénéfices initiaux des taux directeurs négatifs. Incapables de proposer des rendements attractifs, les fonds monétaires risquent davantage de s’effondrer. Des sociétés financières comme les assureurs et les fonds de pension pourraient être incitées à prendre davantage de risques et à se lancer dans une chasse au rendement particulièrement agressive, ce qui risque de provoquer à terme une nouvelle crise financière. L’ensemble des agents pourraient être incités à prépayer leurs achats et à retarder l’encaissement de chèques, si bien qu’un large volume de liquidité pourrait rester oisif dans l’économie au lieu de financer l’activité productive [McAndrews, 2015]. Les agents sont incités à ne pas laisser leur monnaie sur leurs comptes, ce qui accroît le risque de paniques bancaires, donc à nouveau le risque d’effondrement du secteur bancaire. Enfin, la réduction de la charge de la dette publique pourrait provoquer une baisse excessive des primes de risque souverain, si bien que les taux d’intérêt sur les titres publics seront susceptibles de connaître à l’avenir de plus fortes corrections ; les gouvernements seront quant à eux désincités à surveiller leurs finances publiques et à mettre en œuvre des réformes structurelles [Hannoun, 2015].

Harriet Jackson (2015) a récemment cherché à tirer les leçons de la récente expérience des banques centrales avec les taux d’intérêt négatifs. Elle voit émerger un consensus selon lequel la borne inférieure effective des taux d’intérêt nominaux est négative. Des estimations grossières suggèrent qu’elle pourrait se situer autour de -2 %, bien qu’il y ait une forte incertitude sur sa valeur exacte ; en pratique, elle pourrait plutôt se situer autour de -1 %. En pratique, la transmission des taux directeurs négatifs fonctionne, bien que la transmission aux taux prêteurs et aux taux de dépôt des banques ait généralement été partielle. Les banques se sont en effet révélées réticentes à proposer des taux négatifs à leurs déposants. L’impact sur l’économie réelle de légères variations de taux directeurs négatifs semble plus modeste que celui de variation équivalente de taux directeurs positifs. Enfin, Jackson identifie peu de preuves empiriques suggérant que les taux directeurs négatifs génèrent une volatilité excessive sur les marchés financiers : en présence de taux d’intérêt négatifs, les marchés financiers ont continué de fonctionner sans perturbation significative et il n’y a pas eu de paniques bancaires, du moins jusqu’à présent.

 

Références

CECCHETTI, Stephen G., & Kermit L. SCHOENHOLTZ (2015), « Negative nominal interest rates: back to the future?  », in Money & Banking (blog), 9 février.

HANNOUN, Hervé (2015), « Ultra-low or negative interest rates: what they mean for financial stability and growth », discours, 22 avril.

JACKSON, Harriet (2015), « The international experience with negative policy rates », Banque du Canada, staff discussion paper, n° 2015-13

MCANDREWS, James (2015), « Negative nominal central bank policy rates – Where is the lower bound? », discours.

Partager cet article

Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher