Overblog
Suivre ce blog Administration + Créer mon blog
17 mars 2018 6 17 /03 /mars /2018 19:16
L’asymétrie entre pays créanciers et débiteurs dans la résorption des déséquilibres

Au milieu des années deux mille, à la veille de la crise financière mondiale, les économistes et les grands dirigeants mondiaux s’inquiétaient du creusement des déséquilibres mondiaux (cf. graphique 1). C’est notamment la persistance d’un large déficit extérieur américain et d’un ample excédent extérieur chinoise qui retenait toutes les attentions. Certes l’économie chinoise n’aurait pas pu tirer sa croissance des exportations si d’autres pays n’avaient pas laissé leur déficit extérieur se creuser ; l’économie américaine n’aurait pas pu continuer de tirer sa croissance de la demande intérieure sans financements de la part du reste du monde. Mais un tel déséquilibre pouvait ainsi signaler une croissance insoutenable : beaucoup s’attendaient à ce que les Etats-Unis, à force de s’endetter vis-à-vis du reste du monde, ne soient plus capables de rembourser leur dette ou perdent la confiance des créanciers, ce qui aurait contraint l’économie américaine à un douloureux ajustement, entraîné un effondrement du dollar, etc. Après coup, s’il apparaît que ces déséquilibres n’ont peut-être pas directement été à l’origine de la crise financière mondiale, ils ont pu toutefois y contribuer en alimentant la liquidité mondiale et en relâchant les conditions financières à travers le monde.

GRAPHIQUE 1  Soldes courants (en % de la production mondiale)

source : BRI (2018)

Les déséquilibres mondiaux sont souvent observés en termes de flux, c’est-à-dire au prisme des soldes des comptes courants. Mais c’est oublier que lorsqu’un pays connaît un excédent ou un déficit courant, ce déséquilibre modifie un stock existant de créances ou de dettes vis-à-vis du reste du monde. Il faut donc observer également (et peut-être en priorité) les déséquilibres en termes de stocks. Les économistes se sont donc de plus en plus penchés sur la position externe nette, c’est-à-dire la différence entre le montant des actifs externes nets et celui des passifs externes nets. Cet indicateur se révèle effectivement crucial. Par exemple, Luis Catao et Gian Maria Milesi-Ferretti (2014) ont noté que le montant des passifs extérieurs nets, rapporté au PIB, est un indicateur avancé assez robuste des crises externes.

Avec la crise financière mondiale s’est amorcée une correction des déséquilibres en termes de flux et celle-ci s’est poursuivie une fois la reprise amorcée, ce qui amène beaucoup à y voir un signe d’une plus grande soutenabilité de la croissance mondiale. Mais si l’on adopte le point de vue des stocks, il est difficile de voir une réelle correction des déséquilibres mondiaux (cf. graphique 2). En effet, les déséquilibres en termes d’actifs extérieurs nets se sont légèrement réduits après la crise, mais cette correction n’a été que temporaire ; les déséquilibres en termes de stocks se sont de nouveau creusés par la suite.

GRAPHIQUE 2  Avoirs extérieurs nets (en % de la production mondiale)

source : BRI (2018)

En analysant un échantillon composé de 39 pays développés et émergents, Enrique Alberola, Ángel Estrada et Francesca Viani (2018) ont cherché à savoir si les déséquilibres en termes de stocks avaient un impact stabilisateur ou déstabilisateur sur l’accumulation de richesses externes du pays. Leur analyse suggère que le stock de dette nette des pays débiteurs s’avère stabilisateur, dans la mesure où il semble contribuer à réduire les déséquilibres des échanges, à limiter les déficits du compte courant et à stopper l’accumulation future de dette. En l’occurrence, les pays débiteurs tendent à verser plus de revenus sur leur stock de dette, mais aussi à consommer et à importer moins en raison d’un effet de richesse négatif. Par contre, en ce qui concerne les pays créanciers, le stock positif d’actifs étrangers nets contribue, toute chose égale par ailleurs, à accroître les excédents futurs du compte courant, dans la mesure où les déséquilibres des échanges ne s’ajustent pas. Cela semble être lié à un faible effet de richesse sur les importations. Ainsi, si les déséquilibres de stocks ont un impact déstabilisateur sur l’accumulation de richesse des pays créanciers, c’est soit en raison de la faible propension marginale de ces pays à consommer de leur richesse externe nette, soit en raison d’autres facteurs qui empêchent leur solde commercial de se détériorer malgré une hausse des dépenses, par exemple une forte propension à consommer les biens produits localement. En outre, même si les pays créanciers tendent à connaître une appréciation de leur devise, celle-ci ne suffit pas pour limiter leur accumulation de richesse.

Les pays créanciers et débiteurs ne s’ajustent donc pas symétriquement face aux déséquilibres courants. A court terme, ce sont les pays débiteurs qui sont exposés aux tensions financières. S’ils se voient par exemple soudainement privés d’accès au financement extérieur, ils subissent alors une puissante contraction de leur demande intérieure qui améliore soudainement leur solde extérieur. Mais les pays créanciers ne répondent pas symétriquement en accroissant leur demande intérieure. L’ajustement des déséquilibres ne passe donc que par la contraction de la demande intérieure dans les pays déficitaires, en faisant notamment basculer ceux-ci dans la récession. Au niveau mondial, un tel ajustement tend à freiner le commerce international et la croissance mondiale. Les choses iraient bien différemment si l’ajustement des déséquilibres courants passait également par la stimulation de la demande dans les pays créanciers : leurs importations augmenteraient, ce qui se traduirait notamment par une hausse des exportations des pays débiteurs et permettrait à ces derniers de s’ajuster sans forcément connaître de récession, ni sans peser sur la croissance mondiale. La réticence des pays créanciers à résorber leurs propres déséquilibres en accroissant leur demande apparaît au final quelque peu absurde. En laissant aux seuls pays débiteurs la tâche de l’ajustement, ils voient par là même leur propre croissance s’en trouver freinée. Surtout, on peut se demander à quoi bon cela sert-il d’accumuler de la richesse si ce n’est pas pour la dépenser…

 

Références

ALBEROLA, Enrique, Ángel ESTRADA & Francesca VIANI (2018), « Global imbalances from a stock perspective. The asymmetry between creditors and debtors », BRI, working paper, n° 707.

CATAO, Luis, & Gian Maria MILESI-FERRETTI (2014), « External liabilities and crises », in Journal of International Economics, vol. 94, n° 1.

Partager cet article

Repost0
27 février 2018 2 27 /02 /février /2018 18:30
Et si la natalité était le meilleur indicateur avancé de l’activité ?

Plusieurs études ont montré que la fertilité était une variable procyclique, c’est-à-dire qu’elle a tendance à augmenter d’autant plus rapidement que la croissance économique est forte et, réciproquement, à baisser lors des récessions. Tomáš Sobotka, Vegard Skirbekk et Dimiter Philipov (2011) notaient qu’au cours d’une récession, « la baisse de la fertilité commence avec un bref retard compris entre une année et deux années et demie ». Autrement dit, les couples réagiraient au ralentissement de la croissance et à la détérioration subséquente de la situation sur le marché du travail en faisant moins d’enfants. 

La dernière crise financière mondiale ne fait pas exception. Sam Roberts (2009), dans le New York Times, avait par exemple rapidement noté que la Grande Récession qui secouait alors l’économie américaine avait provoqué une forte baisse de nombre de naissances dès 2008. Mais si c’est effectivement le cas, alors cette chute des naissances a dû être provoquée par une chute des conceptions en 2007, voire en 2008. Or, la croissance économique était encore vigoureuse en 2007 et la récession n’a officiellement éclaté au Etats-Unis qu’au cours de la seconde moitié de l’année 2008, officiellement en décembre selon la datation du NBER.

Kasey Buckles, Daniel Hungerman et Steven Lugauer (2018) ont alors étudié l’idée que la natalité puisse constituer un indicateur avancé du cycle d’affaires : elle semble atteindre un pic et amorcer une chute quelques temps avant le début des récessions. C’est ce qu’ils constatent en étudiant les données relatives à plus de 100 millions de naissances qui ont eu lieu aux Etats-Unis entre 1988 et 2015. Lors des dernières récessions qui ont touché l’économie américaine, c’est-à-dire celles qui ont commencé en 1990, 2001 et 2008, le taux de croissance des conceptions a commencé à chuter quelques trimestres avant que la conjoncture se retourne ; en l’occurrence, la baisse du nombre de naissances lors de ces trois récessions ne s’explique pas par une hausse du nombre d’avortements ou de fausses couches. Par exemple, si le nombre de conceptions avait légèrement augmenté durant le premier semestre de l’année 2007, son taux de croissance en rythme annuel est devenu négatif au troisième trimestre, soit bien avant que la production économique ne décroche. De plus, les chutes de conceptions qui précèdent les récessions sont en l’occurrence larges. Par exemple, le taux de croissance annuel des conceptions a chuté de plus de 4 points de pourcentage à la veille de la Grande Récession. Buckles et ses coauteurs ont également étudié l’évolution des conceptions à la fin des récessions ; celle-ci est toutefois bien plus ambigüe qu’à la veille des récessions. Par exemple, la Grande Récession n’a pas seulement été suivie par une reprise sans emplois (jobless recovery) ; elle a aussi été une reprise sans bébés (baby-less recovery).

GRAPHIQUE  Taux de croissance du PIB et du nombre de conceptions d’enfants autour de la Grande Récession

source : Buckles et alii (2018)

Les comportements en matière de fertilité sont donc bien plus tournés vers l’avenir (forward-looking) que ne le suggéraient les études existantes portant sur le lien entre natalité et cycle économique. Ils sont en l’occurrence très sensibles aux conditions économiques prévalant dans le futur proche ; cela remet en cause l’idée de Gary Becker (1960) selon laquelle la « production » de bébés est relativement insensible au court terme.

Buckles et ses coauteurs ne concluent pas que la chute de la natalité puisse être à l’origine des récessions ; si les ménages retardent leurs projets de grossesse, ils peuvent également par là même retarder certains achats de biens, notamment des biens durables comme les logements. Par contre, il est possible que le facteur qui est à l’origine du recul des conceptions soit également celui qui est à l’origine de la contraction de l’activité économique, en pesant dans les deux cas sur la confiance, mais qu’il affecte plus rapidement les comportements en matière de conception que l’activité économique. Cette étude souligne surtout qu’il serait opportun de s’appuyer sur le nombre de grossesses pour améliorer les prévisions de croissance économique. Certes la corrélation entre fertilité et activité économique est loin d’être parfaite, mais le nombre de grossesses apparaît être un indicateur avancé du cycle économique au moins aussi performant que la plupart de ceux retenus, par exemple le niveau de confiance des consommateurs, l’indice Case-Shiller utilisé pour juger de l’évolution des prix de l’immobilier ou encore les achats de biens durables comme les machines à laver, les lave-vaisselles et les voitures.

 

Références

BECKER, Gary (1960), « An economic analysis of fertility », in Demographic and Economic Change in Developed Countries.

BUCKLES, Kasey, Daniel HUNGERMAN & Steven LUGAUER (2018), « Is fertility a leading economic indicator? », NBER, working paper, n° 24355, février.

ROBERTS, Sam (2009), « Birth rate is said to fall as a result of recession », in The New York Times, 7 août.

SOBOTKA, Tomáš, Vegard SKIRBEKK & Dimiter PHILIPOV (2011), « Economic recession and fertility in the developed world », in Population and Development Review, vol. 37, n° 2.

Partager cet article

Repost0
18 décembre 2017 1 18 /12 /décembre /2017 16:07
Quel est le taux de rendement de tout ?

Les économistes se sont depuis longtemps intéressés au taux de rendement du capital : les classiques David Ricardo et John Stuart Mill ont consacré une grand part de leur travail aux intérêts et aux profits ; c’est en raison de la baisse tendancielle du taux de profit que Karl Marx estime que le capitalisme est condamné à s’effondrer, etc. Aujourd’hui, le taux de rendement du capital continue de tenir une place importante dans de nombreux débats, notamment autour du taux d’intérêt naturel, de la stagnation séculaire et des inégalités. Malgré ce rôle dans de nombreuses théories, les estimations empiriques restent bien fragmentaires le concernant. L’immobilier est par exemple une composante essentielle du patrimoine des ménages, il représente environ la moitié de la richesse nationale d’une économie et, pourtant, les rendements de l’immobilier restent peu connus.

Oscar Jordà, Katharina Knoll, Dmitry Kuvshinov, Moritz Schularick et Alan Taylor (2017) ont cherché à combler ce vide en construit une large base de données annuelles sur les taux de rendement des plus grandes classes d’actifs dans 16 pays développés depuis 1870 : deux classes d’actifs risqués (l’immobilier et les actions) et deux classes d’actifs relativement sûrs (les obligations publiques et les bons du Trésor).

Jordà et ses coauteurs ont tout d’abord remarqué la grande stabilité du rendement des actifs risqués. L’immobilier résidentiel et les actions ont généré des gains réels élevés, en moyenne d’environ 7 % par an. Avant la Seconde Guerre mondiale, les rendements sur l’immobilier et les actions ont suivi des trajectoires finalement assez similaires ; pour autant, l’immobilier rapportait davantage que les actions. Depuis le conflit, les actions ont davantage rapporté en moyenne que l’immobilier, mais au prix d’une plus forte volatilité et une plus forte synchronisation avec le cycle d’affaires ; les actions ont connu des cycles d’expansion et d’effondrements plus fréquents et plus corrélés. En outre, s’il n’y a pas de corrélation entre les rendements immobiliers au niveau international, les rendements boursiers sont devenus de plus en plus corrélés d’un pays à l’autre au fil du temps, en particulier depuis la Seconde Guerre mondiale.

Le rendement réel des actifs sûrs a été très volatile à long terme et souvent bien plus volatile que le rendement réel des actifs risqués. Chacune des deux guerres mondiales et les années soixante-dix ont été marquées par de très faibles taux sur les actifs sûrs, bien inférieurs à zéro, ce qui permit notamment aux gouvernements de se désendetter rapidement au sortir de la Seconde Guerre mondiale. Le taux réel sur les actifs sûrs a atteint des pics durant l’entre-deux-guerres et au milieu des années quatre-vingt, lorsque les banques centrales avaient fortement resserré leur politique monétaire pour combattre l’inflation. Au final, la baisse des taux réels sur les actifs sûrs que nous avons pu observer ces dernières décennies s’apparente à celle que l’on a pu observer dans les décennies qui ont précédé la Première Guerre mondiale. A très long terme, donc, le taux réel sur les actifs sûrs semble fluctuer autour des niveaux qu’il atteint actuellement, si bien que le niveau actuel n’est finalement pas inhabituel au regard de l’Histoire. Par conséquent, les économistes devraient se demander, non pas pourquoi les taux ont baissé ces dernières décennies, mais plutôt pourquoi ils ont été aussi élevés au milieu des années quatre-vingt.

Ces constats sont cohérents avec celui auquel avaient abouti Kathryn Holston, Thomas Laubach et John Williams (2016) : le taux d’intérêt naturel semble avoir décliné depuis le milieu des années quatre-vingt et est aujourd’hui proche de zéro. Ils sont également compatibles avec l’hypothèse de la stagnation séculaire avancée par Larry Summers (2014) : en raison de dynamiques lourdes comme la hausse des inégalités ou le vieillissement démographique, les économies avancées ont peut-être tendance à dégager un excès structurel d’épargne qui les piège durablement dans une trappe à faible investissement. Une telle éventualité a de profondes implications pour la conduite de la politique économique. Par exemple, si les taux d’intérêt de court terme risquent plus fréquemment de se retrouver contraints par leur borne inférieure zéro, alors les banques centrales peuvent ne pas parvenir à ramener rapidement les économies au plein emploi suite aux chocs macroéconomiques ; cela remet d’ailleurs en cause la stratégie de ciblage d’inflation qu’elles ont eu tendance à suivre ces dernières décennies.

A très long terme, la prime de risque a été volatile ; elle tend même à fluctuer sur plus décennies, en des amplitudes qui dépassent celles observées à la fréquence des cycles d’affaires, sans pour autant présenter de tendance manifeste à long terme. En temps de paix, les primes de risque sont généralement stables, comprises entre 4 % et 5 %, mais elles sont étrangement restées élevées des années cinquante aux années soixante-dix. Les fortes hausses de prime de risque en temps de guerre et durant l’entre-deux-guerres découlent avant tout de la chute des taux d’intérêt sur les actifs sûrs plutôt que d’une hausse des taux d’intérêt sur les actifs risqués. Le taux risqué a souvent été plus lisse et plus stable que les taux sûrs, en restant en moyenne compris entre 6 % et 8 % dans la plupart des pays. Récemment, la prime de risque s’est élevée, précisément parce que les taux sûrs ont chuté plus rapidement que les taux risqués. Pour autant, les deux taux de rendement sont restés proches de leur valeur historique normale. 

Jordà et ses coauteurs précisent également la relation entre le taux de rendement sur le patrimoine (r) et le taux de croissance de l’économie (g) qui tient une place si cruciale dans le magnum opus de Thomas Piketty (2013). Selon ce dernier, si le rendement du capital est supérieur à la croissance, alors les rentiers accumulent plus rapidement du patrimoine, ce qui accroît les inégalités de richesse. Ce serait effectivement le cas ces dernières décennies, ce qui expliquerait la hausse des ratios richesse sur revenu et la hausse des inégalités [Piketty et Zucman, 2013]. En se concentrant sur les données britanniques sur la période s’écoulant entre 1210 et 2013, Jakob Madsen (2017) a récemment confirmé l’idée que l’écart rg tend à gouverner la dynamique du ratio richesse sur revenu et la part du revenu du capital. En analysant des données relatives à de nombreuses économies, Jordà et ses coauteurs constatent que r est fortement supérieur à g : au niveau mondial et dans la plupart des pays, le taux de rendement pondéré du capital représentait le double du taux de croissance au cours des 150 dernières années. Les exceptions concernent des périodes très particulières, en l’occurrence les années de conflit ou les années qui entourent immédiatement celles-ci. En l’occurrence, avant la Seconde Guerre mondiale, l’écart rg s’élevait en moyenne à 5 % par an, sauf lors de la Première Guerre mondiale. Aujourd’hui, il reste élevé, compris entre 3 % et 4 % ; il s’est réduit à 2 % durant les années soixante-dix, lors des chocs pétroliers, avant de se creuser dans les années qui ont précédé la crise financière mondiale. Le fait que les rendements du patrimoine soient restés assez élevés et stables depuis les années soixante, tandis que la richesse agrégée s’est accru rapidement, suggère que l’accumulation du capital a contribué à modifier la répartition du revenu national au détriment du travail et par là à alimenter les inégalités de revenu.

 

Références

HOLSTON, Kathryn, Thomas LAUBACH & John C. WILLIAMS (2016), « Measuring the natural rate of interest: International trends and determinants », Réserve fédérale de San Francisco, working paper, n° 2016-11, décembre.

JORDÀ, Oscar, Katharina KNOLL, Dmitry KUVSHINOV, Moritz SCHULARICK & Alan M. TAYLOR (2017), « The rate of return on everything, 1870–2015 », NBER, working paper, n° 24112.

MADSEN, Jakob B. (2017), « Is inequality increasing in r - g? Piketty’s principle of capitalist economics and the dynamics of inequality in Britain, 1210-2013 », CAMA, working paper, n° 63/2017, octobre.

PIKETTY, Thomas (2013), Le Capital au XXIe siècle.

PIKETTY, Thomas, & Gabriel ZUCMAN (2013), « Capital is back: Wealth-income ratios in rich countries 1700-2010 », Paris School of Economics, 26 juillet.

SUMMERS, Lawrence (2014), « U.S. economic prospects: Secular stagnation, hysteresis, and the zero lower bound », in Business Economics, vol. 49, n° 2.

Partager cet article

Repost0
17 décembre 2017 7 17 /12 /décembre /2017 21:25
L’intelligence artificielle et le nouveau paradoxe de la productivité

L’économie américaine (pour ne pas dire l’essentiel des pays développés) présente une situation paradoxale. D’un côté, les systèmes utilisant une intelligence artificielle égalent ou surpassent déjà les capacités humaines dans des domaines toujours plus nombreux, ce qui permet de nouvelles avancées dans d’autres secteurs. On devrait par conséquent s’attendre à une poursuite, voire à une accélération, de la croissance de la productivité et donc des niveaux de vie. Une telle prévision optimiste, promesse d’une hausse soutenue des profits, contribue d’ailleurs sûrement à soutenir les cours boursiers. Pourtant, la croissance de la productivité mesurée a été divisée par deux au cours de la dernière décennie. Ce ralentissement, qui s’est amorcé avant qu’éclate la crise financière mondiale, est un phénomène généralisé : il a initialement touché les pays développés, puis les grands pays émergents. Il contribue par conséquent à contenir la hausse des niveaux de vie : par exemple, la majorité des Américains ont vu leur revenu réel stagné depuis la fin des années quatre-vingt-dix.

Bref, nous nous retrouvons face à une variante du paradoxe de la productivité mis en avant par Robert Solow (1987) : nous voyons partout les nouvelles technologies, sauf dans les statistiques de productivité. Erik Brynjolfsson, Daniel Rock et Chad Syverson (2017) en ont proposé quatre explications possibles.

Selon une première explication, l’optimisme que suscitent les nouvelles technologies est tout simplement infondé. Celles-ci ont peut-être des effets visibles sur certains secteurs en particulier, mais il est possible que leurs effets au niveau agrégé soient diffus. Si c’est effectivement le cas, l’optimisme risque de ne pas perdurer et de laisser place à la seule déception. Une telle révision des anticipations se traduira alors par une chute des valeurs boursières.

Selon une deuxième explication, avancée notamment par Joel Mokyr (2014), il est possible que la croissance de la productivité soit restée soutenue, voire ait accélérée, mais que cela ait échappé aux indicateurs. Bref, le ralentissement de la productivité que l’on a observé cette dernière décennie est peut-être illusoire ; la population tire peut-être davantage de gains des nouvelles technologies qu’on ne le pense. Cela s’expliquerait par le fait que les indicateurs habituels ne sont pas adaptés pour mesurer la valeur ajoutée des récentes innovations. Par exemple, les consommateurs passent une grande partie de leur temps sur leurs smartphones et les réseaux sociaux en ligne, mais comme ces innovations ont un coût monétaire relativement faible, elles  représentent une faible part du PIB relativement à l’utilité qu’elles procurent. Pourtant, plusieurs études, notamment celles de Roberto Cardarelli et Lusine Lusinyan (2015), Chad Syverson (2016) et David Byrne et alii (2016) suggèrent que les problèmes de mesure ne peuvent être la principale explication derrière le ralentissement de la croissance de la productivité : après tout, le PIB ne reflète peut-être pas tous les bénéfices des technologies actuelles, mais il ne reflétait peut-être pas non plus tous les bénéfices des technologies passées.

Selon une troisième explication, les nouvelles technologies génèrent peut-être déjà de nombreux gains, mais ces derniers pourraient être captés par une fraction de l’économie, si bien que leurs effets sur la croissance de la productivité moyenne est faible au niveau agrégé et qu’ils sont nuls pour le travailleur médian. La nature rivale des nouvelles technologies pourrait entraîner une sorte de « ruée vers l’or » à travers laquelle les compétiteurs adoptent des pratiques pour obtenir les gains ou en bloquer l’accès aux autres, c’est-à-dire des pratiques nuisibles pour le reste de l’économie, qui annulent au niveau agrégé les bénéfices des innovations. Une telle hypothèse est cohérente avec plusieurs constats empiriques : les écarts de productivité entre les entreprises les plus avancées et les entreprises moyennes semblent s’être creusés au sein de chaque secteur ces dernières années ; une poignée de « firmes superstars » capte une part de marché de plus en plus grande (Autor et alii, 2017), etc. Certains, comme Jan De Loecker et Jan Eeckhout (2017) ou Germán Gutiérrez et Thomas Philippon (2017), s’inquiètent ainsi de voir la hausse de la concentration dans les différents secteurs et la perturbation résultante du pouvoir de marché des différents agents entraîner des pertes de bien-être au niveau agrégé. En outre, notamment pour cette raison, le revenu total continue peut-être d’augmenter, mais le revenu moyen stagne avec l’accroissement des inégalités.

Selon une quatrième explication, les espoirs ne sont peut-être pas trop optimistes et les indicateurs statistiques n’ont peut-être pas tort : il se pourrait que les gains tirés des nouvelles technologies soient réels et massifs, mais qu’ils ne se sont pas encore manifestés. D’une part, il est possible qu’il faille beaucoup de temps avant que le stock de nouvelles technologies ait atteint une taille suffisante pour déployer tous leurs effets. D’autre part, il est possible que des investissements connexes soient nécessaires pour que le potentiel de ces technologies se concrétise et qu’il faille du temps pour identifier et mettre en œuvre ces investissements. C’est peut-être surtout des investissements dans des actifs intangibles et non des actifs physiques que les nouvelles technologies nécessitent : l’acquisition de certaines compétences, une refonte de l’organisation du travail, etc. En fait, il se pourrait que le délai soit d’autant plus long que la technologie est susceptible de bouleverser l’économie.

Même si les autres explications sont plausibles et cohérentes avec certaines preuves empiriques, c’est la dernière que Brynjolfsson et ses coauteurs privilégient. La (faiblesse de la) croissance actuelle de la productivité n’indique en rien quel sera le rythme de sa croissance future : la croissance de la productivité au cours d’une décennie n’a pas de significatif pouvoir prédictif pour celle de la décennie suivante. Dans la mesure où la croissance de la productivité totale des facteurs est « une mesure de notre ignorance », il n’est pas étonnant que ce résidu ne puisse être prévu à partir de ses valeurs passées.

 

Références

AUTOR, David, David DORN, Lawrence F. KATZ, Christina PATTERSON & John VAN REENEN (2017), « Concentrating on the fall of the labor share », NBER, working paper, n° 23108.

BRYNJOLFSSON, Erik, Daniel ROCK & Chad SYVERSON (2017), « Artificial intelligence and the modern productivity paradox: A clash of expectations and statistics », NBER, working paper, n° 24001, novembre.

BYRNE, David M., John G. FERNALD & Marshall B. REINSDORF (2016), « Does the United States have a productivity slowdown or a measurement problem? », Brookings Papers on Economic Activity.

CARDARELLI, Roberto, & Lusine LUSINYAN (2015), « U.S. total factor productivity slowdown: Evidence from the U.S. states », FMI, working paper, n° 15/116, mai.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687, août.

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2016), « Investment-less growth: An empirical investigation », NBER, working paper, n° 22897, décembre.

MOKYR, Joel (2014), « Secular stagnation? Not in your life », in voxEU.org, 11 août.

SOLOW, Robert (1987), « We'd better watch out », in New York Times Book Review.

SYVERSON, Chad (2016), « Challenges to mismeasurement explanations for the U.S. productivity slowdown », NBER, working paper, n° 21974, février.

Partager cet article

Repost0
10 décembre 2017 7 10 /12 /décembre /2017 18:16
Le capitalisme, les inégalités et la Première Guerre mondiale

Plusieurs publications, notamment les travaux de Thomas Piketty, ont récemment souligné le rôle que les conflits modernes ont pu jouer dans la réduction des inégalités de revenu et de patrimoine en particulier dans la première moitié du vingtième siècle : cette réduction serait en l’occurrence passée par la destruction des actifs physiques, notamment des logements, par la hausse des impôts en vue de financer la guerre, par l’hyperinflation et par la nationalisation de la propriété. Si les origines de la Première Guerre mondiale font actuellement l’objet de nombreuses publications, peu d’entre elles évoquent la possibilité que la causalité puisse aller dans l’autre sens, c’est-à-dire que la hausse des inégalités de revenu et de richesses ait pu être à l’origine du conflit.

Pourtant, plusieurs travaux en économie ont pu affirmer par le passé, notamment avant même le début du conflit, que les forces économiques qui étaient alors à l’œuvre rendaient celui-ci inévitable. C’est le cas de l’ouvrage de John Hobson (1902). Selon ce dernier, les inégalités de revenu dans les pays développés capitalistes, en particulier en Angleterre, avaient pour contrepartie une tendance séculaire à la sous-consommation. Comme les plus modestes et les classes moyennes manquaient de pouvoir d’achat, ces économies généreraient un excès d’épargne relativement aux investissements rentables qui existaient en leur sein. Les propriétaires de capital financier ont alors cherché des débouchés plus profitables pour leurs investissements et ils les trouvèrent à l’étranger, là où la productivité marginale du capital était plus forte, en raison même du manque local de capital : soit ils prêtèrent aux gouvernements étrangers en achetant leurs titres, soit ils procédèrent à des investissements directs à l’étranger. Aucun de ces investissements n’était toutefois sûr dans la mesure où ils étaient réalisés dans des territoires éloignés où, de surcroît, les droits de propriété étaient moins protégés que dans les pays développés. Les capitalistes ont donc cherché à sécuriser leurs investissements en s’appuyant sur le pouvoir étatique, soit en menaçant les gouvernements étrangers de l’usage de la force militaire s’ils ne remboursaient pas leur dette, soit en conquérant directement les territoires pour y faire appliquer les règles de la métropole, notamment en matière de droit de propriété.

L’analyse de Hobson inspira, dans les deux décennies qui suivirent sa publication, de nombreuses analyses, souvent d’obédience marxiste. Vladimir Lénine (1917) estimait que c’était la chute tendancielle du taux de profit dans les économies avancées du monde capitaliste, davantage que la répartition inégalitaire des revenus, qui était à l’origine de la quête de marchés étrangers. Rudolf Hilferding (1910) a suggéré que la baisse tendancielle du taux de profit se traduisait par la consolidation des marchés nationaux et par l’apparition de cartels domestiques qui tiraient leur profit en obtenant des tarifs protectionnistes sur des territoires périphériques toujours plus larges, ce qui générait en retour une demande pour le centre. Pour sa part, Rosa Luxembourg (1913) estimait que, dans la mesure où le capitalisme ne parvenait pas à écouler la totalité des biens produits de façon rentable en raison du manque de demande de la part des plus pauvres, il devait rechercher en permanence et conquérir des marchés non capitalistes à l’étranger ; autrement dit, elle considérait que la survivance de territoires dotés d’un régime précapitaliste était nécessaire à l’expansion du capitalisme.

Si la thèse selon laquelle la Première Guerre mondiale trouverait ses origines dans la propension du capitalisme à devenir impérialiste a continué de recevoir un certain écho par la suite, par exemple dans l’ouvrage de Samir Amin (1974), elle a par contre été délaissée par les économistes et les historiens ces dernières décennies. Branko Milanovic (2016) a quelque peu remis au goût du jour cette théorie en se focalisant sur le rôle que le niveau élevé des inégalités a pu jouer dans l’émergence du conflit. Selon l’explication endogène de la guerre qu’il a par là même avancée, la logique interne des sociétés capitalistes fortement inégalitaires au début du vingtième siècle prédisposèrent celles-ci à l’impérialisme et ce dernier provoqua la guerre.

Thomas Hauner, Branko Milanovic et Suresh Naidu (2017) ont cherché à juger de la pertinence de la thèse de Hobson-Lénine. Ils confirment tout d’abord que les inégalités s’élevaient à des niveaux historiquement élevés dans l’ensemble des pays avancés qui ont participé au conflit (cf. graphique 1). Par exemple, en Angleterre, aux Etats-Unis, aux Pays-Bas, au Japon et en Italie, le coefficient de Gini était compris entre 46 et 55 points. La Grande-Bretagne, qui constituait le pays le plus riche, était aussi, parmi cet ensemble de pays, le plus inégalitaire. Il n’est pas impossible que la répartition du revenu était au Royaume-Uni aussi inégalitaire qu’elle l’est actuellement en Amérique latine.

GRAPHIQUE 1  Les inégalités de revenu entre 1860 et 1910

La répartition du patrimoine était encore plus inégalitaire (cf. graphique 2. Au Royaume-Uni, les 1 % les plus riches détenaient environ 70 % de la richesse nationale et cette part est restée relativement stable sur un quart de siècle. En France, les 1 % les plus riches détenaient une moindre part de la richesse nationale, mais cette part a eu tendance à augmenter ; elle atteignait environ 55-56 % à la veille de la Première Guerre mondiale. La part de la richesse nationale détenue par les 1 % les plus riches était plus faible aux Etats-Unis que dans les pays européens ; elle s’élevait à environ 44 % à la veille du conflit.

GRAPHIQUE 2  La part de la richesse totale détenue par les 1 % les plus riches en France et au Royaume-Uni (en %)

Hauner et ses coauteurs ont décelé d’autres preuves empiriques confortant la thèse de Hobson-Lénine. Par exemple, les détentions nettes d’actifs étrangers ont augmenté, de façons absolue et relative, à la veille du conflit, mais aussi que ces actifs étaient presque entièrement détenus par les plus aisés ; les rendements étrangers apparaissent plus élevés que les rendements domestiques, une fois qu’on les ajuste en fonction du risque, ce qui explique pourquoi les plus riches étaient incités à investir à l’étranger ; l’établissement d’un contrôle politique direct diminuait le degré de risque des actifs étrangers ; l’accroissement des inégalités était associé à une plus grande part des actifs étrangers dans le PIB ; les pays qui possédaient le plus d’actifs étrangers, en pourcentage de leur PIB, disposaient des plus grandes armées. Bref, tous les ingrédients pour qu’éclate le conflit étaient en place et étaient clairement associés à une logique économique. Surtout, les ingrédients des guerres semblent effectivement résidaient au sein même des sociétés capitalistes : les inégalités domestiques sont susceptibles d’alimenter les guerres à l’étranger.

 

Références

AMIN, Samir (1974), L’Accumulation à l’échelle mondiale.

HAUNER, Thomas, Branko MILANOVIC & Suresh NAIDU (2017), « Inequality, foreign investment, and imperialism », MPRA, paper, n° 83068.

HILFERDING, Rudolf (1910), Le Capital financier.

HOBSON, John A. (1902), Imperialism: A Study.

LENINE, Vladimir (1917), L’Impérialisme, stade suprême du capitalisme.

LUXEMBURG, Rosa (1913), L’Accumulation du capital.

MILANOVIC, Branko (2016), Global Inequality: A New Approach For the Age of Globalization, Harvard University Press.

Partager cet article

Repost0
25 novembre 2017 6 25 /11 /novembre /2017 20:53
Quel est l’héritage du discours présidentiel de Friedman ?

L’article de Milton Friedman (1968), « The role of monetary policy », qui reprend un discours qu’il avait prononcé l’année précédente lors de son investiture en tant que président l’American Economic Association, a beau ne tenir que sur 17 pages, il a eu un énorme impact aussi bien au niveau théorique, sur le paysage de la macroéconomie et la lutte entre les différentes écoles de pensée, que dans le domaine pratique, celui de la politique monétaire. Google Scholar recense plus de 7.500 citations de cet article. Il est certes moins cité que son livre Capitalisme et liberté, publié en 1962, mais il est aussi cité que le célèbre livre qu’il a coécrit avec Anna Schwartz et publié en 1963, Une Histoire monétaire des Etats-Unis.

Greg Mankiw et Ricardo Reis (2017) sont récemment revenus sur l’importance de cette allocution, un demi-siècle après son occurrence. Ils rappellent tout d’abord son contexte, celui d’un keynésianisme triomphant. La Grande Dépression avait fortement déstabilisé l’économie américaine, mais les analyses néoclassiques semblaient dans les années trente incapables d’expliquer sa sévérité. En publiant sa Théorie générale en 1936, Keynes a non seulement avancé une explication des fluctuations de l’activité, mais aussi montré pourquoi et comment les autorités pouvaient intervenir pour atténuer ces fluctuations : les récessions trouvent leur source dans une insuffisance de la demande globale, mais l’économie peut rester piégée dans une telle situation ; face à cette défaillance de marché, les autorités peuvent ramener l’économie au plein emploi en stimulant la demande globale.

Plusieurs économistes ont cherché à modéliser les idées de Keynes. John Hicks et Alvin Hansen contribuèrent notamment le modèle IS-LM (au prix de l’abandon de certaines intuitions de la Théorie générale), qui devint le cadre d’analyse privilégié pour comprendre l’action des politiques conjoncturelles. Il se focalisait toutefois sur le seul court terme en supposant une fixité des prix et sans expliquer celle-ci. Pendant longtemps, les keynésiens ont donc cherché à intégrer la dynamique des prix dans leur édifice théorique. C’est la courbe de Phillips qui fournit l’équation manquante : en décelant une relation inverse entre l’inflation salariale et le taux de chômage au Royaume-Uni, Alban W. Phillips (1958) a suggéré aux keynésiens qu’il existait une relation inverse entre inflation des prix et taux de chômage. Autrement dit, il semblait possible pour les autorités publiques de réduire le chômage en laissant l’inflation s’accroître, ou inversement.

C’est dans un article où ils se penchent sur les causes de l’inflation que Paul Samuelson et Robert Solow (1960) suggèrent que la courbe de Phillips offre des possibilités d’arbitrage entre inflation et chômage. Pour autant, ils soulignaient aussi que cette relation n’était pas stable au cours du temps. Ils décelaient plusieurs façons par lesquelles une économie à faible pression, marquée par une faible inflation et un chômage élevé, pouvait conduire à un déplacement de la courbe de Phillips. Ils ont anticipé non seulement l’idée d’une courbe de Phillips augmentée des anticipations en suggérant qu’une révision des anticipations pouvait déplacer la courbe de Phillips, mais aussi celle des effets d’hystérèse, en suggérant que la persistance d’une faible demande puisse se traduire par l’accroissement d’un chômage de nature structurelle, c’est-à-dire puisse accroître le taux de chômage associé à la stabilité des prix.

Les keynésiens ayant adopté la courbe de Phillips, c’est en remettant en cause cette dernière que Friedman (1968) espère faire effondrer l’édifice keynésien ; Samuelson et Solow avaient émis quelques réserves quant à la stabilité de la courbe de Phillips, mais Friedman les passa sous silence [Rubin, 2012]. Alors que Samuelson et Solow tendent à considérer le long terme comme une succession de situations de court terme, Friedman distingue court terme et long terme. Ce dernier apparaît dans son analyse comme le laps de temps où les principes de l’économie néoclassique sont vérifiés et où, notamment, la monnaie retrouve sa neutralité. Friedman réintroduit alors un concept essentiel de la Théorie générale que les keynésiens de la synthèse avaient eu tendance à négliger : les anticipations. Si la distinction entre court terme et long terme est importante dans sa critique de la courbe de Phillips, c’est notamment parce que les agents peuvent se tromper à court terme dans leurs anticipations. A long terme, par contre, les anticipations sont vérifiées.

Friedman suppose en l’occurrence que les travailleurs forment des anticipations adaptatives : ils déduisent de l’évolution passée de l’inflation le taux d’inflation future. Les entreprises connaissent le niveau général des prix, mais les ménages ne l’observent pas immédiatement, si bien qu’ils peuvent se tromper sur le niveau courant de l’inflation. Selon Friedman, c’est cette asymétrie d’informations et la nature adaptative des anticipations qui expliquent pourquoi il existe à court terme une courbe de Phillips, c’est-à-dire une possibilité d’arbitrage entre inflation et chômage, mais que cette relation disparaît à long terme. En l’occurrence, si la banque centrale assouplit sa politique monétaire pour réduire le taux de chômage, le taux d’inflation sera supérieur à celui qu’anticipent les travailleurs. Ces derniers vont considérer que la hausse des salaires nominaux correspond à une hausse des salaires réels : ils vont alors accroître leur offre de travail, ce qui réduira le chômage. Cette baisse du chômage est toutefois temporaire : les travailleurs vont finir par prendre conscience de leur erreur, c’est-à-dire comprendre que l’inflation a été plus importante qu’ils ne l’ont anticipé. Ils vont corriger leurs anticipations et réduire leur offre de travail, si bien qu’à long terme, le chômage retourne à son niveau initial, mais pas le taux d’inflation. Friedman qualifie ce taux de chômage incompressible du taux de chômage naturel ; il suppose que celui-ci est déterminé du côté de l’offre et c’est pour cette raison qu’il le juge insensible à la conjoncture. 

Friedman concluait de son analyse que la banque centrale ne peut durablement maintenir le chômage à un niveau inférieur à son niveau naturel, si ce n’est en générant un taux d’inflation toujours plus important, ce qui est insoutenable à long terme. Les événements donnèrent raison à Friedman face aux keynésiens : à partir des années soixante-dix, l’inflation ne cessait d’augmenter, sans pour autant que reflue le chômage. Le monétaire pensait en outre que la banque centrale ne peut pas non plus cibler un taux d’intérêt : comme nous ne pouvons savoir avec précision à quel niveau s’élève le taux d’intérêt naturel, le ciblage d’un taux d’intérêt risque également de pousser l’inflation hors de tout contrôle. Par contre, la banque centrale peut veiller à ce que la monnaie ne constitue pas une source de perturbations pour l’économie, comme elle le fut lors de la Grande Récession : la sévérité de cette dernière s’explique par l’incapacité de la Fed à contenir la contraction de la masse monétaire [Friedman et Schwartz, 1963]. L’objectif premier des banques centrales doit porter sur quelque chose qu’elles peuvent contrôler à long terme, en l’occurrence une variable nominale. Friedman considère alors trois candidats possibles : le taux de chômage nominal, le niveau des prix et les agrégats monétaires. Or, le taux de change n’est pas assez important dans la mesure où le commerce ne joue qu’un petit rôle dans l’économie américaine ; le niveau des prix est la plus importante des trois variables considérées, mais l’effet de la politique monétaire sur le niveau des prix est trop long et imprévisible, si bien que la politique monétaire risque d’amplifier les déséquilibres, plutôt que de les atténuer ; par conséquent, Friedman en conclut que la croissance régulière d’un certain agrégat monétaire constitue le meilleur point de départ pour la politique monétaire.

Les macroéconomistes sont aujourd’hui en désaccord avec ce dernier point. En effet, l’économie peut être sujette à des chocs aussi divers que des chocs pétroliers, des crises financières ou des esprits animaux changeants. Notamment pour cette raison, la banque centrale risque de ne pas réagir suffisamment face à un choc si elle se contente de maintenir un agrégat monétaire sur une trajectoire régulière. En outre, dans la mesure où les instruments financiers sont de plus en plus complexes, il est difficile de déterminer un indicateur approprié de la quantité de monnaie à cibler. La vitesse de circulation de la monnaie, que Friedman suppose stable, s’est au contraire révélée instable ces dernières décennies, si bien que le ciblage des agrégats monétaires s’est traduit par d’amples fluctuations des prix et des revenus.

Si les idées de Friedman ont eu un impact majeur sur la pratique de la politique monétaire, celui-ci n’a été que temporaire. Aujourd’hui, non seulement les grandes banques centrales ciblent l’inflation, mais elles ciblent en l’occurrence le même taux d’inflation (une inflation de 2 %). Cette pratique semble efficace, dans le sens où l’inflation annuelle est restée dans une bande comprise entre 0 et 4 % d’inflation. En outre, la macroéconomie moderne se focalise davantage sur le taux d’intérêt nominal, aussi bien en tant qu’instrument que comme guide pour juger de l’état de l’économie. Pour autant, beaucoup considèrent, comme Friedman, que les autorités doivent s’attacher à suivre une règle prédéfinie, mais c’est davantage en raison des problèmes d’incohérence temporelle mis en évidence par les nouveaux classiques, qu’en raison des arguments avancés par Friedman. Cela n’empêche pas les banques centrales d’adopter des mesures discrétionnaires : elles continuent à suivre les politiques contracycliques que Friedman jugeait vaines. Certes, en empêchant les faillites bancaires, la Réserve fédérale a montré qu’elle a bien saisi les enseignements que Friedman avait tirés de son analyse de la Grande Dépression. Mais c’est aussi en assouplissant agressivement leur politique monétaire que les banques centrales ont empêché que se répète la Grande Dépression il y a dix ans : lors de la Grande Dépression, la production industrielle s’était contractée de 52 % et cette contraction dura 43 mois ; lors de la Grande Récession, la production industrielle chuta de 17 % et cette contraction dura 19 mois.

Mankiw et Reis ont également jugé de l'héritage que le discours de Friedman a laissé pour la théorie économique. Ils notent par exemple que la focalisation sur le long terme, comme point de référence, et les anticipations continuent d’être au centre des analyses macroéconomiques, même après la crise financière mondiale : les analyses de l’inflation continuent de donner un rôle important aux anticipations d’inflation, les analyses du chômage continuent de faire jouer un rôle important au taux de chômage naturel, etc. Malgré cela, ce ne sont pas les anticipations adaptatives de Friedman que les économistes introduisent dans leurs modélisations, mais le concept d’anticipations rationnelles que les nouveaux classiques ont avancé dans les années soixante-dix. C’est d'ailleurs cette hypothèse d’anticipations rationnelles que les nouveaux keynésiens ont adoptée pour contrer la révolution des nouveaux classiques. Certes, les keynésiens n'ont jamais réussi à pleinement réhabiliter la courbe de Phillips, tandis que le concept de taux de chômage naturel continue d'être utilisé dans les travaux universitaires et comme indicateur pour la politique économique. Mais beaucoup ont affirmé que celui-ci n'est pas insensible à la conjoncture et donc au taux de chômage courant en raison des effets d’hystérèse ; ce sont d’ailleurs ces derniers qui sont évoqués pour légitimer le retour de la politique budgétaire.

 

Références

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58, n° 1.

FRIEDMAN, Milton, & Anna Jacobson SCHWARTZ (1963), A Monetary History of the United States, 1867-1960. Traduction française, Une histoire monétaire des Etats-Unis.

MANKIW, N. Gregory, & Ricardo REIS (2017), « Friedman’s presidential address in the evolution of macroeconomic thought », NBER, working paper, n° 24043.

PHILLIPS, Alban W. (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861-1957 », in Economica, vol. 25, n° 100.

RUBIN, Goulven (2012), « Robert Solow de la courbe de Phillips à la question des fondements de la macroéconomie: 1960-1981 ».

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

Partager cet article

Repost0
19 novembre 2017 7 19 /11 /novembre /2017 19:14
Booms, crises et reprises : n’est-il pas temps de changer de paradigme ?

La vision traditionnelle des cycles d’affaires repose sur trois grandes idées : le PIB réel fluctue autour d’une tendance ; cette tendance, appelée « production potentielle », serait déterminée du côté de l’offre ; et les fluctuations trouveraient leur origine dans des chocs de demande (cf. schéma 1). Selon cette vision, la récession serait généralement provoquée par un choc de demande négatif : l’affaiblissement de la demande globale pousserait la production sous son niveau potentiel, mais la production reviendrait rapidement à sa trajectoire initiale lors de la reprise. Bref, les pertes de production ne seraient que temporaires.

SCHEMA 1  La vision traditionnelle du cycle d’affaire

La Grande Récession amène à douter d’un tel paradigme. En effet, suite à la crise financière mondiale, la croissance économique n’a pas connu de puissant rebond et la reprise est restée lente pendant près de neuf ans. Au cours de cette période, les prévisions de croissance de la plupart des institutions ont été régulièrement révisées à la baisse. Entre 2000 et 2007, la croissance moyenne s’élevait respectivement à 2,7 % et 4,5 % aux Etats-Unis et dans le monde ; elle atteint respectivement 2,1 % et 3,8 % entre 2010 et 2017.

Cette dynamique du PIB est toutefois loin d’être exceptionnelle au regard de l’Histoire, même si l’on se concentre sur la seule période d’après-guerre. En effet, Valerie Cerra et Sweta Saxena (2005a, 2005b) avaient mis en évidence que les crises financières qui avaient respectivement touché la Suède et les pays asiatiques au cours des années quatre-vingt-dix ont durablement affecté leur activité économique. Surtout, Cerra et Saxena (2008) ont constaté, en étudiant un échantillon de 190 pays, que les crises de balance des paiements et les crises bancaires ont par le passé été suivies en moyenne par une perte permanente du niveau de la production réelle : celle-ci a beau renouer avec une croissance à un moment ou à un autre, la trajectoire qu’elle finit par rejoindre est inférieure à celle qu’elle suivait avant la crise. La perte en termes de production s’élève en moyenne à 5 % suite à une crise de la balance des paiements, à 10 % suite à une crise bancaire et à 15 % suite à une crise jumelle. En outre, les récessions affectent durablement l’activité même si elles ne sont pas synchrones avec une crise financière.

Cerra et Saxena (2017) confirment que ces conclusions restent valides lorsqu’elles étendent l’échantillon de données jusqu’à l’année 2013 : le taux de croissance moyen durant les années d’expansion d’une reprise est significativement plus faible que celui observé sur l’ensemble des années d’expansion. En effet, lorsqu’une reprise s’amorce, c’est-à-dire lorsque la croissance redevient positive après une récession, cette croissance est inférieure de 0,8 points de pourcentage par rapport à la moyenne lorsque la récession est associée à une crise bancaire et inférieure de 0,5 points de pourcentage par rapport à la moyenne lorsque la récession n’est pas associée à une crise bancaire. La croissance économique est inférieure de 0,6 points de pourcentage par rapport à la moyenne lors des quatre premières années de reprise suite à une récession synchrone à une crise financière ; elle est inférieure de 0,3 points de pourcentage par rapport à la moyenne au cours des quatre premières années de reprise suite à une récession qui n’a pas été associée à une crise bancaire.

Cette persistance des dommages macroéconomiques suggère l’existence de puissants effets d’hystérèse. Par conséquent, Cerra et Saxena appellent à abandonner le paradigme traditionnel des cycles d’affaires pour prendre en compte ces effets. En effet, au mieux, suite à une récession, la reprise permettra à la croissance de revenir à son rythme d’avant-crise, mais sans pour autant que le PIB revienne à sa trajectoire d’avant-crise. Par conséquent, la production ne fluctue pas autour d’une tendance croissante à long terme, puisque les chocs que connaît l’économie modifient la trajectoire suivie (cf. schéma 2). Cerra et Saxena en concluent que le cycle d’affaires n’est absolument pas cyclique.

SCHEMA 2 La réalité du cycle d’affaire 

Un tel constat est bien évidemment cohérent avec la théorie du cycle d’affaires réel (real business cycle) : selon celle-ci, les fluctuations économiques sont générées par des chocs de productivité qui conduisent à une modification de la tendance même que suit la production. Toutefois, il est peu probable qu’un pays ou l’ensemble de l’économie mondiale puisse soudainement connaître une perte de productivité sur une aussi grande échelle et une régression technologique. En outre, Cerra et Saxena constatent que les crises bancaires se traduisent en moyenne par une chute des prix de 2 % à long terme dans les pays développés. Par conséquent, la baisse simultanée de la production et des prix suggèrent que ce sont bien des chocs de demande qui sont à l’œuvre. Bref, ces constats remettent en cause l’hypothèse habituelle que les choses de demande n’ont que des effets transitoires : en raison des effets d’hystérèse, une baisse de la demande globale peut déprimer durablement l’offre globale. Par exemple, la faiblesse de la demande peut désinciter les entreprises à investir, ce qui non seulement contribue à la faiblesse de la demande à court terme, mais aussi se traduit par une réduction du stock de capital à long terme. FMI (2015) a ainsi constaté que l’investissement des entreprises s’est fortement contracté dans les pays développés au cours de la crise financière mondiale, mais aussi que c’est en raison de la faiblesse de l’activité s’il est resté par la suite déprimé.

Cerra et Saxena rejettent aussi l’idée que la faiblesse des reprises puisse s’expliquer par des booms insoutenables à la veille des crises, c’est-à-dire qu’elle puisse simplement refléter un retour à une trajectoire soutenable. En étudiant plusieurs décennies de données relatives à plus de 160 pays, elles constatent que la croissance du PIB que l’on peut observer juste avant le pic du cycle d’affaires ou juste avant une crise bancaire ou une crise de devise est plus faible que la croissance moyenne observée sur l’ensemble des années d’expansion. La croissance du PIB est en fait particulièrement faible avant une crise.

Ces divers résultats ont de profondes implications pour la politique économique. Si effectivement les pertes durables de production résultent de chocs de demande, alors on peut penser que les politiques conjoncturelles, en stimulant la demande globale, peuvent réduire les effets d’hystérèse. Valerie Cerra, Ugo Panizza et Sweta Saxena (2013) ont par exemple montré que les politiques macroéconomiques peuvent influencer le rythme des reprises et contribuer à réduire les pertes de production qui résultent des récessions. En l’occurrence, l’assouplissement monétaire, la relance budgétaire, la dépréciation du taux de change réel, l’aide étrangère et une plus grande flexibilité du taux de change sont susceptibles d’amplifier le rebond de l’activité. Dans les pays développés, la relance budgétaire semble particulièrement efficace pour stimuler la reprise suite à une récession synchrone à une crise bancaire.

 

Références

CERRA, Valerie, & Sweta C. SAXENA (2005a), « Eurosclerosis or financial collapse: Why did Swedish incomes fall behind? », FMI, working paper, n° 05/29.

CERRA, Valerie, & Sweta C. SAXENA (2005b), « Did output recover from the Asian crisis? », FMI, staff paper, vol. 52, n° 1.

CERRA, Valerie, & Sweta C. SAXENA (2008), « Growth dynamics: The myth of economic recovery », in American Economic Review, vol. 98, n° 1.

CERRA, Valerie, & Sweta C. SAXENA (2017), « Booms, crises, and recoveries: A new paradigm of the business cycle and its policy implications », FMI, working paper, n° 17/250.

CERRA, Valerie, Ugo PANIZZA & Sweta C. SAXENA (2013), « International evidence on recovery from recessions », in Contemporary Economic Policy, vol. 31, n° 2.

FMI, (2015), « Private investment: What’s the holdup? », World Economic Outlook, chapitre 4.

Partager cet article

Repost0
5 novembre 2017 7 05 /11 /novembre /2017 18:41
La stagflation et la lutte des méthodologies en macroéconomie

Les historiens de la pensée économique et les macroéconomistes continuent de débattre des bouleversements que la macroéconomie a connu dans les années soixante-dix. Beaucoup en donnent le récit suivant : la pensée universitaire et la politique étaient dominées par le keynésianisme dans l’immédiat après-guerre. La courbe de Phillips, adoptée par les keynésiens, suggérait que les décideurs politiques pouvaient arbitrer entre inflation et chômage via l’usage des politiques de demande. Le keynésianisme connut toutefois un déclin dans les années soixante-dix pour deux raisons. D’une part, au niveau empirique, les pays connaissaient une situation de stagflation, c’est-à-dire la conjonction du chômage et de l’inflation, un phénomène que les modèles keynésiens n’avaient pas su prévoir, ni ne parvenaient à expliquer. Au niveau théorique, les monétaristes, puis les nouveaux classiques expliquaient (contrairement aux keynésiens) pourquoi les économies développées étaient plongées dans une situation de stagflation. Selon les monétaristes, parce que les agents ont des anticipations adaptatives, une hausse de l’inflation conduit à une baisse des salaires réels, donc à une baisse du chômage, mais celle-ci est temporaire, car les travailleurs vont finir par se rendre compte de leurs erreurs d’anticipations et réclamer une hausse des salaires, ce qui ramènera le chômage à son niveau initial, le fameux « taux de chômage naturel ». Bref, il y a peut-être une courbe de Phillips à court terme, mais celle-ci devient instable à long terme. Les décideurs politiques pourraient chercher à maintenir le chômage en-deçà de son niveau naturel, mais cela ne pourrait se faire qu’au prix d’une inflation croissante : c’est la thèse accélérationniste. Les nouveaux classiques, menés par Robert Lucas, radicalisèrent cette thèse en supposant que les agents ont des anticipations rationnelles et ne peuvent ainsi être systématiquement floués par les décideurs publics : il n’y a possibilité d’arbitrage entre inflation et chômage ni à court terme, ni à long terme.

Les choses n’ont peut-être pas été aussi simples. Au cours de l’été 2014, plusieurs macroéconomistes débattirent dans la blogosphère autour de la révolution menée par les nouveaux classiques. Simon Wren-Lewis (2014a) pensait que celle-ci était avant tout de nature méthodologique. Elle proviendrait selon lui de l’insatisfaction que les économistes ressentaient face au fossé entre la méthodologie qui dominait à l’époque dans la plupart des travaux microéconomiques et celle qui dominait dans la macroéconomie orthodoxe. Paul Krugman (2014) pensait quant à lui que le succès de la révolution des nouveaux classiques s’expliquait par la stagflation. Mais Wren-Lewis notait que les keynésiens avaient rapidement adapté leurs modèles en combinant l’idée d’une courbe de Phillips accélérationniste avec l’idée que les décideurs politiques puissent sous-estimer le taux de chômage naturel pour expliquer la stagflation. Cette réaction prouverait selon lui que la victoire des nouveaux classiques sur les keynésiens était davantage théorique qu’empirique. Pour le montrer, Wren-Lewis (2014b) s’est alors penché sur ce qui constitue à ses yeux comme le véritable manifeste des nouveaux classiques : un article que Robert Lucas et Thomas Sargent (1979) présentèrent à la conférence organisée par la Réserve fédérale de Boston en juin 1978, conférence qui s’intitulait « After the Phillips Curve: the Persistence of High Inflation and High Unemployment ». Selon Wren-Lewis, cet article porte essentiellement sur des questions méthodologiques : il s’agissait pour ses auteurs de critiquer les modèles macroéconométriques keynésiens sur un plan méthodologique, mais ils n’ont pas relié leur critique à la stagflation.  

Aurélien Goutsmedt (2017) a alors étudié en détails les travaux qui ont été présentés lors de la conférence afin de préciser la place que tenaient la stagflation et la méthodologie dans les débats qui se tenaient alors et ainsi mieux comprendre les bouleversements que le paysage de la macroéconomie a connus dans les années soixante-dix. Il note tout d’abord que, lors de la conférence, la question de la méthodologie était souvent intimement liée à la question de la stagflation : la préférence d’un économiste pour une explication de la stagflation était associée à une préférence pour une certaine méthodologie dans la modélisation. Une première explication de la stagflation considéraient que l’inadéquation des politiques économiques et les changements dans le comportement des agents constituaient les causes fondamentales de la stagflation ; il s’agissait essentiellement de la thèse des nouveaux classiques. Selon une seconde explication, la stagflation résultait principalement de chocs externes, notamment le choc pétrolier ; c’était celle qu’avançaient les keynésiens et les utilisateurs de modèles macroéconomiques structuraux. Par contre, l’article de Lucas et Sargent n’a pas cherché à expliquer la stagflation, ni à la lier à l’échec du consensus keynésien.

En outre, le conflit entre, d’une part, Lucas et Sargent et, d’autre part, les partisans des modèles macroéconométriques structurels  ne se ramenait pas à une opposition entre la modélisation microfondée (à laquelle les premiers appelleraient) et la modélisation non-microfondée (que privilégieraient les seconds). En effet, Goutsmedt note par exemple que les modèles défendus par Lawrence Klein et Ray Fair, deux concepteurs de modèles macroéconométriques structurels, étaient microfondés.

En fait, l’opposition entre les macroéconomistes portait plutôt sur la nature des microfondations à privilégier. D’un côté, Lucas et Sargent appelaient à construire les modèles sur la base d’équations tirées de ce qui constituait selon eux le cadre le plus robuste en économie, en l’occurrence le modèle walrasien d’équilibre général. Ce qui doit primer avant tout, selon eux, c’est la cohérence interne du modèle. C’est ce programme qu’appliquèrent les premiers nouveaux classiques, les théoriciens de cycles d’affaires réels (real business cycles), puis les tenants de la nouvelle synthèse néoclassique qui proposèrent à partir des années quatre-vingt-dix les modèles d’équilibre général stochastiques dynamiques (DSGE) : ceux-ci sont fondamentalement des modèles de cycles d’affaires réels qui incorporent des éléments nouveaux keynésiens, en l’occurrence la concurrence imparfaite et l’hypothèse d’un ajustement progressif des prix et salaires. Ceux qui s’opposèrent à cette « discipline » le firent au motif qu’ils estimaient que les microfondations devaient résulter aussi bien de l’interaction des théories microéconomiques et macroéconomiques que de celle des données microéconomiques et macroéconomiques. Dans leur optique, si les données ne collaient pas avec le modèle, c’était peut-être en raison d’une erreur de la théorie microéconomique : ainsi, si les modèles structuraux des années soixante-dix ne parvenaient pas à établir des prévisions correctes, il n’était pas nécessaire de les abandonner, mais il était de les améliorer en prenant en compte les données.

Enfin, Goutsmedt note que la conférence marqua une rupture croissante entre la macroéconomie universitaire et la modélisation macroéconométrique des décideurs politiques. Les idées des nouveaux classiques se sont diffusées lentement et qu’elles ne se sont pas totalement imposées dans l’ensemble des grandes institutions économiques. De nombreuses banques centrales et plusieurs ministères des Finances continuent d’utiliser des modèles hybrides, qui ne sont pas de purs modèles DSGE. Goutsmedt estime que ces modèles hybrides ne résultent pas de la nouvelle synthèse néoclassique ; ils sont plutôt l’héritage direct des modèles utilisés dans les années soixante et soixante-dix.  

 

Références

GOUTSMEDT, Aurélien (2017), « Stagflation and the crossroad in macroeconomics: The struggle between structural and New Classical macroeconometrics », Centre d’économie de la Sorbonne, document de travail, n° 2017.43.

KRUGMAN, Paul (2014), « Stagflation and the fall of macroeconomics », 28 juin.

LUCAS, Jr., Robert E., & Thomas J. SARGENT (1979), « After keynesian macroeconomics », In After the Phillips Curve: the Persistence of High Inflation and High Unemployment.

WREN-LEWIS, Simon (2014a), « Understanding the New Classical revolution? », in Mainly Macro (blog), 28 juin. Traduction française, « Comment expliquer la révolution des nouveaux classiques », in Annotations (blog).

WREN-LEWIS, Simon (2014b), « Rereading Lucas and Sargent 1979 », in Mainly Macro (blog), 11 juillet. Traduction française, « Relire Lucas et Sargent », in Annotations (blog).

Partager cet article

Repost0
31 octobre 2017 2 31 /10 /octobre /2017 15:26
Les inégalités de richesse augmentent-elles quand r > g ?

Plusieurs études suggèrent que les inégalités de patrimoine ont suivi une évolution en U au cours du vingtième siècle : initialement élevées, elles ont décliné, avant de s’accroître à nouveau ces dernières décennies (cf. graphique 1). Thomas Piketty (2013) met l’accent sur deux variables pour expliquer la dynamique des inégalités de richesse : le rendement sur le capital (r) et le taux de croissance économique (g). En l’occurrence, les inégalités de patrimoine auraient tendance à se creuser lorsque r est supérieur à g. En effet, la part du revenu rémunérant le capital aurait alors tendance à augmenter (autrement dit, la part du revenu rémunérant le travail tendrait à diminuer) et le ratio patrimoine sur revenu à augmenter. Comme les revenus du capital sont plus concentrés entre les mains des hauts revenus que les revenus du travail, alors cette déformation du partage du revenu national se traduit par une hausse des inégalités interpersonnelles de revenu.

GRAPHIQUE 1  Parts du patrimoine nationale détenues respectivement par les 10 % et les 1 % les plus riches en Europe et aux Etats-Unis

 

source : Piketty (2013)

Ce sont précisément une déformation du partage de la valeur ajoutée au détriment du travail et une hausse du ratio richesses sur revenu que les pays développés ont connu ces dernières décennies [Piketty et Zucman, 2013]. Selon Piketty, l’écart entre r et g a eu tendance à se creuser ces dernières décennies en raison de la hausse des prix d’actifs (qui a directement contribué à accroître le rendement des actifs) et le ralentissement de la croissance de la productivité et de la population (qui déprime directement la croissance économique) ; cet écart devrait continuer de se creuser (et donc les inégalités continuer d’augmenter) dans la mesure où ces dynamiques sont susceptibles de se poursuivre.

GRAPHIQUE 2  Rendement du capital et taux de croissance au niveau mondial 

source : Piketty (2013)

La thèse de Piketty a rencontré plusieurs critiques. Toutefois, très peu de travaux empiriques ont été réalisés pour vérifier la relation entre, d’une part, les inégalités et, d’autre part, l’écart entre r et g. Cela s’explique notamment par l’absence de données sur les inégalités et les rendements des actifs qui remontent suffisamment loin dans le passé, mais aussi par les difficultés à construire une mesure composite de r qui inclut toutes les classes d’actifs. Piketty estime que l’écart entre r et g a été positif et relativement constant entre l’antiquité et le début du vingtième siècle, ce qui expliquerait pourquoi le ratio patrimoine sur revenu et les inégalités de richesse étaient élevés il y a un siècle (cf. graphique 2). Mais, selon Jacob Madsen (2017), ces estimations reposent sur un nombre limité d’observations et des hypothèses fragiles.

Daron Acemoglu et James Robinson (2015) et Carlos Goes (2016) ont testé les conclusions de Piketty et leur analyse les a amenés à les rejeter. D’un côté, Acemoglu et Robinson ne sont pas parvenus à montrer que la part du revenu captée par les 1 % les plus riches variait dans le sens de l’écart entre r et g, si bien qu’ils en ont conclu que les inégalités dépendaient d’autres facteurs que l’écart entre r et g, notamment des institutions (1). De l’autre, Goes a constaté que la part du revenu rémunérant le capital variait dans le sens inverse de l’écart entre r et g dans les trois quarts de son échantillon de données. Mais ces deux études reposent également, selon Madsen, sur des ensembles de données fragiles.

Madsen a donc cherché à construire une base de données de très long terme pour étudier si les inégalités de richesse et de revenu ont été influencées par l’écart entre r et g. En l’occurrence, il s’est penché sur les données relatives à la Grande-Bretagne pour la période s’étalant entre 1210 et 2013. Il a déterminé les rendements d’actifs comme étant les rendements réels moyens du capital fixe non résidentiel, des terres agricoles, de l’immobilier, de la dette publique, des actifs étrangers nets, de l’or, de l’argent, des bâtiments de ferme et du bétail, en pondérant chacune de ces classes d’actifs en fonction de sa part dans le patrimoine total.

GRAPHIQUE 3  Rendement des actifs (r) et croissance économique (g)

source : Madsen (2017)

Madsen tire de son analyse trois principaux résultats. Premièrement, il identifie trois grandes vagues dans l’évolution de r et de l’écart r-g au cours des huit derniers siècles en Grande-Bretagne (cf. graphique 3) ; celles-ci semblent en l’occurrence coïncider avec des vagues similaires dans le ratio richesses sur revenu et les inégalités (cf. graphiques 4 et 5). Ces vagues résultent des luttes politiques entre capitalistes, propriétaires terriens et travailleurs, mais aussi de chocs majeurs tels que des guerres et des épidémies, divers facteurs qui se sont traduits par des épisodes d’inflation et de déflation, des variations des tarifs douaniers et des fluctuations des prix alimentaires. A très long terme, toutefois, le ratio richesses sur revenu et la part du revenu rémunérant le capital semblent converger vers des valeurs constantes, comme le suggèrent plusieurs modèles de croissance. Ce dernier résultat est cohérent avec la conjecture de Piketty selon laquelle la faiblesse des inégalités que l’on a pu observer dans une grande partie du vingtième siècle constituait un phénomène temporaire et que les économies avancées pourraient converger à l’avenir vers un niveau élevé d’inégalités.

GRAPHIQUE 4  Croissance du ratio richesses sur revenu

source : Madsen (2017)

Deuxièmement, une grande fraction de r résulte des gains en capital réels sur les biens non reproductibles et ceux-ci se sont révélés être un déterminant crucial des inégalités depuis 1210 ; ce fut notamment le cas avec la hausse de la demande de terres dans un contexte d’offre de terres inélastiques lors des périodes de forte croissance de la population.

GRAPHIQUE 5  Part du revenu rémunérant le capital

source : Madsen (2017)

Troisièmement, Madsen conclut de son analyse que r et g constituent des déterminants significatifs et robustes derrière l’évolution du ratio richesses sur patrimoine et la part du revenu rémunérant le capital. En l’occurrence, leurs effets ont joué dans le sens prédit par la théorie de Piketty.

 

(1) Piketty n’affirme toutefois pas que l’évolution des inégalités de richesse s’explique uniquement par l’écart entre g et r. Il considère que les inégalités de patrimoine et les ratios richesses sur revenu ont décliné dans les pays développés au début du vingtième siècle notamment en raison des guerres mondiales et de politiques défavorables au capital. Il considère ainsi que les institutions jouent un rôle important pour contraindre et stimuler l’accumulation de patrimoine.

 

Références

ACEMOGLU, Daron, & James ROBINSON (2015), « The rise and decline of general laws of capitalism », in Journal of Economic Perspectives, vol. 29, n° 1.

GOES, Carlos (2016), « Testing Piketty's hypothesis on the drivers of income inequality: Evidence from panel VAR heteregenous dynamics », FMI, working paper, n° 16/160.

MADSEN, Jakob B. (2017), « Is inequality increasing in r - g? Piketty’s principle of capitalist economics and the dynamics of inequality in Britain, 1210-2013 », CAMA, working paper, n° 63/2017, octobre.

PIKETTY, Thomas (2013), Le Capital au XXIe siècle.

PIKETTY, Thomas, & Gabriel ZUCMAN (2013), « Capital is back: Wealth-income ratios in rich countries 1700-2010 », Paris School of Economics, 26 juillet.

Partager cet article

Repost0
19 septembre 2017 2 19 /09 /septembre /2017 21:32
L’effondrement des échanges lors de l’entre-deux-guerres et la Grande Récession

La crise financière mondiale de 2008 s’est rapidement traduite par une forte contraction des échanges. Beaucoup ont alors craint qu’une véritable démondialisation s’amorce. L’idée d’une inversion du processus de mondialisation ne devait toutefois pas les surprendre : l’économie mondiale a connu plusieurs vagues d’intégration commerciale, puis de désintégration au cours de l’histoire. La précédente mondialisation s’est achevée durant l’entre-deux-guerres, notamment avec la Grande Dépression des années trente.

GRAPHIQUE 1  Volume de la production industrielle mondiale (en indices, base 100 au pic d'avant-crise)

L’effondrement des échanges lors de l’entre-deux-guerres et la Grande Récession

Ce sont justement ces deux épisodes de contraction des échanges internationaux que Kevin O’Rourke (2017) a comparé dans une récente étude. Lors des deux épisodes, la production industrielle a décliné dans des proportions similaires (cf. graphique 1). Pourtant, les échanges se sont effondrés à un rythme plus soutenu lors de la Grande Récession que lors des années trente : en avril 2009, soit un an après le début de la Grande Récession, le volume des échanges mondiaux était inférieur de 18 % à son niveau d’avant-crise, alors qu’il n’était inférieur, en juin 1930, que de 8 % à son niveau d’avant-crise (cf. graphique 2).

GRAPHIQUE 2  Volume du commerce mondiale (en indices, base 100 au pic d'activité)

L’effondrement des échanges lors de l’entre-deux-guerres et la Grande Récession

Beaucoup ont expliqué la plus forte sensibilité des échanges vis-à-vis de la production lors de la récente contraction par la présence de chaînes de valeurs mondiales. O’Rourke doute toutefois que la décomposition internationale des processus productifs suffise à elle seule pour expliquer la violence de la récente contraction des échanges : si les flux bruts sont plus élevés relativement aux flux nets aujourd’hui qu’il y a 80 ans, cela se traduit certes par un plus grand effondrement des échanges en termes absolus, mais pas forcément en termes relatifs. Par contre, si certaines importations de biens chutent davantage que d’autres lors des sévères récessions et si ce sont ces catégories de biens importés qui sont les plus impliquées dans les chaînes de valeur mondiale, alors le développement de ces dernières peut effectivement avoir contribué à la sévérité de la récente contraction des échanges. O’Rourke note toutefois une corrélation positive entre la composition des échanges en termes de marchandises lors des deux épisodes. En l’occurrence, il y a eu de faibles baisses d’importations de produits alimentaires et de biens de consommation, mais aussi de fortes chutes d’importations d’automobiles et de fournitures industrielles. Bref, les forces économiques sous-jacentes ont été relativement similaires lors des deux effondrements des échanges.

Pour expliquer la plus forte sensibilité des échanges vis-à-vis de la production lors de la dernière contraction des échanges, O’Rourke étudie le rôle qu’ont pu jouer les changements dans la structure du commerce international. Il note tout d’abord que l’activité manufacturière s’est répartie sur l’ensemble du globe lors des dernières décennies ; si cette industrialisation touchait déjà l’Amérique latine et l’Asie de l’Est à la fin du dix-neuvième siècle, elle ne s’est véritablement amorcée en Asie du Sud qu’à partir des années soixante. Avec l’industrialisation de l’Asie, une part significative des exportations du Sud à destination du Nord concerne les biens manufacturés. La part des biens manufacturés dans l’ensemble du commerce mondiale a également augmenté : elle s’élève désormais à 70 %, contre 44 % en 1929.

Or, la production et le commerce de biens manufacturiers sont bien plus volatils que la production et le commerce de biens primaires. Entre 1929 et 1932, la production manufacturière mondiale a chuté de 30 %, tandis que la production de biens agricoles restait constante ; les échanges de biens manufacturiers chutèrent de plus de 40 %, tandis que le commerce de biens non manufacturés déclinait de moins de 7 %. Entre 2008 et 2009, la production manufacturière mondiale a chuté de 10 %, tandis que la production agricole augmentait : les échanges de biens manufacturés chutèrent de 15 %, tandis que les échanges de biens manufacturés baissaient de 2 % et les échanges de carburants et minéraux de 5 %. La plus forte concentration de l’économie mondiale dans une activité manufacturière volatile contribue ainsi à expliquer pourquoi les échanges ont décliné bien plus amplement lors de la récente crise mondiale qu’au début de la Grande Dépression : les échanges de biens manufacturés chutèrent au même rythme (en l’occurrence 15 %) lors des deux épisodes, mais l’industrie manufacturière représentait une part plus importante de la production et des échanges lors de la Grande Récession que lors des années trente.

La plus forte importance de l’activité manufacturière explique aussi pourquoi l’effondrement des échanges a été géographiquement bien plus équilibré lors de la Grande Récession que lors de la Grande Dépression. Le volume des exportations a chuté dans les mêmes proportions dans les pays développés et les pays émergents après 2008. A l’inverse, entre 1929 et 1932, le volume des exportations a chuté de 31,5 % en Europe et de 41,5 % en Amérique du Nord, tandis qu’il déclinait de seulement 4,5 % dans le reste du monde. Par contre, la valeur des exportations des diverses régions du monde a chuté d’un montant similaire au cours de cette période. Cette différence entre les chiffres en valeur et les chiffres en volume reflète la forte détérioration des termes de l’échange que des pays en développement ont connue lors de la Grande Dépression : leur production n’a peut-être pas vraiment décliné, mais leurs prix à l’exportation ont fortement chuté. Avec cette détérioration des termes de l’échange, les pays en développement ont eu de plus grandes difficultés à assurer le service de leur dette extérieure. 

Le protectionnisme a été bien plus prégnant lors des années trente qu’après 2008. Il n’y a pas eu de hausse généralisée des tarifs douaniers lors de la Grande Récession : ceux-ci sont restés compris entre 6 et 7 %, alors qu’ils étaient passés de 14,5 % à plus de 22,5 % entre 1928 et 1932. En outre, les pays avaient eu massivement recours aux barrières non tarifaires lors des années trente, notamment en introduisant des quotas et d’autres restrictions quantitatives sur les échanges. L’essor du protectionnisme n’est sûrement pas à l’origine de la Grande Dépression ; par contre, l’étalon-or a pu alimenter ces deux phénomènes, en contribuant à la diffusion internationale des chocs monétaires. Le système financier international de l’entre-deux-guerres privait les pays de l’usage des instruments de stabilisation de l’activité, voire les contraignait à adopter des mesures d’austérité en vue de stabiliser leurs finances publiques. Les gouvernements se tournaient alors vers des mesures protectionnistes pour essayer de stimuler leur activité domestique. Ce n’est qu’une fois sortis de l’Etalon-or que les pays retrouvaient l’autonomie de leurs politiques macroéconomiques et connaissaient une reprise de leur activité.

En 2009, les banques centrales et les gouvernements ont adopté des assouplissements monétaires, voire des relances budgétaires, pour renverser la contraction de l’activité. Ce meilleur usage des politiques de stabilisation explique non seulement pourquoi l’effondrement des échanges a été plus court suite à la Grande Récession que lors de la Grande Dépression, mais aussi pourquoi les tensions protectionnistes ont été moins fortes que lors de cette dernière.

 

Référence

O’ROURKE, Kevin Hjortshøj (2017), « Two Great Trade Collapses: The interwar period & Great Recession compared », NBER, working paper, n° 23825.

Partager cet article

Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher