Overblog
Suivre ce blog Administration + Créer mon blog
19 avril 2018 4 19 /04 /avril /2018 19:33
Comment se répartissent les revenus en France ?

Bertrand Garbinti, Jonathan Goupille-Lebret et Thomas Piketty (2018) ont cartographié la répartition du revenu avant impôt en France de la période allant de 1900 à 2014, ce qui leur a permis de préciser comment les inégalités de revenu ont évolué à long terme.

GRAPHIQUE 1  Revenu moyen par adulte en France (en euros de 2014)

 

Leurs données confirment que le revenu moyen par adulte a fortement augmenté depuis le début du vingtième siècle : il a été multiplié par 7 entre 1900 et 2014 en passant de 5.000 à 35.000 euros (cf. graphique 1). Cette croissance des revenus a toutefois été loin d’être régulière ; elle s’est essentiellement réalisée au cours des Trente glorieuses, en l’occurrence entre 1945 et 1980. En effet, le revenu moyen par adulte a décliné de 0,1 % par an entre 1900 et 1945 ; il a augmenté de 3,7 % par an au cours des décennies qui ont immédiatement suivi la Seconde Guerre mondiale ; puis, entre 1980 et 2014, il a augmenté plus lentement, en l’occurrence au rythme de 0,9 % par an. C’est essentiellement la même évolution qui a été observée dans les autres pays européens et au Japon et, dans une moindre mesure, aux Etats-Unis et au Royaume-Uni.

GRAPHIQUE 2  Parts du revenu national détenues en France par les…

En 2014, les 50 % les plus modestes détenaient un revenu moyen de 16.000 euros, soit la moitié du revenu moyen de l’ensemble de la population ; ils détenaient 23 % de l’ensemble du revenu national (cf. graphique 2). Les « classes moyennes » (en l’occurrence les personnes qui ne font partie ni des 50 % les plus modestes, ni des 10 % les plus rémunérés) avaient un revenu moyen de 39.000 euros et détenaient environ 45 % du revenu national. Les 10 % les plus riches avaient un revenu moyen de 110.000 euros, c’est-à-dire 3,2 fois plus élevé que le revenu moyen de la population, et détenaient environ 32 % du revenu national. Parmi eux, les 1 % les plus riches avaient un revenu moyen de 374.200 euros et détenaient 11 % du revenu national.

GRAPHIQUE 3  Part du revenu national détenue en France par les 1 % les plus rémunérés

Le plus grand bouleversement qu’a connu la répartition des revenus en France au cours du vingtième siècle a été la hausse de la part du revenu national allant aux 50 % les plus modestes et aux classes moyennes, autrement dit la baisse de la part du revenu national allant aux 10 % les plus rémunérés. Alors qu’elle atteignait plus de 50 % à la veille de la Première Guerre mondiale, la part du revenu national rémunérant les 10 % les plus riches a chuté pour atteindre légèrement plus de 30 % en 1945. Les inégalités ont augmenté jusqu’en 1968, lors de la période de reconstruction, pour ensuite fortement baisser à nouveau jusqu’en 1983. Cette baisse des inégalités de revenu s’explique, d’une part, par la chute des inégalités salariales, notamment avec les fortes revalorisations du salaire minimum dans le sillage de mai 1968 qui ont soutenu les bas salaires, et, d’autre part, par la baisse de la part du revenu rémunérant le capital. Durant les Trente glorieuses, en l’occurrence entre 1950 et 1983, les revenus ont augmenté plus rapidement parmi les 95 % les plus modestes que parmi les 5 % les plus rémunérés : le revenu des premiers augmentait au rythme de 3,5 % par an, contre 1,8 % pour les seconds, ce qui s’est traduit par un resserrement de l’éventail des revenus.

GRAPHIQUE 4  Part du revenu national détenue en France par les 0,1 % les plus rémunérés

Le début des années quatre-vingt marque un profond changement de tendance, puisque depuis la part détenue par les plus hauts revenus a eu tendance à augmenter. C’est en particulier le cas de la part du revenu national rémunérant les 1 % les plus rémunérés : entre 1983 et 2007, elle a augmenté de plus de 50 %, en passant de moins de 8 % à plus de 12 % (cf. graphique 3). Plus on zoome sur le sommet de la répartition des revenus, plus la hausse de la part détenue par les hauts revenus apparaît importante. La part des hauts revenus a légèrement diminué dans le sillage de la crise financière mondiale de 2008, mais elle reste bien plus élevée qu’au début des années quatre-vingt : entre 2008 et 2013, la part du revenu national rémunérant les 1 % les plus rémunérés a fluctué entre 10 % et 12 %. Au final, la hausse de la part des hauts revenus en France depuis les années quatre-vingt a beau être moins ample que celle observée aux Etats-Unis (où elle a atteint environ 20 %), elle reste spectaculaire.

GRAPHIQUE 5  Croissance réelle cumulée des revenus en France selon le centile dans la répartition (en %)

Entre 1983 et 2014, le revenu moyen par adulte a augmenté de 35 % en termes réels. La croissance cumulée n’a pas été la même d’une classe de revenus à l’autre (cf. graphique 5). Par exemple, entre 1983 et 2014, les 50 % les plus modestes ont vu leur revenu augmenter de 30 % en moyenne, les classes moyennes ont vu le leur augmenter de 27 % et les 10 % les plus riches de 50 %. En fait, ce sont surtout les 5 % les plus rémunérés qui ont vu leur revenu fortement augmenter : entre 1983 et 2014, le revenu des 5 % les plus riches a augmenté au rythme de 3 % par an environ, contre 1 % pour les 95 % les plus modestes. Par conséquent, les 1 % les plus rémunérés ont vu leur revenu augmenter de 100 %, c’est-à-dire doubler ; les 0,1 % les plus rémunérés ont vu le leur augmenter de 160 %. Au final, entre 1900 et 1950, les 50 % les moins rémunérés avaient capté 34 % de la croissance économique, contre 7 % pour les 10 % les plus rémunérés ; entre 1983 et 2014, les 50 % les moins rémunérés ont capté 22 % des fruits de la croissance, contre 42 % pour les 10 % les plus rémunérés et même 21 % pour les 1 % les plus rémunérés. 

GRAPHIQUE 6  Composition du revenu selon le niveau de revenu en 2012

L’accroissement des inégalités de revenu à partir du début des années quatre-vingt s’explique par l’augmentation tant des hauts revenus du travail que des hauts revenus du capital. La hausse des plus hauts revenus du capital s’explique, d’une part, par la hausse de la part du revenu national rémunérant le capital et, d’autre part, par l’accentuation de la concentration du patrimoine entre les mains des plus riches.  Or, c’est souvent les mêmes personnes qui gagnent à la fois les plus hauts revenus du travail et les plus hauts revenus du capital ; c’est le cas des dirigeants des plus grosses entreprises, qui bénéficient de bonus élevés et de nombreuses stock-options. Toutefois, la corrélation entre richesse et revenu du travail a eu tendance à changer ces dernières décennies : il est de plus en plus difficile d’accéder aux rangs des plus grandes propriétaires de patrimoine avec le seul revenu du travail. Dans la mesure où ce sont parmi les 5 % et surtout les 1 % les plus rémunérés que les revenus ont le plus fortement augmenté, Garbinti et ses coauteurs doutent que l’accroissement des inégalités s’explique par le progrès technique et les modifications de l’offre et de la demande de travail qualifié ; ils mettent plutôt l’accent sur les facteurs institutionnels, notamment la gouvernance d’entreprise, la désyndicalisation et le déclin des processus de négociation collective, ainsi que la baisse des taux marginaux d’imposition des hauts revenus. 

GRAPHIQUE 7  Inégalités de revenu versus inégalités de patrimoine en France

La baisse des inégalités de revenu à long terme s’explique essentiellement par la chute des revenus du capital ; ces derniers n’ont pas retrouvé le niveau qu’ils atteignaient avant la Première Guerre mondiale. Les conflits, mais aussi des mesures fiscales comme l’impôt sur le revenu et la taxation de la transmission de patrimoine ont réduit le volume et la concentration du patrimoine. A long terme, les inégalités de revenu du travail n’ont que peu diminué. Depuis le début du vingtième siècle, les plus modestes et les classes moyennes tirent l’essentiel de leurs revenus du revenu du travail ; ce sont essentiellement les plus hauts revenus qui gagnent les revenus du capital et ces derniers constituent effectivement l’essentiel de leurs revenus (cf. graphique 6). Le revenu du capital a toujours été plus concentré que le revenu du travail ; les 10 % les plus rémunérés dans la répartition du revenu du travail ont toujours capté entre 25 % et 30 % du revenu du travail total, tandis que les 10 % de ceux qui gagnent les plus hauts revenus du capital détiennent une part entre deux ou trois fois plus élevé du revenu du capital total (cf. graphique 7). En outre, le revenu du capital est plus concentré que le patrimoine, notamment parce que la détention d’actifs à haut rendement comme les actions est plus concentrée que la détention d’actifs à faible rendement tels que les obligations ou l’immobilier.

GRAPHIQUE 8  Ratio entre le revenu des hommes sur celui des femmes selon l’âge en France 

L’analyse de Garbinti et alii éclaire également les inégalités de revenu entre hommes et femmes. Même si elles restent encore plus élevées, les inégalités de revenu du travail entre les sexes ont eu tendance à décliner ces dernières décennies (cf. graphique 8), mais plus lentement parmi les plus hauts revenus du travail. Les femmes représentaient 12 % des personnes situées par les 0,1 % des plus hauts revenus, contre 7 % en 1994 et 5 % en 1970. 

GRAPHIQUE 9  Part du revenu national détenue par les 1 % les plus rémunérés en France et aux Etats-Unis

Enfin, Garbinti et ses coauteurs ont comparé la dynamique des inégalités de revenue en France avec celle que l’on observe aux Etats-Unis (cf. graphique 9). Au début du vingtième siècle, elles étaient à peu près au même niveau et ont connu par la suite une évolution du même profil, en l’occurrence celle d’un U. Au milieu des années soixante-dix, la part du revenu national détenue par les 1 % les plus rémunérés était à peu près la même des deux côtés de l’Atlantique. Dès la fin des années soixante-dix, elle augmentait aux Etats-Unis, tandis qu’elle poursuivait sa baisse en France, du moins initialement ; ce n’est qu’au début des années quatre-vingt qu’elles tendent également à augmenter en France, mais leur hausse est bien moins prononcée qu’aux Etats-Unis. En 2012, les 1 % les plus rémunérés captaient une part deux fois plus élevée du revenu national aux Etats-Unis qu’en France. Aujourd’hui, le revenu moyen par adulte a beau être 30 % plus faible en France qu’aux Etats-Unis, le revenu avant impôt moyen parmi les 50 % les plus modestes est plus élevé en France qu’aux Etats-Unis. 

 

Références

GARBINTI, Bertrand, Jonathan GOUPILLE-LEBRET & Thomas PIKETTY (2016), « Accounting for wealth inequality dynamics: Methods, estimates and simulations for France (1800-2014) », WIID, working paper.

GARBINTI, Bertrand, Jonathan GOUPILLE-LEBRET & Thomas PIKETTY (2018), « Income inequality in France, 1900-2014: Evidence from distributional national accounts (DINA) », Banque de France, document de travail, n° 677.

Observatoire des inégalités (2017), « Combien gagnent les très riches ? », 17 mars.

Partager cet article

Repost0
1 avril 2018 7 01 /04 /avril /2018 14:46
Les keynésiens et la critique de Lucas

Les années soixante ont brutalement mis un terme à l’hégémonie du keynésianisme orthodoxe aussi bien dans le champ universitaire qu’au sein des institutions en charge de la politique économique. Selon les comptes-rendus généralement dressés de cette période cruciale de la pensée économique, le keynésianisme se serait trouvé ébranlé sur plusieurs fronts. D’un côté, les politiques de gestion de la demande globale se sont révélées incapables de sortir les pays développés de la stagflation où se retrouvèrent piégées dans les années soixante-dix ; pire, elles auraient précisément contribué à alimenter les pressions inflationnistes. De l’autre, les monétaristes, puis les nouveaux classiques se sont attaqués aux keynésiens sur le plan théorique. Mais si les monétaristes s’en sont pris aux conclusions des keynésiens (orthodoxes) tout en partageant leur appareillage méthodologique, les nouveaux classiques ont privilégié des assauts sur un plan méthodologique (1).

C’est précisément une remise en cause de la méthodologie des économètres keynésiens que Robert Lucas (1976), le chef de file de la nouvelle école classique, a délivré lorsqu’il a formulé sa fameuse « critique ». Selon lui, la structure d’un modèle économique se ramène à des relations qui décrivent le comportement des agents économiques ; or ce comportement change lorsque les décideurs modifient la politique économique ; donc la structure du modèle se modifie suite aux décisions en matière de politique économique. Par conséquent, un bon modèle économétrique ne pourra donner une évaluation quantitative fiable de politiques économiques alternatives que s’il repose sur des équations qui prennent en compte les réponses des agents aux modifications de la politique économique. Dans la mesure où, selon lui, les keynésiens ne prennent pas en compte le fait qu’un changement de politique économique est susceptible de modifier les paramètres de leurs modèles économétriques, ces derniers seraient incapables de prévoir les effets d’un tel changement de politique économique. C’est donc une remise en cause de la cohérence interne des modèles keynésiens que propose Lucas. Les modèles de nouveaux classiques seraient par contre immunisés contre une telle critique, si bien que leur utilisation marquerait une réelle avancée méthodologique.

Beaucoup considèrent le raisonnement de Lucas comme inattaquable, y voyant un véritable « syllogisme » et un coup fatal assené au keynésianisme orthodoxe. C’est cette vision des choses qu’Aurélien Goutsmedt, Erich Pinzon-Fuchs, Matthieu Renault et Francesco Sergi (2017) ont remis en question. Ils soulignent tout d’abord que la critique de Lucas présente deux dimensions, une première méthodologique et une seconde positive : du point de vue méthodologique, elle remet en question la stabilité des paramètres structurels des modèles macroéconométriques de grande échelle ; du point de vue positif, elle suggère que la stagflation des années soixante-dix aurait résulté d’un changement dans le comportement des agents, un changement qui aurait lui-même été provoqué par un changement de politique économique.

Sur le plan méthodologique, Goutsmedt et ses coauteurs notent que les récits de la contre-révolution menée par les nouveaux classiques passent généralement sous silence la réaction des keynésiens face à la critique de Lucas, alors même qu’ils en sont explicitement la cible ; or, ceux-ci ne sont pas restés inertes. D’un côté, de vieux keynésiens comme Franco Modigliani, James Tobin, Robert Solow et Edmond Malinvaud ont vu dans la critique de Lucas un postulat dont la pertinence empirique restait à démontrer. En l’occurrence, ils considéraient que la charge de la preuve revenait aux nouveaux classiques eux-mêmes. De l’autre, une nouvelle génération de keynésiens, comprenant notamment Alan Blinder, Stanley Fischer, Olivier Blanchard, Robert Gordon et Stephen R. King, a cherché à tester directement la pertinence empirique de la critique de Lucas. Ces économistes ont étudié la stabilité des paramètres dans leurs modèles via plusieurs tests économétriques. Ces derniers les ont amenés à conclure que le type d’instabilité des paramètres que suggérait Lucas peut ne pas être observé, si bien que sa critique s’en trouverait empiriquement réfutée.

Concernant la dimension positive de la critique de Lucas, Goutsmedt et ses coauteurs notent que cette dernière est loin de constituer un simple syllogisme. Lawrence Klein, Stanley Fischer, Robert Gordon, Otto Eckstein et Robert Solow ont reconnu que les performances des modèles keynésiens n’ont pas été terribles durant la Grande Stagflation, mais, prenant au sérieux la critique de Lucas, ils se sont demandé si celle-ci a fourni une explication alternative pour comprendre le contexte économique des années soixante-dix. Les keynésiens sont arrivés à la conclusion que les nouveaux classiques ne proposaient pas de véritable explication de la stagflation. Par contre, il suffisait tout simplement aux keynésiens d’introduire les chocs d’offre dans leurs modèles (et la Grande Stagflation semblait effectivement résulter de chocs d’offre) pour améliorer leurs performances. Bref, le paradigme keynésien était loin de constituer un programme de recherche dégénératif. C’est malheureusement l’image qu’il renvoya aux nouvelles générations de macroéconomistes…

La réaction des (vieux et nouveaux) keynésiens orthodoxes n’a pas suffi pour entraîner un abandon de la critique de Lucas et déjouer la contre-révolution menée par les nouveaux classiques. Séduits par la méthodologie des nouveaux classiques et son apparente scientificité, les nouvelles générations de macroéconomistes l’adoptèrent. Au final, les idées des nouveaux classiques ont beau avoir manqué de soutien empirique, elles ont conduit, d’un côté, à un relatif déclin des keynésiens dans le champ orthodoxe et, de l’autre, au développement de la théorie du cycle d’affaire réel, puis des modèles DSGE. Les « nouveaux keynésiens » n’ont pas été étrangers à cette tournure des événements en embrassant également la méthodologie des nouveaux classiques et certains de leurs concepts, comme celui des anticipations rationnelles.

 

(1) En fait, les monétaristes, et en premier lieu Milton Friedman, n’ont pas rejeté le cadre d’analyse qu’adoptaient les keynésiens orthodoxes (par exemple, le modèle IS-LM ou la relation de Phillips) ; ils rejetaient surtout les interprétations et les conclusions que ces derniers en tiraient. Lorsque les nouveaux classiques menèrent à son terme l’assaut contre la citadelle des keynésiens et imposèrent leur point de vue méthodologique, beaucoup de monétaristes comprirent à leur grand dam qu’ils avaient bien plus de points en commun avec les seconds qu’avec les premiers…

 

Références

GOUTSMEDT, Aurélien, Erich PINZON-FUCHS, Matthieu RENAULT & Francesco SERGI (2017), « Reacting to the Lucas critique: The Keynesians’ pragmatic replies », Centre d’économie de la Sorbonne, working paper, n° 2017.42.

LUCAS, Robert (1976), « Econometric policy evaluation: A critique », Carnegie-Rochester Conference Series on Public Policy, vol. 1.

Partager cet article

Repost0
17 mars 2018 6 17 /03 /mars /2018 19:16
L’asymétrie entre pays créanciers et débiteurs dans la résorption des déséquilibres

Au milieu des années deux mille, à la veille de la crise financière mondiale, les économistes et les grands dirigeants mondiaux s’inquiétaient du creusement des déséquilibres mondiaux (cf. graphique 1). C’est notamment la persistance d’un large déficit extérieur américain et d’un ample excédent extérieur chinoise qui retenait toutes les attentions. Certes l’économie chinoise n’aurait pas pu tirer sa croissance des exportations si d’autres pays n’avaient pas laissé leur déficit extérieur se creuser ; l’économie américaine n’aurait pas pu continuer de tirer sa croissance de la demande intérieure sans financements de la part du reste du monde. Mais un tel déséquilibre pouvait ainsi signaler une croissance insoutenable : beaucoup s’attendaient à ce que les Etats-Unis, à force de s’endetter vis-à-vis du reste du monde, ne soient plus capables de rembourser leur dette ou perdent la confiance des créanciers, ce qui aurait contraint l’économie américaine à un douloureux ajustement, entraîné un effondrement du dollar, etc. Après coup, s’il apparaît que ces déséquilibres n’ont peut-être pas directement été à l’origine de la crise financière mondiale, ils ont pu toutefois y contribuer en alimentant la liquidité mondiale et en relâchant les conditions financières à travers le monde.

GRAPHIQUE 1  Soldes courants (en % de la production mondiale)

source : BRI (2018)

Les déséquilibres mondiaux sont souvent observés en termes de flux, c’est-à-dire au prisme des soldes des comptes courants. Mais c’est oublier que lorsqu’un pays connaît un excédent ou un déficit courant, ce déséquilibre modifie un stock existant de créances ou de dettes vis-à-vis du reste du monde. Il faut donc observer également (et peut-être en priorité) les déséquilibres en termes de stocks. Les économistes se sont donc de plus en plus penchés sur la position externe nette, c’est-à-dire la différence entre le montant des actifs externes nets et celui des passifs externes nets. Cet indicateur se révèle effectivement crucial. Par exemple, Luis Catao et Gian Maria Milesi-Ferretti (2014) ont noté que le montant des passifs extérieurs nets, rapporté au PIB, est un indicateur avancé assez robuste des crises externes.

Avec la crise financière mondiale s’est amorcée une correction des déséquilibres en termes de flux et celle-ci s’est poursuivie une fois la reprise amorcée, ce qui amène beaucoup à y voir un signe d’une plus grande soutenabilité de la croissance mondiale. Mais si l’on adopte le point de vue des stocks, il est difficile de voir une réelle correction des déséquilibres mondiaux (cf. graphique 2). En effet, les déséquilibres en termes d’actifs extérieurs nets se sont légèrement réduits après la crise, mais cette correction n’a été que temporaire ; les déséquilibres en termes de stocks se sont de nouveau creusés par la suite.

GRAPHIQUE 2  Avoirs extérieurs nets (en % de la production mondiale)

source : BRI (2018)

En analysant un échantillon composé de 39 pays développés et émergents, Enrique Alberola, Ángel Estrada et Francesca Viani (2018) ont cherché à savoir si les déséquilibres en termes de stocks avaient un impact stabilisateur ou déstabilisateur sur l’accumulation de richesses externes du pays. Leur analyse suggère que le stock de dette nette des pays débiteurs s’avère stabilisateur, dans la mesure où il semble contribuer à réduire les déséquilibres des échanges, à limiter les déficits du compte courant et à stopper l’accumulation future de dette. En l’occurrence, les pays débiteurs tendent à verser plus de revenus sur leur stock de dette, mais aussi à consommer et à importer moins en raison d’un effet de richesse négatif. Par contre, en ce qui concerne les pays créanciers, le stock positif d’actifs étrangers nets contribue, toute chose égale par ailleurs, à accroître les excédents futurs du compte courant, dans la mesure où les déséquilibres des échanges ne s’ajustent pas. Cela semble être lié à un faible effet de richesse sur les importations. Ainsi, si les déséquilibres de stocks ont un impact déstabilisateur sur l’accumulation de richesse des pays créanciers, c’est soit en raison de la faible propension marginale de ces pays à consommer de leur richesse externe nette, soit en raison d’autres facteurs qui empêchent leur solde commercial de se détériorer malgré une hausse des dépenses, par exemple une forte propension à consommer les biens produits localement. En outre, même si les pays créanciers tendent à connaître une appréciation de leur devise, celle-ci ne suffit pas pour limiter leur accumulation de richesse.

Les pays créanciers et débiteurs ne s’ajustent donc pas symétriquement face aux déséquilibres courants. A court terme, ce sont les pays débiteurs qui sont exposés aux tensions financières. S’ils se voient par exemple soudainement privés d’accès au financement extérieur, ils subissent alors une puissante contraction de leur demande intérieure qui améliore soudainement leur solde extérieur. Mais les pays créanciers ne répondent pas symétriquement en accroissant leur demande intérieure. L’ajustement des déséquilibres ne passe donc que par la contraction de la demande intérieure dans les pays déficitaires, en faisant notamment basculer ceux-ci dans la récession. Au niveau mondial, un tel ajustement tend à freiner le commerce international et la croissance mondiale. Les choses iraient bien différemment si l’ajustement des déséquilibres courants passait également par la stimulation de la demande dans les pays créanciers : leurs importations augmenteraient, ce qui se traduirait notamment par une hausse des exportations des pays débiteurs et permettrait à ces derniers de s’ajuster sans forcément connaître de récession, ni sans peser sur la croissance mondiale. La réticence des pays créanciers à résorber leurs propres déséquilibres en accroissant leur demande apparaît au final quelque peu absurde. En laissant aux seuls pays débiteurs la tâche de l’ajustement, ils voient par là même leur propre croissance s’en trouver freinée. Surtout, on peut se demander à quoi bon cela sert-il d’accumuler de la richesse si ce n’est pas pour la dépenser…

 

Références

ALBEROLA, Enrique, Ángel ESTRADA & Francesca VIANI (2018), « Global imbalances from a stock perspective. The asymmetry between creditors and debtors », BRI, working paper, n° 707.

CATAO, Luis, & Gian Maria MILESI-FERRETTI (2014), « External liabilities and crises », in Journal of International Economics, vol. 94, n° 1.

Partager cet article

Repost0
27 février 2018 2 27 /02 /février /2018 18:30
Et si la natalité était le meilleur indicateur avancé de l’activité ?

Plusieurs études ont montré que la fertilité était une variable procyclique, c’est-à-dire qu’elle a tendance à augmenter d’autant plus rapidement que la croissance économique est forte et, réciproquement, à baisser lors des récessions. Tomáš Sobotka, Vegard Skirbekk et Dimiter Philipov (2011) notaient qu’au cours d’une récession, « la baisse de la fertilité commence avec un bref retard compris entre une année et deux années et demie ». Autrement dit, les couples réagiraient au ralentissement de la croissance et à la détérioration subséquente de la situation sur le marché du travail en faisant moins d’enfants. 

La dernière crise financière mondiale ne fait pas exception. Sam Roberts (2009), dans le New York Times, avait par exemple rapidement noté que la Grande Récession qui secouait alors l’économie américaine avait provoqué une forte baisse de nombre de naissances dès 2008. Mais si c’est effectivement le cas, alors cette chute des naissances a dû être provoquée par une chute des conceptions en 2007, voire en 2008. Or, la croissance économique était encore vigoureuse en 2007 et la récession n’a officiellement éclaté au Etats-Unis qu’au cours de la seconde moitié de l’année 2008, officiellement en décembre selon la datation du NBER.

Kasey Buckles, Daniel Hungerman et Steven Lugauer (2018) ont alors étudié l’idée que la natalité puisse constituer un indicateur avancé du cycle d’affaires : elle semble atteindre un pic et amorcer une chute quelques temps avant le début des récessions. C’est ce qu’ils constatent en étudiant les données relatives à plus de 100 millions de naissances qui ont eu lieu aux Etats-Unis entre 1988 et 2015. Lors des dernières récessions qui ont touché l’économie américaine, c’est-à-dire celles qui ont commencé en 1990, 2001 et 2008, le taux de croissance des conceptions a commencé à chuter quelques trimestres avant que la conjoncture se retourne ; en l’occurrence, la baisse du nombre de naissances lors de ces trois récessions ne s’explique pas par une hausse du nombre d’avortements ou de fausses couches. Par exemple, si le nombre de conceptions avait légèrement augmenté durant le premier semestre de l’année 2007, son taux de croissance en rythme annuel est devenu négatif au troisième trimestre, soit bien avant que la production économique ne décroche. De plus, les chutes de conceptions qui précèdent les récessions sont en l’occurrence larges. Par exemple, le taux de croissance annuel des conceptions a chuté de plus de 4 points de pourcentage à la veille de la Grande Récession. Buckles et ses coauteurs ont également étudié l’évolution des conceptions à la fin des récessions ; celle-ci est toutefois bien plus ambigüe qu’à la veille des récessions. Par exemple, la Grande Récession n’a pas seulement été suivie par une reprise sans emplois (jobless recovery) ; elle a aussi été une reprise sans bébés (baby-less recovery).

GRAPHIQUE  Taux de croissance du PIB et du nombre de conceptions d’enfants autour de la Grande Récession

source : Buckles et alii (2018)

Les comportements en matière de fertilité sont donc bien plus tournés vers l’avenir (forward-looking) que ne le suggéraient les études existantes portant sur le lien entre natalité et cycle économique. Ils sont en l’occurrence très sensibles aux conditions économiques prévalant dans le futur proche ; cela remet en cause l’idée de Gary Becker (1960) selon laquelle la « production » de bébés est relativement insensible au court terme.

Buckles et ses coauteurs ne concluent pas que la chute de la natalité puisse être à l’origine des récessions ; si les ménages retardent leurs projets de grossesse, ils peuvent également par là même retarder certains achats de biens, notamment des biens durables comme les logements. Par contre, il est possible que le facteur qui est à l’origine du recul des conceptions soit également celui qui est à l’origine de la contraction de l’activité économique, en pesant dans les deux cas sur la confiance, mais qu’il affecte plus rapidement les comportements en matière de conception que l’activité économique. Cette étude souligne surtout qu’il serait opportun de s’appuyer sur le nombre de grossesses pour améliorer les prévisions de croissance économique. Certes la corrélation entre fertilité et activité économique est loin d’être parfaite, mais le nombre de grossesses apparaît être un indicateur avancé du cycle économique au moins aussi performant que la plupart de ceux retenus, par exemple le niveau de confiance des consommateurs, l’indice Case-Shiller utilisé pour juger de l’évolution des prix de l’immobilier ou encore les achats de biens durables comme les machines à laver, les lave-vaisselles et les voitures.

 

Références

BECKER, Gary (1960), « An economic analysis of fertility », in Demographic and Economic Change in Developed Countries.

BUCKLES, Kasey, Daniel HUNGERMAN & Steven LUGAUER (2018), « Is fertility a leading economic indicator? », NBER, working paper, n° 24355, février.

ROBERTS, Sam (2009), « Birth rate is said to fall as a result of recession », in The New York Times, 7 août.

SOBOTKA, Tomáš, Vegard SKIRBEKK & Dimiter PHILIPOV (2011), « Economic recession and fertility in the developed world », in Population and Development Review, vol. 37, n° 2.

Partager cet article

Repost0
18 décembre 2017 1 18 /12 /décembre /2017 16:07
Quel est le taux de rendement de tout ?

Les économistes se sont depuis longtemps intéressés au taux de rendement du capital : les classiques David Ricardo et John Stuart Mill ont consacré une grand part de leur travail aux intérêts et aux profits ; c’est en raison de la baisse tendancielle du taux de profit que Karl Marx estime que le capitalisme est condamné à s’effondrer, etc. Aujourd’hui, le taux de rendement du capital continue de tenir une place importante dans de nombreux débats, notamment autour du taux d’intérêt naturel, de la stagnation séculaire et des inégalités. Malgré ce rôle dans de nombreuses théories, les estimations empiriques restent bien fragmentaires le concernant. L’immobilier est par exemple une composante essentielle du patrimoine des ménages, il représente environ la moitié de la richesse nationale d’une économie et, pourtant, les rendements de l’immobilier restent peu connus.

Oscar Jordà, Katharina Knoll, Dmitry Kuvshinov, Moritz Schularick et Alan Taylor (2017) ont cherché à combler ce vide en construit une large base de données annuelles sur les taux de rendement des plus grandes classes d’actifs dans 16 pays développés depuis 1870 : deux classes d’actifs risqués (l’immobilier et les actions) et deux classes d’actifs relativement sûrs (les obligations publiques et les bons du Trésor).

Jordà et ses coauteurs ont tout d’abord remarqué la grande stabilité du rendement des actifs risqués. L’immobilier résidentiel et les actions ont généré des gains réels élevés, en moyenne d’environ 7 % par an. Avant la Seconde Guerre mondiale, les rendements sur l’immobilier et les actions ont suivi des trajectoires finalement assez similaires ; pour autant, l’immobilier rapportait davantage que les actions. Depuis le conflit, les actions ont davantage rapporté en moyenne que l’immobilier, mais au prix d’une plus forte volatilité et une plus forte synchronisation avec le cycle d’affaires ; les actions ont connu des cycles d’expansion et d’effondrements plus fréquents et plus corrélés. En outre, s’il n’y a pas de corrélation entre les rendements immobiliers au niveau international, les rendements boursiers sont devenus de plus en plus corrélés d’un pays à l’autre au fil du temps, en particulier depuis la Seconde Guerre mondiale.

Le rendement réel des actifs sûrs a été très volatile à long terme et souvent bien plus volatile que le rendement réel des actifs risqués. Chacune des deux guerres mondiales et les années soixante-dix ont été marquées par de très faibles taux sur les actifs sûrs, bien inférieurs à zéro, ce qui permit notamment aux gouvernements de se désendetter rapidement au sortir de la Seconde Guerre mondiale. Le taux réel sur les actifs sûrs a atteint des pics durant l’entre-deux-guerres et au milieu des années quatre-vingt, lorsque les banques centrales avaient fortement resserré leur politique monétaire pour combattre l’inflation. Au final, la baisse des taux réels sur les actifs sûrs que nous avons pu observer ces dernières décennies s’apparente à celle que l’on a pu observer dans les décennies qui ont précédé la Première Guerre mondiale. A très long terme, donc, le taux réel sur les actifs sûrs semble fluctuer autour des niveaux qu’il atteint actuellement, si bien que le niveau actuel n’est finalement pas inhabituel au regard de l’Histoire. Par conséquent, les économistes devraient se demander, non pas pourquoi les taux ont baissé ces dernières décennies, mais plutôt pourquoi ils ont été aussi élevés au milieu des années quatre-vingt.

Ces constats sont cohérents avec celui auquel avaient abouti Kathryn Holston, Thomas Laubach et John Williams (2016) : le taux d’intérêt naturel semble avoir décliné depuis le milieu des années quatre-vingt et est aujourd’hui proche de zéro. Ils sont également compatibles avec l’hypothèse de la stagnation séculaire avancée par Larry Summers (2014) : en raison de dynamiques lourdes comme la hausse des inégalités ou le vieillissement démographique, les économies avancées ont peut-être tendance à dégager un excès structurel d’épargne qui les piège durablement dans une trappe à faible investissement. Une telle éventualité a de profondes implications pour la conduite de la politique économique. Par exemple, si les taux d’intérêt de court terme risquent plus fréquemment de se retrouver contraints par leur borne inférieure zéro, alors les banques centrales peuvent ne pas parvenir à ramener rapidement les économies au plein emploi suite aux chocs macroéconomiques ; cela remet d’ailleurs en cause la stratégie de ciblage d’inflation qu’elles ont eu tendance à suivre ces dernières décennies.

A très long terme, la prime de risque a été volatile ; elle tend même à fluctuer sur plus décennies, en des amplitudes qui dépassent celles observées à la fréquence des cycles d’affaires, sans pour autant présenter de tendance manifeste à long terme. En temps de paix, les primes de risque sont généralement stables, comprises entre 4 % et 5 %, mais elles sont étrangement restées élevées des années cinquante aux années soixante-dix. Les fortes hausses de prime de risque en temps de guerre et durant l’entre-deux-guerres découlent avant tout de la chute des taux d’intérêt sur les actifs sûrs plutôt que d’une hausse des taux d’intérêt sur les actifs risqués. Le taux risqué a souvent été plus lisse et plus stable que les taux sûrs, en restant en moyenne compris entre 6 % et 8 % dans la plupart des pays. Récemment, la prime de risque s’est élevée, précisément parce que les taux sûrs ont chuté plus rapidement que les taux risqués. Pour autant, les deux taux de rendement sont restés proches de leur valeur historique normale. 

Jordà et ses coauteurs précisent également la relation entre le taux de rendement sur le patrimoine (r) et le taux de croissance de l’économie (g) qui tient une place si cruciale dans le magnum opus de Thomas Piketty (2013). Selon ce dernier, si le rendement du capital est supérieur à la croissance, alors les rentiers accumulent plus rapidement du patrimoine, ce qui accroît les inégalités de richesse. Ce serait effectivement le cas ces dernières décennies, ce qui expliquerait la hausse des ratios richesse sur revenu et la hausse des inégalités [Piketty et Zucman, 2013]. En se concentrant sur les données britanniques sur la période s’écoulant entre 1210 et 2013, Jakob Madsen (2017) a récemment confirmé l’idée que l’écart rg tend à gouverner la dynamique du ratio richesse sur revenu et la part du revenu du capital. En analysant des données relatives à de nombreuses économies, Jordà et ses coauteurs constatent que r est fortement supérieur à g : au niveau mondial et dans la plupart des pays, le taux de rendement pondéré du capital représentait le double du taux de croissance au cours des 150 dernières années. Les exceptions concernent des périodes très particulières, en l’occurrence les années de conflit ou les années qui entourent immédiatement celles-ci. En l’occurrence, avant la Seconde Guerre mondiale, l’écart rg s’élevait en moyenne à 5 % par an, sauf lors de la Première Guerre mondiale. Aujourd’hui, il reste élevé, compris entre 3 % et 4 % ; il s’est réduit à 2 % durant les années soixante-dix, lors des chocs pétroliers, avant de se creuser dans les années qui ont précédé la crise financière mondiale. Le fait que les rendements du patrimoine soient restés assez élevés et stables depuis les années soixante, tandis que la richesse agrégée s’est accru rapidement, suggère que l’accumulation du capital a contribué à modifier la répartition du revenu national au détriment du travail et par là à alimenter les inégalités de revenu.

 

Références

HOLSTON, Kathryn, Thomas LAUBACH & John C. WILLIAMS (2016), « Measuring the natural rate of interest: International trends and determinants », Réserve fédérale de San Francisco, working paper, n° 2016-11, décembre.

JORDÀ, Oscar, Katharina KNOLL, Dmitry KUVSHINOV, Moritz SCHULARICK & Alan M. TAYLOR (2017), « The rate of return on everything, 1870–2015 », NBER, working paper, n° 24112.

MADSEN, Jakob B. (2017), « Is inequality increasing in r - g? Piketty’s principle of capitalist economics and the dynamics of inequality in Britain, 1210-2013 », CAMA, working paper, n° 63/2017, octobre.

PIKETTY, Thomas (2013), Le Capital au XXIe siècle.

PIKETTY, Thomas, & Gabriel ZUCMAN (2013), « Capital is back: Wealth-income ratios in rich countries 1700-2010 », Paris School of Economics, 26 juillet.

SUMMERS, Lawrence (2014), « U.S. economic prospects: Secular stagnation, hysteresis, and the zero lower bound », in Business Economics, vol. 49, n° 2.

Partager cet article

Repost0
17 décembre 2017 7 17 /12 /décembre /2017 21:25
L’intelligence artificielle et le nouveau paradoxe de la productivité

L’économie américaine (pour ne pas dire l’essentiel des pays développés) présente une situation paradoxale. D’un côté, les systèmes utilisant une intelligence artificielle égalent ou surpassent déjà les capacités humaines dans des domaines toujours plus nombreux, ce qui permet de nouvelles avancées dans d’autres secteurs. On devrait par conséquent s’attendre à une poursuite, voire à une accélération, de la croissance de la productivité et donc des niveaux de vie. Une telle prévision optimiste, promesse d’une hausse soutenue des profits, contribue d’ailleurs sûrement à soutenir les cours boursiers. Pourtant, la croissance de la productivité mesurée a été divisée par deux au cours de la dernière décennie. Ce ralentissement, qui s’est amorcé avant qu’éclate la crise financière mondiale, est un phénomène généralisé : il a initialement touché les pays développés, puis les grands pays émergents. Il contribue par conséquent à contenir la hausse des niveaux de vie : par exemple, la majorité des Américains ont vu leur revenu réel stagné depuis la fin des années quatre-vingt-dix.

Bref, nous nous retrouvons face à une variante du paradoxe de la productivité mis en avant par Robert Solow (1987) : nous voyons partout les nouvelles technologies, sauf dans les statistiques de productivité. Erik Brynjolfsson, Daniel Rock et Chad Syverson (2017) en ont proposé quatre explications possibles.

Selon une première explication, l’optimisme que suscitent les nouvelles technologies est tout simplement infondé. Celles-ci ont peut-être des effets visibles sur certains secteurs en particulier, mais il est possible que leurs effets au niveau agrégé soient diffus. Si c’est effectivement le cas, l’optimisme risque de ne pas perdurer et de laisser place à la seule déception. Une telle révision des anticipations se traduira alors par une chute des valeurs boursières.

Selon une deuxième explication, avancée notamment par Joel Mokyr (2014), il est possible que la croissance de la productivité soit restée soutenue, voire ait accélérée, mais que cela ait échappé aux indicateurs. Bref, le ralentissement de la productivité que l’on a observé cette dernière décennie est peut-être illusoire ; la population tire peut-être davantage de gains des nouvelles technologies qu’on ne le pense. Cela s’expliquerait par le fait que les indicateurs habituels ne sont pas adaptés pour mesurer la valeur ajoutée des récentes innovations. Par exemple, les consommateurs passent une grande partie de leur temps sur leurs smartphones et les réseaux sociaux en ligne, mais comme ces innovations ont un coût monétaire relativement faible, elles  représentent une faible part du PIB relativement à l’utilité qu’elles procurent. Pourtant, plusieurs études, notamment celles de Roberto Cardarelli et Lusine Lusinyan (2015), Chad Syverson (2016) et David Byrne et alii (2016) suggèrent que les problèmes de mesure ne peuvent être la principale explication derrière le ralentissement de la croissance de la productivité : après tout, le PIB ne reflète peut-être pas tous les bénéfices des technologies actuelles, mais il ne reflétait peut-être pas non plus tous les bénéfices des technologies passées.

Selon une troisième explication, les nouvelles technologies génèrent peut-être déjà de nombreux gains, mais ces derniers pourraient être captés par une fraction de l’économie, si bien que leurs effets sur la croissance de la productivité moyenne est faible au niveau agrégé et qu’ils sont nuls pour le travailleur médian. La nature rivale des nouvelles technologies pourrait entraîner une sorte de « ruée vers l’or » à travers laquelle les compétiteurs adoptent des pratiques pour obtenir les gains ou en bloquer l’accès aux autres, c’est-à-dire des pratiques nuisibles pour le reste de l’économie, qui annulent au niveau agrégé les bénéfices des innovations. Une telle hypothèse est cohérente avec plusieurs constats empiriques : les écarts de productivité entre les entreprises les plus avancées et les entreprises moyennes semblent s’être creusés au sein de chaque secteur ces dernières années ; une poignée de « firmes superstars » capte une part de marché de plus en plus grande (Autor et alii, 2017), etc. Certains, comme Jan De Loecker et Jan Eeckhout (2017) ou Germán Gutiérrez et Thomas Philippon (2017), s’inquiètent ainsi de voir la hausse de la concentration dans les différents secteurs et la perturbation résultante du pouvoir de marché des différents agents entraîner des pertes de bien-être au niveau agrégé. En outre, notamment pour cette raison, le revenu total continue peut-être d’augmenter, mais le revenu moyen stagne avec l’accroissement des inégalités.

Selon une quatrième explication, les espoirs ne sont peut-être pas trop optimistes et les indicateurs statistiques n’ont peut-être pas tort : il se pourrait que les gains tirés des nouvelles technologies soient réels et massifs, mais qu’ils ne se sont pas encore manifestés. D’une part, il est possible qu’il faille beaucoup de temps avant que le stock de nouvelles technologies ait atteint une taille suffisante pour déployer tous leurs effets. D’autre part, il est possible que des investissements connexes soient nécessaires pour que le potentiel de ces technologies se concrétise et qu’il faille du temps pour identifier et mettre en œuvre ces investissements. C’est peut-être surtout des investissements dans des actifs intangibles et non des actifs physiques que les nouvelles technologies nécessitent : l’acquisition de certaines compétences, une refonte de l’organisation du travail, etc. En fait, il se pourrait que le délai soit d’autant plus long que la technologie est susceptible de bouleverser l’économie.

Même si les autres explications sont plausibles et cohérentes avec certaines preuves empiriques, c’est la dernière que Brynjolfsson et ses coauteurs privilégient. La (faiblesse de la) croissance actuelle de la productivité n’indique en rien quel sera le rythme de sa croissance future : la croissance de la productivité au cours d’une décennie n’a pas de significatif pouvoir prédictif pour celle de la décennie suivante. Dans la mesure où la croissance de la productivité totale des facteurs est « une mesure de notre ignorance », il n’est pas étonnant que ce résidu ne puisse être prévu à partir de ses valeurs passées.

 

Références

AUTOR, David, David DORN, Lawrence F. KATZ, Christina PATTERSON & John VAN REENEN (2017), « Concentrating on the fall of the labor share », NBER, working paper, n° 23108.

BRYNJOLFSSON, Erik, Daniel ROCK & Chad SYVERSON (2017), « Artificial intelligence and the modern productivity paradox: A clash of expectations and statistics », NBER, working paper, n° 24001, novembre.

BYRNE, David M., John G. FERNALD & Marshall B. REINSDORF (2016), « Does the United States have a productivity slowdown or a measurement problem? », Brookings Papers on Economic Activity.

CARDARELLI, Roberto, & Lusine LUSINYAN (2015), « U.S. total factor productivity slowdown: Evidence from the U.S. states », FMI, working paper, n° 15/116, mai.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687, août.

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2016), « Investment-less growth: An empirical investigation », NBER, working paper, n° 22897, décembre.

MOKYR, Joel (2014), « Secular stagnation? Not in your life », in voxEU.org, 11 août.

SOLOW, Robert (1987), « We'd better watch out », in New York Times Book Review.

SYVERSON, Chad (2016), « Challenges to mismeasurement explanations for the U.S. productivity slowdown », NBER, working paper, n° 21974, février.

Partager cet article

Repost0
10 décembre 2017 7 10 /12 /décembre /2017 18:16
Le capitalisme, les inégalités et la Première Guerre mondiale

Plusieurs publications, notamment les travaux de Thomas Piketty, ont récemment souligné le rôle que les conflits modernes ont pu jouer dans la réduction des inégalités de revenu et de patrimoine en particulier dans la première moitié du vingtième siècle : cette réduction serait en l’occurrence passée par la destruction des actifs physiques, notamment des logements, par la hausse des impôts en vue de financer la guerre, par l’hyperinflation et par la nationalisation de la propriété. Si les origines de la Première Guerre mondiale font actuellement l’objet de nombreuses publications, peu d’entre elles évoquent la possibilité que la causalité puisse aller dans l’autre sens, c’est-à-dire que la hausse des inégalités de revenu et de richesses ait pu être à l’origine du conflit.

Pourtant, plusieurs travaux en économie ont pu affirmer par le passé, notamment avant même le début du conflit, que les forces économiques qui étaient alors à l’œuvre rendaient celui-ci inévitable. C’est le cas de l’ouvrage de John Hobson (1902). Selon ce dernier, les inégalités de revenu dans les pays développés capitalistes, en particulier en Angleterre, avaient pour contrepartie une tendance séculaire à la sous-consommation. Comme les plus modestes et les classes moyennes manquaient de pouvoir d’achat, ces économies généreraient un excès d’épargne relativement aux investissements rentables qui existaient en leur sein. Les propriétaires de capital financier ont alors cherché des débouchés plus profitables pour leurs investissements et ils les trouvèrent à l’étranger, là où la productivité marginale du capital était plus forte, en raison même du manque local de capital : soit ils prêtèrent aux gouvernements étrangers en achetant leurs titres, soit ils procédèrent à des investissements directs à l’étranger. Aucun de ces investissements n’était toutefois sûr dans la mesure où ils étaient réalisés dans des territoires éloignés où, de surcroît, les droits de propriété étaient moins protégés que dans les pays développés. Les capitalistes ont donc cherché à sécuriser leurs investissements en s’appuyant sur le pouvoir étatique, soit en menaçant les gouvernements étrangers de l’usage de la force militaire s’ils ne remboursaient pas leur dette, soit en conquérant directement les territoires pour y faire appliquer les règles de la métropole, notamment en matière de droit de propriété.

L’analyse de Hobson inspira, dans les deux décennies qui suivirent sa publication, de nombreuses analyses, souvent d’obédience marxiste. Vladimir Lénine (1917) estimait que c’était la chute tendancielle du taux de profit dans les économies avancées du monde capitaliste, davantage que la répartition inégalitaire des revenus, qui était à l’origine de la quête de marchés étrangers. Rudolf Hilferding (1910) a suggéré que la baisse tendancielle du taux de profit se traduisait par la consolidation des marchés nationaux et par l’apparition de cartels domestiques qui tiraient leur profit en obtenant des tarifs protectionnistes sur des territoires périphériques toujours plus larges, ce qui générait en retour une demande pour le centre. Pour sa part, Rosa Luxembourg (1913) estimait que, dans la mesure où le capitalisme ne parvenait pas à écouler la totalité des biens produits de façon rentable en raison du manque de demande de la part des plus pauvres, il devait rechercher en permanence et conquérir des marchés non capitalistes à l’étranger ; autrement dit, elle considérait que la survivance de territoires dotés d’un régime précapitaliste était nécessaire à l’expansion du capitalisme.

Si la thèse selon laquelle la Première Guerre mondiale trouverait ses origines dans la propension du capitalisme à devenir impérialiste a continué de recevoir un certain écho par la suite, par exemple dans l’ouvrage de Samir Amin (1974), elle a par contre été délaissée par les économistes et les historiens ces dernières décennies. Branko Milanovic (2016) a quelque peu remis au goût du jour cette théorie en se focalisant sur le rôle que le niveau élevé des inégalités a pu jouer dans l’émergence du conflit. Selon l’explication endogène de la guerre qu’il a par là même avancée, la logique interne des sociétés capitalistes fortement inégalitaires au début du vingtième siècle prédisposèrent celles-ci à l’impérialisme et ce dernier provoqua la guerre.

Thomas Hauner, Branko Milanovic et Suresh Naidu (2017) ont cherché à juger de la pertinence de la thèse de Hobson-Lénine. Ils confirment tout d’abord que les inégalités s’élevaient à des niveaux historiquement élevés dans l’ensemble des pays avancés qui ont participé au conflit (cf. graphique 1). Par exemple, en Angleterre, aux Etats-Unis, aux Pays-Bas, au Japon et en Italie, le coefficient de Gini était compris entre 46 et 55 points. La Grande-Bretagne, qui constituait le pays le plus riche, était aussi, parmi cet ensemble de pays, le plus inégalitaire. Il n’est pas impossible que la répartition du revenu était au Royaume-Uni aussi inégalitaire qu’elle l’est actuellement en Amérique latine.

GRAPHIQUE 1  Les inégalités de revenu entre 1860 et 1910

La répartition du patrimoine était encore plus inégalitaire (cf. graphique 2. Au Royaume-Uni, les 1 % les plus riches détenaient environ 70 % de la richesse nationale et cette part est restée relativement stable sur un quart de siècle. En France, les 1 % les plus riches détenaient une moindre part de la richesse nationale, mais cette part a eu tendance à augmenter ; elle atteignait environ 55-56 % à la veille de la Première Guerre mondiale. La part de la richesse nationale détenue par les 1 % les plus riches était plus faible aux Etats-Unis que dans les pays européens ; elle s’élevait à environ 44 % à la veille du conflit.

GRAPHIQUE 2  La part de la richesse totale détenue par les 1 % les plus riches en France et au Royaume-Uni (en %)

Hauner et ses coauteurs ont décelé d’autres preuves empiriques confortant la thèse de Hobson-Lénine. Par exemple, les détentions nettes d’actifs étrangers ont augmenté, de façons absolue et relative, à la veille du conflit, mais aussi que ces actifs étaient presque entièrement détenus par les plus aisés ; les rendements étrangers apparaissent plus élevés que les rendements domestiques, une fois qu’on les ajuste en fonction du risque, ce qui explique pourquoi les plus riches étaient incités à investir à l’étranger ; l’établissement d’un contrôle politique direct diminuait le degré de risque des actifs étrangers ; l’accroissement des inégalités était associé à une plus grande part des actifs étrangers dans le PIB ; les pays qui possédaient le plus d’actifs étrangers, en pourcentage de leur PIB, disposaient des plus grandes armées. Bref, tous les ingrédients pour qu’éclate le conflit étaient en place et étaient clairement associés à une logique économique. Surtout, les ingrédients des guerres semblent effectivement résidaient au sein même des sociétés capitalistes : les inégalités domestiques sont susceptibles d’alimenter les guerres à l’étranger.

 

Références

AMIN, Samir (1974), L’Accumulation à l’échelle mondiale.

HAUNER, Thomas, Branko MILANOVIC & Suresh NAIDU (2017), « Inequality, foreign investment, and imperialism », MPRA, paper, n° 83068.

HILFERDING, Rudolf (1910), Le Capital financier.

HOBSON, John A. (1902), Imperialism: A Study.

LENINE, Vladimir (1917), L’Impérialisme, stade suprême du capitalisme.

LUXEMBURG, Rosa (1913), L’Accumulation du capital.

MILANOVIC, Branko (2016), Global Inequality: A New Approach For the Age of Globalization, Harvard University Press.

Partager cet article

Repost0
25 novembre 2017 6 25 /11 /novembre /2017 20:53
Quel est l’héritage du discours présidentiel de Friedman ?

L’article de Milton Friedman (1968), « The role of monetary policy », qui reprend un discours qu’il avait prononcé l’année précédente lors de son investiture en tant que président l’American Economic Association, a beau ne tenir que sur 17 pages, il a eu un énorme impact aussi bien au niveau théorique, sur le paysage de la macroéconomie et la lutte entre les différentes écoles de pensée, que dans le domaine pratique, celui de la politique monétaire. Google Scholar recense plus de 7.500 citations de cet article. Il est certes moins cité que son livre Capitalisme et liberté, publié en 1962, mais il est aussi cité que le célèbre livre qu’il a coécrit avec Anna Schwartz et publié en 1963, Une Histoire monétaire des Etats-Unis.

Greg Mankiw et Ricardo Reis (2017) sont récemment revenus sur l’importance de cette allocution, un demi-siècle après son occurrence. Ils rappellent tout d’abord son contexte, celui d’un keynésianisme triomphant. La Grande Dépression avait fortement déstabilisé l’économie américaine, mais les analyses néoclassiques semblaient dans les années trente incapables d’expliquer sa sévérité. En publiant sa Théorie générale en 1936, Keynes a non seulement avancé une explication des fluctuations de l’activité, mais aussi montré pourquoi et comment les autorités pouvaient intervenir pour atténuer ces fluctuations : les récessions trouvent leur source dans une insuffisance de la demande globale, mais l’économie peut rester piégée dans une telle situation ; face à cette défaillance de marché, les autorités peuvent ramener l’économie au plein emploi en stimulant la demande globale.

Plusieurs économistes ont cherché à modéliser les idées de Keynes. John Hicks et Alvin Hansen contribuèrent notamment le modèle IS-LM (au prix de l’abandon de certaines intuitions de la Théorie générale), qui devint le cadre d’analyse privilégié pour comprendre l’action des politiques conjoncturelles. Il se focalisait toutefois sur le seul court terme en supposant une fixité des prix et sans expliquer celle-ci. Pendant longtemps, les keynésiens ont donc cherché à intégrer la dynamique des prix dans leur édifice théorique. C’est la courbe de Phillips qui fournit l’équation manquante : en décelant une relation inverse entre l’inflation salariale et le taux de chômage au Royaume-Uni, Alban W. Phillips (1958) a suggéré aux keynésiens qu’il existait une relation inverse entre inflation des prix et taux de chômage. Autrement dit, il semblait possible pour les autorités publiques de réduire le chômage en laissant l’inflation s’accroître, ou inversement.

C’est dans un article où ils se penchent sur les causes de l’inflation que Paul Samuelson et Robert Solow (1960) suggèrent que la courbe de Phillips offre des possibilités d’arbitrage entre inflation et chômage. Pour autant, ils soulignaient aussi que cette relation n’était pas stable au cours du temps. Ils décelaient plusieurs façons par lesquelles une économie à faible pression, marquée par une faible inflation et un chômage élevé, pouvait conduire à un déplacement de la courbe de Phillips. Ils ont anticipé non seulement l’idée d’une courbe de Phillips augmentée des anticipations en suggérant qu’une révision des anticipations pouvait déplacer la courbe de Phillips, mais aussi celle des effets d’hystérèse, en suggérant que la persistance d’une faible demande puisse se traduire par l’accroissement d’un chômage de nature structurelle, c’est-à-dire puisse accroître le taux de chômage associé à la stabilité des prix.

Les keynésiens ayant adopté la courbe de Phillips, c’est en remettant en cause cette dernière que Friedman (1968) espère faire effondrer l’édifice keynésien ; Samuelson et Solow avaient émis quelques réserves quant à la stabilité de la courbe de Phillips, mais Friedman les passa sous silence [Rubin, 2012]. Alors que Samuelson et Solow tendent à considérer le long terme comme une succession de situations de court terme, Friedman distingue court terme et long terme. Ce dernier apparaît dans son analyse comme le laps de temps où les principes de l’économie néoclassique sont vérifiés et où, notamment, la monnaie retrouve sa neutralité. Friedman réintroduit alors un concept essentiel de la Théorie générale que les keynésiens de la synthèse avaient eu tendance à négliger : les anticipations. Si la distinction entre court terme et long terme est importante dans sa critique de la courbe de Phillips, c’est notamment parce que les agents peuvent se tromper à court terme dans leurs anticipations. A long terme, par contre, les anticipations sont vérifiées.

Friedman suppose en l’occurrence que les travailleurs forment des anticipations adaptatives : ils déduisent de l’évolution passée de l’inflation le taux d’inflation future. Les entreprises connaissent le niveau général des prix, mais les ménages ne l’observent pas immédiatement, si bien qu’ils peuvent se tromper sur le niveau courant de l’inflation. Selon Friedman, c’est cette asymétrie d’informations et la nature adaptative des anticipations qui expliquent pourquoi il existe à court terme une courbe de Phillips, c’est-à-dire une possibilité d’arbitrage entre inflation et chômage, mais que cette relation disparaît à long terme. En l’occurrence, si la banque centrale assouplit sa politique monétaire pour réduire le taux de chômage, le taux d’inflation sera supérieur à celui qu’anticipent les travailleurs. Ces derniers vont considérer que la hausse des salaires nominaux correspond à une hausse des salaires réels : ils vont alors accroître leur offre de travail, ce qui réduira le chômage. Cette baisse du chômage est toutefois temporaire : les travailleurs vont finir par prendre conscience de leur erreur, c’est-à-dire comprendre que l’inflation a été plus importante qu’ils ne l’ont anticipé. Ils vont corriger leurs anticipations et réduire leur offre de travail, si bien qu’à long terme, le chômage retourne à son niveau initial, mais pas le taux d’inflation. Friedman qualifie ce taux de chômage incompressible du taux de chômage naturel ; il suppose que celui-ci est déterminé du côté de l’offre et c’est pour cette raison qu’il le juge insensible à la conjoncture. 

Friedman concluait de son analyse que la banque centrale ne peut durablement maintenir le chômage à un niveau inférieur à son niveau naturel, si ce n’est en générant un taux d’inflation toujours plus important, ce qui est insoutenable à long terme. Les événements donnèrent raison à Friedman face aux keynésiens : à partir des années soixante-dix, l’inflation ne cessait d’augmenter, sans pour autant que reflue le chômage. Le monétaire pensait en outre que la banque centrale ne peut pas non plus cibler un taux d’intérêt : comme nous ne pouvons savoir avec précision à quel niveau s’élève le taux d’intérêt naturel, le ciblage d’un taux d’intérêt risque également de pousser l’inflation hors de tout contrôle. Par contre, la banque centrale peut veiller à ce que la monnaie ne constitue pas une source de perturbations pour l’économie, comme elle le fut lors de la Grande Récession : la sévérité de cette dernière s’explique par l’incapacité de la Fed à contenir la contraction de la masse monétaire [Friedman et Schwartz, 1963]. L’objectif premier des banques centrales doit porter sur quelque chose qu’elles peuvent contrôler à long terme, en l’occurrence une variable nominale. Friedman considère alors trois candidats possibles : le taux de chômage nominal, le niveau des prix et les agrégats monétaires. Or, le taux de change n’est pas assez important dans la mesure où le commerce ne joue qu’un petit rôle dans l’économie américaine ; le niveau des prix est la plus importante des trois variables considérées, mais l’effet de la politique monétaire sur le niveau des prix est trop long et imprévisible, si bien que la politique monétaire risque d’amplifier les déséquilibres, plutôt que de les atténuer ; par conséquent, Friedman en conclut que la croissance régulière d’un certain agrégat monétaire constitue le meilleur point de départ pour la politique monétaire.

Les macroéconomistes sont aujourd’hui en désaccord avec ce dernier point. En effet, l’économie peut être sujette à des chocs aussi divers que des chocs pétroliers, des crises financières ou des esprits animaux changeants. Notamment pour cette raison, la banque centrale risque de ne pas réagir suffisamment face à un choc si elle se contente de maintenir un agrégat monétaire sur une trajectoire régulière. En outre, dans la mesure où les instruments financiers sont de plus en plus complexes, il est difficile de déterminer un indicateur approprié de la quantité de monnaie à cibler. La vitesse de circulation de la monnaie, que Friedman suppose stable, s’est au contraire révélée instable ces dernières décennies, si bien que le ciblage des agrégats monétaires s’est traduit par d’amples fluctuations des prix et des revenus.

Si les idées de Friedman ont eu un impact majeur sur la pratique de la politique monétaire, celui-ci n’a été que temporaire. Aujourd’hui, non seulement les grandes banques centrales ciblent l’inflation, mais elles ciblent en l’occurrence le même taux d’inflation (une inflation de 2 %). Cette pratique semble efficace, dans le sens où l’inflation annuelle est restée dans une bande comprise entre 0 et 4 % d’inflation. En outre, la macroéconomie moderne se focalise davantage sur le taux d’intérêt nominal, aussi bien en tant qu’instrument que comme guide pour juger de l’état de l’économie. Pour autant, beaucoup considèrent, comme Friedman, que les autorités doivent s’attacher à suivre une règle prédéfinie, mais c’est davantage en raison des problèmes d’incohérence temporelle mis en évidence par les nouveaux classiques, qu’en raison des arguments avancés par Friedman. Cela n’empêche pas les banques centrales d’adopter des mesures discrétionnaires : elles continuent à suivre les politiques contracycliques que Friedman jugeait vaines. Certes, en empêchant les faillites bancaires, la Réserve fédérale a montré qu’elle a bien saisi les enseignements que Friedman avait tirés de son analyse de la Grande Dépression. Mais c’est aussi en assouplissant agressivement leur politique monétaire que les banques centrales ont empêché que se répète la Grande Dépression il y a dix ans : lors de la Grande Dépression, la production industrielle s’était contractée de 52 % et cette contraction dura 43 mois ; lors de la Grande Récession, la production industrielle chuta de 17 % et cette contraction dura 19 mois.

Mankiw et Reis ont également jugé de l'héritage que le discours de Friedman a laissé pour la théorie économique. Ils notent par exemple que la focalisation sur le long terme, comme point de référence, et les anticipations continuent d’être au centre des analyses macroéconomiques, même après la crise financière mondiale : les analyses de l’inflation continuent de donner un rôle important aux anticipations d’inflation, les analyses du chômage continuent de faire jouer un rôle important au taux de chômage naturel, etc. Malgré cela, ce ne sont pas les anticipations adaptatives de Friedman que les économistes introduisent dans leurs modélisations, mais le concept d’anticipations rationnelles que les nouveaux classiques ont avancé dans les années soixante-dix. C’est d'ailleurs cette hypothèse d’anticipations rationnelles que les nouveaux keynésiens ont adoptée pour contrer la révolution des nouveaux classiques. Certes, les keynésiens n'ont jamais réussi à pleinement réhabiliter la courbe de Phillips, tandis que le concept de taux de chômage naturel continue d'être utilisé dans les travaux universitaires et comme indicateur pour la politique économique. Mais beaucoup ont affirmé que celui-ci n'est pas insensible à la conjoncture et donc au taux de chômage courant en raison des effets d’hystérèse ; ce sont d’ailleurs ces derniers qui sont évoqués pour légitimer le retour de la politique budgétaire.

 

Références

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58, n° 1.

FRIEDMAN, Milton, & Anna Jacobson SCHWARTZ (1963), A Monetary History of the United States, 1867-1960. Traduction française, Une histoire monétaire des Etats-Unis.

MANKIW, N. Gregory, & Ricardo REIS (2017), « Friedman’s presidential address in the evolution of macroeconomic thought », NBER, working paper, n° 24043.

PHILLIPS, Alban W. (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861-1957 », in Economica, vol. 25, n° 100.

RUBIN, Goulven (2012), « Robert Solow de la courbe de Phillips à la question des fondements de la macroéconomie: 1960-1981 ».

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

Partager cet article

Repost0
19 novembre 2017 7 19 /11 /novembre /2017 19:14
Booms, crises et reprises : n’est-il pas temps de changer de paradigme ?

La vision traditionnelle des cycles d’affaires repose sur trois grandes idées : le PIB réel fluctue autour d’une tendance ; cette tendance, appelée « production potentielle », serait déterminée du côté de l’offre ; et les fluctuations trouveraient leur origine dans des chocs de demande (cf. schéma 1). Selon cette vision, la récession serait généralement provoquée par un choc de demande négatif : l’affaiblissement de la demande globale pousserait la production sous son niveau potentiel, mais la production reviendrait rapidement à sa trajectoire initiale lors de la reprise. Bref, les pertes de production ne seraient que temporaires.

SCHEMA 1  La vision traditionnelle du cycle d’affaire

La Grande Récession amène à douter d’un tel paradigme. En effet, suite à la crise financière mondiale, la croissance économique n’a pas connu de puissant rebond et la reprise est restée lente pendant près de neuf ans. Au cours de cette période, les prévisions de croissance de la plupart des institutions ont été régulièrement révisées à la baisse. Entre 2000 et 2007, la croissance moyenne s’élevait respectivement à 2,7 % et 4,5 % aux Etats-Unis et dans le monde ; elle atteint respectivement 2,1 % et 3,8 % entre 2010 et 2017.

Cette dynamique du PIB est toutefois loin d’être exceptionnelle au regard de l’Histoire, même si l’on se concentre sur la seule période d’après-guerre. En effet, Valerie Cerra et Sweta Saxena (2005a, 2005b) avaient mis en évidence que les crises financières qui avaient respectivement touché la Suède et les pays asiatiques au cours des années quatre-vingt-dix ont durablement affecté leur activité économique. Surtout, Cerra et Saxena (2008) ont constaté, en étudiant un échantillon de 190 pays, que les crises de balance des paiements et les crises bancaires ont par le passé été suivies en moyenne par une perte permanente du niveau de la production réelle : celle-ci a beau renouer avec une croissance à un moment ou à un autre, la trajectoire qu’elle finit par rejoindre est inférieure à celle qu’elle suivait avant la crise. La perte en termes de production s’élève en moyenne à 5 % suite à une crise de la balance des paiements, à 10 % suite à une crise bancaire et à 15 % suite à une crise jumelle. En outre, les récessions affectent durablement l’activité même si elles ne sont pas synchrones avec une crise financière.

Cerra et Saxena (2017) confirment que ces conclusions restent valides lorsqu’elles étendent l’échantillon de données jusqu’à l’année 2013 : le taux de croissance moyen durant les années d’expansion d’une reprise est significativement plus faible que celui observé sur l’ensemble des années d’expansion. En effet, lorsqu’une reprise s’amorce, c’est-à-dire lorsque la croissance redevient positive après une récession, cette croissance est inférieure de 0,8 points de pourcentage par rapport à la moyenne lorsque la récession est associée à une crise bancaire et inférieure de 0,5 points de pourcentage par rapport à la moyenne lorsque la récession n’est pas associée à une crise bancaire. La croissance économique est inférieure de 0,6 points de pourcentage par rapport à la moyenne lors des quatre premières années de reprise suite à une récession synchrone à une crise financière ; elle est inférieure de 0,3 points de pourcentage par rapport à la moyenne au cours des quatre premières années de reprise suite à une récession qui n’a pas été associée à une crise bancaire.

Cette persistance des dommages macroéconomiques suggère l’existence de puissants effets d’hystérèse. Par conséquent, Cerra et Saxena appellent à abandonner le paradigme traditionnel des cycles d’affaires pour prendre en compte ces effets. En effet, au mieux, suite à une récession, la reprise permettra à la croissance de revenir à son rythme d’avant-crise, mais sans pour autant que le PIB revienne à sa trajectoire d’avant-crise. Par conséquent, la production ne fluctue pas autour d’une tendance croissante à long terme, puisque les chocs que connaît l’économie modifient la trajectoire suivie (cf. schéma 2). Cerra et Saxena en concluent que le cycle d’affaires n’est absolument pas cyclique.

SCHEMA 2 La réalité du cycle d’affaire 

Un tel constat est bien évidemment cohérent avec la théorie du cycle d’affaires réel (real business cycle) : selon celle-ci, les fluctuations économiques sont générées par des chocs de productivité qui conduisent à une modification de la tendance même que suit la production. Toutefois, il est peu probable qu’un pays ou l’ensemble de l’économie mondiale puisse soudainement connaître une perte de productivité sur une aussi grande échelle et une régression technologique. En outre, Cerra et Saxena constatent que les crises bancaires se traduisent en moyenne par une chute des prix de 2 % à long terme dans les pays développés. Par conséquent, la baisse simultanée de la production et des prix suggèrent que ce sont bien des chocs de demande qui sont à l’œuvre. Bref, ces constats remettent en cause l’hypothèse habituelle que les choses de demande n’ont que des effets transitoires : en raison des effets d’hystérèse, une baisse de la demande globale peut déprimer durablement l’offre globale. Par exemple, la faiblesse de la demande peut désinciter les entreprises à investir, ce qui non seulement contribue à la faiblesse de la demande à court terme, mais aussi se traduit par une réduction du stock de capital à long terme. FMI (2015) a ainsi constaté que l’investissement des entreprises s’est fortement contracté dans les pays développés au cours de la crise financière mondiale, mais aussi que c’est en raison de la faiblesse de l’activité s’il est resté par la suite déprimé.

Cerra et Saxena rejettent aussi l’idée que la faiblesse des reprises puisse s’expliquer par des booms insoutenables à la veille des crises, c’est-à-dire qu’elle puisse simplement refléter un retour à une trajectoire soutenable. En étudiant plusieurs décennies de données relatives à plus de 160 pays, elles constatent que la croissance du PIB que l’on peut observer juste avant le pic du cycle d’affaires ou juste avant une crise bancaire ou une crise de devise est plus faible que la croissance moyenne observée sur l’ensemble des années d’expansion. La croissance du PIB est en fait particulièrement faible avant une crise.

Ces divers résultats ont de profondes implications pour la politique économique. Si effectivement les pertes durables de production résultent de chocs de demande, alors on peut penser que les politiques conjoncturelles, en stimulant la demande globale, peuvent réduire les effets d’hystérèse. Valerie Cerra, Ugo Panizza et Sweta Saxena (2013) ont par exemple montré que les politiques macroéconomiques peuvent influencer le rythme des reprises et contribuer à réduire les pertes de production qui résultent des récessions. En l’occurrence, l’assouplissement monétaire, la relance budgétaire, la dépréciation du taux de change réel, l’aide étrangère et une plus grande flexibilité du taux de change sont susceptibles d’amplifier le rebond de l’activité. Dans les pays développés, la relance budgétaire semble particulièrement efficace pour stimuler la reprise suite à une récession synchrone à une crise bancaire.

 

Références

CERRA, Valerie, & Sweta C. SAXENA (2005a), « Eurosclerosis or financial collapse: Why did Swedish incomes fall behind? », FMI, working paper, n° 05/29.

CERRA, Valerie, & Sweta C. SAXENA (2005b), « Did output recover from the Asian crisis? », FMI, staff paper, vol. 52, n° 1.

CERRA, Valerie, & Sweta C. SAXENA (2008), « Growth dynamics: The myth of economic recovery », in American Economic Review, vol. 98, n° 1.

CERRA, Valerie, & Sweta C. SAXENA (2017), « Booms, crises, and recoveries: A new paradigm of the business cycle and its policy implications », FMI, working paper, n° 17/250.

CERRA, Valerie, Ugo PANIZZA & Sweta C. SAXENA (2013), « International evidence on recovery from recessions », in Contemporary Economic Policy, vol. 31, n° 2.

FMI, (2015), « Private investment: What’s the holdup? », World Economic Outlook, chapitre 4.

Partager cet article

Repost0
5 novembre 2017 7 05 /11 /novembre /2017 18:41
La stagflation et la lutte des méthodologies en macroéconomie

Les historiens de la pensée économique et les macroéconomistes continuent de débattre des bouleversements que la macroéconomie a connu dans les années soixante-dix. Beaucoup en donnent le récit suivant : la pensée universitaire et la politique étaient dominées par le keynésianisme dans l’immédiat après-guerre. La courbe de Phillips, adoptée par les keynésiens, suggérait que les décideurs politiques pouvaient arbitrer entre inflation et chômage via l’usage des politiques de demande. Le keynésianisme connut toutefois un déclin dans les années soixante-dix pour deux raisons. D’une part, au niveau empirique, les pays connaissaient une situation de stagflation, c’est-à-dire la conjonction du chômage et de l’inflation, un phénomène que les modèles keynésiens n’avaient pas su prévoir, ni ne parvenaient à expliquer. Au niveau théorique, les monétaristes, puis les nouveaux classiques expliquaient (contrairement aux keynésiens) pourquoi les économies développées étaient plongées dans une situation de stagflation. Selon les monétaristes, parce que les agents ont des anticipations adaptatives, une hausse de l’inflation conduit à une baisse des salaires réels, donc à une baisse du chômage, mais celle-ci est temporaire, car les travailleurs vont finir par se rendre compte de leurs erreurs d’anticipations et réclamer une hausse des salaires, ce qui ramènera le chômage à son niveau initial, le fameux « taux de chômage naturel ». Bref, il y a peut-être une courbe de Phillips à court terme, mais celle-ci devient instable à long terme. Les décideurs politiques pourraient chercher à maintenir le chômage en-deçà de son niveau naturel, mais cela ne pourrait se faire qu’au prix d’une inflation croissante : c’est la thèse accélérationniste. Les nouveaux classiques, menés par Robert Lucas, radicalisèrent cette thèse en supposant que les agents ont des anticipations rationnelles et ne peuvent ainsi être systématiquement floués par les décideurs publics : il n’y a possibilité d’arbitrage entre inflation et chômage ni à court terme, ni à long terme.

Les choses n’ont peut-être pas été aussi simples. Au cours de l’été 2014, plusieurs macroéconomistes débattirent dans la blogosphère autour de la révolution menée par les nouveaux classiques. Simon Wren-Lewis (2014a) pensait que celle-ci était avant tout de nature méthodologique. Elle proviendrait selon lui de l’insatisfaction que les économistes ressentaient face au fossé entre la méthodologie qui dominait à l’époque dans la plupart des travaux microéconomiques et celle qui dominait dans la macroéconomie orthodoxe. Paul Krugman (2014) pensait quant à lui que le succès de la révolution des nouveaux classiques s’expliquait par la stagflation. Mais Wren-Lewis notait que les keynésiens avaient rapidement adapté leurs modèles en combinant l’idée d’une courbe de Phillips accélérationniste avec l’idée que les décideurs politiques puissent sous-estimer le taux de chômage naturel pour expliquer la stagflation. Cette réaction prouverait selon lui que la victoire des nouveaux classiques sur les keynésiens était davantage théorique qu’empirique. Pour le montrer, Wren-Lewis (2014b) s’est alors penché sur ce qui constitue à ses yeux comme le véritable manifeste des nouveaux classiques : un article que Robert Lucas et Thomas Sargent (1979) présentèrent à la conférence organisée par la Réserve fédérale de Boston en juin 1978, conférence qui s’intitulait « After the Phillips Curve: the Persistence of High Inflation and High Unemployment ». Selon Wren-Lewis, cet article porte essentiellement sur des questions méthodologiques : il s’agissait pour ses auteurs de critiquer les modèles macroéconométriques keynésiens sur un plan méthodologique, mais ils n’ont pas relié leur critique à la stagflation.  

Aurélien Goutsmedt (2017) a alors étudié en détails les travaux qui ont été présentés lors de la conférence afin de préciser la place que tenaient la stagflation et la méthodologie dans les débats qui se tenaient alors et ainsi mieux comprendre les bouleversements que le paysage de la macroéconomie a connus dans les années soixante-dix. Il note tout d’abord que, lors de la conférence, la question de la méthodologie était souvent intimement liée à la question de la stagflation : la préférence d’un économiste pour une explication de la stagflation était associée à une préférence pour une certaine méthodologie dans la modélisation. Une première explication de la stagflation considéraient que l’inadéquation des politiques économiques et les changements dans le comportement des agents constituaient les causes fondamentales de la stagflation ; il s’agissait essentiellement de la thèse des nouveaux classiques. Selon une seconde explication, la stagflation résultait principalement de chocs externes, notamment le choc pétrolier ; c’était celle qu’avançaient les keynésiens et les utilisateurs de modèles macroéconomiques structuraux. Par contre, l’article de Lucas et Sargent n’a pas cherché à expliquer la stagflation, ni à la lier à l’échec du consensus keynésien.

En outre, le conflit entre, d’une part, Lucas et Sargent et, d’autre part, les partisans des modèles macroéconométriques structurels  ne se ramenait pas à une opposition entre la modélisation microfondée (à laquelle les premiers appelleraient) et la modélisation non-microfondée (que privilégieraient les seconds). En effet, Goutsmedt note par exemple que les modèles défendus par Lawrence Klein et Ray Fair, deux concepteurs de modèles macroéconométriques structurels, étaient microfondés.

En fait, l’opposition entre les macroéconomistes portait plutôt sur la nature des microfondations à privilégier. D’un côté, Lucas et Sargent appelaient à construire les modèles sur la base d’équations tirées de ce qui constituait selon eux le cadre le plus robuste en économie, en l’occurrence le modèle walrasien d’équilibre général. Ce qui doit primer avant tout, selon eux, c’est la cohérence interne du modèle. C’est ce programme qu’appliquèrent les premiers nouveaux classiques, les théoriciens de cycles d’affaires réels (real business cycles), puis les tenants de la nouvelle synthèse néoclassique qui proposèrent à partir des années quatre-vingt-dix les modèles d’équilibre général stochastiques dynamiques (DSGE) : ceux-ci sont fondamentalement des modèles de cycles d’affaires réels qui incorporent des éléments nouveaux keynésiens, en l’occurrence la concurrence imparfaite et l’hypothèse d’un ajustement progressif des prix et salaires. Ceux qui s’opposèrent à cette « discipline » le firent au motif qu’ils estimaient que les microfondations devaient résulter aussi bien de l’interaction des théories microéconomiques et macroéconomiques que de celle des données microéconomiques et macroéconomiques. Dans leur optique, si les données ne collaient pas avec le modèle, c’était peut-être en raison d’une erreur de la théorie microéconomique : ainsi, si les modèles structuraux des années soixante-dix ne parvenaient pas à établir des prévisions correctes, il n’était pas nécessaire de les abandonner, mais il était de les améliorer en prenant en compte les données.

Enfin, Goutsmedt note que la conférence marqua une rupture croissante entre la macroéconomie universitaire et la modélisation macroéconométrique des décideurs politiques. Les idées des nouveaux classiques se sont diffusées lentement et qu’elles ne se sont pas totalement imposées dans l’ensemble des grandes institutions économiques. De nombreuses banques centrales et plusieurs ministères des Finances continuent d’utiliser des modèles hybrides, qui ne sont pas de purs modèles DSGE. Goutsmedt estime que ces modèles hybrides ne résultent pas de la nouvelle synthèse néoclassique ; ils sont plutôt l’héritage direct des modèles utilisés dans les années soixante et soixante-dix.  

 

Références

GOUTSMEDT, Aurélien (2017), « Stagflation and the crossroad in macroeconomics: The struggle between structural and New Classical macroeconometrics », Centre d’économie de la Sorbonne, document de travail, n° 2017.43.

KRUGMAN, Paul (2014), « Stagflation and the fall of macroeconomics », 28 juin.

LUCAS, Jr., Robert E., & Thomas J. SARGENT (1979), « After keynesian macroeconomics », In After the Phillips Curve: the Persistence of High Inflation and High Unemployment.

WREN-LEWIS, Simon (2014a), « Understanding the New Classical revolution? », in Mainly Macro (blog), 28 juin. Traduction française, « Comment expliquer la révolution des nouveaux classiques », in Annotations (blog).

WREN-LEWIS, Simon (2014b), « Rereading Lucas and Sargent 1979 », in Mainly Macro (blog), 11 juillet. Traduction française, « Relire Lucas et Sargent », in Annotations (blog).

Partager cet article

Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher