Overblog Tous les blogs Top blogs Économie, Finance & Droit Tous les blogs Économie, Finance & Droit
Suivre ce blog Administration + Créer mon blog
MENU
16 août 2018 4 16 /08 /août /2018 18:03
Vieillissement démographique, robotisation et stagnation séculaire

Keynésiens et néoclassiques tendent à s’accorder à l’idée que le vieillissement démographique devrait freiner la croissance, mais pas pour les mêmes raisons. Pour les analyses d’obédience néoclassique, le vieillissement devrait freiner la croissance en réduisant l’épargne, dans la mesure où les personnes âgées risquent de consommer davantage qu’elles ne gagnent de revenu lors de leur retraite, mais aussi en réduisant le réservoir de main-d’œuvre disponible. Robert Gordon (2012) estime pour cette raison que le vieillissement est l’un des « vents contraires » susceptibles de mettre « fin » à la croissance économique.

Pour les analyses keynésiennes, le vieillissement démographique risque au contraire de freiner la croissance en déprimant la demande globale : les entreprises devraient moins investir, puisqu’il y a moins de main-d’œuvre à équiper, tandis que les ménages risquent de moins consommer, dans la mesure où l’anticipation de leur plus longue espérance de vie devrait les amener à épargner davantage lors de leur vie active. Ces dernières années, certains ont estimé que le vieillissement démographique que connaissent les pays développés est l’un des facteurs susceptibles de piéger ceux-ci dans une stagnation séculaire [Summers, 2015], renouant ainsi avec une thèse que développaient certains keynésiens au sortir de la Deuxième Guerre mondiale [Hansen, 1938].

Tous les économistes n’aboutissent pas à des conclusions aussi pessimistes. Par exemple, David Cutler, James Poterba, Louise Sheiner et Larry Summers (1990) reconnaissent que le vieillissement démographique peut réduire la part des travailleurs en emploi dans la population, ce qui tend à réduire la production par tête. Mais, d’un autre côté, il peut accroître l’intensité capitalistique, c’est-à-dire le volume d’équipement par travailleur, via l’approfondissement du capital. De plus, il peut stimuler le progrès technique dans la mesure où la pénurie de main-d’œuvre devrait inciter les entreprises à chercher à économiser en main-d’œuvre, donc à substituer des machines à celle-ci. C’est l’idée que développait déjà John Habakkuk (1962) il y a un demi-siècle : les incitations à innover sont plus forte lorsque la main-d’œuvre est rare relativement aux autres facteurs de production. Au final, l’impact net du vieillissement sur la croissance dépendra de l’équilibre entre, d’une part, le premier effet (négatif) et, d’autre part, les deux derniers (l’approfondissement du capital et la stimulation de l’innovation). 

Selon Daron Acemoglu et Pascual Restrepo (2017), les données ne révèlent d’ailleurs pas de relation négative entre vieillissement et croissance économique : en fait, il y a une corrélation positive entre la hausse du ratio de nombre de personnes âgées sur le nombre de jeunes et la croissance de la production par tête après 1990. En l’occurrence, les pays qui ont vu leur population vieillir rapidement sont ceux qui ont eu tendance à connaître la plus forte croissance ces dernières décennies.

Pour expliquer leur constat, Acemoglu et Restrepo mettent l’accent sur la troisième force mise en avant par Cutler et alli : une raréfaction de travailleurs d’âge intermédiaire est susceptible d’inciter les entreprises à automatiser les tâches assurées jusqu’à présent par ceux-ci. En utilisant les données américaines, Acemoglu et Restrepo (2018) constatent que la hausse du ratio rapportant le nombre de travailleurs âgés sur le nombre de travailleurs d’âge intermédiaire est associée à une plus grande adoption de robots. En étudiant les données internationales, ils observent que les technologies d’automatisation tendent à se déployer d’autant plus rapidement dans le secteur manufacturier d’un pays que ce dernier connaît un vieillissement rapide. Le vieillissement pourrait en l’occurrence expliquer 40 % des écarts en termes d’adoption de robots industriels que l’on peut constater d’un pays à l’autre.

GRAPHIQUE 1  Corrélation entre vieillissement démographique et croissance économique entre 1990 et 2008

source : Eggertsson et alii (2018)

Pour Acemoglu et Restrepo, leurs données amènent à rejeter la thèse de la stagnation séculaire. Ce n’est pas le cas selon Gauti Eggertsson, Manuel Lancastre et Larry Summers (2018). D’une part, la relation positive entre le vieillissement démographique et la croissance économique pourrait s’expliquer avant tout par le fait que le vieillissement est associé à un approfondissement du capital et à une baisse des taux d’intérêts réels ; effectivement, les taux d’intérêt ont eu tendance à baisser à travers le monde depuis 1990. D’autre part, il faut tenir compte du fait que les taux d’intérêt nominaux ne peuvent pas pleinement s’ajuster à la baisse : ils peuvent buter sur une borne inférieure. Tant que les taux d’intérêt peuvent s’ajuster, l’économie est dans un « régime néoclassique ». La thèse de la stagnation séculaire amène à prédire que, lorsqu’une crise éclate, les pays qui connaissaient le vieillissement le plus rapide et une faible inflation ont tendance à connaître les plus amples excès d’épargne et donc une forte récession lorsque les taux d’intérêt butent effectivement sur leur borne inférieure. Dans ce cas, les économies se retrouvent dans un « régime keynésien ».

GRAPHIQUE 2  Corrélation entre vieillissement démographique et croissance économique entre 2008 et 2015

 

source : Eggertsson et alii (2018)

Pour vérifier leur théorie, Eggertsson et ses coauteurs se sont alors tournés vers les données empiriques relatives à 168 pays. Ils font apparaître une corrélation positive entre vieillissement et croissance économique entre 1990 et 2008, ce qui suggère que les économies étaient alors dans un « régime néoclassique » (cf. graphique 1). Ce faisant, ils confirment les constats empiriques d’Acemoglu et Restrepo (2017). Par contre, après 2008, l’impact du vieillissement sur la croissance économique s’est révélé être négatif ; les économies où les taux d’intérêt ont été contraints par leur borne inférieure avaient ainsi basculé dans un « régime keynésien » (cf. graphique 2). Le lien entre croissance et vieillissement n’est donc pas systématiquement positif. Malheureusement, le vieillissement risque de nuire à la croissance une grande partie de ces prochaines décennies : selon Michael Kiley et John Roberts (2017), la borne inférieure pourrait désormais contraindre les taux d’intérêt de 30 % à 40 % du temps.

 

Références

ACEMOGLU, Daron, & Pascual RESTREPO (2017), « Secular stagnation? The effect of aging on economic growth in the age of automation », NBER, working paper, n° 23077.

ACEMOGLU, Daron, & Pascual RESTREPO (2018), « Demographics and Automation », NBER, working paper, n° 24421.

CUTLER, David M., James M. POTERBA, Louise SHEINER, & Lawrence H. SUMMERS (1990), « An aging society: Opportunity or challenge? », in Brookings Papers on Economic Activity, vol. 21, n° 1.

EGGERTSSON, Gauti B., Manuel LANCASTRE & Lawrence H. SUMMERS (2018), « Aging, output per capita and secular stagnation », NBER, working paper, n° 24902.

GORDON, Robert J. (2012), « Is U.S. economic growth over? Faltering innovation confronts the six headwinds », NBER, working paper, n ° 18315, août.

HABAKKUK, Hrothgar John (1962), American and British Technology in the Nineteenth Century, Cambridge University Press.

HANSEN, Alvin H. (1938), Full Recovery or Stagnation?

KILEY, Michael T., & John M. ROBERTS (2017), « Monetary policy in a low interest rate world », in Brookings Papers on Economic Activity, vol. 48, n° 1.

SUMMERS, Lawrence (2015), « Demand side secular stagnation », in American Economic Review: Papers & Proceedings, vol. 105, n° 5.

Partager cet article
Repost0
2 août 2018 4 02 /08 /août /2018 15:01
Aux sources du cycle d’affaires

Pour expliquer les cycles d’affaires, les économistes ont très souvent favorisé des récits ou des modèles où les fluctuations sont générées par une unique source de « chocs » : les monétaristes et les nouveaux classiques mettent l’accent sur les chocs monétaires ; les théoriciens des cycles d’affaires réels (real business cycles) sur les chocs technologiques, correspondant aux variations de la productivité globale des facteurs (PGF) ; les keynésiens sur la demande globale ; les nouveaux keynésiens sur les chocs de demande, mais dans un contexte de rigidités nominales ; Nicholas Bloom (2009) sur les chocs d’incertitude, etc.

Plusieurs études ont cherché à identifier quel est le modèle le plus pertinent, quelle est la nature du choc qui semble impulser le cycle d’affaires. Par exemple, Jordi Galí (1999) a constaté que les chocs technologiques semblent pousser la productivité et l’emploi dans des directions opposées, que l’emploi diminue durablement suite à un choc technologique positif et que la productivité mesurée s’accroît temporairement suite à un choc de demande positif. Selon lui, ces constats empiriques amènent à rejeter les modèles de cycles d’affaires réels, mais ils peuvent facilement être reproduits dans un modèle nouveau keynésien, caractérisé par une concurrence monopolistique et des prix visqueux. Partant de l’observation que les cycles d’affaires aux Etats-Unis au cours des trois dernières décennies ont été caractérisés par des chocs technologiques contracycliques, Beaudry et Portier (2014) pensent également que les modèles de cycles d’affaires réels ne peuvent expliquer ces cycles d’affaires. D’un autre côté, ces derniers sont également caractérisés par une inflation constante. Ce dernier constat ne colle pas avec les modèles nouveaux keynésiens où les chocs de demande négatifs se traduisent par des pressions déflationnistes et les chocs de demande positifs par des pressions inflationnistes. De leur côté, Michal Andrle, Jan Brůha et Serhat Solmaz (2013, 2016) notent en étudiant la zone euro, puis l’ensemble des pays développés, que le cycle d’affaires semble tiré par un unique facteur et que la tendance de la production réelle et de l’inflation à varier dans le même sens (à la fréquence du cycle d’affaires) amène à penser qu’il s’agit de la demande globale.

A travers un modèle autorégressif vectoriel, George-Marios Angeletos, Fabrice Collard et Harris Dellas (2018) se sont récemment penchés sur l’évolution de plusieurs variables macroéconomiques clés, en l’occurrence le chômage, le PIB, la consommation, l’investissement, le nombre total d’heures travaillées, la productivité du travail, la PGF ajustée en fonction de l’utilisation des capacités de production, la part du revenu rémunérant le travail, l’inflation et le taux des fonds fédéraux. Ils ont cherché à identifier le choc qui contribue le plus à la volatilité de ces variables aux fréquences du cycle d’affaires. Une fois ce choc identifié, ils se sont appuyés sur ses propriétés empiriques pour évaluer la pertinence de plusieurs modèles.

Il apparaît que le choc qui explique l’essentiel du cycle d’affaires explique peu la variation à long terme de la production, de l’investissement, de la consommation et de la productivité du travail. Symétriquement, le choc qui explique l’essentiel de la volatilité à long terme d’une quelconque de ces variables contribue de façon négligeable au cycle d’affaires. Ce constat fait écho à ceux obtenus par Olivier Blanchard et Danny Quah (1989) et par Jordi Galí (1999), suggérant que le choc derrière la productivité et la production à long terme n’explique qu’une faible part des variations du chômage et des heures travaillées au cours du cycle d’affaires. Il amène à rejeter les modèles qui, à l’instar de celui de Paul Beaudry et Franck Portier (2006), expliquent les fluctuations de l’activité par les nouvelles quant à la croissance de la productivité à moyen ou long terme. Angeletos et ses coauteurs estiment plutôt que leur analyse est cohérente avec l’idée que le cycle d’affaires est impulsé par les changements dans les croyances des agents qui ne concernent pas la productivité et qui découlent des nouvelles quant aux perspectives économiques à court terme.

En outre, le choc qui explique l’essentiel du cycle d’affaires est déconnecté des variations de la PGF à chaque fréquence. Un tel constat amène à rejeter le modèle de base des cycles d’affaires réels à la Kydland et Prescott (1982), où les cycles d’affaires sont impulsés par des chocs technologiques, aussi bien que ses variantes qui introduisent d’autres chocs (notamment des chocs financiers et des chocs d’incertitude) pour expliquer les fluctuations de la PGF. Ce constat ne colle pas non plus avec les modèles nouveaux keynésiens, comme celui de Guido Lorenzoni (2009), qui expliquent les fluctuations de la demande globale par les révisions des anticipations des agents quant à l’évolution future de la productivité. 

La modélisation d’Angeletos et alii amène également à rejeter le modèle nouveau keynésien de base. En effet, selon ce dernier, les chocs de demande amènent la production à s’écarter de son potentiel et ces écarts influenceraient l’inflation. Or, le principal choc du cycle d’affaires est presque orthogonal à l’inflation à chaque fréquence. En effet, le principal choc qui explique l’essentiel de la variation du chômage n’explique qu’une faible part de la variation de l’inflation ; symétriquement, le choc qui explique l’essentiel de la variation de l’inflation n’explique qu’une faible part de la variation du chômage. Il y a également une déconnexion entre l’inflation et la part du revenu rémunérant le travail, qui est habituellement utilisée comme indicateur du coût marginal réel auquel les nouveaux keynésiens prêtent un rôle crucial dans leurs modèles. 

Bref, les données empiriques semblent ne pas coller avec les théories qui donnent un rôle proéminent aux fluctuations de la PGF, aux nouvelles à propos de la productivité à moyen ou long terme ou encore aux chocs de demande tels que les conçoivent les nouveaux keynésiens. Elles semblent plutôt accréditer les théories qui donnent le premier rôle aux fluctuations tirées par la demande, mais sans faire intervenir rigidités nominales, ni de courbes de Phillips. Au final, Angeletos et ses coauteurs notent que même le modèle DSGE le plus efficace ne contient pas le mécanisme de propagation dessiné par les constats empiriques. Toutefois, plusieurs modèles récents sont selon eux assez prometteurs : Angeletos et La’O (2013), Bai et alii (2017), Beaudry et alii (2018), Beaudry et Portier (2018), Benhabib et alii (2015) ou encore Ilut et Schneider (2014) ont précisément cherché à faire émerger des fluctuations tirées par la demande sans introduire de rigidités nominales ou de courbe de Phillips dans leur modélisation.

 

Références

ANDRLE, Michal, Jan BRŮHA & Serhat SOLMAZ (2013), « Inflation and output comovement in the euro area: Love at second sight? », FMI, working paper, n° 13/192.

ANDRLE, Michal, Jan BRŮHA & Serhat SOLMAZ (2016), « Output and inflation co-movement: An update on business-cycle stylized facts », FMI, working paper, n° 16/241.

ANGELETOS, George-Marios, Fabrice COLLARD & Harris DELLAS (2018), « Business cycle anatomy », NBER, working paper, n° 24875.

ANGELETOS, George-Marios, & Jennifer LA’O (2013), « Sentiments », in Econometrica, vol. 81, n° 2.

BAI, Yan, José-Vıctor RÍOS-RULL & Kjetil STORESLETTEN (2017), « Demand shocks as productivity shocks ».

BEAUDRY Paul, Dana GALIZIA & Franck PORTIER (2014), « Reconciling Hayek's and Keynes' views of recessions », NBER, working paper, n° 20101.

BEAUDRY, Paul, & Franck PORTIER (2006), « Stock prices, news, and economic fluctuations », in American Economic Review, vol. 96, n° 4.

BEAUDRY, Paul, & Franck PORTIER (2014), « Understanding noninflationary demand-driven business cycles », in NBER Macroeconomics Annual, vol. 28, n° 1.

BEAUDRY, Paul, & Franck PORTIER (2018), « Real Keynesian models and sticky prices », NBER, working paper, n° 24223.

BENHABIB, Jess, Pengfei WANG & Yi WEN (2015), « Sentiments and aggregate demand fluctuations », in Econometrica, vol. 83, n° 2.

BLANCHARD, Olivier J., & Danny QUAH (1989), « The dynamic effects of aggregate demand and supply disturbances », in American Economic Review, vol. 79, n° 4.

BLOOM, Nicholas (2009), « The impact of uncertainty shocks », in Econometrica, vol. 77, n° 3.

GALÍ, Jordi (1999), « Technology, employment, and the business cycle: Do technology shocks explain aggregate fluctuations? », in American Economic Review, vol. 89, n° 1.

ILUT, Cosmin, & Martin SCHNEIDER (2014), « Ambiguous business cycles », in American Economic Review, vol. 104, n° 8.

KYDLAND, Finn E., & Edward C. PRESCOTT (1982), « Time to build and aggregate fluctuations », in Econometrica, vol. 50, n° 6.

LORENZONI, Guido (2009), « A theory of demand shocks », in American Economic Review, vol. 99, n° 5.

Partager cet article
Repost0
29 juillet 2018 7 29 /07 /juillet /2018 22:44
Modèles DSGE : quels développements depuis la crise ?

Les années quatre-vingt-dix ont été marquées par une convergence entre, d’un côté, la littérature issue de la théorie des cycles d’affaires réels (real business cycles) et, d’autre part, les travaux des nouveaux keynésiens, au point que certains ont pu y voir l’apparition d’une « nouvelle synthèse néoclassique » [Goodfriend et King, 1997]. Cette convergence s’est notamment manifestée à travers le développement de modèles dynamiques stochastiques d’équilibre général (dits modèles DSGE). En effet, ces derniers contiennent des ingrédients propres à la théorie des cycles d’affaires réels : ils supposent une information transparente et se focalisent sur le comportement d’un agent représentatif, caractérisé par un comportement optimisateur, une durée de vie infinie et des anticipations rationnelles. Les modèles de la nouvelle synthèse intègrent en outre des éléments issus de la littérature nouvelle keynésienne : ils incorporent des variables nominales ; ils adoptent un cadre de concurrence imparfaite où les entreprises jouissent d’un pouvoir de marché et ont ainsi une certaine latitude pour fixer leurs prix ; ils introduisent des rigidités nominales, notamment en adoptant la règle de Calvo (1993), selon laquelle, durant chaque période, seule une fraction des entreprises sont à même de modifier leurs prix.

Si les modèles de cycle d'affaires réels constituent la première génération de modèles DSGE à proprement parler, les modèles de la deuxième génération, ceux qui se sont développés à partir des années quatre-vingt-dix, sont qualifiés de « nouveaux keynésiens ». Dans leur version de base, ces derniers reposent typiquement sur trois relations clés. Premièrement, ils intègrent une équation (rappelant la relation IS, mais dynamique) faisant dépendre l’écart de production (output gap) actuel avec, d’une part, l’écart de production anticipé et, d’autre part, l’écart entre le taux d’intérêt réel et le taux d’intérêt naturel. Deuxièmement, ils intègrent ce que l’on qualifie de « courbe de Phillips nouvelle keynésienne » qui fait dépendre l’inflation courante, d’une part, de l’inflation anticipée et, d’autre part, de l’écart de production. Troisièmement, ils incluent une règle de taux d’intérêt, souvent une règle de Taylor (1993), qui décrit comment est fixé le taux d’intérêt nominal, en fonction du taux d’inflation courant et de l’écart de production. Avec ces trois relations, la politique monétaire n’est pas neutre. En effet, comme les prix sont visqueux à court terme, un resserrement de la politique monétaire se traduit par une hausse des taux d’intérêt nominaux et réels. Comme seule une fraction des entreprises peut baisser ses prix, les autres réagissent en réduisant leur production, ce qui se traduit au niveau agrégé par une baisse de la production et un ralentissement de l’inflation. Ainsi, ce type de modèles est qualifié de « nouveau keynésien » précisément parce que la politique monétaire y présente des effets réels et non plus seulement nominaux. Cette étiquette est toutefois quelque peu trompeuse : le résultat correspond davantage à l’optique friedmanienne qu’à celle keynésienne.

Les modèles DSGE se sont très rapidement répandus. Lorsque la crise financière mondiale a éclaté, ils étaient assez largement utilisés dans le monde universitaire et au sein des banques centrales, notamment pour analyser les fluctuations de l’activité et l’inflation ou encore pour évaluer et prévoir l’impact des politiques conjoncturelles sur celles-ci. Ils ont fait l'objet de nombreuses critiques dans le sillage de la crise, dans la mesure où ils n’ont pas permis à leurs concepteurs de prévoir cette dernière [Blanchard, 2017 ; Stiglitz, 2017]. L’échec des modèles DSGE à anticiper cet événement s’explique par leur tendance à ignorer la sphère financière et par l’irréalisme de certaines de leurs hypothèses, notamment celles des anticipations rationnelles, de l’information parfaite et de l’agent représentatif. La crise n’a toutefois pas conduit à l’abandon des modèles DSGE : leurs concepteurs ont réagi en étendant leurs modèles, par exemple en y intégrant davantage de « frictions financières », et en modifiant leurs hypothèses de base. Ce sont ces récents développements que trois analyses ont passés en revue : Lawrence Christiano, Martin Eichenbaum et Mathias Trabandt (2018) se sont penchés sur l’ensemble des modèles DSGE ; Jordi Galí (2018) s’est focalisé sur leurs variantes « nouvelles keynésiennes » ; enfin, Mark Gertler et Simon Gilchrist (2018) ont montré comment ils ont cherché à mieux prendre en compte la sphère financière.

Avant la crise financière mondiale, les modèles nouveaux keynésiens avaient tendance à ignorer la contrainte qu’exerce la borne inférieure zéro (zero lower bound) sur la politique monétaire : cette dernière semblait ainsi capable de contrer n’importe quel choc de demande, ce qui confirmait aux yeux de certains que la politique budgétaire n’avait pas à être utilisée pour stabiliser l’activité. Or, lors de la Grande Récession, les banques centrales ont fortement réduit leurs taux directeurs sans pour autant ramener rapidement l’économie au plein emploi. Cela suggérait pour certains que le choc avait été si puissant que le taux d’intérêt naturel avait été poussé en territoire négatif. Or, la borne inférieure empêchant les banques centrales de ramener les taux à leur niveau naturel, la politique monétaire se retrouvait alors incapable de clore l’écart de production. Dans une telle situation de trappe à liquidité, l’écart de production constitue une source persistante de déflation, or les pressions déflationnistes accroissent le taux d’intérêt réel, ce qui éloigne davantage la production de son niveau potentiel et l’économie du plein emploi, aggravant la récession initiale. L’expérience du Japon lors des années quatre-vingt-dix avec ce qui s’apparentait à une trappe à liquidité avait toutefois amené plusieurs nouveaux keynésiens, notamment Gauti Eggertsson et Michael Woodford (2003), à prendre en compte la borne inférieure zéro et à en déduire la politique optimale. La Grande Récession a donné un nouvel essor à ce type de travaux.

Les travaux sur la borne inférieure zéro ont notamment conduit à réévaluer le rôle de la politique budgétaire. Lors d’une récession, une relance budgétaire risque d’être peu efficace si la banque centrale resserre parallèlement sa politique monétaire pour en compenser les éventuels effets inflationnistes, mais si le taux bute sur sa borne inférieure et, par conséquent, si la politique monétaire est excessivement restrictive (c’est-à-dire insuffisamment expansionniste pour ramener l’économie au plein emploi), alors la banque centrale ne relèvera pas son taux directeur face à la relance budgétaire. Par exemple, Gauti Eggertsson (2011) a montré que lorsqu’un choc de demande négatif pousse le taux d’intérêt naturel en territoire négatif, une hausse des dépenses publiques stimule l’activité, tandis qu’une baisse des impôts sur les revenus du travail ou du capital tend au contraire à nuire à celle-ci ; en effet, une baisse des impôts, tout comme d’autres politiques d’offre, alimente les pressions déflationnistes, ce qui pousse le taux d’intérêt réel à la hausse et déprime davantage la demande. Christiano et alii (2011) ont quant à eux cherché à déterminer la taille du multiplicateur des dépenses publiques en fonction de la borne inférieure zéro. Leur modèle DSGE suggère que le multiplicateur est d’autant plus élevé que les agents s’attendent à ce que la borne inférieure contraindra longuement la politique monétaire.

Les modèles DSGE se focalisent habituellement sur un agent représentatif immortel, censé mimer le comportement de l’ensemble des agents économiques. Une telle hypothèse est bien problématique : elle ne permet pas de concevoir la coexistence d’emprunteurs et de prêteurs, de prendre en compte l’impact des inégalités… ce qui les empêche d’expliquer l’accumulation des déséquilibres qui ont donné lieu à la crise financière et les conséquences de celle-ci. Leurs récentes versions ont commencé à tenir compte de l’hétérogénéité des agents. Les récents modèles DSGE, en l’occurrence ceux estampillés « modèles HANK » ont davantage pris en compte l’hétérogénéité des agents. Ils ont notamment supposé, d’une part, que les agents essuyaient des chocs idiosyncratiques et, d’autre part, qu’ils faisaient face à une limite en termes d’emprunt, si bien qu’ils ne peuvent pleinement s’assurer contre les chocs idiosyncratiques. Par conséquent, les agents ont beau être identiques avant que le choc se produise, ils peuvent présenter différentes propensions à consommer après celui-ci. Ainsi, en fonction de l’impact du choc sur la répartition des revenus et des richesses, les effets de ce choc sur l’activité peuvent aussi bien être amplifiés qu’atténués. Par exemple, la prise en compte de l’hétérogénéité des agents a permis à Adrien Auclert (2017) et à Kaplan et alii (2018) de mieux identifier les canaux via lesquels la politique monétaire se transmet à l’activité. En partant de l’hypothèse qu’une partie des ménages étaient susceptibles d’être contraints en termes de liquidité, Galí et alii (2007) ont de leur côté montré que de telles contraintes amplifiaient l’impact des dépenses publiques sur le PIB.

Pour Galí (2018), l’hypothèse de l’agent représentatif à durée de vie infinie pose deux autres problèmes. D’une part, elle implique un lien étroit entre taux d’intérêt réel et taux d’escompte temporel du consommateur le long d’une trajectoire de croissance équilibrée, or une telle relation ne permet pas de rendre compte de la possibilité d’un taux d’intérêt naturel durablement négatif. D’autre part, cette hypothèse ne permet pas non plus de rendre compte de la possibilité de bulles rationnelles à l’équilibre. Par conséquent, plusieurs nouveaux keynésiens ont cherché à développé des modèles à générations imbriquées qui comportent des rigidités nominales. C’est par exemple le cas d’Eggertsson et alii (2017), qui ont cherché à comprendre pourquoi le taux d’intérêt naturel a baissé dans l’économie américaine et à en déterminer les implications pour l’orientation de la politique monétaire. Dans deux modèles à générations imbriquées avec concurrence monopolistique et prix visqueux, Galí (2014, 2017) a de son côté montré que les bulles peuvent émerger comme équilibres ; ces deux modélisations suggèrent qu’il est plus efficace que les banques centrales se content de chercher à stabiliser la seule inflation plutôt qu’à chercher également à contrer le gonflement de bulles spéculatives. 

Malgré ces diverses avancées, Galí (2018) estime que les modèles DSGE ne parviennent toujours pas à saisir l’un des aspects cruciaux derrière les crises financières, en l’occurrence l’accumulation progressive de déséquilibres finissant par se dénouer avec une multiplication des défauts de paiement, une fuite des capitaux et un effondrement des prix d’actifs, puis par entraîner une chute de la demande, de la production et de l’emploi. Tout comme leurs prédécesseurs et notamment le modèle d’accélérateur financier de Bernanke et alii (1999), les récents modèles rendent compte de fluctuations stationnaires impulsées par des chocs exogènes : généralement, ils se contentent d’introduire des frictions financières qui amplifient les effets de chocs générés en dehors de la sphère financière. Autrement dit, les modèles DSGE n’expliquent la crise financière que comme résultant d’un choc exogène surprenant les agents. Leurs plus récentes variantes n’ont pas réussi à faire émerger de façon endogène les crises financières.

 

Références

AUCLERT, Adrien (2017), « Monetary policy and the redistribution channel », NBER, working paper, n° 23451.

BERNANKE, Ben S., Mark GERTLER & Simon GILCHRIST (1999), « The financial accelerator in a quantitative business cycle framework », in John B. Taylor & Michael Woodford (dir.), Handbook of Macroeconomics, vol. 1C, Elsevier.

BLANCHARD, Olivier (2017), « Sur les modèles macroéconomiques », in Revue de l’OFCE, n° 153.

CALVO, Guillermo (1983), « Staggered prices in a utility maximizing framework », in Journal of Monetary Economics, vol. 12.

CHRISTIANO, Lawrence, Martin EICHENBAUM & Sergio REBELO (2011), « When is the government spending multiplier large? », in Journal of Political Economy, vol. 119, n° 1.

CHRISTIANO, Lawrence J., Martin S. EICHENBAUM & Mathias TRABANDT (2018), « On DSGE models », NBER, working paper, n° 24811, juillet.

EGGERTSSON, Gauti (2011), « What fiscal policy is effective at zero interest rates? », in NBER Macroeconomics Annual, vol. 2010.

EGGERTSSON, Gauti, Neil MEHROTA & Jacob ROBBINS (2017), « A model of secular stagnation: Theory and quantitative evaluation », NBER, working paper, n° 23093.

EGGERTSSON, Gauti, & Michael WOODFORD (2003), « The zero bound on interest rates and optimal monetary policy », in Brookings Papers on Economic Activity, vol. 2003, n° 1.

GALÍ, Jordi (2014), « Monetary policy and rational asset price bubbles », in American Economic Review, vol. 104, n° 3.

GALÍ, Jordi (2017), « Monetary policy and bubbles in a new Keynesian model with overlapping generations », CREI, working paper,

GALÍ, Jordi (2018), « The state of new Keynesian economics: A partial assessment », NBER, working paper, n° 24845, juillet.

GALÍ, Jordi , J David LÓPEZ-SALIDO & Javier VALLÉS (2007), « Understanding the effects of government spending on consumption », in Journal of the European Economic Association, vol. 5, n° 1.

GERTLER, Mark, & Simon GILCHRIST (2018), « What happened: Financial factors in the Great Recession », NBER, working paper, n° 24746.

GOODFRIEND, Marvin, & Robert G. KING (1997), « The new neoclassical synthesis and the role of monetary policy », in NBER Macroeconomics Annual 1997, vol. 12.

KAPLAN, Greg, Benjamin MOLL & Giovanni L. VIOLANTE (2018), « Monetary policy according to HANK », in American Economic Review, vol. 108, n° 3.

STIGLITZ, Joseph E. (2017), « Where modern macroeconomics went wrong », NBER, working paper, n° 23795.

TAYLOR, John B. (1993), « Discretion versus policy rules in practice », Carnegie-Rochester Series on Public Policy, vol. 39.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher