Overblog
Suivre ce blog Administration + Créer mon blog
7 juillet 2017 5 07 /07 /juillet /2017 17:35
Comment la transmission de la politique monétaire américaine a changé au cours du temps

Depuis longtemps, la littérature autour de la politique s’est focalisée sur l’arbitrage entre, d’un côté, la stabilisation de l’emploi et de l’activité et, de l’autre, la stabilisation des prix. Selon la courbe de Phillips, mise en évidence au cours des années soixante, les autorités monétaires seraient à même d’arbitrer entre chômage et inflation. Autrement dit, il leur serait possible de réduire le taux de chômage en laissant s’accroître le l’inflation. Les événements des années soixante-dix remirent en cause un tel arbitrage : le chômage de masse coexistait alors simultanément avec une inflation à deux chiffres. Autrement dit, les tentatives des autorités monétaires visant à réduire le chômage semblaient se traduire par une accélération continue de l’inflation. Bref, s’il existait une courbe de Phillips, elle semblait en définitive instable. De nouveaux travaux théoriques, notamment ceux développés par les monétaristes et les nouveaux classiques, suggérèrent que les autorités monétaires ne pouvaient durablement affecter les variables réelles de l’économie, si bien qu’elles devraient se contenter de chercher à stabiliser les prix et, pour cela, ne pas hésiter à provoquer une récession pour montrer leur détermination à lutter contre l’inflation, gagner en crédibilité et ainsi ancrer les anticipations d’inflation à un faible niveau. Des deux côtés de l’Atlantique, il fallut un fort resserrement monétaire et une sévère récession dans les années quatre-vingt pour mettre un terme à la Grande Inflation. Selon l’hypothèse de la « divine coïncidence » avancée par certains nouveaux keynésiens comme Olivier Blanchard, la stabilisation même des prix pourrait même assurer la stabilité macroéconomique. La crise financière mondiale, qui provoqua la plus forte chute de la production depuis la Seconde Guerre mondiale, dans un contexte d’inflation basse et stable, remit en cause l’idée de divine coïncidence. Par contre, le fait que l’inflation soit faible et stable depuis les années quatre-vingt-dix et qu’elle le soit restée durant la Grande Récession malgré son extrême violence suggère à certains que la courbe de Phillips n’est pas morte, mais fortement aplatie [FMI, 2013]. Si c’est effectivement le cas, alors les autorités monétaires auraient peut-être une plus grande marge de manœuvre pour stimuler l’activité sans qu’il y ait un dérapage de l’inflation.

Plus récemment, la littérature s’est davantage penchée sur le possible arbitrage entre la stabilité macroéconomique et la stabilité financière. Pour certains, l’assouplissement de la politique monétaire lors des récessions contribuerait à alimenter les bulles spéculatives, c’est-à-dire nourrirait les futures crises financières ; par exemple, au milieu des années deux mille, la Réserve fédérale aurait alimenté la bulle immobilière qui mena à la crise financière mondiale en gardant ses taux directeurs « trop longtemps trop bas ». Certains, notamment des économistes de la Banque des Règlements Internationaux, appellent alors les banques centrales à adopter explicitement un objectif de stabilité financière et à ne pas hésiter à resserrer leur politique monétaire davantage que ne l’impliquent les seules conditions macroéconomiques lorsqu’une bulle se forme : la croissance s’en trouverait peut-être freinée à court terme, mais serait moins volatile et plus forte à moyen et long terme. D’autres, comme Lars Svensson (2016), considèrent toutefois que les coûts d’une telle politique « allant à contre-courant » (leaning against the wind) excèderaient ses bénéfices. 

Depuis les années soixante-dix, l’économie et le système financier des Etats-Unis ont connu des bouleversements tellement importants qu’ils sont susceptibles de modifier la transmission de la politique monétaire et ainsi les arbitrages auxquels la Fed fait face. Alors qu’elle atteignait les deux chiffres à la fin des années soixante-dix, l’inflation a fortement chuté depuis, notamment en raison de tendances structurelles comme la mondialisation et l’intégration commerciale des pays émergents à faibles coûts ; cette désinflation a pu réduire les répercussions des chocs macroéconomiques, mieux ancrer les anticipations d’inflation et réduire les effets de second tour associés aux salaires. En outre, la libéralisation et l’innovation financières se sont poursuivies ces dernières décennies à un rythme rapide. Le crédit immobilier s’est développé et l’endettement des ménages s’est accru, ce qui a pu renforcer les effets de la politique monétaire sur les marchés de l’immobilier et du crédit hypothécaire via les canaux du taux d’intérêt et du bilan. En outre, des institutions autres que les banques jouent un rôle de plus en plus important dans l’intermédiation financière, notamment avec la titrisation et le développement d’un véritable système bancaire parallèle, si bien que le canal de la prise de risque a pu se renforcer, liant davantage l’offre de crédit aux fluctuations de l’appétit des investisseurs financiers face au risque.

Plusieurs études ont suggéré que la politique monétaire affecte de moins en moins la production et les prix depuis les années quatre-vingt. Par exemple, Jean Boivin et Marc Giannoni (2006) ont noté que les chocs de la politique monétaire américaine ont moins d’effets. Ils estiment que la politique monétaire de la Fed a stabilisé plus efficacement l’économie américaine depuis les années quatre-vingt en répondant plus fortement aux anticipations d’inflation. La récente orientation de la politique monétaire américaine stabilise l’inflation plus efficacement en réponse aux chocs d’offre et de demande et elle stabilise davantage la production face aux chocs de demande ; par contre, depuis les années quatre-vingt, la politique monétaire américaine semble davantage exacerber les fluctuations de la production face aux chocs d’offre. Michael Belongia et Peter Ireland (2016) estiment que les chocs de politique monétaire affectent la production et les prix avec un délai qui s’est fortement allongé depuis les années quatre-vingt.

Boris Hofmann et Gert Peersman (2017) ont étudié l’évolution des arbitrages auxquels la Fed fait face depuis la Seconde Guerre mondiale en comparant la transmission de sa politique monétaire au cours de la période 1955-1979 avec sa transmission au cours de la période 1984-2008. Leur analyse suggère que les effets de la politique monétaire sur le niveau des prix se sont affaiblis relativement à ses effets sur le PIB réel, ce qui reflète un aplatissement de la courbe de Phillips. Une stabilisation des prix via la politique monétaire est donc devenue plus coûteuse en termes de volatilité de production réelle. Depuis les années quatre-vingt, la perte en termes de PIB réel qu’entraîne une baisse du niveau des prix via un resserrement de la politique monétaire a doublé.

En outre, Hofmann et Peersman constatent que les effets de la politique monétaire sur le crédit et les prix de l’immobilier relativement à ses effets sur la macroéconomie se sont renforcés. En effet, une expansion de la politique monétaire qui accroissait le PIB réel de 1 % avant les années quatre-vingt entraînait une hausse de 0,1 % des prix de l’immobilier et une hausse de 0,9 % du crédit ; après 1984, cette même expansion monétaire entrainait une hausse de 3,8 % des prix de l’immobilier et une hausse de 2,3 % du crédit. La stabilisation macroéconomique via la politique monétaire est donc associée à de plus amples fluctuations du crédit et des prix de l’immobilier, tandis que la stabilisation du crédit et des prix de l’immobilier est devenue moins coûteuse en termes de volatilité macroéconomique. Le plus fort impact de la politique monétaire sur le crédit s’explique par la plus grande sensibilité du crédit immobilier et par l’accroissement de la part du crédit immobilier dans l’ensemble des prêts depuis les années quatre-vingt. Au cours des dernières années, la politique monétaire américaine a principalement affecté les prêts accordés aux ménages et aux entreprises individuelles, dans la mesure où ceux-ci dépendent fortement du crédit immobilier. Autrement dit, l’impact de la politique monétaire sur la dette des sociétés s’est affaibli, notamment parce que celles-ci sont mieux à même à lisser les chocs monétaires en émettant des titres de dette.

Alors que les études antérieures concluaient à un affaiblissement des effets sur les prix et la production depuis les années quatre-vingt, Hofmann et Peersman estiment que seul l’impact de la politique monétaire sur les prix s’est affaibli au cours du temps, non la réaction de la production réelle. En effet, les études antérieures ignoraient les prix de l’immobilier et le crédit, or c’est précisément leur interaction qui s’avère de plus en plus cruciale dans la transmission de la politique monétaire américaine.

 

Références

BELONGIA, Michael T., & Peter N. IRELAND (2016), « Money and output: Friedman and Schwartz revisited », in Journal of Money, Credit and Banking, vol. 48, n° 6.

BOIVIN, Jean, & Marc P. GIANNONI (2006), « Has monetary policy become more effective? », in The Review of Economics and Statistics, vol. 88, n° 3.

BOIVIN, Jean, Michael T. KILEY & Frederic S. MISHKIN (2011), « How has the monetary transmission mechanism evolved over time? », in B. Friedman & M. Woodford (dir.), Handbook of Monetary Economics, vol. 3A.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping? », in World Economic Outlook: Hopes, Realities, Risks, chapitre 3, avril.

HOFMANN, Boris, & Gert PEERSMAN (2017), « Monetary policy transmission and trade-offs in the United States: Old and new », BRI, working paper, juin.

SVENSSON, Lars E.O. (2016), « Cost-benefit analysis of leaning against the wind: are costs larger also with less effective macroprudential policy? », FMI, working paper, n° 16/3.

Partager cet article
Repost0
28 mai 2017 7 28 /05 /mai /2017 14:30
Bernanke au chevet de la Banque du Japon

Depuis le début des années quatre-vingt-dix, dans le sillage de l’éclatement d’une bulle immobilière et d’une bulle boursière, le Japon connaît une stagnation de l’activité et des périodes de très faible inflation, voire de déflation. Il y a une vingtaine d’années, plusieurs économistes, notamment Ben Bernanke (2000) et Paul Krugman (1998), notaient que l’économie insulaire semblait piégée dans une véritable trappe à liquidité : s’il existe un taux d’intérêt « d’équilibre », qui égalise demande globale et production potentielle, alors celui-ci semblait alors négatif. Par conséquent, la banque centrale japonaise a beau avoir ramené ses taux directeurs à zéro, les taux d’intérêt restent supérieurs à leur niveau d’équilibre, si bien que cet assouplissement monétaire ne suffit pas pour stimuler l’inflation et la croissance.

Bernanke notait également que la Banque du Japon est en partie responsable de cette situation. La banque centrale n’a pas immédiatement resserré sa politique monétaire à la fin des années quatre-vingt, lorsque les tensions inflationnistes s’accroissaient et que les bulles spéculatives gonflaient ; un resserrement monétaire aurait réduit l’ampleur de ces dernières, donc la sévérité de la crise subséquente. Ensuite, une fois le krach amorcé, la Banque du Japon n’a pas immédiatement, ni fortement, assoupli sa politique monétaire. Ce n’est en fait qu’à la fin des années quatre-vingt-dix, lorsque le Japon semblait vraiment condamné à la déflation, que la banque centrale commença à adopter des mesures agressives et à ramener effectivement son principal taux directeur à zéro.

Bernanke et Krugman considéraient (et considèrent toujours) que la Banque du Japon n’est pas totalement désarmée face à une trappe à liquidité : une banque centrale confrontée à une telle décision peut certes difficilement réduire davantage les taux d’intérêt nominaux, mais elle peut chercher à réduire les taux d’intérêt réels en amenant les agents à réviser à la hausse leurs anticipations d’inflation. Comme l’ont théorisé Michael Woodford et Gauti Eggertsson (2003) et Lars Svensson (2003) quelques années plus tard, elle peut y parvenir en convainquant les agents qu’elle continuera de maintenir une politique monétaire accommodante plus longtemps que nécessaire une fois l’économie sortie de la trappe à liquidité, autrement dit en promettant qu’elle laissera l’économie connaître un véritable boom une fois l’économie sortie de la trappe à liquidité. Si les agents anticipent alors un tel boom, ils sont alors incités à davantage dépenser et notamment à davantage investir dès à présent, ce qui contribue effectivement à ramener le taux d’intérêt d’équilibre en territoire positif et à stimuler l’activité. En outre, l’achat de titres de long terme par la banque centrale peut non seulement contribuer à réduire leurs taux d’intérêt et à accroître les prix d’actifs (donc à stimuler la consommer et l’investissement en réduisant davantage les coûts de financement et en générant des effets de richesse), mais aussi convaincre davantage le public de la détermination de la banque centrale à mettre fin à la trappe à liquidité.

Les enseignements tirés de l’expérience japonaise sont cruciaux pour l’ensemble des économies développées : ces dernières ont également basculé dans une trappe à liquidité en 2008 avec la crise financière mondiale et certaines d’entre elles semblent encore y être piégées. Si, comme le pense Larry Summers, les pays développés connaissent actuellement une stagnation séculaire, alors ils pourraient désormais se retrouver fréquemment dans une trappe à liquidité. La littérature sur le Japon et les trappes à liquidité a servi à Bernanke lui-même lorsqu’il était à la tête de la Fed : quand l’économie américaine bascula dans la Grande Récession, la Fed réduisit rapidement ses taux directeurs et, une fois ces derniers au plus proche de zéro, adopta des actions « non conventionnelles », comme les achats d’actifs à grande échelle dans le cadre de divers programmes d’assouplissement quantitatif (quantitative easing).

Quant au Japon, il fallut atteindre décembre 2012 pour voir un changement de régime de la politique économique avec l’arrivée au pouvoir de Shinzo Abe. Ce dernier a promis de raviver la croissance économique et de mettre enfin un terme à la déflation. Son programme (qui a très rapidement reçu le surnom d’« abenomics ») repose sur trois « flèches » : un assouplissement monétaire, une relance budgétaire et des réformes structurelles. En janvier 2013, la Banque du Japon annonça qu’elle suivrait désormais un nouvel objectif, celui d’atteindre une inflation de 2 %. Deux mois plus tard, Haruhiko Kuroda devint gouverneur et prit en charge le volet monétaire de l’abenomics. La Banque du Japon commença notamment à acheter des actifs à grande échelle dans le cadre de ce qu’elle a qualifié d’« assouplissement quantitatif et qualitatif ». Le bilan de la Banque du Japon a depuis fortement gonflé et atteignait l’équivalent de 88 % du PIB à la fin de l’année 2016 ; en comparaison, les bilans de la Fed et de la BCE représentaient au même instant respectivement 24 % du PIB américain et 34 % du PIB de la zone euro. La Banque du Japon a commencé à pousser ses taux en territoire négatif, sans pour autant aller aussi loin que sa consœur européenne. Plus récemment, la Banque du Japon a annoncé qu’elle ciblerait désormais le rendement des obligations publiques japonaises à 10 ans, tout d’abord autour de zéro, et qu’elle laisserait l’inflation excéder sa cible une fois qu’elle l’aurait atteinte [Bernanke, 2016].

Joshua Hausman et Johannes Wieland (2014, 2015), parmi d’autres, ont déjà fait un bilan préliminaire de l’abenomics ; Bernanke (2017) a lui-même dressé un tel bilan dans un discours prononcé il y a quelques jours à la Banque du Japon. Il rappelle que les mesures agressives d’Abe et Kuroda ont contribué à pousser les cours boursiers à la hausse, à réduire les taux d’intérêt de long terme et à alimenter la dépréciation du yen. La croissance économique s’est accélérée et atteint environ 1,1 % depuis le début de l’année 2013. Après plusieurs années de contraction, la croissance du PIB nominal a été en moyenne proche de 2,1 % au cours des quatre dernières années. L’inflation sous-jacente a augmenté, fluctuant entre 0,5 et 0,7 % entre 2013 et 2015. Pour autant, malgré ces progrès, la Banque du Japon est toujours loin de sa cible de 2 % d’inflation.

Plusieurs arguments plaideraient pour que la Banque du Japon cesse d’être aussi agressive. Par exemple, pour certains, l’économie japonaise est condamnée à connaître une faible croissance économique et des tensions déflationnistes en raison de dynamiques structurelles, associées notamment au vieillissement démographique, comme la contraction de la main-d’œuvre et le ralentissement de la croissance de la productivité ; or la banque centrale a peu de prises sur ces tendances lourdes. D’autres ne manquent pas de souligner que les récentes performances du Japon ne sont pas si catastrophiques que cela, en particulier si l’on observe les variables macroéconomiques, non pas au niveau agrégé, mais par tête. Sur certains points, le Japon réalise même de meilleures performances que d’autres économies développées : le taux de chômage est plus faible et le taux d’activité plus élevé au Japon qu’aux Etats-Unis.

Mais pour Bernanke les arguments plaidant au contraire pour que la Banque du Japon poursuive ses efforts sont encore plus robustes. Par exemple, si l’inflation et la croissance économique s’accéléraient, elle permettrait au gouvernement de réduire son énorme ratio d’endettement. Rien que le passage à une inflation de 2 % permettrait de réduire le ratio dette publique sur PIB d’environ 21 points de pourcentage. Surtout, une accélération de l’inflation et de la croissance permettrait à la Banque du Japon d’éloigner son taux directeur de zéro et ainsi de gagner en marge de manœuvre pour faire face à d’éventuels chocs récessifs.

Bernanke n’est toutefois pas aussi optimiste qu’il y a une vingtaine d’années. En effet, la Banque du Japon peut difficilement davantage assouplir sa politique monétaire. Les taux d’intérêt sont proches de zéro, non seulement à court terme, mais aussi pour le reste des échéances : l’économie japonaise semble ainsi piégée dans une « super-trappe à liquidité ». Olivier Blanchard et Adam Posen (2015) notent qu’il est plus facile de relever les anticipations d’inflation si l’inflation s’accroît initialement. Ils recommandent que le gouvernement japonais prenne avantage du cadre de négociation salariale semi-centralisé pour inciter les entreprises à davantage accroître leurs salaires, ce qui les forcerait à répercuter la hausse subséquente de leurs coûts de production sur leurs prix de vente ; le gouvernement peut directement accroître la rémunération des fonctionnaires. La hausse des salaires et l’anticipation d’une accélération de l’inflation pourraient inciter les ménages à consommer plus. Si le gouvernement parvenait par là même à obtenir une accélération de l’inflation, rien ne certifierait que celle-ci soit durable.

Pour Bernanke, tout cela plaide pour que le gouvernement s’appuie davantage sur sa politique budgétaire pour stimuler l’activité et l’inflation. Il faut avouer que, malgré les promesses d’Abe, la politique budgétaire japonaise n’a pas été pleinement accommodante ces dernières années : par exemple, le gouvernement a relevé la taxe à la consommation en avril 2014, puis à nouveau en octobre 2015, et il projette (après maints reports) de l’accroître à nouveau en octobre 2019, or de telles mesures, menées dans un contexte de stagnation, désincitent les ménages à accroître leur consommation. En fait, c’est l’ensemble de la politique budgétaire japonaise qui semble avoir été incohérente ces dernières décennies, ce qui a réduit son efficacité : Alan Auerbach et Yuriy Gorodnichenko (2014) ont noté que les divers gouvernements japonais qui se sont succédés ont souvent rapidement avorté leurs tentatives de relance budgétaire en adoptant des plans d’austérité, si bien qu’elles se sont révélées insuffisantes pour stimuler l’activité économique, mais par contre elles n’ont pas manqué de s’accompagner d’une hausse régulière de l’endettement public.

Dans la mesure où le ratio dette publique sur PIB est particulièrement élevé, une éventuelle relance budgétaire ne serait toutefois pas possible sans coordination entre autorités monétaires et budgétaires : si le gouvernement s’engage à accroître ses dépenses publiques, voire à réduire les impôts, la Banque du Japon doit parallèlement promettre d’agir autant que nécessaire pour compenser les effets de ce plan de relance sur le ratio dette publique sur PIB. Bref, il s’agit de financer monétairement un plan de relance. Si la Banque du Japon respecte son engagement à laisser l’inflation s’accroître temporairement au-delà de sa cible une fois cette dernière atteinte, il est peu probable qu’elle resserre rapidement sa politique monétaire dans le cas où la relance budgétaire parvenait effectivement à stimuler l’inflation. Le fait même que la Banque du Japon possède déjà un important volume de titres publics japonais et qu’elle cible désormais le rendement de ces derniers (du moins pour les titres à 10 ans) suggère qu’elle est prête à facilité la tâche des autorités budgétaires.

 

Références

AUERBACH, Alan J, & Yuriy GORODNICHENKO (2014), « Fiscal multipliers in Japan », NBER, working paper, n° 19911.

BERNANKE, Ben S. (2000), « Japanese monetary policy: A case of self-induced paralysis? », in Ryoichi Mikitani & Adam Posen (dir.), Japan’s Financial Crisis and Its Parallels to U.S. Experience.

BERNANKE, Ben (2016), « The latest from the Bank of Japan », 21 septembre. Traduction française, « A propos des dernières annonces de la Banque du Japon », in Annotations (blog).

BERNANKE, Ben S. (2017), « Some reflections on Japanese monetary policy », discours prononcé à la Banque du Japon le 24 mai.

BLANCHARD, Olivier, & Adam POSEN (2015), « Getting serious about wage inflation in Japan », in Nikkei Asian Review.

EGGERTSSON, Gauti B., & Michael WOODFORD (2003), « The zero interest-rate bound and optimal monetary policy », in Brookings Papers on Economic Activity.

HAUSMAN, Joshua K., & Johannes F. WIELAND (2014), « Abenomics: Preliminary analysis and outlook », Brookings Papers on Economic Activity.

HAUSMAN, Joshua K., & Johannes F. WIELAND (2015), « Abenomics: An Update », Brookings Papers on Economic Activity.

KRUGMAN, Paul (1998), « It’s Baaack: Japan’s slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, vol. 19, n° 2.

SVENSSON, Lars E. O. (2003), « Escaping from a liquidity trap and deflation: The foolproof way and others », in Journal of Economic Perspectives, vol. 17, n° 4, 145-66.

Partager cet article
Repost0
18 mai 2017 4 18 /05 /mai /2017 21:16
La politique monétaire est-elle moins efficace lorsque les taux d’intérêt sont durablement faibles ?

Depuis huit ans, les taux d’intérêt sont extrêmement faibles dans les pays développés. En moyenne, les taux d’intérêt nominaux de court terme sont proches de zéro depuis début 2009 et ils sont même négatifs dans la zone euro (depuis 2014) et au Japon (depuis 2016). Les taux d’intérêt réels de court terme, c’est-à-dire ajustés à l’inflation, sont en territoire négatif. Les taux d’intérêt de long terme ont également été poussés à la baisse : en termes nominaux, ils sont passés en moyenne de 3-4 % en 2009 à moins de 1 % en 2016 ; en termes réels, ils sont pour l’essentiel négatifs depuis 2012. En conséquence, un encours de titres publics de plus en plus important s’échange à des taux négatifs.

GRAPHIQUE  Taux d’intérêt nominaux et réels dans les principaux pays développés (en %)

La politique monétaire est-elle moins efficace lorsque les taux d’intérêt sont durablement faibles ?

source : Borio et Hofmann (2017)

Une telle situation est inédite, du moins selon les données disponibles depuis 1870. Les taux d’intérêt nominaux n’avaient même pas été aussi faibles aussi longtemps suite à la Grande Dépression des années trente. Il y a eu des périodes, notamment lors des années soixante-dix, où un niveau élevé d’inflation poussait les taux d’intérêt réels à des niveaux encore plus faibles que l’on observe aujourd’hui, mais ces périodes étaient plus courtes que celle qui début avec la crise financière mondiale.

Cette faiblesse persistante des taux d’intérêt reflète les mesures particulièrement accommodantes que les banques centrales ont adoptées suite à la crise afin de contenir les turbulences financières et d’amortir l’impact de celles-ci sur l’activité réelle. Elles ont rapidement ramené leurs taux directeurs au plus proches de zéro et adopté ensuite des mesures moins conventionnelles, comme des achats d’actifs à grande échelle dans le cadre de programmes d’assouplissement quantitatif (quantitative easing) ou encore poussé leurs propres taux directeurs en territoire négatif. Pour autant, la reprise a été lente (tellement lente que les niveaux de vie n’ont toujours pas dépassés leur niveau d’avant-crise dans de nombreux pays) et les taux d’inflation restent en-deçà de leur cible (fixée en l’occurrence autour de 2 % d’inflation).

Ainsi, beaucoup d’économistes et plusieurs anciens banquiers centraux (notamment Ben Bernanke) estiment non seulement que les mesures non conventionnelles sont moins efficaces que les baisses de taux d’intérêt, mais aussi que ces dernières sont d’autant moins efficaces que les taux sont faibles. Bref, il pourrait y avoir une « efficacité décroissante de la politique monétaire » [Panizza et Wyplosz, 2016].

Claudio Borio et Boris Hofmann (2017) ont alors analysé l’efficacité de la politique monétaire dans un contexte de taux d’intérêt durablement faibles. En passant en revue les différentes raisons amenant à penser que la politique monétaire devient de moins en moins efficace à mesure que les taux d’intérêt diminuent, ils classent celles-ci en deux catégories : d’une part, les « vents contraires » induits par le contexte économique ; d’autre part, les non-linéarités inhérentes associées au niveau des taux d’intérêt. 

Tout d’abord, les taux d’intérêt risquent d’être durablement faibles dans le sillage d’une récession de bilan, c’est-à-dire lorsque la récession éclate dans un contexte de fort endettement du secteur privé. Le ralentissement de l’activité, la chute des prix d’actifs, la perte d’accès au crédit et l’éventuelle apparition d’une déflation contraignent les emprunteurs à se désendetter rapidement, notamment parce qu’ils voient le poids réel de leur dette augmenter. Or, ce désendettement contraint les entreprises et les ménages à resserrer leurs dépenses, ce qui dégrade davantage la demande globale et l’excès d’épargne qui en résulte pousse davantage les taux d’intérêt à la baisse. Dans ce contexte, il est peu probable qu’une baisse des taux d’intérêt incite les entreprises et les ménages à accroître leurs dépenses. De plus, une crise violente entraîne une forte hausse de l’incertitude, tandis que l’aversion au risque s’accroît brutalement, si bien qu’un assouplissement des conditions monétaires incite encore moins les ménages et les entreprises à s’endetter pour financer des projets de long terme ; au contraire, ils risquent plutôt de chercher à accroître leur épargne de précaution. Ensuite, lorsque le secteur bancaire est en difficulté, la baisse même des taux directeurs se répercute plus difficilement aux taux d’intérêt des banques commerciales. Enfin, si la récession a été précédée par un boom financier, ce dernier a certainement conduit à une mauvaise allocation des capitaux, au profit des investissements dans des secteurs peu productifs (comme l’immobilier) et au détriment des secteurs les plus productifs et les plus innovants, or la paralysie du secteur bancaire et la faiblesse de la demande lors de la crise freinent la réallocation des ressources des premiers vers les seconds lors de la récession, ce qui contraint en retour la reprise, donc déprime à nouveau les taux.

Borio et Hofmann identifient aussi plusieurs non-linéarités associées au niveau même des taux d’intérêt. Premièrement, la faiblesse des taux d’intérêt nominaux réduit la profitabilité des banques. Ces dernières sont en effet réticentes à pousser les taux prêteurs en territoire négatif, pour éviter de voir les déposants multiplier les retraits de liquidité. L’érosion de la profitabilité des banques les contraint alors davantage dans leur activité d’intermédiaire. Deuxièmement, lorsque le taux d’intérêt réel est faible, le rendement de l’épargne est faible, si bien que les ménages sont susceptibles de réduire davantage leurs dépenses pour accroître leur épargne. En outre, la faiblesse des taux d’intérêt réduit les effets de richesse, donc freine également la consommation des ménages détenant de l’épargne sur des comptes bancaires ou sous forme d’obligations. Troisièmement, si les taux d’intérêt restent durablement faibles (a fortiori sans accélération significative de l’activité), les agents peuvent interpréter cela comme signalant de très sombres perspectives économiques à long terme, ce qui les désincite à accroître leurs dépenses, notamment dans l’investissement, et maintient par là même la faiblesse de l’activité. Enfin, un niveau durablement faible des taux d’intérêt peut entraîner une zombification de l’économie. En effet, les banques peuvent alors être désincitées à nettoyer leurs bilans, mais aussi être incitées à renouveler leurs prêts non performants (c’est-à-dire ceux accordés à des agents peu solvables, notamment des entreprises peu productives), plutôt que d’accorder de nouveaux prêts à des agents solvables (notamment aux entreprises très productives), ce qui freine la destruction créatrice, la réallocation des ressources et au final la croissance.

Plusieurs études empiriques suggèrent que la politique monétaire est plus efficace en période de turbulences financières qu’en temps normal, notamment parce qu’elle contribue à réduire l’incertitude et à contenir les événements extrêmes. Par contre, beaucoup d’analyses suggèrent aussi que la politique monétaire est peu efficace lors d’une reprise consécutive à une récession de bilan. Concernant l’impact de mesures non conventionnelles, les études tendent à suggérer qu’elles affectent effectivement les variables financières, mais elles sont plus nuancées concernant leur impact sur l’activité. En analysant les Etats-Unis, Heiko Hesse et ses coauteurs (2017) constatent que les programmes d’achats à grande échelle de la Fed semblent avoir été de moins en moins efficaces. Andrew Haldane, Matt Roberts-Sklar, Tomasz Wieladek et Chris Young (2016) constatent que les chocs d’assouplissement quantitatifs ont plus d’effets lorsque les turbulences financières sont fortes plutôt que faibles. Ugo Panizza et Charles Wyplosz (2016) ne parviennent pas vraiment à confirmer, ni à rejeter l’hypothèse d’une efficacité décroissante de la politique monétaire dans les pays développés.

Il y a beaucoup moins d’études autour des non-linéarités dans la transmission de la politique monétaire associées aux faibles niveaux de taux d’intérêt. Claudio Borio, Leonardo Gambacorta et Boris Hofmann (2015) et Stijn Claessens, Nicholas Coleman et Michael Donnelly (2016) confirment que la profitabilité des banques décline à de faibles taux d’intérêt, ce qui suggère que leur activité de prêt pourrait s’en trouver affectée. Claudio Borio et Leonardo Gambacorta (2017) constatent que le prêt devient moins sensible aux baisses de taux d’intérêt de court terme lorsque ces derniers sont déjà faibles. De leur côté, Boris Hofmann et Emanuel Kohlscheen (2017) constatent que la croissance de la consommation réelle semble être liée au niveau nominal des taux d’intérêt, plutôt qu’à leur niveau réel, mais aussi que l’élasticité de la croissance de la consommation vis-à-vis du taux d’intérêt augmente avec le niveau du taux d’intérêt ; ces constats suggèrent un aplatissement de la courbe IS à de faibles niveaux de taux d’intérêt. Enfin, plusieurs études suggèrent une dégradation de l’allocation des ressources, notamment une multiplication d’entreprises zombies, à de faibles taux d’intérêt, ce qui pourrait contribuer à expliquer la faiblesse de l’investissement et de la croissance de la productivité des entreprises dans les pays développés ces dernières années.

Si la politique monétaire est d’autant moins efficace qu’elle est accommodante, il n’est donc pas certain que l’assouplissement monétaire suffise pour empêcher les économies de connaître une stagnation durable de leur activité. Il est alors justifié que celui-ci s’accompagne d’un assouplissement de la politique budgétaire, et ce d’autant plus si, comme Stephen Cecchetti, Tommaso Mancini Griffoli et Machiko Narita (2017) tendent par exemple à le confirmer, une politique durablement accommodante stimule excessivement les prises de risque et augmente le risque d’une crise financière.

 

Références

BORIO, Claudio, & Leonardo GAMBACORTA (2017), « Monetary policy and bank lending in a low interest rate environment: diminishing effectiveness? », BRI, working paper, n° 612.

BORIO, Claudio, Leonardo GAMBACORTA & Boris HOFMANN (2015), « The influence of monetary policy on bank profitability », BRI, working paper, n° 514.

BORIO, Claudio, & Boris HOFMANN (2017), « Is monetary policy less effective when interest rates are persistently low? », BRI, working paper, n° 628.

CECCHETTI, Stephen, Tommaso Mancini GRIFFOLI & Machiko NARITA (2017), « Does prolonged monetary easing increase financial vulnerabilities? », FMI, working paper, n° 17/65.

CLAESSENS, Stijn, Nicholas COLEMAN & Michael DONNELLY (2016), « Low-for-long interest rates and net interest margins of banks in advanced foreign economies », IFDP note.

HALDANE, Andrew G., Matt ROBERTS-SKLAR, Tomasz WIELADEK & Chris YOUNG (2016), « QE: the story so far », Banque d’Angleterre, staff working paper, n° 624.

HESSE, Heiko, Boris HOFMANN & J. WEBER (2017), « The macroeconomic effects of asset purchases revisited », BRI, mimeo.

HOFMANN, Boris, & Emanuel KOHLSCHEEN (2017), « Consumption and interest rates: a cross-country analysis », BRI, mimeo.

PANIZZA, Ugo, & Charles WYPLOSZ (2016), « The folk theorem of decreasing effectiveness of monetary policy: what do the data say? ».

Partager cet article
Repost0
11 novembre 2016 5 11 /11 /novembre /2016 17:59
La crise mondiale a-t-elle durablement bouleversé la conduite de la politique monétaire ?

La sévérité de la crise financière mondiale et la lenteur de la subséquente reprise ont poussé les banques centrales à fortement assouplir leur politique monétaire, tout d’abord en rapprochant leurs taux directeurs au plus proche de zéro, puis en adoptant des mesures moins « conventionnelles, comme les achats d’actifs à grande échelle dans le cadre de programmes d’assouplissement quantitatif (quantitative easing), en améliorant leur communication pour mieux guider les anticipations des agents à travers la pratique du forward guidance ou encore en poussant leurs taux directeurs en territoire négatif. C’est ainsi que peut-être « la nécessité s’est révélée être la mère de l’innovation ».

Mais, à mesure que le temps passe et que les effets de la crise mondiale s’atténuent ou que, tout du moins, le souvenir de la crise s’éloigne, il n’est pas impossible que les banques centrales se contentent de la boîte à outils dont elles disposaient avant la crise financière, c’est-à-dire essentiellement la variation des taux directeurs. Certes, certaines d’entre elles sont toujours aux prises avec une activité domestique particulière atone, mais d’autres ont commencé à resserrer leur politique monétaire, notamment pour éviter une surchauffe de leur économie et la formation d’une nouvelle bulle spéculative. Aujourd’hui, même si des banques centrales comme la BCE et la Banque du Japon continuent à adopter de nouvelles mesures pour davantage assouplir leur politique monétaire, la Réserve fédérale a quant à elle réduit ses achats d’actifs et a déjà commencé à relever son taux directeur, en raison du retour de l’économie américaine au « plein emploi ».

Ainsi, Alan Blinder, Michael Ehrmann, Jakob de Haan et David-Jan Jansen (2016) se sont demandé si ces récents changements observés dans la mise en œuvre de la politique monétaire sont susceptibles ou non d’être permanents. Ils s’appuient en l’occurrence sur deux sondages qu’ils ont menés entre février et mai 2016, l’un réalisé auprès des gouverneurs de nombreuses banques centrales à travers le monde et un second réalisé auprès des spécialistes de la politique monétaire parmi les universitaires. Ils constatent que les banques centrales dans les pays les plus touchés par la crise ont été celles qui ont été les plus enclines à recourir à de nouvelles mesures de politique monétaire, d’avoir discuté de leurs mandats et d’avoir davantage communiqué sur leurs actions et objectifs. Autrement dit, la nécessité a effectivement été « la mère des innovations ». Mais il semble que les idées ont plus largement changé. Par exemple, les banques centrales dans les pays les moins touchés par la crise ont indiqué avoir mis en œuvre des mesures de politique macroprudentielle. En outre, la relation entre les banques centrales et leurs gouvernements peuvent avoir bien changé, les banques centrales franchissant plus souvent la ligne de démarcation.

Certes, le monde des banquiers centraux n’a pas beaucoup changé, surtout si l’on fait abstraction de la Fed, de la Banque d’Angleterre, de la BCE et de la Banque du Japon : 70 % des gouverneurs de banque centrale qui ont répondu à l’annonce n’ont pas considéré l’éventualité d’adopter des taux nuls, voire des taux négatifs, ni même un programme d’assouplissement quantitatif. Mais la crise mondiale a amené beaucoup de gouverneurs et d’universitaires à reconsidérer ce que devait être le mandat des banques centrales. Beaucoup considèrent notamment que les autorités monétaires doivent ajouter la stabilité financière parmi leurs objectifs. Les mandats de certaines banques centrales ont d’ailleurs déjà été modifiés pour intégrer un objectif de stabilité financière. Pour autant, la plupart ne considèrent pas l’éventualité d’abandonner l’objectif de ciblage d’inflation.

Globalement, Blinder et ses coauteurs s’attendent à ce que les banques centrales aient à l’avenir de plus larges mandats, qu’elles utilisent plus largement des outils macroprudentiels et qu’elles communiquent plus activement qu’elles ne le faisaient avant la crise. Bien qu’il n’y ait pas encore de consensus sur les bénéfices ou sur les coûts respectifs des mesures non conventionnelles, Blinder et alii s’attendent à ce que la plupart d’entre elles demeurent dans les boîtes à outils des banques centrales, dans la mesure où les gouverneurs qui ont acquis de l’expérience avec un outil particulier sont les plus susceptibles d’avoir une bonne opinion de celui-ci. En outre, même si beaucoup pensent que les banques centrales doivent adopter des mesures macroprudentielles, il n’y a aucun consensus sur celles qui doivent être adoptées.

Enfin, Blinder et ses coauteurs notent de réelles différences entre ce que pensent les universitaires et ce que pensent les banquiers centraux sur la conduite de la politique monétaire. Par exemple, les premiers sont davantage favorables à ce que la plupart des mesures non conventionnelles qui ont été adoptées depuis la crise mondiale demeurent dans la boîte à outils des banques centrales, tandis que les seconds jugent souvent qu’il est trop tôt pour juger. En outre, même si les gouverneurs des banques centrales et les universitaires sont d’accord à l’idée que les banques centrales communiquent davantage depuis la crise et qu’elles continueront ainsi à le faire, les universitaires montrent une préférence pour le forward guidance qualitatif, basé sur les données, tandis que les banquiers centraux préfèrent généralement la forme qualitative du forward guidance. Enfin, si les gouverneurs des banques centrales ne jugent pas avoir reçu beaucoup de critiques pour avoir agi sur le plan politique ou avoir franchi la ligne durant la crise, la majorité des universitaires estiment au contraire que les autorités monétaires ont fait l’objet de nombreuses critiques pour avoir agi ainsi, beaucoup s'inquiétant notamment de leur indépendance.

 

Référence

BLINDER, Alan, Michael EHRMANN, Jakob de HAAN & David-Jan JANSEN (2016), « Necessity as the mother of invention: Monetary policy after the crisis », NBER, working paper, n° 22735, octobre.

Partager cet article
Repost0
21 août 2016 7 21 /08 /août /2016 22:59

Même si elle suit une tendance baissière à long terme, l’inflation est restée remarquablement stable aux Etats-Unis ces dernières années, que ce soit lors de la crise financière elle-même (où beaucoup s’attendaient à voir l’économie basculer durablement dans une forte déflation) ou bien suite à celle-ci (beaucoup s’attendant alors à une accélération rapide de l’inflation, à mesure que l’économie se rapproche du plein emploi). La Réserve fédérale maintient son taux directeur proche de zéro depuis bientôt une décennie pour ramener l’inflation à 2 %, ce qui a contribué à ce que le taux de chômage diminue et soit désormais inférieur à 5 %. Et pourtant, l’inflation reste en-deçà de sa cible. Beaucoup ont alors considéré que de tels événements confirmaient que la courbe de Phillips n’était plus valide. Pour d’autres, notamment le FMI (2013), elle est toujours valide, mais elle s’est « aplatie ». Dans le premier cas, la Fed ne doit pas chercher à réduire le taux de chômage sous son niveau naturel : non seulement la baisse du chômage ne serait que temporaire, mais l’inflation risque aussi d’accélérer, sensiblement et longuement. Dans le deuxième cas, la Fed dispose peut-être d’une marge de manœuvre pour réduire davantage le chômage sans pour autant accroître durablement l’inflation.

Après avoir étudié avec Eugenio Cerutti et Larry Summers la relation entre inflation et chômage à partir d’un échantillon de 20 pays développés, Olivier Blanchard (2016) a analysé plus précisément le comportement de l’inflation et du chômage aux Etats-Unis. Il constate qu’un faible niveau de chômage tend toujours à pousser le taux d’inflation à la hausse, tandis qu’un niveau élevé de chômage tend toujours à pousser le taux d’inflation à la baisse. Autrement dit, la courbe de Phillips est toujours « vivante ». Ce qui a toutefois changé, c’est le fait que les anticipations d’inflation soient plus solidement ancrées que par le passé. L’inflation dépend désormais principalement de l’inflation anticipée à long terme plutôt que l’inflation passée, tandis que l’inflation anticipée à long terme dépend elle-même moins de l’inflation passée. Au final, la courbe de Phillips correspond désormais essentiellement à une relation entre le taux de chômage et le niveau d’inflation plutôt qu’à une relation entre le taux de chômage et la variation de l’inflation. En ce sens, la relation ressemble davantage à la courbe de Phillips des années soixante qu’à la courbe de Phillips « accélérationniste » que l’on a pu observer par la suite. Blanchard cherche alors à déterminer la pente de la courbe de Phillips, c’est-à-dire la sensibilité de l’inflation au taux de chômage pour un taux d’inflation anticipé donné. Il constate que celle-ci s’est accrue durant les années soixante et soixante-dix, avant de décliner durant les années quatre-vingt. Elle est restée ensuite relativement stable. Blanchard confirme ainsi que la courbe de Phillips s’est aplatie, mais il souligne également que cet aplatissement précède la récente crise financière mondiale. Selon lui, le maintien de l’inflation à un niveau faible et stable a incité les agents à négocier et modifier moins fréquemment les prix et les salaires, si bien que l’inflation tend à être moins affectée par les conditions en vigueur sur le marché du travail.

Stefan Laseen et Marzie Taheri Sanjani (2016) confirment qu’il n’y a pas eu de changement dans la pente de la courbe de Phillips suite à la Grande Récession : la crise financière mondiale n’a pas modifié la relation entre l’inflation et le chômage. En fait, ce qui a changé après la crise financière mondiale, ce serait plutôt la nature des chocs qui ont touché l’économie américaine. Ces chocs, notamment la faible croissance mondiale, se sont révélés désinflationnistes, si bien qu’ils ont contribué à maintenir l’inflation à un faible niveau aux Etats-Unis malgré le fait que le marché du travail américain se soit rapproché du plein emploi. De leur côté, Yasser Abdih, Ravi Balakrishnan et Baoping Shang (2016) ont constaté que l’inflation sous-jacente des services est avant tout influencée par les forces domestiques, tandis que l’inflation sous-jacente des biens est avant tout influencée par les facteurs mondiaux et les variations du taux de change du dollar. Les pressions mondiales devraient normalement maintenir l’inflation sous-jacente sous 2 % dans un avenir proche, à moins que le dollar commence à fortement se déprécier ou que le taux de chômage passe bien en-deçà de son niveau naturel.

Ces divers résultats ont de nombreuses implications, notamment pour la conduite de la politique monétaire américaine. Avec une courbe de Phillips accélérationniste, tout boom doit nécessairement être suivi par un effondrement de même ampleur. Par contre, avec une courbe de Phillips comme celle que l’on observait dans les années soixante ou que l’on observe depuis les années quatre-vingt, tout boom est certes associé à une plus forte inflation, mais l’inflation diminue ensuite, lorsque le chômage retourne à son niveau naturel, si bien qu’un boom de l’activité ne doit pas nécessairement être suivi par un effondrement. Autrement dit, il peut ne pas y avoir de coût à avoir un boom temporaire, si ce n’est une inflation momentanément plus élevée. 

Blanchard souligne qu’il est essentiel de comprendre pourquoi les anticipations se sont ancrées à un faible niveau. Il est possible que la plus grande crédibilité des autorités monétaires et une longue période de faible inflation y aient contribué. Mais si l’inflation reste durablement éloignée de sa cible, les anticipations risquent de se désancrer. Pour l’instant, le maintien de l’inflation en-deçà de sa cible ne semble pas avoir désancré les anticipations, mais il est difficile de savoir de quelle marge les autorités monétaires disposent avant qu’une telle éventualité se concrétise. De l’autre, il est également possible que l’ancrage reflète un manque de « saillance » : à de faibles taux d’inflation, les gens peuvent ne pas se focaliser sur l’inflation, si bien qu’ils peuvent ne pas ajuster leurs anticipations lorsque le taux d’inflation varie. Si c’est le cas, la Fed peut disposer d’une certaine marge pour davantage pour le chômage à la baisse aussi longtemps que l’inflation reste suffisamment faible pour ne pas devenir saillante.

A court terme, la faiblesse de la pente de la courbe de Phillips signifie que la Fed fait face à un arbitrage entre inflation et chômage particulièrement tentant. Selon les estimations de Blanchard, une baisse de 1 % du chômage au cours d’un trimestre accroît l’inflation (en rythme annuel) de 0,2 %. Avec l’ancrage des anticipations, même si le chômage reste faible, l’inflation ne va pas s’accroître de beaucoup plus de 0,2 %. C’est un argument susceptible de convaincre la Fed de chercher à pousser le taux de chômage en-deçà de son niveau naturel. Si en outre des effets d’hystérèse sont à l’œuvre, ceux-ci constituent un argument supplémentaire en faveur d’une telle stratégie. En effet, si le taux de chômage reste supérieur à son niveau naturel, ce dernier est susceptible d’augmenter en raison des effets d’hystérèse. Or, plus le taux de chômage naturel est élevé, plus les tensions inflationnistes sont susceptibles d’apparaître rapidement lorsque le taux de chômage reflue et plus il est difficile de réduire ce dernier via des politiques conjoncturelles. Certains vont encore plus loin et estiment qu’un maintien du taux de chômage en-deçà de son niveau naturel est susceptible de réduire ce dernier. Dans la mesure où beaucoup appellent la Fed à ne pas relever ses taux d’intérêt tant qu’elle ne voit pas « l’inflation dans le blanc des yeux » et où il y a des délais dans la transmission de la politique monétaire à l’économie, Blanchard en conclut que la Fed est invitée à maintenir longuement le taux de chômage en-deçà de son niveau naturel. 

 

Références

ABDIH, Yasser (2016), « The lowdown on U.S. core inflation », in iMFdirect.

ABDIH, Yasser, Ravi BALAKRISHNAN, Baoping SHANG (2016), « What is keeping U.S. inflation low: insights from a bottom-up approach », FMI, working paper, n° 16/124.

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

BLANCHARD, Olivier, Eugenio CERUTTI & Lawrence SUMMERS (2015), « Inflation and activity – Two explorations and their monetary policy implications », FMI, working paper, n° 15/230.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

LASEEN, Stefan, & Marzie Taheri SANJANI (2016), « Did the global financial crisis break the US Phillips curve? », FMI, working paper, n° 16/126. 

Partager cet article
Repost0
29 juillet 2016 5 29 /07 /juillet /2016 09:05

Le lundi 15 septembre 2008, Lehman Brothers se déclare en faillite. La banque d’investissement américaine avait en effet subi de larges pertes sur les investissements immobiliers entre 2007 et 2008, ce qui avait peu à peu égratigné sa solvabilité. Plusieurs institutions financières perdirent confiance envers elle et cessèrent de lui prêter, ce qui accrut démesurément ses besoins de liquidité. Si Lehman Brothers se déclara en faillite aux premières heures du 15 septembre, c’est tout simplement parce qu’elle ne disposait alors plus de liquidité pour assurer ses services au cours de la journée. Les marchés financiers réagirent extrêmement mal à la nouvelle. Les cours boursiers s’écroulèrent tout d’abord aux Etats-Unis, puis dans le reste du monde. Ce qui n’était initialement, au début de l’année 2007, qu’une crise relativement limitée à un sous-compartiment du crédit hypothécaire américain (le crédit « subprime ») et était devenu au fil des mois une crise financière internationale attint alors son apogée. L’événement contribua certainement par là même à la sévérité de la Grande Récession.

Aux Etats-Unis, Lehman Brothers est la seule institution de grande échelle qui ait été contrainte à faire faillite durant la crise financière. Les autres, comme Bear Stearns et AIG, ont connu des crises de liquidité, mais elles ont échappé à la faillite car elles reçurent des prêts d’urgence de la part de la Réserve fédérale. Laurence Ball (2016) s’est alors demandé pourquoi la Fed n’a pas sauvé Lehman Brothers. Certains ont suggéré que les responsables de la Fed ont subi des pressions politiques en défaveur d’un sauvetage de Lehman Brothers. D’autres pensent que ces mêmes responsables ont cherché à ne pas créer ou plutôt à ne pas aggraver un risque moral : en sauvant Lehman Brothers, une banque qui s’est retrouvée en difficultés parce qu’elle a multiplié les prises de risque et qui a contribué par là même aux déséquilibres qui ont mené à la crise financière, la Fed aurait signalé aux autres institutions financières qu’elles seraient aussi certainement secourues si elles se retrouvaient dans la même situation, ce qui les aurait alors incité à prendre davantage de risques. En laissant Lehman Brothers faire faillite, la Fed aurait ainsi « donné une leçon » au secteur bancaire et contribué au maintien futur de la stabilité financière en freinant les prises de risque. Enfin, certains ont suggéré que les responsables de la Fed ont sous-estimé les dommages que provoquerait la faillite de Lehman Brothers sur le système financier et sur l’économie réelle.

Toutefois, les responsables de la Fed, en particulier Ben Bernanke qui était alors à sa tête fin 2008, ont clairement indiqué qu’aucune de ces trois interprétations n’est correcte. Ils ont déclaré qu’ils n’étaient pas en soi contre l’idée de sauver Lehman Brothers, mais qu’ils manquaient de l’autorité légale pour le faire, parce que la banque d’investissement ne possédait pas suffisamment de collatéraux pour emprunter les liquidités dont elle avait besoin. En effet, lorsque la Fed prête à une institution financière, la première exige que la seconde possède suffisamment de collatéraux pour la protéger si l’emprunteur fait défaut. L’emprunteur peut certes être illiquide à l’instant du prêt, mais il doit rester solvable (ce qui s’inscrit dans la conception du prêteur en dernier ressort développée par Bagehot). Ou, pour le dire encore autrement, la banque centrale n’a le droit de prêter qu’aux banques qui seront a priori capables de la rembourser. Bernanke lui-même a pu déclarer que la Fed n’aurait pu sauver Lehman Brothers qu’en violant la loi.

Au terme d’un travail de quatre ans l’ayant conduit à rédiger un long manuscrit de 214 pages, Laurence Ball en est venu à la conclusion que cette explication est inexacte. D’une part, ce n’est pas un apparent manque d’autorité légale qui a empêché la Fed de ne pas sauver Lehman Brothers. D’autre part, la Fed avait l’autorité légale pour sauver Lehman Brothers. En consultant les délibérations des autorités avant la faillite de Lehman Brothers, Ball estime ne trouver aucune trace suggérant qu’elles aient effectivement examiné l’adéquation des collatéraux de la banque d’investissement ou que des barrières juridiques les empêchèrent d’aider cette dernière. En examinant les finances de cette dernière, Ball en conclut qu’elle avait suffisamment de collatéraux pour obtenir un prêt de la part de la Fed. Non seulement ce prêt aurait selon lui empêché une faillite désordonnée et n’était que peu risqué pour la banque centrale, mais il aurait très certainement permis à Lehman Brothers de survivre, du moins si les conditions du prêt étaient les mêmes que celles dont ont pu bénéficier les autres banques d’investissement. (1) Ball estime que si Lehman Brothers avait obtenu un tel prêt, la crise financière ne se serait pas aggravée autant qu’elle ne le fit et l’économie mondiale aurait subi un moindre choc.

Au final, Ball explique l’inaction de la Fed face à l’effondrement de Lehman Brothers en privilégiant deux interprétations populaires : d’après sa lecture des données existantes, non seulement des considérations purement politiques ont joué un rôle déterminant dans la décision de la Fed, mais cette dernière a également sous-estimé les répercussions d’un éventuel défaut de la banque d’investissement. En effet, la décision de laisser Lehman Brothers couler aurait été principalement impulsée par Henry Paulson, qui était alors le Secrétaire au Trésor américain. Paulson aurait été influencé par la forte opposition politique aux sauvetages des banques. Lui-même avait été sévèrement critiqué pour le sauvetage de la Bear Stearns et la nationalisation de Fannie Mae et Freddie Mac ; il ne voulait pas avoir essuyé de nouvelles critiques en entreprenant un nouveau renflouement bancaire. Les responsables de la Fed s’inclinèrent face à Paulson, alors même qu’ils étaient les seuls à avoir l’autorité pour prendre cette décision selon le Federal Reserve Act. Ils ont également sous-estimé les répercussions de la faillite de Lehman Brothers, en considérant notamment que les investisseurs financiers avaient déjà pleinement anticipé l’événement.

 

(1) Stephen Cecchetti et Kermit Schoenholtz (2016) sont en désaccord avec Ball sur ce point. Selon leur propre analyse des données, Lehman Brothers était effectivement insolvable le 15 septembre 2008.

 

Références

BALL, Laurence (2016), « The Fed and Lehman Brothers: Introduction and summary », NBER, working paper, n° 22410, juillet.

CECCHETTI, Stephen, & Kermit SCHOENHOLTZ (2016), « The lender of last resort and the Lehman bankruptcy », in Money & Banking (blog), 25 juillet. 

Partager cet article
Repost0
15 juillet 2016 5 15 /07 /juillet /2016 10:33

Les taux d’intérêt réels, c’est-à-dire ajustés par rapport à l’inflation, ont connu une tendance baissière à long terme et ils sont restés à un niveau exceptionnellement faible depuis la crise financière mondiale de 2008. Beaucoup estiment que cette dynamique découle d’une chute des taux d’intérêt naturels, qui s’expliquerait par diverses tendances contribuant à accroître l’épargne et à déprimer l’investissement, c’est-à-dire par là même à déprimer la demande globale et finalement la croissance économique. En l’occurrence, l’hypothèse d’une « stagnation séculaire » de Larry Summers (2014) met tout particulièrement en avant le rôle de la baisse des prix des biens d’investissement, la hausse des inégalités de revenu ou encore le vieillissement démographique. Certains, comme Bernanke, mettent l’accent sur la forte propension à épargner des pays émergents, notamment d’Asie, qui contribue à générer une « surabondance d’épargne » (saving glut) au niveau mondial. D’autres, comme Ricardo Caballero et Emmanuel Farhi (2014), suggèrent que les pays développés, voire l’économie mondiale, est en train de connaître une pénurie d’actifs sûrs, les piégeant dans une « trappe à sûreté » (safety trap).

Selon Mikael Juselius, Claudio Borio, Piti Disyatat et Mathias Drehmann (2016), quatre économistes de la Banque des Règlements Internationaux (BRI), de telles explications de la faiblesse des taux d’intérêt partagent deux idées centrales. D’une part, elles définissent le taux d’intérêt naturel comme le taux d’intérêt qui serait en vigueur si la production était égale à la production potentielle. D’autre part, elles considèrent que l’inflation est le signal indiquant que la croissance n’est pas soutenable, que la production n’est pas à son niveau potentiel. En l’occurrence, l’économie connaîtrait des pressions inflationnistes si la production est supérieure à son niveau potentiel ; elle subirait au contraire des tensions déflationnistes si le niveau de la production est inférieur à son potentiel. Ces explications supposeraient qu’à moyen terme la politique monétaire ne ferait que suivre passivement le taux d’intérêt naturel, si bien que la chute des taux d’intérêt naturels ne serait que le produit de forces sur lesquelles les banques centrales n’ont pas de prises.

Juselius et ses coauteurs doutent de ces interprétations. Celles-ci négligeraient en effet le rôle des variables financières dans la soutenabilité de la croissance : par exemple, un boom sur les marchés boursiers ou immobiliers est susceptible de générer de l’inflation et de laisser place à une crise financière, associée à une forte contraction de l’activité, des pressions déflationnistes et des séquelles durables à long terme. Ils déterminent alors le taux d’intérêt naturel pour lequel l’économie ne connaît aucun déséquilibre financier en identifiant les déviations de deux variables financières par rapport à leur valeur de long terme : le niveau d’endettement et la charge du service de la dette des entreprises et des ménages. Ils appliquent alors une telle méthode aux données relatives à l’économie américaine pour la période comprise entre 1985 et 2015. 

Ils en tirent trois principales conclusions. Premièrement, une fois que les facteurs financiers sont pris en compte, le taux d’intérêt naturel est bien plus élevé que le suggèrent les approches empiriques habituelles et sa chute est moindre qu’on ne le pense habituellement. Les taux directeurs ont été systématiquement inférieurs à cette mesure du taux d’intérêt naturel. Alors que beaucoup suggèrent que le taux d’intérêt naturel est actuellement négatif ou tout du moins proche de zéro, Juselius et ses coauteurs estiment que le véritable taux d’intérêt naturel (associé à l’équilibre financier) est bien positif. Depuis 2009, la politique monétaire américaine serait excessivement accommodante, puisque le taux directeur ajusté à l’inflation est inférieur au taux d’intérêt naturel associé à l’équilibre financier. Les auteurs rejoignent ainsi les recommandations que ne cesse de répéter la BRI depuis le début de la reprise mondiale : les banques centrales doivent resserrer leurs taux directeurs pour éviter d’alimenter de nouveaux déséquilibres financiers qui se solderaient par une nouvelle crise financière.

En outre, Juselius et alii constatent que la politique monétaire n’est pas neutre à long terme. Via son impact sur le cycle financier, elle influence durablement la production et ses variations. En effet, les booms et effondrements de l’activité laissent des cicatrices permanentes, du moins sur le niveau de production, et cela semble être également le cas lorsqu’aucune crise bancaire n’éclate [Borio et alii, 2016]. Or en influençant la production, la politique monétaire influence les taux d’intérêt réels à moyen terme. Par conséquent, ces premières conclusions suggèrent aux auteurs qu’il n’est pas possible d’attribuer la totalité du déclin des taux d’intérêt réels à la chute exogène du taux d’intérêt naturel. Ce déclin reflète en partie de l’interaction entre politique monétaire et cycle financier. La politique monétaire a été systématiquement et agressivement assouplie lors des effondrements financiers, mais elle n’a pas été suffisamment, ni rapidement resserrée lors des booms financiers. Or, une telle asymétrie est susceptible de pousser les taux d’intérêt à la baisse.

Les économistes de la BRI ont souvent appelé à ce que les banques centrales adoptent une politique monétaire « allant à contre-courant » (leaning against the wind) : elles doivent resserrer leur politique monétaire lorsque l’économie connaît une accumulation de déséquilibres financiers, par exemple une expansion excessive du crédit et la formation d’une bulle spéculative. Comme la banque centrale ne répond alors aux risques pesant sur la stabilité financière que lorsqu’ils deviennent évidents, le resserrement risque de survenir trop tard, si bien que non seulement la politique monétaire risque de ne pas empêcher les déséquilibres financiers de s’accroître et de se solder par une crise, mais elle risque aussi d’amplifier ces déséquilibres. Selon les auteurs, la politique monétaire peut et doit prendre en compte systématiquement et immédiatement les dynamiques financières [Borio, 2014]. Il est en effet possible d’identifier en temps réel les déséquilibres financiers et même le niveau de croissance qui est compatible avec l’équilibre financier [Borio et alii, 2013]. Cette prise en compte peut se traduire par l’adoption d’une règle de politique monétaire prenant la forme d’une version augmentée de la règle de Taylor qui incorporerait des indicateurs du cycle financier, comme l’écart du niveau d’endettement par rapport à son niveau de long terme. Le taux directeur pourrait ainsi être fixé au plus proche de l’« équilibre financier ». Juselius et ses coauteurs concluent leur analyse en proposant un exercice contrefactuel. Ce dernier suggère qu’une règle de politique monétaire qui prend systématiquement en compte les développements financiers, à la fois durant les bons et les mauvais temps, peut contribuer à réduire le cycle financier, ce qui permet d’accroître la production à long terme. Une telle politique se traduirait aussi par une moindre baisse des taux d’intérêt réels.

 

Références

BORIO, Claudio (2014), « Monetary policy and financial stability: What role in prevention and recovery? », BRI, working paper, n° 440, janvier.

BORIO, Claudio, Piti DISYATAT & Mikael JUSELIUS (2013), « Rethinking potential output: Embedding information about the financial cycle », BRI, working paper, n° 404, février.

BORIO, Claudio, Enisse KHARROUBI, Christian UPPER & Fabrizio ZAMPOLLI (2016), « Labour reallocation and productivity dynamics: financial causes, real consequences », BRI, working paper, n° 534, janvier.

CABALLERO, Ricardo J., & Emmanuel FARHI (2014), « The safety trap », NBER, working paper, n° 19927, février.

JUSELIUS, Mikael, Claudio BORIO, Piti DISYATAT & Mathias DREHMANN (2016), « Monetary policy, the financial cycle and ultralow interest rates », BRI, working paper, n° 569, juillet.

SUMMERS, Lawrence (2014), « U.S. economic prospects: Secular stagnation, hysteresis, and the zero lower bound », in Business Economics, vol. 49, n° 2.

Partager cet article
Repost0
22 juin 2016 3 22 /06 /juin /2016 22:56

Suite à la crise financière mondiale de 2008, les banques centrales des pays développés ont très rapidement baissé leurs taux directeurs au plus proche de zéro, sans pour autant ramener rapidement les économies vers le plein emploi. Afin d'assouplir davantage leur politique monétaire et continuer ainsi de stimuler la demande globale, elles ont alors dû recourir à des mesures non conventionnelles. Par exemple, la Banque d’Angleterre, la Banque du Japon et la Réserve fédérale des Etats-Unis ont rapidement acheté des titres publics à grande échelle dans le cadre de programmes d'assouplissement quantitatif (quantitative easing). Alors que la reprise s'est révélée plus faible et les tensions déflationnistes plus fortes dans la zone euro, la Banque Centrale Européenne (BCE) ne s’est décidée à adopter à son tour un programme d’assouplissement quantitatif que très récemment, en l'occurrence au début de l'année 2015. Mario Draghi a annoncé que ce programme se poursuivrait au moins jusqu’à mars 2017 et qu’il ne serait pas stoppé tant que les anticipations d’inflation ne rejoignent pas leur cible (en l'occurrence, revenir au plus proche de 2 %).

La théorie économique a identifié plusieurs canaux à travers lesquels l’assouplissement quantitatif est susceptible d’affecter l’économie réelle. Les achats de dette publique de long terme que réalise la banque centrale réduisent les rendements pour la maturité correspondante. D’une part, cela réduit les coûts de financement pour les entreprises, ce qui pourrait les inciter à davantage investir. D’autre part, les agents financiers pourraient être incités à se tourner vers des titres plus risqués, ce qui va accroître le cours de ces derniers et générer des effets de richesse : les ménages qui détiennent des titres risqués se sentiront plus riches et seront ainsi incités à dépenser. Il pourrait également y avoir un canal du signalement : le fait que la banque centrale achète des titres publics à grande échelle signale qu’elle compte assouplir davantage sa politique monétaire, ce qui suggère aux agents privés qu’elle ne relèvera pas de sitôt ses taux directeurs et les incite par là même à emprunter pour dépenser. Dans le cadre du canal de l’assouplissement du crédit, l’accroissement de la liquidité dans le système bancaire associé à l’émission de réserves peut pousser à la baisse les taux interbancaire et ainsi les rapprocher du taux directeur. Enfin, l’assouplissement quantitatif peut entraîner une dépréciation du taux de change nominal, ce qui stimule les exportations.

De nombreuses études, notamment celle de Martin Weale et Tomasz Wieladek (2014), ont déjà examiné l’impact de l’assouplissement quantitatif sur l’économie du Royaume-Uni et des Etats-Unis, mais l’impact du programme lancé par la BCE n’a pu faire l’objet d’une recherche aussi approfondie en raison de son lancement tardif. Pelin Berkmen et Andreas Jobst (2015) en avaient proposé une analyse préliminaire. Avec plus de recul, Tomasz Wieladek et Antonio Garcia Pascual (2016) ont également cherché à déterminer quel a été l’impact de l’assouplissement quantitatif de la BCE sur le PIB réel et l’indice des prix à la consommation de la zone euro avec un modèle vectoriel autorégressif bayésien, en utilisant des données mensuelles relatives à la période comprise entre juin 2012 et avril 2016. Wieladek et Garcia Pascual évaluent l’impact total de l’assouplissement quantitatif via un exercice contrefactuel, en observant l’impact spécifique sur chaque pays et via divers canaux de transmission alternatifs. Ils constatent qu’en l’absence du premier programme de l’assouplissement quantitatif de la BCE, le PIB réel et l’indice des prix à la consommation sous-jacent auraient respectivement été inférieurs de 1,3 % et de 0,9 % par rapport aux niveaux qu’ils ont effectivement atteints. L’effet est pratiquement deux fois plus faible qu’au Royaume-Uni ou aux Etats-Unis. L’analyse suggère que la politique est transmise via les canaux du rééquilibrage de portefeuille, du signalement, de l’assouplissement du crédit et du taux de change. Par contre, à la différence des Etats-Unis et du Royaume-Uni, l’assouplissement quantitatif ne semble pas avoir stimulé l’activité de la zone euro en y réduisant l’incertitude.

En ce qui concerne les effets de l’assouplissement quantitatif de la BCE sur le PIB de chaque pays-membre, l’analyse montre qu’ils ont été les plus larges dans le cas de l’Espagne et les plus limités dans le cas de l’Italie. En l’occurrence, le PIB espagnol augmente quatre fois plus fortement que le PIB italien face à l’assouplissement quantitatif. Selon Wieladek et Garcia Pascual, ce constat s’expliquerait par les plus grandes difficultés que rencontrent les banques italiennes par rapport à leurs consœurs. En ce qui concerne les effets de l’assouplissement quantitatif sur l’inflation dans chaque Etat-membre, l’analyse suggère qu’ils ont été les plus amples en Allemagne et les plus limités en Espagne. Ce résultat est cohérent avec l’idée que l’assouplissement quantitatif devrait avoir un plus fort impact sur les prix dans les pays où les capacités de production sont utilisées à leur maximum plutôt que dans les pays où des capacités de production restent inemployées, dans la mesure où les entreprises des premiers sont plus enclines à relever leurs prix que les secondes.

 

Références

BERKMEN, S. Pelin, & Andreas JOBST (2015), « An early assessment of quantitative easing », in FMI, country report, n° 15/205, juillet.

TAMBORINI, Roberto, & Francesco SARACENO (2016), « How can it work? On the impact of quantitative easing in the Eurozone », OFCE, document de travail.

WIELADEK, Tomasz, & Antonio GARCIA PASCUAL (2016), « The European Central Bank’s QE: A new hope », CESIFO, working paper, n° 5946, juin.

WEALE, Martin, & Tomasz WIELADEK (2014), « What are the macroeconomic effects of asset purchases? », Banque d’Angleterre, External MPC unit, discussion paper, n° 42, avril.

Partager cet article
Repost0
16 mars 2016 3 16 /03 /mars /2016 18:41

Lorsque leurs taux d’intérêt nominaux se sont rapprochés de zéro dans le sillage de la crise financière mondiale, les banques centrales ont cherché de nouvelles manières d’assouplir davantage leurs taux directeurs. Elles ont notamment adopté des mesures que l’on a pu qualifier de « non conventionnelles », comme les achats d’actifs à grande échelle dans le cadre de programmes d’assouplissement quantitatif (quantitative easing), ainsi que le forward guidance. Sept ans après le début de la reprise mondiale, beaucoup de pays développés font toujours face à une faible croissance et à un chômage élevé. Surtout, en raison de cette faiblesse de la demande globale, mais aussi de chocs comme la baisse inattendue des prix du pétrole au début de l’année 2014, l’inflation est inférieure au taux d’inflation que les banques centrales cherchent plus ou moins explicitement à cibler (en l’occurrence, 2 %). Plusieurs économies font déjà face à une déflation, or cette dernière peut très facilement se muer en cercle vicieux et déprimer davantage la demande globale.

Ainsi, si la poursuite de la reprise américaine a finalement décidé la Fed de relever ses taux directeurs à la fin de l’année 2015, plusieurs banques centrales cherchent toujours à assouplir leur politique monétaire. L’une des dernières mesures non conventionnelles est l’adoption de taux directeurs légèrement négatifs. Beaucoup pensaient impossible de réduire les taux d’intérêt en-deçà de zéro, si bien que l’on a pu parler de « borne inférieure zéro » (zero lower bound). Les autorités monétaires ont montré ces dernières années que ce n’est pas le cas. La Banque de Suède avait déjà introduit les taux directeurs négatifs en 2009 et en 2010. Plus récemment, cinq banques centrales ont fixé leurs taux directeurs en territoire négatif : la Banque centrale européenne en juin 2014, la Banque nationale du Danemark en septembre 2014, la Banque nationale suisse en décembre 2014, la Banque de Suède en février2015 et enfin la Banque du Japon en janvier 2016. Leur objectif est de ramener l’inflation à sa cible et/ou de contenir l’appréciation de leurs devises. Lorsque les banques centrales poussent les taux d’intérêt en territoire négatifs, elles cherchent à obtenir les mêmes effets qu’une baisse des taux lorsque ces derniers sont positifs : les entreprises et les ménages sont supposés être incités à emprunter et à dépenser leur monnaie au lieu de l’épargner, ce qui devrait stimuler la demande globale ; la dépréciation de la devise peut également y contribuer en stimulant les exportations. 

Deux économistes de la Banque des Règlements Internationaux (BRI), Morten Bech et Aytek Malkhozov (2016), ont analysé l’introduction et les répercussions des taux négatifs par les banques centrales européennes. Ils notent qu’ils ont été introduits dans les cadres opérationnels existants. Les événements qui se sont produits jusqu’à présent suggèrent que les taux directeurs légèrement négatifs se transmettent aux marchés monétaires et à d’autres taux d’intérêt pour l’essentiel de la même manière qu’ils le font lorsqu’ils sont positifs. Il y a toutefois une exception : les taux d’intérêt appliqués aux dépôts des entreprises et des ménages sont restés insensibles à une telle dynamique, tandis que certains taux d’intérêt hypothécaires ont pu avoir perversement tendance à s’accroître, en l’occurrence en Suisse.

Si la littérature faisait référence, jusqu’à ces dernières années, à une « borne inférieure zéro », c’est précisément parce qu’il est possible de détenir la monnaie sous forme de monnaie fiduciaire, or celle-ci se caractérise par un taux d’intérêt nul : si les agents devaient payer un taux d’intérêt pour garder leur monnaie sous forme scripturale, ils seraient alors inciter à retirer leur épargne de leur comptes bancaires en la convertissant en billets. Jusqu’à présent, Bech et Malkhozov confirment que les taux directeurs négatifs n’ont pas entraîné de hausse significative de la demande de monnaie fiduciaire dans les quatre pays européens où ils sont en vigueur. Pour l’heure, en effet, les taux d’intérêt des épargnants demeurent positifs. L’extrême faiblesse des taux d’intérêt semble toutefois déjà pousser la demande de liquidités à la hausse au Danemark, en zone euro et en Suisse. L’existence de coûts de détention de monnaie fiduciaire permet toutefois à ce que la borne inférieure effective (effective lower bound) inférieure à zéro. Pour autant, Bech et Malkhozov estiment que cette dernière pourrait augmenter si les taux d’intérêt diminuaient davantage ou s’ils restaient durablement faibles. 

Bech et Malkhozov rappellent enfin les fortes incertitudes autour du comportement des agents individuels et des institutions si les taux d’intérêt déclinaient davantage en territoire négatif ou restaient négatifs pendant une période prolongée. Tout d’abord, il n’est pas encore certain que les taux négatifs soient efficaces. Par exemple, l’adoption surprise des taux négatifs par la Banque du Japon en janvier a certes permis de contenir l’appréciation du yen, mais seulement pendant quelques jours. Pour l’heure, les banques ont supporté l’essentiel du fardeau des taux négatifs, en ne les transmettant pas à leurs clients. Mais si les taux négatifs ne se transmettent pas aux entreprises et aux ménages, ils perdent de leur justification. D’un autre côté, si les banques finissent par transmettre les taux négatifs aux emprunteurs non financiers, leur profitabilité risque d’en être profondément affectée, à moins qu’ils soient aussi transmis aux déposants, mais la base des dépôts des particuliers pourrait alors devenir instable. Dans tous les cas, la persistance de taux d’intérêt négatifs dégrade la profitabilité des banques, des assureurs et des fonds de pensions, ce qui accroît leur risque de faillite, donc le risque d’instabilité financière. Alors que l’introduction des taux négatifs vise à stimuler la création de crédit, le secteur bancaire pourrait au contraire moins bien jouer son rôle d’intermédiaire financier. La volatilité sur les marchés financiers s’est déjà accentuée ces derniers mois. Les inquiétudes suscitées par la faible profitabilité des banques ont contribué aux fortes baisses de leurs cotations boursières en début d’année. Or, si les taux d’intérêt négatifs, qui constituent la dernière « arme » des banques centrales face à la faiblesse de l’inflation, s’avéraient inefficaces pour relancer la croissance et l’inflation, alors la volatilité pourrait fortement s’accroître sur les marchés financiers.

 

Référence

BECH, Morten, & Aytek MALKHOZOV (2016), « How have central banks implemented negative policy rates? », in BRI, Quarterly Review, mars.

Partager cet article
Repost0
6 mars 2016 7 06 /03 /mars /2016 15:56

Même si beaucoup d’études ont depuis longtemps cherché à préciser le lien entre l’inflation et la répartition des revenus et richesses, l’impact direct de la politique monétaire sur les inégalités n’est par contre analysé que depuis très récemment, en particulier parce que l’accroissement des inégalités de revenu que l’on a pu observer ces dernières décennies dans les pays avancés semble avoir joué un rôle déterminant dans l’accumulation des déséquilibres qui ont conduit à la crise financière mondiale.

Olivier Coibion, Yuriy Gorodnichenko, Lorenz Kueng et John Silvia (2012) ont pourtant identifié plusieurs canaux via lesquels la politique monétaire était susceptible d’influencer les inégalités. La politique monétaire cherche à influencer l’activité via les variations des taux d’intérêt et des prix d’actifs (les cours boursiers, les cours des obligations, les prix des logements...). Or, selon le canal de la redistribution de l’épargne, une hausse non anticipée des taux d’intérêt ou une désinflation inattendue entraînent une redistribution de richesse au profit des épargnants et au détriment des emprunteurs, or ce sont justement les plus pauvres qui ont tendance à emprunter. Selon le canal du portefeuille, la hausse des prix des actifs financiers (actions, obligations) bénéficie de façon disproportionnée aux ménages les plus aisés, dans la mesure où ce sont surtout ces derniers qui les possèdent. 

Coibion et ses coauteurs ont alors étudié les contributions de la politique monétaire sur la consommation et les inégalités de revenu depuis 1980. Ils constatent que les resserrements monétaires ont systématiquement accru les inégalités de revenu du travail, de revenu total, de consommation et de dépenses totales. En outre, les chocs monétaires expliquent une part importante des variations cycliques du revenu et de consommation. Malgré le formidablement assouplissement des politiques monétaires ces dernières années, celles-ci ont pu contribuer à accroître les inégalités. En effet, la Grande Récession a été si violente que les économies avancées se sont retrouvées dans une trappe à liquidité : le taux d’intérêt « naturel » a été fortement négatif. Or, les banques centrales peuvent difficilement réduire leurs taux directeurs en-deçà de zéro, si bien que leur politique monétaire demeure excessivement restrictive même lorsque les taux d’intérêt nominaux sont à leur borne inférieure.

Afin d’assouplir davantage leur politique monétaire une fois leurs taux directeurs au plus proche de zéro, les banques centrales ont eu recours à des mesures non conventionnelles, notamment à des achats d’actifs à large échelle via des programmes d’assouplissement quantitatif (quantitative easing). Ayako Saiki et Jon Frost (2014) ont observé comment de telles mesures ont affecté les inégalités au Japon. Leur analyse suggère qu’elles ont accru les inégalités, en particulier après 2008, lorsque l’assouplissement quantitatif est devenu plus agressif. Saiki et Frost estiment que c’est à travers le canal de portefeuille, c’est-à-dire via la hausse des prix d’actifs, que la politique monétaire non conventionnelle a eu tendance à aggraver les inégalités dans l’économie insulaire.

La Banque du Japon n’a pas la seule banque centrale à avoir utilisé des mesures non conventionnelles : la Fed, la Banque d’Angleterre et la BCE ont toutes les trois utilisé une forme ou une autre d’achats d’actifs à grande échelle. Klaus Adam et Panagiota Tzamourani (2015) se sont penchés sur les répercussions des achats d’actifs à grande échelle sur les prix d’actifs et la répartition du revenu et du patrimoine en zone euro. Ils constatent que les hausses des cours boursiers entraînent une hausse significative des inégalités de patrimoine, alors que les hausses des cours obligataires ne semblent pas modifier la répartition des richesses. Ils aboutissent à ce constat, aussi bien en observant la zone euro dans sans ensemble que les pays-membres pris individuellement. Ils constatent également que 20 % des ménages de la zone euro, caractérisés par un plus faible revenu et un plus faible patrimoine que la moyenne, n’ont absolument pas bénéficié des hausses des prix d’actifs financiers.

Encore plus récemment, Dietrich Domanski, Michela Scatigna et Anna Zabai (2016) se sont penchés sur la récente hausse des inégalités de richesse dans les pays développés en observant les effets de valorisation sur les actifs et passifs des ménages. En utilisant les données d’enquêtes réalisées auprès des ménages en Allemagne, en Espagne, aux Etats-Unis, en France, en Italie et aux Royaume-Uni, ils analysent les possibles vecteurs des inégalités de richesse et les répercussions de la politique monétaire via son impact sur les taux d’intérêt et les prix d’actifs. Leurs simulations suggèrent que les inégalités de richesse se sont généralement accrues depuis la crise financière mondiale dans les six pays qu’ils étudient. En l’occurrence, sur la période étudiée, le patrimoine net des plus riches a augmenté deux fois plus vite que le patrimoine des plus pauvres en Allemagne et en Italie ; quatre fois plus vite aux Etats-Unis ; et cinq fois plus vite en France. Les inégalités de richesse ont retrouvé leur niveau d’avant-crise, alors qu’elles avaient initialement baissé. Alors que les faibles taux d’intérêt et à la hausse des cours obligataires semblent avoir un impact négligeable sur les inégalités de richesse, ce n’est pas le cas de la hausse des cours boursiers : les rendements boursiers élevés qui sont observés depuis 2010 ont continué le principal moteur de la forte croissance du patrimoine net parmi les ménages les plus aisés. La reprise observée dans les prix de l’immobilier n’a compensé que partiellement cet effet. 

Les résultats sont d’autant plus inquiétants que l’accroissement des inégalités tendrait, d’une part, à freiner la croissance en déprimant la demande globale et, d’autre part, à accroître le risque d’instabilité financière, donc, dans les deux, à non seulement réduire l’efficacité de la politique monétaire, mais aussi à accroître le risque que l’économie se retrouve en récession, en déflation, voire dans une trappe à liquidité. Les analystes de la stagnation séculaire donnent notamment un rôle déterminant à l’accroissement des inégalités dans l’affaiblissement structurel de la demande globale. Les mesures non conventionnelles que les banques centrales adoptent pour sortir une économie d’une trappe à liquidité tendraient, par le biais des inégalités, à l’y enfermer. Au vu des missions des banques centrales (maintenir une inflation proche de 2 %, refermer l’écart de production, voire assurer le plein emploi), elles sont donc contre-productives. De telles conclusions amènent à douter de l’opportunité de s’appuyer sur des mesures non conventionnelles lorsque l’économie se trouve confrontée à une trappe à liquidité ; une fois les taux d’intérêt au plus proche de leur borne inférieure, c’est bien aux gouvernements de prendre en charge la stabilisation de l’activité en s’appuyant sur la relance budgétaire.

 

Références

ADAM, Klaus, & Panagiota TZAMOURANI (2015), « Distributional consequences of asset price inflation in the euro area », Deutsche Bundesbank, discussion paper, n° 27/2015.

COIBION, Olivier, Yuriy GORODNICHENKO, Lorenz KUENG & John SILVIA (2012), « Innocent bystanders? Monetary policy and inequality in the U.S. », FMI, working paper, n° 12/199, août.

DOMANSKI, Dietrich, Michela SCATIGNA & Anna ZABAI (2016), « Wealth inequality and monetary policy », BRI, Quarterly Review, mars.

SAIKI, Ayako, & Jon FROST (2014), « How does unconventional monetary policy affect inequality? Evidence from Japan », De Nederlandsche Bank, working paper, n° 423, mai.

Partager cet article
Repost0
10 janvier 2016 7 10 /01 /janvier /2016 15:31

Au cours de la crise financière mondiale et dans les premiers temps de la reprise qui l’a suivie, les responsables politiques et en particulier les banquiers centraux ont cherché à coopérer pour restaurer la stabilité financière et stabiliser l’activité. Par exemple, la Réserve fédérale américaine et cinq autres banques centrales majeures se sont coordonnées pour réduire simultanément leurs taux directeurs en octobre 2008. Par la suite, la Fed a échangé des dollars avec des devises étrangères dans le cadre d’accords de swaps de devises avec quatorze banques centrales, notamment des pays émergents. Mais une fois la reprise mondiale pleinement amorcée, plusieurs responsables politiques et analystes à travers le monde affirmèrent que les mesures ultra-accommodantes de la Fed nuisaient à leur économie. Par exemple, en novembre 2010, lorsque la Fed débuta les achats d’actifs dans le cadre de son deuxième programme d’assouplissement quantitatif, Guido Mantega, alors ministre des Finances brésilien, affirma que la banque centrale américaine menait une véritable « guerre de devises » : la Fed assouplissait sa politique monétaire pour affaiblir le taux de change du dollar et procurer par là même une avantage comparatif aux Etats-Unis dans les échanges commerciaux. Une dépréciation permettrait à un pays d’accroître ses exportations, mais en réduisant celles du reste du monde : elle serait donc un jeu à somme nulle.

Lors d’une conférence organisée par le FMI au mois de novembre dernier, Ben Bernanke (2016a) a mis à l’épreuve une telle idée. L’ancien gouverneur de la Fed rappelle que les dépréciations compétitives étaient déjà un sujet de discorde au cours de la Grande Dépression des années trente. Les pays qui connurent le plus rapidement une reprise furent ceux (comme la Grande-Bretagne) qui quittèrent le plus tôt l’étalon-or pour laisser leur devise se déprécier vis-à-vis de celles des pays (comme la France) qui restèrent dans l’étalon-or. Certains économistes, notamment Joan Robinson, estimaient alors que les premiers renouèrent avec la croissance aux dépens des seconds. En fait, selon Bernanke, l’abandon de l’étalon-or n’a pas seulement permis aux pays de profiter de la réallocation des échanges en laissant leur monnaie se déprécier : il leur donna une plus large marge de manœuvre pour adopter des politiques expansionnistes. Ces dernières contribuèrent à accroître la demande mondiale et à accélérer la reprise mondiale. Aujourd’hui, tout comme durant les années trente, beaucoup se focalisent sur un unique canal de transmission de la politique monétaire, en l’occurrence son impact sur le taux de change, en négligeant les autres. Or, si un pays stimule son activité domestique avec la dépréciation de sa devise, ses résidents profitent de la hausse de leurs revenus pour accroître leurs importations. Les données empiriques suggèrent effectivement que les effets de revenu que la politique monétaire est susceptible d’avoir sur les exportations américaines tendent à compenser les effets de taux de change.

GRAPHIQUE 1  Les contributions des exportations nettes au PIB américaine (en points de pourcentage)

Bernanke, la Fed et le reste du monde

source : Bernanke (2016a)

Surtout, Bernanke estime que rien n’assure que la Fed se soit récemment engagée dans une guerre des devises. Une telle politique non coopérative est en effet censée accroître les exportations nettes. Le déficit commercial américain s’est effectivement contracté en 2008 et en 2009, mais en raison de la crise et de la contraction subséquente de la demande domestique. Les exportations nettes contribuèrent alors à stimuler l’activité américaine (cf. graphique 1). Depuis 2010, les exportations nettes ne contribuent que très peu à la croissance américaine totale ; elles ont même pesé sur cette dernière en 2010 et en 2014. En outre, le dollar s’est effectivement déprécié au début de l’année 2011, peu après que la Fed ait lancé son deuxième programme d’assouplissement quantitatif, mais il s’est ensuite apprécié lors de la seconde moitié de l’année 2011 (cf. graphique 2). Son appréciation s’est ensuite poursuivie, tout d’abord lentement, puis rapidement à partir du milieu de l’année 2014. En d’autres termes, si la Fed s’est effectivement lancée dans une guerre de devises, cette dernière n’a pas réussi.

GRAPHIQUE 1  Les contributions des exportations nettes au PIB américaine (en points de pourcentage)

Bernanke, la Fed et le reste du monde

source : Bernanke (2016a)

Bernanke (2016b) s’est ensuite attaqué à l’idée selon laquelle les changements de la politique monétaire de la Fed, qu’il s’agisse aussi bien des assouplissements que des resserrements monétaires, aient des répercussions perverses sur les marchés financiers dans le reste du monde, en particuliers dans les pays émergents. Certains, comme Raghuram Rajan, l’actuel gouverneur de la banque centrale indienne, estiment que les décisions de la Fed accroissent la volatilité des capitaux. En l’occurrence, le maintien des taux directeurs de la Fed à leur borne zéro et l’adoption des divers programmes d’assouplissement quantitatif auraient alimenté les entrées de capitaux dans les pays émergents et provoqué par là même une appréciation de la devise et une expansion insoutenable du crédit. Réciproquement, le retrait de ces mêmes mesures accommodantes stimulerait la sortie de capitaux des pays émergents, exposant ces derniers à un effondrement du crédit et des prix d’actifs, comme le suggère l’épisode du « taper tantrum » de 2013 : Bernanke, alors à la tête de la Fed, avait fait référence en mai à l’éventualité d’un ralentissement (tapering) des achats d’actifs de la banque centrale américaine d’ici la fin de l’année. Beaucoup interprétèrent ces déclarations comme signalant une hausse prochaine des taux directeurs américains. Les pays émergents, notamment les « cinq fragiles » (l’Afrique du Sud, le Brésil, l’Inde, l’Indonésie et la Turquie) connurent par la suite des sorties de capitaux, une dépréciation de leur devise et un ralentissement de leur croissance. 

Bernanke assure que, si la Fed déstabilise les marchés financiers étrangers, chose pour laquelle il n'est pas entièrement convaincu, elle ne le fait pas délibérément. En outre, si la politique monétaire américaine a effectivement des répercussions sur la stabilité financière, alors ces dernières posent également des problèmes pour les Etats-Unis. Pour Bernanke, le dilemme entre stabilité financière et stabilité macroéconomique auquel une banque centrale fait face au niveau mondial est le même auquel elle fait face au niveau domestique. Or, selon lui, les banques centrales ne doivent pas négliger les risques d’instabilité financière, mais elles ne doivent pas être détournées de leurs objectifs domestiques de plein emploi et de faible inflation pour des raisons de stabilité financière. Pour assurer cette dernière, la politique monétaire est un instrument peu efficace, ne serait-ce que parce que l’impact exact de la politique monétaire sur la stabilité financière est encore imprécis. Même s’il était possible de déceler la formation d’une bulle, le resserrement de la politique monétaire pourrait non seulement avoir peu d’effet sur cette bulle, mais elle risquerait surtout d’affecter l’activité dans l’ensemble de l’économie. Ce sont la réglementation financière et les mesures de politique macroprudentielle qui doivent être utilisées pour garantir la stabilité financière, et ce même dans les pays émergents.

Enfin, Bernanke (2016c) s’est demandé pourquoi la Fed est la cible de telles critiques, alors même que d’autres banques centrales se sont engagées dans des politiques monétaires aussi agressives ces dernières années, notamment la Banque du Japon, la Banque d’Angleterre et la BCE. Cela s’explique selon lui par le rôle dominant que joue le dollar américain, aussi bien dans les échanges de marchandises, que dans les échanges sur les marchés des capitaux. Ce rôle a profondément changé depuis un siècle. Avec l’instauration du système de Bretton Woods au sortir de la Seconde Guerre mondiale, les devises furent ancrées au dollar. Les Etats-Unis eurent alors une large marge de manœuvre pour poursuivre des objectifs de politique économique domestiques et générer de larges déficits courants. Valéry Giscard d’Estaing a ainsi pu dire que les Etats-Unis bénéficiaient d’un « privilège exorbitant ».

Le système de Bretton Woods s’est écroulé dans les années soixante-dix et les pays ont alors eu la possibilité de choisir leur régime de change. Pourtant, le dollar a gardé son rôle prodéminant, notamment en raison de les effets d’inertie : les gens sont habitués à utiliser le dollar et une devise internationale est d’autant plus utile qu’elle est utilisée par le plus grande nombre. Au cours des dernières décennies, le dollar s’est aussi révélé être un intermédiaire des échange et une réserve de valeurs des plus efficaces. En effet, depuis les années quatre-vingt, l’inflation est restée faible et stable aux Etats-Unis ; les marchés financiers américains sont les plus profonds et les plus liquides à travers le monde ; il y a une large offre d’actifs libellés en dollars qui sont considérés comme très sûrs, notamment les bons du Trésor américains, ce qui permet au dollar de continuer de jouer un rôle de « devise refuge » au cours des périodes de turbulences financières ; la Fed a su jouer efficacement son rôle de prêteur en dernier ressort, même au niveau mondial avec ses opérations de swaps de devises avec les autres banques centrales. Mais pour Bernanke, les Etats-Unis ne tirent actuellement que des bénéfices symboliques du rôle international joué par leur devise. La concurrence exercée par les autres devises, notamment le yen et l’euro, a significativement érodé le « privilège exorbitant » des Etats-Unis. Pour preuve, les taux d’intérêt que les Etats-Unis payent sur les actifs sûrs, notamment les titres publics, ne sont en général pas plus faibles que ceux payés par les autres pays. En outre, lorsque le dollar joue son rôle de « valeur refuge », il tend à s’apprécier, ce qui pénalise la compétitivité des produits américains sur les marchés internationaux, précisément à un moment où l’environnement économique est le plus hostile.

Ce qui distingue la transmission de la politique monétaire américaine par rapport à la transmission des politiques monétaires des autres banques centrales est le fait que beaucoup d’emprunteurs dans les pays émergents empruntent en dollar. Pour autant, Bernanke estime que la Fed ne joue pas un rôle de « banque centrale du monde ». Le taux d’intérêt pertinent pour les décisions d’investissement et d’embauche d’une entreprise étrangère est le coût d’emprunt mesuré en termes de devise locale, non le taux d’intérêt du dollar. Ainsi, lorsque la Fed resserre sa politique monétaire, les emprunteurs autour du monde ne font pas pour autant face à des conditions d’emprunt plus strictes. La politique monétaire de la Fed affecte par contre le coût de remboursement des prêts existants, or beaucoup de prêts en dollar accordés aux emprunteurs étrangers ne sont pas couverts contre le risque de change. Si la Fed resserre sa politique monétaire et si le dollar s’apprécie fortement, ces prêts, qui apparaissaient initialement bon marché, deviendront très coûteux. Heureusement, le dollar s’est considérablement apprécié au cours des 18 derniers mois et, pour l’heure, il n’y a pas eu de problèmes financiers majeurs.

 

Références

BERNANKE, Ben (2015), « Federal reserve policy in an international context », document de travail, présenté à la 16ème conférence annuelle Jacques Polak, organisée par le FMI, novembre.

BERNANKE, Ben (2016a), « What did you do in the currency war, Daddy? », in Ben Bernanke’s blog, 5 janvier.

BERNANKE, Ben (2016b), « Tantrums and hot money: How does Fed policy affect global financial stability? », in Ben Bernanke’s blog, 6 janvier.

BERNANKE, Ben (2016c), « The dollar’s international role: An “exorbitant privilege”? », in Ben Bernanke’s blog, 7 janvier.

Partager cet article
Repost0
16 décembre 2015 3 16 /12 /décembre /2015 19:30

Depuis la crise financière mondiale, la Fed a fortement assoupli sa politique monétaire. Après avoir ramené ses taux directeurs au plus proche de zéro, elle a adopté des mesures non conventionnelles comme des achats d’actifs à grande échelle à travers ses programmes d’assouplissement quantitatif (quantitative easing). Ces diverses mesures, menées dans un contexte de faibles perspectives de croissance dans les pays avancés, ont notamment contribué à réorienter les mouvements internationaux de capitaux à destination des pays émergents, ce qui a pu stimuler l’activité, le crédit et les prix d’actifs au sein de ces derniers.

Les taux directeurs de la Fed sont à leur borne zéro depuis déjà six ans. Ils n’ont pas été relevés depuis 2006. A mesure que la reprise se poursuit aux Etats-Unis et que l’économie américaine se rapproche du plein emploi, il est de plus en plus probable que la Fed resserre sa politique monétaire. En effet, les variations des taux directeurs ne se répercutent pas immédiatement à l’économie. Or, si la Fed laisse ses taux trop longtemps trop bas, elle prend non seulement le risque d’un dérapage de l’inflation à moyen terme, mais aussi le risque d’alimenter de nouveau les déséquilibres financiers et d’exposer l’économie américaine à une nouvelle crise financière. En outre, la Fed désire normaliser sa politique monétaire afin d’avoir une marge de manœuvre suffisante pour baisser ses taux si l’économie domestique subissait un nouveau choc.

Ce resserrement a débuté avec le ralentissement (tapering) dans les achats d’actifs. Or les précédents resserrements de la politique monétaire américaine ont pu déstabiliser les pays émergents et notamment les confronter à des crises financières ; la crise de la dette des pays en développement au début des années quatre-vingt, la crise mexicaine en 1994 et la crise asiatique en 1997 sont divers épisodes qui se sont produits lors de cycles de resserrements de la politique monétaire américaine. Or l’ampleur inédite du récent assouplissement de la politique monétaire américaine pourrait laisser présager de plus sévères épisodes d’instabilité financière lors du prochain cycle de resserrement monétaire. La simple évocation du tapering au milieu de l’année 2013 a pu entraîner un effondrement des prix d’actifs, une dégradation des soldes courants, une fuite des capitaux et une dépréciation des taux de change dans le monde émergent. Depuis cet épisode, la Fed a amélioré sa communication sur les perspectives futures d’un resserrement de sa politique monétaire afin que les marchés anticipent mieux ses décisions, de façon à éviter de nouveaux épisodes de volatilité.

Carlos Arteta, Ayhan Kose, Franziska Ohnsorge et Marc Stocker (2015) ont rencensé et évalué les possibles répercussions du resserrement de la politique monétaire américaine sur le reste du monde. D’un côté, dans la mesure où le cycle de resserrement monétaire débute dans un contexte de croissance américaine robuste, or cette dernière est susceptible de bénéficier au reste du monde, notamment via l’accroissement des importations américaines. En outre, la politique monétaire sera probablement resserrée graduellement et cette normalisation a été anticipée depuis longtemps. De plus, les banques centrales des autres économies avancées sont susceptibles de maintenir une politique monétaire extrêmement accommodante, ce qui devrait continuer d’alimenter la liquidité mondiale et maintenir les taux d’intérêt mondiaux à un faible niveau. 

D’un autre côté, rien n’assure que les anticipations de marché ne s’ajusteront pas de façon désordonnée. La vigueur même de la croissance américaine et la situation du marché du travail restent incertaines, or de telles incertitudes ne permettent pas d’évaluer jusqu’à quel point la Fed se rapproche des objectifs associés à son double mandat. En outre, les anticipations de marché quant à l’évolution future des taux d’intérêt sont inférieures aux anticipations du comité de politique monétaire de la Fed, si bien qu'elles sont susceptibles d'être subitement révisées à la hausse. Surtout, les pays émergents font déjà face à un environnement macroéconomique fragile : la croissance mondiale est lente, la croissance des échanges mondiaux est faible et les prix des matières premières sont faibles, détériorant les perspectives de croissance des pays qui les exportent. Aussi bien la croissance du PIB des pays émergents, que la croissance de leur PIB potentiel, ont fortement ralenti ces dernières années. Plusieurs d’entre eux sont marqués par des fragilités domestiques et ont notamment connu une forte hausse de leur dette privée, ce qui expose leurs résidents à de douloureux ajustements de bilan. L’appréciation du dollar est susceptible de se poursuivre avec le resserrement de la politique monétaire américaine, or elle risque d’aggraver davantage les perspectives de croissance des pays émergents [Druck et alii, 2015]. La réalisation soudaine de ces risques peut entraîner un déclin significatif des flux de capitaux à destination des pays émergents. Les plus fragiles d’entre eux font donc face au risque d’un véritable arrêt soudain (sudden stop) dans les entrées de capitaux, ce qui entraînerait non seulement une contraction de leur activité domestique, mais les expose aussi à une crise financière.

Swarnali Ahmed (2015) s’est lui-même récemment penché sur les épisodes passés de resserrements de la politique monétaire américaine pour en déterminer les répercussions sur les mouvements internationaux de capitaux. Il utilise un échantillon de 48 pays, dont 27 pays avancés et 21 pays émergents, entre 1982 et 2006, une période au cours de laquelle il y a eu cinq cycles de resserrements monétaires. Il constate que les répercussions sur les flux de portefeuille ou sur l’ensemble des flux de capitaux privés sont significativement plus fortes pour les pays émergents que pour les pays avancés. Les flux de capitaux des pays émergents sont affectés un trimestre avant le premier relèvement des taux directeurs de la Fed, ce qui suggère que les marchés anticipent cet événement. Ahmed estime toutefois que les pays émergents peuvent difficilement contrer ces répercussions avant la première hausse des taux, par exemple en imposant un contrôle des capitaux, puisque son analyse suggère que les pays qui ont libéralisé leur compte de capital ne sont pas plus affectés que les autres. Par contre, une fois que la Fed a commencé à relever ses taux, les pays émergents peuvent mettre en place des mesures susceptibles d’atténuer les répercussions de ce resserrement monétaire sur les flux de capitaux. Ahmed note par exemple que les pays ayant ouvert leur compte de capital ont connu une reprise plus rapide.

 

Références

AHMED, Swarnali (2015), « If the Fed acts, how do you react? The liftoff effect on capital flows », FMI, working paper, n° 15/256, décembre.

ARTETA, Carlos, M. Ayhan KOSE, Franziska OHNSORGE & Marc STOCKER (2015), « The coming U.S. interest rate tightening cycle: Smooth sailing or stormy waters? », CAMA, working paper, n° 37/2015, octobre.

DRUCK, Pablo, Nicolas E. MAGUD & Rodrigo MARISCAL (2015), « Collateral damage: Dollar strength and emerging markets’ growth », FMI, working paper, n° WP/15/179, juillet.

Partager cet article
Repost0
3 décembre 2015 4 03 /12 /décembre /2015 17:04

La Grande Récession a été si violente et l’inflation s’est par la suite tellement affaiblie que plusieurs banques centrales ont dû ramener leurs taux directeurs au plus proche de zéro. Un tel assouplissement s’est toutefois révélé insuffisant pour ramener les économies au plein emploi et le taux d’inflation à sa cible (généralement 2 %). Pour certains, le taux d’intérêt naturel, c’est-à-dire le taux d’intérêt qui devrait être en vigueur pour stabiliser l’activité et assurer le plein emploi, a même été fortement négatif. Dans une telle situation de trappe à liquidité, beaucoup de banques centrales ont multiplié les mesures « non conventionnelles » pour assouplir davantage leur politique monétaire. Elles ont par exemple réalisé des achats d’actifs à grande échelle, notamment dans le cadre de programmes d’assouplissement quantitatif et elles ont cherché à mieux guider les anticipations des agents à travers la pratique du forward guidance. Certains suggèrent également que les banques centrales relèvent le taux d’inflation qu’elles ciblent, qu’elles se mettent à cibler le PIB nominal ou encore qu’elles émettent de la monnaie-hélicoptère. Aujourd’hui, la Réserve fédérale envisage peut-être de relever enfin ses taux directeurs, mais beaucoup des autres banques centrales du monde développé cherchent toujours à davantage soutenir l’activité économique.

GRAPHIQUE  Les taux directeurs de la BCE, de la Banque nationale du Danemark, de la Banque nationale suisse et de la Banque de Suède (en %)

A zéro et en-deçà. Que nous enseigne la récente expérience avec les taux d’intérêt négatifs ?

source : Jackson (2015)

Beaucoup supposent que la borne inférieure effective des taux directeurs est proche de zéro, mais pas inférieure à celle-ci. Or, plusieurs banques centrales ont adopté ces dernières années des taux d’intérêt négatifs. Depuis le milieu de l’année 2014, quatre banques centrales ont introduit des taux directeurs négatifs : la Banque nationale du Danemark, la Banque centrale européenne, la Banque nationale suisse et la Banque de Suède. En l’occurrence, soit elles ont appliqué un taux d’intérêt négatif sur les dépôts des banques commerciales (cas de la Banque nationale suisse, de la Banque nationale du Danemark et de la BCE), soit elles ont réduit la cible de leur principal taux directeur sous zéro (cas avec la Banque de Suède et la Banque nationale suisse). Ces diverses banques centrales ont généralement adopté des taux d’intérêt négatifs pour stimuler plus amplement leur économie, dans un contexte de faible inflation et de faible croissance ; comme ce contexte persiste, il est probable qu’elles cherchent à davantage pousser leurs taux directeurs en territoire négatif : par exemple, lors de la réunion qui s’est tenue aujourd’hui, la BCE a passé son taux d’intérêt de facilité de dépôt de -0,2 % à -0,3 %. Au Danemark et en Suisse, les banques centrales ont introduit des taux négatifs afin de freiner les entrées de capitaux et de contenir l’appréciation du taux de change. Ces dernières années, même les autres banques centrales, notamment la Fed, n’ont pas exclu la possibilité de réduire leur taux directeur en deçà de zéro.

La transmission d’une variation des taux directeurs négatifs à l’activité économique devrait être en théorie assez similaire à celle d’une variation des taux directeurs au-dessus de zéro [Jackson, 2015]. Les taux directeurs négatifs vont décourager les banques à détenir des réserves excessives à la banque centrale et donc les inciter à prêter, ce qui se traduit par une baisse des taux d’intérêt. En outre, les agents sont incités à ne pas laisser leur épargne oisive sur leurs comptes bancaires, mais plutôt à la placer sous la forme d’actions et d’obligations, ce qui contribue à pousser les prix d’actifs à la hausse via les rééquilibrages de portefeuille. La baisse des taux d’intérêt devrait stimuler le crédit, tandis que la hausse des prix d’actifs devrait générer des effets de richesse. La plus grande disponibilité du crédit et les effets de richesse incitent les résidents, notamment les entreprises et les ménages, à davantage dépenser. En décourageant les entrées de capitaux, les taux directeurs négatifs vont pousser le taux de change à la baisse, donc accroître la compétitivité des produits domestiques sur les marchés internationaux et par là les exportations. L’accroissement de la demande domestique et extérieure stimule alors la production, incite les entreprises à embaucher et conduit finalement à une accélération de l’inflation. En outre, les taux d’intérêt négatifs sont susceptibles de réduire la charge de la dette publique, ce qui accroîtrait la marge de manœuvre budgétaire des gouvernements et leur permettrait de ralentir le rythme de la consolidation budgétaire, réduisant par là la contrainte que cette dernière fait peser sur l’activité.

Les banques centrales ont pu envisager d’adopter des taux d’intérêt négatifs pour éviter les effets pervers que l’on prête aux autres mesures non conventionnelles, notamment à l’assouplissement quantitatif. Les taux d’intérêt négatifs ne sont pourtant pas sans susciter également des inquiétudes. Par exemple, ils sont susceptibles de réduire la profitabilité des banques commerciales et de dégrader finalement l’intermédiation financière. Les banques pourraient être incitées à moins emprunter à la banque centrale pour éviter les réserves excessives et éviter ainsi d’avoir à payer un taux de dépôt négatif, auquel cas les taux d’intérêt pourraient s’accroître sur les marchés interbancaires et obligataires, annulant les bénéfices initiaux des taux directeurs négatifs. Incapables de proposer des rendements attractifs, les fonds monétaires risquent davantage de s’effondrer. Des sociétés financières comme les assureurs et les fonds de pension pourraient être incitées à prendre davantage de risques et à se lancer dans une chasse au rendement particulièrement agressive, ce qui risque de provoquer à terme une nouvelle crise financière. L’ensemble des agents pourraient être incités à prépayer leurs achats et à retarder l’encaissement de chèques, si bien qu’un large volume de liquidité pourrait rester oisif dans l’économie au lieu de financer l’activité productive [McAndrews, 2015]. Les agents sont incités à ne pas laisser leur monnaie sur leurs comptes, ce qui accroît le risque de paniques bancaires, donc à nouveau le risque d’effondrement du secteur bancaire. Enfin, la réduction de la charge de la dette publique pourrait provoquer une baisse excessive des primes de risque souverain, si bien que les taux d’intérêt sur les titres publics seront susceptibles de connaître à l’avenir de plus fortes corrections ; les gouvernements seront quant à eux désincités à surveiller leurs finances publiques et à mettre en œuvre des réformes structurelles [Hannoun, 2015].

Harriet Jackson (2015) a récemment cherché à tirer les leçons de la récente expérience des banques centrales avec les taux d’intérêt négatifs. Elle voit émerger un consensus selon lequel la borne inférieure effective des taux d’intérêt nominaux est négative. Des estimations grossières suggèrent qu’elle pourrait se situer autour de -2 %, bien qu’il y ait une forte incertitude sur sa valeur exacte ; en pratique, elle pourrait plutôt se situer autour de -1 %. En pratique, la transmission des taux directeurs négatifs fonctionne, bien que la transmission aux taux prêteurs et aux taux de dépôt des banques ait généralement été partielle. Les banques se sont en effet révélées réticentes à proposer des taux négatifs à leurs déposants. L’impact sur l’économie réelle de légères variations de taux directeurs négatifs semble plus modeste que celui de variation équivalente de taux directeurs positifs. Enfin, Jackson identifie peu de preuves empiriques suggérant que les taux directeurs négatifs génèrent une volatilité excessive sur les marchés financiers : en présence de taux d’intérêt négatifs, les marchés financiers ont continué de fonctionner sans perturbation significative et il n’y a pas eu de paniques bancaires, du moins jusqu’à présent.

 

Références

CECCHETTI, Stephen G., & Kermit L. SCHOENHOLTZ (2015), « Negative nominal interest rates: back to the future?  », in Money & Banking (blog), 9 février.

HANNOUN, Hervé (2015), « Ultra-low or negative interest rates: what they mean for financial stability and growth », discours, 22 avril.

JACKSON, Harriet (2015), « The international experience with negative policy rates », Banque du Canada, staff discussion paper, n° 2015-13

MCANDREWS, James (2015), « Negative nominal central bank policy rates – Where is the lower bound? », discours.

Partager cet article
Repost0
29 novembre 2015 7 29 /11 /novembre /2015 16:02

Dans plusieurs pays, la déflation a pris la place de l’hyperinflation comme principal défi posé à la politique monétaire. Beaucoup d’économistes et de banquiers centraux considèrent en effet que la déflation des années trente a grandement contribué à la gravité de la Grande Dépression : les prix ont chuté d’un tiers entre 1929 et 1933 aux Etats-Unis. Depuis le début des années quatre-vingt-dix, le Japon peine difficilement à renouer avec l’inflation et avec la croissance, enchaînant les « décennies perdues » ; l’économie insulaire a par ailleurs basculé de nouveau en déflation et en récession ces derniers mois, malgré les mesures agressives (quoique contradictoires) de Shinzo Abe. Malgré les avertissements lancés par Paul Krugman (1998) et Ben Bernanke (2000) au terme de leurs travaux sur l’expérience japonaise, les autres pays avancés ont également fini par connaître une très faible inflation (lowflation) ces dernières années, dans le sillage de la crise financière mondiale.

Une baisse des prix généralisée n’est pas aussi bénéfique qu’on pourrait le penser de prime abord. Inspirée par la Grande Dépression et par la récente expérience japonaise, la littérature a en effet identifié plusieurs canaux à travers lesquels la déflation est susceptible de nuire à l’activité économique, tout du moins lors des récessions, et d’avoir tendance à s’auto-entretenir. En effet, la déflation désincite les entreprises à investir, puisqu’elle réduit les recettes nominales qu’elles peuvent retirer de leurs projets d’investissement. Elle désincite également les entreprises à embaucher, car elle accroît les salaires réels. L’anticipation de la déflation peut inciter les ménages à retarder leurs achats de biens durables, puisqu’ils pensent pouvoir les acheter plus tard à un plus faible prix. Selon le mécanisme de déflation par la dette (debt-deflation) d’Irving Fisher (1933), les emprunteurs, qu’il s’agisse d’agents privés ou d’Etats, voient le fardeau réel de leur dette augmenter avec la déflation non anticipée, ce qui les incite à réduire leurs dépenses pour se désendetter ; les entreprises endettées sont ainsi d’autant incitées plus incitées à réduire leurs investissements et à licencier. Comme les défauts de paiement augmentent, les banques sont davantage susceptibles de faire faillite, donc elles sont plus réticentes à prêter, ce qui aggrave en retour la situation financière des agents privés et la récession. En outre, la baisse des dépenses incite les entreprises à davantage réduire leurs prix, si bien que la déflation a tendance à s’auto-entretenir. Enfin, les banques centrales peuvent avoir une marge de manœuvre limitée pour contrer une déflation, car elles peuvent difficilement réduire les taux d’intérêt nominaux en-deçà de zéro. Bref, non seulement une déflation est nuisible, mais il est en outre difficile d’en sortir une fois qu’elle est là.

Plusieurs objections ont été soulevées, tant sur le plan théorique qu’empirique. D’une part, plusieurs économistes remettent en question l’idée que la déflation soit forcément une mauvaise chose. Michael Bordo, John Landon Lane et Angela Redish (2004) ont notamment observé l’impact de deux décennies de déflation (entre 1873 et 1893) et de deux décennies d’inflation (entre 1893 et 1913) sur l’activité aux Etats-Unis et en Allemagne. Ils ne constatèrent que très peu de preuves empiriques suggérant que la déflation soit associée à une plus faible croissance. Plus récemment, Claudio Borio, Magdalena Erdem, Andrew Filardo et Boris Hofmann (2015) ont affirmé que les coûts de la déflation ont été surestimés par la littérature. A partir d’un échantillon de 38 économies sur 140 années, ils estiment en effet que le lien entre croissance de la production et déflation est faible et qu’il s’explique essentiellement par la Grande Dépression. Ces divers auteurs suggèrent qu’il faut alors différencier entre « mauvaises déflations » et « bonnes déflations ». Ces dernières résultent de chocs d’offre positifs, qui accroissent la production et stimulent la demande grâce au surcroît de pouvoir d’achat associé à la baisse des prix ; ce pourrait être notamment le cas entre 1873 et 1893, lorsque les pays occidentaux s’industrialisaient et que le commerce international connaissait une véritable mondialisation. Les mauvaises déflations sont quant à elles associées à des chocs de demande négatifs ; ce pourrait être le cas des Etats-Unis dans les années trente et du Japon depuis les années quatre-vingt-dix. 

Barry Eichengreen (2015b) s’est alors demandé si ce que nous avons récemment observé relève d’une « bonne » ou d’une « mauvaise déflation ». Le fait que l’économie mondiale ait subi une récession synchrone à une crise financière mondiale (qui suivaient elles-mêmes une forte expansion du crédit) suggère qu’il s’agisse d’une mauvaise déflation.  Les ménages, les entreprises, les banques, mais aussi les gouvernements, ont pu chercher à se désendetter, donc à réduire leurs dépenses. En outre, le fait que les Etats-Unis et d’autres pays avancés connaissent un ralentissement de la croissance de la productivité depuis 2005 n’est pas non plus cohérent avec l’idée d’une « bonne déflation » associée à un choc d’offre positif. En effet, la croissance annuelle de la productivité mondiale est passée de 1 % entre 1996 et 2006 à quasiment zéro entre 2013 et 2015 [Eichengreen et alii, 2015]. Toutefois, le ralentissement de l’inflation et la baisse des taux d’intérêt datent d’avant la crise financière mondiale, ce qui suggère qu’elles ne résultent pas seulement de cette dernière, ce qui tend à accréditer l’hypothèse de la stagnation séculaire avancée par Larry Summers (2014) : les pays avancés feraient face à une insuffisance chronique de la demande globale, en raison d’un excès d’épargne (désirée) sur l’investissement (désiré). Plusieurs raisons amènent toutefois Eichengreen à prendre avec précaution cette hypothèse… [Eichengreen, 2015a]. Si elle est toutefois valide, elle accrédite l’idée que l’inflation est susceptible de rester durablement faible.

Notamment parce qu’il n’y a pas de consensus sur l’existence et la nature de la déflation, il n’y a pas de consensus sur la réaction que doivent adopter les banques centrales. Or, pour certains, même si effectivement les économies font face à une déflation nuisible à l’activité, il n’est pas sûr que la politique monétaire soit à même de la combattre et, même si elle s’avère efficace, il n’est pas sûr qu’elle ne génère pas plus d’effets pervers que de bénéfices. En l’occurrence, le maintien de faibles taux d’intérêt et l’adoption de mesures non conventionnelles peuvent alimenter les prises de risque et l’endettement, c’est-à-dire alimenter des déséquilibres susceptibles d’entraîner une nouvelle crise financière.

Selon Eichengreen (2015b), si les mesures monétaires ne parviennent pas à relancer l’inflation, alors les autorités doivent en faire plus. Certaines banques centrales sont parvenues ces dernières années à légèrement pousser les taux d’intérêt en territoire négatif ; c’est le cas de la Banque de Suède, de la Banque nationale du Danemark, de la Banque nationale suisse et même de la BCE. Ce faisant, les banques centrales cherchent notamment à ce que les agents privés utilisent l’épargne de leurs comptes bancaires, soit pour consommer, soit pour acheter des actions et obligations : dans le premier cas, la demande globale s’en trouve directement stimulée : dans le second cas, elle est stimulée plus indirectement, via les effets de richesse que génère la hausse des cours boursiers et obligataires. Toutefois, non seulement il n’est pas certain que les banques centrales puissent fortement éloigner les taux d’intérêt de zéro, mais il est également possible que les taux d’intérêt négatifs mettent en difficulté le système bancaire. Ainsi, depuis le début de la crise financière mondiale, les banques centrales ont surtout cherché à provoquer des rééquilibrages de portefeuilles et à générer des effets de richesse en procédant à des achats d’actifs à grande échelle, notamment à des achats de titres publics dans le cadre de programmes d’assouplissement quantitatif (quantitative easing). Si les mesures supplémentaires sont susceptibles de menacer la stabilité financière, Eichengreen rappelle que des outils « macroprudentiels » peuvent être mis en place pour assurer cette dernière, tout en permettant aux banques centrales de continuer d’assouplir leur politique monétaire pour stimuler l’activité et l’inflation. Si les banques centrales manquent de titres publics à acheter, alors elles peuvent se tourner vers d’autres actifs.

Si les éventuels effets pervers des achats d’actifs à grande échelle et la forte hausse du bilan des banques centrales suscitent des inquiétudes chez ces dernières, alors elles peuvent coopérer avec les gouvernements pour émettre de la monnaie-hélicoptère : les banques centrales élargissent alors la base monétaire en procédant à des transferts au bénéfice des ménages ou des entreprises pour les inciter à consommer et à investir. Les autorités budgétaires peuvent elles-mêmes entreprendre les dépenses et les banques centrales financer ces dernières via la création monétaire. En l’occurrence, si les banques centrales utilisent la création monétaire pour financer des investissements publics dans les infrastructures, ces derniers peuvent s’opérer sans que la dette publique augmente ; ils peuvent même contribuer à la réduire. Dans tous les cas, les autorités monétaires peuvent exiger des gouvernements qu’ils s’engagent à les recapitaliser si elles le jugent nécessaire, par exemple si les achats d’actifs se soldent par d’importantes pertes.

La politique monétaire n’est pas le seul levier par lequel les autorités peuvent stimuler l’inflation. Si les banques centrales ne désirent pas adopter les mesures citées ci-dessus, de peur de voir leur indépendance, leur crédibilité ou leur solvabilité être remises en cause, alors les gouvernements peuvent adopter des plans de relance sans monétisation de leur dette. Dans des conditions normales, celles observées lorsque l’économie est en expansion, une expansion budgétaire peut conduire à un effet d’éviction sur la consommation et l’investissement du secteur privé, notamment en poussant les taux d’intérêt à la hausse. Mais lorsque l’économie fait face à une croissance atone, qu’elle soit en récession ou bien en prise avec une stagnation séculaire, alors elle tend à générer davantage d’épargne que d’investissement, si bien que l’excès d’épargne peut être facilement absorbé pour financer le surcroît de dépenses publiques sans pousser les taux d’intérêt à la hausse. C’est précisément ce qu’avait en tête Keynes lorsqu’il écrivait à propos de la trappe à liquidité : dans un cadre hicksien, la pente de la courbe LM est horizontale, si bien qu’un déplacement de la courbe IS vers la droite est susceptible de stimuler l’activité sans conduire à une hausse des taux d’intérêt. Bien sûr, le niveau élevé d’endettement des gouvernements suscite aujourd’hui des craintes quant à sa soutenabilité. Mais comme Brad DeLong et Larry Summers (2012) et le FMI (2014) l’ont souligné, dans notre environnement de très faibles taux d’intérêt, les gouvernements peuvent entreprendre des projets d’investissement susceptibles de largement s’autofinancer avec les recettes fiscales futures. Plaidant pour un surcroît d'investissement public dans les infrastructures, le FMI a notamment montré que celui-ci n’a typiquement pas d’impact sur les coûts de financement public et qu’il réduit les ratios dette publique sur PIB à court terme comme à long terme.

Au final, Eichengreen en conclut que les autorités ne sont pas démunies face à la déflation ; cette dernière ne persiste et ne s’aggrave que si les autorités monétaires et budgétaires renoncent faire suffisamment d’efforts pour la combattre.

 

Références

BERNANKE, Ben S. (2000), « Japanese monetary policy: A case of self-induced paralysis? », in Ryoichi Mikitani and Adam Posen (dir.), Japan’s Financial Crisis and Its Parallels to U.S. Experience, Institute for International Economics.

BORDO, Michael D., John LANDON LANE, Angela REDISH (2004), « Good versus bad deflation: Lessons from the Gold Standard era », NBER, working paper, n° 10329, février.

DELONG, Brad, & Lawrence SUMMERS (2012), « Fiscal policy in a depressed economy », Brookings Papers on Economic Activity, vol. 44, n° 1.

BORIO, Claudio, Magdalena ERDEM, Andrew FILARDO & Boris HOFMANN (2015), « The costs of deflations: a historical perspective », BRI, BIS Quarterly Review, mars.

EICHENGREEN, Barry (2015a), « Secular stagnation: The long view », NBER, working paper, n° 20836, janvier.

EICHENGREEN, Barry (2015b), « Deflation and monetary policy », Banque de Corée, working paper, n° 2015-25.

EICHENGREEN, Barry, Donghyun PARK, & Kwanho SHIN (2015), « The global productivity slump: common and country-specific factors », NBER, working paper, n° 21556, septembre.

FISHER, Irving (1933), « The debt deflation theory of great depressions », in Econometrica, vol. 1, n° 4. Traduction française, « La théorie des grandes dépressions par la dette et la déflation », in Revue française d’économie, vol. 3, n°3, 1988.

FMI (2014), « Is it time for an infrastructure push? The macroeconomic effects of public investment », in World Economic Outlook, octobre. 

KRUGMAN, Paul (1998), « It’s Baaack: Japan’s slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, vol. 19, n° 2. 

SUMMERS, Lawrence (2014), « U.S. economic prospects: Secular stagnation, hysteresis, and the zero lower bound », in Business Economics, vol. 49, n° 2.

Partager cet article
Repost0
8 octobre 2015 4 08 /10 /octobre /2015 22:25

La majorité des banques centrales ont adopté le ciblage d’inflation depuis le début des années quatre-vingt-dix. En l’occurrence, la majorité d’entre elles cherchent à maintenir le taux d’inflation au plus proche de 2 % : en principe, elles resserrent leur politique monétaire lorsqu’elles estiment que l’inflation va s’accélérer au-delà de 2 % et elles l’assouplissent lorsqu’elles estiment que l’inflation sera inférieure à 2 %. Si les agents anticipent que la banque centrale fera tout son possible pour maintenir l’inflation à 2 %, leurs anticipations d’inflation s’ancreront plus rapidement autour de 2 %, ce qui facilitera la tâche des autorités monétaires. Certains pensent également que la plus grande stabilité des prix contribue à renforcer la stabilité macroéconomique.

Le ciblage d’inflation, tel qu’il a été adopté par les banques centrales, n’a toutefois pas empêché les pays avancés de connaître la plus forte contraction de leur activité depuis la Grande Dépression des années trente. Les coûts associés à la Grande Récession ont été amplifiés par le fait que les taux d’intérêt nominaux aient été contraints par leur borne inférieure zéro (zero lower bound). Il aurait fallu que les taux d’intérêt soient négatifs pour que l’écart de production (output gap) se referme et pour que l’économie revienne à son plein emploi. Comme les taux d’intérêt nominaux peuvent difficilement baisser en deçà de zéro, la politique monétaire en devient excessivement restrictive : au lieu d’atténuer le choc déflationniste et le chômage, elle les amplifie.

Plusieurs études ont cherché à déterminer si l’existence de la borne inférieure zéro nécessite à ce que les banques centrales relèvent leur cible d’inflation [Kryvtsov et Mendes, 2015]. Par exemple, en supposant que le taux d’intérêt naturel soit de 2,5 % et que la cible d’inflation soit de 2 %, David Reifschneider et John Williams (2000) ont estimé que la politique monétaire ne sera contrainte à la borne inférieure zéro que 5 % du temps et que ces épisodes de trappe à liquidité ne durent pas plus d’une année. Olivier Coibion, Yuriy Gorodnichenko et Johannes Wieland (2012) constatent que la prise en compte de la borne inférieure zéro élève le taux d’inflation optimal de zéro à 1,5 %. Par conséquent, leurs résultats ne justifient pas une cible supérieure à 2 %.

Comme le montrent Oleksiy Kryvtsov et Rhys Mendes (2015) dans leur revue de la littérature sur l’optimalité de la cible d’inflation, les événements et études de ces dernières années ont mis davantage en évidence les dangers associés à la trappe à liquidité et les difficultés pour l’économie d’en sortir : les coûts du ciblage d’une inflation de 2 % sont beaucoup plus élevés que ce que l’on pensait auparavant. La trappe à liquidité a persisté beaucoup plus longtemps dans les pays avancés lors de la Grande Récession que ce qui avait été anticipé. Malgré le déploiement de mesures non conventionnelles de politique monétaire, les banques centrales des principales régions développées ont dû maintenir leurs taux d’intérêt durablement au plus proche de zéro, sans pour autant parvenir à ramener leur taux d’inflation aux alentours de 2 %, à refermer l’écart de production et à ramener l’économie au plein emploi. La faiblesse persistante de la demande globale et surtout, dans la période récente, la baisse des prix du pétrole ont continué d’exercer des pressions à la baisse sur les taux d’inflation, au point que de nombreuses économies avancées ont basculé en déflation ou sont proches d’y basculer. Ensuite, les études qui ont mené avant 2011 à partir d’échantillons d’après-guerre ont pu sous-estimer le degré de volatilité dans l’économie. Or, des études comme celles réalisées par Oscar Jorda, Moritz Schularick et Alan Taylor ont montré que les crises financières et les contractions brutales de l’activité sont bien plus fréquentes que ne le suggèrent la seule observation de la période entre la Seconde Guerre mondiale et la Grande Récession. Enfin, les analyses, notamment celles menées par les banques centrales, suggèrent que les taux d’intérêt sont susceptibles d’être à l’avenir en moyenne inférieurs à ceux observés lors des deux dernières décennies. Par conséquent, la probabilité pour que les taux d’intérêt soient contraints par leur borne inférieure zéro est encore plus élevée que par le passé.

Pour autant, beaucoup d’économistes, notamment les banquiers centraux, sont réticents à ce que les banques centrales abandonnent le ciblage d’inflation. Par contre, plusieurs d’entre eux suggèrent à ce que les banques centrales ciblent un taux d’inflation supérieur à 2 % ; Laurence Ball (2014), Olivier Blanchard, Paul Krugman ou encore l’actuel banquier centrale de la Banque d’Angleterre, Mark Carney, ont suggéré que les banques centrales ciblent plutôt une inflation de 4 %. D’une part, les coûts macroéconomiques associés à une inflation de 4 % ne sont très certainement pas significativement plus élevés que ceux associés à une inflation de 2 %. Mais surtout un tel relèvement réduit la fréquence des épisodes de trappe à liquidité. En effet, si les banques centrales adoptaient une cible d’inflation de 4 % en lieu et place d’une inflation de 2 %, les banques centrales auraient eu une plus large marge de manœuvre pour réduire leurs taux directeurs face à un choc de demande négatif et il y aurait eu moins de chances que les taux d’intérêt se retrouvent contraints par leur borne zéro. Enfin, l’inflation contribue d’autant plus à réduire l’endettement des agents qu’elle est élevée. En l’occurrence, une forte inflation érode la dette publique, ce qui accroît la marge de manœuvre des autorités budgétaires et leur permettre d’assouplir davantage leur politique budgétaire, ce qui réduit les chances que l’économie bascule dans une trappe à liquidité et facilite la reprise de l’économie hors d’une trappe à liquidité.

 

Références

BALL, Laurence (2013), « A case for a long-run inflation target of four percent », FMI, working paper, n° 14/92.

COIBION, Olivier, Yuriy GORODNICHENKO & Johannes WIELAND (2012), « The optimal inflation rate in new Keynesian models: Should central banks raise their inflation targets in light of the zero lower bound? », in Review of Economic Studies, vol. 79.

JORDA, Oscar, Moritz H.P. SCHULARICK & Alan M. TAYLOR, (2011), « Financial crises, credit booms and external imbalances: 140 years of lessons », in IMF Economic Review, vol. 59, n° 2.

KRYVTSOV, Oleksiy, & Rhys R. MENDES (2015), « The optimal level of the inflation target: A selective review of the literature and outstanding issues », Banque du Canada, document d’analyse, n° 2015-8

REIFSCHNEIDER, David, & John C. WILLIAMS (2000), « Three lessons for monetary policy in a low inflation era », in Journal of Money, Credit and Banking, vol. 32, n° 4.

SCHULARICK, Moritz H.P., & Alan M TAYLOR (2012), « Credit booms gone bust: monetary policy, leverage cycles, and financial crises: 1870–2008 », in American Economic Review, vol. 102, n° 2, avril.

Partager cet article
Repost0
25 juin 2015 4 25 /06 /juin /2015 11:01

Le bilan des banques centrales a connu une forte expansion durant la récente crise financière mondiale et lors de la subséquente reprise. En l’occurrence, les banques centrales ont délibérément laissé gonfler leur bilan pour stimuler l’activité. Cette politique reste toutefois très controversée. Il n’est pas certain qu’elle stimule effectivement l’activité. Elle risque par contre d’avoir des effets pervers : certains craignent que l’explosion de la base monétaire entraîne une hyperinflation ou qu’elle alimente la prochaine crise financière.

Niall Ferguson, Andreas Schaab et Moritz Schularick (2015) ont étudié l’évolution des bilans des banques centrales de 12 pays avancés depuis 1900. Ils observent en l’occurrence 23 expansions et 17 expansions des bilans. La plupart du temps, la taille des bilans a fluctué entre 10 % et 20 % du PIB. Historiquement, les amples expansions et contractions des bilans ont été associées à des périodes de crise géopolitique ou financière. En l’occurrence, les épisodes synchronisés d’amples expansions et contractions ont été observées durant les Guerres mondiales, la Grande Dépression et la Grande Récession. Seul le cycle d’expansion-contraction de la Seconde Guerre mondiale est de même ampleur que celui observé depuis 2007. Les deux épisodes se distinguent toutefois l’un de l’autre dans leurs causes : alors que la finance de guerre représenta un puissant choc d’offre de monnaie avec des conséquences inflationnistes, les expansions de bilan lors de la récente crise résultent, du moins en partie, d’un puissant un choc de demande de monnaie durant la crise.

GRAPHIQUE Taille des bilans des banques centrales (en % du PIB)

Faut-il s’inquiéter de l’expansion du bilan des banques centrales ? Quelques enseignements de l'Histoire

source : Ferguson et alii (2015)

Relativement à la taille du secteur financier, les bilans des banques centrales (et en particulier les dépôts des banques commerciales auprès des banques centrales) se sont fortement réduits au cours des trois décennies précédant la crise financière. De ce point de vue, leur récente expansion marque en partie un retour aux niveaux antérieurs, en l’occurrence aux niveaux atteints durant les années soixante-dix, juste avant l’explosion du secteur financier. Au cours des dernières décennies, les banques centrales avaient ignoré l’énorme dette que le système financier édifiait et l’étroitesse toujours plus prononcée des fondations de liquidité sur laquelle il reposait. Depuis 2008, cette tendance a été en partie inversée. Par conséquent, les bilans des banques centrales sont susceptibles de rester durablement larges et les banques commerciales pourraient laisser de plus importants dépôts auprès des banques centrales.

Ferguson et ses coauteurs se sont demandé comment les banques centrales avaient réduit la taille de leur bilan au cours de l’histoire. La plupart des réductions ont eu lieu qu’avec l’expansion de l’économie. Seules quelques banques centrales ont normalisé leurs bilans après de larges expansions en réduisant leur taille nominale ; au cours de ces épisodes-là, la composition des bilans s’est révélée déterminante. Ils n’ont pas identifié un seul incident au cours duquel la banque centrale aurait vendu des titres de long terme publics (ou privés) pour inverser une large expansion en termes nominaux.

Ils montrent que, sur la période de leur échantillon, la taille du bilan des banques centrales et la dette publique tendent à varier dans le même sens. Cette observation est particulièrement vraie durant les Guerres  mondiales et immédiatement après elles. Durant les périodes de fortes turbulences économiques et politiques, les autorités budgétaires et monétaires ont eu tendance à travailler de concert. La distinction entre politique monétaire et politique budgétaire est alors difficile à se maintenir en période d’instabilité. L’expérience des années cinquante suggère qu’une banque centrale ayant acheté des obligations pour maintenir les taux d’intérêt de long terme à un faible niveau s’expose dès lors à des pressions politiques si elle désire ensuite s’en défaire.

Ferguson et ses coauteurs étudient également la relation entre le bilan des banques centrales et l’inflation. Les preuves empiriques ne suggèrent pas que la récente expansion des bilans fasse peser un risque immédiat sur la stabilité des prix. En effet, ils constatent une corrélation positive entre les deux variables pour la plupart du vingtième siècle, mais le lien s’est affaibli au cours des dernières décennies. Pour les auteurs, tant que les banques centrales gardent leur crédibilité en tant que gardiennes indépendantes de la stabilité des prix, l’expansion des bilans n’a pas à être nécessairement inflationniste. Par contre, la menace sur la stabilité des prix à long terme est réelle si l’indépendance des banques centrales est compromise. 

 

Références

FERGUSON, Niall, Andreas SCHAAB & Moritz SCHULARICK (2015), « Central bank balance sheets: Expansion and reduction since 1900 », CESifo, working paper, n° 5379.

WESSEL, David (2014), « Niall Ferguson’s (mostly) comforting history of central bank balance sheet expansions », in Wall Street Journal, 28 mai.

Partager cet article
Repost0
13 juin 2015 6 13 /06 /juin /2015 15:17

Face à la sévérité de la Grande Récession et à la lenteur de la subséquente reprise, les banques centrales ont adopté diverses mesures « non conventionnelles » pour stimuler l’économie et la ramener au plein emploi. Elles ont notamment adopté des politiques d’assouplissement quantitatif (quantitative easing) consistant, selon la définition qu’en donnent Lenza et alii (2010), à accroître délibérément la taille du bilan, mais aussi l’assouplissement du crédit (credit easing) qui consiste à changer délibérément la composition de l’actif. Ce fut le cas de la Réserve fédérale aux Etats-Unis, dès la fin de l’année 2008, lorsqu’elle ramena son taux directeur au plus proche de zéro et chercha d'autres moyens pour davantage approfondir sa politique monétaire. Au début de l’année 2014, la Banque du Japon s’est lancée dans un programme d’accroissement rapide de son bilan (constituant la « première flèche » de l’abenomics) afin de sortir l’économie insulaire de la déflation dans laquelle elle est plongée depuis la fin des années quatre-vingt-dix. Plus récemment, le basculement de la zone euro dans la déflation a finalement convaincu la BCE d'adopter un programme d’assouplissement quantitatif malgré la réticence de plusieurs de ses membres.

Au niveau théorique, les études explorant l’impact de la politique monétaire sur les anticipations d’inflation s’appuient très souvent sur l’analyse que réalisa Paul Krugman (1998) lorsqu’il observa l’enfermement du Japon dans une trappe à liquidité à la fin des années quatre-vingt-dix. Krugman y suggérait que l’inefficacité dont fait preuve la politique monétaire dans une trappe à liquidité se ramène finalement à un problème de crédibilité. Dans son modèle, l’offre de monnaie à long terme est fixe et celle-ci détermine le niveau des prix à l’avenir. Cependant, si la banque centrale peut s’engager de façon crédible à accepter une plus large offre de monnaie à long terme et donc des prix plus élevés à l’avenir qu’ils n’auraient dû l’être, alors les taux d’intérêt réels auront tendance à décliner, stimulant dans la période courante l’investissement et sortant finalement l’économie de la trappe à liquidité. L’expansion et la modification du bilan des banques centrales peuvent (a priori) rendre crédible leur engagement à laisser une période de forte inflation une fois la reprise amorcée. 

L’assouplissement quantitatif vise à assouplir davantage la politique monétaire (même si les taux directeurs butent déjà sur leur borne inférieure zéro). Elle affecte en théorie l’activité via le canal du rééquilibrage des portefeuilles (portfolio-rebalancing) et le canal du signalement (signaling). Il y a rééquilibrage des portefeuilles en raison de l’imparfaite substituabilité entre les actifs : en modifiant les prix relatifs des actifs, un programme d’achat d’actifs à grande échelle réduit notamment les rendements obligataires (ce qui diminue les coûts de financement pour les entreprises) et incite les agents à acheter des actifs risqués (notamment des actions, ce qui accroît les cours boursiers et incite les ménages à consommer, via les effets de richesse, en accroissant la valeur de leur patrimoine financier). En outre, en accroissant son bilan, une banque centrale signale sa détermination à laisser ses taux d’intérêt à un faible niveau pendant une période prolongée, ce qui incite les agents à s’endetter et donc à dépenser. Toutefois, l’accroissement du bilan peut aussi conduire au résultat opposé : il peut en effet signaler aux agents que la banque centrale s’attend à une faiblesse durable de l’inflation et de l’activité, ce qui les amène en fait à réviser leurs propres anticipations d’inflation à la baisse et les désincite à emprunter. L’activité et l’inflation restent alors affaiblies et les anticipations se seront révélées être au final autoréalisatrices. Enfin, l’accroissement du bilan peut générer des effets de débordement sur les marchés des changes : en entraînant une dépréciation du taux de change, il alimente l’inflation importée. 

Jan Willem van den End et Christiaan Pattipeilohy (2015) ont analysé au niveau empirique l’impact que les programmes d’assouplissement quantitatif et d’assouplissement du credit adoptés par quatre banques centrales (en l’occurrence la Fed, la Banque d’Angleterre, la Banque du Japon et la BCE) ont pu avoir sur les anticipations d’inflation et le taux de change entre 2007 et 2014. Leur analyse suggère qu’un accroissement du bilan des banques centrales via l’assouplissement quantitatif est associé à une baisse des anticipations d’inflation à court terme aux Etats-Unis et au Royaume-Uni, ce qui suggère que des effets de signalement adverses sont à l’œuvre : les marchés interprètent l’assouplissement quantitatif comme signalant une faiblesse durable de l’activité, ce qui alimente leur pessimisme. Les répercussions de l’accroissement du bilan sur les anticipations d’inflation sont négligeables en zone euro. Le Japon est une exception, puisque l'accroissement de la taille du bilan de la banque centrale a entraîné une révision à la hausse des anticipations d’anticipation. Suite à l’adoption d’un assouplissement du crédit, les anticipations d’inflation à court terme tendent à s’accroître aux Etats-Unis et au Royaume-Uni, mais elles ne varient pas en zone euro ; un changement dans la composition du bilan n’a par contre aucun effet sur les anticipations d’inflation à long terme. En ce qui concerne les répercussions sur le taux de change, End et Pattipeilohy constatent que l’accroissement du bilan de la Fed s’est traduit par une appréciation du dollar. Par contre, l’accroissement du bilan de la Banque du Japon, de la Banque d’Angleterre et de la BCE tend respectivement à entraîner une dépréciation du yen, de la livre sterling et de l’euro. L’assouplissement du crédit opéré par la Banque d’Angleterre conduit par contre à une appréciation de la livre sterling.

Selon End et Pattipeilohy, la relative insensibilité des anticipations d’inflation aux politiques de bilan suggère que leur adoption n’a pas sapé la crédibilité des banques centrales : elle n’a pas suggéré aux marchés que les banques centrales revenaient sur leur engagement à cibler l’inflation. Malgré tout, leur étude montre que les banques centrales peuvent échouer à accroître les anticipations d’inflation. Les politiques de bilan se révèlent en soi insuffisantes pour changer significativement ces dernières. Selon les modèles des nouveaux keynésiens, l’assouplissement quantitatif ne peut parvenir à changer les anticipations que si la banque centrale parvient à s’engager de façon crédible à laisser une plus forte inflation en changeant de stratégie de politique monétaire. Par exemple, l’adoption d’un assouplissement quantitatif par la Banque du Japon fut synchrone avec un changement de sa stratégie de politique monétaire, puisqu’elle a abandonné son objectif d’inflation de 1 % pour un objectif d’inflation de 2 %. Par contre, la BCE, la Banque d’Angleterre et la Fed ont gardé leur cible d’inflation (en l’occurrence 2 %), ce qui a pu suggérer qu’elles resserraient leur politique monétaire dès que l’inflation s’accélérerait et réduit ainsi l’efficacité leurs mesures non conventionnelles. La crédibilité de ces banques centrales les empêche peut-être précisément à accroître significativement les anticipations d’inflation.

 

Références

Van den END, Jan Willem, & Christiaan PATTIPEILOHY (2015), « Central bank balance sheet policies and inflation expectations », De Nederlandsche Bank, working paper, mai.

KRUGMAN, Paul R. (1998), « It’s baaack: Japan’s slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, vol. 2.

LENZA, Michele, Huw PILL & Lucrezia REICHLIN (2010), « Monetary policy in exceptional times », Economic Policy, vol. 25, n° 4.

 

Partager cet article
Repost0
10 mai 2015 7 10 /05 /mai /2015 17:45

En observant la période s'étalant entre 1987 et 1992, John Taylor (1993) a formulé une équation (qualifiée plus tard de « règle de Taylor ») censée décrire les décisions de la Réserve fédéral relative à son taux d'intérêt. Cette règle relie le taux directeur (r) de la banque centrale américaine à l’écart de production (c’est-à-dire l’écart entre le PIB et son niveau potentiel) (y) et au taux d’inflation (p) ainsi :

r = p + 0.5y + 0.5(p – 2) + 2

Selon cette équation, la Fed devrait accroître son taux directeur d’un demi-point de pourcentage si le taux d’inflation s’élève d’un point de pourcentage par rapport à la cible de 2 % d’inflation de la Fed ou bien si la production s’élève d’un point de pourcentage par rapport à son niveau potentiel. Si l’inflation est à sa cible et si la production est à son niveau potentiel, alors la Fed devrait fixer son taux directeur à 2 %, soit sa moyenne historique.

Taylor a affirmé que sa règle a non seulement un rôle descriptif, mais aussi prescriptif. Elle doit servir de référence aux décisions de politique monétaire : la banque centrale doit fixer son taux directeur au plus proche du niveau indiqué par la règle. 

Taylor s’est montré très critique des décisions que la Fed a prises au cours des douze dernières années. Il n’a cessé d’affirmer que la Fed ne fixe pas son taux directeur au niveau approprié et que ce sont ces écarts qui expliquent les mauvaises performances de l’économie américaine. En l’occurrence, le taux directeur de la Fed a été inférieur au taux d’intérêt suggéré par la règle de Taylor entre 2003 et 2005, ce qui suggère que la politique monétaire a été excessivement accommodante au cours de cette période et qu’elle aurait ainsi alimenté la bulle immobilière à l’origine de la crise du crédit subprime. La Fed aurait de nouveau fixé son taux directeur à un niveau sensiblement inférieur à celui indiqué par la règle de Taylor suite à la crise financière. Si la Fed l’avait scrupuleusement suivie, elle aurait relevé ses taux directeurs depuis plusieurs années.

GRAPHIQUE 1  Estimations du niveau approprié du taux directeur à partir de la règle de Taylor originelle

La règle de Taylor doit-elle être une référence pour la politique monétaire ?

Ben Bernanke, l’ancien président de la Fed, s’est depuis longtemps montré critique vis-à-vis de l’usage de règles activistes pour assoir les décisions de politique monétaire, considérant que la politique monétaire est plus efficace si elle reste à la discrétion du banquier central. Dans un récent billet de blog, Bernanke (2015) propose une règle de Taylor modifiée pour déterminer si la politique monétaire américaine a été excessivement accommodante au milieu des années deux mille et suite à la crise financière mondiale, c’est-à-dire précisément à la période au cours de laquelle il participa à la prise de décisions au sein de la Fed. Pour cela, il apporte deux modifications par rapport à la règle que Taylor proposa initialement en 1993. D’une part, il prend en compte l’inflation sous-jacente et non pas l’inflation globale ; pour la déterminer, il utilise le taux de variation des prix à la consommation et non pas le déflateur du PIB. D’autre part, Bernanke prend un plus grand coefficient pour l’écart de production que Taylor : en l’occurrence, lorsque la production s’éloigne d’un point de pourcentage de son niveau potentiel, Bernanke considère que la Fed fait varier son taux directeur non pas d’un demi-point de pourcentage, mais d’un point de pourcentage.

GRAPHIQUE 2  Estimations du niveau approprié du taux directeur à partir d'une règle de Taylor modifiée

 

La règle de Taylor doit-elle être une référence pour la politique monétaire ?

Bernanke constate alors que le taux directeur de la Fed a été assez proche de sa règle de Taylor modifiée au cours des deux dernières décennies. En l’occurrence, le taux directeur n’a pas été excessivement faible entre 2003 et 2005. En outre, la règle de Taylor modifiée de Bernanke suggère que le taux directeur de la Fed aurait dû être négatif depuis la crise financière. Or, le taux d’intérêt nominal a été contraint par sa borne zéro : comme la Fed ne pouvait adopter un taux directeur négatif, l’adoption de mesures non conventionnelles comme les achats d’actifs à grande échelle apparait justifiée.

Bernanke rejette également l’idée que l’économie américaine ait réalisé de piètres performances ces dernières années. Certes la Grande Récession a été la crise économique la plus forte depuis la Grande Dépression. Mais les Etats-Unis ont connu une reprise plus forte suite à la Grande Récession que bien d’autres pays avancés. La reprise a fait face à plusieurs « vents contraires » comme le resserrement de la politique budgétaire américaine à partir de 2010, ainsi que la crise de la zone euro. 

Si Bernanke reconnaît que la règle de Taylor fournit une description simple des décisions monétaires prises par le passé, il rejette l’idée qu’elle puisse indiquer comment la politique monétaire doit être décidée dans la période courante. Si la règle de Taylor qu’il a lui-même utilisé lui apparaît plus appropriée que celle initialement présentée par Taylor pour décrire les décisions que prit la Fed par le passé, Bernanke ne pense pas pour autant qu’elle doit être utilisée par la Fed pour prendre ses décisions futures. Il estime que la politique monétaire doit être « systématique et non automatique ». Une quelconque version de la règle de Taylor ne peut prendre en compte toutes les informations pertinentes pour la politique monétaire dans une économie complexe et dynamique. Il n’y a pas consensus sur les variables qui doivent être utilisées dans la règle de Taylor. Il n’y a pas non plus consensus sur la valeur des coefficients qui leur sont associés. En outre, les variables utilisées par une quelconque règle de Taylor ne sont généralement pas mesurables en temps réels. Par exemple, il n’y a pas d’estimations précises de la taille actuelle de l’écart de production. Les membres du comité de politique monétaire de la Fed ne s’accordent pas sur sa valeur. De plus, la règle de Taylor suggère qu’il existe un taux directeur d’équilibre qui soit fixe, en l’occurrence égal à 2 % en termes réels. Or, le taux d’équilibre est susceptible de varier au cours du temps. Il n’est lui-même pas directement mesurable. La Fed et les marchés estiment que le taux directeur d’équilibre est actuellement plus faible que celui supposé par la règle de Taylor, même s’il y a nouveau des désaccords sur sa valeur.

John Taylor (2015) a répliqué à Bernanke dans un article du Wall Street Journal. Tout d’abord, il soutient que la règle émerge de plusieurs décennies de recherche à propos de la politique monétaire optimale. Il rappelle qu’il n’est pas le seul économiste à avoir affirmé que la Fed avait maintenu son taux directeur « trop longtemps trop bas ». Ensuite, il regrette que Bernanke se soit focalisé sur la période où il était membre du conseil des gouverneurs. En l’occurrence, la Fed avait déjà tendance à poursuivre une politique monétaire excessivement accommodante au cours des années soixante-dix, or cette période fut marquée par d’amples déséquilibres macroéconomiques, une forte inflation couplée à un chômage élevé. Par contre, au cours des années quatre-vingt et quatre-vingt-dix, période au cours de laquelle Taylor estime que sa règle réplique assez finement la trajectoire effective du taux directeur, l’économie américaine fut marquée par une relative stabilité de l’activité et une faible inflation. Pour Taylor, la borne inférieure zéro n’est pas un nouveau problème ; elle ne justifie pas des achats d’actifs à une large échelle. Il estime que la Fed aurait pu surmonter cette contrainte en adoptant une règle de croissance monétaire fixe.

Tony Yates (2015) et Paul Krugman (2015) ont réagi à la réponse de Taylor. Yates confirme que la règle de Taylor réalise peut-être de bonnes performances dans certains modèles, mais même dans ces derniers elle ne constitue pas forcément la politique optimale. En outre, l’essentiel des études sur la règle de Taylor précèdent la crise financière mondiale, or elles avaient tendance à ignorer les bulles et les crises financières : l’instabilité financière est impossible dans les modèles qui sont utilisés pour justifier la règle de Taylor. Taylor (1993) lui-même avait exclu l’épisode du krach boursier de 1987 dans son étude originelle. Comme le résume Krugman, si la règle de Taylor est optimale, cette optimalité reste à démontrer. Par ailleurs, Taylor affirme que l’économie américaine n’aurait pas connu la formation d’une bulle immobilière au milieu des années deux mille si la Fed avait appliqué la règle de Taylor ; pourtant, l’économie américaine a bien connu la formation d’une bulle spéculative à la fin des années quatre-vingt, c’est-à-dire à une période au cours de laquelle Taylor estime que le taux directeur coïncidait avec sa règle. Enfin, Yates doute qu’une règle de croissance fixe de la masse monétaire permette de surmonter le problème de la borne zéro. En effet, dans une trappe à liquidité, où le taux directeur est à la borne zéro et où les agents s’attendent à ce qu’elle y demeure perpétuellement, une quelconque croissance de la masse monétaire n’a aucun impact.

 

Références

BERNANKE, Ben S. (2015), « The Taylor rule: A benchmark for monetary policy? », 28 avril.

KRUGMAN, Paul (2015), « Veg-O-Matic egonomics », in The Conscience of a Liberal (blog), 5 mai.

TAYLOR, John B. (1993), « Discretion versus policy rules in practice », Carnegie‐Rochester Conference Series on Public Policy, vol. 39, n° 1.

TAYLOR, John (2015), « Monetary rules work better than ‘constrained discretion’ », in Wall Street Journal, 2 mai.

YATES, Tony (2015), « More on John Taylor vs Bernanke », in longandvariable (blog), 4 mai. 

Partager cet article
Repost0
8 mai 2015 5 08 /05 /mai /2015 09:12

Après quatre ans de dépression et de déflation, les Etats-Unis ont connu une reprise rapide de l’activité économique durant le printemps de l’année 1933. Entre mars et juillet, la production industrielle a augmenté de 57 %. Les Etats-Unis n’ont jamais connu une reprise plus rapide dans le reste de son histoire. La crise financière mondiale de 2008 et la Grande Récession qui l’a suivie ont renouvelé l’intérêt pour l’étude de la Grande Dépression des années trente. Comme la politique monétaire est aujourd’hui contrainte par la borne inférieure zéro comme elle le fut il y a huit décennies, les économistes se sont interrogés quelles forces ont freiné ou accéléré la reprise suite à la Grande Dépression. En l’occurrence, ils se sont demandés pourquoi la reprise de 1933 a tardé et pourquoi elle fut si rapide une fois amorcée.

Si, comme l’ont notamment démontré Christina et David Romer (2013), le recul de l’inflation anticipée a contribué à la gravité de la Grande Dépression, la hausse de l’inflation anticipée a peut-être mis un terme à cette dernière. Peter Temin et Barrie Wigmore (1990) ont en effet suggéré que la reprise de 1933 s’expliquait par une forte révision à la hausse des anticipations d’inflation. Ils affirment que le président Franklin Roosevelt, qui arriva au pouvoir en mars 1933, instaura un nouveau régime de politique macroéconomique qui entraîna la révision des anticipations d’inflation et amorça ainsi la reprise. Gauti Eggertsson (2008) a développé un modèle théorique où la révision des anticipations d’inflation peut expliquer la reprise de la Grande Dépression. 

Les travaux théoriques de ces dernières décennies ont en effet conclu qu’une banque centrale ne peut sortir une économie d’une trappe à liquidité qu’en amenant les agents à réviser à la hausse leurs anticipations d’inflation. Comme l’ont notamment suggéré Paul Krugman (1998) ou Gauti Eggertsson et Michael Woodford (2003), si la banque centrale parvient à accroître l’inflation anticipée, cela pousse les taux d’intérêt réels à la basse, même si les taux d’intérêt nominaux sont déjà à leur borne inférieure zéro. Lorsqu’il annonça le relèvement de la cible d’inflation et l’accroissement rapide de la base monétaire, Haruhiko Kuroda, le gouverneur de la Banque du Japon, prit comme référence du changement de régime macroéconomique de Roosevelt pour affirmer que l’adoption de politiques inflationnistes était susceptible d’accroître la production lorsque l’économie est confrontée à une trappe à liquidité. Selon Christina Romer (2013), l’abenomics est à même d’impulser un changement de régime macroéconomique aussi radical que celui impulsé par l’administration Roosevelt. Parallèlement, la chute des anticipations d’inflation et la stagnation de l’activité ont amené plusieurs économistes et responsables politiques à craindre ces dernières années que la zone euro bascule dans une trappe déflationniste à la japonaise. La BCE a notamment adopté un programme d’assouplissement quantitatif en janvier 2015 afin de relever les anticipations d’inflation. 

Pourtant, ni Temin et Wigmore, ni Eggertsson n’ont démontré empiriquement que les anticipations d’inflation avaient effectivement changé durant le deuxième trimestre de 1933. Hausman (2013) conclut qu’en accroissant les revenus agricoles la dévaluation a directement stimulé la demande dans les Etats agricoles, aidant à stimuler la croissance de a production en 1933. Jason Taylor et Todd Neumann (2014) ont analysé un éventail de forces qui ont pu avoir contribué à la reprise de mars 1933 et du basculement des Etats-Unis dans une nouvelle récession. Les deux études ont suggéré qu’une hausse des anticipations d’inflation pouvait avoir joué un rôle déterminant dans la reprise. Taylor et Neumann constatent que la reprise s’est accélérée rapidement suite à certaines nouvelles relatives à l’inflation. Hausman suggère que la dévaluation, en accroissant les prix agricoles, a signalé une accélération de l’inflation et stimulé par là l’économie en amenant les agents à réviser leurs anticipations d’inflation à la hausse.

De leur côté, Andrew Jalil et Gisela Rua (2015) se sont demandé si les anticipations d’inflation changèrent durant le deuxième trimestre de 1933. Pour répondre à cette question, ils ont examiné trois types de preuves empiriques à partir des comptes-rendus historiques. Ils ont tout d’abord construit de nouvelles séries de données qui mesurent le nombre d’articles d’information contenant le terme d’inflation dans plusieurs journaux quotidiens. Ensuite, ils ont étudié les comptes-rendus des observateurs de l’époque, puis les prévisions des analystes de l’époque pour déterminer ce qu’ils anticipaient en termes d’inflation. L’ensemble des données que les auteurs recueillent indiquent que le deuxième trimestre de 1933 fut effectivement marqué par une forte hausse des anticipations d’inflation.

Jalil et Rua se demandent alors quels événements ont provoqué la révision des anticipations d’inflations. Ils identifient les nouvelles relatives à l’inflation dans les journaux. Ils entreprennent alors une étude d’événements pour estimer l’impact de ces nouvelles sur les marchés financiers. Ils constatent que ces nouvelles ont eu un large impact sur les marchés financiers. En l’occurrence, au cours des 24 heures qui suivaient une nouvelle relative à l’inflation, les indices boursiers augmentaient de pratiquement 5 % et le dollar se dépréciait d’environ 2 %. La stratégie de communication de Roosevelt provoqua la révision d’anticipations d’inflation : il s’engagea à ramener les prix à leurs niveaux d’avant-crise et annonça l’abandon de l’Etalon-or.

Enfin, Jalil et Rua examinent les répercussions macroéconomiques de cette révision des anticipations d’inflation. Durant les mois qui coïncident avec le changement de régime inflationniste de Roosevelt, la croissance de la production fut supérieure de 7 points de pourcentage que ce qui aurait été prédit d’après le comportement normal des indicateurs monétaires et financiers. Leur analyse suggère que la révision des anticipations d’inflation a joué un rôle causal dans la reprise de 1934.

 

Références

EGGERTSSON, Gauti B. (2008), « Great expectations and the end of the Depression », in American Economic Review, vol. 98, n° 4.

EGGERTSSON, Gauti B., & Michael WOODFORD (2003), « The zero bond on interest rates and optimal monetary policy », in Brookings Papers on Economic Activity, n° 1.

HAUSMAN, Joshua (2013), « Growth after a financial crisis: The U.S. in spring 1933 ».

JALIL, Andrew, & Gisela RUA (2015), « Inflation expectations and recovery from the Depression in 1933: Evidence from the narrative record », Réserve fédérale, working paper, avril.

KRUGMAN, Paul (1998), « It’s baaack: Japan’s slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, n° 2.

ROMER, Christina (2013), « It takes a regime shift: Recent developments in Japanese monetary policy through the lens of the Great Depression », discours prononcé à la conférence annuelle du NBER, 12 avril.

ROMER, Christina, & David ROMER (2013), « The missing transmission mechanism in the monetary explanation of the Great Depression », in American Economic Review: Papers & Proceedings, vol. 103, n° 3.

TAYLOR, Jason E., & Todd C. NEUMANN (2014), « Recovery spring, faltering fall: March to november 1933 ».

TEMIN, Peter, & Barrie A. WIGMORE (1990), « The end of one big deflation », in Explorations in Economic History, vol. 27, n° 4.

Partager cet article
Repost0
7 mars 2015 6 07 /03 /mars /2015 16:33

Les taux d’intérêt sont actuellement faibles dans les pays avancés et, avec la perspective que la BCE adopte un assouplissement quantitatif, plusieurs taux d’intérêt sont entrés en territoire négatif ces derniers mois dans les pays de la zone euro, ce qui suggère que des tendances lourdes sont à l’œuvre pour les pousser à la baisse. La littérature économique suppose qu’il existe un taux d’intérêt qui équilibre l’offre et la demande de fonds prêtables, donc maintient l’économie au plein emploi sans générer de pressions inflationnistes : c’est le taux d’intérêt « naturel » ou « d’« équilibre ». Toujours en théorie, ce taux d’intérêt naturel est intimement lié au taux de croissance tendanciel de l’économie [Cecchetti et Schoenholtz, 2015]. L’idée sous-jacente est qu’une accélération de la croissance entraîne une hausse des rendements réels sur l’investissement. Par conséquent, avec la Grande Récession, les analystes ont revu à la baisse leurs estimations du taux d’intérêt naturel. L’estimation médiane de la Fed est ainsi passée de 2,25 à 1,75 % au cours des trois dernières années.

Depuis le discours prononcé par Larry Summers lors d’une conférence du FMI, beaucoup soutiennent l’hypothèse d’une stagnation séculaire : les économies avancées subiraient une insuffisance chronique de la demande globale et celle-ci déprimerait fortement le taux d’intérêt naturel au point de le rendre négatif. Parmi les possibles facteurs à l’origine de la stagnation séculaire sont cités le vieillissement démographique, la baisse du prix des biens d’investissement, la hausse des inégalités, etc. Bref, les pays avancés subiraient (selon le point de vue) un excès d’épargne ou une insuffisance d’investissements. Or, en raison de la borne inférieure zéro, les banques peuvent difficilement ramener leurs taux d’intérêt au niveau approprié pour restaurer la demande globale, si bien que la politique monétaire s’en trouve excessivement restrictive et déprime davantage l’activité. L’assouplissement de la politique monétaire ne suffit pas pour ramener l’économie au plein emploi, mais il risque par contre de générer des bulles spéculatives. Les autorités publiques doivent alors s’appuyer sur d’autres outils pour sortir l’économie de la stagnation séculaire, par exemple l’investissement public dans les infrastructures ou la réduction des inégalités de revenu (notamment à travers la redistribution).

James Hamilton, Ethan Harris, Jan Hatzius et Kenneth West (2015) mettent à l’épreuve cette hypothèse. Ils examinent le comportement et les déterminants du niveau d’équilibre du taux d’intérêt réel, qu’ils définissent comme le taux compatible avec le plein emploi et une inflation stable à moyen terme. Pour cela, ils compilent les données relatives aux taux directeurs des banques centrales, à l’inflation et à la croissance du PIB pour une vingtaine de pays au cours des quatre dernières décennies. Certaines de leurs données annuelles remontent jusqu’à 1858.

GRAPHIQUE 1  Taux d'intérêt réels d'équilibre dans 15 pays avancés (en %)

Cet obscur taux d’intérêt naturel

Au terme de leur analyse, Hamilton et ses coauteurs rejettent tout d’abord deux hypothèses souvent avancées dans la littérature. Tout d’abord, les modèles théoriques supposent souvent qu’il existe une valeur constante vers laquelle le taux d’intérêt réel revient à long terme. Or, les taux d’intérêt réels dans la plupart des pays furent significativement plus élevés avant la Première Guerre mondiale qu’ils ne l’ont été par la suite. Les guerres mondiales ont été associées à des taux négatifs particulièrement élevés, en particulier pour l’Allemagne, la Finlande, l’Italie et le Japon. Hamilton et ses coauteurs soulignent qu’il existe une forte incertitude autour du taux d’intérêt d’équilibre, mais celui-ci aurait clairement tendance à être instable au cours du temps.

GRAPHIQUE 2  Taux d'intérêt réel d'équilibre aux Etats-Unis (en %)

Cet obscur taux d’intérêt naturel

En outre, la littérature suppose souvent qu’à long terme un taux de croissance du PIB plus élevé est associé à un taux d’intérêt réel d’équilibre plus élevé. En fait, l’analyse ne conforte pas l’idée que le taux de croissance économique à long terme soit le principal facteur expliquant les variations du taux d’intérêt réel d’équilibre. Par exemple, lorsque les auteurs observent les sept dernières expansions aux Etats-Unis, ils font émerger une corrélation négative entre le taux de croissance annuel moyen du taux du PIB réel et le taux d’intérêt réel ; cette corrélation n’est que modestement positive si l’expansion qui s’est achevée au troisième trimestre de 1981 est exclue de l’analyse. En fait, il y a d’autres facteurs contribuant à la détermination du taux naturel, notamment la démographie, les tendances dans l’inflation, la politique budgétaire, la variation des prix d’actifs et le niveau de réglementation financière. Par exemple, les périodes de réglementation financière plus stricte se sont accompagnées au cours de l’histoire de faibles taux d’intérêt [Bunker, 2015].

Les auteurs sont sceptiques à l’idée d’une stagnation séculaire. S’il n’y a pas de corrélation entre le taux d’intérêt à long terme et le taux de croissance, alors tout ralentissement de la croissance ne se traduira pas forcément à l’avenir par un plus faible taux d’intérêt réel. Malgré l’incertitude entourant le taux d’intérêt d’équilibre, les auteurs estiment le taux d’intérêt d’équilibre semble être actuellement compris entre 1 et 2 % ; il n’est pas négatif, comme le pensent les partisans de l’hypothèse de stagnation séculaire. La lenteur de l’actuelle reprise s’explique avant tout par des dynamiques durables, mais temporaires, comme le désendettement du secteur privé et la consolidation budgétaire. Ainsi, lorsque ces freins se sont desserrés aux Etats-Unis au début de l’année 2014, la croissance américaine a accéléré à un rythme supérieur au potentiel. Les reprises suite aux crises financières nécessitent plusieurs années. Certes la Grande Récession a été plus sévère qu’une récession typique, elle a été moins ample et suivie par une plus rapide reprise que les récessions typiquement associées à une crise financière.

Hamilton et ses coauteurs concluent leur travail en se penchant sur ses implications pour la politique monétaire. Même s’ils ne valident pas la thèse de la stagnation séculaire, ils reconnaissent toutefois qu’en raison de la faiblesse du taux d’équilibre, les taux directeurs des banques centrales risquent à l’avenir de buter à nouveau sur leur borne zéro, si bien que les économies sont susceptibles de connaître des périodes prolongées de déprime. En outre, la Fed a de bonnes raisons de ne pas relever précipitamment ses taux d’intérêt. Hamilton et alii rejoignent les conclusions d’Athanasios Orphanides et John Williams (2007) en suggérant que l’incertitude autour du taux d’équilibre plaide en faveur d’une politique monétaire plus « inertielle » : les banques centrales doivent patienter avant de changer leur politique monétaire. Les simulations réalisées par Hamilton et ses coauteurs montrent que la prise en compte de cette incertitude implique une normalisation des taux directeurs plus tardive, mais plus forte, par rapport au scénario médian des projections de la Fed. Cette surréaction sera d’une certaine manière le prix à payer pour ne pas compromettre la reprise de l’activité américaine en la resserrant prématurément la politique monétaire. Enfin, Hamilton et ses coauteurs notent également que l’incertitude entourant le taux d’intérêt d’équilibre n’est qu’une justification parmi d’autres pour retarder le resserrement de la politique monétaire. L’incertitude entourant le taux de chômage structurel incite également à maintenir les taux d’intérêt à un faible niveau tant que le comportement de l’économie ne signale pas clairement (en l’occurrence avec une accélération soutenue de l’inflation) que le resserrement est nécessaire.

 

Références

BUNKER, Nick (2015), « The uncertain nature of the natural rate of interest », 4 mars.

CECCHETTI, Stephen G., & Kermit L. SCHOENHOLTZ (2015), « Living with uncertainty: What central banks do when they don't know the natural rate », in Money and Banking (blog), 2 mars.

The Economist (2015), « Still, not stagnant », 7 mars.

HAMILTON, James (2015), « What is the new normal for the real interest rate? », in Econbrowser (blog), 1er mars.

HAMILTON, James D., Ethan S. HARRIS, Jan HATZIUS & Kenneth D. WEST (2015), « The equilibrium real funds rate: Past, present and future ».

ORPHANIDES, Athanasios, & John C. WILLIAMS (2007), « Robust monetary policy with imperfect knowledge », in Journal of Monetary Economics, vol. 54.

Partager cet article
Repost0
28 février 2015 6 28 /02 /février /2015 20:26

Après avoir ramené le taux des fonds fédéraux à sa borne zéro fin 2008, la Réserve fédérale aux Etats-Unis a adopté deux mesures non conventionnelles afin d’assouplir davantage la politique monétaire : l’assouplissement quantitatif (quantitative easing) et le forward guidance. A travers ses programmes d’assouplissement quantitatif, la Fed a réalisé des achats d’actifs à grande échelle, notamment des titres publics et des titres adossés sur des prêts hypothécaires. De son côté, le forward guidance consiste pour la banque centrale à révéler le plus précisément possible ses intentions concernant ses futures décisions et en particulier la trajectoire probable que suivra à l’avenir son taux directeur, ce qui réduit l’incertitude quant à la politique monétaire future, ancre davantage les anticipations des agents et accroît ainsi (en principe) l’efficacité de la politique monétaire. En l’occurrence, la banque centrale suggère qu'elle maintiendra sa politique monétaire accommodante plus longtemps que ne l'exigeront les conditions macroéconomiques futures, promettant ainsi que l'économie connaîtra un boom après la reprise, ce qui devrait inciter les agents à investir dès à présent et ainsi précipiter la reprise.

Ainsi, ces deux mesures non conventionnelles visent à exercer une pression à la baisse sur les taux d’intérêt à long terme et plus généralement à améliorer les conditions financières, notamment en stimulant les cours boursiers et les prix des logements. La hausse des prix d’actifs pourrait générer des effets de richesse, ce qui inciterait les ménages (détenteurs d’actions ou d’un logement) à consommer davantage ; combinée à l’assouplissement des conditions de financement, elle inciterait les entreprises et les ménages à davantage emprunter et investir, ce qui stimulerait la demande globale et réduirait le risque de déflation.

Plusieurs études ont cherché à déterminer l’impact des mesures non conventionnelles et en particulier des achats d’actifs sur les marchés financiers ; elles tendent à mettre en évidence un effet notable de ces mesures sur les taux d’intérêt à long terme. Il y a eu toutefois beaucoup moins d’études portent sur les répercussions proprement macroéconomiques des mesures non conventionnelles, notamment leurs effets sur l’activité réelle et l’inflation. En outre, les études ont eu tendance à analyser séparément les répercussions de l’assouplissement quantitatif et du forward guidance, alors même que ces actions sont interdépendantes et que leurs effets devraient en principe se conjuguer et se renforcer l’une l’autre.

C’est précisément l’impact macroéconomique des deux mesures non conventionnelles de la Fed que cherchent à identifier Eric Engen, Thomas Laubach et Dave Reifschneider (2015). Dans les années qui ont suivi la crise financière et la récession, ils constatent que les prévisionnistes du secteur privé en sont graduellement venus à considérer que la Fed poursuivra à l’avenir une politique significativement plus accommodante que ce qu’ils avaient anticipé au début de la crise. Ils repoussèrent de plus en plus loin dans le temps la date à laquelle ils estiment possible un resserrement de la politique monétaire américaine, probablement en réaction à l’assouplissement quantitatif et au forward guidance pratiqués par la Fed, dans un contexte où la reprise a été lente et l’inflation étonnamment modérée. Combinée à la pression à la baisse que les achats d’actifs ont exercée sur les primes de terme, c’est-à-dire le prix exigé par les investisseurs pour prêter à plus long terme, ces effets d’anticipations semblent avoir significativement assoupli les conditions financières en vigueur, ce qui a permis de soutenir de façon croissante la reprise économique au cours du temps.

Même si les programmes d’assouplissement quantitatif de la Fed ont contribué à stabiliser l’économie durant la crise en fournissant des liquidés sur des marchés financiers en pleine turbulences, les actions non conventionnelles de la Fed ne semblent toutefois pas avoir fourni tout au supplément de relance au cours des deux années qui ont suivi la crise financière. La stimulation de l’activité et de l’inflation fut en effet limitée par la lenteur avec laquelle les agents révisèrent leurs anticipations quant à la politique monétaire, ainsi que par leur croyance persistante que l’économie rebondirait plus rapidement qu’elle ne l’a fait en réalité.

En partie pour ces raisons et en partie parce que la politique monétaire souffre typiquement de délais de transmission à l’activité, Engen et ses coauteurs estiment que les répercussions macroéconomiques des mesures non conventionnelles de la Fed ne se sont pas encore pleinement révélées. En effet, ces actions ont significativement accéléré le rythme de la reprise à partir de 2011, mais leurs effets sur l’emploi n’atteindront pas leur pic avant le début de l’année 2015 ; elles permettront de réduire le taux de chômage de 1,2 point de pourcentage. Leurs effets sur l’inflation n’atteindront pas leur pic avant le début de l’année 2016 ; elles permettront d’ajouter jusqu’à 0,5 point de pourcentage au taux d’inflation.

Ces résultats ont d’importantes implications pour l’efficacité de la politique monétaire non conventionnelle à atténuer les retombées d’une prochaine crise financière ou d’un prochain épisode de borne inférieure zéro. Au cours des cinq dernières années, l’efficacité des achats d’actifs et du forward guidance a été limitée par le fait que les agents n’ont révisé que graduellement leurs anticipations quant à la politique monétaire. Ce fut une période d’apprentissage, tout à fait normale au vu de la nature sans précédents des actions non conventionnelles. Par contre, si une nouvelle crise éclate prochainement, les participants au marché et plus généralement le public bénéficieront de l’épisode actuel pour évaluer la probable réaction de la Fed. Ils pourraient ainsi ajuster plus rapidement leurs anticipations lors de cette nouvelle crise, ce qui accroîtra l’efficacité des actions non conventionnelles.

Engen et ses coauteurs se demandent alors ce qu’une révision permanente des anticipations des agents quant à la politique monétaire impliquerait pour l’efficacité future des mesures non conventionnelles. Dans ce cas, toute récession serait moins sévère et le rythme de la reprise subséquente serait plus rapide si les agents ont perçu dès le début la volonté de la Fed à fournir un assouplissement additionnel à travers les achats d’actifs et son intention de poursuivre une stratégie plus accommodante à plus long terme qu’ils ne l’avaient initialement perçu. Cette réponse initialement plus puissante reflète à la fois une amélioration des conditions financières, ainsi qu’une révision plus prononcée des anticipations quant à l’activité réelle et l’inflation. La Fed disposerait ainsi d’une plus grande capacité à atténuer les effets d’une crise future qu’il n’en disposait au début de la dernière, aussi longtemps que le public anticipe que la Fed va déployer agressivement ses outils non conventionnels.

 

Référence

ENGEN, Eric, Thomas LAUBACH & Dave REIFSCHNEIDER (2015), « The macroeconomic effects of the Federal Reserve’s unconventional monetary policies », Réserve fédérale, finance and economics discussion, n° 2015-005, 14 janvier.

Partager cet article
Repost0
11 février 2015 3 11 /02 /février /2015 22:16

Durant les années soixante-dix et au début des années quatre-vingt, les pays avancés faisaient face à une forte inflation ; selon l’interprétation dominante, celle-ci s’expliquerait notamment par les erreurs commises par les banquiers centrales. Les autorités monétaires ont alors fait de la lutte contre l’inflation leur objectif premier et ils ont embrassé l’indépendance pour gagner en crédibilité et accroître ainsi l’efficacité de leur politique monétaire. Les pays avancés connaissent depuis les années quatre-vingt une désinflation, au point de connaître aujourd’hui une inflation excessivement faible (lowflation).

Certains banquiers centraux ont peu à peu avancé une autre explication en suggérant que le comportement de l’inflation dépendait (du moins en partie) du changement démographique. Masaaki Shirakawa (qui était à la tête de la Banque du Japon avant que Haruhiko Kuroda ne prenne sa place début 2013 avec l’arrivée de Shinzo Abe au pouvoir) a ainsi régulièrement affirmé que le vieillissement de la population pouvait générer des pressions déflationnistes amenant les agents à réviser à la baisse leurs anticipations de la croissance économique future. Les agents peuvent ignorer les implications du vieillissement pendant un temps, mais ils révisent ensuite leurs anticipations lorsqu’ils prennent conscience de son impact économique et réduisent alors leurs dépenses, notamment leurs dépenses d’investissement. Les autorités monétaires peuvent alors avoir des difficultés à compenser cette chute de la demande globale, en particulier si l’inflation était initialement faible et si les taux d’intérêt nominaux butent déjà sur leur borne inférieure zéro. Le Japon en offre une belle illustration : depuis les années quatre-vingt-dix, l’économie insulaire connaît simultanément un vieillissement rapide de sa population, une stagnation de son activité économique et des périodes de déflation. De son côté, James Bullard, le président de la Réserve fédérale de Saint-Louis, a affirmé que les personnes âgées (détenant un patrimoine financier) préféraient un plus faible niveau d’inflation que les jeunes (emprunteurs), en raison des effets redistributifs de l’inflation (amenant à des transferts de revenus des épargnants vers les emprunteurs).

Les études empiriques se sont ainsi multipliées ces dernières années pour explorer le lien entre la démographie et l’inflation, notamment au sein du FMI. En se focalisant sur le Japon, Derek Anderson, Dennis Botman et Ben Hunt (2014) ont ainsi constaté que le vieillissement démographique générait des pressions déflationnistes en freinant la croissance économique. Ils suggèrent toutefois que ce risque déflationniste n’est pas inéluctable, à condition que la politique monétaire parvienne à le compenser. Or Patrick Imam (2013) avait précédemment montré que le vieillissement démographique affaiblissait l’efficacité de la politique monétaire ; cette dernière doit être de plus en plus agressive pour espérer autant influencer l’économie qu’auparavant. L’intérêt des macroéconomistes pour les liens qu’entretiennent la démographie avec la croissance économique et l’inflation s’est encore récemment accentué lorsque Larry Summers a avancé l’hypothèse que les pays avancés connaissaient actuellement une stagnation séculaire ; le vieillissement démographique conduirait à une insuffisance chronique de la demande globale.

Mikael Juselius et Előd Takáts (2015) ont entrepris une analyse empirique systématique du lien entre démographie et inflation. Ils ont cherché à déceler un tel lien à partir d’un échantillon de 22 pays avancés sur la période s’étalant entre 1955 et 2010. Ils constatent une relation stable statistiquement et économiquement significative entre la structure en âge de la population et l’inflation. Ainsi, la démographie serait liée l’inflation, tant directement qu’indirectement via son impact sur les anticipations d’inflation. Selon les estimations de Juselius et Takáts, la démographie pourrait expliquer environ un tiers de la variation du taux d’inflation et l’essentiel de la désinflation entre la fin des années soixante-dix et le début des années quatre-vingt-dix. Leurs estimations suggèrent en outre l’existence d’une relation en forme de U : la part des dépendants (c’est-à-dire de jeunes et de personnes âgées) dans la population est positivement corrélée avec le taux d’inflation, tandis que la part des cohortes en âge de travailler dans la population est négativement corrélée avec le taux d’inflation.

Pour tenter de comprendre pourquoi les autorités monétaires ne parviennent à compenser l’impact déflationniste du changement démographique, Juselius et Takáts ont alors étendu leur analyse à la politique monétaire. Ils ont alors décelé une relation significative entre la démographie et la politique monétaire, mais cette relation n’est cette fois-ci pas stable dans le temps. Avant le milieu des années quatre-vingt, la politique monétaire amplifiait l’impact inflationniste de la dynamique démographique ; les taux d’intérêt réels étaient faibles précisément parce que les pressions inflationnistes associées à la démographie étaient fortes. Cette dynamique s’est inversée au milieu des années quatre-vingt, lorsque la politique monétaire atténua les pressions associées à la démographie, sans toutefois parvenir à les faire disparaître. Au cours de cette seconde période, les taux d’intérêt ont été faibles lorsque les pressions inflationnistes associées à la démographie étaient également faibles. Dans la mesure où les pressions associées à la démographie étaient inflationnistes au cours de la première période étudiée, puis déflationnistes lors de la seconde, les taux d’intérêt réels ont été relativement faibles tout au long de ces deux périodes. En fait, les banques centrales n’ont su atténuer les pressions associées à la démographie que lorsque cela n’exigeait pas des taux d’intérêt réels élevés.

 

Références

ANDERSON, Derek, Dennis BOTMAN & Ben HUNT (2014), « Is Japan’s population aging deflationary? », FMI, working paper, n° 14/139, août.

IMAM, Patrick (2013), « Shock from graying: Is the demographic shift weakening monetary policy effectiveness », FMI, working paper, n° 13/191, septembre. Traduction française disponible sur Annotations.

JUSELIUS, Mikael, & Előd TAKÁTS (2015), « Can demography affect inflation and monetary policy? », BRI, working paper, n° 485, février.

Partager cet article
Repost0
3 janvier 2015 6 03 /01 /janvier /2015 22:00

La pratique du forward guidance consiste pour une banque centrale à fournir des informations à propos des mesures de politique monétaire qu’elle est susceptible d’adopter à l’avenir, notamment à annoncer la trajectoire probable de son taux directeur [Woodford, 2005 ; 2012]. Ce faisant, elle cherche à accroître l’efficacité de sa politique monétaire en réduisant l’incertitude autour de ses décisions et en ancrant ainsi plus étroitement les anticipations des agents économiques.

Au cours des dernières années, la crise financière mondiale et la faiblesse de la subséquente reprise ont amené les grandes banques centrales, notamment la Réserve fédérale des Etats-Unis, la Banque du Canada, la BCE et la Banque d’Angleterre à adopter une forme ou une autre de forward guidance ; comme elles ont ramené leurs taux directeurs au plus proche de zéro et qu’elles ne peuvent les réduire davantage, elles ont dû adopter des mesures « non conventionnelles » pour continuer d’assouplir leur politique monétaire et ainsi stimuler l’activité : en annonçant le maintien de faibles durant une certaine période, la banque centrale incite en principe les agents économiques à davantage investir. La pratique du forward guidance a toutefois intégré l’arsenal de plusieurs banques centrales avant même qu’éclate la crise financière mondiale. Par exemple, la  Banque de Réserve de Nouvelle-Zélande annonce la trajectoire probable de son taux directeur depuis 1997 et la Riksbank suédoise publie la sienne depuis 2007. Comme le font plus ou moins explicitement d’autres banques centrales, celles-ci ciblent l’inflation ; elles cherchent à ce que le taux d’inflation soit le plus proche possible de 2 %. Puisque l’inflation dépend des anticipations des agents quant à l’inflation future, il apparaît nécessaire d’ancrer celles-ci, d’où l’utilité pour les banques centrales d’user du forward guidance, même en temps normal. Plus globalement, l’adoption du forward guidance s’inscrit dans le mouvement des banques centrales vers une plus grande transparence.

Lars Svensson (2014) a récemment comparé les expériences néozélandaise et suédoise du forward guidance. En comparant la trajectoire effective du taux directeur avec ses anticipations par les marchés, avant et après la publication, il évalue la prédictibilité de la politique monétaire (c’est-à-dire à quel point les marchés ont réussi à anticiper la trajectoire du taux directeur) et sa crédibilité (c’est-à-dire à quel point les anticipations des marchés collent avec la trajectoire des taux directeur après publication). De plus, si après la publication, les anticipations des marchés collent bien avec la trajectoire publiée, cela indique que les conditions financières en vigueur correspondent aux conditions attendues par les marchés, ce qui suggère que la banque centrale a réussi à guider leurs anticipations. 

Globalement, il apparaît que la politique monétaire de la Banque de Réserve de Nouvelle-Zélande se soit révélée prévisible et crédible, en raison, selon Svensson, de sa focalisation sur son seul objectif de stabilité des prix. Toutefois, l’auteur détecte une situation où les conditions financières en vigueur sont clairement plus restrictives que celles prévues et une autre situation où les conditions financières en vigueur sont substantiellement plus accommodantes que celles prévues. Dans cette seconde situation, observée en décembre 2011, le marché semble avoir été en avance sur la Banque de Réserve de Nouvelle-Zélande, puisque les trajectoires du taux directeur furent substantiellement révisées à la baisse en mars 2012, ce qui assouplit les conditions financières et les mit plus ou moins en phase avec celles précédemment anticipées par les marchés. 

L’expérience suédoise du forward guidance a été plus chaotique. Malgré les circonstances exceptionnelles liées à la crise, les marchés ont assez bien anticipé la forte révision à la baisse de la trajectoire future du taux directeur à laquelle procéda la Riksbank en février 2009 ; après publication, il apparut que les anticipations des marchés quant au futur taux directeur collèrent assez bien avec la trajectoire annoncée. Svensson se penche ensuite tout particulièrement sur l’énorme échec de septembre 2011, lorsque la Riksbank annonça que son taux directeur augmenterait d’environ 75 points de base au cours des six trimestres suivants ; bref, elle annonça que son taux directeur suivrait à l'avenir une trajectoire ascendante (cf. graphique). Pourtant, avant et après l’annonce, les marchés anticipaient une baisse du taux directeur d’environ 75 points de base au cours des six trimestres suivants. Ce fut donc une situation où la trajectoire du taux directeur annoncée par la banque centrale n’était pas crédible et où les conditions financières en vigueur furent davantage accommodantes que celles prévues. Ex post, ce sont les anticipations des marchés qui se révélèrent exactes et la Riksbank dans l’erreur. En effet, la Riksbank finit par réduire son taux directeur de 100 points de base au cours des six trimestres suivants.

GRAPHIQUE  Le taux directeur de la Riksbank et ses trajectoires annoncées et anticipées en septembre 2011

Lars-Svensson--Riksbank--banque-centrale-suede-trajectoire.png

Pour expliquer le décalage que l’on a pu voir en septembre 2011 entre les annonces de la Riksbank et les anticipations des marchés, Svensson juge qu’il faut prendre en compte le contexte même de l’économie et les objectifs que poursuivait alors la banque centrale. Comme d’autres banques centrales des pays avancés, la Riksbank avait dû ramener ses taux directeurs à zéro lors de la Grande Récession, car l’effondrement de la demande globale remettait alors en cause la stabilité des prix. Toutefois, elle craint très rapidement de voir les conditions monétaires exceptionnellement accommodantes entraîner une nouvelle crise financière en amenant les ménages à se surendetter, ce qui l’amena à adopter une politique « allant à contre-courant » (leaning against the wind) : à partir de juin 2010, elle resserra régulièrement sa politique monétaire pour désinciter les ménages à s’endetter. Ainsi, au lieu de chercher à stabiliser le taux d’inflation autour de sa cible, la Riksbank jugea prioritaire d’assurer la stabilité financière. Or le resserrement monétaire s’est révélé être contre-productif au regard de cet objectif, puisqu’il entraîna au final non pas une atténuation, mais un accroissement des risques associés à l’endettement des ménages. En effet, avec le resserrement de la politique monétaire, l’inflation a chuté bien en-deçà de la cible et le chômage est resté élevé, bien au-delà de sa valeur soutenable à long terme [Svensson, 2013]. Puisque les anticipations d’inflation des ménages sont restées ancrées à la cible, proches de 2 %, l’inflation et le niveau des prix ont été inférieurs aux niveaux anticipés par les ménages, ce qui signifie que le fardeau réel de leur dette est devenu bien plus important que ce à quoi ils s’attendaient. L’économie suédoise faisait alors face à des dynamiques croissantes de déflation par la dette. Selon Svensson, le fait que la Riksbank se soit finalement résolue à réduire de nouveau son taux directeur marque peut-être un échec du point de vue de sa politique monétaire, mais ce ne fut pas un échec du point de vue de l’économie, puisque celle-ci nécessitait les conditions accommodantes fournies par les marchés. 

Ce document de travail est une nouvelle occasion pour Svensson de régler ses comptes avec la banque centrale de Suède. Membre du comité de politique monétaire de la Riksbank depuis 2007, il quitta celle-ci avec fracas en 2013 en raison de ses désaccords avec les décisions qu’elle prenait. Féroce défenseur du ciblage d’inflation, il désapprouvait l’adoption d’une politique allant à contre-courant et jugeait que la faiblesse de l’activité et les perspectives d’inflation ne justifiaient pas un resserrement de la politique monétaire. Selon lui, si la Riksbank avait continué de cibler une inflation de 2 %, elle aurait maintenu une politique monétaire accommodante, si bien que la reprise de l’activité se serait poursuivie, l’économie n’aurait pas basculé dans la déflation et la situation financière des ménages ne se serait pas dégradée. En d’autres termes, en voulant précipiter le resserrement monétaire, la Riksbank n’a fait que reculer l’instant où elle pourra effectivement resserrer sa politique monétaire. En outre, le fait de reculer l’assouplissement monétaire ne fit qu’accroître l’ampleur de l’assouplissement nécessaire pour stabiliser l’activité. Dans la logique de Svensson, il n’est peut-être pas nécessaire que la banque centrale adopte un objectif de stabilité financière ; le ciblage d’inflation apparaît être le régime de politique monétaire le plus favorable à la gestion des crises financières, ce qui ne signifie pas qu’il suffit pour assurer la stabilité financière.

 

Références

SVENSSON, Lars E.O. (2013), « The possible unemployment cost of average inflation below a credible target », NBER, working paper, n° 19442, septembre.

SVENSSON, Lars E.O. (2014), « Forward guidance », NBER, working paper, n° 20796, décembre.

WOODFORD, Michael (2005), « Central bank communication and policy effectiveness », document de travail présenté à la conférence de Jackson Hole.

WOODFORD, Michael (2012), « Methods of policy accommodation at the interest-rate lower bound », document de travail présenté à la conférence de Jackson Hole.

Partager cet article
Repost0
21 septembre 2014 7 21 /09 /septembre /2014 18:17

Au deuxième trimestre, la demande domestique réelle dans la zone euro était toujours inférieure de 5 % à son niveau au début de l’année 2008 ; le taux de chômage pour l’ensemble de la zone euro s’est accru de 5 points de pourcentage depuis 2008 ; le taux d’inflation pour l'ensemble de l'union monétaire n’a cessé de diminuer depuis fin 2011 et il atteint aujourd’hui 0,4 %. Bref, pour Martin Wolf (2014), la zone euro connaît une dépression et l’insuffisance de la demande en est clairement à l’origine. En outre, même si la promotion de la croissance n’est pas l’objectif premier de la BCE, celle-ci a tout de même échoué à atteindre son objectif, en l’occurrence le maintien d'un taux d’inflation inférieur, mais proche, à 2 % (cf. graphique 1). La BCE met tellement de temps à assouplir sa politique monétaire que la zone euro s’est rapprochée dangereusement de la déflation. En l'occurrence, même une faible inflation (lowflation) complique le désendettement des agents (notamment des Etats) : comme l’inflation ralentit, les taux d’intérêt réels augmentent, ce qui aggrave le problème de demande et alourdit le fardeau de la dette.

GRAPHIQUE 1  Taux d'inflation en zone euro (en %)

Depuis la conférence tenue à Jackson Hole, Mario Draghi, le président de la Banque centrale européenne (BCE), a changé tant le ton que le contenu de ses propos. Il admet, d’une part, que la zone euro connaît une insuffisance de la demande et, d’autre part, que le resserrement des politiques budgétaires en zone euro participe justement à déprimer la demande globale. Il n’en demeure pas moins que Draghi continue d’appeler les Etats-membres à mettre en œuvre des réformes structurelles pour accroître la compétitivité de leur économie, accroître le potentiel de l’offre et réduire la composante structurelle du chômage. Or ces réformes sont susceptibles de déprimer davantage la demande globale, prolongeant la récession et aggravant le chômage, ce qui rend d’autant plus nécessaire un assouplissement des politiques conjoncturelles pour stimuler la demande.

La BCE a surpris les marchés au début du mois en annonçant une nouvelle baisse des taux d’intérêt et un projet d’assouplissement quantitatif (quantitative easing). La baisse des taux d’intérêt est surtout symbolique : le principal taux directeur est réduit de 10 points et atteint désormais 0,05 % de base, tandis que le taux des dépôts atteint – 0,2 %. Par contre, l’annonce d’un programme d’assouplissement quantitatif marque un réel tournant : la BCE prévoit d’acheter des titres adossés sur actifs, c’est-à-dire des titres émis par les banques contre les prêts qu’elles ont accordés aux ménages ou aux entreprises. Cette opération ne serait pas « stérilisée » : les achats seront financés par l’émission de monnaie centrale. La BCE accroîtrait par là la taille de son bilan, comme l’ont également fait les banques centrales des autres grandes économies avancées. Le volume exact des achats n’a toutefois pas été dévoilé. 

Charles Wyplosz (2014) se montre critique quant à l’efficacité de ce projet. Les programmes d’assouplissement quantitatif des autres banques centrales sont conduits par la demande, en l’occurrence celle émanant des banques commerciales. La Réserve fédérale des Etats-Unis, la Banque d’Angleterre et la Banque du Japon ont acheté des titres dans des montants fixés à l’avance et effectués selon un calendrier annoncé au préalable. Par conséquent, le volume de la création de liquidité est connu à l’avance et il se matérialise effectivement, puisqu’il ne dépend pas du comportement des banques commerciales. A l’inverse, la nouvelle politique de la BCE est conduite par l’offre, ce qui signifie qu’il n’est pas certain que les injections de liquidité se matérialisent : le bilan de la BCE ne s’accroîtra que si les banques commerciales désirent effectivement détenir davantage de liquidité.

Selon Wyplosz, le fait que la BCE ne projette pas d’adopter un assouplissement quantitatif traditionnel trouve deux explications. D’une part, le système bancaire européen reste fragmenté, si bien que les canaux de transmission par lesquels la liquidité s’écoule habituellement fonctionnent mal. D’autre part, les achats d’actifs réalisés dans le cadre des programmes traditionnels d’assouplissements quantitatifs se portent sur de larges montants de titres publics. Or une telle éventualité est fortement débattue en zone euro et en particulier en Allemagne, car elle laisserait la porte ouverte à la monétisation de la dette, une chose que beaucoup refusent.

Pour être efficace, le programme de la BCE doit encourager les prêteurs à prêter davantage en faisant le pari que ces prêts seront ensuite vendus à la banque centrale. Ce faisant, la BCE fait l’hypothèse que le crédit bancaire, qui a connu une croissance négative durant plusieurs années, est freiné par le manque de liquidité. Or, comme le rappelle Wyplosz, cette hypothèse est contredite par le fait que les banques détiennent presque 100 milliards d’euros en réserves, pour lesquelles elles versent d’ailleurs un taux d’intérêt. En fait, la croissance négative du crédit s’expliquerait plutôt par l’insuffisance de la demande globale. Une autre interprétation pourrait être que les banques ne prêtent pas car elles sont excessivement averses au risque. Si c’est le cas, le programme de la BCE pourra fonctionner, mais seulement si le processus de titrisation leur permet de transmettre le risque à la BCE. En vendant leurs prêts, les banques vont se débarrasser des risques qui leur sont associés.

Entre 2008 et 2013, le bilan de la BCE s’est certes accru de 3 mille milliards d’euros, mais il s’est contracté d’un milliard d’euros depuis 2013 : les banques commerciales ont tout simplement remboursé les prêts qu’elles avaient précédemment contractés auprès de la BCE [Fatás, 2014b]. En fait, le fait que le taux d’intérêt soit négatif pour les dépôts auprès de la banque centrale n’a pas incité les banques commerciales à prêter au secteur privé, mais il a par contre accéléré la contraction du bilan de la BCE. En fait, même s'il fonctionnait, il est probable que le programme d’assouplissement quantitatif de la BCE soit insuffisant pour que son bilan retrouve sa taille de 2013.

GRAPHIQUE 2  Le bilan de la BCE

Quelles autres actions pourraient être entreprises pour éviter la déflation et stimuler la croissance en zone euro ? Les gouvernements européens pourraient assouplir leurs politiques budgétaires nationales, et ce de façon coordonnée. Draghi suggère notamment d’accroître les investissements publics. Il ne plaide toutefois pas pour un creusement des déficits publics, ni même pour un étalement de la consolidation budgétaire. Dans le discours qu’il a prononcé à Jackson Hole, il appelle plutôt les gouvernements à modifier la composition (et non le montant) de leurs dépenses publiques en réduisant les dépenses caractérisées par un faible multiplicateur budgétaire pour accroître les dépenses caractérisées par un multiplicateur élevé.

De sont côté, la BCE n’est pas encore pleinement désarmée. Elle pourrait adopter une forme d’assouplissement quantitatif plus traditionnelle et enfin se décider à acheter des titres publics, mais une telle option rencontre toujours une forte opposition. Ensuite, la BCE pourrait tenter de relever les anticipations d’inflation, mais elle ne dispose désormais que très peu d’outils pour cela. Surtout, maintenant que le taux d’inflation s’est fortement éloigné de sa cible, la BCE pourrait avoir perdu en crédibilité. Elle peut toutefois travailler sa communication en adoptant enfin explicitement la pratique du forward guidance. Antonio Fatas (2014a) avance l’idée de « monnaie hélicoptère » (helicopter money) comme alternative : la BCE peut accroître de façon permanente sa base monétaire, soit en achetant des actifs, soit en transférant directement aux gouvernements ou aux ménages. Les banques centrales discutent d’une telle éventualité, mais l’ont jusqu’à présent exclue en raison des contraintes légales et pratiques, or celles-ci sont peut-être beaucoup plus fortes en zone euro que dans les autres pays développés.

 

Références

DAVIES, Gavyn (2014), « So is this (finally) QE from the ECB? », in Financial Times, 4 septembre.

FATÁS, Antonio (2014a), « Whatever it takes to see helicopter Mario (Draghi) », in Antonio Fatás on the Global Economy (blog), 7 septembre. Traduction française, « Il est temps que Mario Draghi endosse un nouveau costume... », in Annotations.

FATÁS , Antonio (2014b), « ECB: QE or QT (quantitative tightening)? », in Antonio Fatás on the Global Economy (blog), 14 septembre. Traduction française, « La BCE a adopté un resserrement quantitatif », in Annotations

WOLF, Martin (2014), « Europe has to do whatever it takes », in Financial Times, 9 septembre. 

WYPLOSZ, Charles (2014), « Is the ECB doing QE? », in VoxEU.org, 12 septembre.

Partager cet article
Repost0
16 septembre 2014 2 16 /09 /septembre /2014 22:35

Avec la crise financière mondiale, la Réserve fédérale des Etats-Unis (comme les banques centrales de plusieurs autres pays avancés) a dû puissamment assouplir sa politique monétaire et notamment ramener son taux directeur au plus proche de zéro pour freiner la contraction de l’activité et restaurer la stabilité financière. Pourtant la chute de la demande globale a été si forte que seul un taux d’intérêt négatif aurait pu ramener l’économie américaine au plein emploi. Dans une telle situation de trappe à liquidité, la politique monétaire perd en efficacité, tandis que la politique budgétaire retrouve sa pleine efficacité, comme le suggèrent notamment Michael Woodford (2011), Bradford DeLong et Lawrence Summers (2012) ou encore Gauti Eggertsson et Paul Krugman (2012). Et effectivement, le taux des fonds fédéraux a beau être resté à sa borne inférieure zéro (zero lower bound) depuis décembre 2008, soit depuis près de six ans, la reprise demeure lente, le taux de chômage reste élevé et les pertes de revenu associées à la Grande Récession n’ont pas été entièrement recouvrées : l’activité américaine n’est pas parvenue à retrouver la trajectoire qu’elle suivait avant la crise. Puisque la Fed ne pouvait davantage jouer sur son instrument traditionnel de la politique monétaire, elle a adopté d’autres mesures « non conventionnelles » pour essayer de stimuler davantage l’activité économique, notamment le forward guidance et les achats d’actifs à grande échelle à travers les programmes d’assouplissement quantitatif (quantitative easing).

La théorie macroéconomique suggère également que les prix d’actifs et l’économie ne sont pas seulement influencés par le niveau actuel du taux à court terme, mais qu’ils sont en fait affectés par l’ensemble de sa trajectoire future, telle qu’elle est anticipée par les marchés. Cela laisse à penser que la politique monétaire peut rester efficace même lorsque le taux directeur est nul. Du côté théorique, des auteurs comme Gauti Eggertsson et Michael Woodford (2003) suggèrent qu’une banque centrale peut stimuler l’activité lorsque son taux directeur est contraint par la borne zéro en promettant de garder sa politique monétaire accommodante une fois que la borne zéro n’est plus contraignante (ou, autrement dit, une fois que l’économie est sortie de la trappe à liquidité) : si les agents économiques s’attendent à ce que la politique monétaire soit plus accommodante que nécessaire dans le futur, ils anticipent par conséquent un boom, ce qui les incite à investir dès aujourd’hui et l’activité s’en trouve alors effectivement stimulée. Eggertsson et Woodford soulignent toutefois que ce sera le cas seulement si la banque centrale est capable de s’engager à fixer son taux directeur aux niveaux qu’elle a annoncés. Du côté empirique, Refet Gürkaynak, Brian Sack et Eric Swanson (2005) ont montré que les annonces de politique monétaire faites par la Fed influencent les prix d’actifs principalement en influençant les anticipations de future politique monétaire des marchés financiers plutôt qu’avec les modifications du taux directeur en vigueur.

GRAPHIQUE  Taux des fonds fédéraux et rendements des titres du Trésor sans coupon à 1 an, à 2 ans, à 5 ans et à 10 ans

Swanson Williams, Etats-Unis taux directeur taux bons du Tr

Dans ce contexte, Eric Swanson & John Williams (2014) ont cherché à évaluer si la borne zéro rendait effectivement impuissante la politique monétaire et redonnait toute son efficacité à la politique budgétaire. Ils développent une nouvelle méthode pour déterminer si les taux d’intérêt à chaque échéance sont influencés par la présence de la borne inférieure zéro et, dans ce cas, pour déterminer dans quelle ampleur ils le sont. Ils se basent sur des données à haute fréquence pour observer comment les rendements réagissent aux annonces macroéconomiques. Pour les auteurs, le niveau d’un rendement pris isolément n’indique pas clairement si ce rendement est contraint par la borne inférieure zéro. En effet, il n’est pas possible de quantifier la sévérité de la contrainte de la borne zéro ou son importance statistique en utilisant le seul niveau de rendement. Ensuite, il se peut que la borne sur laquelle butent les taux d’intérêt nominaux soit supérieure à zéro pour des raisons institutionnelles et que cette borne inférieure effective diffère par conséquent d’un pays à l’autre. Enfin, la sensibilité des rendements aux nouvelles est plus pertinente que le niveau de rendement pour le multiplicateur budgétaire. La taille du multiplicateur budgétaire dépend étroitement de la réaction des taux d’intérêt aux changements de politique budgétaire et non de leur niveau.

Swanson et Williams constatent que les taux d’intérêt à un an et de plus long terme ont fortement réagi aux nouvelles entre 2008 et 2010. Ce n’est qu’à partir de la fin de l’année 2011, c’est-à-dire précisément au moment où le comité de politique monétaire de la Fed adopte le forward guidance, que la sensibilité des rendements des titres du Trésor à moyen terme chute et se rapproche de zéro. Les auteurs proposent deux raisons pour expliquer cette dynamique. Premièrement, il se pourrait que jusqu’à fin 2011, les marchés s’attendaient constamment à ce que la Fed relève le taux des fonds fédéraux d’ici les quatre trimestres suivants, ce qui minimisait les effets de la borne zéro sur les rendements à moyen et long termes. Deuxièmement, l’adoption du forward guidance par la Fed et ses achats d’actifs à grande échelle continuèrent de pousser à la baisse les taux d’intérêt à moyen et long termes, même si les taux courts étaient contraints par leur borne zéro. Avec ces actions « non conventionnelles », les rendements des titres du Trésor à moyen terme et à plus long terme ont diminué de plus de 20 points de base en diverses occasions entre 2008 et 2012.

Leurs résultats ont d’importantes implications pour la conduite des politiques conjoncturelles. Tout d’abord, en ce qui concerne la politique monétaire, ces résultats suggèrent que les autorités monétaires ont continué à disposer d’une importante marge de manœuvre pour influencer les taux d’intérêt à moyen et long terme (du moins jusqu’à 2011) malgré le fait que le taux des fonds fédéraux soit à sa borne zéro. En effet, le comité de politique monétaire semble avoir directement influencé ces rendements à plus long terme en de multiples reprises, d’une part, en cherchant à façonner les anticipations des marchés financiers quant aux futures mesures de politique monétaire (via la pratique du forward guidance) et, d’autre part, en achetant massivement des titres à plus long terme. En ce qui concerne la politique budgétaire, leurs résultats suggèrent que le multiplicateur budgétaire était probablement proche de la normale entre 2008 et 2010, car sur cette période les marchés finances s’attendaient alors à ce que la contrainte de la borne zéro dure au maximum quatre trimestres. Par contre, à partir de fin 2011, les rendements des bons du Trésor à deux ans sont devenus moins sensibles aux nouvelles et les marchés financiers s’attendaient désormais à ce que la première hausse du taux des fonds fédéraux n’ait pas lieu avant au moins sept trimestres. Cela suggère selon lSwanson et Williams que la taille du multiplicateur budgétaire s’est alors fortement élevée.

 

Références

DELONG, J. Bradford, & Lawrence SUMMERS (2012), « Fiscal policy in a depressed economy », inBrookings Papers on Economic Activity, vol. 44, n° 1.

EGGERTSSON, Gauti B., & Paul KRUGMAN (2012), « Debt, deleveraging, and the liquidity trap: A Fisher-Minsky-Koo approach », in Quarterly Journal of Economics, vol. 127, n° 3.

EGGERTSSON, Gauti B., & Michael WOODFORD (2003), « The zero interest-rate bound and optimal monetary policy », in Brookings Papers on Economic Activity.

GÜRKAYNAK, Refet S., Brian SACK & Eric T. SWANSON (2005), « Do actions speak louder than words? The response of asset prices to monetary policy actions and statements », in International Journal of Central Banking, vol. 1, n° 1.

SWANSON, Eric T., & John C. WILLIAMS (2014), « Measuring the effect of the zero lower bound on medium- and longer-term interest rates », National Bureau of Economic Research, working paper, n° 20486.

WOODFORD, Michael (2011), « Simple analytics of the government expenditure multiplier », inAmerican Economic Journal: Macroeconomics.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher