Overblog
Suivre ce blog Administration + Créer mon blog
13 juin 2015 6 13 /06 /juin /2015 15:17

Face à la sévérité de la Grande Récession et à la lenteur de la subséquente reprise, les banques centrales ont adopté diverses mesures « non conventionnelles » pour stimuler l’économie et la ramener au plein emploi. Elles ont notamment adopté des politiques d’assouplissement quantitatif (quantitative easing) consistant, selon la définition qu’en donnent Lenza et alii (2010), à accroître délibérément la taille du bilan, mais aussi l’assouplissement du crédit (credit easing) qui consiste à changer délibérément la composition de l’actif. Ce fut le cas de la Réserve fédérale aux Etats-Unis, dès la fin de l’année 2008, lorsqu’elle ramena son taux directeur au plus proche de zéro et chercha d'autres moyens pour davantage approfondir sa politique monétaire. Au début de l’année 2014, la Banque du Japon s’est lancée dans un programme d’accroissement rapide de son bilan (constituant la « première flèche » de l’abenomics) afin de sortir l’économie insulaire de la déflation dans laquelle elle est plongée depuis la fin des années quatre-vingt-dix. Plus récemment, le basculement de la zone euro dans la déflation a finalement convaincu la BCE d'adopter un programme d’assouplissement quantitatif malgré la réticence de plusieurs de ses membres.

Au niveau théorique, les études explorant l’impact de la politique monétaire sur les anticipations d’inflation s’appuient très souvent sur l’analyse que réalisa Paul Krugman (1998) lorsqu’il observa l’enfermement du Japon dans une trappe à liquidité à la fin des années quatre-vingt-dix. Krugman y suggérait que l’inefficacité dont fait preuve la politique monétaire dans une trappe à liquidité se ramène finalement à un problème de crédibilité. Dans son modèle, l’offre de monnaie à long terme est fixe et celle-ci détermine le niveau des prix à l’avenir. Cependant, si la banque centrale peut s’engager de façon crédible à accepter une plus large offre de monnaie à long terme et donc des prix plus élevés à l’avenir qu’ils n’auraient dû l’être, alors les taux d’intérêt réels auront tendance à décliner, stimulant dans la période courante l’investissement et sortant finalement l’économie de la trappe à liquidité. L’expansion et la modification du bilan des banques centrales peuvent (a priori) rendre crédible leur engagement à laisser une période de forte inflation une fois la reprise amorcée. 

L’assouplissement quantitatif vise à assouplir davantage la politique monétaire (même si les taux directeurs butent déjà sur leur borne inférieure zéro). Elle affecte en théorie l’activité via le canal du rééquilibrage des portefeuilles (portfolio-rebalancing) et le canal du signalement (signaling). Il y a rééquilibrage des portefeuilles en raison de l’imparfaite substituabilité entre les actifs : en modifiant les prix relatifs des actifs, un programme d’achat d’actifs à grande échelle réduit notamment les rendements obligataires (ce qui diminue les coûts de financement pour les entreprises) et incite les agents à acheter des actifs risqués (notamment des actions, ce qui accroît les cours boursiers et incite les ménages à consommer, via les effets de richesse, en accroissant la valeur de leur patrimoine financier). En outre, en accroissant son bilan, une banque centrale signale sa détermination à laisser ses taux d’intérêt à un faible niveau pendant une période prolongée, ce qui incite les agents à s’endetter et donc à dépenser. Toutefois, l’accroissement du bilan peut aussi conduire au résultat opposé : il peut en effet signaler aux agents que la banque centrale s’attend à une faiblesse durable de l’inflation et de l’activité, ce qui les amène en fait à réviser leurs propres anticipations d’inflation à la baisse et les désincite à emprunter. L’activité et l’inflation restent alors affaiblies et les anticipations se seront révélées être au final autoréalisatrices. Enfin, l’accroissement du bilan peut générer des effets de débordement sur les marchés des changes : en entraînant une dépréciation du taux de change, il alimente l’inflation importée. 

Jan Willem van den End et Christiaan Pattipeilohy (2015) ont analysé au niveau empirique l’impact que les programmes d’assouplissement quantitatif et d’assouplissement du credit adoptés par quatre banques centrales (en l’occurrence la Fed, la Banque d’Angleterre, la Banque du Japon et la BCE) ont pu avoir sur les anticipations d’inflation et le taux de change entre 2007 et 2014. Leur analyse suggère qu’un accroissement du bilan des banques centrales via l’assouplissement quantitatif est associé à une baisse des anticipations d’inflation à court terme aux Etats-Unis et au Royaume-Uni, ce qui suggère que des effets de signalement adverses sont à l’œuvre : les marchés interprètent l’assouplissement quantitatif comme signalant une faiblesse durable de l’activité, ce qui alimente leur pessimisme. Les répercussions de l’accroissement du bilan sur les anticipations d’inflation sont négligeables en zone euro. Le Japon est une exception, puisque l'accroissement de la taille du bilan de la banque centrale a entraîné une révision à la hausse des anticipations d’anticipation. Suite à l’adoption d’un assouplissement du crédit, les anticipations d’inflation à court terme tendent à s’accroître aux Etats-Unis et au Royaume-Uni, mais elles ne varient pas en zone euro ; un changement dans la composition du bilan n’a par contre aucun effet sur les anticipations d’inflation à long terme. En ce qui concerne les répercussions sur le taux de change, End et Pattipeilohy constatent que l’accroissement du bilan de la Fed s’est traduit par une appréciation du dollar. Par contre, l’accroissement du bilan de la Banque du Japon, de la Banque d’Angleterre et de la BCE tend respectivement à entraîner une dépréciation du yen, de la livre sterling et de l’euro. L’assouplissement du crédit opéré par la Banque d’Angleterre conduit par contre à une appréciation de la livre sterling.

Selon End et Pattipeilohy, la relative insensibilité des anticipations d’inflation aux politiques de bilan suggère que leur adoption n’a pas sapé la crédibilité des banques centrales : elle n’a pas suggéré aux marchés que les banques centrales revenaient sur leur engagement à cibler l’inflation. Malgré tout, leur étude montre que les banques centrales peuvent échouer à accroître les anticipations d’inflation. Les politiques de bilan se révèlent en soi insuffisantes pour changer significativement ces dernières. Selon les modèles des nouveaux keynésiens, l’assouplissement quantitatif ne peut parvenir à changer les anticipations que si la banque centrale parvient à s’engager de façon crédible à laisser une plus forte inflation en changeant de stratégie de politique monétaire. Par exemple, l’adoption d’un assouplissement quantitatif par la Banque du Japon fut synchrone avec un changement de sa stratégie de politique monétaire, puisqu’elle a abandonné son objectif d’inflation de 1 % pour un objectif d’inflation de 2 %. Par contre, la BCE, la Banque d’Angleterre et la Fed ont gardé leur cible d’inflation (en l’occurrence 2 %), ce qui a pu suggérer qu’elles resserraient leur politique monétaire dès que l’inflation s’accélérerait et réduit ainsi l’efficacité leurs mesures non conventionnelles. La crédibilité de ces banques centrales les empêche peut-être précisément à accroître significativement les anticipations d’inflation.

 

Références

Van den END, Jan Willem, & Christiaan PATTIPEILOHY (2015), « Central bank balance sheet policies and inflation expectations », De Nederlandsche Bank, working paper, mai.

KRUGMAN, Paul R. (1998), « It’s baaack: Japan’s slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, vol. 2.

LENZA, Michele, Huw PILL & Lucrezia REICHLIN (2010), « Monetary policy in exceptional times », Economic Policy, vol. 25, n° 4.

 

Partager cet article
Repost0
10 mai 2015 7 10 /05 /mai /2015 17:45

En observant la période s'étalant entre 1987 et 1992, John Taylor (1993) a formulé une équation (qualifiée plus tard de « règle de Taylor ») censée décrire les décisions de la Réserve fédéral relative à son taux d'intérêt. Cette règle relie le taux directeur (r) de la banque centrale américaine à l’écart de production (c’est-à-dire l’écart entre le PIB et son niveau potentiel) (y) et au taux d’inflation (p) ainsi :

r = p + 0.5y + 0.5(p – 2) + 2

Selon cette équation, la Fed devrait accroître son taux directeur d’un demi-point de pourcentage si le taux d’inflation s’élève d’un point de pourcentage par rapport à la cible de 2 % d’inflation de la Fed ou bien si la production s’élève d’un point de pourcentage par rapport à son niveau potentiel. Si l’inflation est à sa cible et si la production est à son niveau potentiel, alors la Fed devrait fixer son taux directeur à 2 %, soit sa moyenne historique.

Taylor a affirmé que sa règle a non seulement un rôle descriptif, mais aussi prescriptif. Elle doit servir de référence aux décisions de politique monétaire : la banque centrale doit fixer son taux directeur au plus proche du niveau indiqué par la règle. 

Taylor s’est montré très critique des décisions que la Fed a prises au cours des douze dernières années. Il n’a cessé d’affirmer que la Fed ne fixe pas son taux directeur au niveau approprié et que ce sont ces écarts qui expliquent les mauvaises performances de l’économie américaine. En l’occurrence, le taux directeur de la Fed a été inférieur au taux d’intérêt suggéré par la règle de Taylor entre 2003 et 2005, ce qui suggère que la politique monétaire a été excessivement accommodante au cours de cette période et qu’elle aurait ainsi alimenté la bulle immobilière à l’origine de la crise du crédit subprime. La Fed aurait de nouveau fixé son taux directeur à un niveau sensiblement inférieur à celui indiqué par la règle de Taylor suite à la crise financière. Si la Fed l’avait scrupuleusement suivie, elle aurait relevé ses taux directeurs depuis plusieurs années.

GRAPHIQUE 1  Estimations du niveau approprié du taux directeur à partir de la règle de Taylor originelle

La règle de Taylor doit-elle être une référence pour la politique monétaire ?

Ben Bernanke, l’ancien président de la Fed, s’est depuis longtemps montré critique vis-à-vis de l’usage de règles activistes pour assoir les décisions de politique monétaire, considérant que la politique monétaire est plus efficace si elle reste à la discrétion du banquier central. Dans un récent billet de blog, Bernanke (2015) propose une règle de Taylor modifiée pour déterminer si la politique monétaire américaine a été excessivement accommodante au milieu des années deux mille et suite à la crise financière mondiale, c’est-à-dire précisément à la période au cours de laquelle il participa à la prise de décisions au sein de la Fed. Pour cela, il apporte deux modifications par rapport à la règle que Taylor proposa initialement en 1993. D’une part, il prend en compte l’inflation sous-jacente et non pas l’inflation globale ; pour la déterminer, il utilise le taux de variation des prix à la consommation et non pas le déflateur du PIB. D’autre part, Bernanke prend un plus grand coefficient pour l’écart de production que Taylor : en l’occurrence, lorsque la production s’éloigne d’un point de pourcentage de son niveau potentiel, Bernanke considère que la Fed fait varier son taux directeur non pas d’un demi-point de pourcentage, mais d’un point de pourcentage.

GRAPHIQUE 2  Estimations du niveau approprié du taux directeur à partir d'une règle de Taylor modifiée

 

La règle de Taylor doit-elle être une référence pour la politique monétaire ?

Bernanke constate alors que le taux directeur de la Fed a été assez proche de sa règle de Taylor modifiée au cours des deux dernières décennies. En l’occurrence, le taux directeur n’a pas été excessivement faible entre 2003 et 2005. En outre, la règle de Taylor modifiée de Bernanke suggère que le taux directeur de la Fed aurait dû être négatif depuis la crise financière. Or, le taux d’intérêt nominal a été contraint par sa borne zéro : comme la Fed ne pouvait adopter un taux directeur négatif, l’adoption de mesures non conventionnelles comme les achats d’actifs à grande échelle apparait justifiée.

Bernanke rejette également l’idée que l’économie américaine ait réalisé de piètres performances ces dernières années. Certes la Grande Récession a été la crise économique la plus forte depuis la Grande Dépression. Mais les Etats-Unis ont connu une reprise plus forte suite à la Grande Récession que bien d’autres pays avancés. La reprise a fait face à plusieurs « vents contraires » comme le resserrement de la politique budgétaire américaine à partir de 2010, ainsi que la crise de la zone euro. 

Si Bernanke reconnaît que la règle de Taylor fournit une description simple des décisions monétaires prises par le passé, il rejette l’idée qu’elle puisse indiquer comment la politique monétaire doit être décidée dans la période courante. Si la règle de Taylor qu’il a lui-même utilisé lui apparaît plus appropriée que celle initialement présentée par Taylor pour décrire les décisions que prit la Fed par le passé, Bernanke ne pense pas pour autant qu’elle doit être utilisée par la Fed pour prendre ses décisions futures. Il estime que la politique monétaire doit être « systématique et non automatique ». Une quelconque version de la règle de Taylor ne peut prendre en compte toutes les informations pertinentes pour la politique monétaire dans une économie complexe et dynamique. Il n’y a pas consensus sur les variables qui doivent être utilisées dans la règle de Taylor. Il n’y a pas non plus consensus sur la valeur des coefficients qui leur sont associés. En outre, les variables utilisées par une quelconque règle de Taylor ne sont généralement pas mesurables en temps réels. Par exemple, il n’y a pas d’estimations précises de la taille actuelle de l’écart de production. Les membres du comité de politique monétaire de la Fed ne s’accordent pas sur sa valeur. De plus, la règle de Taylor suggère qu’il existe un taux directeur d’équilibre qui soit fixe, en l’occurrence égal à 2 % en termes réels. Or, le taux d’équilibre est susceptible de varier au cours du temps. Il n’est lui-même pas directement mesurable. La Fed et les marchés estiment que le taux directeur d’équilibre est actuellement plus faible que celui supposé par la règle de Taylor, même s’il y a nouveau des désaccords sur sa valeur.

John Taylor (2015) a répliqué à Bernanke dans un article du Wall Street Journal. Tout d’abord, il soutient que la règle émerge de plusieurs décennies de recherche à propos de la politique monétaire optimale. Il rappelle qu’il n’est pas le seul économiste à avoir affirmé que la Fed avait maintenu son taux directeur « trop longtemps trop bas ». Ensuite, il regrette que Bernanke se soit focalisé sur la période où il était membre du conseil des gouverneurs. En l’occurrence, la Fed avait déjà tendance à poursuivre une politique monétaire excessivement accommodante au cours des années soixante-dix, or cette période fut marquée par d’amples déséquilibres macroéconomiques, une forte inflation couplée à un chômage élevé. Par contre, au cours des années quatre-vingt et quatre-vingt-dix, période au cours de laquelle Taylor estime que sa règle réplique assez finement la trajectoire effective du taux directeur, l’économie américaine fut marquée par une relative stabilité de l’activité et une faible inflation. Pour Taylor, la borne inférieure zéro n’est pas un nouveau problème ; elle ne justifie pas des achats d’actifs à une large échelle. Il estime que la Fed aurait pu surmonter cette contrainte en adoptant une règle de croissance monétaire fixe.

Tony Yates (2015) et Paul Krugman (2015) ont réagi à la réponse de Taylor. Yates confirme que la règle de Taylor réalise peut-être de bonnes performances dans certains modèles, mais même dans ces derniers elle ne constitue pas forcément la politique optimale. En outre, l’essentiel des études sur la règle de Taylor précèdent la crise financière mondiale, or elles avaient tendance à ignorer les bulles et les crises financières : l’instabilité financière est impossible dans les modèles qui sont utilisés pour justifier la règle de Taylor. Taylor (1993) lui-même avait exclu l’épisode du krach boursier de 1987 dans son étude originelle. Comme le résume Krugman, si la règle de Taylor est optimale, cette optimalité reste à démontrer. Par ailleurs, Taylor affirme que l’économie américaine n’aurait pas connu la formation d’une bulle immobilière au milieu des années deux mille si la Fed avait appliqué la règle de Taylor ; pourtant, l’économie américaine a bien connu la formation d’une bulle spéculative à la fin des années quatre-vingt, c’est-à-dire à une période au cours de laquelle Taylor estime que le taux directeur coïncidait avec sa règle. Enfin, Yates doute qu’une règle de croissance fixe de la masse monétaire permette de surmonter le problème de la borne zéro. En effet, dans une trappe à liquidité, où le taux directeur est à la borne zéro et où les agents s’attendent à ce qu’elle y demeure perpétuellement, une quelconque croissance de la masse monétaire n’a aucun impact.

 

Références

BERNANKE, Ben S. (2015), « The Taylor rule: A benchmark for monetary policy? », 28 avril.

KRUGMAN, Paul (2015), « Veg-O-Matic egonomics », in The Conscience of a Liberal (blog), 5 mai.

TAYLOR, John B. (1993), « Discretion versus policy rules in practice », Carnegie‐Rochester Conference Series on Public Policy, vol. 39, n° 1.

TAYLOR, John (2015), « Monetary rules work better than ‘constrained discretion’ », in Wall Street Journal, 2 mai.

YATES, Tony (2015), « More on John Taylor vs Bernanke », in longandvariable (blog), 4 mai. 

Partager cet article
Repost0
8 mai 2015 5 08 /05 /mai /2015 09:12

Après quatre ans de dépression et de déflation, les Etats-Unis ont connu une reprise rapide de l’activité économique durant le printemps de l’année 1933. Entre mars et juillet, la production industrielle a augmenté de 57 %. Les Etats-Unis n’ont jamais connu une reprise plus rapide dans le reste de son histoire. La crise financière mondiale de 2008 et la Grande Récession qui l’a suivie ont renouvelé l’intérêt pour l’étude de la Grande Dépression des années trente. Comme la politique monétaire est aujourd’hui contrainte par la borne inférieure zéro comme elle le fut il y a huit décennies, les économistes se sont interrogés quelles forces ont freiné ou accéléré la reprise suite à la Grande Dépression. En l’occurrence, ils se sont demandés pourquoi la reprise de 1933 a tardé et pourquoi elle fut si rapide une fois amorcée.

Si, comme l’ont notamment démontré Christina et David Romer (2013), le recul de l’inflation anticipée a contribué à la gravité de la Grande Dépression, la hausse de l’inflation anticipée a peut-être mis un terme à cette dernière. Peter Temin et Barrie Wigmore (1990) ont en effet suggéré que la reprise de 1933 s’expliquait par une forte révision à la hausse des anticipations d’inflation. Ils affirment que le président Franklin Roosevelt, qui arriva au pouvoir en mars 1933, instaura un nouveau régime de politique macroéconomique qui entraîna la révision des anticipations d’inflation et amorça ainsi la reprise. Gauti Eggertsson (2008) a développé un modèle théorique où la révision des anticipations d’inflation peut expliquer la reprise de la Grande Dépression. 

Les travaux théoriques de ces dernières décennies ont en effet conclu qu’une banque centrale ne peut sortir une économie d’une trappe à liquidité qu’en amenant les agents à réviser à la hausse leurs anticipations d’inflation. Comme l’ont notamment suggéré Paul Krugman (1998) ou Gauti Eggertsson et Michael Woodford (2003), si la banque centrale parvient à accroître l’inflation anticipée, cela pousse les taux d’intérêt réels à la basse, même si les taux d’intérêt nominaux sont déjà à leur borne inférieure zéro. Lorsqu’il annonça le relèvement de la cible d’inflation et l’accroissement rapide de la base monétaire, Haruhiko Kuroda, le gouverneur de la Banque du Japon, prit comme référence du changement de régime macroéconomique de Roosevelt pour affirmer que l’adoption de politiques inflationnistes était susceptible d’accroître la production lorsque l’économie est confrontée à une trappe à liquidité. Selon Christina Romer (2013), l’abenomics est à même d’impulser un changement de régime macroéconomique aussi radical que celui impulsé par l’administration Roosevelt. Parallèlement, la chute des anticipations d’inflation et la stagnation de l’activité ont amené plusieurs économistes et responsables politiques à craindre ces dernières années que la zone euro bascule dans une trappe déflationniste à la japonaise. La BCE a notamment adopté un programme d’assouplissement quantitatif en janvier 2015 afin de relever les anticipations d’inflation. 

Pourtant, ni Temin et Wigmore, ni Eggertsson n’ont démontré empiriquement que les anticipations d’inflation avaient effectivement changé durant le deuxième trimestre de 1933. Hausman (2013) conclut qu’en accroissant les revenus agricoles la dévaluation a directement stimulé la demande dans les Etats agricoles, aidant à stimuler la croissance de a production en 1933. Jason Taylor et Todd Neumann (2014) ont analysé un éventail de forces qui ont pu avoir contribué à la reprise de mars 1933 et du basculement des Etats-Unis dans une nouvelle récession. Les deux études ont suggéré qu’une hausse des anticipations d’inflation pouvait avoir joué un rôle déterminant dans la reprise. Taylor et Neumann constatent que la reprise s’est accélérée rapidement suite à certaines nouvelles relatives à l’inflation. Hausman suggère que la dévaluation, en accroissant les prix agricoles, a signalé une accélération de l’inflation et stimulé par là l’économie en amenant les agents à réviser leurs anticipations d’inflation à la hausse.

De leur côté, Andrew Jalil et Gisela Rua (2015) se sont demandé si les anticipations d’inflation changèrent durant le deuxième trimestre de 1933. Pour répondre à cette question, ils ont examiné trois types de preuves empiriques à partir des comptes-rendus historiques. Ils ont tout d’abord construit de nouvelles séries de données qui mesurent le nombre d’articles d’information contenant le terme d’inflation dans plusieurs journaux quotidiens. Ensuite, ils ont étudié les comptes-rendus des observateurs de l’époque, puis les prévisions des analystes de l’époque pour déterminer ce qu’ils anticipaient en termes d’inflation. L’ensemble des données que les auteurs recueillent indiquent que le deuxième trimestre de 1933 fut effectivement marqué par une forte hausse des anticipations d’inflation.

Jalil et Rua se demandent alors quels événements ont provoqué la révision des anticipations d’inflations. Ils identifient les nouvelles relatives à l’inflation dans les journaux. Ils entreprennent alors une étude d’événements pour estimer l’impact de ces nouvelles sur les marchés financiers. Ils constatent que ces nouvelles ont eu un large impact sur les marchés financiers. En l’occurrence, au cours des 24 heures qui suivaient une nouvelle relative à l’inflation, les indices boursiers augmentaient de pratiquement 5 % et le dollar se dépréciait d’environ 2 %. La stratégie de communication de Roosevelt provoqua la révision d’anticipations d’inflation : il s’engagea à ramener les prix à leurs niveaux d’avant-crise et annonça l’abandon de l’Etalon-or.

Enfin, Jalil et Rua examinent les répercussions macroéconomiques de cette révision des anticipations d’inflation. Durant les mois qui coïncident avec le changement de régime inflationniste de Roosevelt, la croissance de la production fut supérieure de 7 points de pourcentage que ce qui aurait été prédit d’après le comportement normal des indicateurs monétaires et financiers. Leur analyse suggère que la révision des anticipations d’inflation a joué un rôle causal dans la reprise de 1934.

 

Références

EGGERTSSON, Gauti B. (2008), « Great expectations and the end of the Depression », in American Economic Review, vol. 98, n° 4.

EGGERTSSON, Gauti B., & Michael WOODFORD (2003), « The zero bond on interest rates and optimal monetary policy », in Brookings Papers on Economic Activity, n° 1.

HAUSMAN, Joshua (2013), « Growth after a financial crisis: The U.S. in spring 1933 ».

JALIL, Andrew, & Gisela RUA (2015), « Inflation expectations and recovery from the Depression in 1933: Evidence from the narrative record », Réserve fédérale, working paper, avril.

KRUGMAN, Paul (1998), « It’s baaack: Japan’s slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, n° 2.

ROMER, Christina (2013), « It takes a regime shift: Recent developments in Japanese monetary policy through the lens of the Great Depression », discours prononcé à la conférence annuelle du NBER, 12 avril.

ROMER, Christina, & David ROMER (2013), « The missing transmission mechanism in the monetary explanation of the Great Depression », in American Economic Review: Papers & Proceedings, vol. 103, n° 3.

TAYLOR, Jason E., & Todd C. NEUMANN (2014), « Recovery spring, faltering fall: March to november 1933 ».

TEMIN, Peter, & Barrie A. WIGMORE (1990), « The end of one big deflation », in Explorations in Economic History, vol. 27, n° 4.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher