Overblog
Suivre ce blog Administration + Créer mon blog
10 février 2019 7 10 /02 /février /2019 08:46
L’inflation est-elle au coin de la rue ?

L’économie américaine est officiellement sortie de la Grande Récession en juin 2009. L’expansion qui s’est amorcée à cette date ne s’est, jusqu’à présent, pas interrompue, si bien que les Etats-Unis auront connu, quoiqu’il arrive, l’une des plus longues expansions de son histoire. Depuis le début de la reprise, le taux de chômage a régulièrement diminué et atteint des niveaux particulièrement faibles : il est passé sous les 4 % ces derniers mois, soit un niveau inférieur à celui qu’il atteignait à la veille de la crise financière. La durée exceptionnelle de l’expansion et la faiblesse du taux de chômage alimentent les craintes d’une forte accélération de l’inflation. Et pourtant, cette dernière reste à un faible niveau. Elle se comporte à peu près pareillement dans d’autres pays développés, en particulier la zone euro (même s’il faut avouer que la reprise a été moins robuste au sein de celle-ci). Jared Bernstein (2017) y voit « l’énigme numéro une en économie ».

Ce n’est pas la première fois que le comportement de l’inflation surprend les économistes. Ces derniers ont souvent étudié le lien entre inflation et activité au prisme de la courbe de Phillips, mais le comportement de l’inflation lors de la Grande Récession, puis lors de la subséquente reprise a semblé infirmé une telle relation. En effet, malgré la forte hausse du chômage aux Etats-Unis et dans plusieurs pays développés, l’inflation y est restée relativement stable, alors qu’une courbe de Phillips traditionnelle aurait suggéré qu’une forte déflation apparaisse dans un tel contexte. Certains ont alors parlé d’une « désinflation manquante » (missing deflation). Pour l’expliquer, certains ont suggéré que la crédibilité des banques centrales aurait permis d’ancrer les anticipations d’inflation ; d’autres ont évoqué un aplatissement de la courbe de Phillips [FMI, 2013]. Pour d’autres encore, comme Larry Summers (2017) et The Economist (2017), la courbe de Phillips serait tout simplement morte. Alan Blinder (2018) suggère qu’elle est peut-être « juste partie en vacances », tandis qu’Olivier Blanchard (2016) la croit toujours vivante, mais précise qu’elle n’a jamais été bien fébrile : la relation n’a jamais été bien robuste.

Deux nouvelles lignes de défense de la courbe de Phillips ont été récemment proposées. Dans la première, Laurence Ball et Sandeep Mazumder (2019) estiment que le comportement de l’inflation est plus facile à comprendre si nous divisons l’inflation globale en une inflation sous-jacente et un résidu transitoire et si l’inflation sous-jacente est mesurée, comme le préconisaient Michael Bryan et Stephen Cecchetti (1994), par la médiane pondérée des taux d’inflation des différents secteurs. L’inflation sous-jacente est habituellement mesurée en prenant le taux d’inflation et en retranchant de celui-ci les prix des aliments et de l’énergie. Ces derniers sont en effet très volatiles, mais d’autres secteurs connaissent aussi d’amples variations des prix qui influencent fortement le taux d’inflation global. La médiane pondérée est moins volatile que la mesure traditionnelle de l’inflation sous-jacente, car elle élimine les amples variations des prix dans toutes les industries.

Ball et Mazumder démontrent l’opportunité d’utiliser la médiane pondérée en étudiant le comportement de l’inflation en 2017 et au début de l’année 2018. Au cours de cette période, la mesure traditionnelle de l’inflation sous-jacente suggérait que celle-ci avait chuté, chose que le comité de politique monétaire de la Fed ne parvenait pas à comprendre. Mais la médiane pondérée ne chuta pas autant au cours de cette période, parce qu’elle excluait la forte baisse des prix que connurent plusieurs secteurs de l’économie.

Pour Ball et Mazumder, la courbe de Phillips est bien vivante aux Etats-Unis, mais elle n’explique que l'inflation sous-jacente. Une courbe de Phillips reliant la médiane pondérée au chômage apparaît clairement dans les données pour la période allant de 1985 à 2017 et il n’y a pas de rupture dans cette relation en 2008.

De leur côté, Olivier Coibion et Yuriy Gorodnichenko (2015) avaient suggéré que l’absence de déflation durant la Grande Récession étant tout à fait compatible avec la courbe de Phillips, à condition que celle-ci soit augmentée des anticipations. En l’occurrence, la hausse des prix du pétrole entre 2009 et 2011 aurait amené les ménages à relever leurs anticipations d’inflation, ce qui aurait empêché l’inflation de ralentir autant que l’aurait mécaniquement impliqué la chute de l’activité.

GRAPHIQUE 1  La courbe de Phillips augmentée des anticipations

Olivier Coibion, Yuriy Gorodnichenko et Mauricio Ulate (2019) ont compilé les données relatives à plusieurs économies pour lesquelles des enquêtes ont été réalisées depuis suffisamment longtemps auprès des entreprises ou des ménages, en l’occurrence 17 pays développés et la zone euro prise dans son ensemble. Ils mettent en évidence une relation négative et robuste entre l’écart d’inflation (c’est-à-dire l’écart entre l’inflation observée et l’inflation anticipée) et l’écart de chômage (c’est-à-dire l’écart entre le taux de chômage observé et le taux de chômage naturel) : lorsque l’inflation tend à être supérieure à l’inflation anticipée dans un pays, alors le taux de chômage tend à être inférieur à son niveau naturel (cf. graphique 1). Par contre, il n’y a pas de véritable relation entre les variations de l’inflation et les écarts de chômage, ce qui amène Coibion et ses coauteurs à douter que le lien entre l’inflation et le degré de mollesse de l’activité puisse être décrit par une courbe de Phillips accélérationniste à la Friedman (1968) : les anticipations d’inflation jouent un rôle crucial, mais il ne s’agit pas d’anticipations adaptatives.

GRAPHIQUE 2  Ecarts d’inflation américain et mondial

Coibion et ses coauteurs estiment que cette relation permet de juger du degré de mou dans l’activité économique : il est possible d’avoir une idée de l’écart de chômage en déterminant l’écart d’inflation. Par exemple, si l’inflation est bien en-deçà de son niveau anticipé, il est peu probable que le chômage soit en-deçà de son niveau naturel. En utilisant les données qu’ils ont collectées sur les anticipations d’inflation, Coibion et ses coauteurs cherchent alors à estimer l’écart d’inflation mondial, c’est-à-dire la composante commune dans l’écart entre l’inflation observée et l’inflation anticipée que l’on observe dans les pays développés. L’écart d’inflation aux Etats-Unis et l’écart d’inflation mondial présentent les mêmes évolutions (cf. graphique 2). Durant l’essentiel des années deux mille, ils ont été nuls ou proches de zéro, puis ils ont commencé à devenir négatifs au début de la Grande Récession. Les niveaux d’inflation se sont davantage éloignés de leurs niveaux anticipés entre 2011 et 2014. Depuis le point bas qu’ils ont atteint au milieu des années deux mille dix, les écarts d’inflation se sont régulièrement réduits, suggérant que les pressions déflationnistes qui se sont manifestées dans le sillage de la Grande Récession se sont pour l’essentiel dissipées. Pour autant, les écarts d’inflation restent négatifs, ce qui suggère que l’activité reste molle non seulement aux Etats-Unis, mais aussi dans la plupart des autres pays développés. Autrement dit, les écarts de production se referment, mais il y a encore du mou dans l’activité économique. Par conséquent, l’inflation ne semble pas sur le point de fortement s’accélérer, du moins pas tant que les anticipations d’inflation ne soient pas fortement révisées à la hausse ou que le chômage ne chute pas brutalement.

 

Références

BALL, Laurence M., & Sandeep MAZUMDER (2019), « The nonpuzzling behavior of median inflation », NBER, working paper, n° 25512.

BERNSTEIN, Jared (2017), « Two inflation puzzles, one inflation monster », in The Washington Post, 11 septembre.

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

BLINDER, Alan (2018), « Is the Phillips curve dead? And other questions for the Fed », in Wall Street Journal, 3 mai.

BRYAN, Michael, & Stephen CECCHETTI (1994), « Measuring core inflation », in Gregory Mankiw (dir.), Monetary Policy, NBER.

COIBION, Olivier, & Yuriy GORODNICHENKO (2015), « Is the Phillips curve alive and well after all? Inflation expectations and the missing disinflation » in American Economic Journal: Macroeconomics, vol. 7, n° 1.

COIBION, Olivier, Yuriy GORODNICHENKO & Mauricio ULATE (2019), « Is inflation just around the corner? The Phillips Curve and global inflationary pressures », NBER, working paper, n° 25511.

The Economist (2017), « The Phillips Curve may be broken for good », 1er novembre.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58.

SUMMERS, Lawrence (2017), « America needs its unions more than ever », in The Financial Times, 3 septembre.

Partager cet article
Repost0
8 février 2019 5 08 /02 /février /2019 21:21
Pourquoi la reprise a tardé ? La crise de l'euro au prisme de la crise du SME

Alors que les Etats-Unis ont renoué avec la croissance dès 2009, la zone euro ne l’a véritablement fait qu’à partir du deuxième trimestre de l’année 2017, soit dix ans après le début de la crise financière mondiale. Afin d’éclairer pourquoi la reprise a été si longue à s’amorcer suite à la crise de l’euro, Giancarlo Corsetti, Barry Eichengreen, Galina Hale et Eric Tallman (2019) ont comparé celle-ci avec la crise du système monétaire européen qui a éclaté en 1992-1993.

Certes, de nombreuses différences existent entre les deux crises. Par exemple, elles n’ont pas résulté des mêmes chocs. La crise du SME au début des années quatre-vingt-dix a été déclenchée par un resserrement monétaire en Allemagne : la Bundesbank avait fortement relevé ses taux d’intérêt pour contenir l’inflation générée dans le sillage de la réunification. Les autres banques centrales du SME ont alors été poussées à resserrer également leur politique monétaire pour défendre leur parité, ce qui a transmis le choc de demande à l’ensemble des pays-membres. Quant à la crise de l’euro, elle a été amorcée en 2008 par un choc provenant de l’extérieur, en l’occurrence la crise financière des Etats-Unis, qui s’est notamment transmise aux pays européens via le système bancaire. Mais ce choc est survenu dans un contexte de déséquilibres qui auraient fini par se dénouer tôt ou tard. Des pays de la périphérie de la zone euro connaissaient un ample déficit courant et la formation de bulles immobilières alimentées par les entrées de capitaux. Le resserrement des conditions de financement dans le sillage de la crise financière mondiale a entraîné un arrêt dans ces flux de capitaux, ce qui fit éclater les bulles immobilières et imposa à ces pays un douloureux rééquilibrage de leur balance courante.

Et pourtant, Corsetti et ses coauteurs notent que ces deux épisodes partagent de nombreux points communs : les pays ayant les fondamentaux les plus mauvais ont connu une fuite des capitaux, des anticipations auto-réalisatrices ont amplifié les turbulences sur les marchés financiers et des changes, les primes de risque se sont accrues, le secteur bancaire a connu de grandes difficultés, etc.

Malgré ces similarités, les pays du SME ont connu au début des années quatre-vingt-dix de moindres pertes de production que celles essuyées par les pays-membres de la zone euro il y a une décennie. Et ils ont renoué plus rapidement avec la croissance économique. En comparant les deux épisodes, Corsetti et ses coauteurs espèrent identifier ce qui explique pourquoi la reprise a tant tardé suite à la crise de l’euro. Ils ont tiré six leçons de cet exercice.

Premièrement, à partir de 2009 il y a eu un puissant cercle vicieux entre les turbulences bancaires et les difficultés rencontrées par les finances publiques : plus les banques rencontraient des difficultés, plus l’Etat devait intervenir pour les secourir, plus la dette publique s’en trouvait ; les banques détenaient beaucoup de titres publics domestiques, si bien que lorsque la dette publique d’un pays augmentait, la situation financière des banques domestiques se dégradait mécaniquement [Brunnermeier et alii, 2016]. Il n’y avait pas un tel cercle vicieux en 1992, notamment parce que les bilans des banques étaient moins importants et qu’en conséquence la résolution des défaillances bancaires pesait moins sur les finances publiques.

Deuxièmement, le renversement du solde courant était plus massif en 2010 qu’au début des années quatre-vingt-dix, ce qui impliquait un plus ample ajustement des prix relatifs.

Troisièmement, il était plus difficile de réaliser cet ajustement des prix relatifs en 2010. En 1992, les pays avaient encore leur propre monnaie nationale, si bien qu’ils pouvaient s’ajuster via leur taux de change. En 2010, les pays de la zone euro partageaient la même monnaie, si bien qu’ils ne disposaient plus de ce moyen d’ajustement. De plus, le taux de change de la zone euro est principalement déterminé par la situation des pays constituant son « cœur », notamment l’Allemagne. Par conséquent, il ne s’est pas déprécié aussi amplement que le nécessitaient les pays périphériques pour ajuster plus facilement leurs prix relatifs.

Quatrièmement, les déficits et dettes publics étaient moins importants au début des années quatre-vingt-dix et, pour cette raison-là, les banques centrales nationales pouvaient plus facilement intervenir pour stabiliser le marché de la dette publique, si bien que les primes de risque souverain étaient moins sensibles aux perspectives entourant les finances publiques. Ainsi, en 2010, les gouvernements disposaient d’une moindre marge de manœuvre pour assouplir leur politique budgétaire et étaient au contraire davantage incités à adopter des mesures d’austérité pour stabiliser leur endettement (cf. graphique). Autrement dit, non seulement la politique budgétaire n’a pas pu être utilisée pour contenir la récession, mais elle a pu au contraire l’aggraver.

GRAPHIQUE  La consolidation budgétaire dans le sillage de la crise de l’euro (en % du PIB)

Cinquièmement, la réduction des déficits courants après 2009 ne pouvaient passer que par une réduction des importations. Cette dernière s’est opérée via une baisse des dépenses publiques et une baisse de la consommation de ménages cherchant à se désendetter. La baisse subséquente de la demande domestique a non seulement aggravé la récession, mais elle a aussi déprimé les recettes publiques et augmenté les défauts de paiement, ce qui a détérioré le bilan des entreprises, des banques et des gouvernements.

Sixièmement, en 1992-1993, les banques centrales des pays qui ont pu rencontrer de tels problèmes pouvaient réduire leurs taux d’intérêt pour soutenir la demande domestique et contenir la détérioration des bilans. Mais la BCE fixe ses taux directeurs en considérant la situation de l’ensemble de la zone euro, si bien qu’en 2009-2010 elle n’a pas réduit ses taux d’intérêt autant que le nécessitait la situation des pays-membres les plus en difficulté.

Au final, Corsetti et ses coauteurs en concluent qu’il n’est possible de gérer d’amples chocs macroéconomiques que s’il existe un soutien crédible pour les banques et les marchés de la dette publique. En l’absence d’un tel soutien, les chocs tendent à s’amplifier de façon endogène. Les banques et les marchés de la dette publique disposaient d’un tel soutien au cours de la crise du SME, mais non durant la crise de la zone euro. Aucune réforme n'a pour l'heure changé la donne, ce qui laisse la zone euro vulnérable à nouvelle crise.

 

Références

BRUNNERMEIER, Markus K., Luis GARICANO, Philip R. LANE, Marco PAGANO, Ricardo REIS, Tano SANTOS, David THESMAR, Stijn VAN NIEUWERBURGH & Dimitri VAYANOS (2016), « The sovereign-bank diabolic loop and ESBies », in American Economic Review, vol. 106, n° 5.

CORSETTI, Giancarlo, Barry EICHENGREEN, Galina HALE & Eric TALLMAN (2019), « The Euro crisis in the mirror of the EMS: How tying Odysseus to the mast avoided the sirens but led him to Charybdis », Federal Reserve Bank of San Francisco, working paper, n° 2019-04.

Partager cet article
Repost0
3 février 2019 7 03 /02 /février /2019 15:19
La Fed doit-elle être contrainte ?

Jeffrey Frankel (2019) est récemment revenu sur deux questions qui le travaillent depuis longtemps. D’une part, dans quelle mesure la banque centrale doit-elle être contrainte, c’est-à-dire dans quelle mesure la politique monétaire doit-elle être sous la seule discrétion de la banque centrale ? D'autre part, si une règle doit être suivie, plus ou moins scrupuleusement, de quelle règle doit-il s’agir ?

S’attaquant tout d’abord à la seconde question, Frankel rappelle que, par le passé, les banques centrales ont eu des difficultés à atteindre des cibles nominales, qu’il s’agisse du prix de l’or, du taux de change, du taux de croissance de la monnaie ou du taux d’inflation. Lorsque le chef de file des monétaristes Milton Friedman (1948) donna la priorité de la règle sur la discrétion, il avait en tête une règle imposant une croissance constante de l’offre de monnaie. C’est un tel objectif que les banques centrales cherchèrent à atteindre au début des années quatre-vingt, mais elles l’abandonnèrent rapidement car la demande et la vitesse de circulation de la monnaie étaient plus instables que ne le pensaient Friedman.

A partir des années quatre-vingt-dix, les banques centrales adoptèrent le ciblage d’inflation : en l'occurrence, elles ont cherché à cibler un taux d’inflation de 2 % [Svensson, 1999]. Mais elles échouèrent là aussi souvent à atteindre leur objectif : très souvent le taux d’inflation a pu être supérieur à la cible. Depuis la crise financière mondiale de 2008, le taux d’inflation est dans beaucoup de pays inférieur à la cible poursuivie par les autorités monétaires, malgré les mesures massives que ces dernières ont pu adopter : la Fed a par exemple quadruplé sa base monétaire, ce qui a certes pu ramener l’économie américaine à une situation que l’on peut qualifier de plein-emploi, mais sans vraiment avoir d’effet sur l’inflation.

La Grande Récession et la faiblesse de la reprise qui s’ensuivit ont rouvert le débat sur les objectifs poursuivis par les banques centrales. L’une des alternatives au ciblage d’inflation qui a recueilli beaucoup d’attention est le ciblage du niveau des prix. En ciblant un niveau des prix, les banques centrales seraient d’autant plus incitées à assouplir ou resserrer leur politique monétaire qu’elles ont antérieurement raté leur cible, ce qui leur permettrait de corriger en partie leur erreur. Frankel estime que cette alternative est moins efficace que le ciblage d’inflation, dans la mesure où elle repose davantage sur la crédibilité d’une telle cible aux yeux du public. Une autre alternative consiste à garder le ciblage d’inflation, mais en relevant la cible à 3 %, voire 4 % [Blanchard et alii, 2010 ; Ball, 2014]. Pour Frankel, un tel relèvement est d’autant moins crédible que les banques centrales se sont révélées incapables d’atteindre une cible plus modeste de 2 %.

Frankel doute également de l’efficacité des règles qui imposent à la banque centrale une fonction de réaction comprenant plusieurs variables. Il prend l’exemple de la règle de Taylor (1993). Si elle avait été adoptée, cette dernière aurait imposé à la banque centrale d’adopter en 2008, lorsque l’économie américaine basculait dans la récession, un taux d’intérêt de – 3 %, soit un niveau impossible à fixer.

Si les banques centrales devaient aujourd’hui choisir une cible, Frankel plaide pour l’adoption du ciblage du PIB nominal. Cette dernière avait été initialement proposée par James Meade (1978) et James Tobin (1980). Elle a été remise au goût du jour autour de 2011-2012, dans le contexte de lente reprise et de faible inflation que les pays développés connaissaient dans le sillage de la crise financière, notamment par Christina Romer (2011), Hatzius (2011), Michael Woodford (2012) et ceux qui se sont autoproclamés « monétaristes de marché » comme David Beckworth, Scott Sumner et Lars Christensen.

Si Frankel y voit la meilleure alternative, ce n’est pas parce qu’il s’agit d’une cible parfaite, mais parce qu’elle est la moins dommageable parmi les alternatives. Le ciblage du PIB nominal a notamment pour vertu d’être robuste dans le cas de chocs de productivité ou de fluctuations des produits de base, alors que les cibles d’inflation sont vulnérables face à de tels chocs. En effet, imaginons que l’économie connaisse un choc d’offre négatif, auquel cas les prix auront tendance à augmenter et l’économie à basculer dans une récession. Si la banque centrale cible un taux d’inflation, elle réagira en resserrant sa politique monétaire, ce qui est non seulement injustifié (l’inflation ne résulte pas d’un excès de demande), mais aussi néfaste (le resserrement monétaire aggrave la récession). Si la banque centrale cible un niveau du PIB nominal, elle resserra certes sa politique monétaire, mais moins amplement, dans la mesure où l’inflation tend à augmenter le PIB nominal, tandis que la récession tend au contraire à réduire ce dernier. Autrement dit, le choc se traduira à la fois par une perte en termes de production et une perte en termes de stabilité des prix. D’autre part, le ciblage d’inflation aurait l’avantage d’améliorer la répartition des risques entre débiteurs et créanciers, ce qui contribue à assurer la stabilité financière.

Dans tous les cas, Frankel s’avoue de plus en plus convaincu que la contrainte (qu’il s’agisse ou non d’une cible du PIB nominal) doit être très souple. Même le plus sincère des banquiers centraux peut s’avérer incapable d’atteindre sa cible, en raison d’événements imprévisibles. C’est une raison pour ne pas imposer une cible précise à court terme ; il peut y avoir une bande autour de la cible ou bien cette dernière peut être appréciée à plus long terme.

Après avoir étudié la contrainte que les règles peuvent exercer sur la banque centrale, Frankel se penche sur celle qu’exerce le gouvernement. Ces dernières années, beaucoup ont critiqué l’indépendance de la Réserve fédérale : beaucoup craignaient lors de la Grande Récession que les mesures extrêmement accommodantes adoptées par la banque centrale ne fassent déraper l’inflation, alors même que le taux de chômage avoisinait les 10 %. Plus récemment, alors que le taux de chômage américain est repassé sous les 4 %, Donald Trump a ouvertement critiqué le relèvement des taux directeurs de la Fed, n’hésitant pas à dire de cette dernière qu’elle est « hors de contrôle » et à critiquer son président, Jerome Powell, celui-là même qu’il a mis en place.

Les déclarations de Trump (1) et les épisodes historiques que Frankel (2007) a étudiés suggèrent que si la banque centrale perdait de son indépendance vis-à-vis du pouvoir politique, sa politique monétaire risquerait de devenir plus procyclique, ce qui amplifierait le cycle d’affaires. Autrement dit, la banque centrale risque d’assouplir sa politique monétaire quand l’économie est en expansion et les tensions inflationnistes fortes, accroissant le risque de surchauffe et d’instabilité financière ; et elle risque de resserrer sa politique monétaire dans un contexte de récession et de pressions déflationnistes, aggravant celles-ci.

 

(1) Le 29 septembre 2011, alors que le chômage s’élevait toujours à 9 %, Trump qualifia sur Twitter de dangereux le maintien des taux directeurs à un faible niveau et appela la Fed à abandonner cette politique, sous peine de générer un dérapage de l’inflation. Autrement dit, Trump appelle la Fed à resserrer sa politique monétaire lorsque le chômage est élevé et à l’assouplir lorsqu’il est faible.

 

Références

BALL, Laurence (2013), « The case for a long-run inflation target of four percent », FMI, working paper, n° 14/92.

BLANCHARD, Olivier, Giovanni DELL’ARICCIA & Paolo MAURO (2010), « Rethinking macroeconomic policy », FMI, staff position note, n° 10/03.

FRANKEL, Jeffrey (2007), « Responding to crises », in Cato Journal, vol. 27, n° 2.

FRANKEL, Jeffrey (2019), « Should the Fed be constrained? », Harvard Kennedy School, research working paper, n° 19-003.

FRIEDMAN, Milton (1948), « A monetary and fiscal framework for economic stability », in American Economic Review, vol. 38, n° 3.

HATZIUS, Jan (2011), « The case for a nominal GDP level target », in Goldman Sachs, US Economics Analyst, n° 11/41.

MEADE, James (1978), « The meaning of internal balance », in The Economic Journal, vol. 88.

ROMER, Christina (2011), « Dear Ben: It’s time for your Volcker moment », in The New York Times, 30 octobre.

SVENSSON, Lars (1999), « Inflation targeting as a monetary policy rule », in Journal of Monetary Economics, vol. 43, n° 3.

TAYLOR, John B. (1993), « Discretion versus policy rules in practice », Carnegie-Rochester Conference Series on Public Policy, vol. 39.

TOBIN, James (1980), « Stabilization policy ten years after », in Brookings Papers on Economic Activity, n° 1.

WOODFORD, Michael (2012), « Methods of policy accommodation at the interest-rate lower bound », document de travail présenté à la conférence de Jackson Hole.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher