Overblog
Suivre ce blog Administration + Créer mon blog
31 mars 2019 7 31 /03 /mars /2019 10:46
Les robots, les intelligences artificielles et le travail

Les craintes suscitées par les robots ne datent pas de ces dernières décennies. On aime bien rappeler la révolte des luddites en Angleterre au début du dix-neuvième siècle : des ouvriers et artisans s’attaquèrent aux machines qui avaient été introduites dans l’industrie textile et qu’ils accusèrent de détruire leur emploi. Comme d’autres économistes de grande renommée, Keynes évoquait l’apparition d’un véritable « chômage technologique ». Alors qu’elles avaient fait leur apparition dans les années cinquante (notamment à travers les travaux d’Herbert Simon), ce sont aujourd’hui les intelligences artificielles qui suscitent de profondes inquiétudes. A la différence des simples robots, les intelligences artificielles désignent aussi bien des machines que des logiciels ou algorithmes, dont le point commun est qu’elles cherchent à reconnaître leur environnement et à interagir avec ce dernier en accumulant de l’expérience (à travers le « machine learning ») et en se la partageant (notamment via les « clouds »). Alors que les robots ont surtout suscité des craintes pour l’emploi des travailleurs peu qualifiés réalisant des tâches routinières manuelles, les intelligences artificielles promettent de concurrencer de plus en plus les travailleurs qualifiés pour la réalisation de tâches abstraites. 

Jusqu’à présent, ces craintes ne se sont pas concrétisées, du moins pas au niveau agrégé, puisqu’à long terme l’emploi a continué de progresser. Mais rien n’assure que l’avenir sera à l’image du passé. Certains doutent que la présente révolution information et les futures innovations aient les mêmes effets que les précédentes vagues d’innovation. Alors que Robert Gordon (2012) craint que l’innovation s’essouffle et étouffe ainsi la croissance économique, Erik Brynjolfsson et Andrew McAfee (2014) craignent plutôt de leur côté un « deuxième âge des machines » où les innovations tendraient au contraire à s’accélérer et à faire disparaître l’emploi, le nombre de tâches réalisées par les travailleurs étant susceptible d’augmenter rapidement. Dans une étude dont les conclusions furent largement reprises par les médias, Carl Benedikt Frey et Michael Osborne (2013) estimaient que 47 % des emplois actuellement occupés par des travailleurs américains étaient susceptibles d’être automatisés ; la Banque mondiale (2016) estime quant à elle que 57 % des emplois dans les pays de l’OCDE sont susceptibles de l’être. Ces études négligent souvent deux choses : d’une part, ce n’est pas parce qu’une technologie est disponible qu’elle sera forcément adoptée par les entreprises, puisque cette adoption dépendra du coût de cette substitution ; d’autre part, la diffusion de nouvelles technologies dans un secteur a souvent des effets dans le reste de l’économie.

Beaucoup d’analyses partent de l’hypothèse qu’une innovation de procédé vise à accroître la productivité, c’est-à-dire la valeur ajoutée par travailleur. Si c’est le cas, la diffusion de cette innovation tend à augmenter la demande de travail, ce qui stimule l’emploi et pousse les salaires à la hausse. Certes, dans la mesure où les travailleurs sont différents les uns des autres et, notamment, ne possèdent pas les mêmes qualifications, cette innovation peut profiter davantage à certains travailleurs plutôt qu’à d’autres et peut-être détruire des emplois dans certains secteurs. Mais l’on considère que les créations d’emploi qu’elle entraîne compensent les destructions d’emploi qu’elle peut occasionner. 

L’hypothèse à la base de ce raisonnement est discutable. Plusieurs nouvelles technologies, que Daron Acemoglu et Pascual Restrepo (2019) qualifient de « technologies d’automatisation », ne visent pas vraiment à accroître la productivité du travail, mais explicitement à substituer à ce dernier des machines moins chères dans un large éventail de tâches réalisées par les êtres humaines. Via leur adoption, elles se substituent à ces derniers, donc réduisent la demande de travail et détruisent des emplois : c’est l’« effet de déplacement » (displacement effect). En conséquence de la diffusion de telles technologies, la productivité tend à augmenter plus vite que les salaires et le partage de la valeur ajoutée tend à se déformer au détriment du travail [Acemoglu et Restrepo, 2018a]. Les données confirment un tel scénario. Par exemple, en étudiant les marchés du travail locaux des Etats-Unis entre 1990 et 2007, Acemoglu et Restrepo (2018b) notent que les secteurs qui adoptent le plus de robots industriels tendent à connaître les plus fortes baisses de demande de travail et les plus fortes baisses de la part de la valeur ajoutée rémunérant le travail. De plus, ces effets pervers sont bien plus prononcés pour les travailleurs peu qualifiés que pour les travailleurs qualifiés, ce qui contribue d'ailleurs à creuser les inégalités salariales. Le maintien de l’économie sur une trajectoire de croissance équilibrée est donc loin d’être évidente [Acemoglu et Restrepo, 2018a].

Mais si la part du travail à pu rester assez stable à long terme et si les salaires ont pu augmenter peu ou prou au même rythme que la productivité sur l’essentiel de ces deux derniers siècles, cela signifie que d’autres facteurs ont contribué à neutraliser les effets pervers des technologies d’automatisation. Il est probable que ces dernières puissent accroître la demande de travail via d’autres canaux. Tout d’abord, la substitution de travailleurs par des machines moins chères provoque un « effet de productivité » (productivity effect) : comme le coût de production des tâches automatisées diminue, l’économie croît, ce qui accroît la demande de travail pour les tâches non automatisées. Peut notamment se produire un phénomène de déversement [Sauvy, 1980] : la mécanisation détruit peut-être des emplois dans les secteurs où elle s’opère, mais les gains de productivité qu’elle entraîne augmentent le pouvoir d’achat, via une baisse des prix dont profitent les consommateurs et/ou via une hausse des salaires dont profitent les travailleurs toujours employés, rendus plus efficaces par les machines ; ce supplément de pouvoir d’achat sera dépensé, si bien que des emplois sont créés dans d’autres secteurs de l’économie. 

Ensuite, l’automatisation entraîne une « accumulation du capital », qui accroît certes la demande de capital, mais augmente aussi la demande de travail. De plus, l’automatisation ne se contente pas de remplacer des tâches réalisées précédemment par des travailleurs : elle augmente la productivité des machines dans les tâches qui ont déjà été automatisées, ce qui se traduit par un « approfondissement de l’automatisation » et génère à nouveau un effet de productivité. Enfin, il faut garder à l’esprit qu’il y a différents types d’innovation contribuant à la croissance de la productivité. Au cours du temps, lorsque des technologies d’automatisation furent introduites, d’autres innovations permirent parallèlement de créer des tâches pour lesquelles les travailleurs présentaient un avantage compétitif. Et c’est cette création de nouvelles tâches qui constitue la force la plus puissante pour contrecarrer l’effet de déplacement. Acemoglu et Restrepo (2018a) notaient ainsi qu’entre 1980 et 2010, l’introduction et le développement de nouvelles tâches et nouveaux intitulés de poste expliquent environ la moitié de la croissance de l’emploi aux Etats-Unis.

L’intelligence artificielle offre de nouvelles opportunités pour automatiser davantage de tâches. C’est le cas avec la reconnaissance d’image, la reconnaissance vocale, la traduction, la comptabilité, les systèmes de recommandation et l’assistance à la clientèle. Ce choix n’est pas sans conséquences pour la distribution des revenus et la croissance de la productivité. D’une part, si les intelligences artificielles continuent à être utilisées à des fins d’automatisation sans qu’en parallèle soient introduites des innovations capables de créer de nouvelles tâches, alors leur diffusion nuira à l’emploi, déformera davantage le partage de la valeur ajoutée au détriment du travail et alimentera les inégalités de revenu. D’autre part, pour l’heure, les intelligences artificielles ont surtout conduit à une automatisation de tâches pour lesquelles elles s’avèrent moins productives que les travailleurs (pensons à la reconnaissance d'image). Si cela se poursuit ainsi, leur diffusion ne se traduira pas par de réels gains de productivité. Et pourtant, l’intelligence artificielle pourrait être utilisée pour créer de nouvelles tâches, au lieu de se contenter d’automatiser celles existantes. Acemoglu et Restrepo (2019) pensent que de telles opportunités existent par exemple dans les secteurs de l’éducation et de la santé ou un domaine comme la réalité augmentée. 

Les économistes se disent souvent confiants dans la capacité des marchés à allouer les ressources à leur usage le plus productif. Pourtant, il existe plusieurs situations où ce n’est pas le cas. Et de telles défaillances de marché sont particulièrement prégnantes dans le cas de l’innovation. En effet, les marchés dysfonctionnent lorsqu’il existe plusieurs paradigmes technologiques en concurrence. Il suffit que l’un de ces paradigmes soit plus développé que les autres pour que les chercheurs et entreprises le développent et délaissent celles-ci, même si elles auraient pu être plus productifs. Il y a en outre des phénomènes de dépendance au sentier : dès lors qu’un paradigme est développé, il est difficile de revenir en arrière et de tirer profit d’un autre paradigme, ne serait-ce parce que les clients se sont familiarisés avec le premier paradigme et que son développement a impliqué d’énormes coûts fixes [Nelson et Winter, 1977 ; Acemoglu, 2012]

 

Références

ACEMOGLU, Daron (2012), « Diversity and technological progress », in The Rate and Direction of Inventive Activity Revisited, University of Chicago Press. 

ACEMOGLU, Daron, & Pascual RESTREPO (2018a), « The race between man and machine: Implications of technology for growth, factor shares and employment », in American Economic Review, vol. 108, n° 6.

ACEMOGLU, Daron, & Pascual RESTREPO (2018b), « Robots and jobs: Evidence from US labor markets », NBER, working paper, n° 23285. 

ACEMOGLU, Daron, & Pascual RESTREPO (2018c), « Articial intelligence, automation and work », NBER, working paper, n° 24196. 

ACEMOGLU, Daron, & Pascual RESTREPO (2019), « The wrong kind of AI? Artificial intelligence and the future of labor demand », NBER, working paper, n° 25682.

BANQUE MONDIALE (2016), World Development Report 2016: Digital Dividends.

BRYNJOLFSSON, Erik, & Andrew MCAFEE (2014), The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies, W. W. Norton & Company.

FREY, Carl B., & Michael A. OSBORNE (2013), « The future of employment: How susceptible are jobs to computerisation? », Oxford Martin School.

GORDON, Robert (2012), « Is U.S. economic growth over? Faltering innovations confronts the six headwinds », NBER, working paper, n° 18315.

NAUDÉ, Wim (2019), « The race against the robots and the fallacy of the giant cheesecake: Immediate and imagined impacts of artificial intelligence », IZA, discussion paper, n° 12218. 

NELSON, Richard, & Sidney WINTER (1977), « In search of useful theory of innovation », in Research Policy, vol. 6, n° 1.

SAUVY, Alfred (1980), La Machine et le Chômage. Le Progrès technique et l’Emploi, Dunod.

Partager cet article

Repost0
30 mars 2019 6 30 /03 /mars /2019 17:50
Macroéconomie et anticipations d’inflation

Les anticipations d’inflation jouent un rôle crucial dans de nombreux modèles économiques et dans la conduite de la politique monétaire [Bernanke, 2007]. Dans la mesure où les agents prennent en compte leurs anticipations d’inflation lorsqu’ils fixent les prix et salaires, celles-ci affectent directement l’inflation courante. En l’occurrence, l’inflation aura d’autant plus de chances de déraper que les anticipations d’inflation sont élevées ou instables. Et, réciproquement, la tendance au maintien de l’inflation à un niveau faible et stable que l’on a pu observer au cours des dernières décennies s’expliquerait précisément par l’ancrage des anticipations d’inflation à un faible niveau. Beaucoup n’hésitent pas à y voir la preuve de la plus grande crédibilité que les autorités monétaires ont acquise : en faisant de la lutte contre l’inflation leur objectif prioritaire à partir des années quatre-vingt et en se contentant effectivement de poursuivre cet objectif (parfois au prix d'une récession, comme le fit Volcker), les banques centrales auraient fini par convaincre de leur détermination à assurer la stabilité des prix, si bien que les ménages et les entreprises auraient peu à peu révisé leurs anticipations d’inflation à la baisse et facilité par là en retour la tâche des autorités monétaires.

Si les anticipations d’inflation sont aujourd’hui essentielles aux yeux des banquiers centraux et des économistes pour comprendre les mécanismes macroéconomiques et concevoir la politique monétaire, ce n’était pas vraiment le cas il y a un demi-siècle. Lorsque la macroéconomie s’est constituée dans le sillage de la Grande Dépression, elle ignorait alors la question de l’inflation. Même s’il se pencha sur les effets pervers de la déflation dans l’un des chapitres de sa Théorie générale (1936), John Maynard Keynes postulait dans le reste de son ouvrage une fixité des prix (à des fins de simplification de sa démonstration), une hypothèse reprise par la suite par de nombreux économistes qui se réclamèrent de sa filiation. Le problème de l’époque était d’ailleurs davantage la déflation que l’inflation, en raison du chômage de masse et de la faiblesse de l’activité économique. Lorsqu’il posa les premiers jalons du modèle IS/LM, John Hicks (1937) le fit en supposant lui-même que les prix étaient rigides, une hypothèse qu’il jugeait plus pertinente pour décrire le monde réel que celle d’une flexibilité des prix. Mais avec la Seconde Guerre mondiale, puis les décennies de plein emploi qui suivirent, l’inflation s’accéléra et redevint une préoccupation centrale aussi bien parmi les économistes orthodoxes que chez les hétérodoxes ; Joan Robinson notait elle-même que l’absence de chômage privait l’économie d’un mécanisme pour contenir l’inflation. Les keynésiens durent alors prendre en compte l’inflation dans leur cadre théorique. C’est la relation inverse entre inflation salariale et chômage qu’observa Albin Phillips (1958) qui leur permit de dynamiser leur modèle en y intégrant la variation des prix. En effet, Paul Samuelson et Robert Solow (1960) s’appuyèrent sur ce constat empirique pour suggérer une relation inverse entre inflation des prix et du chômage, donc la possibilité d’arbitrer entre ces deux maux macroéconomiques.

Malgré le fait que Samuelson et Solow notaient déjà son instabilité, cette relation, que la littérature ultérieure retint sous le nom de « courbe de Phillips », offrit une justification théorique aux politiques de stop-and-go pratiquées par les gouvernements et banques centrales. Mais à partir des années soixante et surtout soixante-dix, l’inflation et le chômage eurent tendance à augmenter conjointement. Milton Friedman (1968) expliqua pourquoi la courbe de Phillips semblait ne plus être valide : les keynésiens avaient commis l’erreur de la faire reposer sur le seul niveau de l’inflation. Pour Friedman, il faut également prendre en compte les anticipations d’inflation : il existe une courbe de Phillips pour chaque niveau d’inflation anticipé, mais elle est verticale à long terme. Un assouplissement monétaire peut certes réduire le chômage à court terme en laissant l’inflation s’accélérer, mais le chômage revient ensuite à son niveau initial, son niveau « naturel », si bien qu’il n’y a pas d’arbitrage à long terme entre inflation à chômage. Les nouveaux classiques radicalisèrent ces conclusions en suggérant l’absence même d’un arbitrage à court terme : si, comme ils le supposent, les agents forment des anticipations rationnelles lorsqu’ils anticipent l’inflation, alors un assouplissement monétaire systématique n’aura aucun effet à court terme sur le chômage [Sargent et Wallace, 1975].

Ce sont les travaux que développèrent les nouveaux keynésiens à partir de la fin des années soixante-dix qui redonnèrent à l’action monétaire sa légitimité. Les nouveaux keynésiens montrent en effet que, même si les anticipations sont rationnelles, un assouplissement monétaire est susceptible de stimuler l’activité économique et réduire le chômage, bref d’avoir des effets réels. Pour que ce soit le cas, il suffit de postuler que seule une fraction des entreprises modifie ses salaires [Fischer, 1977 ; Taylor, 1980] et ses prix [Calvo, 1983] au cours de chaque période, ne serait-ce que par ce qu’il y a des coûts à négocier et changer les prix et salaires. C’est notamment par ce biais que les travaux ultérieurs ont suggéré qu’il existe une relation entre l’inflation attendue et l’écart de production (output gap), du moins à court terme : c’est la « courbe de Phillips des nouveaux keynésiens ». D’autres nouveaux keynésiens vont plus loin et suggèrent qu’à de très faibles niveaux d’inflation, la courbe de Phillips de long terme avoir une pente négative, si bien que les possibilités d’arbitrage entre inflation et chômage pourraient perdurer au-delà du court terme. Ces dernières années, beaucoup ont estimé que l’ancrage même des anticipations d’inflation à un faible niveau s’est traduit par un retour de la courbe de Phillips et à son aplatissement, donc par l’octroi aux banques centrales d’une plus grande latitude pour stabiliser l’activité sans compromettre la stabilité des prix [FMI, 2013 ; Blanchard, 2016]

Tout au long de ces dernières décennies, la littérature théorique n’a cessé de donner un rôle crucial aux anticipations d’inflation, mais il n’y a toujours pas de consensus sur leur modélisation. Les banques centrales et les universitaires ont très régulièrement utilisé le modèle des nouveaux keynésiens, mais ce dernier a suscité plusieurs critiques. Par exemple, il ne prend pas en compte les contraintes auxquelles les agents font face lorsqu’ils forment leurs anticipations à propos de l’inflation. D’autre part, il est incapable d’expliquer la persistance de l’inflation que les analyses observent à travers les données empiriques. Ces critiques ont conduit au développement de deux approches alternatives pour modéliser le rôle de l’information dans la formation des anticipations d’inflation : le modèle à information visqueuse et le modèle à information bruitée. Dans les modèles à information visqueuse (sticky), il est supposé que les agents révisent lentement leurs anticipations d’inflation en raison de l’a présence de coûts dans l’acquisition et le traitement des nouvelles informations. Dans les modèles à information bruitée (noisy), il est supposé que les nouvelles informations sont bruitées ou que les agents ne les prennent pas toutes en compte.  Ce dernier type de modèles, qui supposent que les agents ne sont pas pleinement rationnels et peuvent fixer les prix en utilisant une règle dépendant de l’inflation passée a conduit au développement de ce que l’on appelle le « courbe de Phillips nouvelle keynésienne hybride ». Celle-ci fait dépendre l’inflation de l’inflation anticipée et de l’inflation passée [Galí et Gertler, 1999]. Elle colle mieux aux données que la courbe de Phillips nouvelle keynésienne standard : cette dernière suppose que les anticipations d’inflation à long terme ne réagissent pas aux nouvelles informations parce que les agents connaissent l’équilibre à long terme ; la courbe de Phillips nouvelle keynésienne hybride permet de rendre compte d’environnements où la banque centrale et le public ne saisissent pas parfaitement la structure de l’économie.

Les anticipations d’inflation jouant véritablement un rôle crucial selon les travaux théoriques, les analyses empiriques ont cherché à les mesurer, mais ce n’est pas une tâche aisée : les anticipations d’inflation ne peuvent être mesurées directement, si bien qu’elles sont estimées à partir d’enquêtes (auprès des ménages, des entreprises ou des prévisionnistes professionnels) ou inférées à partir de l’évolution des prix d’actifs et des rendements financiers.

Ayhan Kose, Hideaki Matsuoka, Ugo Panizza et Dana Vorisek (2019) ont récemment passé en revue cette littérature empirique et ont eux-mêmes cherché à ses constats en étudiant un échantillon de 24 économies développées et 23 pays en développement. Leur analyse confirme que les anticipations d’inflation à long terme ont diminué et sont devenues plus fermement ancrées au cours des deux dernières décennies, aussi bien dans les pays développés que dans les pays émergents. Elles restent toutefois moins ancrées dans les pays en développement que dans les pays développés. 

En outre, l’analyse de Kose et alii indique que les anticipations d’inflation à long terme dans les pays en développement sont davantage sensibles aux chocs domestiques et mondiaux que celles dans les pays développés ; ce constat contribue d’ailleurs à expliquer pourquoi elles sont moins ancrées dans les premiers que dans les seconds. Dans les pays en développement, la sensibilité des anticipations d’inflation aux chocs domestiques a graduellement diminué entre 2005 et 2012 et elle a depuis été pour l’essentiel stable, tandis que la sensibilité des anticipations d’inflation aux chocs mondiaux a légèrement diminué depuis 2000. Dans les pays développés, la sensibilité des anticipations d’inflation aux chocs mondiaux a régulièrement diminué entre la fin des années quatre-vingt-dix et la fin des années deux mille, puis elle a lourdement chuté dans le sillage de la crise financière mondiale, tandis que la sensibilité des anticipations d’inflation aux chocs domestiques a baissé de façon moins prononcée. Ces constats suggèrent que les progrès dans l’ancrage des anticipations d’inflation dans les pays développés s’expliquent en partie par leur moindre sensibilité aux chocs mondiaux.

Enfin, l’analyse de Kose et ses coauteurs tend à confirmer que le cadre institutionnel, l’environnement macroéconomie influence le plus ou moins grand ancrage des anticipations d’inflation. En effet, ces dernières sont d’autant mieux ancrées si la banque centrale a adopté un régime de ciblage d’inflation et si elle s’avère très transparente, et ce aussi bien dans les pays développés que dans les pays en développement. Dans le cas des pays en développement, l’adoption d’un régime de change flexible, un fort degré d’ouverture au commerce extérieur et le maintien de la dette publique à un faible niveau semblent également contribuer à mieux ancrer les anticipations d’inflation. Dans tous les cas, si l’adoption du ciblage d’inflation semble avoir contribué à mieux ancrer les anticipations d’inflation dans les pays en développement, elle n’apparaît ni comme une condition nécessaire, ni comme une condition suffisante pour parvenir à les ancrer.

 

Références

AKERLOF, George A., William T. DICKENS & George L. PERRY (2000), « Near-rational wage and price setting and the long-run Phillips curve », in Brookings Papers on Economic Activity, vol. 31.

BERNANKE, Ben S. (2007), « Inflation expectations and inflation forecasting », discours prononcé à la conférence estivale du NBER.

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

CALVO, Guillermo (1983), « Staggered prices in a utility maximizing framework », in Journal of Monetary Economics, vol. 12.

COIBION, Olivier, Yuriy GORODNICHENKO, Saten KUMAR & Mathieu PEDEMONTE (2018), « Inflation expectations as a policy tool? », NBER, working paper, n° 24788.

FISCHER, Staney (1977), « Long-term contracts, rational expectations, and the optimal money supply rule », in Journal of Political Economy, vol. 85, n° 1.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58.

GALÍ, Jordi, & Mark GERTLER (1999), « Inflation dynamics: A structural economic analysis », in Journal of Monetary Economics, vol. 44, n° 2.

KOSE, M. Ayhan, Hideaki MATSUOKA, Ugo PANIZZA & Dana VORISEK (2019), « Inflation expectations: Review and evidence », CEPR, discussion paper, n° 13601.

PHILLIPS, Alban W. (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861-1957 », in Economica, vol. 25, n° 100.

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

SARGENT, Thomas, & Neil WALLACE (1975), « ‘Rational’ expectations, the optimal monetary instrument, and the optimal money supply rule », in Journal of Political Economy, vol. 83, n° 2.

TAYLOR, John (1980), « Aggregate dynamics and staggered contracts », in Journal of Political Economy, vol. 88, n° 1.

Partager cet article

Repost0
15 mars 2019 5 15 /03 /mars /2019 16:12
La synchronisation mondiale de l’inflation

Ces dernières décennies ont été marquées par un véritable mouvement de désinflation : l’inflation et sa volatilité ont eu tendance à diminuer à partir du milieu des années quatre-vingt dans les pays développés, puis à partir du milieu des années quatre-vingt-dix dans les pays émergents et en développement. Diverses explications ont été proposées. Elles mettent notamment l’accent sur la mondialisation, sur l’essor des exportations de produits à bas coûts en provenance des pays émergents, sur la plus grande crédibilité des banques centrales dans la lutte contre l’inflation, etc.

En outre, de plus en plus d’études suggèrent que les taux d’inflation nationaux sont assez synchronisés entre eux ; c’est le cas de celle de Hakkio (2009) et de celle réalisée par Ciccarelli et Mojon (2010). Mais ces études ne s’appuient souvent que sur des échantillons restreints, en l’occurrence aux seuls pays développés. Jongrim Ha, Ayhan Kose et Franziska Ohnsorge (2019) ont récemment cherché à déterminer dans quelle mesure les taux d’inflation nationaux sont synchronisés au niveau mondial, mais en étudiant un large échantillon de pays, comprenant 25 pays développés et 74 pays émergents et en développement sur la période allant de 1970 à 2017. Leur analyse aboutit à cinq grands résultats.

Premièrement, Ha et ses coauteurs identifient bel et bien une composante mondiale dans les taux d’inflation, mais elle dépend du degré de développement des pays. Celle-ci explique 12 % de la variation des taux d’inflation nationaux sur la période allant de 1970 à 2017. Elle est plus importante (24 %) pour le pays développé médian, moins importante (10 %) dans le pays émergent médian et négligeable pour le pays à faible revenu médian.

Deuxièmement, la contribution de la composante mondiale à la variation de l’inflation était plus grande entre 1970 et 1985, c’est-à-dire au cours d’une période émaillées par deux chocs pétroliers et deux récessions mondiales), qu’entre 1986 et 2000 (cf. graphique). Les taux d’inflation se sont davantage synchronisés à partir de 2001, notamment dans le sillage de la crise financière mondiale de 2008, puis du contre-choc pétrolier de 2014-2016. Au cours de cette dernière période, la composante mondiale de l’inflation a expliqué 22 % de l’inflation nationale dans l’échantillon de pays développés. Ces résultats contrastent avec ceux obtenus par les précédentes études, qui ne mettaient pas en évidence une hausse du degré de synchronisation au cours de la période récente.

GRAPHIQUE  Contribution du facteur mondial à l’inflation (en %)

Troisièmement, les taux d’inflations nationaux se révèlent être davantage synchronisés que les taux de croissance de la production. Par exemple, depuis 2001, la contribution médiane du facteur mondial à la variation des taux de croissance de la production s’élevait à 12 %, soit près de deux fois moins que la contribution du facteur mondial à la variation des taux d’inflation.

Quatrièmement, outre une synchronisation au niveau mondial, il y a également une synchronisation des taux d’inflation au niveau de groupes de pays en particulier. Tout comme la synchronisation au niveau mondial, cette synchronisation régionale s’est accentuée après 2000.

Cinquièmement, la synchronisation de l’inflation se manifeste sur un nombre croissant d’indicateurs. Sur la période allant de 1970 à 1985, l’ampleur de la synchronisation de l’inflation n’apparaissait clairement que pour des indicateurs d’inflation donnant un poids important aux biens et services échangeables ; plus récemment, elle a été mise en évidence pour tous les indicateurs d’inflation.

Ha et ses coauteurs évoquent les différentes raisons susceptibles d'expliquer la synchronisation mondiale des taux d’inflation domestiques. Tout d’abord, celle-ci peut découler de l’existence de chocs communs, qui se diffusent pareillement et simultanément aux pays. Par exemple, les chocs touchant les prix des matières premières ou les chocs de demande aux origines des récessions mondiales peuvent fortement affecter le comportement des inflations domestiques, et ce dans le même sens. De même, une récession dans une grande économie risque d’avoir des répercussions sur l’activité et l’inflation de ses partenaires à l’échange [Huidrom et alii, 2017].

Plusieurs études ont mis l’accent sur les politiques monétaires nationales. D’une part, plusieurs banques centrales peuvent chercher à se coordonner ou à coopérer. D’autre part, si elles adoptent le même cadre de politique monétaire, elles auront tendance à se comporter similairement face aux chocs mondiaux. Par exemple, les banques centrales ont de plus en plus cherché à cibler un faible taux d’inflation à partir des années quatre-vingt-dix ; adoptant les mêmes objectifs, elles ont eu plus de chances de se comporter de la même façon.

Enfin, la synchronisation mondiale de l’inflation peut s’expliquer par des changements structurels. Par exemple, ces dernières décennies ont été marquées par un vague de mondialisations commerciale et financière, ce qui a pu contribuer à transmettre plus facilement des chocs d’un pays à l’autre. Un resserrement des liens commerciaux accroît l’exposition d’un pays aux chocs étrangers, si bien que l’inflation domestique devient plus sensible aux chocs touchant les prix à l’importation [Bianchi et Civelli, 2015]. Récemment, beaucoup d’études ont mis l’accent sur le rôle qu’a pu jouer l’apparition de chaines de valeur mondiales dans le sillage de la décomposition internationale des processus productifs [Auer et alii, 2017].

Cette plus grande synchronisation des taux d’inflation domestiques n’est pas sans affecter la mise en œuvre de la politique monétaire. Plusieurs banquiers centraux, notamment Ben Bernanke (2007), Mark Carney (2015) et Mario Draghi (2015) ont notamment souligné la nécessité pour les banques centrales de tenir compte de l’environnement international dans leurs décisions. Si l’inflation domestique dépend de plus en plus de facteurs extérieurs, alors les canaux de transmissions de la politique monétaire s’affaiblissent, si bien qu’il pourrait être de plus en plus nécessaire que les autorités budgétaires participent à la stabilisation de l’activité domestique. D’autre part, cette perte d’efficacité des politiques monétaires domestiques prises isolément plaide pour une plus forte coopération entre les banques centrales.

 

Références

Auer, Raphael, Claudio Borio & Andrew Filardo (2017), « The globalisation of inflation: The growing importance of global value chains », BRI, working paper, n° 602.

BERNANKE, Ben (2007), « Globalization and monetary policy », discours prononcé à Stanford.

BIANCHI, Francesco, & Andrea CIVELLI (2015), « Globalization and inflation: Evidence from a time varying VAR », in Review of Economic Dynamics, vol. 18, n° 2.

CARNEY, Mark (2015), « How is inflation affected by globalisation? », discours prononcé à la conférence de Jackson Hole.

Ciccarelli, Matteo, & Benoît Mojon (2010), « Global inflation », in Review of Economics and Statistics, vol. 92, n° 3.

DRAGHI, Mario (2015), « Global and domestic inflation », discours prononcé à l’Economic Club of New York. Traduction française, « Inflation mondiale et inflation intérieure ».

HA, Jongrim, M. Ayhan KOSE & Franziska L. Ohnsorge (2019), « Global inflation synchronization », Banque mondiale, policy research working paper, n° 8768.

HAKKIO, Craig S. (2009), « Global inflation dynamics », Federal Reserve Bank of Kansas City, research working paper, n° 09-01.

HUIDROM, Raju, M. Ayhan KOSE & Franziska OHNSORGE (2017), « How important are spillovers from major emerging markets? », Banque mondiale, policy research working paper, n° 8093.

Partager cet article

Repost0
6 mars 2019 3 06 /03 /mars /2019 16:59
Faut-il s'inquiéter de la dette publique lorsque les taux d’intérêt sont faibles ?

Alors qu’elles atteignaient déjà des niveaux jugés élevés, les dettes publiques ont fortement augmenté dans les pays développés dans le sillage de la crise financière mondiale, sous l’effet de l’érosion des recettes fiscales, puis de l’adoption de plans de relance, avant que la crainte que l’endettement public se retrouve sur une trajectoire explosive n’incite les gouvernements à embrasser l’austérité budgétaire. Aujourd’hui, une décennie après, l’activité économique semble à nouveau s’essouffler dans plusieurs pays à travers le monde. Les taux directeurs de plusieurs banques centrales étant déjà bas, les gouvernements pourraient être contraints de recourir à la relance budgétaire ; les autorités chinoises viennent d’ailleurs d’annoncer qu’elles laisseraient leur déficit public se creuser pour stimuler l'activité domestique. De l’autre côté de l’Atlantique, l’administration Trump n’a pas attendu une récession pour faire de même : elle a financé ses réductions d’impôts via une hausse de la dette publique, alors même que l’économie américaine est relativement proche du plein emploi. Et certains démocrates semblent explicitement reprendre certaines idées de la « modern monetary theory », notamment l’idée que les déficits publiques ne sont pas un problème lorsque l’inflation est très faible, comme aujourd’hui.

Lors de son allocution présidentielle à l’American Economic Association début janvier, Olivier Blanchard (2019a, 2019b) s’est justement penché sur les coûts de la dette publique (1). Il rappelle que l’accroissement de la dette publique est accusé d’entraîner un surcroît d’impôts dans le futur, donc de freiner par ce biais l’investissement, la consommation et plus largement l’activité économique. Blanchard doute que ce soit forcément le cas, en particulier dans le contexte actuel, marqué par de faibles taux d’intérêt. En l’occurrence, non seulement les taux d’intérêt sont faibles, mais ils sont plus faibles que les taux de croissance du PIB. Dans une telle situation, le gouvernement peut se contenter de refinancer sa dette : il peut émettre de nouveaux titres pour verser les intérêts qu’il doit, auquel cas la dette publique augmentera dans la proportion du taux d’intérêt. Mais la production nationale augmentera plus vite, et par là même les recettes fiscales, si bien que le ratio dette publique sur PIB pourrait avoir tendance à décliner sans que le gouvernement ait à augmenter les impôts. 

Or, selon les prévisions actuelles, la situation actuelle devrait se maintenir un long moment. Par exemple, aux Etats-Unis, le taux de croissance à dix ans du PIB nominal américain devrait être supérieur d’environ 1 point de pourcentage aux taux d’intérêt nominaux des obligations publiques. Le différentiel est encore même plus important dans d’autres économies développées : il s’élève à 2,3 points de pourcentage au Royaume-Uni, 2 points de pourcentage dans la zone euro et 1,3 point de pourcentage au Japon.

D’autre part, Blanchard note qu’une telle situation a été la règle plutôt que l’exception dans le passé. Par exemple, aux Etats-Unis, le taux d’intérêt à un an des bons du Trésor a été en moyenne inférieur au taux de croissance au cours des 150 dernières années. Depuis 1950, cela a été le cas au cours de chaque décennie, sauf lors des années quatre-vingt, lorsque le resserrement monétaire de Volcker s’est traduit par des taux d’intérêt énormes et une faible croissance économique (cf. graphique 1). En étudiant les données relatives à 55 pays depuis 1800, Paolo Mauro et alii (2015) ont abouti aux mêmes constats que Blanchard, de même que Philip Barrett (2018) à partir d’un échantillon plus restreint de pays. Au final, si l’avenir est à l’image du passé, alors l’Etat pourrait facilement refinancer sa dette, si bien que l’endettement public pourrait ne pas avoir de coût budgétaire.

GRAPHIQUE 1  Taux de croissance du PIB nominal et taux d’intérêt des bons du Trésor à un an aux Etats-Unis (en %)

Pour autant, ce n’est pas parce que l’endettement public est possible qu’il est désirable. Même lorsqu’il est dénué de coût budgétaire, il est accusé d’entraîner d’autres effets pervers susceptibles de réduire le bien-être collectif. En l’occurrence, beaucoup craignent que l’émission de titres publics évince l’investissement, ce qui aurait pour conséquence de freiner l’accumulation de capital, donc de déprimer la production et la consommation dans le futur : l’endettement public améliorait certes la situation des générations actuelles, mais au détriment des générations suivantes. Si Blanchard pense que de telles pertes existent, il estime toutefois qu’elles sont certainement plus faibles que ce qui est habituellement supposé.

Selon la littérature traditionnelle, le comportement de la consommation suite à un transfert intergénérationnel (comme celui opéré par un surcroît de dette publique) dépend en définitive de la relation entre le taux d’intérêt et le taux de croissance [Diamond, 1965]. Si le taux d’intérêt est plus faible que le taux de croissance, alors l’économie est dite « dynamiquement inefficiente », auquel cas la production et l’investissement diminuerait, mais la consommation tendrait à augmenter. Pour déterminer si c’est le cas, il faut alors déterminer quel taux d’intérêt utiliser. Faut-il prendre le taux de rendement moyen du capital ou bien le taux sans risque, c’est-à-dire celui des obligations souveraines ? Le second est plus faible que le taux de croissance, ce qui suggère que le taux de rendement du capital ajusté au risque est actuellement faible, donc que l’endettement public exerce des effets positifs sur le bien-être collectif. Par contre, le taux de rendement moyen du capital semble bien supérieur au taux de croissance. En effet, le ratio rapportant les bénéfices des sociétés américaines sur le montant du capital au coût de remplacement est resté élevé et relativement stable au cours du temps, ce qui suggère que la productivité marginale élevée et donc que l’endettement public exerce des effets négatifs sur le bien-être collectif (cf. graphique 2).

GRAPHIQUE 2  Ratios bénéfices sur coût de remplacement et bénéfices sur valeur boursière (en %)

Mais il apparaît aussi que le ratio rapportant les bénéfices des sociétés américaines sur leur valeur boursière a fortement diminué le début des années quatre-vingt : le q de Tobin a doublé au cours de la période. Par conséquent, soit le capital au coût de remplacement est mal mesuré et ne capture pas entièrement le capital immatériel, soit une part croissante des bénéfices provient des rentes, comme le suggèrent les études de Simcha Barkai (2016), de Jan De Loecker et Jan Eeckhout (2017) ou encore de Germán Gutiérrez et Thomas Philippon (2017). Dans le premier cas, le taux de bénéfices mesuré surestime le véritable taux. Dans le deuxième cas, le taux de bénéfices ne reflète pas seulement la productivité marginale du capital, mais aussi les rentes. Dans les deux cas, la productivité marginale du capital est surestimée. Au final, les preuves empiriques sont cohérentes avec l’idée d’une baisse de la productivité marginale du capital, donc avec l’idée de faibles coûts de l’endettement public en termes de bien-être. 

Bien sûr, Blanchard reconnaît que plusieurs contre-arguments peuvent être avancés. Par exemple, certains craignent que les choses soient différentes, que l’avenir ne soit pas comme le passé, en l’occurrence que le taux d’intérêt sans risque soit régulièrement plus élevé que le taux de croissance. D’autres craignent la présence d’équilibres multiples. Selon eux, les investisseurs perçoivent la dette publique comme sûre et où les taux d’intérêt sont par conséquent faibles, mais s’ils perçoivent (pour une raison ou une autre) la dette publique comme risquée, ils vont exiger un taux d’intérêt plus élevé, ce qui rendra la dette effectivement risquée : parce que les anticipations peuvent être autoréalisatrices, l’économie peut basculer à tout moment d’un bon à un mauvais équilibre. Pour Blanchard, l’idée des équilibres multiples constitue le contre-argument le plus sérieux, mais il note que ceux-ci ne disent en rien quel est le niveau approprié de dette publique : qu’importe son niveau initial, la baisse de cette dernière ne fait totalement disparaître le risque de se retrouver à un mauvais équilibre. En l’occurrence, l’adoption d’un plan d’austérité budgétaire ne réduit pas forcément le risque que l’on bascule à un mauvais équilibre, il pourrait même accroître ce risque, surtout si ses effets négatifs sur l’activité ne peuvent être compensés par un assouplissement de la politique monétaire.

Pour conclure, Blanchard recense les arguments justifiant le recours à l’endettement public lorsque l’économie américain connaît une faible demande globale, c’est-à-dire une situation où elle produit moins que son potentiel et où les taux de la politique monétaire sont contrainte par leur borne inférieure zéro (zero lower bound). Premièrement, lors d’une récession, non seulement les ménages et les entreprises sont plus contraints par leur revenu courant, mais en outre il y a peu de chances que la banque centrale réagisse à une relance budgétaire en relevant ses taux, si bien que les multiplicateurs budgétaires sont susceptibles d’être élevés : même un petit surcroît de dépenses publiques (donc une émission limitée de titres publics) est susceptible de grandement stimuler la production. Deuxièmement, dans un tel contexte, le surcroît de recettes publiques généré par la stimulation de l’activité est susceptible de compenser la hausse de la dette publique, si bien que la relance budgétaire pourrait au final s’autofinancer, surtout en présence d’effets d’hystérèse [DeLong et Summers, 2012]. Troisièmement, le financement des projets d’infrastructures publiques, dont le taux de rendement social ajusté selon le risque, dépasse le taux sûr auquel le gouvernement émet des titres. Quatrièmement, une situation de faible demande globale se caractérise aussi par un faible taux d’intérêt d’équilibre, en l’occurrence plus faible que le taux de croissance potentielle. Or, si un pays (comme cela semble notamment être le cas le Japon) est confronté à une stagnation séculaire, c’est-à-dire connaît une demande globale structurellement faible et un taux d’équilibre proche de zéro, voire négatif, alors le gouvernement pourrait avoir à générer des déficits primaires permanents pour ramener l’économie au plein emploi [Summers, 2015]

 

(1) Thomas Philippon (2019), Alexandre Delaigue (2019) et Jean-Marc Vittori (2019) en ont déjà donné de bons résumés.

 

Références

BARKAI, Simcha (2016), « Declining labor and capital shares », Université de Chicago, document de travail.

BARRETT, Philip (2018), « Interest-growth differentials and debt limits in advanced economies », FMI, working paper.

BLANCHARD, Olivier (2019a), « Public debt and low interest rates », PIIE, working paper, n° 19-4.

BLANCHARD, Olivier (2019b), « Public debt: Fiscal and welfare costs in a time of low interest rates », PIIE, policy brief, n° 19-2.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687, août.

DELAIGUE, Alexandre (2019), « Quand l’ex chef économiste du FMI ébranle les idées reçues sur la dette », in Atlantico, 8 janvier.

DELONG, J. Bradford, & Lawrence H. SUMMERS (2012), « Fiscal policy in a depressed economy », Brookings Papers on Economic Activity, vol. 44.

DIAMOND, Peter (1965), « National debt in a neoclassical growth model », in American Economic Review, vol. 55, n° 5-1.

GUTIERREZ, Germán, &Thomas PHILIPPON (2017), « Declining Competition and Investment in the U.S. », NBER, working paper, n° 23583.

MAURO, Paolo, Rafael ROMEU, Ariel BINDER & Asad ZAMAN (2015), « A modern history of fiscal prudence and profligacy », in Journal of Monetary Economics, vol. 76.

PHILIPPON, Thomas (2019), « Le vrai coût de la dette publique », in Les Echos, 10 janvier.

SUMMERS, Lawrence (2015), « Demand side secular stagnation », in American Economic Review Papers and Proceedings, vol. 105.

VITTORI, Jean-Marc (2019), « Et si la dette publique était un faux problème ? », in Les Echos, 18 février.

Partager cet article

Repost0
23 février 2019 6 23 /02 /février /2019 11:24
Le singulier engagement de Robert Lucas dans le débat public

Si le monétarisme a ouvert les hostilités contre le keynésianisme, ce sont les nouveaux classiques, emmenés par Robert Lucas, qui lui ont asséné les coups les plus durs. Le keynésien Alan Blinder (1988) le regrette amèrement, voyant dans leur essor « le triomphe de la théorisation a priori sur l’empirisme, de l’esthétique intellectuelle sur l’observation et, dans une certaine mesure, de l’idéologie conservatrice sur le progressisme ». La place de Lucas dans les débats et les pratiques autour de la politique monétaire est toutefois ambiguë. Certains considèrent qu’il a contribué au tournant néolibéral de la fin des années soixante-dix, mais en y jouant un rôle mineur, tout du moins en comparaison avec celui qu’ont pu jouer Milton Friedman, James Buchanan et Arthur Laffer. D’autres, comme les historiens de la pensée économique Hoover (1988), Backhouse et Boianovsky (2013) et De Vroey (2009) considèrent Lucas comme le promoteur d’un changement majeur dans la théorie et la méthodologie macroéconomiques. A leurs yeux, la rupture introduite par les nouveaux classiques est encore plus importante que celle opérée par les monétaristes : finalement, ces derniers acceptaient peu ou prou le même cadre théorique que les keynésiens orthodoxes (notamment le modèle IS/LM), seules les interprétations et préconisations en termes de politique économique divergeaient. Avec l’arrivée des nouveaux classiques, ce ne sont plus les réponses qui changent, ce sont avant tout les questions que se posent les économistes. Il n’est alors pas étonnant de voir les hétérodoxes, en particulier les post-keynésiens, cristalliser leurs critiques sur la figure même de Lucas.

Aurélien Goutsmedt, Danielle Guizzo et Francesco Sergi (2018) ont étudié le programme de Robert Lucas en termes de politique économique et son engagement dans le débat public entre 1968 et 1987. Ils ont cherché à identifier précisément ses idées en matière de politique économique et la façon par laquelle il a promu celles-ci. Le programme qu’il a proposé s’oppose à la « gestion méticuleuse au jour le jour » proposée par les keynésiens, consistant notamment à entreprendre des actions de court terme pour régler des problèmes économiques de la période courante. Lucas a appelé à adopter une vision de long terme pour chercher à atténuer les fluctuations économiques : selon lui, il faut identifier correctement les sources institutionnelles de l’instabilité économique pour opérer les changements institutionnels appropriés [Lucas, 1977].

A ses yeux, cela correspond à ce qu’appelaient déjà de leurs vœux des théoriciens du cycle d’affaires comme Friedrich Hayek et Wesley C. Mitchell au début du vingtième siècle, mais ce programme avait été occultée par l’essor du keynésianisme à partir des années trente. En rédigeant la Théorie générale (1936), Keynes aurait notamment commis l’erreur d’abandonner l’objectif d’expliquer le cycle d’affaires, objectif qu’il poursuivait pourtant dans son Traité sur la monnaie (1930), pour se rabattre sur le seul objectif d’expliquer le chômage involontaire en un point du temps [De Vroey, 2009]. Non seulement il s’agit d’une véritable régression sur le plan théorique selon Lucas, mais celle-ci aurait eu pour conséquence de tromper toute une génération d’économistes sur le rôle de la politique économique et sur ce qu’ils peuvent apporter à celle-ci. « L’abandon de l’effort d’expliquer les cycles a été accompagné de la croyance que la politique économique était à même de causer immédiatement, ou à très court terme, un déplacement de l’économie de son état présent jugé indésirable, quelle que soit la manière dont on y soit arrivé, vers un état plus favorable » [Lucas, 1977, cité par De Vroey]. En l’occurrence, selon le programme keynésien, les politiques budgétaire et monétaire pouvaient et devaient être utilisées pour atteindre un taux de chômage particulier.

Ce conflit en termes d’agendas trouverait notamment sa source dans une divergence de croyances politiques, existante depuis plusieurs siècles, entre interventionnistes et partisans du laissez-faire : les premiers (auxquels se rattachaient naguère les mercantilistes et à présent les keynésiens) et les seconds se distingueraient selon la confiance dont ils feraient preuve ou non envers la capacité des économies de marché à s’autoréguler. L’essor du keynésianisme aux Etats-Unis aurait été alimenté par une plus grande acceptation de l’intervention de l’Etat dans l’économie. La macroéconomie keynésienne aurait été utilisée comme justification de cet activisme.

Les changements provoqués par la publication de la Théorie générale ont conduit à transformer le rôle que se donnaient les économistes : certains d’entre eux joueraient le rôle d’experts auprès des institutions en charge de la politique économique, tandis que les autres se contenteraient d’accroître le savoir universitaire pour équiper ces experts de nouvelles idées et les aider ainsi dans leur tâche. Le maintien d’une forte croissance dans les décennies suivant la Seconde Guerre mondiale, tenant pour Lucas davantage à la chance qu’aux politiques adoptées au cours de cette période, aurait cautionné le programme keynésien en matière de politique économique, jusqu’à ce que les chocs pétroliers et le ralentissement subséquent de la croissance dans les pays développés ne viennent démentir la justesse de ce programme. Pire, ce sont précisément les mesures keynésiennes adoptées dans les années soixante qui auraient conduit à la stagflation des années soixante-dix.

Pour Lucas, ces errements de la théorie et de la politique économique tiendraient finalement pour beaucoup au concept keynésien de chômage involontaire. Ce dernier ne correspondant à rien de concret, donc ne pouvant être mesuré, il est à ses yeux aberrant de faire de sa réduction un objectif de politique économique. Cela ne veut pas dire que Lucas considère la question du chômage comme sans importance ; il s’agit bien d’un problème à ses yeux, mais d’un problème pour lequel seules l’économie du travail et l’économie du bien-être pouvaient proposer des explications et des remèdes. Les macroéconomistes devaient par contre se contenter d’expliquer la seule chose qu’ils étaient à même d’expliquer, en l’occurrence le cycle d’affaires. Il rejoint les keynésiens à l’idée qu’il faut amortir les fluctuations des agrégats macroéconomiques, mais cet objectif ne peut-être atteint avec la « gestion méticuleuse au jour le jour » qu’ils proposent. Non seulement Lucas a foi en la capacité de l’économie de marché à s’autoréguler, mais il estime qu’un interventionnisme ne peut qu’amplifier le cycle d’affaires. C’est notamment ce que suggèrent ses fameux modèles de 1972 et 1977.

L’amortissement des fluctuations économiques passerait par l’adoption  de règles contraignant l’action des autorités. Celles que propose Lucas (1980) ne font, selon lui, qu’amender celles que proposait déjà Friedman (1948) quelques décennies plus tôt : la croissance à un rythme constant de la masse monétaire, la fixité du niveau des dépenses publiques et des taux d’imposition, l’équilibre budgétaire à long terme et l’absence d’intervention de l’Etat dans la fixation des salaires et des prix. De telles règles permettent d’offrir l’environnement le plus stable et le plus prévisible au secteur privé en empêchant tout dérapage de l’inflation et tout choc monétaire et budgétaire susceptible d’amplifier le cycle d’affaires. 

Lucas considérait d’ailleurs que les propositions des économistes de l’offre comme Laffer contrevenaient à son programme en matière de politique économique. L’administration Reagan avait par exemple adopté des baisses massives d’impôts, mais celles-ci manquaient de cohérence d’un point de vue intertemporel : elles entraient en conflit avec l’objectif d’équilibre des finances publiques et celui de stabilité des taux d’imposition, les baisses d’impôt étant sûrement promises à être suivies par des hausses d’impôts pour rembourser l’emprunt public ; elles entraient aussi en conflit avec l’objectif de stabilité des prix, l’accroissement de la dette publique étant susceptible de conduire, d’après Lucas, à un financement de l’endettement public via la création monétaire.

Pour autant, Lucas n’a pas rejoint dans le débat public les économistes qui proposaient des mesures similaires aux siennes, notamment les monétaristes. Il faut dire que ces derniers sont peut-être plus proches des keynésiens orthodoxes que des nouveaux classiques sur bien des plans, en premier lieu au niveau théorique. Ils partagent un effet une approche marshallienne de l’économie, tandis que les nouveaux classiques adoptent une approche néo-walrasienne, couplée avec l’adoption des anticipations rationnelles et de la discipline de l’équilibre et fusionnant modèle et théorie [De Vroey, 2009]. La critique de Lucas (1976) s’attaquait d’ailleurs à la modélisation telle que la concevaient les keynésiens et les monétaires : ceux-ci n’ont pas su proposer de modélisations capables d’évaluer plusieurs alternatives en matière de politique économique, notamment parce qu’ils ne prennent pas en compte le fait qu’un changement de politique économique amènent les agents à changer de comportement. Ses modèles, notamment celui de 1977, seraient immunes à cette critique, car les relations qui les sous-tendent seraient structurels, liés aux préférences des agents et à la technologie. 

En fait, poursuivant leur analyse, Goutsmedt et ses coauteurs en concluent que Lucas n’a pas activement cherché à promouvoir son programme en matière de politique économique. Contrairement à ses contemporains James Buchanan, Milton Friedman, Arthur Laffer, Robert Solow ou encore James Tobin, il n’a pas proposé de « plan d’action » pour mettre en œuvre efficacement ses recommandations en matière de politique économique, il n’a pas été une figure importante dans la presse ou le débat politique, il n’a pas non plus contribué activement au travail d’institutions en charge de la politique économique, de lobbies ou de think tanks. Contrairement à Walter Heller et Albert Hirschman, il n’a jamais été un conseiller officiel, ni même informel, pour les politiciens ou responsables de politique économique. Contrairement à Arthur Pigou, il n’est pas intervenu dans le débat public via les médias, des livres de vulgarisation ou des conférences pour exposer ses idées aux non-initiés. Contrairement à Franco Modigliani et Lawrence Klein, il n’a pas été membre d’un organisme consultatif pour les institutions responsables de la politique économique pour les guider dans la mise en œuvre de cette dernière.

Pour autant, Lucas n’est pas non plus resté isolé du débat public : il s’est intéressé aux débats politiques, il a entretenu une correspondance avec des politiciens, fit quelques interventions dans la presse et il anima le débat avec ses pairs qui travaillaient auprès d’institutions en charge de la politique économique. Mais cette participation dans le débat public n’a pas été délibérée : c’est le public qui sollicita Lucas pour qu’il exprime son opinion et ses conseils, non l’inverse. En fait, Lucas n’a jamais cherché à jouer un rôle d’expert et à faire valoir ses compétences pour parler de questions en matière de politique économique. Il a laissé d’autres de ses compères s’impliquer dans le débat politique. C’est par exemple le cas des théoriciens des cycles d’affaires réels comme Edward Prescott et Finn Kydland et surtout le cas de nouveaux classiques comme Thomas Sargent qui ont contribué à diffusé ses idées en matière de politique économique. C’est une finalement nouvelle raison nous amenant à croire qu’« il fallut un Sargent pour que Lucas puisse être Lucas » [Goutsmedt, 2018]

 

Références

BLINDER, Alan. S. (1988), « The fall and rise of Keynesian economics », in Economic Record, vol. 64, n° 4.

BACKHOUSE, Roger, & Mauro Boianovsky (2013), Transforming Modern Macroeconomics. Exploring Disequilibrium Microfoundations (1956-2003), Cambridge University Press.

DE VROEY, Michel (2009), Keynes, Lucas, d’une macroéconomie à l’autre, Dalloz. 

FRIEDMAN, Milton (1948), « A monetary and fiscal framework for economic stability », in American Economic Review, vol. 38, n° 3.

GOUTSMEDT, Aurélien (2018), « Thomas Sargent face à Robert Lucas : une autre ambition pour la nouvelle économie classique », in OEconomia, vol. 8, n° 2.

GOUTSMEDT, Aurélien, Danielle GUIZZO & Francesco SERGI (2018), « An agenda without a Plan: Robert E Lucas’s trajectory through the public debate », CHOPE, working paper, n° 2018-14.

HOOVER, Kevin D. (1988), The New Classical Macroeconomics. A Skeptical Inquiry, Basil Blackwell.

LUCAS, Robert E. (1972), « Expectations and the neutrality of money », in Journal of Economic Theory, vol. 4, n° 2.

LUCAS, Robert E. (1976), « Econometric policy evaluation: A critique », Carnegie-Rochester Conference Series on Public Policy, vol. 1.

LUCAS, Robert E. (1977), « Understanding business cycles », Carnegie-Rochester Conference Series on Public Policy, vol. 5.

LUCAS, Robert E. (1980), « Rules, discretion, and the role of the economic advisor, in Stanley Fischer (dir.), Rational Expectations and Economic Policy, University of Chicago Press.

Partager cet article

Repost0
20 février 2019 3 20 /02 /février /2019 14:17
Les obligations souveraines depuis Waterloo

La bataille de Waterloo en 1815 n’a pas eu qu’un impact géopolitique. Elle constitue une date clé en finance internationale en marquant la naissance des marchés modernes de la dette publique et de ses cycles récurrents de hausse et d’effondrement [Reinhart et alii, 2003]. La défaite de Napoléon et la libération de l’Espagne de la domination française a conduit à l’indépendance d’une douzaine de nouvelles républiques en Amérique latine, dont les Etats ont rapidement cherché à se financer à l’étranger, notamment à Londres. Les pays émergents, notamment la Grèce qui émit alors ses premières obligations internationales [Reinhart et Trebesch, 2015], ont alors connu le premier boom de leur dette, un boom qui prit fin brutalement en 1825 en entraînant une panique financière. Depuis, les cycles de prêts et de défauts se sont répétés, touchant très souvent les mêmes pays (cf. graphique 1).

GRAPHIQUE 1  Fréquence annuelle de restructurations de la dette souveraine avec des créanciers privés étrangers

source : Meyer et alii (2019)

Dans la mesure où le marché de la dette souveraine externe connaît fréquemment des défauts, il semble peu rationnel de la part des investisseurs financiers de trouver ces titres attrayants. Pour comprendre pourquoi les investisseurs présentent un certain appétit pour cette classe d’actifs, Josefin Meyer, Carmen Reinhart et Christoph Trebesch (2019) ont cherché à déterminer ses rendements totaux. Pour ce faire, il leur a fallu tout d’abord prendre en compte l’évolution des cours obligataires. Ils ont alors compilé une nouvelle base de données comprenant environ 220.000 cours mensuels de 1.400 obligations publiques émises par 91 pays en devises étrangères et échangées à Londres et à New York entre 1815 et 2016. Ensuite, pour déterminer le rendement total de ces obligations, il leur a fallu déterminer les pertes que les créanciers ont essuyées avec les défauts souverains et les restructurations des dettes publiques. Pour cela, Meyer et ses coauteurs se sont appuyées sur leur base de données relative à 300 épisodes de crises de la dette souveraine qui ont éclaté depuis 1815.

GRAPHIQUE 2  Tendances dans les rendements des obligations souveraines 

source : Meyer et alii (2019)

Leur principal constat est que sur ce marché, à l’instar des marchés boursiers, les rendements sur les obligations souveraines externes ont été suffisamment élevés pour compenser le risque que prenaient leurs détenteurs (cf. graphiques 2 et 3). Les rendements réels ex post ont atteint en moyenne chaque année 6,8 % au cours des deux siècles étudiés, notamment lors des épisodes de défauts, des grandes guerres et des crises mondiales. Cela représente un excès de rendement d’environ 4 % par rapport aux obligations publiques étasuniennes ou britanniques considérées comme dénuées de risque, si bien que leurs rendements sont comparables à ceux des actions et sont supérieurs à ceux des obligations d’entreprises. Pour autant, les rendements tendent à être plus faibles dans les décennies davantage marquées par des crises.

GRAPHIQUE 3  Tendances dans les rendements des obligations souveraines 

source : Meyer et alii (2019)

Ces résultats contribuent à expliquer une énigme qui travaille les économistes en finance internationale depuis plusieurs décennies, en l'occurrence le fait que les emprunteurs souverains connaissent des cycles récurrents de surendettement et de défauts, suivis par leur retour sur le marché : beaucoup d’Etats émettent à nouveau des titres, malgré le fait qu’ils aient pu régulièrement faire défaut, même quelques temps auparavant. Jonathan Eaton et Mark Gersovitz (1981) estimaient qu’un Etat ne pouvait qu’être indéfiniment exclu des marchés financiers internationaux après avoir fait défaut, or ce n’est définitivement pas ce que montrent les données historiques [Panizza et alii, 2009]. Par exemple, en 2016, l’Etat argentin a de nouveau émis des titres sur les marchés internationaux à peine quelques mois après son septième défaut de paiement. 

GRAPHIQUE 4  Ampleur des allègements de dette souveraine (en %)

source : Meyer et alii (2019)

Pour autant, les rendements constatés sont difficiles à concilier avec les modèles de base de la littérature théorique et avec le degré du risque de crédit sur le marché, mesuré par les taux de défaut et de reprise au cours de l’histoire. Mais en s’appuyant sur leurs données relatives à 300 restructurations de dette souveraine depuis 1815, Meyer et ses coauteurs constatent que les dettes publiques sont rarement totalement annulées : leur allègement (haircut) médian s’élève à 44 % (cf. graphique 4). 

GRAPHIQUE 5  Rendements cumulatifs des obligations publiques autour des défauts souverains (en %)

De plus, les cours obligataires augmentent assez rapidement pendant et après les épisodes de défaut (cf. graphique 5). En conséquence, en moyenne, les créanciers récupèrent leur investissement dans les cinq années qui suivent le défaut souverain ; dans un quart des cas, ils comblent leurs pertes en moins d’un an. Certes, il y a des épisodes exceptionnels, comme des guerres, des révolutions ou des éclatements d’empires où ce n’est absolument pas le cas, mais en général, lors de la plupart des crises de la dette souveraine, les pertes que subissent les créanciers ne sont que partielles.

 

Références

EATON, Jonathan, & Mark GERSOVITZ (1981), « Debt with potential repudiation: Theoretical and empirical analysis », in Review of Economic Studies, vol. 48, n° 2.

MEYER, Josefin, Carmen M. REINHART & Christoph TREBESCH (2019), « Sovereign bonds since Waterloo », NBER, working paper, n° 25543.

PANIZZA, Ugo, Frederico STURZENEGGER & Jeromin ZETTELMEYER, (2009), « The economics and law of sovereign debt and default », in Journal of Economic Literature, vol. 47, n° 3.

REINHART, Carmen M., Kenneth S. ROGOFF & Miguel A. SAVASTANO (2003), « Debt Intolerance », in Brookings Papers on Economic Activity, vol. 34, n° 1.

REINHART, Carmen M., & Christoph TREBESCH (2015), « The pitfalls of external dependence: Greece, 1829-2015 », document de travail présenté lors de la conférence du Brookings Panel on Economic Activity, 10-11 septembre.

Partager cet article

Repost0
17 février 2019 7 17 /02 /février /2019 12:01
Quelles seront les répercussions à long terme du Brexit ?

Le référendum qui s’est tenu le 23 juin 2016 sur la question d’une éventuelle sortie du Royaume-Uni de l’UE s’est soldé par une victoire du « Leave ». Les négociations entre le Royaume-Uni et l’UE en vue de redéfinir leur relation ont commencé en juin 2017, avec pour date butoir le 29 mars 2019 pour trouver un accord, notamment sur la question de la frontière irlandaise et le possible maintien du Royaume-Uni dans une union douanière avec l’UE. Si aucun accord n’est trouvé à cette date-là, le Royaume-Uni deviendra un Etat tiers à l’UE, cette dernière passera officiellement de 28 à 27 pays-membres et les relations entre les deux entières seront régies par les règles de l’OMC. Pour l’heure, c’est bien vers un scénario d’une absence d’accord (« no deal »), c’est-à-dire celui d’un « Brexit dur » désordonné, vers lequel on semble aller. Qu’importe ce qui sera décidé ou non le 29 mars : une période de transition s’étendant jusqu’à fin 2020 est prévue.

En sortant de l’union douanière, la Grande-Bretagne verrait ses coûts d’échange en biens et services avec l’UE augmenter avec le relèvement des droits de douane. Autrement dit, les résidents du Royaume-Uni vont devoir payer plus cher pour importer des produits étrangers : les ménages verront leur pouvoir d’achat diminuer, tout en accédant à une moindre variété de produits ; les entreprises verront leurs coûts de production augmenter et pourront plus difficilement acquérir les produits étrangers pour les utiliser comme équipements ou comme biens intermédiaires. Outre les droits de douane, ce sont des barrières non tarifaires qui se restaureront, d'où des complexifications administratives, une lenteur dans les transactions, etc. A cela s’ajoute, surtout à court terme, la hausse de l’incertitude : tant que la nouvelle relation entre le Royaume-Uni et l’UE n’est pas définie, les entreprises sont incitées à adopter un comportement attentiste et à ne pas lancer de nouveaux projets d’investissement. En raison de la hausse de l'incertitude et des coûts de transaction, les flux d’investissements directs à l’étranger risquent de diminuer, surtout à destination du Royaume-Uni. En outre, avec la sortie du marché unique, ce sont aussi des barrières dans la mobilité des travailleurs qui se restaureront, réduisant le flux de travailleurs qualifiés vers le Royaume-Uni. Ces divers effets pervers pourraient d’ailleurs constituer un choc de productivité négatif pour le Royaume-Uni, dans la mesure où sa main-d’œuvre sera moins qualifiée et utilisera des produits moins performants comme équipements ou intrants.

Mais certains résidents du Royaume-uni tireront un gain d’une sortie de l’UE [Krugman, 2016]. En effet, le pays s’est spécialisé dans les services financiers et il a précisément vu son avantage dans cette spécialisation se renforcer avec son appartenance à l’UE : en raison des économies d’échelle, il est rentable de concentrer la production d’un service donné (en l’occurrence ici, celle des services financiers) en un lieu unique. Or, le rôle que la City de Londres joue en tant que centre financier majeur a conduit à pousser le taux de change de la livre sterling à la hausse ; et cette livre forte a pénalisé le secteur industriel et ses exportations, ce qui a pu non seulement contribuer à la désindustrialisation du Royaume-Uni (selon un mécanisme proche de celui de la « maladie hollandaise »), mais aussi accroître en retour ses incitations à se spécialiser dans les services financiers. Réciproquement, la sortie de l’UE pourrait certes nuire au secteur financier du Royaume-Uni, dans la mesure où les activités financières risquent d’être délocalisées sur le continuent pour profiter des économies d’échelle ; mais d’un autre côté, elle pourrait aussi rendre plus compétitive l’industrie britannique en conduisant à une dépréciation de la livre sterling. Bien sûr, l’accélération de l’inflation risque d’atténuer ces éventuels gains.

Dans tous les cas, le Brexit constitue au niveau agrégé un choc négatif, aussi bien pour le Royaume-Uni que pour l’UE. Si la sortie de l’UE n’est pas encore effective, elle a déjà des effets sur l’économie du Royaume-Uni. La croissance de son PIB en 2018 s’élève à 1,4 %, soit le rythme le plus lent depuis 2012. Le PIB est déjà inférieur de 2,5 % à ce qu’il aurait été s’il avait continué de croître au rythme qu’il suivait tendanciellement avant le référendum [Waechter, 2019]. La sortie effective de l’UE pourrait accroître ce coût, en particulier si elle se fait de façon désordonnée. 

Patrick Bisciari (2019) a passé en revue les diverses études officielles et universitaires qui ont cherché à déterminer l’impact à long terme du Brexit sur le PIB, aussi bien pour le Royaume-Uni que pour les autres pays-membres de l’UE. Il ne manque pas de souligner que les estimations sont très diverses d’une étude à l’autre, notamment parce qu’elles n’analysent pas le même scénario, notamment à propos de la forme que prendra la nouvelle relation commerciale entre le Royaume-Uni et l’UE ; et même pour un scénario à peu près similaire, les analyses ne font jamais les mêmes hypothèses et n’observent pas forcément les mêmes canaux de transmission pour juger des effets du choc du Brexit.

Bisciari a d’abord compilé les résultats des diverses études analysant le scénario de l’OMC, en l’occurrence celui d’un Brexit dur mais ordonné, ce qui est le scénario le plus souvent retenu. Comme pour d’autres scénarii, les estimations sont très diverses d’une étude à l’autre. L’impact en termes de PIB serait négatif pour le Royaume-Uni et l’UE à 27. Il serait plus large pour le premier que pour le second, essentiellement parce que l’UE à 27 représente un marché à l’export et un fournisseur plus importants pour le Royaume-Uni que ce dernier ne l’est pour l’UE à 27. Les estimations les plus pessimistes pointent des pertes supérieures à 5 points de pourcentage, voire supérieures à 10 points de pourcentage, pour le Royaume-Uni ; c’est notamment le cas du Trésor (2016) britannique, de Levell et alii (2018), de Pisani et Vergara Caffarelli (2018). Le gouvernement du Royaume-Uni (2018) estime que le seul canal du commerce entraînerait des pertes équivalentes à 7,6 % du PIB, et ce davantage en raison des barrières non tarifaires que des barrières tarifaires. Lorsqu’il considère le seul canal du commerce, le FMI (2018) aboutit à des pertes équivalentes à 4,2 % du PIB selon un modèle de concurrence monopolistique à la Krugman (1980) et à 6,4 % du PIB selon un modèle de concurrence monopoliste avec hétérogénéité des firmes à la Melitz (2003).

GRAPHIQUE  Estimations des pertes en termes de PIB dans le scénario de l’OMC (en %)

source : Bisciari (2019)

En moyenne, les pertes seraient de 0,6 % pour l’UE à 27 dans son ensemble. L’ampleur des pertes pour un pays dépend de son ouverture vis-à-vis du Royaume-Uni et certaines économies souffriraient davantage que cette dernière d’un Brexit dur. Ce sont l’Irlande, Malte et, seulement ensuite, le Royaume-Uni qui subiraient les pertes les plus amples, en l’occurrence supérieurs à 3 points de PIB. En l’occurrence, l’exposition de l’Irlande s’expliquerait par sa proximité géographique avec le Royaume-Uni, tandis que celle de Malte tient à son appartenance au Commonwealth. Après eux, ce sont les trois pays du Benelux qui seraient les plus affectés par un Brexit dur : les pertes médianes du Luxembourg représentaient plus du double que celles observées en moyenne pour l’ensemble de l’UE à 27 et s’expliqueraient par sa spécialisation dans les services financiers ; celles des Pays-Bas seraient à peine supérieurs à un point de pourcentage ; celles de la Belgique seraient d’environ un point de pourcentage. Les estimations médianes des pertes seraient égales à celles subies en moyenne par l’UE à 27, tandis qu’elles seraient légèrement inférieures à ces dernières pour les autres pays, notamment l’Allemagne, la France, l’Italie et l’Espagne, grâce notamment à l’importance de leur marchés domestiques et à la diversification de leur commerce extérieur qui leur permettent d’absorber plus facilement le choc du Brexit.

Diverses études, notamment celle du Vincent Vicard (2018) pour le CAE, ont analysé d’autres scénarii que celui de l’OMC. Aucune d’entre elles ne suggère un gain en termes de PIB en cas de Brexit soft, que ce soit pour le Royaume-Uni ou l’ensemble des pays-membres restants de l’UE. Ces études suggèrent que les pertes seraient réduites (relativement au scénario de l’OMC) si le Royaume-Uni et l’UE aboutissaient à un accord favorisant le commerce entre eux. Même dans le cas d’un accord commercial, les pertes en termes de PIB d’un Brexit soft seraient plus élevées pour le Royaume-Uni que pour l’UE à 27 dans son ensemble. Le maintien dans le Marché unique demeure la meilleure option pour que le Royaume-Uni minimise ses pertes : celles-ci seraient par deux, de même que pour l’UE à 27 dans son ensemble. Les pertes sont également réduites en cas de maintien dans l’union douanière.

Les coûts à long terme d’une sortie de l’UE, qu’importe la forme qu’elle prendra, ne seront pas négligeables, mais ils sont loin d’être aussi massifs que certains ont pu le prédire. Par contre, il est possible que le coût du Brexit soit plus important à court qu’à long terme ; la Banque d’Angleterre (2018) évoquait la possibilité d'un choc plus dommageable que la récente crise financière. Selon Paul Krugman (2019), c’est surtout l’absence d’infrastructures douanières aux frontières qui pourrait particulièrement nuire aux échanges commerciaux entre le Royaume-Uni et l’UE ; malgré le fait que le référendum ait été tenu il y a près de trois ans, il n’y a pas eu depuis de réelles avancées sur ce front-là, ce qui démontre l’extrême impréparation des responsables politiques des deux côtés de la Manche. Ce sont ainsi les barrières non tarifaires qui vont se révéler les plus dommageables : les files d’attente des poids-lourds s’allongeront sur les routes et autoroutes, à Douvres comme à Calais, les biens prioritaires ne passeront pas forcément à temps les frontières, etc

Du côté de l’UE et notamment de la zone euro, le choc du Brexit est d’autant plus mal venu que la croissance semble ralentir depuis quelques mois parmi les pays-membres, que plusieurs d’entre eux sont toujours éloignés du plein emploi et que la marge de manœuvre des politiques conjoncturelles semble réduite : les niveaux de dette publique sont élevés et les taux directeurs de la BCE sont déjà à zéro, si bien que les gouvernements et la banque centrale peuvent difficilement stabiliser l’économie en cas de choc majeur. 

 

Références

Banque d’Angleterre (2018), EU withdrawal scenarios and monetary and financial stability, novembre.

BISCIARI, Patrick (2019), « A survey of the long-term impact of Brexit on the UK and the EU27 economies », Banque nationale de Belgique, working paper, n° 366.

FMI (2018), « Brexit : Sectoral impact and policies », United Kingdom - Selected issues, country report, n° 18/317.

Gouvernement du Royaume-Uni (2018), EU Exit: Long-Term Economic Analysis, novembre.

KRUGMAN, Paul (1980), « Scale economies, product differentiation, and the pattern of trade », in American Economic Review, vol. 70.

KRUGMAN, Paul (2016), « Notes on Brexit and the pound », in The Conscience of a Liberal (blog), 11 octobre. Traduction française, « Quelques remarques sur le Brexit et la livre sterling ».

KRUGMAN, Paul (2019), « What to expect when you’re expecting Brexit », 16 janvier. Traduction française, « Brexit : le court terme pourrait aussi être mauvais pour le reste de l’Europe ».

LEVELL, Peter, Anand MENON, Thomas SAMPSON & Jonathan PORTES (2018), « The economic consequences of the Brexit deal », CEP.

MELITZ, Marc J. (2003), « The impact of trade on intra-industry reallocations and aggregate industry productivity », in Econometrica, vol. 71, n° 6.

PISANI, Massimiliano, & Filippo VERGARA CAFFARELLI (2018), « What will Brexit mean for the UK and euro area economies? A model-based assessment of trade regimes », Banque d’Italie, temi di discussione, n° 1163.

Trésor de sa Majesté (2016), HM Treasury analysis: the long-term economic impact of EU membership and the alternatives, 19 avril.

VICARD, Vincent (2018), « Une estimation de l’impact des politiques commerciales sur le PIB par les nouveaux modèles quantitatifs de commerce », Focus du CAE, n° 22.

WAECHTER, Philippe (2019), « Le coût cumulé est élevé depuis le référendum », 12 février.

Partager cet article

Repost0
10 février 2019 7 10 /02 /février /2019 08:46
L’inflation est-elle au coin de la rue ?

L’économie américaine est officiellement sortie de la Grande Récession en juin 2009. L’expansion qui s’est amorcée à cette date ne s’est, jusqu’à présent, pas interrompue, si bien que les Etats-Unis auront connu, quoiqu’il arrive, l’une des plus longues expansions de son histoire. Depuis le début de la reprise, le taux de chômage a régulièrement diminué et atteint des niveaux particulièrement faibles : il est passé sous les 4 % ces derniers mois, soit un niveau inférieur à celui qu’il atteignait à la veille de la crise financière. La durée exceptionnelle de l’expansion et la faiblesse du taux de chômage alimentent les craintes d’une forte accélération de l’inflation. Et pourtant, cette dernière reste à un faible niveau. Elle se comporte à peu près pareillement dans d’autres pays développés, en particulier la zone euro (même s’il faut avouer que la reprise a été moins robuste au sein de celle-ci). Jared Bernstein (2017) y voit « l’énigme numéro une en économie ».

Ce n’est pas la première fois que le comportement de l’inflation surprend les économistes. Ces derniers ont souvent étudié le lien entre inflation et activité au prisme de la courbe de Phillips, mais le comportement de l’inflation lors de la Grande Récession, puis lors de la subséquente reprise a semblé infirmé une telle relation. En effet, malgré la forte hausse du chômage aux Etats-Unis et dans plusieurs pays développés, l’inflation y est restée relativement stable, alors qu’une courbe de Phillips traditionnelle aurait suggéré qu’une forte déflation apparaisse dans un tel contexte. Certains ont alors parlé d’une « désinflation manquante » (missing deflation). Pour l’expliquer, certains ont suggéré que la crédibilité des banques centrales aurait permis d’ancrer les anticipations d’inflation ; d’autres ont évoqué un aplatissement de la courbe de Phillips [FMI, 2013]. Pour d’autres encore, comme Larry Summers (2017) et The Economist (2017), la courbe de Phillips serait tout simplement morte. Alan Blinder (2018) suggère qu’elle est peut-être « juste partie en vacances », tandis qu’Olivier Blanchard (2016) la croit toujours vivante, mais précise qu’elle n’a jamais été bien fébrile : la relation n’a jamais été bien robuste.

Deux nouvelles lignes de défense de la courbe de Phillips ont été récemment proposées. Dans la première, Laurence Ball et Sandeep Mazumder (2019) estiment que le comportement de l’inflation est plus facile à comprendre si nous divisons l’inflation globale en une inflation sous-jacente et un résidu transitoire et si l’inflation sous-jacente est mesurée, comme le préconisaient Michael Bryan et Stephen Cecchetti (1994), par la médiane pondérée des taux d’inflation des différents secteurs. L’inflation sous-jacente est habituellement mesurée en prenant le taux d’inflation et en retranchant de celui-ci les prix des aliments et de l’énergie. Ces derniers sont en effet très volatiles, mais d’autres secteurs connaissent aussi d’amples variations des prix qui influencent fortement le taux d’inflation global. La médiane pondérée est moins volatile que la mesure traditionnelle de l’inflation sous-jacente, car elle élimine les amples variations des prix dans toutes les industries.

Ball et Mazumder démontrent l’opportunité d’utiliser la médiane pondérée en étudiant le comportement de l’inflation en 2017 et au début de l’année 2018. Au cours de cette période, la mesure traditionnelle de l’inflation sous-jacente suggérait que celle-ci avait chuté, chose que le comité de politique monétaire de la Fed ne parvenait pas à comprendre. Mais la médiane pondérée ne chuta pas autant au cours de cette période, parce qu’elle excluait la forte baisse des prix que connurent plusieurs secteurs de l’économie.

Pour Ball et Mazumder, la courbe de Phillips est bien vivante aux Etats-Unis, mais elle n’explique que l'inflation sous-jacente. Une courbe de Phillips reliant la médiane pondérée au chômage apparaît clairement dans les données pour la période allant de 1985 à 2017 et il n’y a pas de rupture dans cette relation en 2008.

De leur côté, Olivier Coibion et Yuriy Gorodnichenko (2015) avaient suggéré que l’absence de déflation durant la Grande Récession étant tout à fait compatible avec la courbe de Phillips, à condition que celle-ci soit augmentée des anticipations. En l’occurrence, la hausse des prix du pétrole entre 2009 et 2011 aurait amené les ménages à relever leurs anticipations d’inflation, ce qui aurait empêché l’inflation de ralentir autant que l’aurait mécaniquement impliqué la chute de l’activité.

GRAPHIQUE 1  La courbe de Phillips augmentée des anticipations

Olivier Coibion, Yuriy Gorodnichenko et Mauricio Ulate (2019) ont compilé les données relatives à plusieurs économies pour lesquelles des enquêtes ont été réalisées depuis suffisamment longtemps auprès des entreprises ou des ménages, en l’occurrence 17 pays développés et la zone euro prise dans son ensemble. Ils mettent en évidence une relation négative et robuste entre l’écart d’inflation (c’est-à-dire l’écart entre l’inflation observée et l’inflation anticipée) et l’écart de chômage (c’est-à-dire l’écart entre le taux de chômage observé et le taux de chômage naturel) : lorsque l’inflation tend à être supérieure à l’inflation anticipée dans un pays, alors le taux de chômage tend à être inférieur à son niveau naturel (cf. graphique 1). Par contre, il n’y a pas de véritable relation entre les variations de l’inflation et les écarts de chômage, ce qui amène Coibion et ses coauteurs à douter que le lien entre l’inflation et le degré de mollesse de l’activité puisse être décrit par une courbe de Phillips accélérationniste à la Friedman (1968) : les anticipations d’inflation jouent un rôle crucial, mais il ne s’agit pas d’anticipations adaptatives.

GRAPHIQUE 2  Ecarts d’inflation américain et mondial

Coibion et ses coauteurs estiment que cette relation permet de juger du degré de mou dans l’activité économique : il est possible d’avoir une idée de l’écart de chômage en déterminant l’écart d’inflation. Par exemple, si l’inflation est bien en-deçà de son niveau anticipé, il est peu probable que le chômage soit en-deçà de son niveau naturel. En utilisant les données qu’ils ont collectées sur les anticipations d’inflation, Coibion et ses coauteurs cherchent alors à estimer l’écart d’inflation mondial, c’est-à-dire la composante commune dans l’écart entre l’inflation observée et l’inflation anticipée que l’on observe dans les pays développés. L’écart d’inflation aux Etats-Unis et l’écart d’inflation mondial présentent les mêmes évolutions (cf. graphique 2). Durant l’essentiel des années deux mille, ils ont été nuls ou proches de zéro, puis ils ont commencé à devenir négatifs au début de la Grande Récession. Les niveaux d’inflation se sont davantage éloignés de leurs niveaux anticipés entre 2011 et 2014. Depuis le point bas qu’ils ont atteint au milieu des années deux mille dix, les écarts d’inflation se sont régulièrement réduits, suggérant que les pressions déflationnistes qui se sont manifestées dans le sillage de la Grande Récession se sont pour l’essentiel dissipées. Pour autant, les écarts d’inflation restent négatifs, ce qui suggère que l’activité reste molle non seulement aux Etats-Unis, mais aussi dans la plupart des autres pays développés. Autrement dit, les écarts de production se referment, mais il y a encore du mou dans l’activité économique. Par conséquent, l’inflation ne semble pas sur le point de fortement s’accélérer, du moins pas tant que les anticipations d’inflation ne soient pas fortement révisées à la hausse ou que le chômage ne chute pas brutalement.

 

Références

BALL, Laurence M., & Sandeep MAZUMDER (2019), « The nonpuzzling behavior of median inflation », NBER, working paper, n° 25512.

BERNSTEIN, Jared (2017), « Two inflation puzzles, one inflation monster », in The Washington Post, 11 septembre.

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

BLINDER, Alan (2018), « Is the Phillips curve dead? And other questions for the Fed », in Wall Street Journal, 3 mai.

BRYAN, Michael, & Stephen CECCHETTI (1994), « Measuring core inflation », in Gregory Mankiw (dir.), Monetary Policy, NBER.

COIBION, Olivier, & Yuriy GORODNICHENKO (2015), « Is the Phillips curve alive and well after all? Inflation expectations and the missing disinflation » in American Economic Journal: Macroeconomics, vol. 7, n° 1.

COIBION, Olivier, Yuriy GORODNICHENKO & Mauricio ULATE (2019), « Is inflation just around the corner? The Phillips Curve and global inflationary pressures », NBER, working paper, n° 25511.

The Economist (2017), « The Phillips Curve may be broken for good », 1er novembre.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58.

SUMMERS, Lawrence (2017), « America needs its unions more than ever », in The Financial Times, 3 septembre.

Partager cet article

Repost0
8 février 2019 5 08 /02 /février /2019 21:21
Pourquoi la reprise a tardé ? La crise de l'euro au prisme de la crise du SME

Alors que les Etats-Unis ont renoué avec la croissance dès 2009, la zone euro ne l’a véritablement fait qu’à partir du deuxième trimestre de l’année 2017, soit dix ans après le début de la crise financière mondiale. Afin d’éclairer pourquoi la reprise a été si longue à s’amorcer suite à la crise de l’euro, Giancarlo Corsetti, Barry Eichengreen, Galina Hale et Eric Tallman (2019) ont comparé celle-ci avec la crise du système monétaire européen qui a éclaté en 1992-1993.

Certes, de nombreuses différences existent entre les deux crises. Par exemple, elles n’ont pas résulté des mêmes chocs. La crise du SME au début des années quatre-vingt-dix a été déclenchée par un resserrement monétaire en Allemagne : la Bundesbank avait fortement relevé ses taux d’intérêt pour contenir l’inflation générée dans le sillage de la réunification. Les autres banques centrales du SME ont alors été poussées à resserrer également leur politique monétaire pour défendre leur parité, ce qui a transmis le choc de demande à l’ensemble des pays-membres. Quant à la crise de l’euro, elle a été amorcée en 2008 par un choc provenant de l’extérieur, en l’occurrence la crise financière des Etats-Unis, qui s’est notamment transmise aux pays européens via le système bancaire. Mais ce choc est survenu dans un contexte de déséquilibres qui auraient fini par se dénouer tôt ou tard. Des pays de la périphérie de la zone euro connaissaient un ample déficit courant et la formation de bulles immobilières alimentées par les entrées de capitaux. Le resserrement des conditions de financement dans le sillage de la crise financière mondiale a entraîné un arrêt dans ces flux de capitaux, ce qui fit éclater les bulles immobilières et imposa à ces pays un douloureux rééquilibrage de leur balance courante.

Et pourtant, Corsetti et ses coauteurs notent que ces deux épisodes partagent de nombreux points communs : les pays ayant les fondamentaux les plus mauvais ont connu une fuite des capitaux, des anticipations auto-réalisatrices ont amplifié les turbulences sur les marchés financiers et des changes, les primes de risque se sont accrues, le secteur bancaire a connu de grandes difficultés, etc.

Malgré ces similarités, les pays du SME ont connu au début des années quatre-vingt-dix de moindres pertes de production que celles essuyées par les pays-membres de la zone euro il y a une décennie. Et ils ont renoué plus rapidement avec la croissance économique. En comparant les deux épisodes, Corsetti et ses coauteurs espèrent identifier ce qui explique pourquoi la reprise a tant tardé suite à la crise de l’euro. Ils ont tiré six leçons de cet exercice.

Premièrement, à partir de 2009 il y a eu un puissant cercle vicieux entre les turbulences bancaires et les difficultés rencontrées par les finances publiques : plus les banques rencontraient des difficultés, plus l’Etat devait intervenir pour les secourir, plus la dette publique s’en trouvait ; les banques détenaient beaucoup de titres publics domestiques, si bien que lorsque la dette publique d’un pays augmentait, la situation financière des banques domestiques se dégradait mécaniquement [Brunnermeier et alii, 2016]. Il n’y avait pas un tel cercle vicieux en 1992, notamment parce que les bilans des banques étaient moins importants et qu’en conséquence la résolution des défaillances bancaires pesait moins sur les finances publiques.

Deuxièmement, le renversement du solde courant était plus massif en 2010 qu’au début des années quatre-vingt-dix, ce qui impliquait un plus ample ajustement des prix relatifs.

Troisièmement, il était plus difficile de réaliser cet ajustement des prix relatifs en 2010. En 1992, les pays avaient encore leur propre monnaie nationale, si bien qu’ils pouvaient s’ajuster via leur taux de change. En 2010, les pays de la zone euro partageaient la même monnaie, si bien qu’ils ne disposaient plus de ce moyen d’ajustement. De plus, le taux de change de la zone euro est principalement déterminé par la situation des pays constituant son « cœur », notamment l’Allemagne. Par conséquent, il ne s’est pas déprécié aussi amplement que le nécessitaient les pays périphériques pour ajuster plus facilement leurs prix relatifs.

Quatrièmement, les déficits et dettes publics étaient moins importants au début des années quatre-vingt-dix et, pour cette raison-là, les banques centrales nationales pouvaient plus facilement intervenir pour stabiliser le marché de la dette publique, si bien que les primes de risque souverain étaient moins sensibles aux perspectives entourant les finances publiques. Ainsi, en 2010, les gouvernements disposaient d’une moindre marge de manœuvre pour assouplir leur politique budgétaire et étaient au contraire davantage incités à adopter des mesures d’austérité pour stabiliser leur endettement (cf. graphique). Autrement dit, non seulement la politique budgétaire n’a pas pu être utilisée pour contenir la récession, mais elle a pu au contraire l’aggraver.

GRAPHIQUE  La consolidation budgétaire dans le sillage de la crise de l’euro (en % du PIB)

Cinquièmement, la réduction des déficits courants après 2009 ne pouvaient passer que par une réduction des importations. Cette dernière s’est opérée via une baisse des dépenses publiques et une baisse de la consommation de ménages cherchant à se désendetter. La baisse subséquente de la demande domestique a non seulement aggravé la récession, mais elle a aussi déprimé les recettes publiques et augmenté les défauts de paiement, ce qui a détérioré le bilan des entreprises, des banques et des gouvernements.

Sixièmement, en 1992-1993, les banques centrales des pays qui ont pu rencontrer de tels problèmes pouvaient réduire leurs taux d’intérêt pour soutenir la demande domestique et contenir la détérioration des bilans. Mais la BCE fixe ses taux directeurs en considérant la situation de l’ensemble de la zone euro, si bien qu’en 2009-2010 elle n’a pas réduit ses taux d’intérêt autant que le nécessitait la situation des pays-membres les plus en difficulté.

Au final, Corsetti et ses coauteurs en concluent qu’il n’est possible de gérer d’amples chocs macroéconomiques que s’il existe un soutien crédible pour les banques et les marchés de la dette publique. En l’absence d’un tel soutien, les chocs tendent à s’amplifier de façon endogène. Les banques et les marchés de la dette publique disposaient d’un tel soutien au cours de la crise du SME, mais non durant la crise de la zone euro. Aucune réforme n'a pour l'heure changé la donne, ce qui laisse la zone euro vulnérable à nouvelle crise.

 

Références

BRUNNERMEIER, Markus K., Luis GARICANO, Philip R. LANE, Marco PAGANO, Ricardo REIS, Tano SANTOS, David THESMAR, Stijn VAN NIEUWERBURGH & Dimitri VAYANOS (2016), « The sovereign-bank diabolic loop and ESBies », in American Economic Review, vol. 106, n° 5.

CORSETTI, Giancarlo, Barry EICHENGREEN, Galina HALE & Eric TALLMAN (2019), « The Euro crisis in the mirror of the EMS: How tying Odysseus to the mast avoided the sirens but led him to Charybdis », Federal Reserve Bank of San Francisco, working paper, n° 2019-04.

Partager cet article

Repost0
3 février 2019 7 03 /02 /février /2019 15:19
La Fed doit-elle être contrainte ?

Jeffrey Frankel (2019) est récemment revenu sur deux questions qui le travaillent depuis longtemps. D’une part, dans quelle mesure la banque centrale doit-elle être contrainte, c’est-à-dire dans quelle mesure la politique monétaire doit-elle être sous la seule discrétion de la banque centrale ? D'autre part, si une règle doit être suivie, plus ou moins scrupuleusement, de quelle règle doit-il s’agir ?

S’attaquant tout d’abord à la seconde question, Frankel rappelle que, par le passé, les banques centrales ont eu des difficultés à atteindre des cibles nominales, qu’il s’agisse du prix de l’or, du taux de change, du taux de croissance de la monnaie ou du taux d’inflation. Lorsque le chef de file des monétaristes Milton Friedman (1948) donna la priorité de la règle sur la discrétion, il avait en tête une règle imposant une croissance constante de l’offre de monnaie. C’est un tel objectif que les banques centrales cherchèrent à atteindre au début des années quatre-vingt, mais elles l’abandonnèrent rapidement car la demande et la vitesse de circulation de la monnaie étaient plus instables que ne le pensaient Friedman.

A partir des années quatre-vingt-dix, les banques centrales adoptèrent le ciblage d’inflation : en l'occurrence, elles ont cherché à cibler un taux d’inflation de 2 % [Svensson, 1999]. Mais elles échouèrent là aussi souvent à atteindre leur objectif : très souvent le taux d’inflation a pu être supérieur à la cible. Depuis la crise financière mondiale de 2008, le taux d’inflation est dans beaucoup de pays inférieur à la cible poursuivie par les autorités monétaires, malgré les mesures massives que ces dernières ont pu adopter : la Fed a par exemple quadruplé sa base monétaire, ce qui a certes pu ramener l’économie américaine à une situation que l’on peut qualifier de plein-emploi, mais sans vraiment avoir d’effet sur l’inflation.

La Grande Récession et la faiblesse de la reprise qui s’ensuivit ont rouvert le débat sur les objectifs poursuivis par les banques centrales. L’une des alternatives au ciblage d’inflation qui a recueilli beaucoup d’attention est le ciblage du niveau des prix. En ciblant un niveau des prix, les banques centrales seraient d’autant plus incitées à assouplir ou resserrer leur politique monétaire qu’elles ont antérieurement raté leur cible, ce qui leur permettrait de corriger en partie leur erreur. Frankel estime que cette alternative est moins efficace que le ciblage d’inflation, dans la mesure où elle repose davantage sur la crédibilité d’une telle cible aux yeux du public. Une autre alternative consiste à garder le ciblage d’inflation, mais en relevant la cible à 3 %, voire 4 % [Blanchard et alii, 2010 ; Ball, 2014]. Pour Frankel, un tel relèvement est d’autant moins crédible que les banques centrales se sont révélées incapables d’atteindre une cible plus modeste de 2 %.

Frankel doute également de l’efficacité des règles qui imposent à la banque centrale une fonction de réaction comprenant plusieurs variables. Il prend l’exemple de la règle de Taylor (1993). Si elle avait été adoptée, cette dernière aurait imposé à la banque centrale d’adopter en 2008, lorsque l’économie américaine basculait dans la récession, un taux d’intérêt de – 3 %, soit un niveau impossible à fixer.

Si les banques centrales devaient aujourd’hui choisir une cible, Frankel plaide pour l’adoption du ciblage du PIB nominal. Cette dernière avait été initialement proposée par James Meade (1978) et James Tobin (1980). Elle a été remise au goût du jour autour de 2011-2012, dans le contexte de lente reprise et de faible inflation que les pays développés connaissaient dans le sillage de la crise financière, notamment par Christina Romer (2011), Hatzius (2011), Michael Woodford (2012) et ceux qui se sont autoproclamés « monétaristes de marché » comme David Beckworth, Scott Sumner et Lars Christensen.

Si Frankel y voit la meilleure alternative, ce n’est pas parce qu’il s’agit d’une cible parfaite, mais parce qu’elle est la moins dommageable parmi les alternatives. Le ciblage du PIB nominal a notamment pour vertu d’être robuste dans le cas de chocs de productivité ou de fluctuations des produits de base, alors que les cibles d’inflation sont vulnérables face à de tels chocs. En effet, imaginons que l’économie connaisse un choc d’offre négatif, auquel cas les prix auront tendance à augmenter et l’économie à basculer dans une récession. Si la banque centrale cible un taux d’inflation, elle réagira en resserrant sa politique monétaire, ce qui est non seulement injustifié (l’inflation ne résulte pas d’un excès de demande), mais aussi néfaste (le resserrement monétaire aggrave la récession). Si la banque centrale cible un niveau du PIB nominal, elle resserra certes sa politique monétaire, mais moins amplement, dans la mesure où l’inflation tend à augmenter le PIB nominal, tandis que la récession tend au contraire à réduire ce dernier. Autrement dit, le choc se traduira à la fois par une perte en termes de production et une perte en termes de stabilité des prix. D’autre part, le ciblage d’inflation aurait l’avantage d’améliorer la répartition des risques entre débiteurs et créanciers, ce qui contribue à assurer la stabilité financière.

Dans tous les cas, Frankel s’avoue de plus en plus convaincu que la contrainte (qu’il s’agisse ou non d’une cible du PIB nominal) doit être très souple. Même le plus sincère des banquiers centraux peut s’avérer incapable d’atteindre sa cible, en raison d’événements imprévisibles. C’est une raison pour ne pas imposer une cible précise à court terme ; il peut y avoir une bande autour de la cible ou bien cette dernière peut être appréciée à plus long terme.

Après avoir étudié la contrainte que les règles peuvent exercer sur la banque centrale, Frankel se penche sur celle qu’exerce le gouvernement. Ces dernières années, beaucoup ont critiqué l’indépendance de la Réserve fédérale : beaucoup craignaient lors de la Grande Récession que les mesures extrêmement accommodantes adoptées par la banque centrale ne fassent déraper l’inflation, alors même que le taux de chômage avoisinait les 10 %. Plus récemment, alors que le taux de chômage américain est repassé sous les 4 %, Donald Trump a ouvertement critiqué le relèvement des taux directeurs de la Fed, n’hésitant pas à dire de cette dernière qu’elle est « hors de contrôle » et à critiquer son président, Jerome Powell, celui-là même qu’il a mis en place.

Les déclarations de Trump (1) et les épisodes historiques que Frankel (2007) a étudiés suggèrent que si la banque centrale perdait de son indépendance vis-à-vis du pouvoir politique, sa politique monétaire risquerait de devenir plus procyclique, ce qui amplifierait le cycle d’affaires. Autrement dit, la banque centrale risque d’assouplir sa politique monétaire quand l’économie est en expansion et les tensions inflationnistes fortes, accroissant le risque de surchauffe et d’instabilité financière ; et elle risque de resserrer sa politique monétaire dans un contexte de récession et de pressions déflationnistes, aggravant celles-ci.

 

(1) Le 29 septembre 2011, alors que le chômage s’élevait toujours à 9 %, Trump qualifia sur Twitter de dangereux le maintien des taux directeurs à un faible niveau et appela la Fed à abandonner cette politique, sous peine de générer un dérapage de l’inflation. Autrement dit, Trump appelle la Fed à resserrer sa politique monétaire lorsque le chômage est élevé et à l’assouplir lorsqu’il est faible.

 

Références

BALL, Laurence (2013), « The case for a long-run inflation target of four percent », FMI, working paper, n° 14/92.

BLANCHARD, Olivier, Giovanni DELL’ARICCIA & Paolo MAURO (2010), « Rethinking macroeconomic policy », FMI, staff position note, n° 10/03.

FRANKEL, Jeffrey (2007), « Responding to crises », in Cato Journal, vol. 27, n° 2.

FRANKEL, Jeffrey (2019), « Should the Fed be constrained? », Harvard Kennedy School, research working paper, n° 19-003.

FRIEDMAN, Milton (1948), « A monetary and fiscal framework for economic stability », in American Economic Review, vol. 38, n° 3.

HATZIUS, Jan (2011), « The case for a nominal GDP level target », in Goldman Sachs, US Economics Analyst, n° 11/41.

MEADE, James (1978), « The meaning of internal balance », in The Economic Journal, vol. 88.

ROMER, Christina (2011), « Dear Ben: It’s time for your Volcker moment », in The New York Times, 30 octobre.

SVENSSON, Lars (1999), « Inflation targeting as a monetary policy rule », in Journal of Monetary Economics, vol. 43, n° 3.

TAYLOR, John B. (1993), « Discretion versus policy rules in practice », Carnegie-Rochester Conference Series on Public Policy, vol. 39.

TOBIN, James (1980), « Stabilization policy ten years after », in Brookings Papers on Economic Activity, n° 1.

WOODFORD, Michael (2012), « Methods of policy accommodation at the interest-rate lower bound », document de travail présenté à la conférence de Jackson Hole.

Partager cet article

Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher