Overblog
Suivre ce blog Administration + Créer mon blog
29 juillet 2018 7 29 /07 /juillet /2018 22:44
Modèles DSGE : quels développements depuis la crise ?

Les années quatre-vingt-dix ont été marquées par une convergence entre, d’un côté, la littérature issue de la théorie des cycles d’affaires réels (real business cycles) et, d’autre part, les travaux des nouveaux keynésiens, au point que certains ont pu y voir l’apparition d’une « nouvelle synthèse néoclassique » [Goodfriend et King, 1997]. Cette convergence s’est notamment manifestée à travers le développement de modèles dynamiques stochastiques d’équilibre général (dits modèles DSGE). En effet, ces derniers contiennent des ingrédients propres à la théorie des cycles d’affaires réels : ils supposent une information transparente et se focalisent sur le comportement d’un agent représentatif, caractérisé par un comportement optimisateur, une durée de vie infinie et des anticipations rationnelles. Les modèles de la nouvelle synthèse intègrent en outre des éléments issus de la littérature nouvelle keynésienne : ils incorporent des variables nominales ; ils adoptent un cadre de concurrence imparfaite où les entreprises jouissent d’un pouvoir de marché et ont ainsi une certaine latitude pour fixer leurs prix ; ils introduisent des rigidités nominales, notamment en adoptant la règle de Calvo (1993), selon laquelle, durant chaque période, seule une fraction des entreprises sont à même de modifier leurs prix.

Si les modèles de cycle d'affaires réels constituent la première génération de modèles DSGE à proprement parler, les modèles de la deuxième génération, ceux qui se sont développés à partir des années quatre-vingt-dix, sont qualifiés de « nouveaux keynésiens ». Dans leur version de base, ces derniers reposent typiquement sur trois relations clés. Premièrement, ils intègrent une équation (rappelant la relation IS, mais dynamique) faisant dépendre l’écart de production (output gap) actuel avec, d’une part, l’écart de production anticipé et, d’autre part, l’écart entre le taux d’intérêt réel et le taux d’intérêt naturel. Deuxièmement, ils intègrent ce que l’on qualifie de « courbe de Phillips nouvelle keynésienne » qui fait dépendre l’inflation courante, d’une part, de l’inflation anticipée et, d’autre part, de l’écart de production. Troisièmement, ils incluent une règle de taux d’intérêt, souvent une règle de Taylor (1993), qui décrit comment est fixé le taux d’intérêt nominal, en fonction du taux d’inflation courant et de l’écart de production. Avec ces trois relations, la politique monétaire n’est pas neutre. En effet, comme les prix sont visqueux à court terme, un resserrement de la politique monétaire se traduit par une hausse des taux d’intérêt nominaux et réels. Comme seule une fraction des entreprises peut baisser ses prix, les autres réagissent en réduisant leur production, ce qui se traduit au niveau agrégé par une baisse de la production et un ralentissement de l’inflation. Ainsi, ce type de modèles est qualifié de « nouveau keynésien » précisément parce que la politique monétaire y présente des effets réels et non plus seulement nominaux. Cette étiquette est toutefois quelque peu trompeuse : le résultat correspond davantage à l’optique friedmanienne qu’à celle keynésienne.

Les modèles DSGE se sont très rapidement répandus. Lorsque la crise financière mondiale a éclaté, ils étaient assez largement utilisés dans le monde universitaire et au sein des banques centrales, notamment pour analyser les fluctuations de l’activité et l’inflation ou encore pour évaluer et prévoir l’impact des politiques conjoncturelles sur celles-ci. Ils ont fait l'objet de nombreuses critiques dans le sillage de la crise, dans la mesure où ils n’ont pas permis à leurs concepteurs de prévoir cette dernière [Blanchard, 2017 ; Stiglitz, 2017]. L’échec des modèles DSGE à anticiper cet événement s’explique par leur tendance à ignorer la sphère financière et par l’irréalisme de certaines de leurs hypothèses, notamment celles des anticipations rationnelles, de l’information parfaite et de l’agent représentatif. La crise n’a toutefois pas conduit à l’abandon des modèles DSGE : leurs concepteurs ont réagi en étendant leurs modèles, par exemple en y intégrant davantage de « frictions financières », et en modifiant leurs hypothèses de base. Ce sont ces récents développements que trois analyses ont passés en revue : Lawrence Christiano, Martin Eichenbaum et Mathias Trabandt (2018) se sont penchés sur l’ensemble des modèles DSGE ; Jordi Galí (2018) s’est focalisé sur leurs variantes « nouvelles keynésiennes » ; enfin, Mark Gertler et Simon Gilchrist (2018) ont montré comment ils ont cherché à mieux prendre en compte la sphère financière.

Avant la crise financière mondiale, les modèles nouveaux keynésiens avaient tendance à ignorer la contrainte qu’exerce la borne inférieure zéro (zero lower bound) sur la politique monétaire : cette dernière semblait ainsi capable de contrer n’importe quel choc de demande, ce qui confirmait aux yeux de certains que la politique budgétaire n’avait pas à être utilisée pour stabiliser l’activité. Or, lors de la Grande Récession, les banques centrales ont fortement réduit leurs taux directeurs sans pour autant ramener rapidement l’économie au plein emploi. Cela suggérait pour certains que le choc avait été si puissant que le taux d’intérêt naturel avait été poussé en territoire négatif. Or, la borne inférieure empêchant les banques centrales de ramener les taux à leur niveau naturel, la politique monétaire se retrouvait alors incapable de clore l’écart de production. Dans une telle situation de trappe à liquidité, l’écart de production constitue une source persistante de déflation, or les pressions déflationnistes accroissent le taux d’intérêt réel, ce qui éloigne davantage la production de son niveau potentiel et l’économie du plein emploi, aggravant la récession initiale. L’expérience du Japon lors des années quatre-vingt-dix avec ce qui s’apparentait à une trappe à liquidité avait toutefois amené plusieurs nouveaux keynésiens, notamment Gauti Eggertsson et Michael Woodford (2003), à prendre en compte la borne inférieure zéro et à en déduire la politique optimale. La Grande Récession a donné un nouvel essor à ce type de travaux.

Les travaux sur la borne inférieure zéro ont notamment conduit à réévaluer le rôle de la politique budgétaire. Lors d’une récession, une relance budgétaire risque d’être peu efficace si la banque centrale resserre parallèlement sa politique monétaire pour en compenser les éventuels effets inflationnistes, mais si le taux bute sur sa borne inférieure et, par conséquent, si la politique monétaire est excessivement restrictive (c’est-à-dire insuffisamment expansionniste pour ramener l’économie au plein emploi), alors la banque centrale ne relèvera pas son taux directeur face à la relance budgétaire. Par exemple, Gauti Eggertsson (2011) a montré que lorsqu’un choc de demande négatif pousse le taux d’intérêt naturel en territoire négatif, une hausse des dépenses publiques stimule l’activité, tandis qu’une baisse des impôts sur les revenus du travail ou du capital tend au contraire à nuire à celle-ci ; en effet, une baisse des impôts, tout comme d’autres politiques d’offre, alimente les pressions déflationnistes, ce qui pousse le taux d’intérêt réel à la hausse et déprime davantage la demande. Christiano et alii (2011) ont quant à eux cherché à déterminer la taille du multiplicateur des dépenses publiques en fonction de la borne inférieure zéro. Leur modèle DSGE suggère que le multiplicateur est d’autant plus élevé que les agents s’attendent à ce que la borne inférieure contraindra longuement la politique monétaire.

Les modèles DSGE se focalisent habituellement sur un agent représentatif immortel, censé mimer le comportement de l’ensemble des agents économiques. Une telle hypothèse est bien problématique : elle ne permet pas de concevoir la coexistence d’emprunteurs et de prêteurs, de prendre en compte l’impact des inégalités… ce qui les empêche d’expliquer l’accumulation des déséquilibres qui ont donné lieu à la crise financière et les conséquences de celle-ci. Leurs récentes versions ont commencé à tenir compte de l’hétérogénéité des agents. Les récents modèles DSGE, en l’occurrence ceux estampillés « modèles HANK » ont davantage pris en compte l’hétérogénéité des agents. Ils ont notamment supposé, d’une part, que les agents essuyaient des chocs idiosyncratiques et, d’autre part, qu’ils faisaient face à une limite en termes d’emprunt, si bien qu’ils ne peuvent pleinement s’assurer contre les chocs idiosyncratiques. Par conséquent, les agents ont beau être identiques avant que le choc se produise, ils peuvent présenter différentes propensions à consommer après celui-ci. Ainsi, en fonction de l’impact du choc sur la répartition des revenus et des richesses, les effets de ce choc sur l’activité peuvent aussi bien être amplifiés qu’atténués. Par exemple, la prise en compte de l’hétérogénéité des agents a permis à Adrien Auclert (2017) et à Kaplan et alii (2018) de mieux identifier les canaux via lesquels la politique monétaire se transmet à l’activité. En partant de l’hypothèse qu’une partie des ménages étaient susceptibles d’être contraints en termes de liquidité, Galí et alii (2007) ont de leur côté montré que de telles contraintes amplifiaient l’impact des dépenses publiques sur le PIB.

Pour Galí (2018), l’hypothèse de l’agent représentatif à durée de vie infinie pose deux autres problèmes. D’une part, elle implique un lien étroit entre taux d’intérêt réel et taux d’escompte temporel du consommateur le long d’une trajectoire de croissance équilibrée, or une telle relation ne permet pas de rendre compte de la possibilité d’un taux d’intérêt naturel durablement négatif. D’autre part, cette hypothèse ne permet pas non plus de rendre compte de la possibilité de bulles rationnelles à l’équilibre. Par conséquent, plusieurs nouveaux keynésiens ont cherché à développé des modèles à générations imbriquées qui comportent des rigidités nominales. C’est par exemple le cas d’Eggertsson et alii (2017), qui ont cherché à comprendre pourquoi le taux d’intérêt naturel a baissé dans l’économie américaine et à en déterminer les implications pour l’orientation de la politique monétaire. Dans deux modèles à générations imbriquées avec concurrence monopolistique et prix visqueux, Galí (2014, 2017) a de son côté montré que les bulles peuvent émerger comme équilibres ; ces deux modélisations suggèrent qu’il est plus efficace que les banques centrales se content de chercher à stabiliser la seule inflation plutôt qu’à chercher également à contrer le gonflement de bulles spéculatives. 

Malgré ces diverses avancées, Galí (2018) estime que les modèles DSGE ne parviennent toujours pas à saisir l’un des aspects cruciaux derrière les crises financières, en l’occurrence l’accumulation progressive de déséquilibres finissant par se dénouer avec une multiplication des défauts de paiement, une fuite des capitaux et un effondrement des prix d’actifs, puis par entraîner une chute de la demande, de la production et de l’emploi. Tout comme leurs prédécesseurs et notamment le modèle d’accélérateur financier de Bernanke et alii (1999), les récents modèles rendent compte de fluctuations stationnaires impulsées par des chocs exogènes : généralement, ils se contentent d’introduire des frictions financières qui amplifient les effets de chocs générés en dehors de la sphère financière. Autrement dit, les modèles DSGE n’expliquent la crise financière que comme résultant d’un choc exogène surprenant les agents. Leurs plus récentes variantes n’ont pas réussi à faire émerger de façon endogène les crises financières.

 

Références

AUCLERT, Adrien (2017), « Monetary policy and the redistribution channel », NBER, working paper, n° 23451.

BERNANKE, Ben S., Mark GERTLER & Simon GILCHRIST (1999), « The financial accelerator in a quantitative business cycle framework », in John B. Taylor & Michael Woodford (dir.), Handbook of Macroeconomics, vol. 1C, Elsevier.

BLANCHARD, Olivier (2017), « Sur les modèles macroéconomiques », in Revue de l’OFCE, n° 153.

CALVO, Guillermo (1983), « Staggered prices in a utility maximizing framework », in Journal of Monetary Economics, vol. 12.

CHRISTIANO, Lawrence, Martin EICHENBAUM & Sergio REBELO (2011), « When is the government spending multiplier large? », in Journal of Political Economy, vol. 119, n° 1.

CHRISTIANO, Lawrence J., Martin S. EICHENBAUM & Mathias TRABANDT (2018), « On DSGE models », NBER, working paper, n° 24811, juillet.

EGGERTSSON, Gauti (2011), « What fiscal policy is effective at zero interest rates? », in NBER Macroeconomics Annual, vol. 2010.

EGGERTSSON, Gauti, Neil MEHROTA & Jacob ROBBINS (2017), « A model of secular stagnation: Theory and quantitative evaluation », NBER, working paper, n° 23093.

EGGERTSSON, Gauti, & Michael WOODFORD (2003), « The zero bound on interest rates and optimal monetary policy », in Brookings Papers on Economic Activity, vol. 2003, n° 1.

GALÍ, Jordi (2014), « Monetary policy and rational asset price bubbles », in American Economic Review, vol. 104, n° 3.

GALÍ, Jordi (2017), « Monetary policy and bubbles in a new Keynesian model with overlapping generations », CREI, working paper,

GALÍ, Jordi (2018), « The state of new Keynesian economics: A partial assessment », NBER, working paper, n° 24845, juillet.

GALÍ, Jordi , J David LÓPEZ-SALIDO & Javier VALLÉS (2007), « Understanding the effects of government spending on consumption », in Journal of the European Economic Association, vol. 5, n° 1.

GERTLER, Mark, & Simon GILCHRIST (2018), « What happened: Financial factors in the Great Recession », NBER, working paper, n° 24746.

GOODFRIEND, Marvin, & Robert G. KING (1997), « The new neoclassical synthesis and the role of monetary policy », in NBER Macroeconomics Annual 1997, vol. 12.

KAPLAN, Greg, Benjamin MOLL & Giovanni L. VIOLANTE (2018), « Monetary policy according to HANK », in American Economic Review, vol. 108, n° 3.

STIGLITZ, Joseph E. (2017), « Where modern macroeconomics went wrong », NBER, working paper, n° 23795.

TAYLOR, John B. (1993), « Discretion versus policy rules in practice », Carnegie-Rochester Series on Public Policy, vol. 39.

Partager cet article
Repost0
11 juillet 2018 3 11 /07 /juillet /2018 10:28
Gordon et l’hypothèse du taux de chômage naturel

Il y a soixante ans, Albin W. Phillips (1958) décelait une relation décroissante entre variation des salaires et taux de chômage en étudiant près d’un siècle de données empiriques relatives à l’économie britannique : plus le taux de chômage augmentait, moins les salaires augmentaient rapidement. En faisant l’hypothèse d’une croissance de la productivité constante, les keynésiens en déduisaient une relation décroissante entre inflation et taux de chômage : plus le taux de chômage augmente, moins les prix auraient tendance à augmenter, ce qui amena Paul Samuelson et Robert Solow (1960) à suggérer que les autorités monétaires pouvaient choisir un « menu » entre inflation et chômage. Les keynésiens adoptèrent ainsi la courbe de Phillips, non seulement parce qu’elle leur permit de confirmer l’idée de rigidité des salaires et de dynamiser leur cadre théorique en reliant l’évolution du chômage à celle des prix, mais aussi parce qu’ils pouvaient ainsi continuer de justifier l’adoption de politiques conjoncturelles : il suffisait a priori que les autorités laissent l’inflation s’accélérer pour réduire le chômage.

Lors de son allocution présidentielle à l’American Economic Association, le monétariste Milton Friedman (1968) assena il y a un demi-siècle ce qui semble être le premier coup sérieux porté au keynésianisme en avançant l’hypothèse du taux de chômage naturel. A court terme, il y a effectivement une courbe de Phillips, c’est-à-dire une relation décroissante entre inflation et chômage : une accélération de l’inflation réduit le chômage en amenant les travailleurs à  sous-estimer leur pouvoir d’achat, si bien que leurs salaires réels diminuent et que les entreprises sont incitées à accroître leur demande de travail. Mais une fois que les travailleurs ont pris conscience de leur erreur et qu’ils corrigent en conséquence leurs anticipations, ils réclament une hausse de leurs salaires nominaux, si bien que les entreprises réduisent leur demande de travail et le chômage revient à son niveau initial, celui-là même que Friedman qualifie de « naturel », mais l’inflation reste supérieure à ce qu’elle était initialement : c’est l’hypothèse accélérationniste. A long terme, la courbe de Phillips serait donc verticale : qu’importe le niveau d’inflation, le taux de chômage est à son niveau naturel. Friedman en concluait que la politique monétaire était neutre à long terme : elle ne peut durablement réduire le chômage en-deçà de son niveau naturel (à moins de générer une inflation insoutenable) et ce d’autant plus que ce dernier est déterminé par des facteurs du côté de l’offre.

Cette première attaque lancée contre la citadelle keynésienne ouvrit la voie à un second assaut, mené cette fois-ci par les nouveaux classiques. Robert Lucas et ses adeptes affirmèrent que la courbe de Phillips était verticale aussi bien à long terme qu’à long terme : dès lors que les agents ont des anticipations rationnelles, ils ne se trompent dans leurs anticipations d’inflation que si des chocs aléatoires touchent la politique monétaire. Même si les nouveaux classiques délaissent la question du chômage, les enseignements tirés de leurs modélisations sont clairs : le chômage en vigueur ne serait autre qu’un chômage naturel et ne pourrait donc refluer qu’à travers l’adoption de politiques structurelles. De leur côté, des keynésiens comme Robert Solow et James Tobin cherchèrent à répliquer, mais cela n’empêcha pas le concept de taux de chômage d’équilibre d’être largement accepté dans la profession, au point que, très rapidement, même des keynésiens comme Rudiger Dornbusch et Stanley Fischer ou Robert J. Gordon (1978) évoquèrent la courbe de Phillips verticale dans leurs manuels de macroéconomie respectifs. 

Plusieurs historiens de la pensée ont remis en question le récit habituellement fait de la diffusion de l’hypothèse du taux de chômage naturel [Cherrier et Goutsmedt, 2017]. Par exemple, James Forder (2014) a noté que Samuelson et Solow avaient eux-mêmes remarqué que la courbe de Phillips était instable et conclu que les autorités monétaires ne pouvaient s’appuyer dessus de façon assurée. Ainsi, Friedman aurait délibérément passé sous silence ces réserves lors de son allocution présidentielle. Récemment, Aurélien Goutsmedt et Goulven Rubin (2018) ont noté que ce ne sont pas les monétaristes et les nouveaux classiques qui contribuèrent le plus à la diffusion du concept de chômage naturel, mais les keynésiens eux-mêmes. 

Pour comprendre pourquoi et comment les keynésiens ont pu reprendre un concept qui avait initialement été introduit pour les ébranler, Goutsmedt et Rubin se alors sont concentrés sur la trajectoire intellectuelle de l’un d’entre eux, en l’occurrence Robert Gordon, l’économiste du MIT qui gagna en célébrité ces dernières années de ce côté-ci de l’Atlantique avec sa thèse d’une « fin de la croissance ».

Au début des années soixante-dix, Gordon s’opposait à l’hypothèse du taux de chômage naturel au motif qu’elle ne serait pas vérifiée par les données empiriques : les estimations que Solow (1969) (son directeur de thèse) et lui-même avaient réalisées chacun de leur côté indiquaient que le paramètre associé à l’inflation anticipée était inférieur à l’unité, ce qui suggérait que l’inflation ne s’ajustait pas totalement par rapport aux salaires. Gordon (1971a, 1971b) en concluait que la thèse accélérationniste de Friedman n’était pas valide et qu’il y avait bien un arbitrage entre inflation et chômage à long terme. Pour autant, il ne pensait pas que la courbe de Phillips était stable : comme Samuelson et Solow, il estimait qu’elle était susceptible de se déplacer, aussi bien à gauche qu’à droite. Ainsi, pour expliquer l’accélération de l’inflation que connaissait alors l’économie américaine, Gordon privilégiait l’explication qu’avançait George Perry (1970) : les pressions inflationnistes résulteraient des changements dans la composition de la population active, notamment avec l’arrivée massive des femmes et des jeunes sur le marché du travail dans les années soixante, qui aurait déplacé la courbe de Phillips sur la droite.

La conversion de Gordon commença vers 1972. Cette année-là, il introduisit un modèle intermédiaire incorporant un taux de chômage naturel au-delà d’un certain niveau d’inflation, mais où la pente de la courbe de Phillips à long terme était variable en-deçà de ce seuil, tout en soulignant que l’approche accélérationniste n’était pas valide dans le cadre d’une déflation. A partir de 1973, les nouvelles données empiriques amènent peu à peu Gordon à adopter l’hypothèse du taux de chômage naturel : au fil des années, la pente de la courbe de Phillips à long terme, telle qu’elle se dessinait à travers les données, se rapprochait de la verticale. En 1977, Gordon indiqua explicitement avoir adopté l’hypothèse du taux de chômage naturel. En 1978, dans son manuel, il abandonna son modèle intermédiaire en proposant un modèle plus simple, sûrement pour des raisons pédagogiques. 

La critique du nouveau classique Thomas Sargent (1971) a sûrement contribué à convaincre Gordon d’utiliser une courbe de Phillips verticale à long terme. Mais si cette critique montra que les tests utilisés par les keynésiens ne pouvaient pas rejeter l’hypothèse du taux de chômage naturel, ils ne la validaient pas non plus. Goutsmedt et Rubin notent que Gordon a adopté l’hypothèse du taux de chômage nature alors même que les données empiriques ne suggéraient toujours pas que le paramètre estimé sur l’inflation anticipée était proche de l’unité. Pour eux, le revirement de Gordon s’explique essentiellement par deux choses. D’une part, celui-ci subit directement l’influence de Friedman, qu’il côtoya à l’Université de Chicago. D’autre part, l’adoption de l’hypothèse du taux de chômage naturel ne l’empêchait pas de justifier l’adoption de politiques conjoncturelles en vue de stabiliser l’activité. En effet, il l’introduisit dans un modèle de concurrence imparfaite où les rigidités salariales empêchaient l’apurement des marchés et faisaient apparaître du chômage involontaire.

Ainsi, la diffusion du concept de taux de chômage naturel ne semble pas avoir été synonyme de défaite pour les keynésiens. Quelques décennies plus tôt, plusieurs d’entre eux cherchaient déjà à donner des fondements microéconomiques à la macroéconomie keynésienne. Don Patinkin (1956) tenta notamment de montrer que le keynésianisme n’était pas incompatible avec l’hypothèse d’un auto-ajustement de l’économie ; par contre, il estimait que le retour vers le plein-emploi était tellement lent que cela justifiait l’usage des politiques conjoncturelles pour stabiliser l’activité. Le raisonnement de Gordon était à peine différent : le taux de chômage tend peut-être vers son niveau naturel, mais il le fait si lentement que l’assouplissement des politiques conjoncturelles apparaît nécessaire. Mais alors que les keynésiens comme Patinkin jugeaient que la relance budgétaire était plus efficace que l’assouplissement monétaire, les nouveaux keynésiens comme Gordon jugent au contraire que cette dernière est plus efficace que la première pour éliminer la composante conjoncturelle du chômage.

Pour conclure, Goutsmedt et Rubin soulignent à quel point le récit habituellement fait des débats autour de la courbe de Phillips lors des années soixante-dix ignore la richesse des échanges et en particulier des réactions de la part des keynésiens. Les travaux empiriques que ces derniers réalisaient à l’époque constataient que le coefficient associé aux anticipations d’inflation était variable, si bien qu’ils concluaient que la courbe de Phillips à long terme était susceptible de varier. La conversion de Gordon et des autres keynésiens n’a pas été sans coûts. Si Gordon n’avait pas abandonné son modèle à coefficient variable et si ce dernier avait été largement diffusé, les économistes n’auraient pas été surpris par l’absence d’inflation lors de la Grande Récession. Les dernières modélisations ont cherché à estimé le paramètre sur les anticipations d’inflation au lieu de considérer qu’elle est égale à l’unité. Elles trouvent une faible élasticité de l’inflation courante vis-à-vis de l’inflation passée, ce qui amène certains comme Olivier Blanchard (2016) à se demander si’ l’économie américaine ne s’est pas libérée de la « malédiction accélérationniste ». 

 

Références

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

CHERRIER, Beatrice, & Aurélien GOUTSMEDT (2017), « The making and dissemination of Milton Friedman’s 1967 AEA presidential address », in The Undercover Historian (blog), le 27 novembre. Traduction française, « L’élaboration et la réception du discours présidentiel de Friedman », in Annotations (blog).

DORNBUSCH, Rudiger, & Stanley FISCHER (1978), Macroeconomics, McGraw-Hill Companies.

FORDER, James (2014), Macroeconomics and the Phillips Curve Myth, Oxford University Press.

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58, n° 1.

GORDON, Robert J. (1971a), « Inflation in recession and recovery », in Brookings Papers on Economic Activity, vol. 1971, n° 1.

GORDON, Robert J. (1971b), « Steady anticipated inflation: Mirage or oasis? », in Brookings Papers on Economic Activity, vol. 1971, n° 2.

GORDON, Robert J. (1972), « Wage-price controls and the shifting Phillips curve », in Brookings Papers on Economic Activity, vol. 1972, n° 2.

GORDON, Robert J. (1977), « Can the inflation of the 1970s be explained? », in Brookings Papers on Economic Activity, vol. 1977, n° 1.

GORDON, Robert J. (1978), Macroeconomics, Little, Brown and Company.

GOUTSMEDT, Aurélien, & Goulven RUBIN (2018), « Robert J. Gordon and the introduction of the natural rate hypothesis in the Keynesian framework », Centre d’Economie de la Sorbonne, document de travail, n° 2018.13.

PATINKIN, Don (1956), Money, Interest and Prices.

PERRY, George L. (1970), « Changing labor markets and inflation », in Brookings Papers on Economic Activity, vol. 1970, n° 3.

PHILLIPS, Albin William (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861–1957 », in Economica, vol. 25, n° 100. 

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

SARGENT, Thomas J. (1971), « A note on the “accelerationist” controversy », in Journal of Money, Credit and Banking, vol. 3, n° 3.

SOLOW, Robert M. (1969), Price Expectations and the Behavior of the Price Level, Manchester University Press.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher