Overblog
Suivre ce blog Administration + Créer mon blog
17 décembre 2017 7 17 /12 /décembre /2017 21:25
L’intelligence artificielle et le nouveau paradoxe de la productivité

L’économie américaine (pour ne pas dire l’essentiel des pays développés) présente une situation paradoxale. D’un côté, les systèmes utilisant une intelligence artificielle égalent ou surpassent déjà les capacités humaines dans des domaines toujours plus nombreux, ce qui permet de nouvelles avancées dans d’autres secteurs. On devrait par conséquent s’attendre à une poursuite, voire à une accélération, de la croissance de la productivité et donc des niveaux de vie. Une telle prévision optimiste, promesse d’une hausse soutenue des profits, contribue d’ailleurs sûrement à soutenir les cours boursiers. Pourtant, la croissance de la productivité mesurée a été divisée par deux au cours de la dernière décennie. Ce ralentissement, qui s’est amorcé avant qu’éclate la crise financière mondiale, est un phénomène généralisé : il a initialement touché les pays développés, puis les grands pays émergents. Il contribue par conséquent à contenir la hausse des niveaux de vie : par exemple, la majorité des Américains ont vu leur revenu réel stagné depuis la fin des années quatre-vingt-dix.

Bref, nous nous retrouvons face à une variante du paradoxe de la productivité mis en avant par Robert Solow (1987) : nous voyons partout les nouvelles technologies, sauf dans les statistiques de productivité. Erik Brynjolfsson, Daniel Rock et Chad Syverson (2017) en ont proposé quatre explications possibles.

Selon une première explication, l’optimisme que suscitent les nouvelles technologies est tout simplement infondé. Celles-ci ont peut-être des effets visibles sur certains secteurs en particulier, mais il est possible que leurs effets au niveau agrégé soient diffus. Si c’est effectivement le cas, l’optimisme risque de ne pas perdurer et de laisser place à la seule déception. Une telle révision des anticipations se traduira alors par une chute des valeurs boursières.

Selon une deuxième explication, avancée notamment par Joel Mokyr (2014), il est possible que la croissance de la productivité soit restée soutenue, voire ait accélérée, mais que cela ait échappé aux indicateurs. Bref, le ralentissement de la productivité que l’on a observé cette dernière décennie est peut-être illusoire ; la population tire peut-être davantage de gains des nouvelles technologies qu’on ne le pense. Cela s’expliquerait par le fait que les indicateurs habituels ne sont pas adaptés pour mesurer la valeur ajoutée des récentes innovations. Par exemple, les consommateurs passent une grande partie de leur temps sur leurs smartphones et les réseaux sociaux en ligne, mais comme ces innovations ont un coût monétaire relativement faible, elles  représentent une faible part du PIB relativement à l’utilité qu’elles procurent. Pourtant, plusieurs études, notamment celles de Roberto Cardarelli et Lusine Lusinyan (2015), Chad Syverson (2016) et David Byrne et alii (2016) suggèrent que les problèmes de mesure ne peuvent être la principale explication derrière le ralentissement de la croissance de la productivité : après tout, le PIB ne reflète peut-être pas tous les bénéfices des technologies actuelles, mais il ne reflétait peut-être pas non plus tous les bénéfices des technologies passées.

Selon une troisième explication, les nouvelles technologies génèrent peut-être déjà de nombreux gains, mais ces derniers pourraient être captés par une fraction de l’économie, si bien que leurs effets sur la croissance de la productivité moyenne est faible au niveau agrégé et qu’ils sont nuls pour le travailleur médian. La nature rivale des nouvelles technologies pourrait entraîner une sorte de « ruée vers l’or » à travers laquelle les compétiteurs adoptent des pratiques pour obtenir les gains ou en bloquer l’accès aux autres, c’est-à-dire des pratiques nuisibles pour le reste de l’économie, qui annulent au niveau agrégé les bénéfices des innovations. Une telle hypothèse est cohérente avec plusieurs constats empiriques : les écarts de productivité entre les entreprises les plus avancées et les entreprises moyennes semblent s’être creusés au sein de chaque secteur ces dernières années ; une poignée de « firmes superstars » capte une part de marché de plus en plus grande (Autor et alii, 2017), etc. Certains, comme Jan De Loecker et Jan Eeckhout (2017) ou Germán Gutiérrez et Thomas Philippon (2017), s’inquiètent ainsi de voir la hausse de la concentration dans les différents secteurs et la perturbation résultante du pouvoir de marché des différents agents entraîner des pertes de bien-être au niveau agrégé. En outre, notamment pour cette raison, le revenu total continue peut-être d’augmenter, mais le revenu moyen stagne avec l’accroissement des inégalités.

Selon une quatrième explication, les espoirs ne sont peut-être pas trop optimistes et les indicateurs statistiques n’ont peut-être pas tort : il se pourrait que les gains tirés des nouvelles technologies soient réels et massifs, mais qu’ils ne se sont pas encore manifestés. D’une part, il est possible qu’il faille beaucoup de temps avant que le stock de nouvelles technologies ait atteint une taille suffisante pour déployer tous leurs effets. D’autre part, il est possible que des investissements connexes soient nécessaires pour que le potentiel de ces technologies se concrétise et qu’il faille du temps pour identifier et mettre en œuvre ces investissements. C’est peut-être surtout des investissements dans des actifs intangibles et non des actifs physiques que les nouvelles technologies nécessitent : l’acquisition de certaines compétences, une refonte de l’organisation du travail, etc. En fait, il se pourrait que le délai soit d’autant plus long que la technologie est susceptible de bouleverser l’économie.

Même si les autres explications sont plausibles et cohérentes avec certaines preuves empiriques, c’est la dernière que Brynjolfsson et ses coauteurs privilégient. La (faiblesse de la) croissance actuelle de la productivité n’indique en rien quel sera le rythme de sa croissance future : la croissance de la productivité au cours d’une décennie n’a pas de significatif pouvoir prédictif pour celle de la décennie suivante. Dans la mesure où la croissance de la productivité totale des facteurs est « une mesure de notre ignorance », il n’est pas étonnant que ce résidu ne puisse être prévu à partir de ses valeurs passées.

 

Références

AUTOR, David, David DORN, Lawrence F. KATZ, Christina PATTERSON & John VAN REENEN (2017), « Concentrating on the fall of the labor share », NBER, working paper, n° 23108.

BRYNJOLFSSON, Erik, Daniel ROCK & Chad SYVERSON (2017), « Artificial intelligence and the modern productivity paradox: A clash of expectations and statistics », NBER, working paper, n° 24001, novembre.

BYRNE, David M., John G. FERNALD & Marshall B. REINSDORF (2016), « Does the United States have a productivity slowdown or a measurement problem? », Brookings Papers on Economic Activity.

CARDARELLI, Roberto, & Lusine LUSINYAN (2015), « U.S. total factor productivity slowdown: Evidence from the U.S. states », FMI, working paper, n° 15/116, mai.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687, août.

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2016), « Investment-less growth: An empirical investigation », NBER, working paper, n° 22897, décembre.

MOKYR, Joel (2014), « Secular stagnation? Not in your life », in voxEU.org, 11 août.

SOLOW, Robert (1987), « We'd better watch out », in New York Times Book Review.

SYVERSON, Chad (2016), « Challenges to mismeasurement explanations for the U.S. productivity slowdown », NBER, working paper, n° 21974, février.

Partager cet article
Repost0
10 décembre 2017 7 10 /12 /décembre /2017 18:16
Le capitalisme, les inégalités et la Première Guerre mondiale

Plusieurs publications, notamment les travaux de Thomas Piketty, ont récemment souligné le rôle que les conflits modernes ont pu jouer dans la réduction des inégalités de revenu et de patrimoine en particulier dans la première moitié du vingtième siècle : cette réduction serait en l’occurrence passée par la destruction des actifs physiques, notamment des logements, par la hausse des impôts en vue de financer la guerre, par l’hyperinflation et par la nationalisation de la propriété. Si les origines de la Première Guerre mondiale font actuellement l’objet de nombreuses publications, peu d’entre elles évoquent la possibilité que la causalité puisse aller dans l’autre sens, c’est-à-dire que la hausse des inégalités de revenu et de richesses ait pu être à l’origine du conflit.

Pourtant, plusieurs travaux en économie ont pu affirmer par le passé, notamment avant même le début du conflit, que les forces économiques qui étaient alors à l’œuvre rendaient celui-ci inévitable. C’est le cas de l’ouvrage de John Hobson (1902). Selon ce dernier, les inégalités de revenu dans les pays développés capitalistes, en particulier en Angleterre, avaient pour contrepartie une tendance séculaire à la sous-consommation. Comme les plus modestes et les classes moyennes manquaient de pouvoir d’achat, ces économies généreraient un excès d’épargne relativement aux investissements rentables qui existaient en leur sein. Les propriétaires de capital financier ont alors cherché des débouchés plus profitables pour leurs investissements et ils les trouvèrent à l’étranger, là où la productivité marginale du capital était plus forte, en raison même du manque local de capital : soit ils prêtèrent aux gouvernements étrangers en achetant leurs titres, soit ils procédèrent à des investissements directs à l’étranger. Aucun de ces investissements n’était toutefois sûr dans la mesure où ils étaient réalisés dans des territoires éloignés où, de surcroît, les droits de propriété étaient moins protégés que dans les pays développés. Les capitalistes ont donc cherché à sécuriser leurs investissements en s’appuyant sur le pouvoir étatique, soit en menaçant les gouvernements étrangers de l’usage de la force militaire s’ils ne remboursaient pas leur dette, soit en conquérant directement les territoires pour y faire appliquer les règles de la métropole, notamment en matière de droit de propriété.

L’analyse de Hobson inspira, dans les deux décennies qui suivirent sa publication, de nombreuses analyses, souvent d’obédience marxiste. Vladimir Lénine (1917) estimait que c’était la chute tendancielle du taux de profit dans les économies avancées du monde capitaliste, davantage que la répartition inégalitaire des revenus, qui était à l’origine de la quête de marchés étrangers. Rudolf Hilferding (1910) a suggéré que la baisse tendancielle du taux de profit se traduisait par la consolidation des marchés nationaux et par l’apparition de cartels domestiques qui tiraient leur profit en obtenant des tarifs protectionnistes sur des territoires périphériques toujours plus larges, ce qui générait en retour une demande pour le centre. Pour sa part, Rosa Luxembourg (1913) estimait que, dans la mesure où le capitalisme ne parvenait pas à écouler la totalité des biens produits de façon rentable en raison du manque de demande de la part des plus pauvres, il devait rechercher en permanence et conquérir des marchés non capitalistes à l’étranger ; autrement dit, elle considérait que la survivance de territoires dotés d’un régime précapitaliste était nécessaire à l’expansion du capitalisme.

Si la thèse selon laquelle la Première Guerre mondiale trouverait ses origines dans la propension du capitalisme à devenir impérialiste a continué de recevoir un certain écho par la suite, par exemple dans l’ouvrage de Samir Amin (1974), elle a par contre été délaissée par les économistes et les historiens ces dernières décennies. Branko Milanovic (2016) a quelque peu remis au goût du jour cette théorie en se focalisant sur le rôle que le niveau élevé des inégalités a pu jouer dans l’émergence du conflit. Selon l’explication endogène de la guerre qu’il a par là même avancée, la logique interne des sociétés capitalistes fortement inégalitaires au début du vingtième siècle prédisposèrent celles-ci à l’impérialisme et ce dernier provoqua la guerre.

Thomas Hauner, Branko Milanovic et Suresh Naidu (2017) ont cherché à juger de la pertinence de la thèse de Hobson-Lénine. Ils confirment tout d’abord que les inégalités s’élevaient à des niveaux historiquement élevés dans l’ensemble des pays avancés qui ont participé au conflit (cf. graphique 1). Par exemple, en Angleterre, aux Etats-Unis, aux Pays-Bas, au Japon et en Italie, le coefficient de Gini était compris entre 46 et 55 points. La Grande-Bretagne, qui constituait le pays le plus riche, était aussi, parmi cet ensemble de pays, le plus inégalitaire. Il n’est pas impossible que la répartition du revenu était au Royaume-Uni aussi inégalitaire qu’elle l’est actuellement en Amérique latine.

GRAPHIQUE 1  Les inégalités de revenu entre 1860 et 1910

La répartition du patrimoine était encore plus inégalitaire (cf. graphique 2. Au Royaume-Uni, les 1 % les plus riches détenaient environ 70 % de la richesse nationale et cette part est restée relativement stable sur un quart de siècle. En France, les 1 % les plus riches détenaient une moindre part de la richesse nationale, mais cette part a eu tendance à augmenter ; elle atteignait environ 55-56 % à la veille de la Première Guerre mondiale. La part de la richesse nationale détenue par les 1 % les plus riches était plus faible aux Etats-Unis que dans les pays européens ; elle s’élevait à environ 44 % à la veille du conflit.

GRAPHIQUE 2  La part de la richesse totale détenue par les 1 % les plus riches en France et au Royaume-Uni (en %)

Hauner et ses coauteurs ont décelé d’autres preuves empiriques confortant la thèse de Hobson-Lénine. Par exemple, les détentions nettes d’actifs étrangers ont augmenté, de façons absolue et relative, à la veille du conflit, mais aussi que ces actifs étaient presque entièrement détenus par les plus aisés ; les rendements étrangers apparaissent plus élevés que les rendements domestiques, une fois qu’on les ajuste en fonction du risque, ce qui explique pourquoi les plus riches étaient incités à investir à l’étranger ; l’établissement d’un contrôle politique direct diminuait le degré de risque des actifs étrangers ; l’accroissement des inégalités était associé à une plus grande part des actifs étrangers dans le PIB ; les pays qui possédaient le plus d’actifs étrangers, en pourcentage de leur PIB, disposaient des plus grandes armées. Bref, tous les ingrédients pour qu’éclate le conflit étaient en place et étaient clairement associés à une logique économique. Surtout, les ingrédients des guerres semblent effectivement résidaient au sein même des sociétés capitalistes : les inégalités domestiques sont susceptibles d’alimenter les guerres à l’étranger.

 

Références

AMIN, Samir (1974), L’Accumulation à l’échelle mondiale.

HAUNER, Thomas, Branko MILANOVIC & Suresh NAIDU (2017), « Inequality, foreign investment, and imperialism », MPRA, paper, n° 83068.

HILFERDING, Rudolf (1910), Le Capital financier.

HOBSON, John A. (1902), Imperialism: A Study.

LENINE, Vladimir (1917), L’Impérialisme, stade suprême du capitalisme.

LUXEMBURG, Rosa (1913), L’Accumulation du capital.

MILANOVIC, Branko (2016), Global Inequality: A New Approach For the Age of Globalization, Harvard University Press.

Partager cet article
Repost0
25 novembre 2017 6 25 /11 /novembre /2017 20:53
Quel est l’héritage du discours présidentiel de Friedman ?

L’article de Milton Friedman (1968), « The role of monetary policy », qui reprend un discours qu’il avait prononcé l’année précédente lors de son investiture en tant que président l’American Economic Association, a beau ne tenir que sur 17 pages, il a eu un énorme impact aussi bien au niveau théorique, sur le paysage de la macroéconomie et la lutte entre les différentes écoles de pensée, que dans le domaine pratique, celui de la politique monétaire. Google Scholar recense plus de 7.500 citations de cet article. Il est certes moins cité que son livre Capitalisme et liberté, publié en 1962, mais il est aussi cité que le célèbre livre qu’il a coécrit avec Anna Schwartz et publié en 1963, Une Histoire monétaire des Etats-Unis.

Greg Mankiw et Ricardo Reis (2017) sont récemment revenus sur l’importance de cette allocution, un demi-siècle après son occurrence. Ils rappellent tout d’abord son contexte, celui d’un keynésianisme triomphant. La Grande Dépression avait fortement déstabilisé l’économie américaine, mais les analyses néoclassiques semblaient dans les années trente incapables d’expliquer sa sévérité. En publiant sa Théorie générale en 1936, Keynes a non seulement avancé une explication des fluctuations de l’activité, mais aussi montré pourquoi et comment les autorités pouvaient intervenir pour atténuer ces fluctuations : les récessions trouvent leur source dans une insuffisance de la demande globale, mais l’économie peut rester piégée dans une telle situation ; face à cette défaillance de marché, les autorités peuvent ramener l’économie au plein emploi en stimulant la demande globale.

Plusieurs économistes ont cherché à modéliser les idées de Keynes. John Hicks et Alvin Hansen contribuèrent notamment le modèle IS-LM (au prix de l’abandon de certaines intuitions de la Théorie générale), qui devint le cadre d’analyse privilégié pour comprendre l’action des politiques conjoncturelles. Il se focalisait toutefois sur le seul court terme en supposant une fixité des prix et sans expliquer celle-ci. Pendant longtemps, les keynésiens ont donc cherché à intégrer la dynamique des prix dans leur édifice théorique. C’est la courbe de Phillips qui fournit l’équation manquante : en décelant une relation inverse entre l’inflation salariale et le taux de chômage au Royaume-Uni, Alban W. Phillips (1958) a suggéré aux keynésiens qu’il existait une relation inverse entre inflation des prix et taux de chômage. Autrement dit, il semblait possible pour les autorités publiques de réduire le chômage en laissant l’inflation s’accroître, ou inversement.

C’est dans un article où ils se penchent sur les causes de l’inflation que Paul Samuelson et Robert Solow (1960) suggèrent que la courbe de Phillips offre des possibilités d’arbitrage entre inflation et chômage. Pour autant, ils soulignaient aussi que cette relation n’était pas stable au cours du temps. Ils décelaient plusieurs façons par lesquelles une économie à faible pression, marquée par une faible inflation et un chômage élevé, pouvait conduire à un déplacement de la courbe de Phillips. Ils ont anticipé non seulement l’idée d’une courbe de Phillips augmentée des anticipations en suggérant qu’une révision des anticipations pouvait déplacer la courbe de Phillips, mais aussi celle des effets d’hystérèse, en suggérant que la persistance d’une faible demande puisse se traduire par l’accroissement d’un chômage de nature structurelle, c’est-à-dire puisse accroître le taux de chômage associé à la stabilité des prix.

Les keynésiens ayant adopté la courbe de Phillips, c’est en remettant en cause cette dernière que Friedman (1968) espère faire effondrer l’édifice keynésien ; Samuelson et Solow avaient émis quelques réserves quant à la stabilité de la courbe de Phillips, mais Friedman les passa sous silence [Rubin, 2012]. Alors que Samuelson et Solow tendent à considérer le long terme comme une succession de situations de court terme, Friedman distingue court terme et long terme. Ce dernier apparaît dans son analyse comme le laps de temps où les principes de l’économie néoclassique sont vérifiés et où, notamment, la monnaie retrouve sa neutralité. Friedman réintroduit alors un concept essentiel de la Théorie générale que les keynésiens de la synthèse avaient eu tendance à négliger : les anticipations. Si la distinction entre court terme et long terme est importante dans sa critique de la courbe de Phillips, c’est notamment parce que les agents peuvent se tromper à court terme dans leurs anticipations. A long terme, par contre, les anticipations sont vérifiées.

Friedman suppose en l’occurrence que les travailleurs forment des anticipations adaptatives : ils déduisent de l’évolution passée de l’inflation le taux d’inflation future. Les entreprises connaissent le niveau général des prix, mais les ménages ne l’observent pas immédiatement, si bien qu’ils peuvent se tromper sur le niveau courant de l’inflation. Selon Friedman, c’est cette asymétrie d’informations et la nature adaptative des anticipations qui expliquent pourquoi il existe à court terme une courbe de Phillips, c’est-à-dire une possibilité d’arbitrage entre inflation et chômage, mais que cette relation disparaît à long terme. En l’occurrence, si la banque centrale assouplit sa politique monétaire pour réduire le taux de chômage, le taux d’inflation sera supérieur à celui qu’anticipent les travailleurs. Ces derniers vont considérer que la hausse des salaires nominaux correspond à une hausse des salaires réels : ils vont alors accroître leur offre de travail, ce qui réduira le chômage. Cette baisse du chômage est toutefois temporaire : les travailleurs vont finir par prendre conscience de leur erreur, c’est-à-dire comprendre que l’inflation a été plus importante qu’ils ne l’ont anticipé. Ils vont corriger leurs anticipations et réduire leur offre de travail, si bien qu’à long terme, le chômage retourne à son niveau initial, mais pas le taux d’inflation. Friedman qualifie ce taux de chômage incompressible du taux de chômage naturel ; il suppose que celui-ci est déterminé du côté de l’offre et c’est pour cette raison qu’il le juge insensible à la conjoncture. 

Friedman concluait de son analyse que la banque centrale ne peut durablement maintenir le chômage à un niveau inférieur à son niveau naturel, si ce n’est en générant un taux d’inflation toujours plus important, ce qui est insoutenable à long terme. Les événements donnèrent raison à Friedman face aux keynésiens : à partir des années soixante-dix, l’inflation ne cessait d’augmenter, sans pour autant que reflue le chômage. Le monétaire pensait en outre que la banque centrale ne peut pas non plus cibler un taux d’intérêt : comme nous ne pouvons savoir avec précision à quel niveau s’élève le taux d’intérêt naturel, le ciblage d’un taux d’intérêt risque également de pousser l’inflation hors de tout contrôle. Par contre, la banque centrale peut veiller à ce que la monnaie ne constitue pas une source de perturbations pour l’économie, comme elle le fut lors de la Grande Récession : la sévérité de cette dernière s’explique par l’incapacité de la Fed à contenir la contraction de la masse monétaire [Friedman et Schwartz, 1963]. L’objectif premier des banques centrales doit porter sur quelque chose qu’elles peuvent contrôler à long terme, en l’occurrence une variable nominale. Friedman considère alors trois candidats possibles : le taux de chômage nominal, le niveau des prix et les agrégats monétaires. Or, le taux de change n’est pas assez important dans la mesure où le commerce ne joue qu’un petit rôle dans l’économie américaine ; le niveau des prix est la plus importante des trois variables considérées, mais l’effet de la politique monétaire sur le niveau des prix est trop long et imprévisible, si bien que la politique monétaire risque d’amplifier les déséquilibres, plutôt que de les atténuer ; par conséquent, Friedman en conclut que la croissance régulière d’un certain agrégat monétaire constitue le meilleur point de départ pour la politique monétaire.

Les macroéconomistes sont aujourd’hui en désaccord avec ce dernier point. En effet, l’économie peut être sujette à des chocs aussi divers que des chocs pétroliers, des crises financières ou des esprits animaux changeants. Notamment pour cette raison, la banque centrale risque de ne pas réagir suffisamment face à un choc si elle se contente de maintenir un agrégat monétaire sur une trajectoire régulière. En outre, dans la mesure où les instruments financiers sont de plus en plus complexes, il est difficile de déterminer un indicateur approprié de la quantité de monnaie à cibler. La vitesse de circulation de la monnaie, que Friedman suppose stable, s’est au contraire révélée instable ces dernières décennies, si bien que le ciblage des agrégats monétaires s’est traduit par d’amples fluctuations des prix et des revenus.

Si les idées de Friedman ont eu un impact majeur sur la pratique de la politique monétaire, celui-ci n’a été que temporaire. Aujourd’hui, non seulement les grandes banques centrales ciblent l’inflation, mais elles ciblent en l’occurrence le même taux d’inflation (une inflation de 2 %). Cette pratique semble efficace, dans le sens où l’inflation annuelle est restée dans une bande comprise entre 0 et 4 % d’inflation. En outre, la macroéconomie moderne se focalise davantage sur le taux d’intérêt nominal, aussi bien en tant qu’instrument que comme guide pour juger de l’état de l’économie. Pour autant, beaucoup considèrent, comme Friedman, que les autorités doivent s’attacher à suivre une règle prédéfinie, mais c’est davantage en raison des problèmes d’incohérence temporelle mis en évidence par les nouveaux classiques, qu’en raison des arguments avancés par Friedman. Cela n’empêche pas les banques centrales d’adopter des mesures discrétionnaires : elles continuent à suivre les politiques contracycliques que Friedman jugeait vaines. Certes, en empêchant les faillites bancaires, la Réserve fédérale a montré qu’elle a bien saisi les enseignements que Friedman avait tirés de son analyse de la Grande Dépression. Mais c’est aussi en assouplissant agressivement leur politique monétaire que les banques centrales ont empêché que se répète la Grande Dépression il y a dix ans : lors de la Grande Dépression, la production industrielle s’était contractée de 52 % et cette contraction dura 43 mois ; lors de la Grande Récession, la production industrielle chuta de 17 % et cette contraction dura 19 mois.

Mankiw et Reis ont également jugé de l'héritage que le discours de Friedman a laissé pour la théorie économique. Ils notent par exemple que la focalisation sur le long terme, comme point de référence, et les anticipations continuent d’être au centre des analyses macroéconomiques, même après la crise financière mondiale : les analyses de l’inflation continuent de donner un rôle important aux anticipations d’inflation, les analyses du chômage continuent de faire jouer un rôle important au taux de chômage naturel, etc. Malgré cela, ce ne sont pas les anticipations adaptatives de Friedman que les économistes introduisent dans leurs modélisations, mais le concept d’anticipations rationnelles que les nouveaux classiques ont avancé dans les années soixante-dix. C’est d'ailleurs cette hypothèse d’anticipations rationnelles que les nouveaux keynésiens ont adoptée pour contrer la révolution des nouveaux classiques. Certes, les keynésiens n'ont jamais réussi à pleinement réhabiliter la courbe de Phillips, tandis que le concept de taux de chômage naturel continue d'être utilisé dans les travaux universitaires et comme indicateur pour la politique économique. Mais beaucoup ont affirmé que celui-ci n'est pas insensible à la conjoncture et donc au taux de chômage courant en raison des effets d’hystérèse ; ce sont d’ailleurs ces derniers qui sont évoqués pour légitimer le retour de la politique budgétaire.

 

Références

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58, n° 1.

FRIEDMAN, Milton, & Anna Jacobson SCHWARTZ (1963), A Monetary History of the United States, 1867-1960. Traduction française, Une histoire monétaire des Etats-Unis.

MANKIW, N. Gregory, & Ricardo REIS (2017), « Friedman’s presidential address in the evolution of macroeconomic thought », NBER, working paper, n° 24043.

PHILLIPS, Alban W. (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861-1957 », in Economica, vol. 25, n° 100.

RUBIN, Goulven (2012), « Robert Solow de la courbe de Phillips à la question des fondements de la macroéconomie: 1960-1981 ».

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher