Overblog
Suivre ce blog Administration + Créer mon blog
3 avril 2019 3 03 /04 /avril /2019 22:20
Quelles sont les répercussions macroéconomiques du plus grand pouvoir de marché des entreprises ?

Plusieurs tendances inquiétantes ont marqué les économies développées ces dernières décennies. Par exemple, les coûts d’emprunt ont diminué et, comme le suggère par exemple le Q de Tobin (qui rapporte la valeur boursière des entreprises sur la valeur de leur stock de capital), les rendements de l’investissement ont augmenté, et pourtant ce dernier est resté atone : dans les pays développés, l’investissement privé fixe est d’environ inférieur de 25 % en moyenne par rapport à sa tendance d’avant-crise depuis la crise financière mondiale. La richesse financière a eu tendance à croître plus vite que le capital productif. La part des revenus nationaux rémunérant le travail a eu tendance à diminuer et les inégalités de revenu à augmenter. Ou encore, la croissance de la productivité a durablement ralenti [Adler et alii, 2017].

Une cause est susceptible d’expliquer toutes ces tendances : ces dernières décennies, que ce soit aux Etats-Unis [De Loecker et Eeckhout, 2017 ; Eggertsson et alii, 2018] ou dans le reste des pays développés [Diéz et alii, 2018 ; De Loecker et Eeckhout, 2018], il se pourrait que la concurrence ait décliné et le pouvoir de marché des entreprises augmenté. En effet, un accroissement du pouvoir de marché des entreprises pourrait inciter ces dernières à moins investir, notamment dans l’accumulation du capital physique et la recherche-développement. Un tel sous-investissement contribuerait à freiner la croissance de la productivité, sans que les rendements du capital en soient affectés. Les cours boursiers augmenteraient alors plus vite que la valeur du capital productif, ce qui pousserait mécaniquement à la baisse la part du travail dans la valeur ajoutée. Autrement dit, les débats autour de la réglementation des géants du numérique qui enflamment les deux côtés de l’Atlantique ne sont peut-être pas absurdes [Rogoff, 2019]

Il est difficile de juger quelle est l’importance du pouvoir de marché d’une entreprise. La concentration d’un marché ne suffit pas pour mesurer celle des entreprises qui y sont présentes ; par exemple, une plus forte concurrence peut se traduire par une plus forte concentration, si les entreprises les plus efficaces évincent les moins efficaces. Par conséquent, la littérature s’est tournée vers d’autres indicateurs. Dans la mesure où l’on considère qu’une entreprise possède un pouvoir de marché si elle est à même de fixer un prix plus élevé que ses coûts marginaux, la littérature a cherché à mesurer ce pouvoir de marché en utilisant le taux de marge, qui rapporte le prix d’un bien sur le coût marginal de sa production. Dans la mesure où l’on peut également considérer qu’une entreprise possède un pouvoir de marché si elle est à même de dégager des surprofits, c’est-à-dire des rentes, on peut aussi chercher à déterminer l’ampleur de ces dernières pour juger de son pouvoir de marché. Mais ces divers indicateurs ne sont pas sans limites : par exemple, le taux de marge peut surestimer le pouvoir de marché en présence de coûts fixes et une mesure des rentes (par exemple l’indice de Lerner) est difficile à être estimée avec précision et s’avère volatil.

Dans le deuxième chapitre des nouvelles Perspectives de l’économie mondiale du FMI, Wenjie Chen, Federico Díez, Romain Duval, Callum Jones et Carolina Villegas-Sánchez (2019) ont étudié les données relatives à près d’un million d’entreprises couvrant de larges pans de l’économie de 27 pays, en l’occurrence 16 pays développés et 11 pays émergents, à partir de l’année 2000. Ils se sont appuyés sur trois types d’indicateurs, en l’occurrence les degrés de concentration des marchés, les taux de marge et des indices de Lerner, pour déterminer comment le pouvoir de marché des entreprises a évolué depuis le début du siècle, avant d’en identifier les répercussions économiques.

Leur analyse suggère que le pouvoir de marché a augmenté modérément dans les pays développés : le taux de marge a augmenté d’environ 7,7 % entre 2000 et 2015, en parallèle avec la hausse des profits et de la concentration des marchés. Il est resté à peu près stable dans les pays émergents, augmentant d’environ 1,8 % en leur sein, mais Chen et ses coauteurs notent que la concurrence sur le marché des produits était initialement plus faible dans les pays émergents que dans les pays développés.

Parmi les économies avancées, la hausse du pouvoir de marché des entreprises a été assez généralisée entre les pays, mais son amplitude diffère tout de même selon les pays ; elle a par exemple été plus forte aux Etats-Unis qu’en Europe. Elle a aussi été généralisée entre les secteurs, mais là aussi son amplitude diffère selon les secteurs : elle a été plus forte hors de l’industrie et dans les secteurs qui utilisent beaucoup les technologies digitales. Dans la plupart des pays, la hausse des marges au niveau agrégé s’explique essentiellement par celle des entreprise déjà en place et, dans une moindre mesure, par l’entrée sur les marchés de nouvelles entreprises à taux de marge élevé, plutôt que par une hausse de la part de marché des entreprises déjà en place qui présentaient des marges élevées. Mais les Etats-Unis font exception : les quatre cinquièmes de la hausse des taux de marge au niveau agrégé s’expliquent par la hausse de la part de marché des entreprises déjà en place présentant un taux de marge élevé, ce qui suggère qu’un processus de réallocation a été à l’œuvre, au bénéfice de l’économie.

Au sein de chaque secteur, la hausse des taux de marge se concentre sur une petite fraction des entreprises, en l’occurrence des entreprises souvent de petite taille, mais les plus grandes d’entre elles contribuent bien à la majorité des recettes que ce groupe génère. Les entreprises présentant un taux de marge élevé semblent réaliser de meilleures performances que les autres : leur productivité est plus forte, leur profitabilité plus élevée et elles sont davantage susceptibles d’investir dans des actifs intangibles comme les brevets et les logiciels.

Chen et ses coauteurs se sont ensuite tournés vers les répercussions de l’accroissement du pouvoir de marché des entreprises sur la croissance et la répartition du revenu. Leur analyse suggère que jusqu’à présent les répercussions macroéconomiques de l’accroissement de pouvoir de marché ont été assez modestes ; mais celles-ci pourraient être plus importantes si cette tendance se poursuivait. Malgré des profits et un Q de Tobin élevés, la hausse des taux de marge a contribué à affaiblir l’investissement [Gutiérrez et Philippon, 2016]. En effet, une hausse de 10 points de pourcentage du taux de marge d’une entreprise est associée à une baisse de 0,6 point de pourcentage de son taux d’investissement dans le capital physique. Au niveau agrégé, l’analyse empirique suggère que la production aurait été 1 % plus élevée aujourd’hui dans le pays développé moyen si le pouvoir de marché des entreprises ne s’était pas accru depuis 2000.

Le pouvoir de marché a un effet ambigu sur les décisions des entreprises en matière d’innovation. D’un côté, la perspective d’en acquérir un devrait les inciter à innover. D’un autre côté, c’est l’intensification de la concurrence, donc la réduction de leur pouvoir de marché, qui pourrait au contraire les inciter à innover, afin de s’extraire de cette concurrence. La littérature a tendance à évoquer une relation en U inversé : un accroissement du pouvoir de marché stimule tout d’abord l’innovation, puis il la freine [Aghion et alii, 2005]. L’analyse de Chen et alii tend à mettre en évidence une telle relation dans leur échantillon de 27 pays. Au niveau sectoriel, l’essentiel des observations se situe avant le point tournant, ce qui suggère que la hausse du pouvoir de marché a été bénéfique à l’innovation, mais c’est de moins en moins vrai : 21 % des observations se situaient au-delà du seuil en 2015, contre 15 % en 2000. 

La hausse du pouvoir de marché des entreprises devrait se traduire par une accélération de l’inflation, puisque celles-ci peuvent plus facilement relever leurs prix de vente. Mais elles peuvent aussi profiter de leur plus grand pouvoir de marché, non pour augmenter leurs prix, mais pour réduire leur production et leur investissement. Au niveau agrégé, la hausse des taux de marge peut affaiblir la demande, l’activité économique et l’emploi, ce qui compense en retour ses effets inflationnistes. Ce faisant, elle peut aussi contribuer à déprimer le taux d’intérêt naturel, c’est-à-dire accroître le risque que les taux d’intérêt soient contraints par leur borne inférieure lorsque l’économie bascule en récession, ce qui réduit la marge de manœuvre de la politique monétaire dans une telle situation.

Enfin, Chen et ses coauteurs se sont intéressés aux répercussions sur la répartition des revenus. Pour expliquer la déformation du partage des revenus nationaux au détriment du travail que l’on a pu observer ces dernières décennies, les études évoquent souvent le progrès technique, la mondialisation et le recul du pouvoir de négociation des travailleurs ; de plus en plus d’analyses suggèrent que l’accroissement du pouvoir de marché des entreprises y a contribué, dans la mesure où les rentes qu’elles génèrent vont être captées par les propriétaires de ces firmes [Barkai, 2016 ; Autor et alii, 2017], ce qui contribue directement à creuser les inégalités interpersonnelles de revenu [Gans et alii, 2018]. Selon Chen et ses coauteurs, la hausse du pouvoir de marché semble effectivement avoir quelque peu contribué à la déformation du partage de la valeur ajoutée : elle expliquerait 0,2 point de pourcentage de la baisse de la part du travail, soit environ un dixième de celle-ci. Une poursuite de l’accroissement du pouvoir de marché des entreprises pourrait ainsi davantage déformer le partage de la valeur ajoutée au détriment du travail.

 

Références

ADLER, Gustavo, Romain DUVAL, Davide FURCERI, Sinem KILIÇ ÇELIK, Ksenia KOLOSKOVA & Marcos POPLAWSKI-RIBEIRO (2017), « Gone with the headwinds: Global productivity », FMI, staff discussion note, n° 17/04, avril.

AGHION, Philippe, Nick BLOOM, Richard BLUNDELL, Rachel GRIFFITH, & Peter HOWITT (2005), « Competition and innovation: An inverted-U relationship », in Quarterly Journal of Economics, vol. 120, n° 2.

AUTOR, David, David DORN, Lawrence F. KATZ, Christina PATTERSON & John VAN REENEN (2017), « Concentrating on the fall of the labor share », NBER, working paper, n° 23108.

BARKAI, Simcha (2016), « Declining labor and capital shares », Université de Chicago, document de travail.

CHEN, Wenjie, Federico DÍEZ, Romain DUVAL, Callum JONES & Carolina VILLEGAS-SÁNCHEZ (2019), « The rise of corporate market power and its macroeconomic effects », in FMI, World Economic Outlook.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687, août.

DE LOECKER, Jan, & Jan EECKHOUT (2018), « Global market power », CEPR, discussion paper, n° 13009, juin.

DÍEZ, Federico J., Daniel LEIGH & Suchanan TAMBUNLERTCHAI (2018), « Global market power and its macroeconomic implications », FMI, working paper, n° 18/137, juin.

EGGERTSSON, Gauti B., Jacob A. ROBBINS & Ella Getz WOLD (2018), « Kaldor and Piketty's facts: The rise of monopoly power in the United States », NBER, working paper, n° 24287, février.

GANS, Joshua, Andrew LEIGH, Martin SCHMALZ & Adam TRIGGS (2018), « Inequality and market concentration, when shareholding is more skewed than consumption », CESifo, working paper, n° 7402.

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2016), « Investment-less growth: An empirical investigation », NBER, working paper, n° 22897.

GUTIERREZ, Germán, & Thomas PHILIPPON (2018), « How EU markets became more competitive than US markets: A study of institutional drift », NBER, working paper, n° 24700, juin.

ROGOFF, Kenneth (2019), « Elizabeth Warren’s big ideas on big tech », in Project Syndicate, 1er avril. Traduction française, « Les grandes idées d'Elizabeth Warren sur les géants du Web ».

VAN REENEN, John (2018), « Increasing differences between firms: Market power and the macroeconomy », CEP, discussion paper, n° 1576.

Partager cet article
Repost0
31 mars 2019 7 31 /03 /mars /2019 10:46
Les robots, les intelligences artificielles et le travail

Les craintes suscitées par les robots ne datent pas de ces dernières décennies. On aime bien rappeler la révolte des luddites en Angleterre au début du dix-neuvième siècle : des ouvriers et artisans s’attaquèrent aux machines qui avaient été introduites dans l’industrie textile et qu’ils accusèrent de détruire leur emploi. Comme d’autres économistes de grande renommée, Keynes évoquait l’apparition d’un véritable « chômage technologique ». Alors qu’elles avaient fait leur apparition dans les années cinquante (notamment à travers les travaux d’Herbert Simon), ce sont aujourd’hui les intelligences artificielles qui suscitent de profondes inquiétudes. A la différence des simples robots, les intelligences artificielles désignent aussi bien des machines que des logiciels ou algorithmes, dont le point commun est qu’elles cherchent à reconnaître leur environnement et à interagir avec ce dernier en accumulant de l’expérience (à travers le « machine learning ») et en se la partageant (notamment via les « clouds »). Alors que les robots ont surtout suscité des craintes pour l’emploi des travailleurs peu qualifiés réalisant des tâches routinières manuelles, les intelligences artificielles promettent de concurrencer de plus en plus les travailleurs qualifiés pour la réalisation de tâches abstraites. 

Jusqu’à présent, ces craintes ne se sont pas concrétisées, du moins pas au niveau agrégé, puisqu’à long terme l’emploi a continué de progresser. Mais rien n’assure que l’avenir sera à l’image du passé. Certains doutent que la présente révolution information et les futures innovations aient les mêmes effets que les précédentes vagues d’innovation. Alors que Robert Gordon (2012) craint que l’innovation s’essouffle et étouffe ainsi la croissance économique, Erik Brynjolfsson et Andrew McAfee (2014) craignent plutôt de leur côté un « deuxième âge des machines » où les innovations tendraient au contraire à s’accélérer et à faire disparaître l’emploi, le nombre de tâches réalisées par les travailleurs étant susceptible d’augmenter rapidement. Dans une étude dont les conclusions furent largement reprises par les médias, Carl Benedikt Frey et Michael Osborne (2013) estimaient que 47 % des emplois actuellement occupés par des travailleurs américains étaient susceptibles d’être automatisés ; la Banque mondiale (2016) estime quant à elle que 57 % des emplois dans les pays de l’OCDE sont susceptibles de l’être. Ces études négligent souvent deux choses : d’une part, ce n’est pas parce qu’une technologie est disponible qu’elle sera forcément adoptée par les entreprises, puisque cette adoption dépendra du coût de cette substitution ; d’autre part, la diffusion de nouvelles technologies dans un secteur a souvent des effets dans le reste de l’économie.

Beaucoup d’analyses partent de l’hypothèse qu’une innovation de procédé vise à accroître la productivité, c’est-à-dire la valeur ajoutée par travailleur. Si c’est le cas, la diffusion de cette innovation tend à augmenter la demande de travail, ce qui stimule l’emploi et pousse les salaires à la hausse. Certes, dans la mesure où les travailleurs sont différents les uns des autres et, notamment, ne possèdent pas les mêmes qualifications, cette innovation peut profiter davantage à certains travailleurs plutôt qu’à d’autres et peut-être détruire des emplois dans certains secteurs. Mais l’on considère que les créations d’emploi qu’elle entraîne compensent les destructions d’emploi qu’elle peut occasionner. 

L’hypothèse à la base de ce raisonnement est discutable. Plusieurs nouvelles technologies, que Daron Acemoglu et Pascual Restrepo (2019) qualifient de « technologies d’automatisation », ne visent pas vraiment à accroître la productivité du travail, mais explicitement à substituer à ce dernier des machines moins chères dans un large éventail de tâches réalisées par les êtres humaines. Via leur adoption, elles se substituent à ces derniers, donc réduisent la demande de travail et détruisent des emplois : c’est l’« effet de déplacement » (displacement effect). En conséquence de la diffusion de telles technologies, la productivité tend à augmenter plus vite que les salaires et le partage de la valeur ajoutée tend à se déformer au détriment du travail [Acemoglu et Restrepo, 2018a]. Les données confirment un tel scénario. Par exemple, en étudiant les marchés du travail locaux des Etats-Unis entre 1990 et 2007, Acemoglu et Restrepo (2018b) notent que les secteurs qui adoptent le plus de robots industriels tendent à connaître les plus fortes baisses de demande de travail et les plus fortes baisses de la part de la valeur ajoutée rémunérant le travail. De plus, ces effets pervers sont bien plus prononcés pour les travailleurs peu qualifiés que pour les travailleurs qualifiés, ce qui contribue d'ailleurs à creuser les inégalités salariales. Le maintien de l’économie sur une trajectoire de croissance équilibrée est donc loin d’être évident [Acemoglu et Restrepo, 2018a].

Mais si la part du travail a pu rester assez stable à long terme et si les salaires ont pu augmenter peu ou prou au même rythme que la productivité sur l’essentiel de ces deux derniers siècles, cela signifie que d’autres facteurs ont contribué à neutraliser les effets pervers des technologies d’automatisation. Il est probable que ces dernières puissent accroître la demande de travail via d’autres canaux. Tout d’abord, la substitution de travailleurs par des machines moins chères provoque un « effet de productivité » (productivity effect) : comme le coût de production des tâches automatisées diminue, l’économie croît, ce qui accroît la demande de travail pour les tâches non automatisées. Peut notamment se produire un phénomène de déversement [Sauvy, 1980] : la mécanisation détruit peut-être des emplois dans les secteurs où elle s’opère, mais les gains de productivité qu’elle entraîne augmentent le pouvoir d’achat, via une baisse des prix dont profitent les consommateurs et/ou via une hausse des salaires dont profitent les travailleurs toujours employés, rendus plus efficaces par les machines ; ce supplément de pouvoir d’achat sera dépensé, si bien que des emplois sont créés dans d’autres secteurs de l’économie. 

Ensuite, l’automatisation entraîne une « accumulation du capital », qui accroît certes la demande de capital, mais augmente aussi la demande de travail. De plus, l’automatisation ne se contente pas de remplacer des tâches réalisées précédemment par des travailleurs : elle augmente la productivité des machines dans les tâches qui ont déjà été automatisées, ce qui se traduit par un « approfondissement de l’automatisation » et génère à nouveau un effet de productivité. Enfin, il faut garder à l’esprit qu’il y a différents types d’innovation contribuant à la croissance de la productivité. Au cours du temps, lorsque des technologies d’automatisation furent introduites, d’autres innovations permirent parallèlement de créer des tâches pour lesquelles les travailleurs présentaient un avantage compétitif. Et c’est cette création de nouvelles tâches qui constitue la force la plus puissante pour contrecarrer l’effet de déplacement. Acemoglu et Restrepo (2018a) notaient ainsi qu’entre 1980 et 2010, l’introduction et le développement de nouvelles tâches et nouveaux intitulés de poste expliquent environ la moitié de la croissance de l’emploi aux Etats-Unis.

L’intelligence artificielle offre de nouvelles opportunités pour automatiser davantage de tâches. C’est le cas avec la reconnaissance d’image, la reconnaissance vocale, la traduction, la comptabilité, les systèmes de recommandation et l’assistance à la clientèle. Ce choix n’est pas sans conséquences pour la distribution des revenus et la croissance de la productivité. D’une part, si les intelligences artificielles continuent à être utilisées à des fins d’automatisation sans qu’en parallèle soient introduites des innovations capables de créer de nouvelles tâches, alors leur diffusion nuira à l’emploi, déformera davantage le partage de la valeur ajoutée au détriment du travail et alimentera les inégalités de revenu. D’autre part, pour l’heure, les intelligences artificielles ont surtout conduit à une automatisation de tâches pour lesquelles elles s’avèrent moins productives que les travailleurs (pensons à la reconnaissance d'image). Si cela se poursuit ainsi, leur diffusion ne se traduira pas par de réels gains de productivité. Et pourtant, l’intelligence artificielle pourrait être utilisée pour créer de nouvelles tâches, au lieu de se contenter d’automatiser celles existantes. Acemoglu et Restrepo (2019) pensent que de telles opportunités existent par exemple dans les secteurs de l’éducation et de la santé ou un domaine comme la réalité augmentée. 

Les économistes se disent souvent confiants dans la capacité des marchés à allouer les ressources à leur usage le plus productif. Pourtant, il existe plusieurs situations où ce n’est pas le cas. Et de telles défaillances de marché sont particulièrement prégnantes dans le cas de l’innovation. En effet, les marchés dysfonctionnent lorsqu’il existe plusieurs paradigmes technologiques en concurrence. Il suffit que l’un de ces paradigmes soit plus développé que les autres pour que les chercheurs et entreprises le développent et délaissent celles-ci, même si elles auraient pu être plus productifs. Il y a en outre des phénomènes de dépendance au sentier : dès lors qu’un paradigme est développé, il est difficile de revenir en arrière et de tirer profit d’un autre paradigme, ne serait-ce parce que les clients se sont familiarisés avec le premier paradigme et que son développement a impliqué d’énormes coûts fixes [Nelson et Winter, 1977 ; Acemoglu, 2012]

 

Références

ACEMOGLU, Daron (2012), « Diversity and technological progress », in The Rate and Direction of Inventive Activity Revisited, University of Chicago Press. 

ACEMOGLU, Daron, & Pascual RESTREPO (2018a), « The race between man and machine: Implications of technology for growth, factor shares and employment », in American Economic Review, vol. 108, n° 6.

ACEMOGLU, Daron, & Pascual RESTREPO (2018b), « Robots and jobs: Evidence from US labor markets », NBER, working paper, n° 23285. 

ACEMOGLU, Daron, & Pascual RESTREPO (2018c), « Artificial intelligence, automation and work », NBER, working paper, n° 24196. 

ACEMOGLU, Daron, & Pascual RESTREPO (2019), « The wrong kind of AI? Artificial intelligence and the future of labor demand », NBER, working paper, n° 25682.

BANQUE MONDIALE (2016), World Development Report 2016: Digital Dividends.

BRYNJOLFSSON, Erik, & Andrew MCAFEE (2014), The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies, W. W. Norton & Company.

FREY, Carl B., & Michael A. OSBORNE (2013), « The future of employment: How susceptible are jobs to computerisation? », Oxford Martin School.

GORDON, Robert (2012), « Is U.S. economic growth over? Faltering innovations confronts the six headwinds », NBER, working paper, n° 18315.

NAUDÉ, Wim (2019), « The race against the robots and the fallacy of the giant cheesecake: Immediate and imagined impacts of artificial intelligence », IZA, discussion paper, n° 12218. 

NELSON, Richard, & Sidney WINTER (1977), « In search of useful theory of innovation », in Research Policy, vol. 6, n° 1.

SAUVY, Alfred (1980), La Machine et le Chômage. Le Progrès technique et l’Emploi, Dunod.

Partager cet article
Repost0
30 mars 2019 6 30 /03 /mars /2019 17:50
Macroéconomie et anticipations d’inflation

Les anticipations d’inflation jouent un rôle crucial dans de nombreux modèles économiques et dans la conduite de la politique monétaire [Bernanke, 2007]. Dans la mesure où les agents prennent en compte leurs anticipations d’inflation lorsqu’ils fixent les prix et salaires, celles-ci affectent directement l’inflation courante. En l’occurrence, l’inflation aura d’autant plus de chances de déraper que les anticipations d’inflation sont élevées ou instables. Et, réciproquement, la tendance au maintien de l’inflation à un niveau faible et stable que l’on a pu observer au cours des dernières décennies s’expliquerait précisément par l’ancrage des anticipations d’inflation à un faible niveau. Beaucoup n’hésitent pas à y voir la preuve de la plus grande crédibilité que les autorités monétaires ont acquise : en faisant de la lutte contre l’inflation leur objectif prioritaire à partir des années quatre-vingt et en se contentant effectivement de poursuivre cet objectif (parfois au prix d'une récession, comme le fit Volcker), les banques centrales auraient fini par convaincre de leur détermination à assurer la stabilité des prix, si bien que les ménages et les entreprises auraient peu à peu révisé leurs anticipations d’inflation à la baisse et facilité par là en retour la tâche des autorités monétaires.

Si les anticipations d’inflation sont aujourd’hui essentielles aux yeux des banquiers centraux et des économistes pour comprendre les mécanismes macroéconomiques et concevoir la politique monétaire, ce n’était pas vraiment le cas il y a un demi-siècle. Lorsque la macroéconomie s’est constituée dans le sillage de la Grande Dépression, elle ignorait alors la question de l’inflation. Même s’il se pencha sur les effets pervers de la déflation dans l’un des chapitres de sa Théorie générale (1936), John Maynard Keynes postulait dans le reste de son ouvrage une fixité des prix (à des fins de simplification de sa démonstration), une hypothèse reprise par la suite par de nombreux économistes qui se réclamèrent de sa filiation. Le problème de l’époque était d’ailleurs davantage la déflation que l’inflation, en raison du chômage de masse et de la faiblesse de l’activité économique. Lorsqu’il posa les premiers jalons du modèle IS/LM, John Hicks (1937) le fit en supposant lui-même que les prix étaient rigides, une hypothèse qu’il jugeait plus pertinente pour décrire le monde réel que celle d’une flexibilité des prix. Mais avec la Seconde Guerre mondiale, puis les décennies de plein emploi qui suivirent, l’inflation s’accéléra et redevint une préoccupation centrale aussi bien parmi les économistes orthodoxes que chez les hétérodoxes ; Joan Robinson notait elle-même que l’absence de chômage privait l’économie d’un mécanisme pour contenir l’inflation. Les keynésiens durent alors prendre en compte l’inflation dans leur cadre théorique. C’est la relation inverse entre inflation salariale et chômage qu’observa Albin Phillips (1958) qui leur permit de dynamiser leur modèle en y intégrant la variation des prix. En effet, Paul Samuelson et Robert Solow (1960) s’appuyèrent sur ce constat empirique pour suggérer une relation inverse entre inflation des prix et du chômage, donc la possibilité d’arbitrer entre ces deux maux macroéconomiques.

Malgré le fait que Samuelson et Solow notaient déjà son instabilité, cette relation, que la littérature ultérieure retint sous le nom de « courbe de Phillips », offrit une justification théorique aux politiques de stop-and-go pratiquées par les gouvernements et banques centrales. Mais à partir des années soixante et surtout soixante-dix, l’inflation et le chômage eurent tendance à augmenter conjointement. Milton Friedman (1968) expliqua pourquoi la courbe de Phillips semblait ne plus être valide : les keynésiens avaient commis l’erreur de la faire reposer sur le seul niveau de l’inflation. Pour Friedman, il faut également prendre en compte les anticipations d’inflation : il existe une courbe de Phillips pour chaque niveau d’inflation anticipé, mais elle est verticale à long terme. Un assouplissement monétaire peut certes réduire le chômage à court terme en laissant l’inflation s’accélérer, mais le chômage revient ensuite à son niveau initial, son niveau « naturel », si bien qu’il n’y a pas d’arbitrage à long terme entre inflation à chômage. Les nouveaux classiques radicalisèrent ces conclusions en suggérant l’absence même d’un arbitrage à court terme : si, comme ils le supposent, les agents forment des anticipations rationnelles lorsqu’ils anticipent l’inflation, alors un assouplissement monétaire systématique n’aura aucun effet à court terme sur le chômage [Sargent et Wallace, 1975].

Ce sont les travaux que développèrent les nouveaux keynésiens à partir de la fin des années soixante-dix qui redonnèrent à l’action monétaire sa légitimité. Les nouveaux keynésiens montrent en effet que, même si les anticipations sont rationnelles, un assouplissement monétaire est susceptible de stimuler l’activité économique et réduire le chômage, bref d’avoir des effets réels. Pour que ce soit le cas, il suffit de postuler que seule une fraction des entreprises modifie ses salaires [Fischer, 1977 ; Taylor, 1980] et ses prix [Calvo, 1983] au cours de chaque période, ne serait-ce que par ce qu’il y a des coûts à négocier et changer les prix et salaires. C’est notamment par ce biais que les travaux ultérieurs ont suggéré qu’il existe une relation entre l’inflation attendue et l’écart de production (output gap), du moins à court terme : c’est la « courbe de Phillips des nouveaux keynésiens ». D’autres nouveaux keynésiens vont plus loin et suggèrent qu’à de très faibles niveaux d’inflation, la courbe de Phillips de long terme avoir une pente négative, si bien que les possibilités d’arbitrage entre inflation et chômage pourraient perdurer au-delà du court terme. Ces dernières années, beaucoup ont estimé que l’ancrage même des anticipations d’inflation à un faible niveau s’est traduit par un retour de la courbe de Phillips et à son aplatissement, donc par l’octroi aux banques centrales d’une plus grande latitude pour stabiliser l’activité sans compromettre la stabilité des prix [FMI, 2013 ; Blanchard, 2016]

Tout au long de ces dernières décennies, la littérature théorique n’a cessé de donner un rôle crucial aux anticipations d’inflation, mais il n’y a toujours pas de consensus sur leur modélisation. Les banques centrales et les universitaires ont très régulièrement utilisé le modèle des nouveaux keynésiens, mais ce dernier a suscité plusieurs critiques. Par exemple, il ne prend pas en compte les contraintes auxquelles les agents font face lorsqu’ils forment leurs anticipations à propos de l’inflation. D’autre part, il est incapable d’expliquer la persistance de l’inflation que les analyses observent à travers les données empiriques. Ces critiques ont conduit au développement de deux approches alternatives pour modéliser le rôle de l’information dans la formation des anticipations d’inflation : le modèle à information visqueuse et le modèle à information bruitée. Dans les modèles à information visqueuse (sticky), il est supposé que les agents révisent lentement leurs anticipations d’inflation en raison de la présence de coûts dans l’acquisition et le traitement des nouvelles informations. Dans les modèles à information bruitée (noisy), il est supposé que les nouvelles informations sont bruitées ou que les agents ne les prennent pas toutes en compte.  Ce dernier type de modèles, qui supposent que les agents ne sont pas pleinement rationnels et peuvent fixer les prix en utilisant une règle dépendant de l’inflation passée a conduit au développement de ce que l’on appelle le « courbe de Phillips nouvelle keynésienne hybride ». Celle-ci fait dépendre l’inflation de l’inflation anticipée et de l’inflation passée [Galí et Gertler, 1999]. Elle colle mieux aux données que la courbe de Phillips nouvelle keynésienne standard : cette dernière suppose que les anticipations d’inflation à long terme ne réagissent pas aux nouvelles informations parce que les agents connaissent l’équilibre à long terme ; la courbe de Phillips nouvelle keynésienne hybride permet de rendre compte d’environnements où la banque centrale et le public ne saisissent pas parfaitement la structure de l’économie.

Les anticipations d’inflation jouant véritablement un rôle crucial selon les travaux théoriques, les analyses empiriques ont cherché à les mesurer, mais ce n’est pas une tâche aisée : les anticipations d’inflation ne peuvent être mesurées directement, si bien qu’elles sont estimées à partir d’enquêtes (auprès des ménages, des entreprises ou des prévisionnistes professionnels) ou inférées à partir de l’évolution des prix d’actifs et des rendements financiers.

Ayhan Kose, Hideaki Matsuoka, Ugo Panizza et Dana Vorisek (2019) ont récemment passé en revue cette littérature empirique et ont eux-mêmes cherché à ses constats en étudiant un échantillon de 24 économies développées et 23 pays en développement. Leur analyse confirme que les anticipations d’inflation à long terme ont diminué et sont devenues plus fermement ancrées au cours des deux dernières décennies, aussi bien dans les pays développés que dans les pays émergents. Elles restent toutefois moins ancrées dans les pays en développement que dans les pays développés. 

En outre, l’analyse de Kose et alii indique que les anticipations d’inflation à long terme dans les pays en développement sont davantage sensibles aux chocs domestiques et mondiaux que celles dans les pays développés ; ce constat contribue d’ailleurs à expliquer pourquoi elles sont moins ancrées dans les premiers que dans les seconds. Dans les pays en développement, la sensibilité des anticipations d’inflation aux chocs domestiques a graduellement diminué entre 2005 et 2012 et elle a depuis été pour l’essentiel stable, tandis que la sensibilité des anticipations d’inflation aux chocs mondiaux a légèrement diminué depuis 2000. Dans les pays développés, la sensibilité des anticipations d’inflation aux chocs mondiaux a régulièrement diminué entre la fin des années quatre-vingt-dix et la fin des années deux mille, puis elle a lourdement chuté dans le sillage de la crise financière mondiale, tandis que la sensibilité des anticipations d’inflation aux chocs domestiques a baissé de façon moins prononcée. Ces constats suggèrent que les progrès dans l’ancrage des anticipations d’inflation dans les pays développés s’expliquent en partie par leur moindre sensibilité aux chocs mondiaux.

Enfin, l’analyse de Kose et ses coauteurs tend à confirmer que le cadre institutionnel, l’environnement macroéconomique influence le plus ou moins grand ancrage des anticipations d’inflation. En effet, ces dernières sont d’autant mieux ancrées si la banque centrale a adopté un régime de ciblage d’inflation et si elle s’avère très transparente, et ce aussi bien dans les pays développés que dans les pays en développement. Dans le cas des pays en développement, l’adoption d’un régime de change flexible, un fort degré d’ouverture au commerce extérieur et le maintien de la dette publique à un faible niveau semblent également contribuer à mieux ancrer les anticipations d’inflation. Dans tous les cas, si l’adoption du ciblage d’inflation semble avoir contribué à mieux ancrer les anticipations d’inflation dans les pays en développement, elle n’apparaît ni comme une condition nécessaire, ni comme une condition suffisante pour parvenir à les ancrer.

 

Références

AKERLOF, George A., William T. DICKENS & George L. PERRY (2000), « Near-rational wage and price setting and the long-run Phillips curve », in Brookings Papers on Economic Activity, vol. 31.

BERNANKE, Ben S. (2007), « Inflation expectations and inflation forecasting », discours prononcé à la conférence estivale du NBER.

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

CALVO, Guillermo (1983), « Staggered prices in a utility maximizing framework », in Journal of Monetary Economics, vol. 12.

COIBION, Olivier, Yuriy GORODNICHENKO, Saten KUMAR & Mathieu PEDEMONTE (2018), « Inflation expectations as a policy tool? », NBER, working paper, n° 24788.

FISCHER, Staney (1977), « Long-term contracts, rational expectations, and the optimal money supply rule », in Journal of Political Economy, vol. 85, n° 1.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58.

GALÍ, Jordi, & Mark GERTLER (1999), « Inflation dynamics: A structural economic analysis », in Journal of Monetary Economics, vol. 44, n° 2.

KOSE, M. Ayhan, Hideaki MATSUOKA, Ugo PANIZZA & Dana VORISEK (2019), « Inflation expectations: Review and evidence », CEPR, discussion paper, n° 13601.

PHILLIPS, Alban W. (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861-1957 », in Economica, vol. 25, n° 100.

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

SARGENT, Thomas, & Neil WALLACE (1975), « ‘Rational’ expectations, the optimal monetary instrument, and the optimal money supply rule », in Journal of Political Economy, vol. 83, n° 2.

TAYLOR, John (1980), « Aggregate dynamics and staggered contracts », in Journal of Political Economy, vol. 88, n° 1.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher