Overblog
Suivre ce blog Administration + Créer mon blog
30 avril 2019 2 30 /04 /avril /2019 07:45
Les crises financières sont-elles des chocs d’offre ou de demande ?

Les crises financières ont des répercussions « réelles » sur l’économie : elles provoquent souvent des récessions en déprimant la production, l’investissement et la consommation, tout en poussant le chômage à la hausse, etc. Et, comme l’a rappelé la crise qui bouleversa l’économie mondiale il y a une décennie, ces effets sont durables, voire permanents [Chen et alii, 2018]. Suite à une crise financière, la production nationale tend à fortement chuter et, même si elle rebondit rapidement par la suite, elle ne parvient pas à rejoindre la trajectoire qu’elle suivait avant, si bien que la population est à jamais plus pauvre qu’elle ne l’aurait été en l’absence de crise financière [Cerra et Saxena, 2008].

Si les crises financières affectent l’activité réelle, il n’est pas clair quant à savoir si leurs effets transitent initialement via la demande ou l’offre, or cette question est cruciale pour la conduite de la politique économique. Il s’agit d’un choc négatif, mais est-ce un choc de demande ou un choc d’offre ? Si les crises financières affectent avant tout l’activité via leurs effets sur la demande globale, alors il apparaît justifié que les gouvernements adoptent des plans de relance et que les banques centrales assouplissent leur politique monétaire. Si, au contraire, les crises financières affectent l’activité avant tout via leurs effets sur l’offre globale, alors il apparaît justifié que soient adoptées des réformes structurelles et que les gouvernements se contentent d’accorder des baisses d’impôts aux seules entreprises. Il est très difficile de déterminer en temps réel la nature d’un choc : par exemple, il y a une décennie, lors de la crise financière mondiale, tous les responsables politiques et économistes ne s’accordaient pas à l’idée qu’il faille stimuler la demande globale, certains mettant plutôt l’accent sur des problèmes du côté de l’offre. Or, un mauvais remède adopté suite à un diagnostic erroné n’est pas bénin : par exemple, l’adoption de réformes structurelles tend à déprimer la demande globale à court terme, ce qui risque d’amplifier les répercussions d’une crise financière si celles-ci se traduisent par une insuffisance de la demande globale.

L’histoire offre peut-être des enseignements quant à la nature du choc négatif derrière les crises financières. Pour le savoir, Felipe Benguria et Alan Taylor (2019) se sont inspiré des travaux de Gautí Eggertsson et Paul Krugman (2012) pour développer un petit modèle en économie ouverte où les ménages et les entreprises sont susceptibles de faire l’objet de contraintes dans l’accès au crédit. Ce modèle fait alors apparaître deux types de chocs de désendettement selon que ces derniers touchent les ménages ou les entreprises. Les chocs de désendettement des ménages sont essentiellement des chocs de demande qui devraient déprimer les importations tout en laissant les exportations inchangées et entraîner une dépréciation du taux de change réel. En dégradant la rentabilité la production, les chocs de désendettement des entreprises sont essentiellement des chocs d’offre qui devraient déprimer les exportations tout en laissant les importations inchangées et conduire à une appréciation du taux de change réel.

Dans la mesure où le commerce extérieur et le taux de change ne devraient pas réagir de la même façon selon qu’un choc de désendettement touche avant tout les ménages ou les entreprises, Benguria et Taylor se tournent ensuite vers les données empiriques pour déceler les crises financières en observant notamment le comportement du commerce extérieur et du taux de change. En l’occurrence, ils ont compilé plus de deux siècles de données relatives à un large échantillon de pays et concernant environ presque 200 crises financières. L’analyse empirique suggère qu’après une crise financière, les importations tendent à se contracter, alors que les exportations restent inchangées voire s’accroissent, et le taux de change réel tend à se déprécier. Ces résultats s’observent aussi bien dans les pays développés que dans les pays en développement, si ce n’est que la baisse des importations est plus forte dans les seconds que dans les premiers après les crises financières.

Ainsi, l’histoire suggère que les crises financières sont essentiellement des chocs de demande négatifs. Le constat auquel abouti Benguria et Taylor rejoint ceux obtenus par Òscar Jordà et alii (2013) ou encore Atif Mian et alii (2017), qui concluaient que les cycles d’endettement et de désendettement des ménages jouent un rôle déterminant dans les cycles d’affaires.

 

Références

Benguria, Felipe, & Alan M. TAYLOR (2019), « After the panic: Are financial crises demand or supply shocks? Evidence from international trade », NBER, working paper, n° 25790.

CERRA, Valerie, & Sweta C. SAXENA (2008), « Growth dynamics: The myth of economic recovery », in American Economic Review, vol. 98, n° 1.

CHEN, Wenjie, Mico MRKAIC & Malhar NABAR (2018), « The global recovery 10 years after the 2008 financial meltdown », In FMI, World Economic Outlook, octobre.

EGGERTSSON, Gauti B., & Paul KRUGMAN (2012), « Debt, deleveraging, and the liquidity trap: A Fisher-Minsky-Koo approach », in The Quarterly Journal of Economics, vol. 127, n° 3.

JORDÀ, Òscar, Moritz H.P. SCHULARICK & Alan M. TAYLOR (2013), « When credit bites back », in Journal of Money, Credit and Banking, vol. 45, n° 2.

MIAN, Atif R., Amir SUFI & Emil VERNER (2017), « Household debt and business cycles worldwide », in The Quarterly Journal of Economics, vol. 132, n° 4.

Partager cet article

Repost0
25 avril 2019 4 25 /04 /avril /2019 15:13

François DUBET

Editions du Seuil, 2019

 

 

 

 

 

 

 

 

 

Même s’il se dit encore optimiste, c’est bien un ouvrage s’inscrivant dans la continuité de sa Préférence pour l'inégalité (2014) et empreint finalement du même pessimisme que vient de publier le sociologue François Dubet. Ce qui l’interpelle n’est pas le fait que les inégalités se soient creusées, mais plutôt qu’elles aient changé de nature. En effet, ce nouveau régime d’inégalités crée des colères et des indignations, des « passions tristes », qui sapent les mécanismes de la solidarité et alimentent les populismes, ces populismes que nous voyons émerger des deux côtés de l’Atlantique.

Dans le premier chapitre, il diagnostique la transformation des inégalités en évoquant l’apparition, puis l’épuisement du régime de classes. Dans un régime d’ordres ou de castes, les positions sociales sont attribuées à la naissance : ce sont les individus qui sont considérés comme fondamentalement inégaux. La conjonction des régimes démocratiques et de l’industrialisation a ouvert un nouveau régime d’inégalités, celui des classes sociales : au nom de l’égalité démocratique, les individus peuvent changer de position sociale, mais les positions sociales, déterminées par la division du travail, restent inégales. Les classes sociales deviennent peu à peu un « fait social total » : elles sont mobilisées pour expliquer chaque fait social. Elles structurent la représentation politique : cette dernière oppose représentants des travailleurs à gauche et représentants des bourgeois à droite. La lecture des inégalités se faisait au prisme des inégalités de classes ; toutes les autres inégalités furent ramenées à ces dernières. Les mouvements sociaux luttèrent pour réduire les inégalités entre les places sociales. Les droits sociaux ont d’abord été ceux des travailleurs.

Mais aujourd’hui, « la question qui se pose à nous est de savoir si le régime des classes structure toujours les inégalités sociales et s’il encadre les représentations et les identités des acteurs ». Il s’est épuisé dans le sillage de la mondialisation, qui met en concurrence les travailleurs du monde entier. Les emplois atypiques se développent. Les différentes classes, notamment la classe ouvrière, se diffractent, deviennent plurielles. Avec l’essor de la consommation de masse, une hiérarchie fine des niveaux de consommation se substitue aux barrières de classe, attisant les stratégies de distinction.

Dans le deuxième chapitre, Dubet ausculte le « régime des inégalités multiples » dans lequel la société a basculé. D’un côté, de plus en plus de groupes sont touchés par les inégalités ; de l’autre, les points de repère à partir desquels les inégalités sont perçues se multiplient encore plus vite. Le régime des classes supposait une superposition des clivages ; avec celui des inégalités multiples, l’hétérogénéité des situations s’accentue. Chaque groupe peut dissimuler d’amples inégalités. Chacun peut être avantagé sur plusieurs échelles d’inégalités, mais défavorisé sur d’autres. En conséquence, l’Etat cible de plus en plus des populations et inégalités singulières, au risque que l’égalité disparaisse de l’horizon politique. Les grandes inégalités sont de plus en plus perçues comme l’accumulation de petites inégalités initiales : c’est par exemple le cas des inégalités de réussites scolaires ou des inégalités face à l’héritage [Frémeaux, 2018]. Enfin, les inégalités s’individualisent, sont vécues comme des expériences personnelles et non plus collectives, ce qui les rend encore plus douloureuses. L’idée d’une multiplication des inégalités existait déjà il y a un demi-siècle, mais associée à la thèse optimiste de la moyennisation, qui promettait l’avènement d’une société fluide. Or, depuis, le ralentissement de la croissance économique a freiné la mobilité structurelle et ébranlé les classes moyennes, tandis que le creusement des inégalités freinait la mobilité nette. A un niveau individuel, beaucoup connaissent une mobilité, mais sur une trajectoire courte : à un niveau plus agrégé, la reproduction sociale demeure [Peugny, 2013]. Ce qui, conjugué avec le sentiment d’instabilité, alimente la crainte d’un déclassement.

Dans un troisième chapitre, Dubet se demande pourquoi l’expérience des inégalités ne se traduit pas par une mobilisation collective. Les inégalités ne sont pas perçues de la même façon d’un pays à l’autre, même parmi des sociétés relativement proches : il n’y a pas de corrélation entre le niveau des inégalités et le fait que celles-ci soient jugées excessives. La France est marquée par de faibles inégalités de revenu et pourtant les Français les jugent intolérables. Pourtant, ces derniers tendent à sous-estimer le degré réel d’inégalités. Mais même au sein de chaque pays les perceptions ne sont pas homogènes. De plus, certains peuvent trouver le monde injuste mais juger être traité justement ; d’autres peuvent juger souffrir d’injustices dans un monde qu’ils jugent fondamentalement juste. Ce sont davantage des cadres moraux et des représentations qui façonnent la perception des inégalités que les conditions objectives. C’est « en tant que » que les individus se perçoivent comme plus ou moins égaux et inégaux : je peux être favorisé dans l’accès à l’emploi en tant qu’immigrée, mais défavorisée en termes de rémunération en tant que femme, etc. Les individus décomposent leur situation en plusieurs dimensions et ils se perçoivent comme plus ou moins défavorisés sur chacune d’entre elles : mon travail est intéressant, mais il est précaire, etc. Les individus tendent aussi se comparer à leurs proches, et ce d’autant plus que les collectifs, notamment les collectifs de travail, ont éclaté. Ces comparaisons alimentent tant des tentatives de démarcation que des frustrations relatives. Malheureusement, avec la comparaison permanente avec les proches, il n’y a pas de « conscience de classe » susceptible d’agréger les frustrations pour conduire à une mobilisation collective : « l’individualisation des inégalités peut multiplier les luttes, mais certainement pas induire leur convergence ». L’égalité des chances étant devenue le modèle dominant de la justice sociale, l’expérience personnelle des inégalités deviennent plus douloureuse pour leurs victimes. Les victimes des discriminations les jugent encore plus injustes lorsqu’elles se pensent fondamentalement égales aux autres. Avec l’individualisation des inégalités, ceux qui les subissent nourrissent le sentiment d’être méprisés et accordent alors une importance primordiale au respect. Ils pourraient être tentés de se considérer comme victimes, mais il est difficile d’endosser ce statut dans une société qui croit en l’égale responsabilité des individus. Lorsque les individus cherchent à démontrer le caractère injuste d’une inégalité, leurs argumentations s’organisent autour des principes d’égalité, du mérite et de l’autonomie, mais ils leur apparaissent souvent comme contradictoires. Ces conflits de justice amènent chacun, d’une part, à prendre ses distances avec la vie politique et les mouvements sociaux et, d’autre part, à « recomposer un rapport aux inégalités pour lui-même », comme si, après avoir conclu en l’injustice du monde, chacun se résolvait à ne rechercher qu’une justice pour soi et ses proches. Ainsi, les expériences des injustices ne parviennent plus à se traduire en mouvements sociaux organisés ; elles ne peuvent se manifester qu’à travers des indignations communes. 

Dans le quatrième chapitre, Dubet cherche justement à expliquer rendre compte de l’« économie morale » qui génère cette colère et cette indignation. Avec Internet, les dénonciations se multiplient, se ramenant à des mobilisations ponctuelles qu’aucun mécanisme traditionnel de l’action collective ne canalise, ni n’encadre. Dans le régime de classes, la colère se retournait contre la figure du patron et le conflit subséquent refroidissait les passions. Mais lorsque plus aucun récit social ne parvient à donner du sens aux frustrations et aux sentiments d’injustice, ceux-ci se muent en ressentiments, parfois dans un style paranoïaque : on cherche un coupable à l’origine de tous les malheurs du monde. L’analyse des faits s’efface lorsque l’indignation domine la critique. On se libère du mépris en cherchant à se démarquer de ceux qui sont plus méprisés que soi. On dénonce les « fausses victimes » pour se faire reconnaître comme victime sans en endosser le statut. Le désir de solidarité ne subsiste que pour les proches. Avec la montée de l’individualisme, les institutions de socialisation entrent en crise et des passions et intérêts contradictoires se juxtaposent : je fais le tri pour recycler, mais je prends l’avion pour partir en vacances, etc. On désire tout et son contraire. Pour surmonter cette contradiction, on peut dénoncer la liberté d’autrui et appeler à un surcroît d’autorité ; Emile Durkheim montrait déjà que le désir d’autorité était le produit de l’individualisme. L’indignation se routinise et, si la politique ne parvient pas à convertir l’indignation en force sociale, le populisme émerge. Parce qu’ils savent désigner des adversaires, les meneurs populistes convertissent l’indignation en ressentiment. Le populisme des sociétés occidentales est « liquide » : il s’adapte à n’importe quelle politique. Il s’en prend à l’oligarchie, mais en occultant finalement les inégalités. Malheureusement, Dubet doute que les sociétés se libèrent rapidement des indignations et des populismes.

La critique des inégalités aurait dû a priori bénéficier aux partis politiques favorables à l’égalité sociale. Ce n’est pas le cas : partout, la gauche est en perte de vitesse. C’est alors une réflexion sur la gauche que mène Dubet dans sa conclusion. Il estime que la lutte contre les grandes inégalités sociales doit être prioritaire, mais qu’elle ne dispense pas d’une lutte contre les petites inégalités, celles que subissent au quotidien les individus. Ce sont ces dernières qui nourrissent les colères et indignations, des passions susceptibles de saper les mécanismes de solidarité.

Ceux qui sont familiers des travaux de Dubet ne seront donc pas dépaysés en lisant Le Temps des passions tristes : nous y retrouvons nombre de questionnements, de réflexions et d’obsessions dont il faisait déjà part dans ses précédents écrits. Dubet se répète, d’un livre à l’autre, au sein d’un même livre, mais cela n’entache en rien sa lecture et démontre finalement la cohérence et l’actualité de sa thèse. La plupart des nouvelles réflexions qu’il expose ici étaient par exemple déjà esquissées dans le dernier article qu’il a publié dans la Revue de l’OFCE (2016). Il n’est pas étonnant qu’il les ait développées sur tout un livre : elles offrent une grille de lecture, non seulement de la montée des populismes que l’on a pu observer à travers le monde développé ces dernières années, mais aussi du mouvement des « gilets jaunes » qui crispe la société française depuis plusieurs mois.

 

Références

DUBET, François (2017), « Frustration relative et individualisation des inégalités », in Revue de l'OFCE, n° 150.

FREMEAUX, Nicolas (2018), Les Nouveaux Héritiers, Seuil. 

PEUGNY, Camille (2013), Le Destin au berceau. Inégalités et reproduction sociale, Seuil.

 

lire la liste de toutes les notes de lecture

Partager cet article

Repost0
21 avril 2019 7 21 /04 /avril /2019 20:39

Clément CARBONNIER et Nathalie MOREL

Editions du Seuil, 2018.

 

 

 

 

 

 

 

 

 

 

 

En novembre dernier, les éditions La République des idées publiaient deux livres observant sous deux angles différents le creusement des inégalités ces dernières décennies : alors que Nicolas Frémeaux évoquait un « retour des héritiers », Clément Carbonnier et Nathalie Morel se penchaient de leur côté sur un « retour des domestiques » très souvent au service des premiers.

En effet, l’emploi domestique a décliné durant le vingtième siècle dans les pays développés, en conséquence de l’essor de l’électroménager et de l’industrie agroalimentaire (réduisant le temps nécessaire pour réaliser les tâches domestiques), de la réallocation de la main-d’œuvre féminine vers des activités plus valorisantes et de la baisse du pouvoir d’achat des bourgeois. Comme le diagnostiquent Carbonnier et Morel dans le premier chapitre de leur livre, les années quatre-vingt-dix marquent un retour de l’emploi domestique en France. Cette évolution s’explique par divers dispositifs fiscaux adoptés dès la fin des années quatre-vingt, ayant pour objectifs, d’une part, de répondre aux besoins de garde et de soins exprimés par les personnes âgées et par les familles avec de jeunes enfants (besoins qui ne manqueraient pas de s’accentuer avec le vieillissement démographique) et, d’autre part, de créer de nouveaux emplois dans le cadre de la lutte contre le chômage de masse.

Il s’agissait en particulier de créer des emplois pour les travailleurs peu qualifiés, ceux-là même qui sont les plus affectés par la désindustrialisation. Plusieurs analyses suggéraient un déficit d’emplois dans le tertiaire en France relativement à d’autres pays développés, dû à une réglementation excessive et à un coût du travail élevé [Piketty, 1998]. En outre, les nouvelles technologies semblent conduire à une polarisation de l’emploi : beaucoup de travailleurs moyennement qualifiés réalisent des tâches routinières, donc facilement automatisables, mais, comme ils ne peuvent prétendre aux emplois très qualifiés, ils sont relégués aux emplois peu qualifiés [Autor et Dorn, 2013]. Là aussi, les rigidités institutionnelles comme le salaire minimum, la protection sociale et la réglementation du marché des produits sont accusées de freiner cette réallocation de la main-d’œuvre [Albertini et alii, 2016]. Reprenant de tels diagnostics, la Commission européenne a elle-même promu le développement des services domestiques pour résorber le chômage et accroître le taux d’emploi de l’ensemble de la population en accroissant la demande de travail peu qualifié. Le développement même de ces services (notamment celui de la garde d’enfants) visait aussi à ce que les femmes, notamment les plus qualifiées, soient incitées à accroître leur offre de travail.

Nul autre pays européen ne subventionna autant le recours à de tels services que la France. Outre des dispositifs plus ciblés, une réduction d’impôt équivalente à 50 % du montant consacré aux achats de services domestiques fut introduite en 1991 et son plafond fut ensuite régulièrement relevé. En cherchant davantage à transformer les ménages en employeurs, le « plan Borloo » de 2005 visait à créer 500.000 emplois dans ce secteur en l’espace de trois ans. Il s’appuyait sur un rapport du CAE suggérant qu’« il suffirait que chaque ménage consomme trois heures de ces services par semaine pour créer environ deux millions de nouveaux emplois, c’est-à-dire pour résorber le chômage » [Cahuc et Debonneuil, 2004]. Cette politique s’est maintenue par la suite : en 2014, son coût s’élevait à 6,4 milliards d’euros : 70 % de ce montant correspond aux réductions d’impôts et 30 % à des réductions de cotisations sociales. Elle a très rapidement suscité des critiques, mais souvent en sourdine : elle est accusée d’alimenter les inégalités sociales, dans la mesure où les dispositifs fiscaux profitent surtout aux plus aisés. Ses partisans rétorquent qu’elle contribue à réduire les inégalités de genre. Mais ces débats ne portent que sur les inégalités du côté de la demande ; les inégalités du côté de l’offre sont longtemps restées ignorées.

Malgré ses promesses en termes d’emploi et son coût, cette politique n’a pas vraiment été évaluée. C’est une telle évaluation que Charbonnier et Morel se proposent de réaliser. Dans le deuxième chapitre de leur livre, ils se demandent dans quelle mesure cette politique a créé des emplois. L’ANSPE estime que 312.000 emplois ont été créés dans ce secteur entre 2005 et 2008, contre 108.000 selon l’INSEE. L’ANSPE estime qu’il y avait 1,9 millions d’emploi dans ce secteur en 2007, contre 1,2 millions (soit environ 5,5 % de l’emploi total) selon l’INSEE. Ces écarts dans les estimations s’expliquent en partie par les difficultés, d’une part, à cerner le périmètre de ces activités et, d’autre part, à définir ce qui constitue ou non un emploi. Dans tous les cas, le nombre d’emplois créés a été bien inférieur à celui qui était attendu et les effets d’aubaine ont été importants, pour un coût par emploi créé énorme [Carbonnier, 2015]

Carbonnier et Morel soulignent ensuite à quel point la qualité de ces emplois est dégradée : un accès restreint à la protection sociale, une forte pénibilité, l’absence de formation, l’absence d’évolution de carrière, etc. Cette situation résulte en partie des politiques publiques, puisque ces dernières ont initialement cherché à favoriser le régime du particulier employeur. Cela se traduit en France par une forte fracture entre des salariés effectuant les mêmes tâches. Loin d’être un sas vers d’autres emplois, ce type d’emplois tend à enfermer ceux qui les occupent. La fragmentation de la main-d’œuvre et l’absence de lieux de travail communs se traduisent par une syndicalisation résiduelle et un faible pouvoir de négociation face aux employeurs. Les salaires mensuels sont faibles, notamment parce que le temps de travail est très partiel et les horaires fragmentés entre plusieurs employeurs. La mauvaise qualité de ces emplois résulte aussi de la faible valeur symbolique accordée à ces activités : elles sont considérées comme peu productives et comme ne nécessitant pas de qualifications particulières, si ce n’est des compétences perçues comme « naturelles ». Le fait que les femmes et, parmi celles-ci, les femmes d’origine étrangère soient surreprésentées dans ces emplois contribue à dévaloriser ces derniers. Les dispositifs fiscaux cherchaient notamment à « activer » les femmes ; ils ont créé un « sous-prolétariat féminin » qui ne peut vivre sans minima sociaux [Gadrey, 2009].

Dans un troisième chapitre, Carbonnier et Morel cherchent à déterminer quel est l’impact redistributif de ces dispositifs et s'ils répondent (comme ils s’en donnent l’objectif) aux besoins sociaux que constituent la prise en charge des personnes dépendantes et la garde des jeunes enfants. Le profil distributif du crédit d’impôt dépend de la consommation des services domestiques, or cette dernière est elle-même fonction du revenu [Carbonnier, 2009]. Les ménages aisés y ont recours plus fréquemment et pour des montants plus importants. La subvention par un crédit d’impôt est donc très régressive. Il faut avancer le coût des services et celui-ci, même après crédit d’impôt, reste trop élevé pour les plus modestes. De plus, les dispositifs fiscaux subventionnent en grande partie des services de confort pour les plus riches : seulement 46 % des heures de services à la personne sont des heures de garde d’enfant ou d’aide à domicile pour des personnes âgées ou handicapées ; le reste regroupe des activités comme le ménage et le repassage de personnes valides, le jardinage, le bricolage, etc. Certes, la moitié des ménages qui ont recours aux services à domicile ont plus de 70 ans, mais il s’agit quasi exclusivement de personnes fortunées. De plus, en subventionnant seulement la demande et non l’offre, les pouvoirs publics ont réduit leur capacité d’agir sur la qualité des services proposés. Ils n’ont contrôlent pas non plus la répartition géographiques : ces services se sont naturellement développés en ville. Au final, c’est bien l’égalité d’accès à ces services qui n’est pas assurée.

C’est en particulier le cas pour la garde d’enfants, qui est l’une des plus inégalitaires en Europe et qui contribue par là à entretenir une dualisation parmi les femmes : en bénéficiant des services domestiques, ce sont essentiellement les plus aisées qui peuvent consacrer davantage de temps aussi bien à un travail plus rémunérateur qu’à leur vie familiale et aux loisirs. Il y a alors un véritable « transfert de la charge des tâches domestiques des femmes les plus qualifiées vers les femmes les moins qualifiées », conduisant à remplacer les « inégalités de genre au sein des couples les plus aisées par des inégalités entre femmes de différentes catégories socioprofessionnelles ». Or, comme le démontre l’exemple des pays nordiques (notamment avec les congés parentaux), cette situation est façonnée par les politiques publiques et peut donc être rectifiée par celles-ci.

Face au creusement des inégalités et au chômage des peu qualifiés, la stratégie des gouvernements français, en parallèle au subventionnement des emplois domestiques, a consisté à accroître le salaire minimum tout en allégeant les cotisations sociales à ce niveau. Cette stratégie entretient de mauvaises conditions de travail et de faibles salaires ; elle est très coûteuse ; elle n'a pas endigué le chômage des peu qualifiés. Carbonnier et Morel proposent des alternatives dans un quatrième et dernière chapitre. Ils rappellent que les pays scandinaves ont réussi à maintenir des niveaux élevés de salaire minimum, de prélèvements obligatoires et de taux d’emploi, notamment en investissant massivement dans l’éducation [Kleven, 2014]. Or, en France, les secteurs de l’éducation et de la santé restent sous-développés. Les développer permettrait de créer des emplois qualifiés vers lesquels pourraient se reclasser les travailleurs subissant les contrecoups de la mondialisation et du progrès technique. Accroître les ressources allouées à l’école permettrait à celle-ci de devenir plus efficace et de mieux jouer son rôle d’ascenseur social. Accroître les capacités d’accueil collectif des enfants en bas âge, notamment les crèches, permettrait non seulement de stimuler l’offre de travail des femmes, mais aussi de réduire les inégalités scolaires. Surtout, il est possible d'accroître l'emploi en réallouant une partie (l’équivalent de 26 milliards d’euros) des dépenses consacrées aux subventions d’emplois domestiques et autres allègements de cotisations sociales pour directement financer des services sociaux [Carbonnier et alii, 2014]

 

Références

ALBERTINI, Julien, Jean-Olivier HAIRAULT, François LANGOT & Thepthida SOPRASEUTH (2016), « Emploi agrégé, polarisation des emplois et inégalités de salaire : une comparaison transatlantique », in Revue française d'économie, vol. XXXI.

AUTOR, David H., & David DORN (2013), « The growth of low-skill service jobsand the polarization of the US labor market », in American Economic Review, vol. 103, n° 5.

CAHUC, Pierre, & Michèle DEBONNEUIL (2004), Productivité et emploi dans le tertiaire, rapport du CAE, n° 49.

CARBONNIER, Clément (2009), « Réduction et crédit d’impôt pour l’emploi d’un salarié à domicile, conséquences incitatives et redistributives », in INSEE, Economie et Statistique, n° 427-428.

CARBONNIER, Clément (2015), « Efficacité et équité des aides pour l’emploi d’un salarié à domicile. Analyse des évaluations empiriques sur la réduction/crédit d’impôt entre 1991 et 2007 », in Travail et Emploi, n° 143.

CARBONNIER, Clément, Bruno PALIER & Michaël ZEMMOUR (2014), « Exonérations ou investissement social ? Une évaluation du coût d’opportunité de la stratégie française pour l’emploi », LIEPP, working paper, n° 34.

GADREY, Jean (2009), « L'institutionnalisation du "précariat" féminin subventionné », in Travail, Genre et Sociétés, n° 22.

KLEVEN, Henrik Jacobsen (2014), « How can Scandinavians tax so much? », in Journal of Economic Perspectives, vol. n°4, automne.

PIKETTY, Thomas (1998), « L'emploi dans les services en France et aux États-Unis : une analyse structurelle sur longue période », in INSEE, Economie et Statistique, n° 318.

 

voir la liste complète des notes de lecture

Partager cet article

Repost0
17 avril 2019 3 17 /04 /avril /2019 22:10
Pourquoi les entreprises américaines sont-elles moins dynamiques ?

Plusieurs études ont récemment suggéré que le dynamisme des entreprises américaines s’est essoufflé ces dernières décennies. Ufuk Akcigit et Sina Ates (2019a, 2019b) ont compilé dix faits stylisés amenant à établir un tel diagnostic : (i) la concentration des marchés s’est accentuée [Gutiérrez et Philippon, 2016 ; Autor et alii, 2017] ; (ii) les taux de marge moyens se sont accrus, ce qui suggère que les entreprises jouissent d’un plus fort pouvoir de marché [Barkai, 2017 ; De Loecker et Eeckhout, 2017] ; (iii) la part des profits dans le PIB a augmenté, mais l’investissement est faible [Gutiérrez et Philippon, 2016] ; (iv) la part du travail dans la production a diminué [Elsby et alii, 2013] ; (v) la hausse de la concentration des marchés et la baisse de la part du travail sont positivement associées l’une à l’autre [Barkai, 2017 ; Autor et alii, 2017] ; (vi) l’écart en termes de productivité du travail entre les firmes à la frontière et les firmes en retard s’est creusé [Andrews et alii, 2016] ; (vii) le taux de créations d’entreprises a diminué et, dans une moindre mesure, le taux de destructions d’entreprises également [Decker et alii, 2016] (cf. graphique 1) ; (viii) la part des nouvelles entreprises dans l’activité économique a décliné [Decker et alii, 2016] ; (ix) la réallocation des emplois, mesurée par les flux de créations et de destructions d’emplois, a ralenti (cf. graphique 2), ce qui peut se traduire par un allongement de la durée du chômage, par de plus mauvais appariements entre travailleurs et emplois et par un ralentissement de la croissance de la productivité et des salaires [Davis et Haltiwanger, 2014 ; Decker et alii, 2016] ; (x) la dispersion des taux de croissance des firmes s’est réduite, notamment parce que les nouvelles entreprises (les plus performantes) croissent moins vite (1).

GRAPHIQUE 1  Dynamisme des entreprises américaines (en %)

source : Furman et Orszag (2018)

Au final, il apparaît que les entreprises américaines sont plus vieilles et plus grosses que par le passé, ce qui n’est pas sans pénaliser l’ensemble de l’économie. Ces diverses dynamiques tendent à freiner la croissance de la productivité et ainsi la croissance économique. Parce que les travailleurs ont moins d’opportunités pour changer d’entreprises, le rapport de force se tourne en faveur des employeurs. Parce que la croissance de la productivité ralentit et que les travailleurs perdent de leur pouvoir de négociation, les salaires sont poussés à la baisse, en particulier pour les moins qualifiés. Et parce que les entreprises bénéficient d’un plus fort pouvoir de marché et que les salaires sont poussés à la baisse, cela tend à creuser les inégalités de revenu [Furman et Orszag, 2018]

GRAPHIQUE 2  Dynamisme du marché du travail américain (en %)

source : Furman et Orszag (2018)

Akcigit et Ates ne se sont pas contentés de diagnostiquer un manque de dynamisme ; ils ont passé en revue les différentes raisons susceptibles d’explique celui-ci. Ils identifient tout d’abord toute une littérature mettant l’accent sur des changements structurels. Par exemple, Fatih Karahan et alii (2018) affirment que le changement démographique, notamment le retrait des baby-boomers de la vie active, explique l’essoufflement de l’entrepreneuriat américain. Robert Gordon (2012) suggère quant à lui que l’économie américaine a épuisé son potentiel d’innovations, un constat que tendent à rejoindre Nicholas Bloom et alii (2017) en notant que les efforts de recherche ont beau augmenter, leur productivité diminue. 

En se focalisant sur la déformation du partage de la valeur ajoutée au détriment du travail, certaines études ont mis en avant l’importance des « firmes superstars », c’est-à-dire d’entreprises qui dominent les secteurs où elles opèrent et qui concentrent une part croissante de l’activité économique. Par exemple, David Autor et alii (2017) ont montré que la concentration des marchés des produits s’est accentuée au cours des dernières décennies et que les secteurs où les ventes sont les plus concentrées sont ceux qui ont connu les plus fortes baisses de la part du travail. En outre, leur analyse suggère que la concentration associée aux firmes superstars était plus prononcée dans les secteurs où « le gagnant rafle tout » (winner-takes-all). En réalisant des comparaisons internationales, Frederico Diez et alii (2018) constatent que le pouvoir de marché des firmes superstars augmente et s’avère négativement corrélé avec la part du travail.

La plus forte concentration des marchés des produits pourrait également s’expliquer par la nature des récentes innovations et par l’importance croissante des données et du savoir tacite dans les processus productifs. Ces changements contribueraient tout particulièrement aux entreprises les plus grosses, notamment plus à même de collecter des données, ce qui freinerait la diffusion des innovations des entreprises à la frontière technologique vers les autres entreprises. David Autor et alii mettent en évidence une corrélation négative entre la concentration des secteurs et le ralentissement de la diffusion des technologies, lorsqu’ils mesurent celle-ci avec la vitesse des citations de brevets. De leur côté, Gustavo Grullon et alii (2017) constatent que les entreprises américaines dans les secteurs les plus concentrés tendent à posséder davantage de brevets, ce qui suggère la présence de plus fortes barrières à l’entrée de ces secteurs.

Enfin, beaucoup ont suggéré que la réglementation a freiné la concurrence ou ralenti la diffusion des technologies entre les entreprises, provoquant par là une plus forte concentration des marchés. Andrews et alii (2016) estiment que le manque de réformes de libéralisation dans le secteur du commerce de détail a contribué à creuser l’écart en termes de productivités entre les entreprises à la frontière technologique et les autres. Grullon et alii mettent en avant des preuves empiriques suggérant que la réglementation antitrust est appliquée de façon plus laxiste aux Etats-Unis. Germán Gutiérrez et Thomas Philippon (2018) estiment d’ailleurs que les marchés des produits européens sont désormais bien plus concurrentiels que les marchés américains, ce qui expliquerait pour la concentration et le pouvoir de marché des entreprises sont bien plus faibles en Europe qu’aux Etats-Unis. 

 

(1) Plusieurs de ces tendances ne sont toutefois pas propres aux Etats-Unis et sont également observées dans d’autres pays développés ; c’est par exemple le cas pour la hausse des taux de marge, la déformation du partage de la valeur ajoutée au détriment du travail, le creusement des écarts de productivité entre les firmes et le recul des nouvelles entreprises dans l’activité économique.

 

Références

AKCIGIT, Ufuk, & Sina T. ATES (2019a), « Ten facts on declining business dynamism and lessons from endogenous growth theory », NBER, working paper, n° 25755.

AKCIGIT, Ufuk, & Sina T. ATES (2019b), « What happened to U.S. business dynamism? », NBER, working paper, n° 25756.

ANDREWS, Dan, Chiara CRISCUOLO & Peter N. GAL (2016), « The best versus the rest: The global productivity slowdown, divergence across firms and the role of public policy », OCDE, productivity working paper, n° 5.

AUTOR, David, David DORN, Lawrence F. KATZ, Christina PATTERSON & John VAN REENEN (2017), « The fall of the labor share and the rise of superstar firms », NBER, working paper, n° 23396.

BARKAI, Simcha (2016), « Declining labor and capital shares », Université de Chicago, document de travail.

BLOOM, Nicholas, Charles I. JONES, John Van REENEN & Michael WEBB (2017), « Are ideas getting harder to find? », CEP, discussion paper, n° 1496, septembre.

DAVIS, Steven J., & John HALTIWANGER (2014), « Labor market fluidity and economic performance », NBER, working paper, n° 20479.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687, août.

DECKER, Ryan A., John HALTIWANGER, Ron S. JARMIN & Javier MIRANDA (2016), « Declining business dynamism: What we know and the way forward », in American Economic Review: Papers & Proceedings, vol. 106, n° 5.

DÍEZ, Federico J., Daniel LEIGH & Suchanan TAMBUNLERTCHAI (2018), « Global market power and its macroeconomic implications », FMI, working paper, n° 18/137, juin.

EGGERTSSON, Gauti B., Jacob A. ROBBINS & Ella Getz WOLD (2018), « Kaldor and Piketty's facts: The rise of monopoly power in the United States », NBER, working paper, n° 24287, février.

ELSBY, Michael W.L., Bart HOBIJN & Aysegul ŞAHIN (2013), « The decline of the U.S. labor share », Federal Reserve Bank of San Francisco, working paper, n° 2013-27.

FURMAN, Jason, & Peter ORSZAG (2018), « Slower productivity and higher inequality: Are they related? », PIIE, working paper, n° 18-4.

GORDON, Robert J. (2012), « Is U.S. economic growth over? Faltering innovation confronts the six headwinds », NBER, working paper, n° 18315, août.

GRULLON, Gustavo, Yelena LARKIN & Roni MICHAELY (2017), « Are U.S. industries becoming more concentrated? ».

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2016), « Investment-less growth: An empirical investigation », NBER, working paper, n° 22897.

GUTIERREZ, Germán, & Thomas PHILIPPON (2018), « How EU markets became more competitive than US markets: A study of institutional drift », NBER, working paper, n° 24700, juin.

KARAHAN, Fatih, Benjamin PUGSLEY & Ayşegül ŞAHIN (2018), « Demographic origins of the startup deficit », New York Fed.

Partager cet article

Repost0
12 avril 2019 5 12 /04 /avril /2019 14:50

Nicolas FREMEAUX

Editions du Seuil, 2018

 

 

 

 

 

 

 

 

 

Dès les premières pages de son ouvrage, Nicolas Frémeaux se désole d’un paradoxe : très inégalement réparti au sein des populations, l’héritage fait son retour dans les pays développés depuis quelques décennies et pourtant il est aujourd’hui inexistant dans le débat public. C’est paradoxal, car le retour de l’héritage interagit certainement avec le creusement manifeste des inégalités de revenu. En s’inscrivant dans un recul plus général du mérite dans la société, il remet en cause l’une des promesses de la démocratie, celle de la mobilité sociale : pour réussir, il faut de plus en plus être « bien né ». En publiant Les Nouveaux Héritiers, Frémeaux espère contribuer à ce que l’héritage fasse également son retour dans le débat public.

Dans un premier chapitre, Frémeaux adopte un point de vue macroéconomique pour mettre en évidence ce retour du patrimoine dans les pays développés. Il s’appuie sur l’analyse historique de Thomas Piketty (2013) : le ratio rapportant le patrimoine sur le revenu national avait baissé jusqu’aux années cinquante, avant de s’accroître pour retrouver ces dernières décennies les niveaux élevés qu’il atteignait au début du vingtième siècle. A court terme, ces évolutions s’expliquent notamment par les variations des prix d’actifs et des destructions de patrimoine provoquées par les guerres et les crises économiques. A long terme, un niveau élevé de patrimoine s’explique par un taux d’épargne et des rendements élevés dans un contexte de faible croissance économique. Les facteurs institutionnels jouent également un rôle : l’introduction d’une fiscalité progressive a contribué à réduire le patrimoine au début du vingtième siècle, tandis que les réformes fiscales menées à partir des années quatre-vingt lui ont permis de se reconstituer.

L’évolution du flux successoral suggère que l’héritage joue un grand rôle dans la dynamique du patrimoine : en France, après une longue période de baisse, il est reparti à la hausse depuis les années soixante, atteignant en 2010 l’équivalent de 12 % à 15 % du revenu national. Mais Frémeaux souligne que le lien entre patrimoine et héritage n’est pas immédiat : le montant transmis dépend du rapport patrimoine sur revenu, du taux de mortalité et du rapport entre la richesse des morts et celle des vivants. Et l’estimation de l’importance du « stock » d’héritage dans le patrimoine n’est pas aisée. Selon les estimations de Thomas Piketty et alii (2014) dans le cas français, le patrimoine hérité représentait 80 % du patrimoine total à la veille de la Première Guerre mondiale ; cette part a ensuite diminué pour atteindre moins de 50 % dans les années cinquante, avant de remonter pour atteindre 60 % en 2010.

Le retour d’un flux successoral important ne suffit pas pour dire que nous sommes dans une société d’héritiers : cela dépend de la répartition de l’héritage. Frémeaux se penche alors sur cette dernière dans un deuxième chapitre. La répartition de l’héritage est très inégalitaire : en 2015, un tiers des individus ont reçu une donation ou un héritage au cours de leur vie ; et, parmi ceux qui ont reçu au moins une transmission patrimoniale, les 10 % les plus riches reçoivent plus de la moitié de l’ensemble des héritages, contre 7 % pour les 50 % les plus pauvres. La répartition des héritages est aussi concentrée que celle des patrimoines et toutes deux sont bien plus concentrées que celle des salaires. Mais ces répartitions ne sont pas indépendantes : ceux qui reçoivent les plus gros héritages tendent à gagner des revenus d’activité relativement plus élevés. L’homogamie amplifie aussi les inégalités : les personnes qui héritent tendent à se mettre en couple ensemble [Frémeaux, 2014]. Le retour de l’héritage est tel que, malgré la hausse des inégalités salariales, la chance de rejoindre les 10 % les plus dotés en patrimoine diminue pour les travailleurs les plus rémunérés : il est de plus en plus difficile de rejoindre les 10 % les plus riches si l’on ne bénéficie pas d’un patrimoine familial [Goupille-Lebret et alii, 2017]. Pour autant, le patrimoine reste moins concentré qu’un siècle plus tôt et une classe moyenne s’est entretemps renforcée : les gros héritiers ont laissé place à des héritiers plus petits, mais plus nombreux. Mais on peut avoir une acception plus large du patrimoine en y incluant le capital humain, or un individu a d’autant plus de chances d’en accumuler que ses parents en possèdent. Et, à diplôme égal, les individus n’ont pas la même trajectoire selon leur origine sociale [Goux et Maurin, 1997]. Au final, la situation économique d’un individu dépend de plus en plus de celle de ses parents [Lefranc, 2011].

Plus que leur répartition, c’est la nature des transmissions qui a changé. Avec le vieillissement de la population et du patrimoine, les parents décèdent plus tard et sont ainsi davantage incités à transmettre au cours de leur vivant, si bien que les donations prennent une place de plus en plus importante dans les transmissions relativement aux héritages. Les terres disparaissent des transmissions, tandis que les dons en argent et la transmission de contrats d’assurance-vie s’intensifient. A travers l’évolution des régimes matrimoniaux, la façon par laquelle les couples gèrent leur patrimoine a changé, ce qui a également modifié la manière par laquelle celui-ci est transmis : le contrat de mariage connaît un nouvel essor, tandis que le plus grand recours au régime de séparation des biens contribue à l’individualisation du patrimoine.

Dans un troisième chapitre, Frémeaux se penche sur la place que tient l’héritage dans le débat public ». L’héritage suscitait des débats avant la Révolution française, mais ceux-ci s’intensifièrent dans son sillage, notamment parce qu’il était perçu comme un canal de la reproduction intergénérationnelle des inégalités : certains, comme les saint-simoniens appelèrent à son abolition ; d’autres, comme Thomas Paine, défendirent l’idée de doter chaque citoyen d’un capital de départ. C’est en 1901 qu’une fiscalité progressive de l’héritage est mise en place en France, afin de constituer une nouvelle source de recettes fiscales. Il y a là une spécificité française, puisque les autres pays développés mirent en avant un motif de justice sociale lorsqu’ils adoptèrent une telle réforme [Beckert, 2008]. Ensuite, jusqu’aux années trente, les taux d’imposition de l’héritage augmentèrent, non sans rencontrer une forte résistance.

Depuis les années soixante-dix, la plupart des pays développés connaissent un retour de l’héritage et des inégalités patrimoniales et pourtant, non seulement la fiscalité des transmissions successorales a été allégée et a perdu en progressivité dans la plupart d’entre eux, mais en outre l’héritage a paradoxalement disparu du débat public. Ce sont avant tout des arguments économiques qui sont avancés pour critiquer l’impôt successoral : ce dernier conduirait à une double imposition des héritages et donations ; il serait inefficace, puisqu’en décourageant les individus à chercher à se constituer un patrimoine en vue de le transmettre, il réduirait leurs incitations à épargner et travailler, voire il les inciterait à émigrer, etc. Frémeaux montre que ces arguments-là ne sont pas récents et que beaucoup d’entre eux ne sont pas convaincants. Par exemple, il ne semble pas y avoir de lien entre fiscalité des successions et mobilité des individus. Surtout, il pourrait y avoir un « effet Carnegie » : la réception d’un héritage réduit les incitations à travailler [Holtz-Eakin et alii, 1993].

En fait, l’impopularité de l’impôt successoral s’explique surtout par des arguments de nature morale : il est perçu comme une « taxe sur la mort », s’ajoutant à la douleur du deuil, et comme allant à l’encontre des valeurs familiales, dans un contexte où l’individualisme progresse et où la solidarité familiale semble plus impérieuse. D’autre part, les individus sous-estiment l’importance de l’héritage et le degré d’inégalité de sa répartition, tout en surestimant son imposition. Le manque de transparence peut aussi alimenter une défiance vis-à-vis de l’impôt, comme le montre l’exemple des pays scandinaves [Kleven, 2014]. Mais pour Frémeaux, il y a surtout une forme de consentement des individus à l’inégalité [Forsé et alii, 2018]. Les individus acceptent d’autant plus la redistribution qu’ils sont pessimistes à propos de la mobilité sociale [Alesina et alii, 2018]. Or, si les Français croient peu en leurs chances de connaître une ascension sociale, ils sont plus confiants dans leur capacité à transmettre un patrimoine [Grégoire-Marchand, 2018]. 

Dans un quatrième et dernier chapitre, Frémeaux propose des pistes de réflexion pour moderniser la prise en compte de l’héritage. Parce que la méconnaissance de l’héritage contribue à l’impopularité de sa taxation et à son absence dans le débat public, il lui paraît tout d’abord essentiel de développer les études empiriques. Un meilleur accès des chercheurs aux données détenues par l’administration leur permettrait d’évaluer plus précisément les effets tant de l’héritage que de sa taxation, ce qui éclairerait les termes d’un éventuel débat. Ensuite, pour assurer une meilleure répartition des richesses, il apparaît nécessaire de réformer la taxation de l’héritage, notamment en réintroduisant davantage de progressivité et de transparence dans celle-ci. Comme le pensaient Paine et, plus récemment, Anthony Atkinson, assurer une dotation minimale en patrimoine, en utilisant par exemple les recettes de la taxation successorale, pourrait également contribuer à réduire les inégalités des chances. Mais l’égalité des chances n’implique en soi l’absence d’inégalités de situations et elle risque de conduire à légitimer celles-ci [Young, 1958]. Elle ne balaie donc pas la question de savoir à partir de quelle amplitude la société juge les inégalités intolérables. Enfin, Frémeaux juge essentiel de réfléchir au rôle que doivent jouer l’héritage et la philanthropie dans la société : dans un contexte où l’intervention de l’Etat semble remise en cause, les politiques sociales pourraient davantage dépendre de la charité privée.

 

Références

ALESINA, Alberto, Stefanie STANTCHEVA & Edoardo TESO (2018), « Intergenerational mobility and support for redistribution», in American Economic Review, vol. 108, n° 2.

BECKERT, Jens (2008), Inherited Wealth, Princeton University Press.

FORSE, Michel, Alexandra FRENOD, Caroline GUIBET LAFAYE& Maxime PARODI (2018), « Pourquoi les inégalités de patrimoine sont-elles mieux tolérées que d’autres ? », in Revue de l'OFCE, n° 156.

FREMEAUX, Nicolas (2014), « The role of inheritance and labour income in marital choices », in Population, vol. 69.

GARBINTI, Bertrand, Jonathan GOUPILLE-LEBRET & Thomas PIKETTY (2018), « Income inequality in France, 1900-2014: Evidence from distributional national accounts (DINA) », WID, working paper, n° 2016-05.

GOUX, Dominique, & Eric MAURIN (1997), « Meritocracy and social heredity in France: Some aspects and trends», in European Sociological Review, vol. 13, n° 2.

GREGOIRE-MARCHAND, Pauline (2018), « Fiscalité des héritages », France Stratégie, document de travail, n° 2018-02.

HOLTZ-EAKIN, Douglas, David JOULFAIAN & Harvey S. ROSEN (1993), « The Carnegie conjecture: Some empirical evidence », in Quarterly Journal of Economics, vol. CVIII.

KLEVEN, Henrik Jacobsen (2014), « How can Scandinavians tax so much? », in Journal of Economic Perspectives, vol. n°4, automne.

LEFRAND, Arnaud (2011), « Educational expansion, earnings compressionand changes in intergenerational economic mobility: Evidence from French cohorts, 1931-1976 », document de travail.

PIKETTY, Thomas (2013), Le Capital au XXIe siècle, éditions Le Seuil.

PIKETTY, Thomas, Gilles POSTEL-VINAY& Jean-Laurent ROSENTHAL (2014), « Inherited vs self-made wealth: Theory & evidence from a rentier society (Paris 1872–1927)», in Explorations in Economic History, vol. 51, n° 1.

YOUNG, Michael (1958), The Rise of the Meritocracy, Thames & Hudson.

 

voir la liste complète des notes de lecture

Partager cet article

Repost0
10 avril 2019 3 10 /04 /avril /2019 20:47
Les taux neutres, la stagnation séculaire et le rôle de la politique budgétaire 

Ces dernières années, Larry Summers a développé l’hypothèse que les pays développés sont confrontés à ce qu’il qualifie de « stagnation séculaire » : ils connaîtraient un manque chronique de demande globale, et ce depuis une date antérieure à la crise financière mondiale. A l'instar de la faiblesse de l'inflation, la faiblesse des taux d’intérêt que l’on observe à travers les pays développés en serait l’une des manifestations : par exemple, les rendements à long terme des titres publics protégés contre l'inflation ont eu tendance à baisser depuis au moins les années quatre-vingt-dix et sont restés à leur plus bas niveau historique au cours de la dernière décennie (cf. graphique 1). En effet, la littérature moderne orthodoxe, qui s’est construite autour des travaux des nouveaux keynésiens, suggère que les taux d’intérêt seraient fondamentalement déterminés par le « taux d’intérêt neutre » (ou « taux d’intérêt naturel » ou encore « taux d’intérêt d’équilibre ») : il s’agit du taux qui est compatible avec une performance stable de l’économie. Fondamentalement, si l’économie tend à générer davantage d’épargne que d’investissement, le taux d’intérêt naturel serait faible.

GRAPHIQUE 1  Taux d'intérêt estimés à partir des obligations liées à l'inflation dans les pays développés et aux Etats-Unis (en %)

Ces dernières années, plusieurs explications ont été avancées pour éclairer à la fois la stagnation séculaire et la faiblesse des taux d’intérêt réels : Etienne Gagnon et alii (2016), Carlos Carvalho et alii (2016), Noëmie Lisack et alii (2017) ou encore Gauti Eggertsson et alii (2019) ont mis l’accent sur le vieillissement démographique ; Adrien Auclert et Matthew Rognlie (2018) sur les inégalités de revenu ; Barry Eichengreen (2015) sur la baisse du prix des biens d’investissement ; Emmanuel Farhi et François Gourio (2019) sur l’essor du capital intangible et l’accroissement du pouvoir de marché des entreprises, etc. Toutes ces forces conduiraient à déprimer la demande globale et à pousser les taux d’intérêt à la baisse en stimulant l’investissement ou en déprimant l’investissement.

Dans une nouvelle publication, Łukasz Rachel et Lawrence Summers (2019) ont estimé le taux d’intérêt réel neutre en utilisant les données agrégées de tous les pays développés, c’est-à-dire comme s’ils formaient une économie pleinement intégrée. Ils justifient cela par le fait que les fluctuations de la position du compte courant de l’ensemble des pays développés avec le reste du monde sont faibles. Leur analyse suggère que le taux d’intérêt réel pour l’ensemble des pays développés a baissé d’environ 3 points de pourcentage au cours des 40 dernières années et qu’il est actuellement juste au-dessus de zéro en termes réels (cf. graphique 2).

GRAPHIQUE 2  Taux d’intérêt naturel et croissance tendancielle des pays développés (en %)

Ce résultat apparaît paradoxal dans la mesure où ces dernières décennies ont été marquées par une hausse des dépenses publiques et des ratios d’endettement public : on aurait pu s’attendre à ce qu’une période de fort creusement des déficits publics et de hausse de la dette publique ait fortement poussé les taux d’intérêt réels neutres à la hausse. D’après les estimations de Rachel et Summers, la hausse des dépenses publiques et notamment l’extension des systèmes de protection sociale ont pu contribuer à pousser les taux d’intérêt réels d’équilibre de 3,2 points de pourcentage. Le fait que les taux d’intérêts réels aient au contraire poursuivi leur baisse suggère que les forces qui œuvrent à les déprimer du côté du secteur privé aient été plus importantes qu’on ne l’ait considéré jusqu’à présent. D’après les estimations de Rachel et Summers, le taux d’intérêt réel neutre du secteur privé a pu décliner de 7 points de pourcentage depuis les années soixante-dix. Ces conclusions sont cohérentes avec les constats de Oscar Jordà et alii (2017), ces derniers ayant établi que la faiblesse actuelle des taux d’intérêt n’est pas inhabituelle au regard de l’histoire. Elle est également cohérente avec l’expérience que connaît le Japon depuis les années quatre-vingt-dix.

Ces divers constats suggèrent ainsi que l’ensemble des pays développés est susceptible de connaître le même sort que le Japon, où l’extrême faiblesse des taux d’intérêt d’équilibre semble être devenue un aspect structurel de son économie. Pour Rachel et Summers, leur analyse suggère que la combinaison des niveaux traditionnels de taux d’intérêt et des Budgets équilibrés, voire des ratios dette publique sur PIB stables, constitue une bonne prescription pour faire basculer l’économie dans la récession. Si les autorités désirent éviter que la demande globale contraigne la production, elles doivent accepter des déficits budgétaires et dette publique élevés et croissants, laisser les taux d’intérêts réels proches de zéro, voire négatifs, et adopter des politiques structurels qui promeuvent l’investissement et réduisent l’épargne.

Quant au choix de la politique conjoncturelle à adopter, Rachel et Summers montrent leur préférence pour la politique budgétaire. Son usage semble d’ailleurs peu risqué : Olivier Blanchard (2019) a noté que les craintes traditionnelles à propos de l’endettement public dans un contexte de faibles taux d’intérêts réels  semblent peu justifiées au regard de l’Histoire. Rachel et Summers sont peu convaincus à l’idée de recourir à la politique monétaire : il n’est pas certain que les banques centrales aient suffisamment de marge de manœuvre pour réduire leurs taux si une nouvelle récession éclatait ; il n’est pas certain qu’un assouplissement monétaire stimule vraiment l’activité lorsque les taux sont initialement bas ; enfin, de faibles taux peuvent avoir des effets pervers en alimentant des bulles spéculatives, en entraînant une mauvaise allocation du capital et en renforçant le pouvoir de marché des entreprises.

L’analyse de Rachel et Summers a suscité plusieurs réactions, notamment des critiques, mais ces dernières portent davantage sur les recommandations en matière de politique économique que sur le diagnostic qu’ils établissent [Gonçalves Raposo, 2019]. La controverse porte surtout sur l’efficacité de la politique monétaire : d’un côté, Martin Wolf (2019) confirme que les banques centrales n’ont plus de marge de manœuvre pour stimuler davantage l'activité, ce qui justifie de recourir à la politique budgétaire, en premier lieu l’investissement public ; de l’autre, Martin Sandbu (2019) affirme que les banques centrales n’ont pas épuisé tout leur arsenal et qu’elles pourraient par exemple chercher à directement cibler les taux d’intérêt à long terme. David Leonhardt (2019) rejoint Wolf en appelant à recourir davantage à la politique budgétaire, mais non en accordant des baisses d’impôts, non aux seuls riches comme le fit l’administration Trump, mais à la majorité de la population. Mais la plus grande critique est indirecte (1) et elle émane du côté de la Banque des Règlements Internationaux : après avoir étudié les données relatives à 19 pays développés et remontant jusqu’à 1870, Claudio Borio et alii (2019) rejettent les récentes explications des taux d’intérêt réels en suggérant que les facteurs financiers et notamment les régimes monétaires déterminent les taux d’intérêt réels, et ce même à long terme.

 

(1) Borio et alii (2019) ont publié leur étude quelques jours après que Rachel et Summers aient publié la leur. Ils ne répondent pas directement à celle-ci, mais aux travaux antérieurs de Summers sur la stagnation séculaire.

 

Références

AUCLERT, Adrien, & Matthew ROGNLIE (2018), « Inequality and aggregate demand », NBER, working paper, n° 24280.

BLANCHARD, Olivier (2019), « Public debt and low interest rates », PIIE, working paper, n° 19-4.

BORIO, Claudio, Piti DISYATAT & Phurichai RUNGCHAROENKITKUL (2019), « What anchors for the natural rate of interest? », BRI, working paper, n° 777.

CARVALHO, Carlos, Andrea FERRERO et Fernanda NECHIO (2016), « Demographics and real interest rates: Inspecting the mechanism », Federal Reserve Bank of San Francisco, working paper, n° 2016-05.

EGGERTSSON, Gauti B., Neil R. MEHROTRA & Jacob A. ROBBINS (2019), « A model of secular stagnation: Theory and quantitative evaluation », in American Economic Journal: Macroeconomics, vol. 11, n° 1.

EICHENGREEN, Barry (2015), « Secular stagnation: The long view », in American Economic Review, vol. 105, n° 5.

FARHI, Emmanuel, & François GOURIO (2019), « Accounting for macro-finance trends: Market power, intangibles, and risk premia », NBER, working paper, n° 25282.

GAGNON, Etienne, Benjamin K. JOHANNSEN & David LOPEZ-SALIDO (2016), « Understanding the new normal: The role of demographics », Réserve fédérale, finance and economics discussion paper, n° 2016-080.

GONÇALVES RAPOSO, Inês (2019), « Secular stagnation and the future of economic stabilisation », in Bruegel (blog), 1er avril.

JORDÀ, Oscar, Katharina KNOLL, Dmitry KUVSHINOV, Moritz SCHULARICK & Alan M. TAYLOR (2017), « The rate of return on everything, 1870–2015 », NBER, working paper, n° 24112.

LEONHARDT, David (2019), « There is no boom », in New York Times, 11 mars.

LISACK, Noëmie, Rana SAJEDI & Gregory THWAITES (2017), « Demographic trends and the real interest rate », Banque d'Angleterre, working paper, n° 701. 

RACHEL, Łukasz, & Lawrence H. SUMMERS (2019), « On falling neutral real rates, fiscal policy, and the risk of secular stagnation », Brookings Paper on Economic Activity.

SANDBU, Martin (2019), « How secular is secular stagnation? », in Financial Times, 13 mars.

SUMMERS, Lawrence H. (2019), « Responding to some of the critiques of our paper on secular stagnation and fiscal policy », 20 mars.

WOLF, Martin (2019), « Monetary policy has run its course », in Financial Times, 12 mars.

Partager cet article

Repost0
6 avril 2019 6 06 /04 /avril /2019 10:51
Comment la fiscalité influe sur la migration

L'idée que les hauts revenus migrent facilement pour échapper à l'impôt est populaire. Après tout, les médias relatent régulièrement l'histoire de célébrités devenues exilés fiscaux. De nombreuses rockstars britanniques ont émigré pour des raisons fiscales : les Rolling Stones pour la France dans les années soixante-dix, David Bowie pour la Suisse, Ringo Starr pour Monte-Carlo, Sting pour l'Irlande, etc. Récemment, de nombreuses stars du sport ont élu domicile dans des paradis fiscaux. Et cette apparente sensibilité des hauts revenus à la fiscalité a souvent été invoquée, notamment par les politiciens, pour appeler à alléger la fiscalité pour attirer ou retenir les talents, contenir une possible « fuite des cerveaux » (brain drain).

Henrik Kleven, Camille Landais, Mathilde Muñoz et Stefanie Stantcheva (2019) viennent de passer en revue la littérature portant sur les effets de la taxation des revenus personnels sur la mobilité géographique des personnes. Ils rappellent que la science économique développe depuis longtemps l'idée que la fiscalité puisse affecter les choix de résidence des individus. Par exemple, la littérature en finances publiques locales part de l’idée que les individus prennent en compte les taxes et les services publics proposés par chaque localité pour décider de leur lieu de résidence [Tiebout, 1956], tandis que la littérature autour de la taxation optimale estime que la possibilité de migrer contraint la conception de la fiscalité et qu'elle est susceptible par là d’entraîner une concurrence fiscale inefficace lorsque les autorités fiscales ne se coordonnent pas [Mirrlees, 1982].

Et pourtant, Kleven et ses coauteurs notent qu’il n’existe qu’une douzaine d’articles cherchant à déterminer empiriquement les effets que l’imposition sur le revenu des particuliers peut avoir sur la migration. Ils soulignent que les difficultés rencontrées par les analyses empiriques, en termes de données et d’identification, ont empêché pendant longtemps les avancées dans ce domaine de recherche. Il a fallu attendre récemment, que de nouvelles sources de données soient constituées et que des approches quasi-expérimentales soient développées, pour qu’il soit possible de proposer des estimations crédibles des réponses de la migration. Pour ce faire, le plus opportun est d'utiliser les taux moyens d'imposition, mais ces derniers ne sont pas faciles à calculer. C'est pour cela que les récentes études se sont appuyées sur les taux marginaux d'imposition et donc se sont focalisées sur les hauts revenus.

Plusieurs études ont adopté un point de vue macroéconomique, cherchant à déceler un lien empirique entre le stock d’étrangers et les taux d’imposition en étudiant des échantillons de pays. Elles mettent en évidence qu'il y a une forte dispersion des taux d'imposition entre les pays ; qu'il y a aussi une forte dispersion de la part des travailleurs étrangers au sommet de la distribution des revenus ; surtout, qu'il n'y a pas de corrélation entre le stock d'étrangers et le taux d'imposition. A la limite, si un semblant de corrélation apparaît, son signe est positif : ce sont les pays avec une part importante d'étrangers au sommet de la répartition des revenus qui présentent les taux d'imposition sur les hauts revenus les plus élevés. Même lorsque l'on observe la relation entre les variations respectives de ces deux variables, il n'y a pas de corrélation tangible qui apparaisse. Au final, il semble que les stocks et flux d'immigrants varient significativement d'un pays à l'autre pour des raisons autres que des raisons fiscales, ce qui rend nécessaire de contrôler les déterminants non fiscaux derrière les décisions de résidence.

Afin d’éviter le biais des comparaisons transnationales, d’autres études ont adopté des approches quasi-expérimentales se focalisant sur les effets de réformes fiscales instaurées par des pays en particulier. Elles notent que les taux marginaux d’imposition sur les résidents domestiques sont relativement élevés dans les pays d’Europe du nord et relativement faibles dans les pays anglo-saxons ; ce résultat est moins marqué pour la taxation des étrangers, dans la mesure où des régimes fiscaux préférentiels sont souvent proposés aux étrangers dans les pays à forte imposition ; l’instauration de tels régimes préférentiels crée une forte variation dans les incitations en matière de résidence. L'observation des effets de l'instauration de régimes fiscaux préférentiels pour les étrangers à haut revenu au Danemark en 1991 suggère que le stock d'étrangers réagit fortement au taux d'imposition [Kleven et alii, 2014]. Cela dit, ce constat n'est pas forcément observable dans d'autres pays ou pour l'ensemble des catégories socioprofessionnelles. Par rapport aux autres secteurs d'activité, les étrangers travaillant dans le secteur du sport et du divertissement sont bien plus sensibles à la fiscalité, en particulier dans le sport, en premier lieu pour les footballeurs étudiés par Henrik Kleven et alii (2013). Ce sont surtout les travailleurs à haut revenu et les professions ayant du capital humain peu lié à la localisation qui apparaissent les plus sensibles aux impôts dans leur décisions de localisation. Enfin, les expatriés et les autochtones sont bien moins sensibles que les étrangers [Kleven et alii, 2013], comme le montre également l'exemple des inventeurs « superstars » étudiés par Ufuk Akcigit et alii (2016). 

Les personnes n’ont pas forcément à migrer pour éviter la taxation : ils peuvent déplacer la base imposable, ce qui est possible dans le cas de la richesse. Les premières études qui ont cherché à déterminer la mobilité internationale de la richesse ont recherché des corrélations en étudiant des échantillons de pays. Cette littérature suggère que les dispositions fiscales internationales influencent significativement l’allocation du capital, que l’évitement fiscal menace directement la perception des recettes fiscales et la redistribution et que la conception de la fiscalité s’en trouve fortement contrainte. Ce sont de récents travaux qui ont proposé des preuves empiriques plus directes, en cherchant à quantifier le montant de richesse non déclarée détenue dans les paradis fiscaux. En s’appuyant sur les données des Panama Papers, Annette Alstadsæter, Niels Johannesen et Gabriel Zucman (2017) ont montré que la probabilité de détenir des actifs à l’étranger augmentait fortement dans le sommet de la répartition des revenus : la moitié de la richesse détenue à l’étranger appartient aux 0,01 % les plus aisés et ces derniers dissimulent ainsi un quart de leurs obligations fiscales. Plus récemment encore, des études ont cherché à identifier les réponses comportementales aux modifications fiscales en estimant les élasticités de la richesse imposable. Par exemple, en observant les effets d’une réforme fiscale au Danemark, Katrine Jakobsen et alii (2018) constatent que les élasticités à long terme de la richesse imposable vis-à-vis des rendements nets des taxes parmi les plus riches. Marius Brülhart et alii (2017) décèlent aussi de fortes réponses de la richesse imposable en Suisse, mais ils notent aussi qu’elles s’expliquent, non pas par la mobilité géographique des personnes d’un canton à l’autre, mais par celle de la richesse déclarée.

En ce qui concerne les implications pour la conception de la fiscalité, Kleven et ses coauteurs (2019) distinguent les politiques fiscales selon qu’elles sont ou non coordonnées. Dans le cas de politiques non coordonnées, le taux d’imposition optimal des étrangers est déterminé par l’arbitrage entre les pertes de recettes provoquées par les allègements d’impôts accordés aux immigrés et les gains en termes d’externalités qu’il y a à attirer des d’immigrés supplémentaires. Il dépend négativement de l’élasticité de la mobilité des étrangers et du degré auquel ils génèrent des externalités positives. Les analyses théoriques et empiriques suggèrent alors qu’il est justifié que les pays accordent des régimes fiscaux préférentiels aux étrangers. Kleven et alii soulignent ici plusieurs nuances et limites. Premièrement, plus un pays est petit, plus les incitations à réduire les impôts pour les étrangers est forte. Cela explique d’ailleurs pourquoi les paradis fiscaux sont souvent de petits pays. Deuxièmement, la politique fiscale optimale pour un pays ne l’est pas pour le reste du monde : si un pays cherche à attirer les migrants, ce sera au détriment des autres pays. Troisièmement, lorsqu’un pays réduit ses impôts, cela accroît les incitations des autres pays à réduire les leurs, si bien qu’il y a un risque de course au moins-disant fiscal, ce qui serait sous-optimal. Enfin, si l’on considère une taxation uniforme, aussi bien pour les résidents que pour les étrangers, le taux d’imposition optimal sera proche de celui des résidents, dans la mesure où ces derniers constituent l’essentiel de la population. 

Henrik Kleven et ses coauteurs (2019) concluent leur revue de la littérature en soulignant que les constats empiriques ne confirment pas forcément l'idée que le niveau de l'imposition ou sa progressivité doivent inéluctablement être réduits. D'une part, les fortes élasticités de la mobilité que la littérature a mises en évidence ne concernent que des groupes de personnes ou des pays en particulier. D'autre part, la réaction de la mobilité à la fiscalité n'est pas exogène, structurelle : elle dépend de la taille de la juridiction fiscale, du degré de coordination de la politique fiscale et de tout un éventail de politiques non fiscales. En l'occurrence, la présence d'infrastructures, de services publics et d'effets d'agglomération contribuent tout particulièrement à rendre un pays attractif.

 

Références

AKCIGIT, Ufuk, Salomé BASLANDZE & Stefanie STANTCHEVA (2016), « Taxation and the international mobility of inventors », in American Economic Review, vol. 106, n° 10.

ALSTADSÆTER, Annette, Niels JOHANNESEN & Gabriel ZUCMAN (2017), « Tax evasion and inequality », document de travail, NBER, working paper, n° 23772.

BRÜLHART, Marius, Jonathan GRUBER, Matthias KRAPF & Kurt SCHMIDHEINY (2017), « The elasticity of taxable wealth: Evidence from Switzerland », NBER, working paper, n° 22376.

JAKOBSEN, Katrine, Kristian JAKOBSEN, Henrik J. KLEVEN & Gabriel ZUCMAN (2018), « Wealth taxation and wealth accumulation: Theory and evidence from Denmark », NBER, working paper, n° 24371.

KLEVEN, Henrik J., Camille LANDAIS & Emmanuel SAEZ (2013), « Taxation and international migration of superstars: Evidence from the European football market », in American Economic Review, vol. 103, n° 5.

KLEVEN, Henrik, Camille LANDAIS, Mathilde Muñoz & Stefanie STANTCHEVA (2019), « Taxation and migration: Evidence and policy implications », CEPR, discussion paper, n° 13649.

LEVEN, Henrik J., Camille LANDAIS, Emmanuel SAEZ & Esben A. SCHULTZ (2014), « Migration and wage effects of taxing top earners: Evidence from the foreigners’ tax scheme in Denmark », in Quarterly Journal of Economics, vol. 129, n° 1.

MIRRLEES, James A. (1982), « Migration and optimal income taxes », in Journal of Public Economics, vol. 18, n° 3.

TIEBOUT, Charles M. (1956), « A Pure theory of local expenditures », in Journal of Political Economy, vol. 64, n° 5.

Partager cet article

Repost0
3 avril 2019 3 03 /04 /avril /2019 22:20
Quelles sont les répercussions macroéconomiques du plus grand pouvoir de marché des entreprises ?

Plusieurs tendances inquiétantes ont marqué les économies développées ces dernières décennies. Par exemple, les coûts d’emprunt ont diminué et, comme le suggère par exemple le Q de Tobin (qui rapporte la valeur boursière des entreprises sur la valeur de leur stock de capital), les rendements de l’investissement ont augmenté, et pourtant ce dernier est resté atone : dans les pays développés, l’investissement privé fixe est d’environ inférieur de 25 % en moyenne par rapport à sa tendance d’avant-crise depuis la crise financière mondiale. La richesse financière a eu tendance à croître plus vite que le capital productif. La part des revenus nationaux rémunérant le travail a eu tendance à diminuer et les inégalités de revenu à augmenter. Ou encore, la croissance de la productivité a durablement ralenti [Adler et alii, 2017].

Une cause est susceptible d’expliquer toutes ces tendances : ces dernières décennies, que ce soit aux Etats-Unis [De Loecker et Eeckhout, 2017 ; Eggertsson et alii, 2018] ou dans le reste des pays développés [Diéz et alii, 2018 ; De Loecker et Eeckhout, 2018], il se pourrait que la concurrence ait décliné et le pouvoir de marché des entreprises augmenté. En effet, un accroissement du pouvoir de marché des entreprises pourrait inciter ces dernières à moins investir, notamment dans l’accumulation du capital physique et la recherche-développement. Un tel sous-investissement contribuerait à freiner la croissance de la productivité, sans que les rendements du capital en soient affectés. Les cours boursiers augmenteraient alors plus vite que la valeur du capital productif, ce qui pousserait mécaniquement à la baisse la part du travail dans la valeur ajoutée. Autrement dit, les débats autour de la réglementation des géants du numérique qui enflamment les deux côtés de l’Atlantique ne sont peut-être pas absurdes [Rogoff, 2019]

Il est difficile de juger quelle est l’importance du pouvoir de marché d’une entreprise. La concentration d’un marché ne suffit pas pour mesurer celle des entreprises qui y sont présentes ; par exemple, une plus forte concurrence peut se traduire par une plus forte concentration, si les entreprises les plus efficaces évincent les moins efficaces. Par conséquent, la littérature s’est tournée vers d’autres indicateurs. Dans la mesure où l’on considère qu’une entreprise possède un pouvoir de marché si elle est à même de fixer un prix plus élevé que ses coûts marginaux, la littérature a cherché à mesurer ce pouvoir de marché en utilisant le taux de marge, qui rapporte le prix d’un bien sur le coût marginal de sa production. Dans la mesure où l’on peut également considérer qu’une entreprise possède un pouvoir de marché si elle est à même de dégager des surprofits, c’est-à-dire des rentes, on peut aussi chercher à déterminer l’ampleur de ces dernières pour juger de son pouvoir de marché. Mais ces divers indicateurs ne sont pas sans limites : par exemple, le taux de marge peut surestimer le pouvoir de marché en présence de coûts fixes et une mesure des rentes (par exemple l’indice de Lerner) est difficile à être estimée avec précision et s’avère volatil.

Dans le deuxième chapitre des nouvelles Perspectives de l’économie mondiale du FMI, Wenjie Chen, Federico Díez, Romain Duval, Callum Jones et Carolina Villegas-Sánchez (2019) ont étudié les données relatives à près d’un million d’entreprises couvrant de larges pans de l’économie de 27 pays, en l’occurrence 16 pays développés et 11 pays émergents, à partir de l’année 2000. Ils se sont appuyés sur trois types d’indicateurs, en l’occurrence les degrés de concentration des marchés, les taux de marge et des indices de Lerner, pour déterminer comment le pouvoir de marché des entreprises a évolué depuis le début du siècle, avant d’en identifier les répercussions économiques.

Leur analyse suggère que le pouvoir de marché a augmenté modérément dans les pays développés : le taux de marge a augmenté d’environ 7,7 % entre 2000 et 2015, en parallèle avec la hausse des profits et de la concentration des marchés. Il est resté à peu près stable dans les pays émergents, augmentant d’environ 1,8 % en leur sein, mais Chen et ses coauteurs notent que la concurrence sur le marché des produits était initialement plus faible dans les pays émergents que dans les pays développés.

Parmi les économies avancées, la hausse du pouvoir de marché des entreprises a été assez généralisée entre les pays, mais son amplitude diffère tout de même selon les pays ; elle a par exemple été plus forte aux Etats-Unis qu’en Europe. Elle a aussi été généralisée entre les secteurs, mais là aussi son amplitude diffère selon les secteurs : elle a été plus forte hors de l’industrie et dans les secteurs qui utilisent beaucoup les technologies digitales. Dans la plupart des pays, la hausse des marges au niveau agrégé s’explique essentiellement par celle des entreprise déjà en place et, dans une moindre mesure, par l’entrée sur les marchés de nouvelles entreprises à taux de marge élevé, plutôt que par une hausse de la part de marché des entreprises déjà en place qui présentaient des marges élevées. Mais les Etats-Unis font exception : les quatre cinquièmes de la hausse des taux de marge au niveau agrégé s’expliquent par la hausse de la part de marché des entreprises déjà en place présentant un taux de marge élevé, ce qui suggère qu’un processus de réallocation a été à l’œuvre, au bénéfice de l’économie.

Au sein de chaque secteur, la hausse des taux de marge se concentre sur une petite fraction des entreprises, en l’occurrence des entreprises souvent de petite taille, mais les plus grandes d’entre elles contribuent bien à la majorité des recettes que ce groupe génère. Les entreprises présentant un taux de marge élevé semblent réaliser de meilleures performances que les autres : leur productivité est plus forte, leur profitabilité plus élevée et elles sont davantage susceptibles d’investir dans des actifs intangibles comme les brevets et les logiciels.

Chen et ses coauteurs se sont ensuite tournés vers les répercussions de l’accroissement du pouvoir de marché des entreprises sur la croissance et la répartition du revenu. Leur analyse suggère que jusqu’à présent les répercussions macroéconomiques de l’accroissement de pouvoir de marché ont été assez modestes ; mais celles-ci pourraient être plus importantes si cette tendance se poursuivait. Malgré des profits et un Q de Tobin élevés, la hausse des taux de marge a contribué à affaiblir l’investissement [Gutiérrez et Philippon, 2016]. En effet, une hausse de 10 points de pourcentage du taux de marge d’une entreprise est associée à une baisse de 0,6 point de pourcentage de son taux d’investissement dans le capital physique. Au niveau agrégé, l’analyse empirique suggère que la production aurait été 1 % plus élevée aujourd’hui dans le pays développé moyen si le pouvoir de marché des entreprises ne s’était pas accru depuis 2000.

Le pouvoir de marché a un effet ambigu sur les décisions des entreprises en matière d’innovation. D’un côté, la perspective d’en acquérir un devrait les inciter à innover. D’un autre côté, c’est l’intensification de la concurrence, donc la réduction de leur pouvoir de marché, qui pourrait au contraire les inciter à innover, afin de s’extraire de cette concurrence. La littérature a tendance à évoquer une relation en U inversé : un accroissement du pouvoir de marché stimule tout d’abord l’innovation, puis il la freine [Aghion et alii, 2005]. L’analyse de Chen et alii tend à mettre en évidence une telle relation dans leur échantillon de 27 pays. Au niveau sectoriel, l’essentiel des observations se situe avant le point tournant, ce qui suggère que la hausse du pouvoir de marché a été bénéfique à l’innovation, mais c’est de moins en moins vrai : 21 % des observations se situaient au-delà du seuil en 2015, contre 15 % en 2000. 

La hausse du pouvoir de marché des entreprises devrait se traduire par une accélération de l’inflation, puisque celles-ci peuvent plus facilement relever leurs prix de vente. Mais elles peuvent aussi profiter de leur plus grand pouvoir de marché, non pour augmenter leurs prix, mais pour réduire leur production et leur investissement. Au niveau agrégé, la hausse des taux de marge peut affaiblir la demande, l’activité économique et l’emploi, ce qui compense en retour ses effets inflationnistes. Ce faisant, elle peut aussi contribuer à déprimer le taux d’intérêt naturel, c’est-à-dire accroître le risque que les taux d’intérêt soient contraints par leur borne inférieure lorsque l’économie bascule en récession, ce qui réduit la marge de manœuvre de la politique monétaire dans une telle situation.

Enfin, Chen et ses coauteurs se sont intéressés aux répercussions sur la répartition des revenus. Pour expliquer la déformation du partage des revenus nationaux au détriment du travail que l’on a pu observer ces dernières décennies, les études évoquent souvent le progrès technique, la mondialisation et le recul du pouvoir de négociation des travailleurs ; de plus en plus d’analyses suggèrent que l’accroissement du pouvoir de marché des entreprises y a contribué, dans la mesure où les rentes qu’elles génèrent vont être captées par les propriétaires de ces firmes [Barkai, 2016 ; Autor et alii, 2017], ce qui contribue directement à creuser les inégalités interpersonnelles de revenu [Gans et alii, 2018]. Selon Chen et ses coauteurs, la hausse du pouvoir de marché semble effectivement avoir quelque peu contribué à la déformation du partage de la valeur ajoutée : elle expliquerait 0,2 point de pourcentage de la baisse de la part du travail, soit environ un dixième de celle-ci. Une poursuite de l’accroissement du pouvoir de marché des entreprises pourrait ainsi davantage déformer le partage de la valeur ajoutée au détriment du travail.

 

Références

ADLER, Gustavo, Romain DUVAL, Davide FURCERI, Sinem KILIÇ ÇELIK, Ksenia KOLOSKOVA & Marcos POPLAWSKI-RIBEIRO (2017), « Gone with the headwinds: Global productivity », FMI, staff discussion note, n° 17/04, avril.

AGHION, Philippe, Nick BLOOM, Richard BLUNDELL, Rachel GRIFFITH, & Peter HOWITT (2005), « Competition and innovation: An inverted-U relationship », in Quarterly Journal of Economics, vol. 120, n° 2.

AUTOR, David, David DORN, Lawrence F. KATZ, Christina PATTERSON & John VAN REENEN (2017), « Concentrating on the fall of the labor share », NBER, working paper, n° 23108.

BARKAI, Simcha (2016), « Declining labor and capital shares », Université de Chicago, document de travail.

CHEN, Wenjie, Federico DÍEZ, Romain DUVAL, Callum JONES & Carolina VILLEGAS-SÁNCHEZ (2019), « The rise of corporate market power and its macroeconomic effects », in FMI, World Economic Outlook.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687, août.

DE LOECKER, Jan, & Jan EECKHOUT (2018), « Global market power », CEPR, discussion paper, n° 13009, juin.

DÍEZ, Federico J., Daniel LEIGH & Suchanan TAMBUNLERTCHAI (2018), « Global market power and its macroeconomic implications », FMI, working paper, n° 18/137, juin.

EGGERTSSON, Gauti B., Jacob A. ROBBINS & Ella Getz WOLD (2018), « Kaldor and Piketty's facts: The rise of monopoly power in the United States », NBER, working paper, n° 24287, février.

GANS, Joshua, Andrew LEIGH, Martin SCHMALZ & Adam TRIGGS (2018), « Inequality and market concentration, when shareholding is more skewed than consumption », CESifo, working paper, n° 7402.

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2016), « Investment-less growth: An empirical investigation », NBER, working paper, n° 22897.

GUTIERREZ, Germán, & Thomas PHILIPPON (2018), « How EU markets became more competitive than US markets: A study of institutional drift », NBER, working paper, n° 24700, juin.

ROGOFF, Kenneth (2019), « Elizabeth Warren’s big ideas on big tech », in Project Syndicate, 1er avril. Traduction française, « Les grandes idées d'Elizabeth Warren sur les géants du Web ».

VAN REENEN, John (2018), « Increasing differences between firms: Market power and the macroeconomy », CEP, discussion paper, n° 1576.

Partager cet article

Repost0
31 mars 2019 7 31 /03 /mars /2019 10:46
Les robots, les intelligences artificielles et le travail

Les craintes suscitées par les robots ne datent pas de ces dernières décennies. On aime bien rappeler la révolte des luddites en Angleterre au début du dix-neuvième siècle : des ouvriers et artisans s’attaquèrent aux machines qui avaient été introduites dans l’industrie textile et qu’ils accusèrent de détruire leur emploi. Comme d’autres économistes de grande renommée, Keynes évoquait l’apparition d’un véritable « chômage technologique ». Alors qu’elles avaient fait leur apparition dans les années cinquante (notamment à travers les travaux d’Herbert Simon), ce sont aujourd’hui les intelligences artificielles qui suscitent de profondes inquiétudes. A la différence des simples robots, les intelligences artificielles désignent aussi bien des machines que des logiciels ou algorithmes, dont le point commun est qu’elles cherchent à reconnaître leur environnement et à interagir avec ce dernier en accumulant de l’expérience (à travers le « machine learning ») et en se la partageant (notamment via les « clouds »). Alors que les robots ont surtout suscité des craintes pour l’emploi des travailleurs peu qualifiés réalisant des tâches routinières manuelles, les intelligences artificielles promettent de concurrencer de plus en plus les travailleurs qualifiés pour la réalisation de tâches abstraites. 

Jusqu’à présent, ces craintes ne se sont pas concrétisées, du moins pas au niveau agrégé, puisqu’à long terme l’emploi a continué de progresser. Mais rien n’assure que l’avenir sera à l’image du passé. Certains doutent que la présente révolution information et les futures innovations aient les mêmes effets que les précédentes vagues d’innovation. Alors que Robert Gordon (2012) craint que l’innovation s’essouffle et étouffe ainsi la croissance économique, Erik Brynjolfsson et Andrew McAfee (2014) craignent plutôt de leur côté un « deuxième âge des machines » où les innovations tendraient au contraire à s’accélérer et à faire disparaître l’emploi, le nombre de tâches réalisées par les travailleurs étant susceptible d’augmenter rapidement. Dans une étude dont les conclusions furent largement reprises par les médias, Carl Benedikt Frey et Michael Osborne (2013) estimaient que 47 % des emplois actuellement occupés par des travailleurs américains étaient susceptibles d’être automatisés ; la Banque mondiale (2016) estime quant à elle que 57 % des emplois dans les pays de l’OCDE sont susceptibles de l’être. Ces études négligent souvent deux choses : d’une part, ce n’est pas parce qu’une technologie est disponible qu’elle sera forcément adoptée par les entreprises, puisque cette adoption dépendra du coût de cette substitution ; d’autre part, la diffusion de nouvelles technologies dans un secteur a souvent des effets dans le reste de l’économie.

Beaucoup d’analyses partent de l’hypothèse qu’une innovation de procédé vise à accroître la productivité, c’est-à-dire la valeur ajoutée par travailleur. Si c’est le cas, la diffusion de cette innovation tend à augmenter la demande de travail, ce qui stimule l’emploi et pousse les salaires à la hausse. Certes, dans la mesure où les travailleurs sont différents les uns des autres et, notamment, ne possèdent pas les mêmes qualifications, cette innovation peut profiter davantage à certains travailleurs plutôt qu’à d’autres et peut-être détruire des emplois dans certains secteurs. Mais l’on considère que les créations d’emploi qu’elle entraîne compensent les destructions d’emploi qu’elle peut occasionner. 

L’hypothèse à la base de ce raisonnement est discutable. Plusieurs nouvelles technologies, que Daron Acemoglu et Pascual Restrepo (2019) qualifient de « technologies d’automatisation », ne visent pas vraiment à accroître la productivité du travail, mais explicitement à substituer à ce dernier des machines moins chères dans un large éventail de tâches réalisées par les êtres humaines. Via leur adoption, elles se substituent à ces derniers, donc réduisent la demande de travail et détruisent des emplois : c’est l’« effet de déplacement » (displacement effect). En conséquence de la diffusion de telles technologies, la productivité tend à augmenter plus vite que les salaires et le partage de la valeur ajoutée tend à se déformer au détriment du travail [Acemoglu et Restrepo, 2018a]. Les données confirment un tel scénario. Par exemple, en étudiant les marchés du travail locaux des Etats-Unis entre 1990 et 2007, Acemoglu et Restrepo (2018b) notent que les secteurs qui adoptent le plus de robots industriels tendent à connaître les plus fortes baisses de demande de travail et les plus fortes baisses de la part de la valeur ajoutée rémunérant le travail. De plus, ces effets pervers sont bien plus prononcés pour les travailleurs peu qualifiés que pour les travailleurs qualifiés, ce qui contribue d'ailleurs à creuser les inégalités salariales. Le maintien de l’économie sur une trajectoire de croissance équilibrée est donc loin d’être évidente [Acemoglu et Restrepo, 2018a].

Mais si la part du travail à pu rester assez stable à long terme et si les salaires ont pu augmenter peu ou prou au même rythme que la productivité sur l’essentiel de ces deux derniers siècles, cela signifie que d’autres facteurs ont contribué à neutraliser les effets pervers des technologies d’automatisation. Il est probable que ces dernières puissent accroître la demande de travail via d’autres canaux. Tout d’abord, la substitution de travailleurs par des machines moins chères provoque un « effet de productivité » (productivity effect) : comme le coût de production des tâches automatisées diminue, l’économie croît, ce qui accroît la demande de travail pour les tâches non automatisées. Peut notamment se produire un phénomène de déversement [Sauvy, 1980] : la mécanisation détruit peut-être des emplois dans les secteurs où elle s’opère, mais les gains de productivité qu’elle entraîne augmentent le pouvoir d’achat, via une baisse des prix dont profitent les consommateurs et/ou via une hausse des salaires dont profitent les travailleurs toujours employés, rendus plus efficaces par les machines ; ce supplément de pouvoir d’achat sera dépensé, si bien que des emplois sont créés dans d’autres secteurs de l’économie. 

Ensuite, l’automatisation entraîne une « accumulation du capital », qui accroît certes la demande de capital, mais augmente aussi la demande de travail. De plus, l’automatisation ne se contente pas de remplacer des tâches réalisées précédemment par des travailleurs : elle augmente la productivité des machines dans les tâches qui ont déjà été automatisées, ce qui se traduit par un « approfondissement de l’automatisation » et génère à nouveau un effet de productivité. Enfin, il faut garder à l’esprit qu’il y a différents types d’innovation contribuant à la croissance de la productivité. Au cours du temps, lorsque des technologies d’automatisation furent introduites, d’autres innovations permirent parallèlement de créer des tâches pour lesquelles les travailleurs présentaient un avantage compétitif. Et c’est cette création de nouvelles tâches qui constitue la force la plus puissante pour contrecarrer l’effet de déplacement. Acemoglu et Restrepo (2018a) notaient ainsi qu’entre 1980 et 2010, l’introduction et le développement de nouvelles tâches et nouveaux intitulés de poste expliquent environ la moitié de la croissance de l’emploi aux Etats-Unis.

L’intelligence artificielle offre de nouvelles opportunités pour automatiser davantage de tâches. C’est le cas avec la reconnaissance d’image, la reconnaissance vocale, la traduction, la comptabilité, les systèmes de recommandation et l’assistance à la clientèle. Ce choix n’est pas sans conséquences pour la distribution des revenus et la croissance de la productivité. D’une part, si les intelligences artificielles continuent à être utilisées à des fins d’automatisation sans qu’en parallèle soient introduites des innovations capables de créer de nouvelles tâches, alors leur diffusion nuira à l’emploi, déformera davantage le partage de la valeur ajoutée au détriment du travail et alimentera les inégalités de revenu. D’autre part, pour l’heure, les intelligences artificielles ont surtout conduit à une automatisation de tâches pour lesquelles elles s’avèrent moins productives que les travailleurs (pensons à la reconnaissance d'image). Si cela se poursuit ainsi, leur diffusion ne se traduira pas par de réels gains de productivité. Et pourtant, l’intelligence artificielle pourrait être utilisée pour créer de nouvelles tâches, au lieu de se contenter d’automatiser celles existantes. Acemoglu et Restrepo (2019) pensent que de telles opportunités existent par exemple dans les secteurs de l’éducation et de la santé ou un domaine comme la réalité augmentée. 

Les économistes se disent souvent confiants dans la capacité des marchés à allouer les ressources à leur usage le plus productif. Pourtant, il existe plusieurs situations où ce n’est pas le cas. Et de telles défaillances de marché sont particulièrement prégnantes dans le cas de l’innovation. En effet, les marchés dysfonctionnent lorsqu’il existe plusieurs paradigmes technologiques en concurrence. Il suffit que l’un de ces paradigmes soit plus développé que les autres pour que les chercheurs et entreprises le développent et délaissent celles-ci, même si elles auraient pu être plus productifs. Il y a en outre des phénomènes de dépendance au sentier : dès lors qu’un paradigme est développé, il est difficile de revenir en arrière et de tirer profit d’un autre paradigme, ne serait-ce parce que les clients se sont familiarisés avec le premier paradigme et que son développement a impliqué d’énormes coûts fixes [Nelson et Winter, 1977 ; Acemoglu, 2012]

 

Références

ACEMOGLU, Daron (2012), « Diversity and technological progress », in The Rate and Direction of Inventive Activity Revisited, University of Chicago Press. 

ACEMOGLU, Daron, & Pascual RESTREPO (2018a), « The race between man and machine: Implications of technology for growth, factor shares and employment », in American Economic Review, vol. 108, n° 6.

ACEMOGLU, Daron, & Pascual RESTREPO (2018b), « Robots and jobs: Evidence from US labor markets », NBER, working paper, n° 23285. 

ACEMOGLU, Daron, & Pascual RESTREPO (2018c), « Articial intelligence, automation and work », NBER, working paper, n° 24196. 

ACEMOGLU, Daron, & Pascual RESTREPO (2019), « The wrong kind of AI? Artificial intelligence and the future of labor demand », NBER, working paper, n° 25682.

BANQUE MONDIALE (2016), World Development Report 2016: Digital Dividends.

BRYNJOLFSSON, Erik, & Andrew MCAFEE (2014), The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies, W. W. Norton & Company.

FREY, Carl B., & Michael A. OSBORNE (2013), « The future of employment: How susceptible are jobs to computerisation? », Oxford Martin School.

GORDON, Robert (2012), « Is U.S. economic growth over? Faltering innovations confronts the six headwinds », NBER, working paper, n° 18315.

NAUDÉ, Wim (2019), « The race against the robots and the fallacy of the giant cheesecake: Immediate and imagined impacts of artificial intelligence », IZA, discussion paper, n° 12218. 

NELSON, Richard, & Sidney WINTER (1977), « In search of useful theory of innovation », in Research Policy, vol. 6, n° 1.

SAUVY, Alfred (1980), La Machine et le Chômage. Le Progrès technique et l’Emploi, Dunod.

Partager cet article

Repost0
30 mars 2019 6 30 /03 /mars /2019 17:50
Macroéconomie et anticipations d’inflation

Les anticipations d’inflation jouent un rôle crucial dans de nombreux modèles économiques et dans la conduite de la politique monétaire [Bernanke, 2007]. Dans la mesure où les agents prennent en compte leurs anticipations d’inflation lorsqu’ils fixent les prix et salaires, celles-ci affectent directement l’inflation courante. En l’occurrence, l’inflation aura d’autant plus de chances de déraper que les anticipations d’inflation sont élevées ou instables. Et, réciproquement, la tendance au maintien de l’inflation à un niveau faible et stable que l’on a pu observer au cours des dernières décennies s’expliquerait précisément par l’ancrage des anticipations d’inflation à un faible niveau. Beaucoup n’hésitent pas à y voir la preuve de la plus grande crédibilité que les autorités monétaires ont acquise : en faisant de la lutte contre l’inflation leur objectif prioritaire à partir des années quatre-vingt et en se contentant effectivement de poursuivre cet objectif (parfois au prix d'une récession, comme le fit Volcker), les banques centrales auraient fini par convaincre de leur détermination à assurer la stabilité des prix, si bien que les ménages et les entreprises auraient peu à peu révisé leurs anticipations d’inflation à la baisse et facilité par là en retour la tâche des autorités monétaires.

Si les anticipations d’inflation sont aujourd’hui essentielles aux yeux des banquiers centraux et des économistes pour comprendre les mécanismes macroéconomiques et concevoir la politique monétaire, ce n’était pas vraiment le cas il y a un demi-siècle. Lorsque la macroéconomie s’est constituée dans le sillage de la Grande Dépression, elle ignorait alors la question de l’inflation. Même s’il se pencha sur les effets pervers de la déflation dans l’un des chapitres de sa Théorie générale (1936), John Maynard Keynes postulait dans le reste de son ouvrage une fixité des prix (à des fins de simplification de sa démonstration), une hypothèse reprise par la suite par de nombreux économistes qui se réclamèrent de sa filiation. Le problème de l’époque était d’ailleurs davantage la déflation que l’inflation, en raison du chômage de masse et de la faiblesse de l’activité économique. Lorsqu’il posa les premiers jalons du modèle IS/LM, John Hicks (1937) le fit en supposant lui-même que les prix étaient rigides, une hypothèse qu’il jugeait plus pertinente pour décrire le monde réel que celle d’une flexibilité des prix. Mais avec la Seconde Guerre mondiale, puis les décennies de plein emploi qui suivirent, l’inflation s’accéléra et redevint une préoccupation centrale aussi bien parmi les économistes orthodoxes que chez les hétérodoxes ; Joan Robinson notait elle-même que l’absence de chômage privait l’économie d’un mécanisme pour contenir l’inflation. Les keynésiens durent alors prendre en compte l’inflation dans leur cadre théorique. C’est la relation inverse entre inflation salariale et chômage qu’observa Albin Phillips (1958) qui leur permit de dynamiser leur modèle en y intégrant la variation des prix. En effet, Paul Samuelson et Robert Solow (1960) s’appuyèrent sur ce constat empirique pour suggérer une relation inverse entre inflation des prix et du chômage, donc la possibilité d’arbitrer entre ces deux maux macroéconomiques.

Malgré le fait que Samuelson et Solow notaient déjà son instabilité, cette relation, que la littérature ultérieure retint sous le nom de « courbe de Phillips », offrit une justification théorique aux politiques de stop-and-go pratiquées par les gouvernements et banques centrales. Mais à partir des années soixante et surtout soixante-dix, l’inflation et le chômage eurent tendance à augmenter conjointement. Milton Friedman (1968) expliqua pourquoi la courbe de Phillips semblait ne plus être valide : les keynésiens avaient commis l’erreur de la faire reposer sur le seul niveau de l’inflation. Pour Friedman, il faut également prendre en compte les anticipations d’inflation : il existe une courbe de Phillips pour chaque niveau d’inflation anticipé, mais elle est verticale à long terme. Un assouplissement monétaire peut certes réduire le chômage à court terme en laissant l’inflation s’accélérer, mais le chômage revient ensuite à son niveau initial, son niveau « naturel », si bien qu’il n’y a pas d’arbitrage à long terme entre inflation à chômage. Les nouveaux classiques radicalisèrent ces conclusions en suggérant l’absence même d’un arbitrage à court terme : si, comme ils le supposent, les agents forment des anticipations rationnelles lorsqu’ils anticipent l’inflation, alors un assouplissement monétaire systématique n’aura aucun effet à court terme sur le chômage [Sargent et Wallace, 1975].

Ce sont les travaux que développèrent les nouveaux keynésiens à partir de la fin des années soixante-dix qui redonnèrent à l’action monétaire sa légitimité. Les nouveaux keynésiens montrent en effet que, même si les anticipations sont rationnelles, un assouplissement monétaire est susceptible de stimuler l’activité économique et réduire le chômage, bref d’avoir des effets réels. Pour que ce soit le cas, il suffit de postuler que seule une fraction des entreprises modifie ses salaires [Fischer, 1977 ; Taylor, 1980] et ses prix [Calvo, 1983] au cours de chaque période, ne serait-ce que par ce qu’il y a des coûts à négocier et changer les prix et salaires. C’est notamment par ce biais que les travaux ultérieurs ont suggéré qu’il existe une relation entre l’inflation attendue et l’écart de production (output gap), du moins à court terme : c’est la « courbe de Phillips des nouveaux keynésiens ». D’autres nouveaux keynésiens vont plus loin et suggèrent qu’à de très faibles niveaux d’inflation, la courbe de Phillips de long terme avoir une pente négative, si bien que les possibilités d’arbitrage entre inflation et chômage pourraient perdurer au-delà du court terme. Ces dernières années, beaucoup ont estimé que l’ancrage même des anticipations d’inflation à un faible niveau s’est traduit par un retour de la courbe de Phillips et à son aplatissement, donc par l’octroi aux banques centrales d’une plus grande latitude pour stabiliser l’activité sans compromettre la stabilité des prix [FMI, 2013 ; Blanchard, 2016]

Tout au long de ces dernières décennies, la littérature théorique n’a cessé de donner un rôle crucial aux anticipations d’inflation, mais il n’y a toujours pas de consensus sur leur modélisation. Les banques centrales et les universitaires ont très régulièrement utilisé le modèle des nouveaux keynésiens, mais ce dernier a suscité plusieurs critiques. Par exemple, il ne prend pas en compte les contraintes auxquelles les agents font face lorsqu’ils forment leurs anticipations à propos de l’inflation. D’autre part, il est incapable d’expliquer la persistance de l’inflation que les analyses observent à travers les données empiriques. Ces critiques ont conduit au développement de deux approches alternatives pour modéliser le rôle de l’information dans la formation des anticipations d’inflation : le modèle à information visqueuse et le modèle à information bruitée. Dans les modèles à information visqueuse (sticky), il est supposé que les agents révisent lentement leurs anticipations d’inflation en raison de l’a présence de coûts dans l’acquisition et le traitement des nouvelles informations. Dans les modèles à information bruitée (noisy), il est supposé que les nouvelles informations sont bruitées ou que les agents ne les prennent pas toutes en compte.  Ce dernier type de modèles, qui supposent que les agents ne sont pas pleinement rationnels et peuvent fixer les prix en utilisant une règle dépendant de l’inflation passée a conduit au développement de ce que l’on appelle le « courbe de Phillips nouvelle keynésienne hybride ». Celle-ci fait dépendre l’inflation de l’inflation anticipée et de l’inflation passée [Galí et Gertler, 1999]. Elle colle mieux aux données que la courbe de Phillips nouvelle keynésienne standard : cette dernière suppose que les anticipations d’inflation à long terme ne réagissent pas aux nouvelles informations parce que les agents connaissent l’équilibre à long terme ; la courbe de Phillips nouvelle keynésienne hybride permet de rendre compte d’environnements où la banque centrale et le public ne saisissent pas parfaitement la structure de l’économie.

Les anticipations d’inflation jouant véritablement un rôle crucial selon les travaux théoriques, les analyses empiriques ont cherché à les mesurer, mais ce n’est pas une tâche aisée : les anticipations d’inflation ne peuvent être mesurées directement, si bien qu’elles sont estimées à partir d’enquêtes (auprès des ménages, des entreprises ou des prévisionnistes professionnels) ou inférées à partir de l’évolution des prix d’actifs et des rendements financiers.

Ayhan Kose, Hideaki Matsuoka, Ugo Panizza et Dana Vorisek (2019) ont récemment passé en revue cette littérature empirique et ont eux-mêmes cherché à ses constats en étudiant un échantillon de 24 économies développées et 23 pays en développement. Leur analyse confirme que les anticipations d’inflation à long terme ont diminué et sont devenues plus fermement ancrées au cours des deux dernières décennies, aussi bien dans les pays développés que dans les pays émergents. Elles restent toutefois moins ancrées dans les pays en développement que dans les pays développés. 

En outre, l’analyse de Kose et alii indique que les anticipations d’inflation à long terme dans les pays en développement sont davantage sensibles aux chocs domestiques et mondiaux que celles dans les pays développés ; ce constat contribue d’ailleurs à expliquer pourquoi elles sont moins ancrées dans les premiers que dans les seconds. Dans les pays en développement, la sensibilité des anticipations d’inflation aux chocs domestiques a graduellement diminué entre 2005 et 2012 et elle a depuis été pour l’essentiel stable, tandis que la sensibilité des anticipations d’inflation aux chocs mondiaux a légèrement diminué depuis 2000. Dans les pays développés, la sensibilité des anticipations d’inflation aux chocs mondiaux a régulièrement diminué entre la fin des années quatre-vingt-dix et la fin des années deux mille, puis elle a lourdement chuté dans le sillage de la crise financière mondiale, tandis que la sensibilité des anticipations d’inflation aux chocs domestiques a baissé de façon moins prononcée. Ces constats suggèrent que les progrès dans l’ancrage des anticipations d’inflation dans les pays développés s’expliquent en partie par leur moindre sensibilité aux chocs mondiaux.

Enfin, l’analyse de Kose et ses coauteurs tend à confirmer que le cadre institutionnel, l’environnement macroéconomie influence le plus ou moins grand ancrage des anticipations d’inflation. En effet, ces dernières sont d’autant mieux ancrées si la banque centrale a adopté un régime de ciblage d’inflation et si elle s’avère très transparente, et ce aussi bien dans les pays développés que dans les pays en développement. Dans le cas des pays en développement, l’adoption d’un régime de change flexible, un fort degré d’ouverture au commerce extérieur et le maintien de la dette publique à un faible niveau semblent également contribuer à mieux ancrer les anticipations d’inflation. Dans tous les cas, si l’adoption du ciblage d’inflation semble avoir contribué à mieux ancrer les anticipations d’inflation dans les pays en développement, elle n’apparaît ni comme une condition nécessaire, ni comme une condition suffisante pour parvenir à les ancrer.

 

Références

AKERLOF, George A., William T. DICKENS & George L. PERRY (2000), « Near-rational wage and price setting and the long-run Phillips curve », in Brookings Papers on Economic Activity, vol. 31.

BERNANKE, Ben S. (2007), « Inflation expectations and inflation forecasting », discours prononcé à la conférence estivale du NBER.

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

CALVO, Guillermo (1983), « Staggered prices in a utility maximizing framework », in Journal of Monetary Economics, vol. 12.

COIBION, Olivier, Yuriy GORODNICHENKO, Saten KUMAR & Mathieu PEDEMONTE (2018), « Inflation expectations as a policy tool? », NBER, working paper, n° 24788.

FISCHER, Staney (1977), « Long-term contracts, rational expectations, and the optimal money supply rule », in Journal of Political Economy, vol. 85, n° 1.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58.

GALÍ, Jordi, & Mark GERTLER (1999), « Inflation dynamics: A structural economic analysis », in Journal of Monetary Economics, vol. 44, n° 2.

KOSE, M. Ayhan, Hideaki MATSUOKA, Ugo PANIZZA & Dana VORISEK (2019), « Inflation expectations: Review and evidence », CEPR, discussion paper, n° 13601.

PHILLIPS, Alban W. (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861-1957 », in Economica, vol. 25, n° 100.

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

SARGENT, Thomas, & Neil WALLACE (1975), « ‘Rational’ expectations, the optimal monetary instrument, and the optimal money supply rule », in Journal of Political Economy, vol. 83, n° 2.

TAYLOR, John (1980), « Aggregate dynamics and staggered contracts », in Journal of Political Economy, vol. 88, n° 1.

Partager cet article

Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher