Overblog
Suivre ce blog
Administration Créer mon blog
25 août 2016 4 25 /08 /août /2016 23:39

Toute transaction marchande, toute coopération, requièrent un minimum de confiance vis-à-vis d’autrui, en particulier en situation d’asymétrie d’information. Un surcroît de confiance n’incite pas seulement les agents à multiplier les relations marchandes, il contribue également à réduire les coûts de transaction. Au niveau agrégé, il est ainsi susceptible de stimuler la croissance économique en favorisant plusieurs de ses déterminants, comme les échanges, le crédit, l’investissement, l’entrepreneuriat, l’innovation, etc. [Algan et Cahuc, 2013]. En identifiant les déterminants du développement économique à long terme, les économistes ont ainsi pu noter l'importance de la culture et de la religion, dans la mesure où les valeurs qu'elles véhiculent sont plus ou moins propices à la croissance. La qualité des institutions se révèle elle-même essentielle aux performances macroéconomiques de par leurs effets sur la confiance. Or plusieurs études, notamment celles réalisées par Robert Putnam, suggèrent que la confiance et plus largement le capital social ont décliné dans plusieurs pays développés. Aux Etats-Unis, la part des sondés estimant qu’ils peuvent faire confiance à la plupart des personnes est passée d’environ 50 % à 33 % entre le début des années soixante-dix et 2010. Beaucoup ont alors conclu le manque de confiance, voire la défiance, ont pu freiner la croissance.

D’un autre côté, ces dernières décennies ont également été marquées par un creusement des inégalités de revenu et de richesses, tout du moins dans les pays développés. Or, de plus en plus d’analyses, notamment celles du FMI ou de l’OCDE, concluent que l’effet net des inégalités sur la croissance se révèle négatif. Certains ont alors naturellement relié le creusement des inégalités et le déclin de la confiance au ralentissement de la croissance, mais aussi suggéré qu’ils pouvaient être directement liés l’un à l’autre.

En cherchant à préciser quels facteurs sont susceptibles d’influencer la croissance via leurs effets sur la confiance, plusieurs études ont en effet souligné le rôle joué par les inégalités de revenu et de richesse. Par exemple, Stephen Knack et Philip Keefer (1997) constatent que la confiance et les normes civiques sont plus fortes dans les pays présentant de plus hauts revenus et une plus grande égalité de revenus. Plusieurs raisons, sur le plan théorique, amènent effectivement à penser que l’essor des inégalités alimente la défiance [Barone et Mocetti, 2016]. Par exemple, les inégalités économiques génèrent ou renforcent la distance sociale entre les individus : plus les inégalités économiques sont fortes, plus les barrières sociales entre les différents groupes sont importantes et moins leurs membres se sentent à l’aise à l’idée de tisser des liens entre eux. En outre, les inégalités peuvent alimenter le sentiment d’injustice et la croyance que les autres disposent d’avantages immérités. Enfin, des communautés inégalitaires peuvent ne pas parvenir à s’accorder sur la manière par laquelle financer et partager les biens publics. 

Certains ont alors cherché à déterminer explicitement si le déclin du capital social et l’essor des inégalités sont effectivement liés l’un à l’autre. Par exemple, en utilisant des données relatives à la Suède sur la période comprise entre 1994 et 1998, Magnus Gustavsson et Henrik Jordahl (2008) ont constaté que les inégalités entre les ménages réduisent la confiance, en particulier lorsqu’elles se concentrent dans la moitié inférieure de la répartition des revenus. En outre, ils constatent que l’effet est plus important dans le cas des inégalités du revenu disponible que dans le cas des inégalités du revenu primaire et pour les personnes qui présentent la plus forte aversion face aux écarts de revenu. De leur côté, en étudiant les résultats de l’enquête internationale World Values Survey, Guglielmo Barone et Sauro Mocetti (2016) confirment que les inégalités réduisent la confiance, mais l’effet n’est statistiquement significatif que parmi les pays développés : dans ces derniers, une hausse de 1 point de pourcentage de l’indice de Gini se traduit en moyenne par une baisse de 2 points de pourcentage de la part des individus qui déclarent que l’on peut faire confiance à la plupart des gens. A l’inverse de Gustavsson et Jordahl, ils constatent que la relation négative entre les inégalités et la confiance s’explique par le sommet de la répartition des revenus. Enfin, leurs résultats suggèrent que l’impact des inégalités sur la confiance est plus faible lorsque la mobilité intergénérationnelle est plus forte.

Dans une récente contribution pour le FMI, Eric Gould et Alexander Hijzen (2016) ont étudié l’impact des inégalités sur le niveau de confiance que chaque individu tend à accorder à autrui et sur divers autres indicateurs habituellement utilisés pour mesurer le capital social. Pour cela, ils ont utilisé les données de l’American National Election Survey (ANES) relatives à la période 1980-2010 pour les Etats-Unis et les données issues de l’European Social Survey (ESS) relatives à la période 2002-2012 pour les pays européens. Les résultats que Gould et Hijzen obtiennent confirment que les inégalités de revenu réduisent le niveau de confiance que chaque individu place en autrui dans les pays développés. Dans le cas des Etats-Unis, il semble que ce soit principalement l’accroissement des inégalités en bas de la répartition des revenus qui pèse sur la confiance et cette dynamique affecte essentiellement les moins éduqués et ceux qui appartiennent au tiers le plus pauvre de la répartition des revenus. Les niveaux de confiance des Européens sont également affectés par l’accroissement des inégalités, mais, à l’inverse des Etats-Unis, l’impact des inégalités sur la confiance en Europe est davantage généralisé. L’accroissement des inégalités au sommet et à la base de la répartition des revenus pèse sur la confiance et cet effet négatif s’observe indépendamment du niveau de diplôme des individus. Certaines preuves empiriques suggèrent que les inégalités sur l’ensemble du spectre amènent les Européens à désirer un surcroît d’action publique pour réduire les inégalités de revenu, alors qu’il y a peu de preuves empiriques allant dans ce sens dans le cas des Américains. Dans la mesure où de nombreuses études ont relié la confiance à la croissance économique, ces divers résultats suggèrent un canal indirect, mais important, via lequel les inégalités de revenu freinent la création de richesses.

 

Références

ALGAN, Yann, & Pierre CAHUC (2013), « Trust, growth, and well-being: New evidence and policy implications », in Philippe Aghion & Steven Durlauf (dir.), Handbook of Economic Growth.

BARONE, Guglielmo, & Sauro MOCETTI (2016), « Inequality and trust: New evidence from panel data », in Economic Inquiry, vol. 54, n° 2, avril.

GOULD, Eric D., & Alexander HIJZEN (2016), « Growing apart, losing trust? The impact of inequality on social capital », FMI, working paper, n° 16/176, août.

GUSTAVSSON, Magnus, & Henrik JORDAHL (2008), « Inequality and trust in Sweden: Some inequalities are more harmful than others », in Journal of Public Economics, vol. 92, n° 1-2, février.

KNACK, Stephen, & Philip KEEFER (1997), « Does social capital have an economic payoff? A cross-country investigation », in Quarterly Journal of Economics, vol. 112, n° 4, novembre.

21 août 2016 7 21 /08 /août /2016 23:59

Même si elle suit une tendance baissière à long terme, l’inflation est restée remarquablement stable aux Etats-Unis ces dernières années, que ce soit lors de la crise financière elle-même (où beaucoup s’attendaient à voir l’économie basculer durablement dans une forte déflation) ou bien suite à celle-ci (beaucoup s’attendant alors à une accélération rapide de l’inflation, à mesure que l’économie se rapproche du plein emploi). La Réserve fédérale maintient son taux directeur proche de zéro depuis bientôt une décennie pour ramener l’inflation à 2 %, ce qui a contribué à ce que le taux de chômage diminue et soit désormais inférieur à 5 %. Et pourtant, l’inflation reste en-deçà de sa cible. Beaucoup ont alors considéré que de tels événements confirmaient que la courbe de Phillips n’était plus valide. Pour d’autres, notamment le FMI (2013), elle est toujours valide, mais elle s’est « aplatie ». Dans le premier cas, la Fed ne doit pas chercher à réduire le taux de chômage sous son niveau naturel : non seulement la baisse du chômage ne serait que temporaire, mais l’inflation risque aussi d’accélérer, sensiblement et longuement. Dans le deuxième cas, la Fed dispose peut-être d’une marge de manœuvre pour réduire davantage le chômage sans pour autant accroître durablement l’inflation.

Après avoir étudié avec Eugenio Cerutti et Larry Summers la relation entre inflation et chômage à partir d’un échantillon de 20 pays développés, Olivier Blanchard (2016) a analysé plus précisément le comportement de l’inflation et du chômage aux Etats-Unis. Il constate qu’un faible niveau de chômage tend toujours à pousser le taux d’inflation à la hausse, tandis qu’un niveau élevé de chômage tend toujours à pousser le taux d’inflation à la baisse. Autrement dit, la courbe de Phillips est toujours « vivante ». Ce qui a toutefois changé, c’est le fait que les anticipations d’inflation soient plus solidement ancrées que par le passé. L’inflation dépend désormais principalement de l’inflation anticipée à long terme plutôt que l’inflation passée, tandis que l’inflation anticipée à long terme dépend elle-même moins de l’inflation passée. Au final, la courbe de Phillips correspond désormais essentiellement à une relation entre le taux de chômage et le niveau d’inflation plutôt qu’à une relation entre le taux de chômage et la variation de l’inflation. En ce sens, la relation ressemble davantage à la courbe de Phillips des années soixante qu’à la courbe de Phillips « accélérationniste » que l’on a pu observer par la suite. Blanchard cherche alors à déterminer la pente de la courbe de Phillips, c’est-à-dire la sensibilité de l’inflation au taux de chômage pour un taux d’inflation anticipé donné. Il constate que celle-ci s’est accrue durant les années soixante et soixante-dix, avant de décliner durant les années quatre-vingt. Elle est restée ensuite relativement stable. Blanchard confirme ainsi que la courbe de Phillips s’est aplatie, mais il souligne également que cet aplatissement précède la récente crise financière mondiale. Selon lui, le maintien de l’inflation à un niveau faible et stable a incité les agents à négocier et modifier moins fréquemment les prix et les salaires, si bien que l’inflation tend à être moins affectée par les conditions en vigueur sur le marché du travail.

Stefan Laseen et Marzie Taheri Sanjani (2016) confirment qu’il n’y a pas eu de changement dans la pente de la courbe de Phillips suite à la Grande Récession : la crise financière mondiale n’a pas modifié la relation entre l’inflation et le chômage. En fait, ce qui a changé après la crise financière mondiale, ce serait plutôt la nature des chocs qui ont touché l’économie américaine. Ces chocs, notamment la faible croissance mondiale, se sont révélés désinflationnistes, si bien qu’ils ont contribué à maintenir l’inflation à un faible niveau aux Etats-Unis malgré le fait que le marché du travail américain se soit rapproché du plein emploi. De leur côté, Yasser Abdih, Ravi Balakrishnan et Baoping Shang (2016) ont constaté que l’inflation sous-jacente des services est avant tout influencée par les forces domestiques, tandis que l’inflation sous-jacente des biens est avant tout influencée par les facteurs mondiaux et les variations du taux de change du dollar. Les pressions mondiales devraient normalement maintenir l’inflation sous-jacente sous 2 % dans un avenir proche, à moins que le dollar commence à fortement se déprécier ou que le taux de chômage passe bien en-deçà de son niveau naturel.

Ces divers résultats ont de nombreuses implications, notamment pour la conduite de la politique monétaire américaine. Avec une courbe de Phillips accélérationniste, tout boom doit nécessairement être suivi par un effondrement de même ampleur. Par contre, avec une courbe de Phillips comme celle que l’on observait dans les années soixante ou que l’on observe depuis les années quatre-vingt, tout boom est certes associé à une plus forte inflation, mais l’inflation diminue ensuite, lorsque le chômage retourne à son niveau naturel, si bien qu’un boom de l’activité ne doit pas nécessairement être suivi par un effondrement. Autrement dit, il peut ne pas y avoir de coût à avoir un boom temporaire, si ce n’est une inflation momentanément plus élevée. 

Blanchard souligne qu’il est essentiel de comprendre pourquoi les anticipations se sont ancrées à un faible niveau. Il est possible que la plus grande crédibilité des autorités monétaires et une longue période de faible inflation y aient contribué. Mais si l’inflation reste durablement éloignée de sa cible, les anticipations risquent de se désancrer. Pour l’instant, le maintien de l’inflation en-deçà de sa cible ne semble pas avoir désancré les anticipations, mais il est difficile de savoir de quelle marge les autorités monétaires disposent avant qu’une telle éventualité se concrétise. De l’autre, il est également possible que l’ancrage reflète un manque de « saillance » : à de faibles taux d’inflation, les gens peuvent ne pas se focaliser sur l’inflation, si bien qu’ils peuvent ne pas ajuster leurs anticipations lorsque le taux d’inflation varie. Si c’est le cas, la Fed peut disposer d’une certaine marge pour davantage pour le chômage à la baisse aussi longtemps que l’inflation reste suffisamment faible pour ne pas devenir saillante.

A court terme, la faiblesse de la pente de la courbe de Phillips signifie que la Fed fait face à un arbitrage entre inflation et chômage particulièrement tentant. Selon les estimations de Blanchard, une baisse de 1 % du chômage au cours d’un trimestre accroît l’inflation (en rythme annuel) de 0,2 %. Avec l’ancrage des anticipations, même si le chômage reste faible, l’inflation ne va pas s’accroître de beaucoup plus de 0,2 %. C’est un argument susceptible de convaincre la Fed de chercher à pousser le taux de chômage en-deçà de son niveau naturel. Si en outre des effets d’hystérèse sont à l’œuvre, ceux-ci constituent un argument supplémentaire en faveur d’une telle stratégie. En effet, si le taux de chômage reste supérieur à son niveau naturel, ce dernier est susceptible d’augmenter en raison des effets d’hystérèse. Or, plus le taux de chômage naturel est élevé, plus les tensions inflationnistes sont susceptibles d’apparaître rapidement lorsque le taux de chômage reflue et plus il est difficile de réduire ce dernier via des politiques conjoncturelles. Certains vont encore plus loin et estiment qu’un maintien du taux de chômage en-deçà de son niveau naturel est susceptible de réduire ce dernier. Dans la mesure où beaucoup appellent la Fed à ne pas relever ses taux d’intérêt tant qu’elle ne voit pas « l’inflation dans le blanc des yeux » et où il y a des délais dans la transmission de la politique monétaire à l’économie, Blanchard en conclut que la Fed est invitée à maintenir longuement le taux de chômage en-deçà de son niveau naturel. 

 

Références

ABDIH, Yasser (2016), « The lowdown on U.S. core inflation », in iMFdirect.

ABDIH, Yasser, Ravi BALAKRISHNAN, Baoping SHANG (2016), « What is keeping U.S. inflation low: insights from a bottom-up approach », FMI, working paper, n° 16/124.

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

BLANCHARD, Olivier, Eugenio CERUTTI & Lawrence SUMMERS (2015), « Inflation and activity – Two explorations and their monetary policy implications », FMI, working paper, novembre.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

LASEEN, Stefan, & Marzie Taheri SANJANI (2016), « Did the global financial crisis break the US Phillips curve? », FMI, working paper, n° 16/126. 

18 août 2016 4 18 /08 /août /2016 21:29

La théorie mainstream considère qu’en économie fermée l’investissement d’un pays est contraint par l’épargne nationale : pour financer leurs dépenses d’investissement, les entreprises peuvent soit utiliser leur propre « épargne », soit drainer l’épargne du reste de l’économie via le système financier. Donc, plus une économie génère d’épargne, plus elle est à même de financer des projets d’investissement. Par conséquent, si un pays est pauvre, il est susceptible de le rester : la faiblesse de son revenu national l’empêche de générer suffisamment d’épargne pour accumuler du capital, accroître sa production et accroître au final ce revenu. Mais en économie ouverte, dès lors que chaque agent peut placer son épargne dans le pays qu’il désire, l’investissement domestique n’est pas nécessairement égal à l’épargne domestique : certains pays peuvent investir plus qu’ils épargnent en captant une part de l’épargne étrangère, c’est-à-dire via les entrées de capitaux [1]. Ainsi, en théorie, un pays pauvre caractérisé par un faible taux d’épargne, mais aussi par de bonnes perspectives de croissance, peut accumuler du capital en creusant le déficit de son compte courant.

Malheureusement, beaucoup ont souligné les risques auxquels un pays fait face en creusant durablement son déficit courant, ne serait-ce que parce que les entrées de capitaux peuvent se révéler déstabilisatrices [Blanchard et alii, 2015]. En effet, à long terme, elles sont susceptibles de dégrader le potentiel de croissance en entraînant une mauvaise allocation des capitaux [Benigno et alii, 2015]. A court terme, elles peuvent alimenter un cercle vicieux où boom du crédit et appréciation de la devise se renforcent mutuellement jusqu’à devenir insoutenables. L’économie risque alors de connaître un arrêt brusque (sudden stop) des entrées de capitaux, suivi par un écroulement du crédit, une contraction de l’activité domestique et une chute des prix d’actifs, notamment des cours boursiers, des prix de l’immobilier ou encore du taux de change. De tels enchaînements ont précisément été à l’œuvre dans les pays émergents, comme le Mexique ou la Thaïlande, au milieu des années quatre-vingt-dix ou bien plus récemment dans la périphérie de la zone euro.

En outre, l’analyse empirique ne décèle pas forcément de déconnexion entre épargne et investissement en économie ouverte. Martin Feldstein et Charles Horioka (1980) avaient analysé les données relatives à 16 pays de l’OCDE entre 1960 et 1974 pour déterminer à quel point l’offre mondiale de capitaux est mobile. Or, ils constataient que l’investissement domestique et l’épargne domestique restaient très corrélés entre eux malgré l’ouverture des économies. Certains expliquent ce « puzzle » par les « imperfections » des marchés de capitaux internationaux : celles-ci empêcheraient les capitaux de se déplacer librement d’un pays à l’autre. La crainte que l’économie connaisse un sudden stop pourrait précisément désinciter les étrangers à y investir leurs capitaux. Certains ont toutefois remis en cause (ou tout du moins nuancé) la réalité empirique du paradoxe de Feldstein et Horioka. Par exemple, Tamim Bayoumi (1990) et Alan Taylor (1994) ont suggéré que les données utilisées par Feldstein et Horioka sont très différentes avant 1913, lorsque la corrélation entre l’épargne et l’investissement était plus souple et que des pays qui se sont développés tardivement (comme le Canada, l’Australie et l’Argentine) se sont appuyés sur l’épargne étrangère pour financer leur investissement domestique. L’ère de Bretton Woods a été effectivement marquée par une faible mobilité internationale des capitaux, mais ce n’est pas forcément le cas avant la Grande Dépression des années trente, ni après les années soixante-dix.

Eduardo Cavallo, Barry Eichengreen et Ugo Panizza (2016a, 2016b) ont récemment cherché à déterminer s’il est possible et opportun pour les pays de financer leur investissement domestique par les capitaux étrangers. Contrairement à une idée reçue, ils constatent que beaucoup de pays ont été capables de financer un part significative de l’investissement domestique en utilisant l’épargne étrangère pendant une période prolongée. Depuis 1970, plusieurs pays ont en effet généré des déficits courants supérieurs à 4 %, voire à 6 % et même 8 % du PIB pendant au moins une décennie. La plupart de ces épisodes se sont produits au sein de pays à faible revenu, notamment en Afrique sub-saharienne, où les fonds publics ont joué un rôle plus important que les fonds privés. Les auteurs identifient aussi de nombreux épisodes au cours desquels une fraction substantielle de l’investissement domestique a été essentiellement financée par des entrées de capitaux privés ; cela a en particulier été le cas en Amérique latine et dans les Caraïbes.

Pour autant, Cavallo et ses coauteurs notent que l’épargne étrangère n’est pas un bon substitut à l’épargne domestique. Les épisodes de déficits larges et durables sont certes caractérisés par une croissance supérieure à la moyenne au cours des 4 à 5 premières années de l’épisode, mais ces gains s’effacent entièrement après 5 ans. Sur une période de 20 ans, l’effet net sur la croissance devient négatif. Une possible explication est que les pays déficitaires n’utilisent pas les capitaux étrangers pour financer l’investissement dans l’équipement, qui constitue pourtant l’un des moteurs de la croissance économique selon Brad DeLong et Larry Summers (1991) ; cette explication rejoint l’idée que les booms dans les afflux de capitaux entraînent une mauvaise allocation des ressources dans l’économie. En testant cette hypothèse, Cavallo et ses coauteurs constatent effectivement que les déficits amples et durables du compte courant sont suivis, non pas par une hausse des importations de machines et autres biens d’équipement, mais par une baisse de ce type d’importations. En outre, très souvent, les épisodes de déficits courants amples et persistants ne finissent pas sans heurts. En fait, ils se soldent souvent par un arrêt soudain des entrées de capitaux, suivi par une inversion brutale du solde courant, une dépréciation du taux de change réel, ainsi qu’une chute de l’investissement et de la production. Ainsi, Cavallo et ses coauteurs en concluent que le financement de la croissance et de l’investissement par l’épargne étrangère n’est pas impossible, mais il est risqué.

 

[1] Auquel cas d’autres pays devront forcément davantage épargner qu’ils n’investissent, puisqu’au niveau mondial, l’épargne est forcément égale à l’investissement. 

 

Références

BAYOUMI, Tamim (1990), « Savings-investment correlations: Immobile capital, government policy or endogenous behavior? », FMI, staff paper, n° 37.

BENIGNO, Gianluca, Nathan CONVERSE & Luca FORNARO (2015), « Large capital inflows, sectoral allocation, and economic performance », Réserve fédérale, international finance discussion paper, n° 1132, mars.

BLANCHARD, Olivier, Jonathan D. OSTRY, Atish R. GHOSH & Marcos CHAMON (2015), « Are capital inflows expansionary or contractionary? Theory, policy implications, and some evidence », NBER, working paper, n° 21619, octobre.

CAVALLO, Eduardo, Barry EICHENGREEN & Ugo PANIZZA (2016a), « Can countries rely on foreign saving for investment and economic development? », IHEID, working paper, n° 07-2016.

CAVALLO, Eduardo, Barry EICHENGREEN & Ugo PANIZZA (2016b), « Foreign savings: No gain, some pain », in VoxEU.org, 8 août.

DELONG, J. Brad, & Lawrence H. SUMMERS (1991), « Equipment investment and economic growth », in The Quarterly Journal of Economics, vol. 106, n° 2.

FELDSTEIN, Martin, & Charles HORIOKA (1980), « Domestic saving and international capital flows », in Economic Journal, vol. 90, n° 358.

TAYLOR, Alan (1994), « Domestic saving and international capital flows reconsidered », NBER, working paper, n° 4892.

11 août 2016 4 11 /08 /août /2016 23:25

En raison du manque de données disponibles pour des époques reculées, beaucoup ont cherché à quantifier le développement économique des pays avant la Révolution industrielle en s’appuyant sur les salaires réels [Broadberry et alii, 2011]. Dans le cas de l’économie britannique, ce sont les travaux de Phelps Brown et Hopkins (1955) qui font figure de référence. Ceux-ci ont suggéré qu’il n’y avait pas eu de véritable tendance dans l’évolution des salaires réels journaliers des manœuvres entre la fin du treizième siècle et le milieu du dix-neuvième siècle. C’est notamment en s’appuyant sur les salaires réels que certains comme Gregory Clark (2010) ont cherché à construire le PIB britannique de l’ère préindustrielle, non pas via le côté production, mais via le côté revenu. Ces divers travaux ont suggéré que l’économie britannique avait connu une stagnation des niveaux de vie avant la Révolution industrielle. Au terme de son étude, Clark rejette l’idée qu’il y ait eu entre 1300 et 1800 une longue période croissance « smithienne », c’est-à-dire basée sur l’approfondissement de la division du travail impulsée par l’expansion géographique des marchés. Les revenus au début de la Révolution industrielle n’étaient pas plus élevés que quatre siècles plus tôt, ce qui tend à confirmer que l’économie britannique était jusqu’alors piégée dans un régime de croissance malthusien. Pour autant, Clark constate qu’il y a eu une période de faible croissance du PIB par tête qui débuta autour de 1600, si bien que l’accélération de la croissance associée à la Révolution industrielle n’a pas été aussi brutale que beaucoup ont pu le penser. 

Plusieurs raisons amènent toutefois à douter que l’économie britannique ait connu une longue stagnation durant les siècles qui ont précédé la révolution industrielle [Broadberry et alii, 2011]. D’un côté, divers éléments suggèrent que cette période fut au contraire marquée par une amélioration du niveau de vie, comme la diversification des régimes alimentaires, l’introduction de biens de consommation nouveaux et moins chers, l’accroissement des patrimoines légués par les testateurs, la lente éradication des famines, le recul de l’analphabétisme, la diversification des professions, l’approfondissement de l’urbanisation, etc. D’un autre côté, beaucoup, notamment Angus Maddison (2007) et même Phelps Brown et Hopkins, ont souligné qu’il pouvait être trompeur de chercher à déduire l’évolution du PIB par tête à partir des salaires réels. 

Dans un ambitieux ouvrage, Stephen Broadberry, Bruce Campbell, Alexander Klein, Mark Overton et Bas van Leeuwen (2015) ont cherché à donner une meilleure image de l’économie britannique au Moyen-âge et au début de l’ère moderne. Ils ont fourni de nouvelles estimations annuelles du PIB réel (non plus en le construisant via le côté revenu, mais via le côté production), de la population et de la production réelle dans les secteurs agricole, industriel et tertiaire entre 1270 et 1870. Leur ouvrage présente plusieurs conclusions [Crafts et Mills, 2016]. Premièrement, au cours des 500 années qui ont précédé la Révolution industrielle, l’économie britannique n’était ni en stagnation, ni en déclin. La croissance annuelle du PIB réel par tête était légèrement positive : elle s’élevait en moyenne à 0,2 %, si bien que le PIB par tête a quasiment doublé entre 1270 et 1700, puis à nouveau entre 1700 et 1870, avec la Révolution industrielle. L’ouvrage rejoint les conclusions de Roger Fouquet et Stephen Broadberry (2015) en montrant que les pays européens sont loin d’avoir connu une longue stagnation de leurs niveaux de vie avant la Révolution industrielle, mais que ces derniers ont en fait fortement fluctué. Deuxièmement, cette croissance a eu deux principales composantes : un fort accroissement du niveau du PIB réel par tête associée à l’épidémie de la peste qui a divisé de moitié la population, puis pour la première fois un taux de croissance tendancielle positif au cours de la seconde moitié du dix-septième siècle. Troisièmement, l’économie britannique n’a pas connu de renversements de croissance (growth reversals) : au contraire, la stabilité et la croissance ont prévalu sur le déclin du PIB réel par tête, si bien que les gains en termes de niveaux de revenu se sont révélés soutenus sur le long terme. Quatrièmement, la Révolution industrielle a marqué une transition entre un régime de croissance « smithien » et un régime de croissance moderne, caractérisé par une nouvelle accélération du taux de croissance tendancielle du PIB réel par tête, par une forte croissance de la population et par des avancées technologiques.

Nicholas Crafts et Terence Mills (2016) ont récemment cherché à juger de la validité du travail de Broadberry et alii. En utilisant un filtre à la Hodrick-Prescott, ils constatent que la croissance tendancielle du PIB par tête britannique s’est élevée en moyenne à 0,2 % par an entre 1270 et 1770. Cette période qui a précédé la Révolution industrielle est toutefois marquée par différentes sous-périodes. Entre 1400 et le milieu du dix-septième siècle, c’est-à-dire entre l’épidémie de peste et la guerre civile, la croissance tendancielle du niveau de vie fut en moyenne approximativement nulle. Elle s’est accélérée au dix-huitième siècle, suite à la Révolution industrielle et aux guerres napoléoniennes, pour atteindre environ 0,3 % par an. Autrement dit, une accélération significative de la croissance britannique a eu lieu avant la Révolution industrielle. Après celle-ci, la croissance du PIB réel par tête s’est de nouveau accélérée et a atteint en moyenne à 1,25 % par an.

Crafts et Mills se sont ensuite demandé si l’économie britannique n’a effectivement pas connu de renversement de croissance. Ils se penchent sur l’impact de l’épidémie de peste. Cette dernière a certes permis de fortement accroître le niveau de vie en réduisant la taille de la population, mais pas son rythme de croissance. En effet, le taux de croissance tendanciel du PIB réel par personne était de 0,03 % par an que ce soit avant 1350 ou après 1400, mais au cours de cette seconde période, le niveau de vie était supérieur de 40 % au niveau qu’il atteignait avant l’épidémie. Plus largement, suite à un quelconque choc, l’économie britannique a su rapidement retourner à sa trajectoire tendancielle. Au cours de la seconde moitié du dix-septième siècle, la croissance tendancielle du PIB réel par personne a été significativement supérieure à zéro, ce qui suggère que l’ère malthusienne était bel et bien terminée.

 

Références

BROADBERRY, Stephen, Bruce M. S. CAMPBELL, Alexander KLEIN, Mark OVERTON & Bas VAN LEEUWEN (2011), « British economic growth, 1270-1870: An output-based approach », London School of Economics, document de travail.

BROADBERRY, Stephen, Bruce M. S. CAMPBELL, Alexander KLEIN, Mark OVERTON & Bas VAN LEEUWEN (2015), British Economic Growth, 1270-1870, Cambridge University Press.

CLARK, Gregory (2010), « The macroeconomic aggregates for England, 1209-2008 », in Research in Economic History, vol. 27.

CRAFTS, Nicholas, & Terence C. MILLS (2016), « Six centuries of British economic growth: a time-series perspective », Université de Warwick, working paper, n° 297, août.

FOUQUET, Roger, & Stephen BROADBERRY (2015), « Seven centuries of European economic growth and decline », in Journal of Economic Perspectives, vol. 29, n° 4, automne.

MADDISON, Angus (2007), Contours of the World Economy, 1-2030 AD: Essays in Macro-Economic History, Oxford University Press.

PHELPS BROWN, Henry, & Sheila V. HOPKINS (1955), « Seven centuries of building wages », in Economica, 22, 195-206.

7 août 2016 7 07 /08 /août /2016 23:59

La première université, dans le sens moderne du terme, a été fondée en 1088 à Bologne, en Italie. En l’occurrence, il s’agissait d’une communauté administrativement autonome, qui proposait des cours, délivrait des diplômes reconnus publiquement, poursuivait des objectifs de recherche et cherchait à s’émanciper des institutions religieuses. Depuis, de nombreuses universités ont été créées à travers le monde. En 1900, seulement un jeune sur cent dans le monde était passé par les bancs de l’université ; un siècle plus tard, cette part s'élève à un jeune sur cinq [Valero et Van Reenen, 2016]. L’expansion des universités a été particulièrement rapide à partir de 1950. En effet, avant la Seconde Guerre mondiale, beaucoup craignaient une qualification excessive de la population. Ce n’est qu'après les années quarante que prédomine l’opinion selon laquelle l’éducation joue un rôle essentiel dans la croissance économique et les avancées sociales. Pour autant, les craintes demeurent aujourd’hui, certains continuant de développer la thèse d’une « inflation scolaire » contribuant au déclassement d’une part de la population, notamment dans un pays développé comme la France.

Les historiens économiques ont suggéré que les universités avaient pu jouer un rôle déterminant durant la Révolution commerciale qui bouleversa l’Europe à partir du treizième siècle à travers le développement d’institutions légales, puis durant la Révolution industrielle qui débuta à la fin du dix-huitième siècle grâce à leur rôle dans la création et la diffusion du savoir. Selon Anna Valero et John Van Reenen (2016), il y a en effet plusieurs canaux à travers lesquels les universités sont susceptibles de stimuler la croissance économique. En l'occurrence, les universités « produisent » du capital humain, c’est-à-dire à doter les travailleurs de nouvelles qualifications. Or les travailleurs qualifiés tendent non seulement à être plus productifs que les autres, mais aussi plus innovants. Ainsi, les études tendent à confirmer que la croissance est positivement corrélée avec le volume de capital humain (mesuré par le nombre d’années d’études) ou, tout du moins, avec la qualité de l’éducation (mesurée par les performances aux tests PISA), comme l’ont notamment étudié Alan Krueger et Mikael Lindahl (2001) ou encore Eric Hanushek et Ludger Woessmann (2008). Les universités n’ont pas qu’un impact indirect sur l’innovation : elles constituent également elles-mêmes un lieu d’innovation. Elles peuvent aussi stimuler l’activité économique plus indirectement en favorisant les institutions propices à la croissance. En effet, non seulement elles fournissent une plateforme pour le débat démocratique et l’échange d’idées, mais elles dotent aussi les citoyens de compétences utiles pour la participation politique. Enfin, plus simplement, d’un point de vue que l'on peut qualifier de « keynésien », les universités peuvent stimuler la croissance en alimentant la demande globale : non seulement le personnel et les étudiants consomment, mais les universités elles-mêmes doivent acheter des biens et services pour fonctionner.

Adoptant un strict point de vue économique, Valero et Van Reenen ont alors cherché à identifier l'impact agrégé de l'expansion universitaire. Pour cela, ils ont développé une nouvelle base de données en utilisant les données de l’UNESCO à propos de la localisation de près de 15.000 universités dans environ 1.500 régions, appartenant à 78 pays, puis ils ont analysé ces données pour la période comprise entre 1950 et 2010 en prenant en compte le possible impact des facteurs démographiques et géographiques. Ils constatent que la hausse du nombre d’universités est positivement corrélée avec la croissance future du PIB par tête. En outre, des effets de débordement positifs associés aux universités sont à l’œuvre : ces dernières stimulent non seulement la croissance locale, mais également l’activité dans les régions voisines. En l’occurrence, leurs estimations suggèrent qu’un doublement du nombre d’universités dans une région donnée est susceptible d’accroître le PIB par tête de la région de 4 % et celui de l’ensemble du pays de 0,5 % dans les cinq années suivantes. Bien sûr, les universités ne sont pas égales, en termes de taille ou de qualité. Par exemple, Valero et Van Reenen observent que les universités orientées vers la recherche dans les économies technologiquement avancées semblent davantage importer pour la croissance.

En creusant davantage, Valero et Van Reenen en concluent que la relation entre la croissance économique et les universités ne s’explique pas par une causalité inverse. Elle ne s’explique pas non plus par les seules dépenses directes de l’université, de son personnel ou de ses étudiants. Une partie des effets bénéfiques des universités sur la croissance économique passe par l’accroissement de l’offre de capital humain et la stimulation de l’innovation, mais ces deux canaux sont faibles en termes de magnitude. Enfin, ils constatent qu’au sein les pays, une plus forte présence historique des universités est associée à des attitudes plus propices à la démocratie.

 

Références

HANUSHEK, Eric A., & Ludger WOESSMANN (2008), « The role of cognitive skills in economic development », in Journal of Economic Literature, vol. 46, n° 3.

KRUEGER, Alan B., & Mikael LINDAHL (2001), « Education for growth: Why and for whom? », in Journal of Economic Literature, vol. 39, n° 4.

VALERO, Anna, & John VAN REENEN (2016), « The economic impact of universities: Evidence from across the globe », CEP, discussion paper, n° 1444, août.

publié par Martin Anota
commenter cet article
29 juillet 2016 5 29 /07 /juillet /2016 10:05

Le lundi 15 septembre 2008, Lehman Brothers se déclare en faillite. La banque d’investissement américaine avait en effet subi de larges pertes sur les investissements immobiliers entre 2007 et 2008, ce qui avait peu à peu égratigné sa solvabilité. Plusieurs institutions financières perdirent confiance envers elle et cessèrent de lui prêter, ce qui accrut démesurément ses besoins de liquidité. Si Lehman Brothers se déclara en faillite aux premières heures du 15 septembre, c’est tout simplement parce qu’elle ne disposait alors plus de liquidité pour assurer ses services au cours de la journée. Les marchés financiers réagirent extrêmement mal à la nouvelle. Les cours boursiers s’écroulèrent tout d’abord aux Etats-Unis, puis dans le reste du monde. Ce qui n’était initialement, au début de l’année 2007, qu’une crise relativement limitée à un sous-compartiment du crédit hypothécaire américain (le crédit « subprime ») et était devenu au fil des mois une crise financière internationale attint alors son apogée. L’événement contribua certainement par là même à la sévérité de la Grande Récession.

Aux Etats-Unis, Lehman Brothers est la seule institution de grande échelle qui ait été contrainte à faire faillite durant la crise financière. Les autres, comme Bear Stearns et AIG, ont connu des crises de liquidité, mais elles ont échappé à la faillite car elles reçurent des prêts d’urgence de la part de la Réserve fédérale. Laurence Ball (2016) s’est alors demandé pourquoi la Fed n’a pas sauvé Lehman Brothers. Certains ont suggéré que les responsables de la Fed ont subi des pressions politiques en défaveur d’un sauvetage de Lehman Brothers. D’autres pensent que ces mêmes responsables ont cherché à ne pas créer ou plutôt à ne pas aggraver un risque moral : en sauvant Lehman Brothers, une banque qui s’est retrouvée en difficultés parce qu’elle a multiplié les prises de risque et qui a contribué par là même aux déséquilibres qui ont mené à la crise financière, la Fed aurait signalé aux autres institutions financières qu’elles seraient aussi certainement secourues si elles se retrouvaient dans la même situation, ce qui les aurait alors incité à prendre davantage de risques. En laissant Lehman Brothers faire faillite, la Fed aurait ainsi « donné une leçon » au secteur bancaire et contribué au maintien futur de la stabilité financière en freinant les prises de risque. Enfin, certains ont suggéré que les responsables de la Fed ont sous-estimé les dommages que provoquerait la faillite de Lehman Brothers sur le système financier et sur l’économie réelle.

Toutefois, les responsables de la Fed, en particulier Ben Bernanke qui était alors à sa tête fin 2008, ont clairement indiqué qu’aucune de ces trois interprétations n’est correcte. Ils ont déclaré qu’ils n’étaient pas en soi contre l’idée de sauver Lehman Brothers, mais qu’ils manquaient de l’autorité légale pour le faire, parce que la banque d’investissement ne possédait pas suffisamment de collatéraux pour emprunter les liquidités dont elle avait besoin. En effet, lorsque la Fed prête à une institution financière, la première exige que la seconde possède suffisamment de collatéraux pour la protéger si l’emprunteur fait défaut. L’emprunteur peut certes être illiquide à l’instant du prêt, mais il doit rester solvable (ce qui s’inscrit dans la conception du prêteur en dernier ressort développée par Bagehot). Ou, pour le dire encore autrement, la banque centrale n’a le droit de prêter qu’aux banques qui seront a priori capables de la rembourser. Bernanke lui-même a pu déclarer que la Fed n’aurait pu sauver Lehman Brothers qu’en violant la loi.

Au terme d’un travail de quatre ans l’ayant conduit à rédiger un long manuscrit de 214 pages, Laurence Ball en est venu à la conclusion que cette explication est inexacte. D’une part, ce n’est pas un apparent manque d’autorité légale qui a empêché la Fed de ne pas sauver Lehman Brothers. D’autre part, la Fed avait l’autorité légale pour sauver Lehman Brothers. En consultant les délibérations des autorités avant la faillite de Lehman Brothers, Ball estime ne trouver aucune trace suggérant qu’elles aient effectivement examiné l’adéquation des collatéraux de la banque d’investissement ou que des barrières juridiques les empêchèrent d’aider cette dernière. En examinant les finances de cette dernière, Ball en conclut qu’elle avait suffisamment de collatéraux pour obtenir un prêt de la part de la Fed. Non seulement ce prêt aurait selon lui empêché une faillite désordonnée et n’était que peu risqué pour la banque centrale, mais il aurait très certainement permis à Lehman Brothers de survivre, du moins si les conditions du prêt étaient les mêmes que celles dont ont pu bénéficier les autres banques d’investissement. (1) Ball estime que si Lehman Brothers avait obtenu un tel prêt, la crise financière ne se serait pas aggravée autant qu’elle ne le fit et l’économie mondiale aurait subi un moindre choc.

Au final, Ball explique l’inaction de la Fed face à l’effondrement de Lehman Brothers en privilégiant deux interprétations populaires : d’après sa lecture des données existantes, non seulement des considérations purement politiques ont joué un rôle déterminant dans la décision de la Fed, mais cette dernière a également sous-estimé les répercussions d’un éventuel défaut de la banque d’investissement. En effet, la décision de laisser Lehman Brothers couler aurait été principalement impulsée par Henry Paulson, qui était alors le Secrétaire au Trésor américain. Paulson aurait été influencé par la forte opposition politique aux sauvetages des banques. Lui-même avait été sévèrement critiqué pour le sauvetage de la Bear Stearns et la nationalisation de Fannie Mae et Freddie Mac ; il ne voulait pas avoir essuyé de nouvelles critiques en entreprenant un nouveau renflouement bancaire. Les responsables de la Fed s’inclinèrent face à Paulson, alors même qu’ils étaient les seuls à avoir l’autorité pour prendre cette décision selon le Federal Reserve Act. Ils ont également sous-estimé les répercussions de la faillite de Lehman Brothers, en considérant notamment que les investisseurs financiers avaient déjà pleinement anticipé l’événement.

 

(1) Stephen Cecchetti et Kermit Schoenholtz (2016) sont en désaccord avec Ball sur ce point. Selon leur propre analyse des données, Lehman Brothers était effectivement insolvable le 15 septembre 2008.

 

Références

BALL, Laurence (2016), « The Fed and Lehman Brothers: Introduction and summary », NBER, working paper, n° 22410, juillet.

CECCHETTI, Stephen, & Kermit SCHOENHOLTZ (2016), « The lender of last resort and the Lehman bankruptcy », in Money & Banking (blog), 25 juillet. 

24 juillet 2016 7 24 /07 /juillet /2016 23:59

Si certains, comme Robert Gordon (2012), craignent que la croissance s’essouffle avec le ralentissement de l’innovation, d’autres pensent que cette dernière se poursuit au contraire à un rythme soutenu, mais avec de profonds effets pervers. Beaucoup, comme Erik Brynjolfsson et Andrew McAfee (2012), craignent que les avancées technologiques, notamment celles associées à la révolution numérique, entraînent une réduction du nombre d’emplois disponibles dans l’économie. Certains, comme Lukas Karabarbunis et Brent Neiman (2013) estiment que la réduction de la part du revenu national rémunérant le travail que l’on a pu également observer ces dernières décennies dans les pays développés, en particulier aux Etats-Unis, s’explique précisément par le progrès technique : la baisse du prix des biens d’investissement, liée aux technologies d’information et de communication, pousserait les entreprises à délaisser le travail pour le remplacer par du capital dans le processus de production. Enfin beaucoup estiment également que le progrès technique a alimenté les inégalités salariales ces dernières décennies. Il serait en effet « biaisé en faveur du travail qualifié » (skill-biased) : les machines tendent à être plutôt complémentaires avec le travail qualifié, mais substituables avec le travail peu qualifié. D’un côté, les avancées technologiques permettent d’automatiser un nombre croissant de tâches de production, ce qui réduit la demande de main-d’œuvre qualifiée. De l’autre, l’innovation et l’adoption de machines toujours plus complexes accroissent la demande de main-d’œuvre très qualifiée. Comme la rémunération d'un facteur est censée être d'autant plus forte qu'il est demandé, les travailleurs peu qualifiés voient leurs salaires stagner, voire diminuer, tandis que les travailleurs qualifiés voient leurs salaires augmenter.

Daron Acemoglu et Pascual Restrepo (2016a, 2016b) jugent que certaines de ces craintes sont exagérées. Beaucoup par le passé, notamment certains des économistes les plus influents, qu’il s’agisse de Ricardo, de Keynes, de l’historien Heilbroner ou encore de Leontief, ont estimé que le « travail humain » deviendrait « redondant » et qu’un véritable « chômage technologique » se généraliserait. Les événements ont donné tort à ces auteurs... pour l'instant. Cela ne signifie pas que la présente vague d’innovations technologiques n’est pas destructrice d’emplois. Mais pour Acemoglu et Restrepo, rien ne suggère non plus qu’elle diffère des précédentes vagues d’innovations. Les dynamiques sur les marchés du travail des pays développés seraient en effet impulsées par deux forces technologiques : d’une part, l’automatisation des tâches existantes et, d’autre part, la création de nouvelles tâches de production complexes. Ces deux forces contribuent à la croissance économique, mais elles n’ont pas le même impact sur les prix des facteurs, l’emploi et les parts du revenu national rémunérant chaque facteur. L’automatisation permet aux entreprises de réaliser des tâches qui étaient autrefois réalisées par les travailleurs avec du capital, tandis que la création de nouvelles tâches complexes (pour lesquelles les travailleurs disposent d’un avantage comparatif par rapport aux machines) permet aux entreprises de remplacer les vieilles tâches par de nouvelles variantes pour lesquelles les travailleurs sont plus productifs.

Acemoglu et Restrepo proposent alors une modélisation pour examiner les répercussions de ces deux formes de progrès technique sur la croissance, l’emploi, les salaires et la répartition du revenu national. Ils s'inscrivent pleinement dans la tradition néoclassique en considérant que l'usage et la rémunération de chaque facteur de production dépend avant tout de son prix relatif. Dans la version statique de leur modèle, le capital est fixe et la technologie exogène. Ils montrent alors que la mécanisation réduit l’emploi et le part du revenu national rémunérant le travail, mais qu’elle est également susceptible de réduire les salaires. La création de tâches plus complexes conduit à l’enchaînement inverse : non seulement elle entraîne une hausse de l’emploi, de la part du revenu national rémunérant le travail et des salaires, mais elle est également susceptible de pousser le taux de rendement du capital à la baisse. Dans cette optique, pour que les avancées technologiques ne conduisent pas à l’avenir à une destruction nette d’emplois, la création de tâches domestiques doit être au moins aussi rapide que le processus d’automatisation.

Acemoglu et Restrepo complètent ensuite leur modèle en endogénéisant l’accumulation du capital et l’orientation de la recherche-développement en faveur de l’une ou de l’autre des forces technologiques en fonction des opportunités de profit qu’elles offrent respectivement. Par exemple, plus le coût du capital diminue, plus l’automatisation sera profitable, ce qui stimule cette dernière. Un sentier de croissance équilibrée et stable est possible, mais à la condition que l’automatisation et la création de nouvelles tâches complexes progressent au même rythme. La réponse du capital assure que les gains de productivité tirés de l’automatisation et de l’introduction de nouvelles tâches complexes affectent directement le travail (le facteur qui est relativement inélastique) et accroissent les salaires globaux à long terme, ce qui correspond à ce qu’Acemoglu et Restrepo qualifient d’« effet de productivité ». Même si ce dernier pousse les salaires réels à la hausse, l’automatisation réduit toujours la part du revenu national rémunérant le travail. Toutefois, à long terme, la réponse endogène de la technologie ramène la part du travail dans le revenu national et l’emploi à leurs niveaux initiaux, en raison d’effets-prix. Par exemple, si l’automatisation est plus rapide que la création de nouvelles tâches complexes, les forces du marché provoquent un ralentissement de l’automatisation et une accélération de la création de nouvelles tâches complexes. En effet, une hausse de l’automatisation réduit le coût d’usage du travail dans la production, ce qui décourage l’automatisation de nouvelles tâches et réoriente la recherche-développement en faveur de la création de nouvelles tâches intensives en travail. Au final, après avoir diminué, la part du revenu national rémunérant le travail augmente à nouveau. En outre, Acemoglu et Restrepo suggèrent qu’une automatisation rapide ne signale pas forcément une régression du travail, mais qu’elle pourrait au contraire précéder une phase d’innovations technologiques favorisant le travail.

Bien que l’économie possède de puissantes forces autocorrectrices, l’équilibre se caractérise cependant par un excès d’automatisation et par d'insuffisantes créations de nouvelles tâches complexes. Cette inefficacité apparaît parce que la mécanisation, qui permet aux entreprises d’économiser en termes de masse salariale, réagit aux hauts salaires : lorsqu’une partie des salaires correspond à des rentes, alors il y aura davantage d’automatisation que ne le désirerait un planificateur social et la technologie est alors biaisée, de façon inefficace, en faveur de la substitution du travail par le capital.

Finalement, Acemoglu et Restrepo étendent leur modèle pour prendre en compte la diversité des compétences et ils considèrent que la main-d’œuvre qualifiée présente un avantage comparatif dans les nouvelles tâches complexes. L’automatisation détruit les emplois des travailleurs peu qualifiés, ce qui accroît les inégalités de revenu en réduisant la demande de travail peu qualifié. De même, toujours parce que les travailleurs qualifiés ont un avantage comparatif dans les nouvelles tâches complexes, la création de telles tâches contribue également à accroître les inégalités de revenu, mais cette fois-ci en stimulant la demande de travail qualifié. Mais des forces autocorrectrices limitent la hausse des inégalités à long terme. En effet, les nouvelles tâches finissent pas être standardisées, si bien qu'elles peuvent employer des travailleurs peu qualifiés de façon plus productive.

 

Références

ACEMOGLU, Daron, & Pascual RESTREPO (2016a), « The race between machine and man: Implications of technology for growth, factor shares and employment », NBER, working paper, n° 22252, mai.

ACEMOGLU, Daron, & Pascual RESTREPO (2016b), « The race between machines and humans: Implications for growth, factor shares and jobs », in voxEU.org, juillet.

BRYNJOLFSSON, Erik, & Andrew MCAFEE (2014), The Second Machine Age, Norton.

GORDON, Robert (2012), « Is U.S. economic growth over? Faltering innovations confronts the six headwinds », NBER, working paper, n° 18315.

KARABARBUNIS, Lukas, & Brent NEIMAN (2013), « The global decline of the labor share », NBER, working paper, n° 19136.

21 juillet 2016 4 21 /07 /juillet /2016 10:43

La récente chute des prix du pétrole n’est pas sans précédents [Christiane Baumeister et Lutz Kilian, 2015 ; John Baffes et alii, 2015]. Ils ont régulièrement connu d’amples fluctuations depuis la constitution de l’OPEP en 1960. Par exemple, depuis 1986, il y a eu six épisodes d’effondrements des prix du pétrole en un temps relativement court. Par exemple, les prix du pétrole ont fortement chuté lors de la crise financière mondiale, puis rapidement rebondi lors de la reprise, avant de connaître une nouvelle chute à partir de juin 2014.

Si la littérature tend à considérer qu’une hausse des prix du pétrole est susceptible de freiner la croissance mondiale (certains estimant même qu’elle est très souvent associée aux récessions américaines, voire aux récessions mondiales), elle tend symétriquement à considérer qu’une baisse des prix du pétrole est susceptible de stimuler la croissance mondiale. Lorsque les prix du pétrole diminuent, l’activité économique s’en trouve stimulée dans les pays importateurs de pétrole, dans la mesure où les entreprises domestiques voient leurs coûts de production diminuer et les ménages voient leur pouvoir d’achat augmenter. Par contre, les pays exportateurs de pétrole voient les recettes qu’ils tirent de l’exportation de pétrole décliner, ce qui incite les entreprises locales à moins investir, réduit le revenu des ménages, déprime les recettes publiques, etc. Les répercussions d’une baisse des prix du pétrole pourraient a priori se compenser, puisque le déclin de l’activité dans les pays exportateurs de pétrole s’accompagne d’une hausse de l’activité dans les pays importateurs. Or beaucoup jugent que la propension à consommer est plus faible dans les premiers que dans les seconds, si bien que la demande globale pourrait en définitive s’en trouver stimulée au niveau mondial.

Cependant, la récente baisse des prix du pétrole a remis en question l’idée généralement acceptée selon laquelle de plus faibles prix du pétrole seraient bénéfiques non seulement pour l’économie américaine, mais aussi pour l’économie mondiale. Elle a notamment été suivie par une baisse généralisée des cours boursiers, ce qui a pu suggérer que les marchés boursiers interprétaient la chute des prix du pétrole comme nocive à l’activité, donc aux dividendes. Ben Bernanke (2016), l’ancien président de la Réserve fédérale américaine, a suggéré que la corrélation positive entre les cours boursiers et les prix du pétrole que l’on a pu observer par le passé suggère que l’économie mondiale connaît actuellement un ralentissement de l’activité économique, dans la mesure où un déclin de la demande globale au niveau mondiale tend à réduire les profits des entreprises et la demande de pétrole.

De leur côté, Maurice Obstfeld, Gian Maria Milesi-Ferretti et Rabah Arezki (2016) ont suggéré qu’avec des taux d’intérêt actuellement proches de zéro dans la plupart des pays développés et une économie américaine qui a repris l’exportation de pétrole, les canaux par lesquels la baisse des prix du pétrole se transmet à l’économie réelle se sont modifiés. En effet, suite à la Grande Récession, les banques centrales des pays développés ont ramené leurs taux directeurs à zéro, puis multiplié les mesures non conventionnelles. Si la Fed a commencé à resserrer sa politique monétaire en décembre, d’autres banques centrales, en particulier la BCE et la Banque du Japon, cherchent au contraire à davantage assouplir la leur. En effet, les pays développés restent confrontés à une inflation extrêmement faible et une baisse des prix du pétrole accroît donc le risque déflationniste. Or une baisse des prix peut non seulement déprimer les achats de biens durables (donc la demande globale), mais aussi accroître le fardeau d’endettement. En outre, la déflation, dans un contexte où les taux d’intérêt nominaux peuvent difficilement diminuer, entraîne une hausse des taux d’intérêt réels susceptible de déprimer la demande de crédit et donc l’investissement.

Kamiar Mohaddes et Hashem Pesaran (2016) ont utilisé un modèle économétrique pour déterminer si ces craintes sont exactes. Leur analyse suggère qu’une chute des prix du pétrole tend à réduire relativement vite les taux d’intérêt et l’inflation dans la plupart des pays, ainsi qu’à accroître les cours boursiers. Les effets sur la production réelle sont positifs, mais ils ne se matérialisent que plus tard, généralement un an après le choc. Ainsi, les données suggèrent qu’une baisse des prix du pétrole est une bonne nouvelle pour les Etats-Unis, ainsi que pour l’économie mondiale.

Mohaddes et Pesaran réexaminent ensuite les répercussions des faibles prix du pétrole sur l’économie américaine au cours de différentes périodes en utilisant les observations mensuelles relatives aux prix du pétrole, aux cours boursiers et aux dividendes. Ils confirment la perverse relation positive entre les prix du pétrole et les cours boursiers que beaucoup ont cru déceler suite à la crise financière de 2008. Toutefois, ils montrent que cette relation est instable lorsqu’ils étendent la période étudiée, en l’occurrence de 1946 à 2016. La relation positive qui a été récemment observée ne doit donc pas être considérée comme une preuve que la faiblesse des prix du pétrole soit nocive à l’économie réelle. Mohaddes et Pesaran observent ensuite le comportement des dividendes réels, qu’ils considèrent comme un meilleur indicateur de l’activité économique que les cours boursiers, tout du moins à long terme. En effet, ils partent du principe que si la demande s’adressant aux entreprises s’essouffle et que ces dernières voient leurs profits chuter, elles devront réduire leurs dividendes. Or les deux économistes constatent une relation négative stable entre, d’une part, les prix du pétrole et, d’autre part, les dividendes. Ce résultat les amène à nouveau à écarter l’idée que la baisse des prix du pétrole ait nui à l’économie américaine depuis 2008.

 

Références

BAFFES, John, M. Ayhan KOSE, Franziska OHNSORGE & Marc STOCKER (2015), « The great plunge in oil prices: Causes, consequences, and policy responses », CAMA, working paper, n° 23/2015, juin.

BAUMEISTER, Christiane, & Lutz KILIAN (2015), « Understanding the decline in the price of oil since june 2014 », CEPR, discussion paper, n° 10404, janvier.

BERNANKE, Ben (2016), « The relationship between stocks and oil prices », in Ben Bernanke’s blog, 19 février.

MOHADDES, Kamiar & Hashem PESARAN (2016), « Oil prices and the global economy: Is it different this time around? », CESIFO, working paper, n° 5992, juillet.

OBSTFELD, Maurice, Gian Maria MILESI-FERRETTI & Rabah AREZKI (2016), « Oil prices and the global economy: It’s complicated », in FMI, iMFdirect (blog), 24 mars 2016. Traduction française, « Prix du pétrole et économie mondiale : une histoire compliquée ».

15 juillet 2016 5 15 /07 /juillet /2016 11:33

Les taux d’intérêt réels, c’est-à-dire ajustés par rapport à l’inflation, ont connu une tendance baissière à long terme et ils sont restés à un niveau exceptionnellement faible depuis la crise financière mondiale de 2008. Beaucoup estiment que cette dynamique découle d’une chute des taux d’intérêt naturels, qui s’expliquerait par diverses tendances contribuant à accroître l’épargne et à déprimer l’investissement, c’est-à-dire par là même à déprimer la demande globale et finalement la croissance économique. En l’occurrence, l’hypothèse d’une « stagnation séculaire » de Larry Summers (2014) met tout particulièrement en avant le rôle de la baisse des prix des biens d’investissement, la hausse des inégalités de revenu ou encore le vieillissement démographique. Certains, comme Bernanke, mettent l’accent sur la forte propension à épargner des pays émergents, notamment d’Asie, qui contribue à générer une « surabondance d’épargne » (saving glut) au niveau mondial. D’autres, comme Ricardo Caballero et Emmanuel Farhi (2014), suggèrent que les pays développés, voire l’économie mondiale, est en train de connaître une pénurie d’actifs sûrs, les piégeant dans une « trappe à sûreté » (safety trap).

Selon Mikael Juselius, Claudio Borio, Piti Disyatat et Mathias Drehmann (2016), quatre économistes de la Banque des Règlements Internationaux (BRI), de telles explications de la faiblesse des taux d’intérêt partagent deux idées centrales. D’une part, elles définissent le taux d’intérêt naturel comme le taux d’intérêt qui serait en vigueur si la production était égale à la production potentielle. D’autre part, elles considèrent que l’inflation est le signal indiquant que la croissance n’est pas soutenable, que la production n’est pas à son niveau potentiel. En l’occurrence, l’économie connaîtrait des pressions inflationnistes si la production est supérieure à son niveau potentiel ; elle subirait au contraire des tensions déflationnistes si le niveau de la production est inférieur à son potentiel. Ces explications supposeraient qu’à moyen terme la politique monétaire ne ferait que suivre passivement le taux d’intérêt naturel, si bien que la chute des taux d’intérêt naturels ne serait que le produit de forces sur lesquelles les banques centrales n’ont pas de prises.

Juselius et ses coauteurs doutent de ces interprétations. Celles-ci négligeraient en effet le rôle des variables financières dans la soutenabilité de la croissance : par exemple, un boom sur les marchés boursiers ou immobiliers est susceptible de générer de l’inflation et de laisser place à une crise financière, associée à une forte contraction de l’activité, des pressions déflationnistes et des séquelles durables à long terme. Ils déterminent alors le taux d’intérêt naturel pour lequel l’économie ne connaît aucun déséquilibre financier en identifiant les déviations de deux variables financières par rapport à leur valeur de long terme : le niveau d’endettement et la charge du service de la dette des entreprises et des ménages. Ils appliquent alors une telle méthode aux données relatives à l’économie américaine pour la période comprise entre 1985 et 2015. 

Ils en tirent trois principales conclusions. Premièrement, une fois que les facteurs financiers sont pris en compte, le taux d’intérêt naturel est bien plus élevé que le suggèrent les approches empiriques habituelles et sa chute est moindre qu’on ne le pense habituellement. Les taux directeurs ont été systématiquement inférieurs à cette mesure du taux d’intérêt naturel. Alors que beaucoup suggèrent que le taux d’intérêt naturel est actuellement négatif ou tout du moins proche de zéro, Juselius et ses coauteurs estiment que le véritable taux d’intérêt naturel (associé à l’équilibre financier) est bien positif. Depuis 2009, la politique monétaire américaine serait excessivement accommodante, puisque le taux directeur ajusté à l’inflation est inférieur au taux d’intérêt naturel associé à l’équilibre financier. Les auteurs rejoignent ainsi les recommandations que ne cesse de répéter la BRI depuis le début de la reprise mondiale : les banques centrales doivent resserrer leurs taux directeurs pour éviter d’alimenter de nouveaux déséquilibres financiers qui se solderaient par une nouvelle crise financière.

En outre, Juselius et alii constatent que la politique monétaire n’est pas neutre à long terme. Via son impact sur le cycle financier, elle influence durablement la production et ses variations. En effet, les booms et effondrements de l’activité laissent des cicatrices permanentes, du moins sur le niveau de production, et cela semble être également le cas lorsqu’aucune crise bancaire n’éclate [Borio et alii, 2016]. Or en influençant la production, la politique monétaire influence les taux d’intérêt réels à moyen terme. Par conséquent, ces premières conclusions suggèrent aux auteurs qu’il n’est pas possible d’attribuer la totalité du déclin des taux d’intérêt réels à la chute exogène du taux d’intérêt naturel. Ce déclin reflète en partie de l’interaction entre politique monétaire et cycle financier. La politique monétaire a été systématiquement et agressivement assouplie lors des effondrements financiers, mais elle n’a pas été suffisamment, ni rapidement resserrée lors des booms financiers. Or, une telle asymétrie est susceptible de pousser les taux d’intérêt à la baisse.

Les économistes de la BRI ont souvent appelé à ce que les banques centrales adoptent une politique monétaire « allant à contre-courant » (leaning against the wind) : elles doivent resserrer leur politique monétaire lorsque l’économie connaît une accumulation de déséquilibres financiers, par exemple une expansion excessive du crédit et la formation d’une bulle spéculative. Comme la banque centrale ne répond alors aux risques pesant sur la stabilité financière que lorsqu’ils deviennent évidents, le resserrement risque de survenir trop tard, si bien que non seulement la politique monétaire risque de ne pas empêcher les déséquilibres financiers de s’accroître et de se solder par une crise, mais elle risque aussi d’amplifier ces déséquilibres. Selon les auteurs, la politique monétaire peut et doit prendre en compte systématiquement et immédiatement les dynamiques financières [Borio, 2014]. Il est en effet possible d’identifier en temps réel les déséquilibres financiers et même le niveau de croissance qui est compatible avec l’équilibre financier [Borio et alii, 2013]. Cette prise en compte peut se traduire par l’adoption d’une règle de politique monétaire prenant la forme d’une version augmentée de la règle de Taylor qui incorporerait des indicateurs du cycle financier, comme l’écart du niveau d’endettement par rapport à son niveau de long terme. Le taux directeur pourrait ainsi être fixé au plus proche de l’« équilibre financier ». Juselius et ses coauteurs concluent leur analyse en proposant un exercice contrefactuel. Ce dernier suggère qu’une règle de politique monétaire qui prend systématiquement en compte les développements financiers, à la fois durant les bons et les mauvais temps, peut contribuer à réduire le cycle financier, ce qui permet d’accroître la production à long terme. Une telle politique se traduirait aussi par une moindre baisse des taux d’intérêt réels.

 

Références

BORIO, Claudio (2014), « Monetary policy and financial stability: What role in prevention and recovery? », BRI, working paper, n° 440, janvier.

BORIO, Claudio, Piti DISYATAT & Mikael JUSELIUS (2013), « Rethinking potential output: Embedding information about the financial cycle », BRI, working paper, n° 404, février.

BORIO, Claudio, Enisse KHARROUBI, Christian UPPER & Fabrizio ZAMPOLLI (2016), « Labour reallocation and productivity dynamics: financial causes, real consequences », BRI, working paper, n° 534, janvier.

CABALLERO, Ricardo J., & Emmanuel FARHI (2014), « The safety trap », NBER, working paper, n° 19927, février.

JUSELIUS, Mikael, Claudio BORIO, Piti DISYATAT & Mathias DREHMANN (2016), « Monetary policy, the financial cycle and ultralow interest rates », BRI, working paper, n° 569, juillet.

SUMMERS, Lawrence (2014), « U.S. economic prospects: Secular stagnation, hysteresis, and the zero lower bound », in Business Economics, vol. 49, n° 2.

11 juillet 2016 1 11 /07 /juillet /2016 19:57

Lors de la crise financière mondiale et durant la lente reprise qui l’a suivie, les banques centrales des pays développés ont fortement assoupli leur politique monétaire, rapprochant très rapidement leurs taux directeurs au plus proche de zéro et en déployant ensuite des mesures « non conventionnelles », comme des achats d’actifs à grande échelle dans le cadre de programmes d’assouplissement quantitatif (quantitative easing). Plusieurs économistes et responsables politiques des pays émergents y ont vu une véritable « guerre des devises ». Ce fut notamment le cas de Guido Mantega, alors ministre des Finances brésilien, en 2010 et de Raghuram Rajan, alors président de la Banque Centrale d’Inde, en 2014. Beaucoup ont alors appelé à un surcroît de coordination internationale dans la mise en œuvre des politiques économiques.

Olivier Blanchard (2016) s’est penché sur les interactions entre les politiques macroéconomiques poursuivies par les pays développés et émergents depuis la crise financière mondiale. Il rappelle que les contraintes sur la politique budgétaire et notamment les craintes autour de la soutenabilité des dettes publiques ont amené les pays développés à davantage se reposer sur la politique monétaire. Au vu des niveaux élevé des dettes publiques, la contrainte que ceux-ci exercent sur la politique budgétaire devrait inciter durablement les pays développés à exclure l’utilisation de la politique budgétaire de façon à stabiliser l’activité domestique. Blanchard juge qu’un tel contexte rend opportune une coordination entre les différents pays. Toutefois, il n’est pas manifeste si une telle coordination devrait se solder par une hausse ou une baisse des taux d’intérêt dans les pays développés.

En effet, Blanchard rappelle que les répercussions des politiques monétaires des pays développés sur l’économie des pays émergents ne sont pas univoques. Par exemple, un puissant assouplissement monétaire dans les pays développés contribue à déprécier les devises de ces derniers (donc à accroître la compétitivité de leurs produits sur les marchés internationaux), mais aussi par là même à apprécier les devises des pays émergents (donc à réduire la compétitivité de leurs produits). Alors que ces dernières décennies, beaucoup ont pu affirmer qu’une dévaluation du taux de change ne conduisait pas à une amélioration du solde extérieur, une récente étude du FMI (2015) a démontré que les conditions Marshall-Lerner étaient toujours vérifiées : par exemple une dépréciation de 10 % du taux de change réel entraîne en moyenne une hausse du volume d’exportations nettes équivalente à 1,5 % du PIB. Pour autant, si les entreprises des pays développés accroissent leur production pour répondre à un surcroît de demande, elles augmenteront mécaniquement leurs dépenses, donc notamment leurs achats de biens étrangers. De même, si les ménages des pays développés voient leur niveau de vie augmenter, ils consommeront davantage et donc contribueront également à une hausse des importations. Un tel surcroît des importations bénéficie aux pays émergents, notamment en incitant leurs propres entreprises à accroître leur production.

En outre, l’assouplissement monétaire dans les pays développés, dans un contexte où leurs perspectives de croissance s’avèrent sombres, désincite les investisseurs financiers à placer leurs capitaux dans l’économie domestique, mais les incite plutôt à placer ces capitaux dans le reste du monde afin d’obtenir un meilleur rendement. En effet, les politiques monétaires accommodantes adoptées lors de la Grande Récession ont stimulé les entrées de capitaux à destination des pays émergents. Toutefois, l’impact de ces entrées sur l’économie domestique est loin d’être clair [Blanchard et alii, 2015]. Les afflux de capitaux peuvent stimuler à long terme l’activité domestique si elles se traduisent par une hausse des investissements directs à l’étranger entrants. Ils peuvent au contraire se révéler nuisible à l’activité domestique à court terme en en alimentant une expansion excessive du crédit et des bulles spéculatives sur les marchés d’actifs, susceptibles de se solder par une crise financière, une crise des changes et par conséquent une récession. Les entrées de capitaux peuvent aussi se révéler déstabilisatrices à plus long terme en entraînant une mauvaise allocation des ressources selon un mécanisme proche de la « maladie hollandaise », notamment en amenant l’économie domestique à développer excessivement les secteurs abrités, peu productifs, et à délaisser les secteurs plus ouverts à la concurrence internationale et plus productifs.

Hélène Rey (2013) a confirmé que les pays émergents étaient tout particulièrement exposés à un véritable « cycle financier mondial » et que celui-ci serait étroitement associé aux évolutions de la politique monétaire américaine : si les assouplissements monétaires de la Fed stimule les afflux de capitaux, l’endettement et la prise de risque dans le reste du monde, ses resserrements monétaires tendent à s’accompagner d’une remontée de l’aversion du risque au niveau mondial et d’une contraction du crédit et des prix d’actifs.

Au final, il n’est pas certain que les banques centrales des pays développés puissent réorienter leur politique monétaire de façon à ce que cela soit à la fois bénéfique à leur économie domestique et aux pays émergents. La marge pour une coordination internationale est donc particulièrement étroite. Si, d’un côté, la politique budgétaire est contrainte et si, de l’autre, la politique monétaire entraîne d’indésirables répercussions sur le taux de change et les mouvements de capitaux, l’utilisation des contrôles de capitaux par les pays émergents apparait aux yeux de Blanchard comme l’instrument le plus approprié pour assurer la stabilité financière et la stabilité macroéconomique. Les restrictions imposées aux mouvements de capitaux permettent en effet aux pays développés d’utiliser librement leur politique monétaire pour stimuler la demande globale, tout en préservant les pays émergents des répercussions indésirables qu’elle est susceptible de générer sur les taux de change et les mouvements de capitaux.

 

Références

BLANCHARD, Olivier (2016), « Currency wars, coordination, and capital controls », NBER, working paper, n° 22388, juillet.

BLANCHARD, Olivier, Jonathan D. OSTRY, Atish R. GHOSH & Marcos CHAMON (2015), « Are capital inflows expansionary or contractionary? Theory, policy implications, and some evidence », NBER, working paper, n° 21619, octobre.

FMI (2015), « Exchange rates and trade flows: Disconnected? », in FMI, World Economic Outlook, octobre.

REY, Hélène (2013), « Dilemma not trilemma: The global financial cycle and monetary policy independence », document de travail présenté à Jackson Hole, 24 août.

Présentation

  • : D'un champ l'autre
  • D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher