Overblog
Suivre ce blog Administration + Créer mon blog
22 février 2014 6 22 /02 /février /2014 18:19

Avec la crise financière mondiale, les taux de chômage ont atteint des niveaux particulièrement élevés dans les pays avancés. Ils ont poursuivi leur envolée dans les pays (comme ceux en périphérie de la zone euro) qui ont adopté des plans d’austérité massifs avant même de renouer avec la croissance. La création nette d’emplois reste aujourd’hui particulièrement faible dans les autres pays, même ceux (comme les Etats-Unis) qui poursuivent une reprise ininterrompue depuis cinq ans. Certains ont suggéré que cette « reprise sans emplois » (jobless recoveries) s’explique tout simplement par la faiblesse de l’activité économique et ont ainsi appelé à un nouvel assouplissement des politiques conjoncturelles en vue de la stimuler. D’autres considèrent que le maintien du chômage à des niveaux élevés s’explique par des facteurs structurels, notamment sur les marchés du travail (par exemple une inadéquation entre la qualification des emplois et la qualification des chômeurs. Selon une telle interprétation, les politiques expansionnistes sont incapables de stimuler la création d’emplois ; seules des réformes structurelles (par exemple dans le domaine de la formation) sont à même de faire refluer le chômage.

Le lien entre la production globale et l’emploi est exploré depuis plusieurs décennies. Arthur Okun (1962) a mis en évidence l’existence à court terme d’une corrélation négative entre le chômage et la production qui a depuis reçu le nom de « loi d’Okun » dans la recherche universitaire : plus la croissance économique est forte, plus l’économie génère des emplois. Cela peut s’interpréter dans un cadre keynésien : plus la demande globale est importante, plus les entreprises sont incitées à produire, donc à embaucher, ce qui réduit le chômage. [1]

La loi d’Okun est considérée comme l’une des régularités empiriques les plus robustes en science économique. Si elle reste moins universelle que l’équation de gravité dans le commerce international, elle demeure plus fiable que la courbe de Phillips. En observant les Etats-Unis depuis 1948 et une vingtaine de pays avancés depuis 1980, Laurence Ball, Daniel Leigh et Prakash Loungani (2013) confirment que cette relation est forte et stable dans la plupart d’entre eux. En moyenne, l’accélération d’un point de pourcentage de la croissance de la production se traduit par une hausse de 0,5 point de pourcentage de la croissance de l’emploi. Les coefficients d’Okun (qui mesurent la sensibilité du chômage à la production) sont toutefois fortement hétérogènes d’un pays à l’autre. Plusieurs études suggèrent par exemple de faibles coefficients pour l’Allemagne, l’Italie et le Japon. Cette hétérogénéité reflète des caractéristiques propres au marché du travail de chaque pays et, plus largement, à son économie. Ce coefficient dépendrait (du moins en partie) des coûts d’ajustement de l’emploi, notamment des coûts de formation… Ball et ses coauteurs suggèrent toutefois que cette hétérogénéité ne s’explique pas par l’intensité de la protection de l’emploi.

Enfin et surtout, ils notent que la Grande Récession n’a pas brisé cette relation. Si nous assistons à des « reprises sans emplois » depuis quelques décennies et en particulier aujourd’hui… c’est tout simplement parce que l’activité économique au sortir des récessions est trop faible pour générer des emplois. Autrement dit, les gouvernements ne peuvent espérer d’améliorations notables sur leur marché du travail sans une accélération significative de la croissance, or ils disposent d’instruments économiques pour faire refluer le chômage à court terme. Si des pays comme l’Espagne ou l’Irlande ont connu une hausse insoutenable de leurs taux de chômage, ce n’est pas à cause de marchés du travail dysfontionnels, mais bien en raison de l’austérité budgétaire et de ses répercussions directes sur l’activité économique. 

Si une relation stable existe au niveau empirique entre deux variables économiques, on pourrait s’attendre à ce que les prévisions de ces variables soient liées par une telle relation. Laurence Ball, João Tovar Jalles et Prakash Loungani (2014) ont ainsi étudié si les prévisionnistes partagent la même croyance en la loi d’Okun que les chercheurs. Ils utilisent des données provenant du Consensus Economics. Ils restreignent leur étude à un groupe d’économies avancées, en l’occurrence ceux du G7 (Allemagne, Canada Etats-Unis, France, Italie, Japon et Royaume-Uni) ainsi que l’Australie et la Nouvelle-Zélande. La période analysée s’étend de 1989 à 2012. 

GRAPHIQUE Comparaison entre les coefficients d’Okun tirés des données empiriques et des prévisions (1989-2012)

Laurence-Ball--loi-d-Okun--coefficients-d-Okun--Allemagne--.png

source : Ball et alii (2014)

Ils montrent que les prévisions de croissance du PIB réel et les variations du chômage sont négativement corrélées dans chacun des pays qu’ils étudient, ce qui est cohérent avec la loi d’Okun. Pour de nombreux pays, le coefficient d’Okun tiré des prévisions est assez similaire à celui des données empiriques (cf. graphique). Par exemple, les faibles coefficients d’Okun qu’ils décèlent pour l’Allemagne, le Japon et l’Italie à partir des données empiriques se retrouvent également dans les prévisions réalisées pour ces trois pays. La croyance des prévisionnistes envers la loi d’Okun ne s’est pas démentie au cours de la Grande Récession, ce qui reflète sa survie dans les données. De plus, les révisions de prévisions de chômage sont négativement corrélées avec les révisions des prévisions du PIB réel : les premières sont revues à la baisse lorsque les secondes sont revues à la hausse. Cette corrélation est particulièrement forte pour l’année en cours, mais tend à s’affaiblir pour les horizons de prévision plus éloignés.

 

[1] Il ne faut toutefois pas oublier que la baisse du chômage n’est pas forcément aussi rapide que la création nette d’emploi (et inversement) : lorsque le chômage baisse, c’est-à-dire lorsque les chances d’être embauchées s’améliorent, des personnes qui s’étaient jusqu’alors retirées de la population active sont incitées à reprendre leur recherche d’emploi. La hausse du taux de chômage est contenue par la fuite d’une partie des travailleurs dans la population inactive, tandis que, symétriquement, la baisse du taux de chômage est freinée par le retour d’inactifs sur le marché du travail. Autrement dit, il faut parfois créer deux emplois pour qu’il y ait un chômeur en moins.

 

Références

BALL, Laurence, João Tovar JALLES & Prakash LOUNGANI (2014), « Do forecasters believe in Okun’s law? An assessment of unemployment and output forecasts », FMI, working paper, février.

BALL, Laurence, Daniel LEIGH & Prakash LOUNGANI (2013), « Okun’s law: Fit at fifty », National Bureau of Economic Research, working paper, n° 18668.

LOUNGANI, Prakash (2014)« Are jobs and growth still linked? », in iMFdirect (blog), 7 janvier.

OKUN, Arthur (1962), « Potential GNP: Its measurement and significance », in Proceedings of the Business and Economics Statistics Section, American Statistical Association.

Partager cet article
Repost0
20 février 2014 4 20 /02 /février /2014 15:38

Les plus récentes théories de la croissance économique suggèrent que celle-ci est un phénomène cumulatif ; une fois amorcée, elle tend à se perpétuer elle-même. Robert Gordon (2012) a suscité de nombreuses réactions, pour la plupart hostiles, en prédisant un ralentissement durable et significatif de la croissance américaine. Ce faisant, il mettait en question ce qui beaucoup considéraient comme une évidence : rien n’assure que la croissance économique soit un phénomène illimité dans le temps. Le taux de croissance annuel du PIB américain a en effet atteint en moyenne 2 % entre 1891 et 2007. Mais désormais, selon les estimations de Gordon (2014), le taux de croissance annuel moyen s’élèvera ces prochaines décennies à 1,3 % pour la productivité du travail, à 0,9 % pour la production par tête, à 0,4 % pour le revenu réel par tête des 99 % des ménages les moins aisés et à 0,2 % pour le revenu disponible de ces mêmes ménages. Les Etats-Unis renoueraient finalement avec la stagnation économique dans laquelle était plongés l’ensemble des pays avant la Révolution industrielle ; la période de croissance qui débuta avec cette dernière n’aura été qu’une parenthèse historique, non reproductible. En dressant un portait aussi sombre de l’avenir économique des Etats-Unis, Gordon accrédite par là la thèse d’une grande stagnation (great stagnation) développée par Tyler Cowen. 

Gordon (2012), comme Cowen, faisait du ralentissement de l’innovation la principale cause de l'affaiblissement de la croissance potentielle ; les inventions les plus faciles à mettre en œuvre ont déjà été mises à jour et l’économie buterait tout simplement aujourd’hui sur un manque d’inspiration. Gordon suggérait toutefois que six autres dynamiques, indépendantes du processus d’innovation, allaient également contribuer à réduire la croissance à long terme. Gordon (2014) considère à présent que ces six « vents contraires » auront un plus grand impact sur la trajectoire future du PIB américain que le ralentissement de l’innovation.

Premièrement, les changements démographiques vont se traduire par une baisse du nombre d’heures travaillées par tête. Le taux de fertilité a été particulièrement élevé entre 1946 et 1964, si bien que la majorité des baby boomers vont prendre leur retraite entre 2008 et 2034. Même si le taux de chômage et le taux d’emploi reviennent à leurs niveaux de 2004, soit respectivement 5,5 % et 94,5 %, le nombre d’heures travaillées par tête risque tout de même de diminuer en raison de la baisse du nombre d’heures travaillées par travailleur et du déclin du taux d’activité. En effet, en raison des dysfonctions propres à la protection sociale aux Etats-Unis, les entreprises sont incitées à embaucher à temps partiel, afin d’éviter de payer les coûts d’assurance sociale. Au final, ces changements démographiques devraient se traduire par une baisse de 0,3 point de pourcentage le taux de croissance annuel moyen. 

Deuxièmement, le niveau d’éducation, après avoir augmenté pendant plusieurs décennies, stagne désormais à un plateau. Par exemple, le pourcentage de jeunes qui disposent d’un diplôme du secondaire est passé de 10 à 80 % entre 1900 et 1970, puis il a diminué pour atteindre 74 % en 2000. De plus, l’accès à l’éducation et plus particulièrement aux études universitaires devient de plus en plus difficile, comme le dénote notamment l’explosion de la dette étudiante (student debt). Alors qu’elle constituait un moteur central de la croissance économique au cours du dernier siècle en générant de substantiels gains de productivité, l’éducation contribuera moins à la croissance au cours des prochaines décennies. En l’occurrence, la stagnation du niveau d’éducation devrait réduire de 0,2 point de pourcentage le taux de croissance annuel moyen. 

Troisièmement, les inégalités vont continuer à s’accroître. La  part du revenu national détenue par les 1 % des ménages les plus aisés atteignait des niveaux extrêmes entre 1913 et 1929. Elle a fortement diminué entre les années cinquante et le début des années soixante-dix. Elle augmente à nouveau depuis la fin des années soixante-dix et retrouve aujourd’hui les valeurs qu’elle atteignait au début du vingtième siècle. Au cours des dernières décennies, la croissance du revenu réel des 99 % des ménages les moins aisés a été inférieure d’un demi-point à la croissance moyenne de l’ensemble des revenus. En 2012, le revenu réel médian des ménages américains était inférieur à son niveau de 1998. Si cette tendance se poursuit, la hausse des inégalités devrait à l’avenir se traduire par une baisse de 0,5 point de pourcentage le taux de croissance annuel moyen pour les 99 % des ménages les moins aisés. 

Quatrièmement, les administrations publiques sont fortement endettées et, dans un contexte de faible croissance économique, la dette publique va continuer à augmenter plus rapidement que le PIB. La hausse à long terme du ratio dette publique sur PIB va tôt ou tard pousser les autorités publiques à accroitre les recettes fiscales et/ou réduire les prestations sociales pour ramener le ratio sur une trajectoire plus soutenable. Or une telle consolidation budgétaire ne manquera pas de peser en retour sur la croissance économique et de réduire le revenu disponible des ménages. Elle devrait réduire de 0,2 point de pourcentage le taux de croissance annuel moyen du PIB par tête.

Ces dynamiques démographique, éducative, distributive et fiscale devraient ensemble contribuer à réduire de 1,2 point de pourcentage le taux de croissance annuel moyen. Alors que ce dernier s’élevait à 2 % entre 1891 et 2007, il devrait atteindre 0,8 % au cours des prochaines décennies pour les 99 % des ménages américains les moins aisés. Si le PIB par habitant suivait à long terme la même tendance qu’entre 1891 et 2007, c’est-à-dire s’accroissait en moyenne de 2 % par an, il atteindrait environ 200.273 dollars en 2077, c’est-à-dire quadruplerait en l’espace d’un siècle (cf. graphique). Mais, en raison des quatre vents contraires et de leur impact sur la croissance économique, le PIB par tête devrait finalement s’élever aux alentours de 86.460 dollars en 2077.

GRAPHIQUE PIB par tête américain avec et sans vents contraires (en dollars 2009)

Robert-Gordon--Etats-Unis--PIB-par-tete--Martin-Anota.png

source : Gordon (2014)

Dans sa précédente étude, Robert Gordon (2012) parlait également de deux « vents contraires » supplémentaires, en l’occurrence la mondialisation et le changement écologique, mais il n’offre dans son nouveau document de travail aucune estimation numérique de ceux-ci. Gordon (2014) rappelle que la mondialisation agit précisément comme le suggèrent les théories traditionnelles du commerce internationale et plus particulièrement le théorème d’égalisation des prix des facteurs, en élevant les salaires dans les pays en développement tout en ralentissant leur croissance dans les pays avancés. Le mouvement de délocalisation (offshoring) et la concurrence des produits bon marché en provenance des pays émergents contribuent à réduire la population active américaine en provoquant une destruction nette d'entreprises sur le territoire. De son côté, le réchauffement climatique va en lui-même affecter les perspectives futures de croissance économique. Les règles et taxes environnementales mises en place pour réduire l’ampleur du réchauffement climatique vont également peser sur l’activité à long terme. L’épuisement des ressources naturelles va conduire une hausse de leurs prix, ce qui va réduire à la fois la compétitivité des entreprises et le pouvoir d’achat des ménages. Dans ce contexte, l’exploitation de gaz de schiste va d’une part réduire le prix du gaz aux Etats-Unis, ce qui permettra de compenser la hausse du prix du pétrole, et d’autre part conduire à substituer le gaz au pétrole, ce qui contribuera à contenir les émissions de carbone. Toutefois, elle ne va pas stimuler la productivité de la même manière que l’a fait l’invention de l’aviation commerciale, de l’air conditionné ou de l’autoroute. Le gaz de schiste ne constituera pas une source indépendante de croissance économique semblable à l’électricité. Si Gordon prenait numériquement en compte ces deux vents contraires (en l’occurrence la mondialisation et la question environnementale), il reverrait à la baisse ses prévisions déjà bien pessimistes qu'il établit pour la croissance à long terme.

Gordon conclut enfin son travail prospectif en se penchant sur l’innovation et son impact sur la trajectoire future du PIB. Il reconnaît, comme de nombreux auteurs, que le progrès technique joue un rôle majeur dans la croissance des pays avancés et il affirme pour sa part que le ralentissement du premier contribuera à la faiblesse de la seconde. Il ne lui est toutefois pas nécessaire de conjecturer que le progrès technique ralentira dans un avenir proche pour que ses prévisions pessimistes deviennent réalité, précisément parce qu’un tel ralentissement a eu lieu il y a quatre décennies. Au cours de la deuxième révolution industrielle, c’est-à-dire de la fin du dix-neuvième siècle jusqu’à 1972, la productivité a augmenté assez rapidement pour doubler tous les 29 ans. Mais le taux de croissance annuel moyen de la productivité du travail a diminué de 0,8 points de pourcentage au cours des quatre décennies suivantes. La croissance de la productivité a certes significativement augmenté entre 1996 et 2004, mais cette performance n’est pas reproductible, si bien que cette période aura été unique dans l’histoire. Le boom de la fin des années quatre-vingt-dix s’explique par un déclin exceptionnel du prix du matériel informatique et une hausse toute aussi exceptionnelle de la part du PIB consacrée à l’investissement dans les technologies de l’information et de la communication (TIC). Ces dépenses d’investissement ont chuté avec l’effondrement de la bulle internet en 2000, mais la croissance de la productivité est restée forte jusqu’en 2004, suggérant un délai entre l'acquisition des nouvelles technologies et la pleine exploitation de leur potentiel (ce qui expliquerait notamment le paradoxe relevé par Solow à la fin des années quatre-vingt).

La révolution informatique aura donc accéléré la croissance de la productivité durant à peine une décennie, une performance particulièrement décevante au regard des huit décennies de gains de productivité de la deuxième révolution industrielle. Les trois inventions les plus décisives sont apparues en l’espace de trois mois en 1879 : Thomas Edison a inventé l’ampoule électrique, Karl Benz a mis au point un moteur à allumage électrique et David Edward Hughes a réussi à envoyer des ondes sur une distance de plusieurs centaines de mètres. A la différence de la révolution des TIC, la deuxième révolution industrielle fut multidimensionnelle, puisqu'elle vit l'émergence d'inventions aussi diverses que l’électricité, l’eau courante, les véhicules motorisés, la radio, la télévision, la santé publique, etc. Toutes ces inventions sont apparues en même temps, en l’occurrence entre 1880 et 1929. Au final, les progrès économiques observés jusqu’à 1972 consistèrent principalement à développer des inventions subsidiaires et complémentaires celles apparues au tournant du siècle.

Joel Mokyr (2013) avait rejeté les précédentes conclusions de Robert Gordon (2012) en affirmant qu’il est impossible pour le cerveau humain de prévoir les futures innovations. Gordon (2014) suggère au contraire que les avancées technologiques peuvent être prévues cinquante ans, voire un siècle, en avance. Il rappelle que dans un ouvrage de Jules Verne publié en 1863, celui-ci avait prévu assez finement ce que sera Paris un siècle plus tard, puisqu'il y dépeignant des voitures dotés de moteurs à combustion alimentés par du gaz et des rues éclairées par des lumières reliées par un réseau souterrain. Gordon rappelle également que le concept d’eau courante (une invention de la deuxième révolution industrielle qu’il juge particuièrement fondamentale) existait déjà sous l’Antiquité, mais qu’il manquait alors les ressources financières et la détermination politique pour la mettre en place. 

Des techno-optimistes comme Erik Brynjolfsson et Andrew McAfee (2014) suggèrent que nous sommes à un « point d’inflexion », c’est-à-dire sur le point de voir le progrès technique s’accélérer significativement. Les progrès les plus attendus concernent essentiellement le domaine médical, les robots, l’impression en 3D, l’intelligence artificielle, les big data et les voitures sans conducteur. Or, pour Gordon, aucune de ces innovations n’aura autant d’impact sur la productivité et le niveau de vie que celles générées lors de la deuxième révolution industrielle. La révolution informatique est bel et bien finie. A l’inverse de David Byrne et alii (2013), Gordon rejette l’idée que la loi de Moore reste d’actualité : le prix de l’équipement en TIC rapporté à sa performance avait diminué de 15 % en 1998 ; à partir de cette date, il diminue de moins en moins rapidement et ne décline plus depuis 2012. Le taux de croissance annuel moyen de la productivité s’élevait à 2,36 % avant 1972 et atteint seulement 1,59 % depuis lors. Selon Gordon, le taux d’innovation devrait se poursuivre au mieux au même rythme qu’au cours des quatre dernières décennies. Au final, si l’on prend en compte le ralentissement de l’innovation en plus des six « vents contraires », le taux de croissance annuel moyen de ces prochaines décennies pour les 99 % des ménages américains les moins aisés s’établira, non pas à 0,8 %, mais à 0,2 %.

Robert Gordon souligne à plusieurs reprises que son analyse se focalise sur la seule économie américaine. Certains « vents contraires » sont spécifiques à celle-ci ou affectent moins sévèrement les autres pays, par exemple le Canada et les pays scandinaves. Il ne serait alors pas étonnant que de nombreux pays voient leur niveau de vie dépasser celui des Etats-Unis au cours des prochaines décennies. 

 

Références

BYRNE, David M., Stephen D. OLINER & Daniel E. SICHEL (2013), « Is the information technology revolution over? », Réserve fédérale, finance and economics discussion paper, n° 2013-36.

BRYNJOLFSSON, Erik, & Andrew MCAFEE (2014), The Second Machine Age, Norton.

COWEN, Tyler (2011), The Great Stagnation: How America Ate All the Low-Hanging Fruit of Modern History, Got Sick, and Will (Eventually) Feel Better.

GORDON, Robert J. (2012), « Is U.S. economic growth over? Faltering innovation confronts the six headwinds », National Bureau of Economic Research, working paper, n° 18315, août.

GORDON, Robert J. (2014), « The demise of U.S. economic growth: restatement, rebuttal, and reflections », National Bureau of Economic Research, working paper, n° 19895, février. 

MOKYR, Joel (2013), « Is technological progress a thing of the past? », in Vox.EU.org, 8 septembre. 

Partager cet article
Repost0
17 février 2014 1 17 /02 /février /2014 16:58

Claudio Borio, comme beaucoup de ses collègues à la Banque des règlements internationaux, développe une théorie des cycles économique et financier qui s'imprègne aussi bien aux travaux de l’école autrichienne que du concept de déflation par la dette d’Irving Fisher ou encore de l’hypothèse d’instabilité financière développée par Hyman Minsky. D’ailleurs, l’influence de la première est particulièrement visible lorsque l’institution de Bâle préconise des politiques économiques (son dernier rapport annuel a notamment reçu de nombreuses critiques pour son contenu liquidationniste).

Le crédit joue alors naturellement un rôle déterminant dans le déroulement du cycle tel que Borio le décrit. Les déséquilibres financiers s’accumulent lors de l’expansion (boom), puisque les agents privés multiplient alors les prises de risque en s’endettant et les prix d’actifs s’élèvent : en l’occurrence, les agents financent les achats d’actifs en empruntant auprès des banques, or la hausse résultante des prix d’actifs les incite à poursuivre leurs achats et rend les banques plus enclines à prêter. L’expansion finit tôt tout tard par laisser place à l’effondrement (bust) soit parce que l’inflation finit par s’accélérer, ce qui amène alors la banque centrale à resserrer sa politique monétaire, soit tout simplement parce que les déséquilibres s’effondrent sous leur propre poids. L’activité se contracte et l’économie est alors susceptible de basculer dans la déflation, ce qui alourdira le fardeau des dettes héritées de l’expansion. 

Notamment parce qu’elle facilite l’accès au crédit, la libéralisation financière contribue à l’accumulation des déséquilibres et accroît la vulnérabilité du cycle d’affaires au cycle financier. Un environnement marqué par une inflation faible et stable favorise également la prise de risque, en particulier si la banque centrale est crédible. En effet, puisque les agents sont assurés de l’engagement de la banque centrale à assurer la stabilité des prix, leurs anticipations d’inflation sont plus fermement ancrées autour de la cible qu’elle poursuit, si bien que la hausse du crédit et des prix d’actifs ne se traduira pas forcément par une accélération de l’inflation. Or, le maintien de la stabilité des prix n’incite pas la banque centrale à resserrer sa politique monétaire, si bien que celle-ci laisse finalement les déséquilibres financiers s’accumuler démesurément : c’est le « paradoxe de la crédibilité » (paradox of credibility) suggéré par Claudio Borio et alii (2003). Enfin, le processus d’intégration réelle de l’économie mondiale participe également à l’accumulation des risques. Certes il est susceptible de stimuler la croissance potentielle mondiale en générant des chocs d’offre positifs et en accroissant les capacités de production. Mais de cette manière, il contribue à contenir les hausses de prix, donc à dissimuler la formation de déséquilibres macrofinanciers aux yeux des agents privés et des banquiers centraux. 

Claudio Borio (2014) en conclut que les autorités monétaires ne peuvent se focaliser sur le seul contrôle de l’inflation à court terme. Elles doivent nécessairement prendre en compte les cycles financiers et ce même si la stabilité financière n’entre pas explicitement dans leur mandat. En l’occurrence, la banque centrale doit réagir plus symétriquement lors du cycle financier, en resserrant préventivement sa politique monétaire lors du boom, même si l’inflation apparaît stable à moyen terme, et en assouplissant moins agressivement et moins longuement sa politique monétaire lors de l’effondrement. Pour agir préventivement, les autorités monétaires devront nécessairement élargir leur horizon temporel, car le délai entre l’accumulation de risques systémiques et l’apparition de détresse financière est bien plus long que le délai associé au maintien de l’inflation sous contrôle.

Diverses objections sont habituellement avancées lorsque l’on suggère une action préventive de la banque centrale au cours du boom : les déséquilibres financiers ne pourraient être identifiés avec précision en temps réel, la politique monétaire serait un outil inefficace et aveugle, les instruments macroprudentiel seraient de meilleurs outils pour gérer les déséquilibres, etc. Si Borio juge ces objections fondées, il ne les trouve toutefois pas suffisamment convaincantes. Il estime en effet qu’il est n’est pas possible d’identifier l’accumulation de déséquilibres financiers en temps réel ; pour cela, il faut observer plus finement le comportement du crédit et des prix d’actifs. Les indicateurs de déséquilibres financiers ne sont pas plus flous et difficiles à mesurer que certains indicateurs déjà utilisés par les banques centrales, comme le taux d’intérêt naturel, le NAIRU ou la croissance potentielle. La prise en compte des premiers permettrait d’ailleurs de mieux déterminer ces derniers, comme ont pu le suggérer Claudio Borio, Piti Disyatat et Mikael Juselius (2013). Ensuite, on peut difficilement dire que la politique monétaire soit inefficace pour réfréner l’accumulation de déséquilibres financiers, puisqu’elle agit précisément sur l’économie en affectant le crédit, les prix d’actifs et la prise de risque. Enfin, Borio estime qu’il ne suffit pas d’utiliser les seuls outils prudentiels, car ceux-ci sont vulnérables à l’arbitrage réglementaire. 

Selon de nombreux économistes, les banques centrales doivent fortement et rapidement assouplir leur politique monétaire lorsque l’économie bascule dans la récession et la maintenir fortement accommodante tant que la reprise n’est pas confirmée. Or, pour Claudio Borio, une telle réaction des autorités monétaires apparaît inappropriée lors des récessions de bilan (balance sheet recessions), c’est-à-dire lors des récessions qui suivent les booms financiers. Les récessions de bilan sont particulièrement coûteuses, en ce sens qu’elles tendent à être plus longues, à mener à de plus faibles reprises et à laisser des pertes de production permanentes : la production peut certes croître à nouveau au même rythme qu’avant-crise, mais elle peut ne pas revenir à la trajectoire de long terme qu’elle suivait précédemment. Or, selon Borio, les banques centrales tendent peut-être finalement à accroître ces coûts macroéconomiques plutôt qu’à les atténuer. 

Lorsqu’une crise financière éclate, Claudio Borio reconnaît que la banque centrale doit intervenir pour jouer pleinement son rôle de prêteur en dernier ressort et éviter ainsi un effondrement du système. En revanche, le maintien d’une politique monétaire particulièrement accommodante ne permettra pas à l’économie de renouer avec une croissance soutenue si celle-ci subit une récession de bilan. En effet, lorsqu’elles assouplissent leur politique monétaire pour sortir l’économie d’une récession, les autorités monétaires cherchent précisément à stimuler la prise de risque, le crédit et les prix d’actifs. Or, lors d’une récession de bilan, ces derniers sont déjà initialement trop élevés. En considérant le surendettement comme un problème de contraintes sur la demande de crédit, Borio rejette par exemple les conclusions obtenues par Gauti Eggertsson et Paul Krugman (2012). Lors d’une récession de bilan, les agents réalisent que leurs anticipations étaient irréalistes et qu’ils se sont trop endettés, donc ils vont chercher à rembourser leurs prêts pour nettoyer leur bilan. Dans ce cas, la propension à dépenser n’est pas proche de l’unité, mais de zéro, si bien que la politique monétaire perd en efficacité. La reprise ne pourra être durable que si le nettoyage de bilan se poursuit jusqu’à son terme : plus la dette diminuera rapidement, plus la reprise sera soutenue. En revanche, si la banque centrale persiste à maintenir une politique monétaire excessivement accommodante, celle-ci dissimulera la faiblesse des bilans et amènera les autorités à surestimer la capacité des agents à rembourser dans des conditions normales. Et comme les agents privés ne sont pas incités à reconnaître l’ampleur de leurs pertes, la distribution de crédit risque d’être particulièrement inefficace : les banques reconduiront les prêts non performants, mais elles ne seront pas incitées à prêter aux agents solvables. Or non seulement les « banques zombies » freinent la reprise à court terme, mais elles nuisent également à la croissance de long terme en contraignant l’investissement et en déprimant la production potentielle. 

Selon Borio, trois risques sont susceptibles de se concrétiser si les banques centrales ne revoient pas leur politique monétaire. Premièrement, elles risquent de faire apparaître un « écart d’anticipations » (expectations gap) : il peut y avoir un décalage entre ce que les agents privés attendent des banques centrales et ce que ces dernières peuvent effectivement même en œuvre. Dans ce cas, comme la politique monétaire ne génère pas les résultats attendus, la banque centrale est appelée à prendre des mesures toujours plus audacieuses. Non seulement cela retarde la sortie de crise, mais la banque centrale risque aussi de perdre en crédibilité. Deuxièmement, Borio met l’accent sur le risque d’un enracinement de l’instabilité (entrenching instability), une forme particulièrement incidieuse d’incohérence temporelle. Si les autorités monétaires ne réagissent pas aux booms financiers, mais répondent par contre agressivement aux effondrements, leur marge de manœuvre risque de se réduire au fur et à mesure. Si une banque centrale (en particulier la Fed) assouplit sa politique monétaire pour sortir l’économie domestique de la récession, les autres banques centrales peuvent être incitées à faire de même, auquel cas le reste du monde risque d’accumuler des déséquilibres financiers [1]. Si ceux-ci se dénouent en provoquant une nouvelle crise financière, les pays qui n’ont pas su renouer avec la croissance suite à la précédente connaitront une nouvelle contraction de leur activité, ce qui réduira encore davantage la marge de manœuvre de leur banque centrale. Troisièmement, une nouvelle crise financière est susceptible de faire s’effondrer les configurations institutionnelles actuellement en place. Borio craint en l’occurrence un renversement de la mondialisation et l’abandon du ciblage d’inflation. En mettant en garde contre la tentation d’utiliser l’inflation et la répression financière pour réduire l’endettement des pays avancés, il rejette précisément aux propositions de Carmen Reinhart et Kenneth Rogoff (2013).


[1] Ces enchaînements ont notamment été étudiés par Valentina Bruno et Hyun Song Shin (2012) à travers le concept de « canal de la prise de risque », ainsi que par Hélène Rey (2013) : celle-ci met en évidence l’existence d’un véritable cycle financier mondial qui enchaîne l’action des différentes banques centrales à celle de la Réserve fédérale américaine. 

 

Références

BORIO, Claudio (2014), « Monetary policy and financial stability: What role in prevention and recovery? », BRI, working paper, n° 440, janvier.

BORIO, Claudio, Piti DISYATAT & Mikael JUSELIUS (2013), « Rethinking potential output: embedding information about the financial cycle », BRI, working paper, n° 404, février.

BORIO, Claudio, William ENGLISH & Andrew FILARDO (2003), « A tale of two perspectives: old or new challenges for monetary policy? », BRI, working paper, n° 127, février. 

BRI (2013), 83ème rapport annuel, juin.

BRUNO, Valentina, & Hyun Song SHIN (2012), « Capital flows and the risk-taking channel of monetary policy », BRI, working paper, n° 400, décembre.

EGGERTSSON, Gauti B., & Paul KRUGMAN (2012), « Debt, deleveraging, and the liquidity trap: a Fisher-Minsky-Koo approach », in The Quarterly Journal of Economics, vol. 127, n° 3.

REINHART, Carmen M., & Kenneth S. ROGOFF (2013), « Financial and sovereign debt crises: Some lessons learned and those forgotten », FMI, working paper, décembre.

REY, Hélène (2013), « Dilemma not trilemma: the global financial cycle and monetary policy independence », article présenté lors du symposium organisé par la Réserve fédérale de Kansas City à Jackson Hole, 22-24 août.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher