Suivre ce blog
Administration Créer mon blog
22 mai 2015 5 22 /05 /mai /2015 11:38

En théorie, le système financier favorise la croissance économique en facilitant la mobilisation de l’épargne, en favorisant le partage des risques et la couverture des agents contre ces derniers, en contribuant à allouer les ressources vers leur usage le plus productif, en surveillant l’investissement, en améliorant la gouvernance d’entreprise, en facilitant les échanges de biens et services, etc. [Levine, 2005].

La crise financière mondiale a profondément remis en question l’idée que le développement financier favorise la croissance économique ou tout du moins qu’il ait un impact linéaire sur celle-ci. Il peut y avoir plusieurs canaux à travers lesquels des niveaux avancés de développement financier peuvent nuire à la croissance économique. En augmentant la fréquence et l’ampleur des booms, un développement excessif de la finance accroît la fréquence et l’ampleur des effondrements du crédit et des prix d’actifs, or ces derniers entraînent de sévères récessions et freinent durablement la croissance suite à la reprise de l’activité. En l’occurrence, un boom a tendance à divertir les ressources financières vers des activités spéculatives, ce qui accroît le risque de crise financière et fragilise l’ensemble de l’économie. Un excès de finance peut également priver les secteurs productifs de main-d’œuvre qualifiée en allouant excessivement cette dernière dans le secteur financier, ce qui détériore l'innovation et la croissance à long terme. Certains ont même suggéré qu’un large secteur financier est tout particulièrement exposé à l’aléa moral et à l’extraction de rentes, deux dynamiques qui contribuent également à une mauvaise allocation des ressources.

De nombreux travaux empiriques ont confirmé l’idée d’une relation non linéaire entre développement financier et croissance économique. En observant un large échantillon de pays développés et en développement, Stephen Cecchetti et Enisse Kharroubi (2012) constatent que le niveau de développement financier ne stimule la croissance que jusqu’à un certain point, à partir duquel il tend au contraire à la freiner. Lorsque le crédit accordé par les banques au secteur privé représente plus de 90 % du PIB, tout nouvel accroissement du crédit bancaire tend à réduire la croissance. En outre, la croissance rapide du secteur financier se révèle nocive à la croissance de la productivité agrégée dans les pays développés. La croissance du secteur financier affecte de façon disproportionnée les secteurs qui sont soit financièrement dépendants, soit intensifs en recherche-développement. Jean-Louis Arcand, Enrico Berkes et Ugo Panizza (2012) rapportent des résultats similaires. La finance commence à avoir un effet négatif sur la croissance de la production lorsque le crédit représente plus de 100 % du PIB.

Joshua Aizenman, Yothin Jinjarak et Donghyun Park (2015) ont observé la relation entre la profondeur financière et la croissance de la production en utilisant des données sur la croissance de la production de dix secteurs dans 41 pays, notamment 9 pays d’Amérique latine et 11 pays d’Asie de l’est. Lorsqu’ils observent des pays de niveau de vie similaire, Aizenman et ses coauteurs constatent de larges écarts en ce qui concerne l’impact de la profondeur financier sur la croissance sectorielle et confirment que l’approfondissement financier freine la croissance de la production dans plusieurs secteurs. Les résultats confirment que l’impact du développement financier sur la croissance sectorielle puisse être non linéaire, c’est-à-dire qu’il ne promeut la croissance que jusqu’à un certain point avant de se révéler nuisible à celle-ci.

Dans une récente étude du FMI, Ratna Sahay et alii (2015) observent un échantillon de 128 pays au cours de la période 1980-2013. Ils confirment une relation en forme de cloche entre le développement financier et la croissance : le développement financier stimule tout d’abord la croissance, mais les effets s’affaiblissent à des niveaux de développement financier élevés et ils deviennent finalement négatifs. Il n’y a pas un unique point seuil pour l’ensemble des pays ou à un instant donné dans le temps. Plusieurs pays ont déjà dépassé le point tournant et connaissent un développement financier excessif ; c’est par exemple le cas de l’Irlande, des Etats-Unis et surtout du Japon. Inversement, la poursuite du développement financier peut encore contribuer à stimuler la croissance dans des pays en développement comme l’Equateur ou la Gambie.

L’observation de deux composantes de la croissance, en l’occurrence de la productivité totale des facteurs et l’accumulation des capitaux, suggère qu’un excès de finance nuit à la croissance économique en freinant la croissance de la productivité totale des facteurs. Des niveaux élevés de développement financier n’empêchent pas l’accumulation du capital, mais ils réduisent l’efficacité de l’investissement. En fait, à des niveaux élevés de développement financier, la finance continue à remplir ses fonctions de mobilisation de l’épargne et de facilitation des transactions, mais elle ne parvient plus à assurer efficacement ses fonctions d’allocation des ressources financières vers des activités productives. 

Ratna Sahay et ses coauteurs confirment également que la relation entre le développement financier et la stabilité économique est également non linéaire. Le développement financier diminue tout d’abord la volatilité de la croissance, dans la mesure où il permet une expansion des opportunités pour une gestion et une diversification des risques efficace. Après un certain point, la volatilité commence à s’accroître à nouveau. Le point tournant sur la courbe de la volatilité de la croissance du PIB est très proche de celui de la courbe de croissance du PIB précédent. Cela suggère qu’il y a une large gamme de niveaux de développement financier qui promeuvent à la fois la croissance économique et la volatilité économique. Un rythme plus rapide d’approfondissement financier se traduit par un plus grand risqué de crise et d’instabilité macroéconomique. Une croissance plus rapide des institutions s’accompagne d’une plus grande prise de risque et d’un accroissement du levier d’endettement, en particulier lorsque le système financier est peu réglementé et supervisé.

Stephen Cecchetti et Enisse Kharroubi (2015) confirment que qu’une hausse exogène de la finance réduit la croissance de la productivité totale des facteurs en bénéficiant disproportionnellement aux projets à faible productivité. Les deux auteurs construisent alors un modèle où la croissance financière et la croissance réelle interagissent. Lorsque des travailleurs qualifiés travaillent dans un secteur ils génèrent une externalité négative sur l’autre secteur. Les institutions financières qui embauchent des travailleurs qualifiés peuvent prêter plus aux entrepreneurs que celles qui ne le font pas. Avec un financement plus abondant et moins cher, les entrepreneurs sont incités à investir dans des projets avec fort garantie, mais à faible productivité, ce qui réduit leur demande pour la main-d’œuvre qualifiée. Inversement, les entrepreneurs qui embauchent des travailleurs qualifiés investissent dans des projets à rendement élevé, mais ayant de faible garantie pour les institutions financières. Dans ce cas, les institutions financières ne sont pas incitées à embaucher des travailleurs qualifiés car les bénéfices tirés d’une expansion du crédit sont limités par le fait que les projets des entrepreneurs présentent de faible garantie. Cette externalité négative peut entraîner des équilibres multiples. A l’équilibre où les institutions financières emploient les travailleurs qualifiés, c’est-à-dire où le secteur financier croît rapidement, la croissance de la productivité totale des facteurs est plus lente qu’à l’équilibre où les entrepreneurs attirent la main-d’œuvre qualifiée, car l’expansion financière bénéficie de façon disproportionnée aux projets à haut collatéral et faible productivité. Par rapport à l’optimum social, les booms financiers au cours desquels la main-d’œuvre qualifiée est embauchée dans le secteur financier sont sous-optimaux lorsque les agents financiers disposent d’un large pouvoir de négociation. Les résultats de cette modélisation sont cohérents avec le fait que la croissance financière blesse disproportionnellement les secteurs intensifs en R&D et dépendants de la finance.

 

Références

AIZENMAN, Joshua, Yothin JINJARAK & Donghyun PARK (2015), « Financial development and output growth in developing Asia and Latin America: A comparative sectoral analysis », NBER, working paper, n° 20917, janvier.

ARCAND, Jean-Louis, Enrico BERKES & Ugo PANIZZA (2012), « Too much finance? », FMI, working paper, n° 12/61.

CECCHETTI, Stephen G., & Enisse KHARROUBI (2012), « Reassessing the impact of finance on growth », BRI, working paper, n° 381.

CECCHETTI, Stephen G., & Enisse KHARROUBI (2015), « Why does financial sector growth crowd out real economic growth? », BRI, working paper, février.

LEVINE, Ross (2005), « Finance and growth: theory and evidence », in Aghion & Durlauf (dir.), Handbook of Economic Growth, Elsevier. 

SAHAY, Ratna, Martin ČIHÁK, Papa N’DIAYE, Adolfo BARAJAS, Ran BI, Diana AYALA, Yuan GAO, Annette KYOBE, Lam NGUYEN, Christian SABOROWSKI, Katsiaryna SVIRYDZENKA & Seyed Reza YOUSEFI (2015), « Rethinking financial deepening: Stability and growth in emerging markets », FMI, staff discussion note, n° 15/08, mai.

Partager cet article

20 mai 2015 3 20 /05 /mai /2015 20:35

En s’appuyant dans sur les enquêtes menées dans plusieurs pays, Vladimir Gimpelson et Daniel Treisman montrent que les populations ont eu ces dernières années une représentation erronée de la répartition nationale des revenus : ils ne connaissent pas le degré d’inégalités, ils ne connaissent pas leur évolution réelle et ils ont du mal à se positionner sur l’échelle des revenus. Ces résultats demeurent lorsque les auteurs utilisent des sources de données alternatives, d’autres définitions ou d’autres instruments de mesure. Par exemple, les perceptions ne sont pas plus exactes si elles portent sur la richesse plutôt que sur le revenu. 

Gimpelson et Treisman s’appuient notamment sur l’enquête qui a été réalisée en 2009 dans 40 pays dans le cadre du programme international d’enquêtes sociales. Celle-ci a demandé à chaque sondé quelle serait la forme de la répartition du revenu nationale parmi cinq formes proposées, par exemple, si elle était en forme de diamant, de sablier, de pyramide, etc. (cf. schéma). Les réponses diffèrent fortement d’un pays à l’autre. Par exemple, si 68 % des Lettons pensent que leur société ressemble à une pyramide (de type A), ce n'est le cas de seulement 2 % des Danois ; 56 % des Danois pensent que leur société a la forme d’un diamant (de type D), puisqu'ils estiment que la majorité d'entre eux se situent au niveau intermédiaire.

 

Les inégalités et leur perception

Or les répondants ont bien du mal à saisir la forme exacte de la répartition du revenu national. En ce qui concerne la répartition des revenus après redistribution, la proportion de réponses correctes est comprise entre 5 % en Ukraine (dont la majorité des habitants surestime les inégalités) à 61 % en Norvège parmi les 40 pays étudiés. La majorité ne choisit la bonne réponse que dans 5 pays. Dans 5 pays, en l’occurrence en Estonie, en République slovaque, en Croatie, en Hongrie et en Ukraine, plus de 90 % des habitants optent pour une réponse erronée.

Les sondés se trompent également souvent lorsqu’ils se représentent la rémunération de diverses professions, en particulier les professions les plus rémunérées. Dans plusieurs pays européens, une part significative de la population pense que la pauvreté est soit plus élevée, soit plus faible qu’elle ne l’est en réalité. Lorsque Gimpelson et Treisman utilisent plusieurs mesures alternatives, ils constatent au mieux qu’une faible corrélation entre le niveau réel des inégalités et son niveau perçu dans chaque pays.

Pour déterminer si les gens parviennent bien à se placer sur l’échelle des revenus, Gimpelson et Treisman s’appuient sur les données du Life in Transition Survey couvrant 34 pays (notamment 29 pays émergents) et du World Values Survey couvrant 58 pays. Selon le Life in Transition Survey, dans la majorité des pays, 40 % des sondés estiment se situer dans les 5ème et 6ème déciles, alors que celles-ci captent par définition 20 % de la population. Dans les enquêtes du World Values Survey, les deux tiers des répondants pensent qu’ils sont dans la moitié inférieure de la répartition du revenu nationale. Certaines questions d’enquête se focalisent sur la propriété des biens durables et notamment de logement. En général, moins d’un sondé sur dix indique que sa famille possède une résidence secondaire, signe d’un patrimoine relativement élevé. Pourtant, 60 % des propriétaires de résidence secondaire se situent dans la moitié inférieure de la répartition des richesses. Cette proportion diminue dans les pays développés, mais elle reste élevée : en France, en Italie et en Grande-Bretagne, 40 % des propriétaires d’une résidence secondaire se considèrent comme étant situés dans la moitié inférieure de la répartition des richesses. A l’autre extrême, les plus pauvres ont également du mal à se situer dans la répartition des revenus et richesses. Par exemple, si les bénéficiaires de revenu d’assistance se situent dans la moitié inférieure de la répartition du revenu national, ils estiment rarement se situer dans l’ultime décile. Au final, les enquêtes montrent que les riches ont tendance à se considérer comme plus pauvres qu’ils ne le sont vraiment, tandis que les pauvres ont tendance à se considérer comme plus riches qu’ils ne le sont.

Au cours des dernières années, dans chaque pays, les sondés ont eu tendance à considérer que les inégalités et la pauvreté augmentaient. Concernant la répartition du revenu, les répondants n’identifient le sens du changement seulement à peine mieux qu’ils ne l’auraient fait en donnant une réponse au hasard. La proportion de sondés convaincue que les écarts de richesse augmentent n’est pas plus large dans les pays où elles ont augmenté le plus rapidement. Même dans les pays où la part du revenu nationale rémunérant les 10 % ou les 1 % les plus riches a diminué, les répondants croient qu’elle a augmenté.

Si la population n’a pas idée de la répartition exacte des revenus, il est alors probable que celle-ci ne permet pas de prédire les préférences et comportements politiques ; par contre, ces dernières peuvent être influencées par la représentation des inégalités que s’en fait la population. En l’occurrence, peu de preuves empiriques confirment l’idée d’un lien entre, d’une part, le degré courant des inégalités et, d’autre part, les revendications pour un approfondissement de la redistribution des revenus ou les perceptions de conflits de classe. Par contre, Gimpelson et Treisman montrent que c’est le niveau perçu des inégalités qui est corrélé avec la demande de redistribution : plus la population considère que la répartition du revenu national est inégalitaire, plus elle exige une forte redistribution des revenus.

 

Référence

FORSE, Michel, & Maxime PARODI (2011), « La perception des inégalités en France depuis dix ans », in Revue de l'OFCE, n° 118, juillet.

GIMPELSON, Vladimir, & Daniel TREISMAN (2015), « Misperceiving inequality », NBER, working paper, n° 21174, mai.

Partager cet article

17 mai 2015 7 17 /05 /mai /2015 19:04

De plus en plus d’études se penchent sur les liens entre culture et croissance économique. Une partie de cette littérature s’est plus étroitement focalisée sur les liens entre religion et croissance. Par exemple, Robert Barro et Rachel McCleary (2003) se sont appuyés sur les données d’enquêtes internationales sur la religiosité dans un large échantillon de pays pour déterminer les effets de la fréquentation des lieux de culte et des croyances religieuses sur la croissance économique. Leurs résultats suggèrent que la croissance économique est favorisée par les croyances religieuses, notamment les croyances en l’existence du paradis et de l’enfer, mais défavorisée par la fréquentation des lieux de culte. Luigi Guiso, Paola Sapienza et Luigi Zingales (2003) sont parvenus à des conclusions similaires. Ces trois auteurs ont étudié divers attitudes économiques vis-à-vis de la coopération, du gouvernement, du travail des femmes, de la législation, de l’épargne et de l’économie de marché. Ils ont constaté que les croyances religieuses étaient en moyenne associées à de « bonnes » attitudes économiques, c’est-à-dire propices à un PIB par habitant plus élevé et à une plus forte croissance économique.

Parce qu'elles ne prônent pas les mêmes valeurs, ni les mêmes normes de comportement, il est probable que les réligions n'exercent pas la même influence sur l'activité économique. Il y a plus d’un siècle, Max Weber avait noté une affinité entre l’éthique protestante et l’esprit du capitalisme. Selon lui, les préceptes protestants auraient incité les fidèles à adopter une approche plus rationnelle du monde, mais aussi à travailler et à épargner davantage. La diffusion du protestantisme aurait alors favorisé l’essor du capitalisme. La thèse de Weber n’a pas seulement généré une ample littérature en sociologie en suscitant de profondes controverses ; elle a également inspiré au cours des dernières décennies de nombreux travaux en économie sur les liens entre religion et croissance. Tiago Cavalcanti, Stephen Parente et Rui Zhao (2007) confirment que les différences entre catholicisme et protestantisme peuvent expliquer pourquoi l’Europe du nord s’est industrialisée et développée avant l’Europe du sud. S’inspirant également des travaux de Weber, les économistes Sascha Becker et Ludger Woessmann (2009) ont suggéré que les économies protestantes ont prospéré parce qu’elles étaient plus favorables à l’accumulation du capital humain : en appelant les protestants à lire la Bible par eux-mêmes, Luther a pu encourager une alphabétisation essentielle à l’accumulation des connaissances et aux activités économiques. Les données relatives à la Prusse de la fin du dix-neuvième siècle confirment qu’elle a non seulement connu une plus grande prospérité économique, mais aussi une meilleure éducation. Becker et Woessmann constatent que la forte alphabétisation des protestants peut expliquer les écarts de prospérité observés à l’époque d’un pays à l’autre. Contrairement à ce que pensait Weber, le protestantisme a favorisé le développement économique, non pas en favorisant le travail et l’accumulation du capital physique, mais en favorisant l’accumulation du capital humain.

Jusqu’à récemment, les liens entre la religion et l’innovation, l’un des moteurs de la croissance à long terme, avait été délaissé. En prenant le nombre de brevets déposés par habitant pour mesurer le degré d’innovation, Roland Bénabou, Davide Ticchi et Andrea Vindigni (2015b) ont décelé une relation négative entre la religiosité et l’innovation, aussi bien à travers une analyse des Etats-Unis qu’au travers les comparaisons internationales. Ce résultat est robuste, puisqu’il subsiste lorsque les trois auteurs mesurent la religiosité en prenant différents indicateurs ; il persiste après avoir pris en compte le niveau de revenu par la tête, la population, la part de la population diplômée du supérieur, la protection des droits de brevets, l’investissement étranger et la liberté religieuse. Dans une étude parallèle, Bénabou et alii (2015a) ont examiné la relation entre la religiosité et un vaste ensemble d’attitudes favorables ou défavorables à l’innovation, en utilisant les résultats de la World Values Survey entre 1980 et 2005. Ils s’appuient en l’occurrence sur cinq indicateurs de religiosité, ainsi que sur onze indicateurs d’ouverture individuelle à l’innovation, notamment les attitudes envers la science et la technologie, la prise de risque, etc. Leur étude suggère qu’une plus grande religiosité est associée à une moindre inclinaison envers l’innovation. Bénabou et ses coauteurs ne rejettent pas l’idée que la religion puisse favoriser la croissance : si elle freine l’innovation, elle peut favoriser d’autres moteurs de la croissance, notamment la confiance.

 

Références

BARRO, Robert J., & Rachel M. MCCLEARY (2003), « Religion and economic growth across countries », in American Sociological Review, vol. 68, n° 5.

BECKER, Sascha O., & Ludger WOESSMANN (2009), « Was Weber wrong? A human capital theory of protestant economic history », in Quarterly Journal of Economics, vol. 128, n° 4.

BÉNABOU, Roland, Davide TICCHI & Andrea VINDIGNI (2015a), « Religion and innovation », NBER, working paper, n° 21052, mars.

BÉNABOU, Roland, Davide TICCHI & Andrea VINDIGNI (2015b), « Forbidden fruits: The political economy of science, religion, and growth », NBER, working paper, n° 21105, avril.

CAVALCANTI, Tiago V., Stephen L. PARENTE & Rui ZHAO (2007), « Religion in macroeconomics: A quantitative analysis of Weber’s thesis », in Economic Theory, vol. 32, n° 1.

The Economist (2015), « No inspiration from above », 15 mars.

GUISO, Luigi, Paola SAPIENZA & Luigi ZINGALES (2003), « People’s opium? Religion and economic attitudes », in Journal of Monetary Economics, vol. 50, n° 1.

WEBER, Max (1905), L’Ethique protestante et l’Esprit du capitalisme.

Partager cet article

publié par Martin Anota
commenter cet article
14 mai 2015 4 14 /05 /mai /2015 10:29

Depuis la crise financière mondiale, les mesures macroprudentielles sont de plus en plus utilisées à travers le monde. Elles comprennent le plafonnement des ratios prêt sur valeur, le plafonnement des ratios dette sur revenu, les limitations de croissance du crédit et autres restrictions de bilans, les exigences en capital, les exigences en réserves, etc.

Ces mesures visent à atténuer le cycle financier et par là ses répercussions sur l’économie, en contenant l’expansion excessive du crédit et des prix d’actifs lors de la phase haussière du cycle (ce qui réduit la probabilité qu’ils s’effondrent brutalement), mais aussi en contenant leur chute lors de la phase baissière. Plusieurs études ont suggéré que la banque centrale devait avoir explicitement pour mandat le maintien de la stabilité financière en resserrant préventivement sa politique monétaire lors des phases haussières pour freiner l’endettement, la spéculation et la hausse des prix d’actifs, au risque de pénaliser la croissance économique ; toutefois, le consensus actuellement est plutôt que la politique macroprudentielle doit être utilisée pour assurer la stabilité financière (ou tout du moins pour freiner l’emballement lors des phases haussières du cycle), ce qui permettrait à la politique monétaire de se focaliser sur la stabilité des prix, la croissance et le plein emploi.

Plusieurs études se sont penchées sur l’impact des mesures macroprudentielles sur les marchés de l’immobilier ; elles ont conclu que ces mesures contiennent effectivement l’expansion du crédit immobilier et des prix du logement. Christopher Crowe, Deniz Igan, Giovanni Dell’Ariccia et Pau Rabanal (2011) ont constaté que ce sont des mesures comme le plafonnement du ratio prêts sur valeur qui ont le plus de chances de contenir un boom immobilier. Le FMI (2011) constate que ces divers outils sont efficaces pour empêcher que l’expansion du crédit stimule la hausse des prix de l’immobilier ou que la seconde stimule en retour la première. A partir de données provenant de 57 pays sur plus de trois décennies, Kenneth Kuttner et Ilhyock Shim (2013) constatent que des mesures autres que la hausse des taux d’intérêt comme le plafonnement du ratio service de la dette sur revenu, le plafonnement du ratio prêts sur valeur ou encore les taxes immobilières affectent particulièrement la croissance du crédit immobilier. Le resserrement des limitations de ratios dettes sur revenue réduisent le crédit immobilier de 4 à 7 %, tandis que le resserrement des limitations des ratios prêts sur valeur réduit le crédit immobilier d’environ 1 %.

Les précédents études ont montré que les limitations des ratios prêts sur valeur et dette sur revenu peuvent contribuer à stabiliser le marché immobilier et qu’il est plus efficace de resserrer ces plafonnements que de les assouplir. Chris McDonald (2015) a chercher à déterminer si cette asymétrie dépendait de la position du cycle immobilier où les mesures sont mises en œuvre. Il constate que le resserrement des mesures est plus efficace lorsque le crédit connaît une forte expansion et lorsque les prix de l’immobilier sont relativement élevés par rapport au revenu. Resserrer ces mesures (par exemple réduire le ratio prêts sur valeur maximal) durant les phases haussières réduit le niveau de crédit immobilier de 4 à 8 % et le niveau des prix immobiliers de 6 à 12 % au cours de l’année suivante ; durant les phases baissières, ces mesures réduisent le crédit immobilier de 2 à 3 % et les prix immobiliers de 2 à 4 %. Il est plus efficace de resserrer le plafonnement des ratios prêts sur valeur et dette sur revenu pour contraindre le crédit que d’assouplir ce plafonnement pour stimuler le crédit. Les différences d’efficacité entre le resserrement et l’assouplissement de ce plafonnement sont relativement faibles lors des phases baissières, c’est-à-dire lorsque la croissance du crédit est faible et les prix de l’immobilier sont faibles, ce qui est cohérent avec l’idée que l’assouplissement est peu efficace parce qu’il survient en général durant les ralentissements.

Eugenio Cerutti, Stijn Claessens et Luc Laeven (2015) ont étudié l’usage d’une douzaine mesures macroprudentielles dans 119 pays au cours de la période 2000-2013 pour déterminer leur efficacité à atténuer les cycles d’affaires. Les pays émergents utilisent le plus fréquemment les politiques macroprudentielles, en particulier celles associées au taux de change. Les pays avancés utilisent davantage de mesures basées sur l’emprunteur (par exemple le plafonnement des ratios prêts sur valeur et dette sur revenu) que les pays émergents. Ces mesures sont généralement associées à une plus faible croissance du crédit, notamment du crédit des ménages, ainsi qu’avec une plus faible hausse des prix de l’immobilier. Les politiques basées sur l’emprunteur (telles que les plafonnements des ratios prêts sur valeur et dette sur revenu) et les politiques basées sur les institutions (telles que le plafonnement du levier d’endettement ou le provisionnement dynamique) semblent être les plus efficaces. Ces politiques sont plus efficaces lorsque la croissance du crédit est forte, mais elles sont moins efficaces lors des effondrements. Les effets sont également moindres dans les économies les plus développées financièrement et les plus ouvertes, ce qui suggère un certain contournement ; leur usage s’accompagne d’un plus grand emprunt transfrontalier, ce qui suggère à nouveau un certain contournement.

Ainsi, les politiques macroprudentielles sont plus efficaces lors des booms que lors des phases d’effondrement des cycles financiers, ce qui suggère la politique macroprudentielle peut prendre en charge le maintien de la stabilité financière lors des phases haussières, ce qui rend moins nécessaire que les banques centrales resserrent leur politique monétaire préventivement pour empêcher la formation de bulles spéculatives. Par contre, les banques centrales ont très certainement à intervenir lors des phases baissières pour enrayer la baisse des prix d’actifs, stimuler le crédit et contenir les répercussions de cet effondrement sur l’économie réelle en assouplissant leur politique monétaire.

 

Références

CERUTTI, Eugenio, Stijn CLAESSENS & Luc LAEVEN (2015), « The use and effectiveness of macroprudential policies: New evidence », FMI, working paper, n° 15/61, mars.

CROWE, Christopher W., Deniz IGAN, Giovanni DELL’ARICCIA & Pau RABANAL (2011), « How to deal with real estate booms », FMI, staff discussion note, n° 11/02.

FMI (2011), « Macroprudential policy: An organizing framework ».

KUTTNER, Kenneth N., & Ilhyock SHIM (2013), « Can non-interest rate policies stabilize housing markets? Evidence from a panel of 57 economies », BRI, working paper, n° 433.

MCDONALD, Chris (2015), « When is macroprudential policy effective? », BRI, working paper, n° 496, mars.

Partager cet article

publié par Martin Anota - dans Instabilité financière
commenter cet article
10 mai 2015 7 10 /05 /mai /2015 18:45

En observant la période s'étalant entre 1987 et 1992, John Taylor (1993) a formulé une équation (qualifiée plus tard de « règle de Taylor ») censée décrire les décisions de la Réserve fédéral relative à son taux d'intérêt. Cette règle relie le taux directeur (r) de la banque centrale américaine à l’écart de production (c’est-à-dire l’écart entre le PIB et son niveau potentiel) (y) et au taux d’inflation (p) ainsi :

r = p + 0.5y + 0.5(p – 2) + 2

Selon cette équation, la Fed devrait accroître son taux directeur d’un demi-point de pourcentage si le taux d’inflation s’élève d’un point de pourcentage par rapport à la cible de 2 % d’inflation suivie par la BCE ou bien si la production s’élève d’un point de pourcentage par rapport à son niveau potentiel. Si l’inflation est à sa cible et si la production est à son niveau potentiel, alors la Fed devrait fixer son taux directeur à 2 %, soit sa moyenne historique.

Taylor a affirmé que sa règle a non seulement un rôle descriptif, mais aussi prescriptif. Elle doit servir de référence aux décisions de politique monétaire : la banque centrale doit fixer son taux directeur au plus proche du niveau indiqué par la règle. 

Taylor s’est montré très critique des décisions que la Fed a prises au cours des douze dernières années. Il n’a cessé d’affirmer que la Fed ne fixe pas son taux directeur au niveau approprié et que ce sont ces écarts qui expliquent les mauvaises performances de l’économie américaine. En l’occurrence, le taux directeur de la Fed a été inférieur au taux d’intérêt suggéré par la règle de Taylor entre 2003 et 2005, ce qui suggère que la politique monétaire a été excessivement accommodante au cours de cette période et qu’elle aurait ainsi alimenté la bulle immobilière à l’origine de la crise du crédit subprime. La Fed aurait de nouveau fixé son taux directeur à un niveau sensiblement inférieur à celui indiqué par la règle de Taylor suite à la crise financière. Si la Fed l’avait scrupuleusement suivie, elle aurait relevé ses taux directeurs depuis plusieurs années.

GRAPHIQUE 1  Estimations du niveau approprié du taux directeur à partir de la règle de Taylor originelle

La règle de Taylor doit-elle être une référence pour la politique monétaire ?

Ben Bernanke, l’ancien président de la Fed, s’est depuis longtemps montré critique vis-à-vis de l’usage de règles activistes pour assoir les décisions de politique monétaire, considérant que la politique monétaire est plus efficace si elle reste à la discrétion du banquier central. Dans un récent billet de blog, Bernanke (2015) propose une règle de Taylor modifiée pour déterminer si la politique monétaire américaine a été excessivement accommodante au milieu des années deux mille et suite à la crise financière mondiale, c’est-à-dire précisément à la période au cours de laquelle il participa à la prise de décisions au sein de la Fed. Pour cela, il apporte deux modifications par rapport à la règle que Taylor proposa initialement en 1993. D’une part, il prend en compte l’inflation sous-jacente et non pas l’inflation globale ; pour la déterminer, il utilise le taux de variation des prix à la consommation et non pas le déflateur du PIB. D’autre part, Bernanke prend un plus grand coefficient pour l’écart de production que Taylor : en l’occurrence, lorsque la production s’éloigne d’un point de pourcentage de son niveau potentiel, Bernanke considère que la Fed fait varier son taux directeur non pas d’un demi-point de pourcentage, mais d’un point de pourcentage.

GRAPHIQUE 2  Estimations du niveau approprié du taux directeur à partir d'une règle de Taylor modifiée

 

La règle de Taylor doit-elle être une référence pour la politique monétaire ?

Bernanke constate alors que le taux directeur de la Fed a été assez proche de sa règle de Taylor modifiée au cours des deux dernières décennies. En l’occurrence, le taux directeur n’a pas été excessivement faible entre 2003 et 2005. En outre, la règle de Taylor modifiée de Bernanke suggère que le taux directeur de la Fed aurait dû être négatif depuis la crise financière. Or, le taux d’intérêt nominal a été contraint par sa borne zéro : comme la Fed ne pouvait adopter un taux directeur négatif, l’adoption de mesures non conventionnelles comme les achats d’actifs à grande échelle apparait justifiée.

Bernanke rejette également l’idée que l’économie américaine ait réalisé de piètres performances ces dernières années. Certes la Grande Récession a été la crise économique la plus forte depuis la Grande Dépression. Mais les Etats-Unis ont connu une reprise plus forte suite à la Grande Récession que bien d’autres pays avancés. La reprise a fait face à plusieurs « vents contraires » comme le resserrement de la politique budgétaire américaine à partir de 2010, ainsi que la crise de la zone euro. 

Si Bernanke reconnaît que la règle de Taylor fournit une description simple des décisions monétaires prises par le passé, il rejette l’idée qu’elle puisse indiquer comment la politique monétaire doit être décidée dans la période courante. Si la règle de Taylor qu’il a lui-même utilisé lui apparaît plus appropriée que celle initialement présentée par Taylor pour décrire les décisions que prit la Fed par le passé, Bernanke ne pense pas pour autant qu’elle doit être utilisée par la Fed pour prendre ses décisions futures. Il estime que la politique monétaire doit être « systématique et non automatique ». Une quelconque version de la règle de Taylor ne peut prendre en compte toutes les informations pertinentes pour la politique monétaire dans une économie complexe et dynamique. Il n’y a pas consensus sur les variables qui doivent être utilisées dans la règle de Taylor. Il n’y a pas non plus consensus sur la valeur des coefficients qui leur sont associés. En outre, les variables utilisées par une quelconque règle de Taylor ne sont généralement pas mesurables en temps réels. Par exemple, il n’y a pas d’estimations précises de la taille actuelle de l’écart de production. Les membres du comité de politique monétaire de la Fed ne s’accordent pas sur sa valeur. De plus, la règle de Taylor suggère qu’il existe un taux directeur d’équilibre qui soit fixe, en l’occurrence égal à 2 % en termes réels. Or, le taux d’équilibre est susceptible de varier au cours du temps. Il n’est lui-même pas directement mesurable. La Fed et les marchés estiment que le taux directeur d’équilibre est actuellement plus faible que celui supposé par la règle de Taylor, même s’il y a nouveau des désaccords sur sa valeur.

John Taylor (2015) a répliqué à Bernanke dans un article du Wall Street Journal. Tout d’abord, il soutient que la règle émerge de plusieurs décennies de recherche à propos de la politique monétaire optimale. Il rappelle qu’il n’est pas le seul économiste à avoir affirmé que la Fed avait maintenu son taux directeur « trop longtemps trop bas ». Ensuite, il regrette que Bernanke se soit focalisé sur la période où il était membre du conseil des gouverneurs. En l’occurrence, la Fed avait déjà tendance à poursuivre une politique monétaire excessivement accommodante au cours des années soixante-dix, or cette période fut marquée par d’amples déséquilibres macroéconomiques, une forte inflation couplée à un chômage élevé. Par contre, au cours des années quatre-vingt et quatre-vingt-dix, période au cours de laquelle Taylor estime que sa règle réplique assez finement la trajectoire effective du taux directeur, l’économie américaine fut marquée par une relative stabilité de l’activité et une faible inflation. Pour Taylor, la borne inférieure zéro n’est pas un nouveau problème ; elle ne justifie pas des achats d’actifs à une large échelle. Il estime que la Fed aurait pu surmonter cette contrainte en adoptant une règle de croissance monétaire fixe.

Tony Yates (2015) et Paul Krugman (2015) ont réagi à la réponse de Taylor. Yates confirme que la règle de Taylor réalise peut-être de bonnes performances dans certains modèles, mais même dans ces derniers elle ne constitue pas forcément la politique optimale. En outre, l’essentiel des études sur la règle de Taylor précèdent la crise financière mondiale, or elles avaient tendance à ignorer les bulles et les crises financières : l’instabilité financière est impossible dans les modèles qui sont utilisés pour justifier la règle de Taylor. Taylor (1993) lui-même avait exclu l’épisode du krach boursier de 1987 dans son étude originelle. Comme le résume Krugman, si la règle de Taylor est optimale, cette optimalité reste à démontrer. Par ailleurs, Taylor affirme que l’économie américaine n’aurait pas connu la formation d’une bulle immobilière au milieu des années deux mille si la Fed avait appliqué la règle de Taylor ; pourtant, l’économie américaine a bien connu la formation d’une bulle spéculative à la fin des années quatre-vingt, c’est-à-dire à une période au cours de laquelle Taylor estime que le taux directeur coïncidait avec sa règle. Enfin, Yates doute qu’une règle de croissance fixe de la masse monétaire permette de surmonter le problème de la borne zéro. En effet, dans une trappe à liquidité, où le taux directeur est à la borne zéro et où les agents s’attendent à ce qu’elle y demeure perpétuellement, une quelconque croissance de la masse monétaire n’a aucun impact.

 

Références

BERNANKE, Ben S. (2015), « The Taylor rule: A benchmark for monetary policy? », 28 avril.

KRUGMAN, Paul (2015), « Veg-O-Matic egonomics », in The Conscience of a Liberal (blog), 5 mai.

TAYLOR, John B. (1993), « Discretion versus policy rules in practice », Carnegie‐Rochester Conference Series on Public Policy, vol. 39, n° 1.

TAYLOR, John (2015), « Monetary rules work better than ‘constrained discretion’ », in Wall Street Journal, 2 mai.

YATES, Tony (2015), « More on John Taylor vs Bernanke », in longandvariable (blog), 4 mai. 

Partager cet article

publié par Martin Anota - dans Politique monétaire
commenter cet article
8 mai 2015 5 08 /05 /mai /2015 10:12

Après quatre ans de dépression et de déflation, les Etats-Unis ont connu une reprise rapide de l’activité économique durant le printemps de l’année 1933. Entre mars et juillet, la production industrielle a augmenté de 57 %. Les Etats-Unis n’ont jamais connu une reprise plus rapide dans le reste de son histoire. La crise financière mondiale de 2008 et la Grande Récession qui l’a suivie ont renouvelé l’intérêt pour l’étude de la Grande Dépression des années trente. Comme la politique monétaire est aujourd’hui contrainte par la borne inférieure zéro comme elle le fut il y a huit décennies, les économistes se sont interrogés quelles forces ont freiné ou accéléré la reprise suite à la Grande Dépression. En l’occurrence, ils se sont demandés pourquoi la reprise de 1933 a tardé et pourquoi elle fut si rapide une fois amorcée.

Si, comme l’ont notamment démontré Christina et David Romer (2013), le recul de l’inflation anticipée a contribué à la gravité de la Grande Dépression, la hausse de l’inflation anticipée a peut-être mis un terme à cette dernière. Peter Temin et Barrie Wigmore (1990) ont en effet suggéré que la reprise de 1933 s’expliquait par une forte révision à la hausse des anticipations d’inflation. Ils affirment que le président Franklin Roosevelt, qui arriva au pouvoir en mars 1933, instaura un nouveau régime de politique macroéconomique qui entraîna la révision des anticipations d’inflation et amorça ainsi la reprise. Gauti Eggertsson (2008) a développé un modèle théorique où la révision des anticipations d’inflation peut expliquer la reprise de la Grande Dépression. 

Les travaux théoriques de ces dernières décennies ont en effet conclu qu’une banque centrale ne peut sortir une économie d’une trappe à liquidité qu’en amenant les agents à réviser à la hausse leurs anticipations d’inflation. Comme l’ont notamment suggéré Paul Krugman (1998) ou Gauti Eggertsson et Michael Woodford (2003), si la banque centrale parvient à accroître l’inflation anticipée, cela pousse les taux d’intérêt réels à la basse, même si les taux d’intérêt nominaux sont déjà à leur borne inférieure zéro. Lorsqu’il annonça le relèvement de la cible d’inflation et l’accroissement rapide de la base monétaire, Haruhiko Kuroda, le gouverneur de la Banque du Japon, prit comme référence du changement de régime macroéconomique de Roosevelt pour affirmer que l’adoption de politiques inflationnistes était susceptible d’accroître la production lorsque l’économie est confrontée à une trappe à liquidité. Selon Christina Romer (2013), l’abenomics est à même d’impulser un changement de régime macroéconomique aussi radical que celui impulsé par l’administration Roosevelt. Parallèlement, la chute des anticipations d’inflation et la stagnation de l’activité ont amené plusieurs économistes et responsables politiques à craindre ces dernières années que la zone euro bascule dans une trappe déflationniste à la japonaise. La BCE a notamment adopté un programme d’assouplissement quantitatif en janvier 2015 afin de relever les anticipations d’inflation. 

Pourtant, ni Temin et Wigmore, ni Eggertsson n’ont démontré empiriquement que les anticipations d’inflation avaient effectivement changé durant le deuxième trimestre de 1933. Hausman (2013) conclut qu’en accroissant les revenus agricoles la dévaluation a directement stimulé la demande dans les Etats agricoles, aidant à stimuler la croissance de a production en 1933. Jason Taylor et Todd Neumann (2014) ont analysé un éventail de forces qui ont pu avoir contribué à la reprise de mars 1933 et du basculement des Etats-Unis dans une nouvelle récession. Les deux études ont suggéré qu’une hausse des anticipations d’inflation pouvait avoir joué un rôle déterminant dans la reprise. Taylor et Neumann constatent que la reprise s’est accélérée rapidement suite à certaines nouvelles relatives à l’inflation. Hausman suggère que la dévaluation, en accroissant les prix agricoles, a signalé une accélération de l’inflation et stimulé par là l’économie en amenant les agents à réviser leurs anticipations d’inflation à la hausse.

De leur côté, Andrew Jalil et Gisela Rua (2015) se sont demandé si les anticipations d’inflation changèrent durant le deuxième trimestre de 1933. Pour répondre à cette question, ils ont examiné trois types de preuves empiriques à partir des comptes-rendus historiques. Ils ont tout d’abord construit de nouvelles séries de données qui mesurent le nombre d’articles d’information contenant le terme d’inflation dans plusieurs journaux quotidiens. Ensuite, ils ont étudié les comptes-rendus des observateurs de l’époque, puis les prévisions des analystes de l’époque pour déterminer ce qu’ils anticipaient en termes d’inflation. L’ensemble des données que les auteurs recueillent indiquent que le deuxième trimestre de 1933 fut effectivement marqué par une forte hausse des anticipations d’inflation.

Jalil et Rua se demandent alors quels événements ont provoqué la révision des anticipations d’inflations. Ils identifient les nouvelles relatives à l’inflation dans les journaux. Ils entreprennent alors une étude d’événements pour estimer l’impact de ces nouvelles sur les marchés financiers. Ils constatent que ces nouvelles ont eu un large impact sur les marchés financiers. En l’occurrence, au cours des 24 heures qui suivaient une nouvelle relative à l’inflation, les indices boursiers augmentaient de pratiquement 5 % et le dollar se dépréciait d’environ 2 %. La stratégie de communication de Roosevelt provoqua la révision d’anticipations d’inflation : il s’engagea à ramener les prix à leurs niveaux d’avant-crise et annonça l’abandon de l’Etalon-or.

Enfin, Jalil et Rua examinent les répercussions macroéconomiques de cette révision des anticipations d’inflation. Durant les mois qui coïncident avec le changement de régime inflationniste de Roosevelt, la croissance de la production fut supérieure de 7 points de pourcentage que ce qui aurait été prédit d’après le comportement normal des indicateurs monétaires et financiers. Leur analyse suggère que la révision des anticipations d’inflation a joué un rôle causal dans la reprise de 1934.

 

Références

EGGERTSSON, Gauti B. (2008), « Great expectations and the end of the Depression », in American Economic Review, vol. 98, n° 4.

EGGERTSSON, Gauti B., & Michael WOODFORD (2003), « The zero bond on interest rates and optimal monetary policy », in Brookings Papers on Economic Activity, n° 1.

HAUSMAN, Joshua (2013), « Growth after a financial crisis: The U.S. in spring 1933 ».

JALIL, Andrew, & Gisela RUA (2015), « Inflation expectations and recovery from the Depression in 1933: Evidence from the narrative record », Réserve fédérale, working paper, avril.

KRUGMAN, Paul (1998), « It’s baaack: Japan’s slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, n° 2.

ROMER, Christina (2013), « It takes a regime shift: Recent developments in Japanese monetary policy through the lens of the Great Depression », discours prononcé à la conférence annuelle du NBER, 12 avril.

ROMER, Christina, & David ROMER (2013), « The missing transmission mechanism in the monetary explanation of the Great Depression », in American Economic Review: Papers & Proceedings, vol. 103, n° 3.

TAYLOR, Jason E., & Todd C. NEUMANN (2014), « Recovery spring, faltering fall: March to november 1933 ».

TEMIN, Peter, & Barrie A. WIGMORE (1990), « The end of one big deflation », in Explorations in Economic History, vol. 27, n° 4.

Partager cet article

5 mai 2015 2 05 /05 /mai /2015 21:06

Lorsque la Fed évoqua au milieu de l’année 2012 l’éventualité d’un ralentissement (tapering) de ses achats d’actifs, cette annonce déstabilisa le taux de change et les marchés financiers des pays en développement et émergents. Ces turbulences affectèrent tout particulièrement l’Afrique du Sud, le Brésil, l’Inde, l’Indonésie et la Turquie, si bien que ces pays furent qualifiés de « cinq fragiles ». L’idée selon laquelle la politique monétaire des pays avancés influence fortement les économies en développement n’est pas nouvelle. La Fed avait déjà été « accusée » d’avoir entrainé une vague d’instabilité financière dans les pays en développement au milieu des années quatre-vingt-dix en relevant ses taux directeurs. Le resserrement de la politique monétaire américaine aurait provoqué la « crise téquila » de 1994, puis par contagion la crise asiatique de 1997 et la crise russe de 1998. Beaucoup ont suggéré que les pays en développement qui avaient laissé flotter leur monnaie avaient été relativement épargnés par l’instabilité financière. Cet épisode historique aurait ainsi illustré le « triangle des incompatibilités » ou « trilemme » que Robert Mundell a formalisé : les pays ne peuvent avoir simultanément une politique monétaire autonome, un taux de change fixe et une mobilité des capitaux. En d’autres termes, les pays ne peuvent retrouver l’autonomie de leur politique monétaire qu’en laissant leurs taux de change flotter.

Pourtant, en 2012 et en 2013, les pays émergents qui laissaient librement flotter leur monnaie semblent avoir tout autant été affectés par l’annonce du tapering que ceux disposant d’un régime de change plus rigide, ce qui a mis en question la validité du triangle des incompatibilités. Hélène Rey (2013) a affirmé que la politique monétaire des pays avancés, en l’occurrence celle de la Fed, influençait les politiques monétaires nationales des autres pays, via les mouvements de capitaux, la croissance du crédit et l’endettement des banques. Elle a suggéré que les pays faisaient face, non pas à un trilemme, mais à un « duo irréconciliable » : ils ne peuvent avoir à la fois une politique monétaire indépendante et la libre mobilité des capitaux. En l’occurrence, les pays en développement et émergents ne peuvent alors retrouver l’autonomie de leur politique monétaire qu’en restreignant la mobilité des capitaux.

Joshua Aizenman, Menzie Chinn et Hiro Ito (2015) ont voulu mettre à l’épreuve la thèse de Rey. Pour cela, ils ont cherché à déterminer pourquoi et comment les conditions financières des pays en développement et émergents (qu’ils qualifient de pays périphériques) sont affectées par les dynamiques des économies du centre (en l’occurrence, les Etats-Unis, le Japon, la zone euro et la Chine). Ils ont tout d’abord estimé la sensibilité des variables financières des pays périphériques aux dynamiques des économies du centre, puis ils ont examiné comment cette sensibilité était influencée par les conditions macroéconomiques, les politiques économiques, les relations réelles et financières entretenues avec les pays du centre et le niveau de développement institutionnel.

Pour la plupart des variables financières examinées, la force des liens entretenus avec les économies du centre a constitué le facteur dominant au cours des deux dernières décennies. L’analyse suggère que les relations commerciales, les relations financières associées aux IDE, la concurrence internationale, le développement financier, les soldes courants et la dette nationale ont une certaine importance. Elle suggère également que le régime de change et l’ouverture financière jouent directement sur la sensibilité des économies périphériques aux économies du centre. En l’occurrence, une économie périphérique est davantage affectée par les économies du centre si elle présente une plus grande stabilité du taux de change et une plus grande ouverture financière. Néanmoins, les régimes de change ont des effets principalement indirects sur la force des liens financiers. Aizenman et ses coauteurs en concluent que le trilemme reste valide : les pays n’ont pas à choisir qu’entre l’autonomie monétaire et l’intégration financière.

La prise en compte de la Chine parmi les économies du centre ne change pas vraiment les résultats obtenus. Au cours des deux dernières décennies, l’économie chinoise a connu une forte croissance, si bien qu’elle contribue à une part toujours plus significative de la production mondiale. Pourtant, la Chine n’exerce pas encore la même influence sur les marchés financiers des pays périphériques que les Etats-Unis, la zone euro ou le Japon. Aizenman et ses coauteurs estiment que son système financier n’est peut-être pas suffisamment développé pour qu’elle joue un rôle moteur dans les cycles financiers mondiaux.

 

Références

AIZENMAN, Joshua, Menzie D. CHINN & Hiro ITO (2015), « Monetary policy spillovers and the trilemma in the new normal: Periphery country sensitivity to core country conditions », NBER, working paper, n° 21128, avril.

REY, Hélène (2013), « Dilemma not trilemma: The global financial cycle and monetary policy independence », document de travail présenté à Jackson Hole, 24 août.

Partager cet article

publié par Martin Anota
commenter cet article
1 mai 2015 5 01 /05 /mai /2015 19:29

Une monnaie remplit trois fonctions : celle d’intermédiaire des échanges, celle d’unité de compte et celle de réserve de valeur. Selon Paul Krugman (1991), une devise internationale n’assure pas de la même manière chacune de ces trois fonctions selon qu’elle est utilisée par le secteur privé ou par le secteur public. Une devise internationale joue le rôle de monnaie véhiculaire, de monnaie de libellé et de monnaie d’investissement pour le secteur privé : en effet, les résidents utilisent la devise internationale comme intermédiaire pour échanger des biens, des services et des actifs financiers avec le reste du monde ; les acheteurs peuvent plus facilement comparer les prix lorsque ceux-ci sont libellés dans la même devise ; les résidents investissent en devise internationale pour réduire leur exposition au risque et préserver leur liquidité.  Une devise internationale joue le rôle de monnaie d’intervention, de monnaie d’ancrage et de monnaie de réserve pour le secteur public : une banque centrale peut acheter ou vendre de la devise internationale pour alimenter la dépréciation ou l’appréciation de sa devise ; l’ancrage d’une monnaie sur la devise internationale permet de limiter les fluctuations du taux de change et ainsi de favoriser les échanges avec l’économie émettant la devise internationale ; une banque centrale peut accumuler de la devise internationale pour se constituer des réserves et protéger plus efficacement son taux de change.

C’est notamment au regard de ce cadre conceptuel qu’Agnès Bénassy-Quéré (2015) se demande si l’euro peut rivaliser avec le dollar comme devise internationale. Elle note que depuis son introduction en 1999, l’euro a été utilisé de plus en plus comme réserve de valeur, aussi bien pour le secteur public que pour les agents privés, comme le suggère par exemple sa part croissante dans les encours d’obligations internationales. Sa part dans les portefeuilles internationaux est toutefois restée limitée. Si l’euro a de plus en plus été utilisé comme monnaie de diversification, son poids en tant que monnaie véhiculaire a peu varié. En effet, l’euro est rarement utilisé dans les transactions n’impliquant pas la zone euro. L’euro est certes utilisé dans 33,4 % des conversions de devises en avril 2013, mais cette part chute à 9,3 % si l’on exclut les conversions euro-dollar. Le dollar garde son rôle majeur sur le marché des changes.

Bénassy-Quéré passe ensuite en revue les avantages d’une internationalisation de l’euro. Si l’euro acquérait le statut de devise internationale, la zone euro bénéficierait de gains de seigneuriage et elle obtiendrait le « privilège exorbitant » d’émettre de la dette internationale libellée en euro. L’incertitude et les coûts de transaction diminueraient pour les résidents de la zone euro qui commerceront avec le reste du monde en euro. Enfin, la zone euro gagnerait en influence internationale. Bénassy-Quéré note cependant que l’internationalisation de l’euro ne se ferait pas sans coûts. La zone euro pourrait notamment perdre le contrôle sur sa politique monétaire. En effet, les banques du reste du monde accorderont des prêts en euro, ce qui déstabiliserait la création monétaire. Si ces banques étaient à court de liquidité, la BCE devrait jouer un rôle de prêteur international en dernier ressort, au détriment des objectifs domestiques de politique monétaire. Plus largement, la BCE devrait prendre en compte la situation du reste du monde pour orienter sa politique monétaire, à nouveau au détriment des objectifs domestiques. En outre, le risque serait que l’euro ait tendance à être surévalué si le reste du monde désire investir en actifs libellés en euro.

L’analyse théorique et historique suggère qu’une devise peut jouer un rôle pivot au niveau international si elle est émise par une grande économie, si cette dernière est dotée de marchés financiers profonds et liquides, si elle présente une stabilité nominale aussi bien interne (une faible inflation) qu’externe externe (un taux de change stable), si elle se dote d’un environnement réglementaire suffisamment sûr pour maintenir la stabilité financière et si elle possède certains attributs de pouvoir autres qu’économiques (notamment une réelle puissance militaire et une voix unique dans les instances et forums internationaux).

A la différence des Etats-Unis, la zone euro possède ne possède pas tous ces attributs. En effet, elle est plus peuplée que les Etats-Unis et elle pèse davantage que ces derniers dans le commerce international. En outre, la zone euro représente 12,1 % du PIB mondial. Toutefois, cette part est non seulement inférieure à la part des Etats-Unis dans le PIB mondial, mais elle tend également à diminuer plus rapidement que cette dernière. La part de la Chine dans le PIB mondial est déjà égale à celle des Etats-Unis et elle continue à croître. La zone euro ne dispose pas de marchés financiers aussi profonds et liquides que les Etats-Unis. La crise de la zone euro a réduit l’attractivité de l’euro comme devise internationale, tout du moins à court terme. Si l’inflation a été particulièrement faible et stable en zone euro (ce qui est favorable à l’usage de l’euro comme devise internationale), le taux de change de l’euro s’est révélé instable vis-à-vis du dollar. Enfin, la zone euro manquera d’influence géopolitique tant que les Etats-membres ne consentiront pas à transférer davantage de leur souveraineté nationale.

Bénassy-Quéré estime toutefois qu’il n’est pas impossible pour l’euro d’atteindre un statut similaire à celui du dollar au niveau international. Un système monétaire multipolaire se révèlerait même stabilisateur dans une économie mondiale elle-même multipolaire. Cependant, la fenêtre d’opportunité qui se présente à l’euro pour atteindre ce statut se sera très certainement refermée d’ici une décennie avec l’ascension du renminbi. Avoir une devise internationale n’a jamais été un objectif de l’unification monétaire en Europe ; par contre, Pékin affiche plus ouvertement une stratégie d’internationalisation du renminbi. En outre, la croissance chinoise est bien plus rapide que la croissance de la zone euro.

 

Références

BENASSY-QUERE, Agnès (2015), « The euro as an international currency », mars.

BENASSY-QUERE, Agnès, & Benoît CŒURE (2010), Economie de l’euro, La Découverte, deuxième édition.

KRUGMAN, Paul (1991), Currency and Crises, MIT Press.

Partager cet article

28 avril 2015 2 28 /04 /avril /2015 15:23

Lorsque les pays avancés ont basculé dans la Grande Récession, ils présentaient des niveaux élevés de dette publique, or le ralentissement de l’activité, l’adoption de plans de relance budgétaire et le sauvetage du secteur bancaire ont détérioré davantage les finances publiques. La crainte était alors que les économies avancées connaissent une envolée explosive de la dette publique et une crise de la dette souveraine, une crainte largement répandue à partir de 2010 lorsque la crise grecque s’aggrava et contamina le reste de la périphérie de la zone euro. Les gouvernements ont alors considéré l’assainissement des finances publiques comme prioritaire sur le retour au plein emploi ; ils abandonnèrent la relance pour adopter l’austérité.

La reprise qui suivi la Grande Récession fut lente. D’un côté, certains ont affirmé que le niveau élevé des dépenses publiques, des prélèvements obligatoires et de la dette publique pesaient sur l’activité, si bien qu’il fallait approfondir l’austérité budgétaire pour stimuler l’activité et maintenir l’endettement public sur une trajectoire soutenable. De l’autre, certains ont suggéré que la reprise a été précisément freinée par l’adoption de plans d’austérité ou tout du moins par le retrait hâtif des plans de relance. Dans cette optique, la consolidation budgétaire est peut-être nécessaire pour assurer la soutenabilité des finances publiques, mais elle ne doit survenir qu’une fois la reprise pleinement achevée et l’économie revenue au plein emploi.

Parmi le monde universitaire, le débat s’est cristallisé autour de la taille des multiplicateurs budgétaires. Si ces derniers sont supérieurs à l’unité, ce qui serait précisément le cas lorsque l’économie connaît une récession et lorsque les taux d’intérêt nominaux butent sur leur borne inférieure zéro, alors les autorités doivent privilégier la relance budgétaire. Cette dernière pourrait même entièrement s’autofinancer selon certains, car l’accroissement résultant de l’activité génèrerait suffisamment de recettes publiques pour financer le surcroît de dette publique. Inversement, l’adoption de l’austérité est susceptible d’accroître les ratios d’endettement publique en réduisant plus rapidement le PIB que le montant de la dette publique. Par contre, si les multiplicateurs sont inférieurs à l’unité, les autorités publiques pourraient opter pour la consolidation budgétaire : cette dernière conduirait certes à freiner l’activité, mais elle permettrait de réduire plus rapidement  la dette publique, ce qui conduirait à une baisse des ratios d’endettement public.

Certains sont allés encore plus loin en suggérant que les multiplicateurs sont négatifs, même au cours d’une récession. Autrement dit, une consolidation budgétaire est susceptible de stimuler l’activité, notamment en nourrissant la confiance du secteur privé et en incitant par là ce dernier à dépenser davantage. En fait, l’impact négatif qu’un plan d’austérité exerce sur la demande globale serait plus que compensé par l’impact positif que ce plan d’austérité exercerait sur la confiance. Cette idée d’une austérité expansionniste fut développée au niveau académique par Alesina ; ses multiples travaux  offrirent une justification « scientifique » aux multiples appels à l’austérité budgétaire émanant d’institutions de politique économique comme la Commission européenne ou la BCE. L’idée d’une austérité expansive donna lieu à une vive controverse au sein même du monde académique et Paul Krugman, particulièrement critique à son égard, parla à plusieurs reprises de la « fée confiance » (confidence fairy) pour en souligner les fragiles soubassements.

Ces dernières années, les études empiriques, notamment celles du FMI, ont confirmé que les multiplicateurs budgétaires étaient plus élevés au cours des récessions qu’au cours des phases d’expansion ; en l’occurrence, ils seraient bien supérieurs à l’unité lorsque l’activité est atone, lorsque le chômage est élevé et lorsque l’économie fait face à une trappe à liquidité, c’est-à-dire dans la configuration même à laquelle faisaient face les pays avancés lors de la Grande Récession. Il y a certes eu des épisodes d’austérité expansionniste par le passé, mais ceux-ci n’ont été possibles que parce que l’économie jouit d’une dépréciation de sa devise qui stimula suffisamment la demande extérieure pour compenser l’impact direct de l’austérité sur la demande ; en l’occurrence, ce n’est pas l’austérité même qui stimula l’activité économique. Le FMI reconnut lui-même que la généralisation de l’austérité budgétaire en 2010 fut précipitée.

Une récente étude publiée par la BCE met également en question l’idée que l’austérité améliore la confiance, fragilisant ainsi davantage l’idée d’une austérité expansionniste. Roel Beetsma, Jacopo Cimadomo, Oana Furtuna et Massimo Giuliodori (2015) ont en effet observé comment les consolidations budgétaires affectaient la confiance du secteur privé. Leurs régressions de panel suggèrent que les consolidations entraînent une dégradation de la confiance. L’impact est plus large lorsque le plan d’austérité s’appuie sur la hausse des prélèvements obligatoires plutôt que sur la baisse de dépenses publiques et lorsque les accords institutionnels sont faibles. La confiance des ménages chute à l’annonce des mesures d’austérité, en l’occurrence lorsque ce sont des hausses d’impôts que le gouvernement annonce. La confiance des entreprises réagit aux consolidations budgétaires de la même manière que la confiance des ménages, mais plus faiblement. Ainsi, si la consolidation est inévitable et si l’objectif est avant tout de préserver la confiance, Beetsma et ses coauteurs estiment que le gouvernement doit privilégier la baisse des dépenses publiques plutôt que la hausse des impôts. Leur étude ne détermine toutefois pas si la baisse des dépenses publiques est moins nocive à l’activité économique que la hausse des impôts.

 

Références

BEETSMA, Roel, Jacopo CIMADOMO, Oana FURTUNA & Massimo GIULIODORI (2015), « The confidence effects of fiscal consolidations », BCE, working paper, n° 1770, mars.

SARACENO, Francesco (2015), « The confidence witch », in Sparse Thoughts of a Gloomy European Economist (blog), 25 mars.

WREN-LEWIS, Simon (2015), « Confidence », in Mainly Macro (blog), 15 avril. Traduction disponible sur Annotations.

Partager cet article

publié par Martin Anota
commenter cet article
25 avril 2015 6 25 /04 /avril /2015 21:29

Avec la Grande Récession, le taux de chômage a connu une forte hausse aux Etats-Unis (comme dans d’autres pays avancés), s’élevant au niveau maximal de 10 % en 2009. Avec la reprise qui a suivi, le taux de chômage a régulièrement diminué et retrouve aujourd’hui ses niveaux d’avant-crise en atteignant 5,5 % au mois de mars. C’est précisément lorsque le taux de chômage rejoint l’intervalle des 5,25-5,75 % que la Réserve fédéral considère traditionnellement l’économie américaine comme au plein emploi. Pourtant, la banque centrale a régulièrement suggéré que la main-d’œuvre restait sous-utilisée : beaucoup d’Américains aimeraient travailler (notamment à plein temps), mais ne le peuvent toujours pas. Malgré la baisse du taux de chômage, Janet Yellen et d'autres économistes ont ainsi parlé d’une « atonie du marché du travail » (labor market slack).

En outre, beaucoup s’inquiètent de la forte chute du taux d’activité aux Etats-Unis suite à la Grande Récession. Lorsque l’activité économique est atone et donc les perspectives de trouver un emploi faibles, certains chômeurs cessent de rechercher un emploi et certains inactifs peuvent retarder leur entrée dans la population active, par découragement. Ces sorties de la vie active permettent de freiner une hausse du chômage lors des récessions (et réciproquement, les entrées dans la vie active lors des phases d’expansion contribuent à freiner la baisse du chômage). Or le fait que le taux d’activité soit faible et n’ait toujours pas connu de reprise malgré la baisse du taux de chômage pourrait suggérer que beaucoup d’inactifs restent en dehors de la population active, alors même qu’ils désirent travailler. D’autre part, un faible taux d’activité réfrène le potentiel de croissance de l’économie américaine à moyen terme.

GRAPHIQUE  Taux d'activité au Etats-Unis (en %)

Un plein emploi en trompe-l’œil aux Etats-Unis

En prenant une perspective de long terme, Ravi Balakrishnan, Mai Dao, Juan Solé et Jeremy Zook rappellent que le baisse du taux d’activité a débuté bien avant la crise financière (cf. graphique). Alors qu’il était inférieur à 60 % durant les années soixante, le taux d’activité avait fortement augmenté au cours des décennies suivantes, grâce à l’entrée de la génération du baby boom sur le marché du travail et notamment des femmes, pour atteindre 66 % en 1990. Durant les années quatre-vingt-dix, il est resté globalement stable, notamment parce que les taux d’activité ont cessé d’augmenter pour les nouvelles cohortes de femmes. Après avoir atteint un maximum de 67,3 % au troisième trimestre de l’année 2000, il a régulièrement diminué depuis la récession de 2001. Entre 2007 et 2013, il a diminué de 3 points de pourcentage pour s’élever aujourd’hui à 62,8 %, un niveau qu’il n’avait pas atteint depuis 1978. Ainsi, la moitié des gains obtenus en termes de taux d’activité entre 1960 et 2000 ont été effacés en l’espace de trois ans : c’est l’équivalent de 7,5 millions de travailleurs qui ont été perdus pour la main-d’œuvre américaine.

Balakrishnan et ses coauteurs ont cherché à déterminer à quelle ampleur le déclin du taux d’activité est réversible. Puisque les taux d’activités sont plus faibles pour les travailleurs âgés que pour les travailleurs plus jeunes, les modèles démographiques suggèrent que la moitié de la chute du taux d’activité agrégé s’explique par le vieillissement de la population. 33 à 43 % du déclin s’expliquent par la conjoncture : tant que les perspectives d’être embauché sont faibles, beaucoup sont incités à rester en dehors du marché du travail. Le reste du déclin du taux d’activité s’explique par des facteurs structurels autres que démographiques comme le meilleur accès à l’université et la baisse du nombre d’étudiants qui travaillent. De prime abord, on pourrait penser que la chute sera irréversible si elle résulte principalement de facteurs structurels ou bien réversible si elle résulte essentiellement de facteurs conjoncturels, or ce n’est pas nécessairement le cas. En effet, certains facteurs structurels sont réversibles ; c’est par exemple le cas de l’accès à l’université. Inversement, les facteurs conjoncturels peuvent devenir irréversibles via les effets d’hystérèse ; c’est le cas par exemple si les chômeurs âgés se découragent dans leur poursuite d’emplois et précipitent leur retraite. Au final, Balakrishnan et ses coauteurs estiment qu’entre un quart et un tiers du déclin du taux d’activité observé depuis la Grande Récession est réversible. Avec la poursuite de la reprise, Balakrishnan et ses coauteurs estiment que 2 millions de travailleurs supplémentaires vont rapidement rejoindre la population active, mais le taux d’activité va toutefois continuer à diminuer en raison du vieillissement démographique.

L’observation des seuls taux de chômage et d’activité ne suffit pas pour évaluer l’atonie du marché du travail. Il y a d’une part le sous-emploi (désignant les personnes qui travaillent à temps partiel, mais qui désireraient travailler à plein temps) et le chômage caché (désignant les personnes qui ne recherchent pas activement un emploi, mais qui le feraient si les opportunités d’embauche étaient plus importantes). Pour David Blanchflower et Andrew Levin (2015), les Etats-Unis accusent un déficit de 3,3 millions d’emplois à plein temps, notamment pour absorber le sous-emploi et le chômage déguisé. Les incertitudes entourant cette estimation amènent les deux auteurs à affirmer que le déficit d’emplois pourrait être deux fois plus important. Selon l’analyse du Congressional Budget Office (CBO), la main-d’œuvre potentielle s’accroît actuellement au rythme de 50.000 à 60.000 individus par mois en raison des facteurs démographiques. Si le nombre d’emplois en-dehors du secteur primaire continue de s’accroître au même rythme que ces derniers trimestres, soit d’environ 260.000 emplois par mois, alors le déficit d’emplois pourrait être éliminé d’ici la fin de l’année 2016. Par contre, si la reprise de l’activité ralentit et si la croissance des emplois retrouve son faible rythme des années 2010 et 2011 (au cours desquelles elle s’élevait à 100.000 emplois par mois), alors le déficit d’emplois ne diminuerait que faiblement au cours des prochaines années.

Si le taux de chômage était proche de son niveau « naturel », la hausse des salaires devrait commencer à s’accélérer, dans la mesure où les entreprises ont plus de mal à embaucher et où le rapport de force se tourne en faveur des travailleurs. Or Blanchflower et Levin constatent que l’atonie du marché du travail exerce une forte pression à la baisse sur les salaires nominaux. Les rémunérations horaires des salariés des secteurs privés non agricoles augmentent beaucoup moins rapidement suite à la Grande Récession ; depuis 2010, la croissance des salaires nominaux est restée à environ 2 %. La croissance des salaires nominaux des salariés d’exécution semble avoir ralenti ces derniers trimestres. En effet, leur variation sur 12 mois était de 1,75 % en mars 2015, soit un demi-point de pourcentage inférieur au rythme qu’il atteignait lors de l’été dernier.

Ces diverses études suggèrent que l’atonie du marché du travail américain demeure et risque de persister à moyen terme. Il est donc toujours nécessaire que les autorités publiques mettent en œuvre des politiques expansionnistes pour soutenir la demande globale et stimuler par là la création d’emplois. Cet assouplissement des politiques monétaires est d’autant plus pressant que la hausse du taux de chômage et la baisse du taux d’activité observés depuis la Grande Récession risquent en partie d’être permanents en raison des effets d’hystérèse, ce qui nuira finalement à la croissance potentielle américaine. En ce qui concerne plus précisément la politique monétaire, le ralentissement de la croissance des salaires pourrait avoir contribué à pousser le taux d’inflation à la baisse aux Etats-Unis et à l’éloigner de la cible de 2 % d’inflation poursuivie par la Fed. L’absence d’inflation salariale suggère qu’il n’y aura pas de pressions inflationnistes à court terme, ce qui rend moins pressante la remontée des taux directeurs par la Fed et permet à cette dernière de maintenir sa politique monétaire accommodante.

 

Références

BALAKRISHNAN, Ravi, Mai DAO, Juan SOLÉ & Jeremy ZOOK (2015), « Recent U.S. labor force dynamics: Reversible or not? », FMI, working paper, avril, n° 15-76.

BLANCHFLOWER, David G., & Andrew T. LEVIN (2015), « Labor market slack and monetary policy », NBER, working paper, n° 21094, avril, n° 21094.

Partager cet article

Présentation

  • : D'un champ l'autre
  • D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher