Overblog
Suivre ce blog Administration + Créer mon blog
8 mai 2012 2 08 /05 /mai /2012 22:58

siège de Goldman Sachs (Reuters)

Les banques ont joué un rôle majeur dans l’émergence de la crise à travers leurs prises de risques excessives et la multiplication d’innovations financières opaques. De leur côté, les régulateurs et les superviseurs ont véritablement été incapables de détecter l’accumulation de déséquilibres financiers. La discipline de marché, censée transférer les financements aux institutions sûres et sanctionner les preneurs de risques excessifs, apparaissait être un parfait complément à la supervision. L’ensemble de ces mécanismes régulateurs a échoué à prévenir et contenir les comportements déstabilisateurs adoptés par les banques. Tout un système bancaire parallèle, composé de véhicules structurés et de banques d’investissement, échappait à la régulation. L’opacité de ce shadow banking system et des marchés dérivés de gré à gré ont dissimulé le risque systémique. Les agences de notation, prises dans de multiples conflits d’intérêt, assouplissaient leurs standards de notation pour se concurrencer. Enfin, la promesse implicite de renflouement a pu conforter les banques dans leurs prises de risque. Lorsqu’éclate la bulle immobilière aux Etats-Unis, le secteur bancaire est particulièrement vulnérable. Les banques et les marchés étant intimement interconnectés, c’est l’ensemble du système financier international qui se trouve alors fragilisé. 

Les Accords de Bâle ont permis la crise en autorisant les grandes banques internationales à s’endetter à un niveau dangereux et à prendre des risques excessifs  [Carmassi et Micossi, 2012]. Certaines ont pu accumuler un passif cinquante fois supérieur à leurs capitaux propres. Les banques affichant les plus hauts ratios prudentiels furent également celles ayant utilisé les plus forts leviers. Les banques qui furent accolées à la faillite durant la crise, à l’instar de Dexia, présentaient précédemment des ratios de solvabilité supérieurs à ceux qu’affichaient les banques qui traversèrent la crise sans nécessiter d’aide. Les modèles internes déterminant les besoins en fonds propres peuvent produire des évaluations largement divergentes du risque de portefeuilles pleinement identiques. Les modèles qu’utilisent les banques pour calculer les actifs pondérés en fonction de leur risque souffrent de plusieurs defaults techniques. En effet, ils sont notamment incapables de prendre en compte le risque systémique. Ensuite, ils incitent les banques à concentrer leurs expositions en queue de distribution du risque pour économiser du capital, ce qui élève la probabilité d’événements catastrophiques. De leur côté, les déposants et les investisseurs, incapables de décrypter les indicateurs de capital, ont dû s’en remettre aux évaluations des superviseurs, ce qui pèse à nouveau sur l’efficacité de la discipline de marché. Au final, les exigences en capital se révélèrent insuffisantes et les exigences en liquidité ne furent pas respectées.

Une fois la crise amorcée, les Accords de Bâle ont intensifié les turbulences financières et les tendances récessives. Les exigences en capital et la comptabilité en valeur de marché possèdent des caractéristiques procycliques propres à générer davantage d’instabilité financière. Les banques ont dû vendre leurs actifs et restreindre leur offre de crédit pour se conformer aux exigences en capital. De tels comportements multipliés au niveau agrégé accélèrent la chute des prix d’actifs. Or l’analyse en juste valeur (fair value) pousse les banques à inscrire les dépréciations d’actifs, ce qui érode davantage le capital. Parallèlement à ce cercle vicieux, l’effondrement du crédit s’est traduit par une contraction du PIB et une envolée du chômage.

Tirant les enseignements de la crise, l’European Economic Advisory Group (EEAG) a formulé plusieurs propositions clés pour renouveler le cadre régulateur [Vives, 2012]. Tout d’abord, les fonctions de maintien de la stabilité financière et de supervision macroprudentielle doivent être centralisées par une institution régulatrice. La banque centrale peut en l’occurrence recevoir un tel mandat. En revanche, elle paraît peu appropriée comme instrument de recapitalisation des banques. Aucune entité impliquant des activités bancaires ne doit échapper à la régulation et à la supervision. Ensuite, les pertes anticipées de dettes faisant l’objet d’une garantie gouvernementale doivent être couvertes par une prime de risque déterminée par le marché et fonction du risque supposé que porte l’institution financière. La gamme d’activités des banques recevant une garantie publique doit être réduite en raison du risque moral. Les institutions financières jouant un rôle pivot ou de dimension systémique doivent internaliser les effets externes de leur faillite potentielle. La supervision doit être coordonnée au niveau international et accompagnée de standards de régulation uniformes. La régulation financière doit être coordonnée avec la politique de la concurrence. Puisqu’un environnement plus concurrentiel implique de plus hautes exigences prudentielles, les besoins en capital et en liquidité, ainsi que le degré de libéralisation des différents compartiments du marché doivent être considérés de concert. Enfin, des mécanismes doivent être mis en place pour réduire le délai d’intervention du superviseur lorsque les institutions financière connaissent une détérioration de leur bilan et un déclin de leur capital.

Les accords de Bâle III introduisent de nouvelles exigences en liquidité et en financement, mais ils ne corrigent pas certains défauts majeurs de la réglementation prudentielle selon Carmassi et Micossi (2012). D’une part, les exigences en capital restent déterminées par les banques à partir des modèles de gestion des risques. Leur mode de calcul se réfère toujours à des actifs pondérés en fonction du risque. Les ratios de solvabilité demeurent si opaques qu’il se révèle en pratique toujours difficile de distinguer les banques saines des institutions insolvables. D’autre part, il n’existe toujours pas de véritable contrôle. Les superviseurs restent en outre libres de décider si, quand et comment intervenir au sein des établissements en difficulté. Par conséquent, les banques seront toujours incitées à adopter des comportements excessivement risqués et continueront à disposer de capitaux en insuffisante quantité pour faire face à de nouvelles difficultés.

Carmassi et Micossi (2012) proposent trois mesures qui permettent de remédier aux dysfonctionnements du cadre régulateur sans rendre pour autant nécessaire de procéder à une réglementation spécifique pour les liquidités ou le financement. Tout d’abord, les exigences en capital doivent être fixées à partir du ratio des actions sur le total des actifs et s’élever ainsi entre 7 à 10 %. Ce nouveau ratio de fonds propres permettra de réduire les prises de risque de la part des banques et d’atténuer l’impact qu’exerce sur l’économie le désendettement des banques en période de crise. Ensuite, des actions correctives prédéterminées et de sévérité croissante doivent être enclenchées au fur et à mesure que des seuils en capital prédéfinis sont atteints. Une procédure mandataire de résolution de défaillance bancaire doit s’appliquer lorsque le seuil minimal de capital n’est pas respecté afin d’éradiquer le risque moral. Enfin, les banques devraient avoir à émettre des obligations convertibles en actions et non garanties, de manière à inciter les dirigeants et les actionnaires à préserver le capital de leur banque en émettant des actions au plus tôt lorsque le capital s’érode, au lieu de convertir leur dette.

 

Références Martin Anota

CARMASSI, Jacopo, & Stefano MICOSSI (2012), « Time to set banking regulation right », in VoxEU.org, 28 mars.

MICOSSI, Stefano (2012), « Better than Basel », in Project Syndicate, 3 mai. Traduction française, « Il faut réformer les Accords de Bâle ».

VIVES, Xavier (2012), « Seven Principles for Better Banking Regulation », in VoxEU.org, 13 mars.

Partager cet article
Repost0
6 mai 2012 7 06 /05 /mai /2012 01:01

Alors convaincues de maîtriser les dynamiques macroéconomiques, plusieurs banques centrales avaient adopté avant crise le ciblage d’inflation (inflation targeting) comme stratégie de politique monétaire. Cibler officiellement un taux d’inflation ou un niveau des prix devait leur permettre d’assurer le plus efficacement possible leur mission de stabilisation des prix en ancrant plus solidement les anticipations inflationnistes. Dans les nombreux modèles qu’ils ont développés autour de ce concept, les nouveaux keynésiens font l’hypothèse d’une « divine coïncidence » : atteindre la cible d’inflation assure la progression du PIB réel sur une trajectoire stable. Selon eux, la stabilité des prix serait finalement une condition suffisante à la stabilité macroéconomique. La Grande Récession remet en cause ce modèle de central banking en démontrant que la maîtrise de l’inflation ne suffit à assurer la croissance économique et la stabilité financière. D’après la thèse du paradoxe de la crédibilité, la stabilité des prix, qu’elle ait ou non été directement impulsée par la politique monétaire, a pu même contribuer à dissimuler et exacerber les prises de risque excessives et l’accumulation des déséquilibres financiers qui ont conduit à la crise.

La jeune école de pensée qualifiée de « monétarisme de marché » (market monetarism), dont les fondements théoriques puisent dans les réflexions de Fisher, Hawtrey et surtout Friedman, préconise activement le ciblage du PIB nominal (nominal GDP targeting) comme stratégie alternative de politique monétaire. Si le concept n’est pas totalement neuf, la crise a suscité une vague d’engouement à son encontre, notamment dans la blogosphère américaine. Son adoption pratique par les banques centrales devrait selon ses partisans (en premier lieu Scott Sumner et David Beckworth) sensiblement renforcer la stabilité macroéconomique et constituer un moyen de catalyser la reprise.

Les monétaristes de marché préconisent l’adoption d’une cible de croissance du PIB nominal de 5 %, ce qui correspondrait à environ 2 % d’inflation et 3 % de croissance du PIB réel pour les économies avancées. La banque centrale disposerait pour atteindre sa cible des mêmes moyens qu’une banque centrale ciblant l’inflation. Si le niveau anticipé du PIB nominal est supérieur au niveau ciblé, la banque centrale relève ses taux directeurs et réduit la liquidité bancaire à travers ses opérations d’open market. S’il est au contraire inférieur au niveau ciblé, elle diminuera ses taux directeurs et élargira la liquidité bancaire. Si les taux atteignent leur limite inférieure zéro (zero lower bound), la banque centrale mettra en place des mesures non conventionnelles telles que l’assouplissement quantitatif (quantitative easing) mené par la Fed au cours des dernières années. Si les autorités monétaires ratent la cible au cours d’une année, elles cherchent de nouveau à l’atteindre l’année suivante pour que l’économie suive à long terme un sentier stable de croissance nominale.

Répondant au défi lancé par David Andolfatto (2012), les monétaristes de marché ont fourni ces dix derniers jours divers arguments pour démontrer la supériorité du ciblage du PIB nominal sur toute autre cible pour la politique monétaire. Tout d’abord, selon Nick Rowe (2012), le ciblage du PIB nominal permet une répartition plus efficace du risque entre emprunteurs et prêteurs. En effet, de nombreux contrats de long terme, notamment les obligations, voient leurs paiements fixés à l'avance en termes nominaux et sont difficilement renégociables. Si la politique monétaire cible un taux d’inflation ou un niveau des prix, le prêteur est pleinement assuré contre les changements imprévus dans le PIB réel futur ; le risque repose entièrement sur l’emprunteur. Ce dernier subit une plus forte détresse financière lorsque survient un choc réel négatif. Un PIB nominal instable, en-deçà de son niveau anticipé, en empêchant les emprunteurs d’obtenir les revenus attendus, rend plus difficile le remboursement de leur dette. En revanche, un ciblage de PIB nominal répartit également le risque de chocs de productivité non anticipés entre l’emprunteur et le prêteur.

Le ciblage du PIB nominal résoudrait également le problème de coordination parmi les prêteurs observé actuellement lors de la crise [Beckworth, 2012]. Les créditeurs pourraient augmenter leurs dépenses pour compenser la chute dans les dépenses des emprunteurs (ces derniers procédant à un désendettement), mais l’incertitude quant à l’évolution future de l’économie les désincite à le faire. Cela se traduit par une forte demande de liquidité de la part des créditeurs et par une pénurie d’actifs sûrs. L’introduction d’une cible crédible du PIB nominal augmenterait la dépense nominale anticipée et par conséquent le revenu nominal anticipé au niveau agrégé, ce qui accroîtrait temporairement l’inflation. La demande excessive de monnaie diminuerait et les conditions seraient propices à une reprise de la dépense nominale.

Ensuite, si le ciblage du niveau nominal du PIB est aussi performant que le ciblage d’inflation en ce qui concerne la gestion des chocs de demande agrégée, il s’avère en revanche plus performant en ce qui concerne les chocs d’offre agrégée [Beckworth, 2010a, 2010b ; Rowe, 2012]. En effet, la politique monétaire ne pouvant effectivement contrer que les chocs de demande agrégée, la banque centrale doit par conséquent discerner la nature du choc touchant l’économie. Or, l’évolution du niveau général des prix est difficilement interprétable. S’il y a une soudaine accélération de l’inflation, celle-ci peut avoir été engendrée par un choc de demande positif ou bien par un choc d’offre négatif. Une banque centrale ciblant exclusivement l’inflation réagirait en relevant automatiquement ses taux directeurs. S’il s’agit d’un choc positif de demande agrégée, le resserrement de la politique monétaire stabilise la dynamique des prix en neutralisant l’excès de demande. S’il s’agit en revanche d’un choc négatif d’offre agrégée, la réaction de la banque centrale déprime davantage l’activité économique. Un ciblage du niveau nominal du PIB épargne un tel dilemme à la banque centrale, puisque la politique monétaire ne répond alors qu’aux seuls chocs de demande agrégée. Elle ignore les chocs d’offre agrégée qui maintiennent la croissance du PIB nominal à un taux stable. Si un choc de productivité positif survenait et accroissait l’offre agrégée, le ciblage du PIB nominal impliquerait un taux de croissance réelle et un taux d’inflation respectivement supérieur et inférieur aux niveaux normaux. Une banque centrale ciblant l’inflation répondrait au choc en stimulant davantage l’économie et en alimentant alors la formation de bulles.

Enfin, selon David Glasner (2012), dans la mesure où le taux d’intérêt naturel est une fonction croissante du taux de croissance anticipé du PIB, alors la relation négative entre la croissance de l’output réel et l’inflation avec le ciblage du PIB nominal stabilise le taux d’intérêt nominal. Par exemple, en période de récession, la croissance ralentie de l’output réel va diminuer le taux d’intérêt naturel et augmenter l’inflation anticipée, ce qui élève le taux d’intérêt nominal. Durant une reprise, le taux d’inflation chuterait automatiquement et le taux d’intérêt réel s’élèverait. Le ciblage du PIB nominal rend ainsi moins probable l’éventualité que le taux d’intérêt naturel devienne négatif et que survienne une situation de type « trappe à liquidité » [Woolsey, 2012].

En définitive, si les banques centrales avaient adopté le ciblage du PIB nominal, elles auraient réagi plus rapidement au cours du cycle. La Fed, faisant face à une inflation sous-jacente persistante, maintint ses taux à 2 % entre avril et octobre 2008 alors que l’activité économique déclinait, entraînant des destructions massives d’emplois. La croissance du PIB nominal devint négative au cours du troisième trimestre ; au quatrième trimestre, la dépense totale dans l’économie américaine déclina au rythme annualisé de 8,4 %. Le ciblage du niveau nominal du PIB aurait poussé la Fed à assouplir plus rapidement sa politique monétaire et ainsi réduire l’ampleur de la crise [The Economist, 2011b].

Les monétaristes de marché s’inquiètent peu d’éventuels risques inflationnistes lors d’une reprise de l’activité économique au sortir d’une récession. Actuellement, poursuivre une cible d’inflation ne peut que contraindre la reprise économique en lui imposant un rythme plafond. Les banques centrales devraient non seulement adopter le ciblage du PIB nominal dans l’immédiat, mais aussi chercher à replacer l’économie sur le sentier de croissance nominale qu’elle suivait avant la Grande Récession. Ils recommandent ainsi que les banques centrales permettent une période de rattrapage au cours de laquelle l’activité croîtrait à un taux supérieur à sa valeur tendancielle pour combler le retard accumulé ces dernières années. L’économie devrait alors connaître temporairement de fortes tensions inflationnistes en se rapprochant de sa trajectoire d’avant crise.

 

Références Martin Anota

ANDOLFATTO, David (2012), « NGDP Targeting: Some Questions », 27 avril.

BECKWORTH, David (2010a), « Target the Cause Not the Symptom », 21 mars.

BECKWORTH, David (2010b), « The Case For Nominal GDP Targeting », 22 décembre.

BECKWORTH, David (2012), « David Andolfatto Can Feel More Confident About NGDP Targeting », 3 mai.

The Economist (2011a), « Changing target. Should the Fed target nominal GDP ? », 27 août.

The Economist (2011b), « Understanding NGDP targeting », 25 août.

GLASNER, David (2012), « Why NGDP Targeting? », 29 avril.

ROWE, Nick (2012), « Three Arguments for NGDP Targeting », 28 avril.

WOOLSEY, Bill (2012), « More on Andolfatto’s Challenge », 28 avril.

Partager cet article
Repost0
1 mai 2012 2 01 /05 /mai /2012 18:01

Différentes approches (partielles) peuvent être adoptées pour analyser le processus inflationniste [Bezbakh, 2011]. La théorie quantitative de la monnaie présente l’inflation comme un phénomène éminemment monétaire. D’après elle, si la vitesse de circulation de la monnaie reste constante, un accroissement de la masse monétaire plus rapide que celui de la production entraînera une hausse du niveau des prix. La variation des prix serait ainsi à court terme proportionnelle à celle de la masse monétaire. Cette approche de l’inflation par la monnaie repose sur une vision dichotomique de l’économie : la monnaie ne serait qu’un « voile », n’ayant aucune influence sur les phénomènes réels. Les monétaristes ont réactualisé l’approche en plaçant à la source de l’inflation le laxisme des autorités monétaires. L’Etat serait incité à laisser filer l’inflation, non seulement pour soutenir l’activité, mais aussi pour augmenter ses recettes et alléger le poids de sa dette. Mais si l’accroissement de la masse monétaire peut effectivement stimuler l’activité économique à court terme, elle n’exercerait toutefois à long terme aucun effet sur le produit réel, mais se traduit seulement par un relèvement du niveau des prix. Les banques centrales ne peuvent avoir alors pour mission que la seule stabilisation des prix en faisant correspondre la croissance de la masse monétaire à la croissance à long terme de la production réelle.

Dans une optique keynésienne, l’inflation peut sourdre d’un déséquilibre entre l’offre et la demande globales, qui serait par exemple provoqué par une hausse trop rapide des revenus, une baisse de la propension à épargner ou un déficit public excessif. Selon cette approche de l’inflation par la demande, une création monétaire ne sera inflationniste que si l’appareil productif ne peut immédiatement répondre à l’augmentation de la demande, en raison du plein emploi des capacités de production et de l’insuffisance des stocks. L’ajustement entre l’offre et la demande globales s’effectuera alors, non pas par les volumes, mais par les prix. Le déséquilibre entre l’offre et la demande peut également être de nature sectorielle. La demande peut en effet s’avérer excessive dans certains secteurs et insuffisante dans d’autres. Si les tensions inflationnistes peuvent finalement se traduire par des hausses effectives de prix dans les premiers secteurs, les chefs d’entreprises des secteurs soumis aux pressions déflationnistes peuvent décider de ne pas baisser leurs prix s’ils anticipent une reprise ultérieure de la demande. Les hausses de prix limitées sont alors susceptibles de s’étendre à l’ensemble de l’économie et l’inflation devenir cumulative, pour de multiples raisons. Tout d’abord, les entreprises peuvent stocker et réduire leur offre immédiate si elles anticipent une poursuite de l’inflation. Ensuite, les ménages peuvent davantage dépenser dans l’immédiat pour éviter de subir les hausses futures de prix. Enfin, les entreprises peuvent acquérir des équipements nouveaux, qui accroîtront certes l’offre à l’avenir, mais qui ne génèrent toutefois dans l’immédiat que des hausses de revenus. De telles dépenses à effets productifs différés visant à répondre au surcroît de demande entretiennent, voire accélèrent l’inflation. Ces différents processus inflationnistes ne peuvent toutefois se maintenir que si les coûts de production croissent à un moment ou à un autre.

L’inflation peut ainsi résulter d’un accroissement de la rémunération des facteurs de production plus rapide que celui de leur productivité. Chaque entreprise est alors incitée à augmenter le prix de vente de ses produits pour maintenir son taux de marge, mais les ménages demanderont en retour une nouvelle hausse de leurs rémunérations pour maintenir leur pouvoir d’achat. S’amorce alors un processus d’inflation autoentretenue. Cette approche de l’inflation par les coûts privilégie les salaires comme variable explicative, notamment parce qu’ils constituent une part majeure des coûts de production. Le chômage exerce alors un effet stabilisateur sur les prix en réduisant le pouvoir de négociations des salariés ; réciproquement, l’inflation sera d’autant plus forte que le marché du travail est tendu. Les échanges extérieurs sont également déterminants dans le processus de formation des coûts. L’économie subit une inflation importée lorsque le prix des biens importés pour lesquels elle présente une demande peu élastique, par exemple des matières premières, a tendance à s’accroître. Si l’économie connaît une dépréciation de son taux de change, le prix des produits importés se renchériront et l’inflation domestique accélérera, ce qui accentuera la dépréciation de la monnaie nationale.

L’environnement économique s’est avéré favorable ces dernières décennies à la stabilité des prix des pays développés, en raison notamment des pressions désinflationnistes associées à la mondialisation. L’ouverture au commerce international des économies à faibles coûts salariaux a exercé une pression à la baisse sur les prix des produits manufacturés. En revanche, les émergents participent indirectement à l’accentuation des tensions inflationnistes en accroissant leur demande en matières premières. Leur forte croissance économique et leurs forts besoins énergétiques ont ainsi puissamment participé au choc pétrolier que subit l’économie mondiale durant la dernière décennie. Les produits énergétiques représentent un dixième de l’indice des prix pour la zone euro et le pétrole environ un vingtième. Après avoir augmenté de 18 % sur l’ensemble de l’année 2011, le prix du baril de Brent a augmenté de 12 % depuis le début de l’année pour atteindre 120 dollars. L’impact de cette hausse sur la zone euro a été accentué par la dépréciation de la monnaie unique. Même dans l’éventualité d’une diminution des primes de risque associées aux tensions géopolitiques du Moyen-Orient, le prix du pétrole va demeurer à des niveaux élevés et continuer à peser sur les prix. Le taux moyen d’inflation en zone euro dépasse depuis fin 2010 les 2 % ciblés par la BCE, pour s’établir en mars à 2,7 %. Si l’implication du prix du pétrole dans ces poussées inflationnistes est peu contestable, elle se révèlerait toutefois insuffisante selon Artus (2012) pour les expliquer. L’inflation sous-jacente, c’est-à-dire corrigée des variations du prix des matières premières, tend en effet actuellement vers 2 %.

La poursuite de la récession en zone euro expose pourtant ses membres au risque de déflation. La faible activité économique, aggravée par le déploiement de politiques budgétaires restrictives, et le niveau élevé du taux de chômage, atteignant 10,5 % depuis 2011, participent au recul des salaires réels et à la faible progression des coûts salariaux unitaires. Le recul de la demande des ménages n’est pas corrigé par la croissance de l’investissement des entreprises. La demande globale demeure faible et les capacités de production sous-utilisées. La politique monétaire n’explique pas non plus la persistance de l’inflation en zone euro. La base monétaire augmente certes très fortement, en raison des repos à long terme de la BCE, mais cette expansion n’entraîne ni celle du crédit, ni celle de la masse monétaire, en raison du processus de désendettement du secteur privé. Elle n’influence donc ni la demande de biens et services, ni même par conséquent l’inflation.

La hausse des marges bénéficiaires des entreprises pourrait en revanche expliquer l’écart entre l’inflation et l’évolution des coûts salariaux, si la diminution de ces derniers n’était pas transmise aux prix. D'après Artus, le secteur industriel présenterait effectivement une rigidité des prix de production aux coûts salariaux unitaires, tandis que le secteur des services manifesterait une rigidité des prix de vente. L’inflation sous-jacente actuellement visible s’expliquerait ainsi par la volonté des entreprises d’accroître leurs marges bénéficiaires. Un tel comportement se révèlerait déstabilisateur s’il était poursuivi puisqu’il accentue le déclin des salaires réels.

 

Références Martin Anota

ARTUS, Patrick (2012), « Pourquoi de l’inflation dans la zone euro ? En raison de la rigidité des prix », Flash Natixis, n° 282, 16 avril.

BEZBAKH, Pierre (2011), Inflation et Désinflation, Repères, La Découverte.

JULUS, Arthur, Bénédicte KUKLA & Paola MONPERRUS-VERRONI (2012), « Fiscalité, énergie, salaires… Quel impact sur les prix ? », Eco Focus, Crédit agricole, 16 avril.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher