Overblog Suivre ce blog
Administration Créer mon blog
2 mars 2013 6 02 /03 /mars /2013 20:14

borza - 10

La littérature orthodoxe a depuis toujours minimisé l’importance des facteurs financiers dans les fluctuations conjoncturelles. Au mieux, lorsqu’elle les intègre à son analyse, ceux-ci ne font qu’amplifier le cycle économique. Un tel délaissement n’est pas sans conséquences lorsqu’il s’agit de déterminer la trajectoire de la production potentielle, en particulier lorsque l’écart de production (output gap) conditionne la réaction des autorités publiques. Qu’importe la méthodologie ou les hypothèses suivies par leurs auteurs, les études conçoivent généralement la production potentielle comme le niveau de production qui s’avère compatible avec la stabilité des prix : si l’économie opère au-dessus de son potentiel, elle est susceptible de connaître des tensions inflationnistes ; inversement, si la production évolue sous son niveau potentiel, l’économie subit des pressions déflationnistes et s’éloigne du plein emploi. L’hypothèse sous-jacente, celle de la « divine coïncidence », suggère que la stabilité des prix est le facteur le plus propice (voire même, pour certains, la condition suffisante) à la stabilité financière et à la soutenabilité de la croissance.

Or, il est tout à fait possible que la production suive une trajectoire insoutenable alors même que la stabilité des prix est assurée [Borio et alii, 2013]. Premièrement, en effet, les booms financiers sont susceptibles de coïncider avec les chocs positifs sur l’offre. Ces derniers exercent une pression à la baisse sur les prix tout en stimulant la hausse des prix d’actifs. Celle-ci réduit les contraintes de financement des agents et stimule le crédit, ce qui amplifie le cycle financier. Deuxièmement, les expansions économiques peuvent affaiblir les contraintes pesant sur l’offre. L’offre de travail tend en effet à s’accroître en de telles périodes, que ce soit à travers la hausse du taux d’activité ou bien par l’intensification de l’immigration. L’immigration avait par exemple été particulièrement forte en Espagne et en Irlande lorsque leurs économies accumulaient les déséquilibres macroéconomiques avant l’éclatement de la crise ; les immigrés étaient affectés en l’occurrence dans le secteur immobilier, celui-là même qui était moteur dans l’expansion économique. Cette dernière s’accompagne en outre d’une plus grande accumulation de capital et les capacités supplémentaires qui en résultent participent également à affaiblir les contraintes pesant sur l’offre. Troisièmement, les booms financiers, en rendant les actifs domestiques plus attrayants aux yeux des épargnants étrangers et en stimulant ainsi les entrées de capitaux, sont souvent synchrones à une appréciation du taux de change, or celle-ci exerce elle également une pression à la baisse sur les prix domestiques.

Les économistes de la Banque des règlements internationaux, notamment Claudio Borio, se sont activement inspirés des travaux de Hyman Minsky sur le paradoxe de la tranquillité pour montrer que le cycle financier amplifie puissamment le cycle conjoncturel. Lors des booms, les dynamiques réelles et financières peuvent dissimuler l’accumulation de déséquilibres et insuffler un faux sentiment de sécurité. Le crédit, les prix d’actifs et l’activité réelle tendent à évoluer de concert. Le crédit alimente l’expansion économique et par là la hausse prix d’actifs ; cette dernière justifie en retour un surcroît d’endettement, en particulier lorsque les actifs sont utilisés comme collatéraux. La stabilité des prix peut elle-même contribuer à l’accumulation des déséquilibres macrofinanciers en incitant les agents à prendre davantage de risques. L’absence d’inflation participe en effet elle aussi à la réduction des primes de risque. Tout comme ils amplifiaient le cycle lors de l’expansion, les facteurs financiers exacerbent le ralentissement de l’activité et la détérioration des conditions financières peut durablement retarder la reprise économique, en particulier lorsque le pic du cycle conjoncturel coïncide avec le pic du cycle financier : les récessions sont les plus sévères lorsqu’elles surviennent après une période de croissance rapide du crédit. Les pertes en termes de production potentielle peuvent en de telles occurrences être particulièrement larges.

GRAPHIQUE  Ecarts de production aux Etats-Unis (en % de la production potentielle)

OutputGapBorio.jpg

Note : à un instant donné, les estimations en temps réel sont uniquement basées sur les données qui sont alors disponibles. Les estimations ex post se basent sur l’ensemble de données.

Source : Borio et alii (2013)

L’expérience historique démontre ainsi que la conception de la production potentielle « neutre à l’inflation » est une approche trop restrictive. Surtout, il est indéniable que les dynamiques financières façonnent plus ou moins directement la composante conjoncturelle de la production. Ignorer les facteurs financiers conduirait à se priver d’une information pertinente pour déterminer l’évolution structurelle de la production. Par conséquent, Claudio Borio, Piti Disyatat et Mikael Juselius (2013) préconisent de prendre explicitement en compte le cycle financier pour déterminer la trajectoire du PIB potentiel. Les comportements du crédit et des prix immobiliers permettent aux auteurs d’expliquer une part substantielle des fluctuations conjoncturelles de la production (cf. graphique). Par rapport aux estimations traditionnelles de la production potentielle, notamment celles du FMI ou de l’OCDE, les estimations « neutres à la finance » réalisées par Borio et alii s’avèrent plus précises et sont plus robustes en temps réel. Les approches traditionnelles considéraient avant la crise que l’économie américaine fonctionnait sous son potentiel et n’ont reconnu l’inverse qu’ex post, après l’éclatement de la crise. L’analyse des auteurs suggère que la prise en compte explicite du cycle financier aurait permis de faire apparaître au cours même du boom immobilier, en temps réel, que la production évoluait bien au-dessus de son potentiel.

Par conséquent, les estimations de la production potentielle « neutres à la finance » s’avèrent plus utiles pour les autorités publiques. Ces dernières peuvent alors en effet évaluer plus précisément les soldes budgétaires ajustés aux variations conjoncturelles et par là déterminer plus finement l’évolution de leurs finances publiques. Surtout, elles profitent d’une meilleure information pour déterminer les écarts de production et mettre en œuvre la politique anticyclique adéquate. Les banques centrales ont en l’occurrence de meilleurs repères pour orienter leur politique monétaire. Cette redéfinition du concept de la production potentielle donne un argument pour que les autorités monétaires adoptent un objectif explicite de stabilité financière et réagissent à la formation de bulles spéculatives.

 

Références Martin ANOTA

BORIO, Claudio, Piti DISYATAT & Mikael JUSELIUS (2013), « Rethinking potential output: Embedding information about the financial cycle », Banque des règlements internationaux, working paper, n° 404, février.

KLEIN, Matthew C. (2013), « Central banking: Doomed to fail? », in Free Exchange (blog), 1er mars.

MINSKY, Hyman P. (1986), Stabilizing an Unstable Economy.

Repost 0
28 février 2013 4 28 /02 /février /2013 20:35

Paul Romer et Robert Lucas, parmi d’autres, ont endogénéisé la source de la croissance du revenu par tête à long terme, en l’occurrence l’accumulation de savoir. Suite à ces travaux précurseurs, une multitude d'auteurs ont exploré ces dernières décennies les liens entre l’innovation et la croissance et ont pu ainsi profondément renouveler l’analyse néoclassique de la croissance. En l'occurrence, Philippe Aghion et Peter Howitt (1992) ont donné naissance à un nouveau courant de la théorie de la croissance endogène en modélisant les intuitions de Joseph Schumpeter. Le progrès technique et par conséquent la croissance sont dans leur modèle le résultat d’une différenciation verticale, c’est-à-dire d’une amélioration de la qualité des produits. Chaque innovation est un nouveau bien intermédiaire qui peut être utilisé pour produire un produit final plus efficacement qu’auparavant. Le progrès technique va alors s’opérer par destruction créatrice : lorsqu'elles surgissent, les innovations rendent les précédentes technologies obsolètes.

Si certains agents subissent des pertes en raison de l’obsolescence technologique, les firmes innovatrices sont quant à elles susceptibles de capter un marché en brevetant leur innovation et ainsi d’en retirer des rentes, mais cette situation est temporaire : des entreprises rivales peuvent à leur tour innover et contester les monopoles existants en proposant des biens intermédiaires de plus grande qualité. Le tissu productif se renouvelle ainsi en permanence au gré des innovations. Au niveau agrégé, les innovations sont susceptibles de bouleverser l’ensemble de l’économie, puisque chacune d’entre elles, en prenant la place des précédentes, élève la productivité des entreprises. Le taux de croissance économique dépend donc de l’intensité de la recherche dans l’économie, mais aussi du degré de concurrence entre les firmes. Toutefois, les innovations sont issues de découvertes aléatoires. Les entreprises sont incertaines quant au succès des dépenses engagées dans l’activité de recherche-développement.

Dans le modèle d’Aghion et Howitt, plusieurs équilibres sont possibles, ainsi que des trajectoires cycliques. Par exemple, les économies sont susceptibles de tomber dans des trappes à non-croissance (no-growth traps) en raison d’anticipations autodestructrices (self-defeating expectations). En effet, si les entreprises anticipent une forte innovation dans la période suivante et donc une baisse des rentes de monopole pour les innovateurs, elles réduisent alors leurs efforts de recherche, ce qui comprime le potentiel innovateur de l’économie. Il est alors moins probable qu’émergent des innovations, si bien que le taux de croissance s'en trouve durablement diminué. Ainsi, Aghion et Howitt en concluent que le niveau de recherche dans l'économie peut ne pas être optimal en raison des externalités et du défaut de coordination entre les agents. Par exemple, les chercheurs n’internalisent pas la destruction de rentes existantes qui résulte de leurs innovations. Cela justifie ainsi une intervention des autorités publiques pour façonner les incitations à innover.

Au cours du dernier quart de siècle, ce modèle initial d’Aghion et Howitt a généré une multitude de modèles et d’analyses empiriques, étendant et complétant leurs résultats originels. Tous ces travaux relèvent de ce que l’on appelle aujourd’hui la théorie néo-schumpétérienne. Philippe Aghion, Ufuk Akcigit et Peter Howitt (2013) en ont récemment synthétisé les principaux enseignements.

Tout d’abord, les études empiriques suggèrent que la croissance est positivement corrélée au degré de concurrence sur les marchés des biens et services. Le paradigme schumpétérien éclaire cette relation positive en suggérant trois faits stylisés. Premièrement, la concurrence stimule le processus d’innovation et la croissance de la productivité, en particulier pour les entreprises à proximité de la frontière technologique ou bien concurrençant au coude à coude avec leurs rivales. L’ouverture d’un secteur ou d’une économie à la concurrence stimule notamment les incitations à investir via les effets d’échelle, en accroissant la taille du marché pour les innovations réussies. Deuxièmement, il existe une relation en U inversé entre l’intensité de la concurrence et la croissance de la productivité. En effet, pour un faible niveau de concurrence, toute accentuation de la concurrence se traduit par une hausse de la productivité, notamment en stimulant l’innovation ; en revanche, pour des niveaux élevés de concurrence, toute intensification de la concurrence peut enrayer le processus d’innovation et entraîner une baisse du niveau de productivité. Enfin, le système de protection des brevets stimule les investissements en recherche-développement et par là l’innovation ; la protection des droits de propriété est donc complémentaire à la politique de la concurrence.

Les études empiriques ont notamment dégagé plusieurs faits stylisés concernant les dynamiques des entreprises en exploitant les données au niveau microéconomique. Par exemple, la distribution de la taille des entreprises est très asymétrique ; il y a une forte corrélation entre la taille et l’âge de l’entreprise ; les plus petites entreprises sortent plus fréquemment du marché, mais celles qui survivent tendent à connaître un taux de croissance supérieur au taux de croissance moyen. Enfin, il existe une source importante de croissance de la productivité dans la réallocation des facteurs de production entre les entreprises en place et celles entrant sur le marché.

Le paradigme néo-schumpétérien éclaire également la relation entre la croissance et le développement. Les innovations qui émergent dans un secteur ou une économie donnée se fondent souvent sur les innovations élaborées dans les autres secteurs ou bien dans le reste du monde. La convergence des taux de croissance entre les pays doit notamment beaucoup aux diverses externalités associées à la diffusion technologique. Les modèles néo-schumpétériens de croissance retrouvent ainsi une intuition d'Alexander Gerschenkron (1962) : une économie éloignée de la frontière technologique peut connaître des taux de croissance plus élevés qu’une économie au plus proche de celle-ci, puisque la première va faire de plus larges avancées technologiques à chaque fois que l’un de ses secteurs rattrape la frontière. Par conséquent, les théoriciens néo-schumpétériens soulignent l'importance du cadre institutionnel pour l'innovation. En l'occurrence, un pays ne nécessitera pas les mêmes politiques et institutions selon qu’il soit proche ou éloigné de la frontière technologique ; les politiques et institutions qui facilitent l’adoption, la copie et l’amélioration des innovations par une économie, c’est-à-dire qui participent à la rapprocher de la frontière technologique, diffèrent de celles contribuant à stimuler les innovations proprement dites, c'est-à-dire celles qui contribuent à repousser cette frontière. La relation entre la croissance et la démocratie apparaît ainsi la plus forte dans les économies proches de la frontière technologique. En effet, une croissance soutenue repose sur une destruction créatrice ; elle n’est donc pas soutenable dans les pays où les institutions sont extractives et découragent l'innovation.

Enfin, les théories néo-schumpétériennes relient la dynamique de la croissance aux vagues technologiques de long terme. Les technologies génériques, telles que le moteur à vapeur, l’électricité ou encore les technologies de l’information, sont à l’origine de phases d’accélération et de ralentissement de la productivité, correspondant à ce que la littérature appelle les cycles de Kondratiev. Une technologie est dite générique si elle affecte l’innovation et la production dans plusieurs secteurs d’une économie. Elle est ainsi omniprésente, car son utilisation dans divers secteurs se traduit par d’importantes répercussions au niveau macroéconomique. Elle possède une forte marge d’amélioration. En effet, le potentiel d’une technologie générique a tendance à être peu exploité lorsqu’elle est introduite dans l’économie ; ce n’est que plus tard que son potentiel est pleinement exploité et qu’elle se traduit par une forte accélération de la croissance de la productivité. Enfin, une technologie générique est cumulative : elle facilite l’émergence de nouveaux produits et procédés de production, c'est-à-dire d'innovations secondaires.

Certes, une technologie générique améliore la productivité et la production à long terme, mais elle va être source de fluctuations conjoncturelles le temps que l’économie s’adapte à elle. Les économies se restructurent profondément lorsqu’une technologie générique apparaît et se diffuse dans l’ensemble des secteurs, or un tel processus ne s’opère pas sans heurts : les flux d’entrées et de sorties des entreprises s’accroissent ; les divers secteurs de l’économie abandonnent les vieilles technologies au fur et à mesure que les technologies génériques se diffusent dans l’économie. Dans les premières phases de déploiement d'une technologie générique, d'importantes ressources sont notamment retirées des activités directement productives pour être allouées à la recherche, de manière à développer de nouveaux composants intermédiaires. Ainsi, selon la théorie néo-schumpétérienne de la croissance, un choc technologique peut donc très bien initialement ralentir la production et la productivité, ainsi que réduire l’emploi, avant que les bénéfices pour l'activité ne se révèlent pleinement.

 

Références Martin Anota

AGHION, Philippe, Ufuk AKCIGIT & Peter HOWITT (2013), « What do we learn from Schumpeterian growth theory? », NBER working paper, n° 18824, février.

AGHION, Philippe, & Peter HOWITT (1992), « A model of growth through creative destruction », in Econometrica, vol. 60, n° 2, mars.

GERSCHENKRON, Alexander (1962), Economic Backwardness in Historical Perspective: A Book of Essays, Belknap Press of Harvard University Press.

Repost 0
24 février 2013 7 24 /02 /février /2013 20:46

La Grande Récession a stimulé la recherche sur les crises financières. Une frange de la littérature estime que les entrées de capitaux fragilisent fortement la stabilité financière. A partir d’un échantillon de pays entre 1960 et 2007, Carmen Reinhart et Vincent Reinhart (2008) notent par exemple que les afflux massifs de capitaux accroissent la probabilité d'une crise bancaire. Ces « mannes » (bonanzas) de capitaux sont susceptibles d’alimenter des bulles sur les marchés d’actifs et de se solder par leur arrêt brutal (sudden stop). Lorsque ce dernier survient, l’économie voit son compte courant s’améliorer rapidement avec l’effondrement des dépenses domestiques et la brutale dépréciation du taux de change. Ce réajustement sera d’autant plus douloureux que l’économie a accumulé un large montant de dettes libellées en devise étrangère, la dépréciation accroissant sensiblement le poids de ce dernier tout en dévalorisant les actifs domestiques. D’autres analyses, mettant cette fois-ci l'accent sur les facteurs internes aux économies, considèrent que le crédit constitue la principale source d’instabilité financière. Par exemple, Oscar Jordà, Moritz Schularick et Alan Taylor (2011) ont observé la période s’étalonnant entre 1870 et 2008 pour un échantillon constitué de 14 pays développés. Leur analyse suggère qu’à long terme, une croissance du crédit anormalement soutenue s’avère le meilleur prédicteur de crises bancaires (ce qui amènera notamment Taylor [2012] à affirmer que le rôle des mouvements de capitaux dans l’instabilité financière est bien souvent surestimé). Ils concèdent toutefois que les déséquilibres extérieurs ont peut-être joué un rôle plus significatif avant la Seconde Guerre mondiale. De leur côté, Bordo, Meissner et Stuckler (2010) suggèrent que les entrées de capitaux furent un déterminant robuste des crises financières entre 1880 et 1913, mais ils n’évaluent toutefois pas le rôle joué par les expansions du crédit lors de cette période.

Dans une récente contribution, Christopher Meissner (2013) analyse plus finement les liens entre les flux de capitaux, le crédit et l’instabilité financière sur la période s’étalant entre 1880 et 1913, soit l’apogée de l’étalon-or. Durant cette période, l’économie mondiale a connu une première vague de globalisation, avec l’intégration poussée des marchés des biens et des marchés des capitaux. Une véritable infrastructure financière s’est développée au niveau mondial avec comme principaux centres Londres, Paris et Berlin. La finance de marché joua un rôle important dans le financement des projets aussi bien dans les économies avancées que dans celles en développement. La Grande-Bretagne fut le principal exportateur de capitaux ; la France, l’Allemagne, la Belgique et les Pays-Bas en fournirent de plus faibles montants. Les capitaux étrangers ont permis aux pays destinataires d’accumuler plus rapidement un stock de capital et de développer leurs propres exportations. Les Etats purent également financer les déficits budgétaires provoqués par les guerres, les turbulences macroéconomiques ou plus simplement la mauvaise gestion des finances publiques. Les analyses empiriques tendent à confirmer que les afflux de capitaux ont permis une hausse des taux d’investissement et par là des taux de croissance économique, si bien que les capitaux étrangers semblent effectivement importants pour amorcer et accélérer le développement économique.

Cette période est cependant également marquée par une forte instabilité financière. Si la Grande-Bretagne connut une relative stabilité macroéconomique et financière, le système monétaire international du dix-neuvième siècle se révéla désastreux pour les petites économies qui ne pouvaient compter sur l’intervention d’un prêteur en dernier ressort. L’étalon-or se traduisit par une plus forte volatilité macroéconomique en leur sein et favorisa la transmission des crises financières. L’effondrement financier au début des années 1890 suivit un pic dans les afflux de capitaux entre 1887 et 1889. La crise mondiale de 1907 qui émana des Etats-Unis et qui affecta pratiquement tous les principaux centres financiers et divers pays de la périphérie suivit une forte contraction du crédit entre 1904 et 1906. Outre ces deux crises financières de dimension mondiale, d’innombrables crises locales de natures très diverses ont émaillé l’apogée de l’étalon-or. Les créanciers et déposants ont subi d’importantes pertes avec les crises bancaires, mais celles-ci eurent aussi de plus larges répercussions tant à court qu’à long termes. L’instabilité du taux de change perturba les systèmes monétaires locaux en affectant les flux du commerce et des capitaux. Des épisodes de difficultés budgétaires, bien souvent liés aux problèmes de change et aux turbulences financières, ont conduit à des défauts de dette.

Meissner fait apparaître qu’une plus grande importation de capitaux est associée à une plus forte volatilité de la consommation, de la production et des taux de croissance. Cette plus forte volatilité s’expliquerait par une plus une grande fréquence des crises dans les pays importateurs de capitaux. Meissner observe ensuite quels ont été les coûts en termes de production des diverses crises qui survinrent entre 1880 et 1913. Il constate que la croissance de la production semble ralentir avant l’éclatement d’une crise et l’écart de production (output gap) atteint quasiment 4 points de pourcentage lors de cette dernière. L’économie reste bien plus éloignée de son potentiel suite à une crise de devise plutôt que suite à une crise bancaire. Les crises de la dette semblent davantage être l’aboutissement d’un ralentissement de l’activité plutôt que sa cause première ; elles tendent en outre à précéder les crises de change et les crises bancaires.

L'auteur s’interroge alors sur les causes de ces crises. Son analyse fait apparaître que ni les entrées de capitaux, ni l’expansion du crédit ne suffisent pour expliquer les épisodes d’instabilité financière sous l’étalon-or. Les causes des crises financières furent variées et se combinèrent avec les autres chocs. Les interactions entre les asymétries informationnelles, la situation budgétaire, le régime de taux de change et les événements internationaux contribuent tous à expliquer les crises. En l’occurrence, les problèmes d’antisélection et d’aléa moral étaient particulièrement aigus avant 1913 : les investisseurs financiers basés à Londres, en France ou en Allemagne surestimaient fréquemment la capacité et la volonté des emprunteurs, aussi bien privés que publics, à rembourser leur dette. Entre 1880 et 1913, l’Argentine, le Brésil, l’Egypte, le Portugal et la Turquie se sont révélés à plusieurs reprises incapables d’assurer le service de leur dette publique. En Argentine, par exemple, la volonté des autorités publiques de développer l’intérieur des terres entraîna une hausse des prix des terrains et un gonflement insoutenable du déficit public. Cette débâcle budgétaire s’est traduite par un soudain arrêt dans les entrées de capitaux, une crise de devise et un défaut de dette. La prise de risque excessive de la banque Baring en Argentine l’a amené au bord de la faillite et l’ensemble du système financier fut déstabilisé, avec de multiples répercussions sur les économies nationales.

Meissner en conclut que les modèles d’instabilité financière de troisième génération qui furent développés suite à la crise asiatique de 1997 constituent un cadre théorique des plus pertinents pour appréhender les diverses crises qui se sont déroulées à la fin du dix-neuvième siècle. Les anticipations des agents, les frictions sur les marchés des capitaux et les mouvements de capitaux y interagissent pour générer faillites bancaires, dépréciations de devise et défauts de dette. Typiquement, dans ces modèles, les afflux de capitaux bancaires ou les investissements massifs de portefeuille fragilisent l’économie domestique en créant des tensions bancaires. Qu’ils prennent la forme d’un désajustement des échéances dans les bilans bancaires ou bien de chocs affectant la valeur des collatéraux, ces déséquilibres sont susceptibles de provoquer un basculement de l’opinion sur les marchés des change. Dans cette modélisation, les agents savent qu’une éventuelle dépréciation du taux de change va fragiliser la solvabilité, en particulier si la dette est libellée en devise étrangère, et que les exportations ne peuvent réagir rapidement. La crise survient lorsque les anticipations de marchés changent. Si ces derniers anticipent une dépréciation de la devise, leurs anticipations seront autoréalisatrices. Les capitaux sont alors susceptibles de refluer et de ramener brutalement le compte courant en position excédentaire, ce qui valide ex post les anticipations initiales des agents. Dans la mesure où la distribution de crédit dans les petites économies domestiques dépend des afflux de capitaux, la conception de l’instabilité financière reposant sur le crédit n’apparaît ici pas contradictoire avec la conception basée sur les entrées de capitaux. Sans afflux de capitaux, ni levier d’endettement, les crises de troisième génération sont impossibles.

 

Références Martin ANOTA

BORDO, Michael D., Christopher M. MEISSNER & David STUCKLER (2010), « Foreign capital and economic growth: A long-run comparative perspective », in Journal of International Money and Finance, 29, nº 4.

JORDA, Oscar, Moritz SCHULARICK & Alan M. TAYLOR, (2011), « Financial crises, credit booms and external imbalances: 140 Years of Lessons », in IMF Economic Review, vol. 59, n° 2.

MEISSNER, Christopher M. (2013), « Capital flows, credit booms, and financial crises in the classical gold standard era », NBER working paper, n° 18814, février.

REINHART, Carmen, & Vincent REINHART (2008), « Capital flow bonanzas: An encompassing view of the past and present », NBER working paper, n° 14321, septembre.

TAYLOR, Alan M. (2012), « External imbalances and financial crises », NBER working paper, n° 18606, décembre.

Repost 0
publié par Martin Anota - dans Instabilité financière
commenter cet article
20 février 2013 3 20 /02 /février /2013 19:25

La vitrine d'une boutique de Noël à Nice

Les prix changent peu fréquemment. Ils ne s’ajustent que lentement à une modification de la demande ou des coûts de production. La nouvelle économie keynésienne a notamment expliqué cette viscosité en soulignant l’existence de coûts de catalogue (menu costs) : il est tout simplement coûteux pour une entreprise de changer ses prix. Une telle modification exige en effet d’imprimer de nouveaux prix, de les rendre publics, voire impose à la firme de redéfinir les contrats avec ses clients et fournisseurs. Puisque les changements de prix sont coûteux pour les entreprises, celles-ci ne répercutent les variations de prix que lorsque le bénéfice qu’elles en retirent est suffisant pour compenser les coûts de catalogue ; en d’autres termes, les firmes ne procéderont pas à de faibles variations de prix.

Si les coûts de catalogue offrent une explication à la rigidité des prix nominaux, les nouveaux keynésiens ont cherché à également expliquer la rigidité réelle des prix en mettant l’accent sur la nature asymétrique de l’information. Par exemple, il est coûteux pour les agents de comparer les prix ; les entreprises peuvent donc s’engager à stabiliser leurs prix afin de fidéliser leur clientèle. Elles peuvent également se montrer réticentes à baisser leurs prix suite à une baisse de la demande ou des coûts de production, car cette baisse des prix pourrait être perçue par les consommateurs comme la preuve d’une dégradation de la qualité des produits offerts.

Si les nouveaux keynésiens ont à ce point disséqué les données au niveau microéconomique pour attester de la viscosité des prix, c’est parce que celle-ci leur est essentielle pour expliquer la persistance de l’économie à un équilibre de sous-emploi. La faible fréquence des changements de prix fournit un mécanisme à travers lequel les chocs nominaux affectent l’activité réelle ; via ce canal, les chocs de demande peuvent avoir d’importantes répercussions sur la production. Cette viscosité des prix permet, d’une part, aux nouveaux keynésiens de montrer qu’une économie n’atteint pas forcément un équilibre optimal et ce même si les anticipations sont rationnelles. D’autre part, le lent ajustement des prix rend nécessaire le déploiement des politiques économiques ; en période de crise, seule l’intervention de l’Etat est susceptible de maintenir l’économie à son plein emploi.

Un pan important de la littérature s’est notamment focalisé sur les répercussions des chocs monétaires. Les monétaristes et les nouveaux keynésiens s’appuient sur la viscosité des prix pour rejeter l’idée d’une neutralité monétaire. En effet, une lecture néoclassique de l’équation quantitative de la monnaie suggère qu’un doublement de la masse monétaire devrait entraîner, en présence de prix flexibles, un doublement du niveau général des prix, sans que les variables réelles ne changent. Dans cette situation, les taux d’intérêt réels et la production réelle évoluent indépendamment des variations des taux d’intérêt nominaux et de l’offre de monnaie. En revanche, si les prix sont visqueux, l’ajustement des prix nominaux aux chocs monétaire sera lent, si bien que ces derniers sont susceptibles d’avoir des répercussions sur l’activité réelle. En l’occurrence, une baisse des taux nominaux se traduira par une réduction des taux d’intérêt réels à court terme, ce qui se traduit par une hausse de l’investissement et donc de la production. Avec la viscosité des prix, la politique monétaire retrouve donc toute son efficacité, du moins à court terme.

La politique budgétaire est une autre source de variation de la demande. Si les prix étaient flexibles, une hausse des dépenses publiques se traduirait par une hausse des taux d’intérêt réels. Les dépenses privées seraient alors évincées, si bien que la production n’augmenterait que très faiblement. En revanche, si les prix réagissent lentement à la relance budgétaire et si la banque centrale ne répond pas aux tensions inflationnistes en resserrant sa politique monétaire, le taux d’intérêt réel n’augmentera que très faiblement. L’effet d’éviction sur les dépenses privées sera alors limité et l'impulsion budgétaire accroîtra la production de façon substantielle, notamment via des effets multiplicateurs.

Non seulement la viscosité des prix accroît l’efficacité des politiques économiques, mais elle les rend également d’autant plus nécessaires qu’elle amplifie fortement les déséquilibres macroéconomiques. En contraignant les variations des taux d’intérêt et salaires réels, la viscosité des prix implique que ces chocs peuvent induire d’importantes variations de la demande agrégée et par là dans les fluctuations conjoncturelles. En présence de prix rigides, la flexibilité des salaires accélère l’effondrement de l’activité lors des épisodes de récession. Elle entraîne alors une forte baisse des salaires réels, ce qui déprime davantage la demande agrégée. Puisque les salaires reculent et pas les profits, la profitabilité est susceptible d’atteindre un niveau supérieur à celui nécessaire pour financer les investissements [Artus, 2013].

En outre, de nombreuses perturbations économiques entraînent de fortes variations des taux d’intérêt réels ; la production va alors fortement réagir à ces dernières et risque de durablement s’écarter de son niveau potentiel. Gauti Eggertsson et Paul Krugman (2012) observent notamment le processus de désendettement des agents privés qui s’opère en période d’instabilité financière. La réponse optimale de l’économie à un tel choc devrait être une réduction des taux d’intérêt réels. Si l’ajustement est lent et surtout si le taux d’intérêt est contraint par sa limite inférieure zéro (zero lower bound), le taux d’intérêt réel sera bloqué à un niveau excessivement élevé. Cette situation de trappe à liquidité entraîne une baisse des prix, si bien que le taux d’intérêt réel est susceptible de s’élever à nouveau et d’aggraver le choc initial : puisque la dette est définie en termes nominaux, la déflation accroît le poids réel de l’endettement. Sans intervention publique, l’effondrement des prix, des dépenses et de la production ne peut que s’accélérer. Dans une situation de trappe à liquidité, les autorités monétaires peuvent toujours chercher à orienter les anticipations des agents privés pour réduire les taux d’intérêt réels, mais la relance budgétaire reste indispensable pour stimuler l’activité : le fait que les agents privés soient contraints en termes de liquidité donne aux multiplicateurs budgétaires leur efficacité maximale.

 

Références Martin ANOTA

ARTUS, Patrick (2013), « Les conséquences de la rigidité des prix », Natixis, Flash économie, n° 168, 20 février.

EGGERTSSON, Gauti B., & Paul KRUGMAN (2012), « Debt, deleveraging, and the liquidity trap: A Fisher-Minsky-Koo approach », Federal Reserve Bank of New York, 26 février.

NAKAMURA, Emi, & Jón STEINSSON (2013), « Price rigidity: Microeconomic evidence and macroeconomic implications », NBER working paper, n° 18705, janvier.

Repost 0
16 février 2013 6 16 /02 /février /2013 21:02

A la fin des années soixante-dix, Deng Xiaoping amorce les réformes économiques en Chine. Cette modernisation de l’économie chinoise passe par sa libéralisation progressive et une stratégie de croissance explicitement déséquilibrée. Les investissements étrangers n’ont par exemple été initialement autorisés que dans un nombre limité de zones économiques spéciales, avant que 14 zones côtières ne soient ouvertes aux investisseurs étrangers en 1984. Le traitement préférentiel dont les provinces côtières font l’objet leur a permis de développer des institutions de marché et d’accumuler plus rapidement du capital que les autres régions. Avec les réformes, les performances des provinces ont ainsi divergé, les régions côtières ayant bénéficié d’une progression plus rapide de leurs niveaux de productivité et de revenu que les provinces de l’intérieur (cf. graphique 1).

GRAPHIQUE 1  Croissance de la productivité moyenne du travail (1979-2009) 

ConvergenceChina2.jpg

source : Andersson et alii (2013)

Aux yeux des autorités publiques, la concentration des activités économiques sur la façade maritime n’était pas appelée à perdurer. L’idée sous-jacente à la stratégie chinoise était que les gains de richesse générés dans les pôles de croissance situés le long de la côte ruisselleraient vers l’intérieur des terres ; des effets d’entraînement contribueraient à uniformiser les niveaux de richesse sur l’ensemble du pays. Les réformes ont effectivement permis d’accélérer la création de richesses et de sortir de la pauvreté 600 millions de Chinois lors des trois dernières décennies ; la part de la population vivant dans la pauvreté est ainsi passée de 81,6 à 10,4 % au cours de cette période. Toutefois, le ruissellement des richesses de la côte vers le reste du pays, c’est-à-dire la convergence des provinces, reste incertain. Plusieurs analyses suggèrent une persistance, voire une aggravation des inégalités interprovinciales de revenu et de productivité. Autrement dit, l’avantage initial des régions côtières se serait maintenu, voire accru au cours du temps.

Fredrik N.G. Andersson, David L. Edgerton et Sonja Opper (2013) ont observé les performances régionales en termes de croissance entre 1978 et 2009. Ils ont distingué les fluctuations de court terme des tendances qui sont à l’œuvre à long terme. Trois principaux résultats émergent de leur analyse. Tout d’abord, la divergence dans le rythme de croissance de long terme entre les différentes provinces a atteint un pic en 1994. A partir de cette date, l’écart tend à se réduire (cf. graphique 2). A partir de 2003, les provinces suiveuses enregistrent des taux de croissance de long terme supérieurs à ceux des provinces meneuses, si bien que les niveaux de productivité des deux clubs de provinces tendent depuis lors à converger. Ensuite, malgré qu’un processus de convergence soit à l’œuvre à long terme, les provinces côtières et les provinces intérieures peuvent toutefois connaître des divergences temporaires dans leurs performances. Les fluctuations touchant leurs taux de croissance s’étendent sur une période pouvant atteindre 16 ans, mais elles s’estompent au-delà, si bien que les forces de divergence n’ont aucun impact sur la croissance à long terme des économies régionales.

GRAPHIQUE 2  Croissance de la productivité moyenne du travail à long terme

ConvergenceChina1.jpg

source : Anderson et alii (2013)

Enfin, Andersson et alii montrent que les principaux facteurs contribuant à la croissance régionale varient au cours du temps. D’une part, l’importance relative de la productivité totale des facteurs s’accroît fortement dans les provinces meneuses, tandis que les taux d’accumulation du capital y voient leur importance relative diminuer au cours du temps. D’autre part, la stratégie de croissance des provinces suiveuses repose toujours principalement sur l’accélération des taux d’accumulation du capital. En 2009, le secteur agricole représentait 45 % de l’emploi total dans les provinces suiveuses, tandis qu’il ne représentait qu’un quart des emplois dans les provinces meneuses. Puisqu’une large différence dans le poids relatif de l’emploi agricole demeure, les différences observées la composition des facteurs contribuant à la croissance devraient encore persister ces prochaines années.

Chao Li et John Gibson (2012) se sont quant à eux penchés sur l’évolution des inégalités de revenu entre les différentes provinces chinoises et parviennent eux aussi à une conclusion optimiste. Les précédentes études ont échoué à mesurer précisément le PIB par tête de chaque province en surestimant ou bien en sous-estimant le nombre d’habitants dans chacune d’entre elles. En effet, ces études se fondaient sur les registres d’état civil (le hùkǒu). Or, la croissance chinoise a entraîné un important exode rural et ainsi l’apparition de nombreux migrants dénués de cartes de résidence. En 2010, environ 200 millions de Chinois avaient quitté leur lieu initial d’enregistrement. Dans les provinces côtières, le nombre de résidents est supérieur de plusieurs millions au nombre d’habitants recensé dans les registres ; symétriquement, dans les provinces continentales, le nombre effectif de résidents est largement inférieur au nombre officiel.

GRAPHIQUE 3  Indice de Gini des inégalités interprovinciales en matière de PIB par habitant selon divers dénominateurs

ConvergenceChina3.jpg

source : Li et Gibson (2012)

Après avoir corrigé le dénominateur du PIB par habitant, Chao Li et John Gibson montrent que les inégalités interprovinciales se sont continuellement réduites entre 1978 et 1990. Un tiers de cette réduction a toutefois été renversée lors des trois années suivantes (cf. graphique). L’évolution des inégalités interprovinciales est plus erratique dans la décennie suivante. Elles atteignent un nouveau pic au début des années deux mille, sans toutefois revenir aux valeurs observées avant la réforme. A l’instant du pic, ce sont alors les deux tiers de la réduction des inégalités obtenue entre 1978 et 1990 qui ont été inversés. Après 2005, les inégalités interprovinciales chutent rapidement pour finalement revenir en 2010 aux valeurs observées vingt ans auparavant. Les auteurs en concluent que le seul épisode de l’ère de la réforme au cours duquel les inégalités se sont renforcées à un rythme soutenu s’étale entre 1990 et 1993.

 

Références Martin ANOTA

ANDERSSON, Fredrik N.G., David L. EDGERTON & Sonja OPPER (2013), « A Matter of Time: Revisiting Growth Convergence in China », in World Development.

LI, Chao, & John GIBSON (2012), « Rising Regional Inequality in China: Fact or Artefact? », University of Waikato, Department of Economics, working paper, n° 12/9.

Repost 0
publié par Martin Anota - dans Economie géographique
commenter cet article
12 février 2013 2 12 /02 /février /2013 23:50

Les actifs sûrs (safe assets) sont la pierre angulaire des systèmes financiers. Il s’agit essentiellement de titres de dette publique et de titres de dette privée à haute qualité, notamment des titres adossés sur actifs. Ils offrent une réserve de valeur sûre, servent de collatéraux dans les transactions financières, satisfont aux exigences prudentielles et servent de référence dans la fixation du prix des autres actifs, c’est-à-dire des actifs risqués. En effet, parce qu’ils sont insensibles aux informations, ces actifs sont particulièrement liquides et peuvent stocker la valeur sans que les agents aient à craindre des pertes en capital lors des périodes de turbulences financières. Sous la contrainte de la réglementation prudentielle, les banques s’appuient alors sur les actifs sûrs pour renforcer leurs réserves de capital et de liquidité.

Au cours des années deux mille, la croissance rapide des pays émergents, dans un contexte où leur développement financer demeurait fragile, s'est traduit par une plus forte demande pour les actifs sûrs et a ainsi entraîné une pénurie de ces actifs au niveau mondial. L’excédent d’épargne des économies émergentes s’est massivement placé dans les bons du Trésor américains et en titres adossés sur des créances hypothécaires. Les taux d’intérêt à long terme ont diminué, alimentant (et justifiant) une plus grande prise de risque de la part des agents privés et contribuant ainsi au gonflement des déséquilibres globaux. La titrisation des actifs risqués a, d’une part, permis à l’économie américaine de fonder sa croissance sur l'endettement et les dépenses des ménages. D'autre part, elle a permis aux entités financières des pays avancés de générer une importante masse d’actifs (jugés) sans risque et ceux-ci ont fini par soutenir l’ensemble du système financier.

La pénurie d’actifs sans risque est susceptible de générer de l’instabilité financière et lorsque la crise survient, elle amplifie la pénurie qui l’a engendrée [Gourinchas et Jeanne, 2012]. En temps normal, les prêteurs ne sont en effet pas incités à s’informer de la valeur des actifs produits par le secteur privé que les entreprises utilisent comme collatéraux pour emprunter, si bien qu’un large montant d’actifs peut être utilisé pour soutenir l’emprunt dans l’économie. Une crise éclate quand la publication de mauvaises nouvelles incite les prêteurs à s'informer de la valeur des actifs produits par le secteur privé, ce qui les amène à ne prêter qu’aux seules entreprises disposant d’actifs de haute qualité et à réduire la gamme d’actifs qu’elles acceptent comme collatéraux [Gorton et Ordoñez, 2013]. En l’occurrence, la crise financière a éclaté en 2007 lorsque nombre des actifs privés générés depuis le début de la décennie ont perdu leur statut d’actifs sûr, ce qui mena le système financier mondial au bord de l’effondrement. L’économie mondiale a subi une hausse brutale de l’aversion au risque et du taux d’épargne des agents privés. Le désendettement des entités financières s’est traduit par une course vers la sécurité (fly to safety), c’est-à-dire finalement par un brutal accroissement de la demande d’actifs sûrs alors même que leur offre se contractait tout aussi rapidement.

Dans ce contexte de spirale déflationniste sur les marchés financiers et de ralentissement de l’activité réelle, l’action des administrations publiques a joué en parallèle deux fonctions pour (tenter de) ramener l’économie au plein emploi [Brender et alii, 2012]. D’une part, le creusement du déficit a permis d’amortir le choc macroéconomique ; les dépenses publiques ont partiellement compensé la chute de la demande globale. D’autre part, l’émission de dette publique a permis d’accroître l’offre d’actifs sans risque ; le système financier a absorbé ces titres et produit en contrepartie les placements que recherchaient les épargnants.

Cette nature stabilisatrice des actifs publics est difficilement appréhendable dans un cadre néoclassique standard. D'après l’équivalence ricardienne, les ménages internalisent la contrainte budgétaire du gouvernement, si bien que la manière par laquelle l’Etat finance ses dépenses importe peu. Que ce financement passe par l'emprunt ou par l'impôt, les ménages réduisent dans tous les cas leurs dépenses pour payer le surcroît d’impôts dans la période courante ou anticiper les impôts supplémentaires qui seront exigés à l’avenir. Ce résultat nécessite toutefois que les marchés des capitaux soient parfaits. Le statut des actifs publics brise toute équivalence ricardienne [Gorton et Ordoñez, 2013]. Lors d’une crise, les actifs privés ne peuvent être utilisés de façon satisfaisante comme collatéraux. Lorsque les agents privés sont soumis à des contraintes de liquidité, les titres publics fournissent des services de liquidité. Ils peuvent remplacer les actifs privés, accroître la richesse des agents privés et permettre un relâchement des contraintes d’endettement auxquels ces derniers font face. Puisque l’endettement devient préférable à l’imposition, l’équivalence ricardienne est brisée. Gorton et Ordoñez (2013) notent toutefois qu’il existe des limites à l’utilisation des titres publics comme collatéraux. Si les titres sont détenus par le reste du monde, ils ne peuvent plus couvrir les impôts, si bien que la pression fiscale s’accroît dans l’économie nationale. Malgré cela, il reste optimal pour l’Etat d’émettre de la dette lors des périodes d’instabilité macroéconomique.

Pierre-Olivier Gourinchas et Olivier Jeanne (2012) notent de leur côté que les autorités budgétaires doivent nécessairement se coordonner avec les autorités monétaires pour que les actifs publics puissent pleinement jouer leur rôle stabilisateur. Lors de la Grande Récession, l’offre d’actifs sûrs s’est à nouveau contractée quand la détérioration des ratios d’endettement public a conduit à une dégradation des notations et par là à la crise de la dette souveraine dans la zone euro. La perte du statut d’actif sans risque a mis les emprunts d’Etat directement en concurrence avec les titres privés comme placement pour les épargnants. Les autorités publiques perdent alors une marge de manœuvre dans leur gestion de l’activité, si bien que l’économie mondiale pourra difficilement revenir au plein emploi. En période d’instabilité macroéconomique, c’est-à-dire à un instant où les agents privés sont réticents à prendre davantage de risques, cette mutation des titres publics en actifs risqués menace directement la stabilité du système financier. Seule la banque centrale peut intervenir pour assurer la stabilité macrofinancière en élargissant autant que nécessaire la taille de son bilan et en absorbant par là le volume de risque que les agents privés refusent de porter [Brender et alii, 2012].

 

Références Martin ANOTA

BRENDER, Anton, Emile GAGNA & Florence PISANI (2012), La Crise des dettes souveraines, La Découverte.

GORTON, Gary B., & Guillermo ORDOÑEZ (2013), « The supply and demand for safe assets », NBER working paper, n° 18732, janvier.

GOURINCHAS, Pierre-Olivier, & Olivier JEANNE (2012), « Global safe assets », Banque des règlements internationaux, working paper, n° 399, décembre.

Repost 0
9 février 2013 6 09 /02 /février /2013 18:59

Dans l’optique néoclassique, une économie peut générer de la croissance en accroissant la quantité de facteurs de production, c’est-à-dire en relevant l'offre de travail, en investissant dans l’éducation et en accumulant du capital productif. Cette croissance, qualifiée d’« extensive », se double d’une croissance « intensive » reposant sur les avancées technologiques. A long terme, le progrès technique serait le principal déterminant de l’élévation du niveau de vie des populations. Autrement dit, une diminution du taux d’innovation se traduirait par une décélération du taux de croissance potentielle, auquel cas l'économie est susceptible de converger vers un état stationnaire à la Solow.

Une telle éventualité a récemment été soulevée par Tyler Cowen (2011), auteur du blog Marginal Revolution. Selon lui, la Grande Récession aurait dissimulé des tendances plus lourdes et plus dramatiques, celles d’une grande stagnation (great stagnation) qui ne s’achèvera que dans plusieurs décennies. Non seulement les facteurs de la croissance extensive sont sujets à des rendements décroissants, mais l’innovation aurait également atteint un « plateau technologique », si bien que la croissance ne peut que durablement ralentir. Cowen cite notamment les travaux de Charles Jones (2002). Ce dernier avait étudié la contribution des différents facteurs à la croissance des revenus par tête aux Etats-Unis entre 1950 et 1993. Il en avait conclu que si 20 % de la croissance américaine pouvaient être attribués à la croissance de la population, 80 % de la croissance économique provenaient de la hausse du niveau de scolarité et de la plus grande intensité de la recherche, c’est-à-dire de l’essor de la main-d’œuvre dans les industries génératrices d’idées. Comme ces deux variables ne peuvent plus continuer à progresser, la croissance devrait ralentir.

Encore plus récemment, Robert Gordon (2012) fit preuve d’un plus grand pessimisme dans son provocateur « Is U.S. economic growth over? ». Il identifie au cours de ces deux siècles et demi trois révolutions industrielles (RI). La première se déroula de 1750 à 1830 et généra la vapeur et le réseau ferroviaire. La deuxième, la plus importante, s’étala de 1870 à 1900 et engendra entre autres l’électricité, le moteur à combustion interne, l’eau courante, les communications, la chimie et le pétrole. La troisième se déroula de 1960 à 2005 et offrit les ordinateurs, internet et les téléphones mobiles. Chacune de ces phases a été suivie par une période d’expansion économique, en particulier la deuxième : la productivité connut une croissance relativement rapide entre 1890 et 1972. Une fois que les innovations de la deuxième RI ont été pleinement exploitées, la croissance entre 1972 et 1996 fut plus lente qu’auparavant. La troisième RI ne s’est traduite que par une courte période de forte croissance entre 1996 et 2004. Aucune des innovations qu’elle aura générées n’a été aussi influente que celles du passé. Avec le ralentissement de la productivité observé depuis 1970, le taux de croissance du revenu mondial pourrait retrouver ses valeurs d’avant la première RI, c’est-à-dire avoisiner zéro. Les rapides progrès de ces 250 dernières années n’auront donc constitué qu’un épisode unique dans l’histoire économique.

Six « vents contraires » (headwinds) viennent en outre assombrir les perspectives de croissance à long terme des Etats-Unis et de plusieurs économies avancées. Le vieillissement de la population se traduit par une baisse du taux d’activité et de la productivité ; le niveau de scolarité atteint un plateau aux Etats-Unis ; les inégalités de revenu progressent ; la mondialisation, à travers la concurrence des pays émergents et la délocalisation des activités productives en leur sein, exerce une pression à la baisse sur les salaires des pays avancés ; la gestion de la crise environnementale réduira le budget des ménages ; enfin, le désendettement du secteur privé et la charge de la dette publique vont également compresser le revenu disponible et par là les dépenses de consommation.

La thèse du pessimisme technologique a rencontré de nombreuses critiques. En outre, cette idée d’une stagnation durable n’est pas nouvelle. Selon Gary Becker (2012) et Matthew Klein (2012), elle semble regagner en popularité à chaque fois que l’économie connaît un ralentissement prolongé de l’activité. (En revanche, les périodes d’expansion économique tendent à convaincre les gens que la croissance va se poursuivre indéfiniment.) Alvin Hansen affirmait à la fin des années trente que les Etats-Unis subissaient alors une « stagnation séculaire » (secular stagnation) : les bonnes performances qu’avait pu connaître par le passé l’économie américaine résultaient de dynamiques favorables qui ne pouvaient être exploitées qu’une seule fois, qu’il s’agisse de l’innovation technologique ou de la croissance démographique. La haute croissance des trente glorieuses a été un radical démenti à la thèse d’Hansen.

William Janeway (2013) souligne quant à lui un défaut évident dans l’argumentation de Gordon. Selon ce dernier, les effets de la troisième RI sur la productivité se seraient dissipés après seulement huit années, alors qu’il fallut plus de huit décennies pour que la deuxième RI porte ses fruits. Gordon choisit de mettre un terme à la troisième RI en 2005, soit 45 ans après ses débuts, mais moins de la moitié du temps donné aux première et deuxième RI pour suivre leur cours. Cela revient à juger de l’impact économique de l’électricité seulement 45 ans après l’implantation de la première usine électrique en 1882, c’est-à-dire à une date où les industries manufacturières ne découvraient qu’à peine les bénéfices de cette énergie pour leur organisation interne et où l’industrie électroménagère n’en était qu’à ses balbutiements. En troquant la révolution des TIC, Gordon néglige notamment le fait que le développement du commerce en ligne et surtout des intelligences artificielles n’en est qu’à ses prémices.

Selon Daron Acemoglu et James Robinson (2012), deux éléments clés sont absents du débat. Tout d’abord, le processus d’innovation, comme toute activité économique, est une quête de profit ; il répond donc aux incitations. Les deux auteurs reprennent l’exemple de Schmookler : la demande accrue de transport s’était traduite par une plus forte demande pour les fers à cheval, si bien qu’il y eut un taux d’innovation très élevé pour le fer à cheval tout au long de la fin du dix-neuvième et au début du vingtième siècle ; les innovations se sont par la suite taries en raison de la concurrence du moteur de traction à vapeur, puis du moteur à combustion interne. Aujourd’hui, lorsque le gouvernement accroît sa demande pour certains vaccins, les sociétés pharmaceutiques réagissent en multipliant les essais cliniques. Ou encore, les changements démographiques se traduisent par une expansion du marché pour différents types de médicaments et ainsi par la découverte de nouveaux médicaments. Puisqu’il est difficile de prévoir où les incitations à innover seront fortes, il est difficile de prédire où émergeront les innovations. Ainsi, ce n’est pas parce que nous connaissons les grandes innovations du passé et reconnaissons qu’elles ont été formidables, que nous pouvons en déduire que les innovations futures ne les égaleront pas. Cela dit, il ne faut pas faire l’erreur inverse de Gordon : croire que les innovations futures seront forcément révolutionnaires et permettront, par exemple, de résoudre la crise environnementale. L’expérience passée suggère en revanche que tant qu’il y aura des incitations, les innovations suivront.

Ensuite, Acemoglu et Robinson (2013) regrettent que la question institutionnelle soit absente du débat, alors qu’elle devrait au contraire être placée en son centre. L’innovation découle en effet d’institutions inclusives, c’est-à-dire d’ensembles de règles permettant aux agents de prendre librement leurs décisions. Ce sont ces règles qui déterminent la capacité de la société à exploiter la créativité, les compétences et les idées, soit son potentiel de croissance. S’interroger sur les perspectives de croissance revient alors à se demander si les institutions inclusives continueront à se développer à l’avenir ou bien si elles déclineront. Le processus d’innovation risque en effet de se tarir si les institutions deviennent extractives, c’est-à-dire si elles ne bénéficient qu’à une seule minorité au détriment du reste de la population. Le risque est alors de gâcher une masse considérable de talents. En l’occurrence, si la Rome antique se révéla incapable d’innover, non pas parce ce qu’elle atteignit les limites de sa capacité innovatrice, mais parce que ses institutions devinrent extractives.

Même parmi les détracteurs, beaucoup partagent l’idée de Gordon selon laquelle le creusement des inégalités va comprimer le potentiel de croissance au cours des prochaines décennies. Ce n’est pas le cas de l’optimiste Dave Altig (2013), pour lequel ce « vent contraire » pourrait au contraire constituer le signe d’une prochaine accélération de la croissance. L’adoption de nouvelles technologies peut en effet impliquer un coût substantiel en termes d’apprentissage, or seule la main-d’œuvre qualifiée s’avère avantagée dans cet apprentissage. Dans un premier temps, le manque d'expérience va donc empêcher l’économie de pleinement exploiter des nouvelles technologies. La demande pour la main-d’œuvre qualifiée va s’accroître, la prime de qualification (skill premium), c’est-à-dire le différentiel de salaire entre travailleurs qualifiés et non qualifiés, va alors s’élever et les inégalités de revenus se creuser. L'économie investit dans le capital humain pour accroître la quantité de main-d’œuvre qualifiée, mais cet investissement n’est pas mesurable, si bien que la croissance de la productivité semble décrocher durant cette période. Une fois que la main-d’œuvre qualifiée est suffisante, l’économie peut alors exploiter tous les potentiels des nouvelles technologies, si bien que la productivité s’élève et la prime de qualification diminue. Selon Greenwood et Yorukoglu (1997), l’accélération du progrès technique s’est à plusieurs reprises accompagnée au cours de l’histoire d’un creusement des inégalités et d’un ralentissement de la croissance de la productivité. Ces trois dynamiques auraient notamment coïncidé au milieu du dix-neuvième siècle, la période riche en avancées technologiques qui mena finalement à l'âge d'or de Gordon. Par conséquent, Dave Altig suggère que le creusement des inégalités que l’on peut observer depuis quelques décennies pourrait finalement préfigurer une accélération de la croissance de la productivité dans un proche avenir.

 

Références Martin ANOTA

ACEMOGLU, Daron, & James ROBINSON (2013), « The End of Low Hanging Fruit? », in Why Nations Fail (blog), février.

ALTIG, Dave (2013), « Half-full glasses », in macroblog, 1er février. Traduction française disponible ici.

BECKER, Gary (2012), « Will long-term growth slow down? », in The Becker-Posner blog, 10 juillet.

COWEN, Tyler (2011), The Great Stagnation: How America Ate All the Low-hanging Food of Modern History, Got Sick, and Will (Eventually) Feel Better.

The Economist (2013), « Has the ideas machine broken down? », 12 janvier.

GORDON, Robert (2012), « Is US economic growth over? Faltering innovation confronts the six headwinds », CEPR Policy Insight, n° 63.

GREENWOOD, Jeremy, & Mehmet YORUKOGLU (1997), « 1974 », Carnegie-Rochester Conference Series on Public Policy, vol. 46, n° 1, juin.

JANEWAY, William (2013), « Growth out of time », in Project Syndicate, 17 janvier. Traduction française, « La temporalité de la croissance ».

JONES, Charles I. (2012), « Sources of U.S. economic growth in a world of ideas », in American Economic Review, vol. 92, n° 1, mars.

KLEIN, Matthew C. (2012), « Was that it? », in Free Exchange (blog), 8 septembre.

Repost 0
6 février 2013 3 06 /02 /février /2013 20:31

Les mouvements de capitaux se sont intensifiés avec le processus d’intégration financière opéré au niveau mondial. Le maintien actuel des taux directeurs à un faible niveau dans les économies avancées a suscité un véritable débat sur la nature de la liquidité mondiale, sa transmission d’une économie à l’autre et sur ses risques potentiels. Suite à la crise financière, les pays émergents, qui avaient été épargnés par les booms d’endettement au cours des années deux mille, ont fait face à d’importants afflux de capitaux, en raison de leur plus grande résilience lors de la Grande Récession et des meilleurs rendements qu’ils offraient par rapport aux économies avancées. Selon un point de vue répandu, les faibles taux directeurs et les achats d’actifs par les banques centrales des pays avancés seraient un vecteur clé dans les mouvements internationaux de capitaux. Ces derniers sont susceptibles de se traduire par une expansion excessive du crédit dans les pays destinataires et finalement par une surchauffe de leur économie susceptible de se solder par une crise.

Pierre-Olivier Gourinchas et Maurice Obstfeld (2012) ont mené une analyse empirique pour la période s’étalant de 1973 à 2010 afin d’identifier les déterminants des crises financières. Ils constatent que la hausse rapide du levier d’endettement et la brutale appréciation du taux de change réel constituent deux prédicteurs particulièrement significatifs des crises financières. Ce résultat est vérifié aussi bien pour les économies avancées que pour les économies émergentes. Cette conclusion est également partagée par Alan Taylor (2012) dans son étude historique. D’autres analyses affirment que les afflux massifs de capitaux entraînent des booms sur les marchés du crédit et des actifs. Cherchant à concilier ces deux courants de la littérature, César Calderón et Megumi Kubota (2012) observent de leur côté un échantillon de 71 pays pour la période s’étalant de 1975 à 2010. Ils constatent que l’accumulation des flux de capitaux tend à précéder les booms sur les marchés du crédit.

Poursuivant directement l’analyse de Gourinchas et Obstfeld, Valentina Bruno et Hyun Song Shin (2012) se demandent comment la politique monétaire des pays avancés peut influencer le levier d’endettement et les taux de change réels dans les économies récipiendaires des flux de capitaux. Ils vont se focaliser sur un canal souvent négligé de la politique monétaire, celui qui a reçu le nom de « canal de la prise de risque » (risk-taking channel) depuis les travaux de Claudio Borio et Haibin Zhu (2008). Ce mécanisme de transmission donne un rôle crucial au secteur bancaire dans le façonnement des conditions financières et des primes de risque au cours du cycle. Les banques sont en effet des intermédiaires qui empruntent à court terme et prêtent à long terme, si bien que la rentabilité des nouveaux prêts dépend de l’écart entre les deux taux, c’est-à-dire l’écart à terme (term spread). Comme les taux longs sont moins sensibles aux variations des taux directeurs que les taux courts, la politique monétaire peut influer sur le spread de terme, ce qui permet aux banques centrales de jouer sur la prise de risque des banques et par là de peser sur l’activité économique.

Bruno et Shin explorent alors les implications du canal de prise de risque dans un contexte international en mettant l’accent sur l’activité transfrontalière des banques mondiales, c’est-à-dire sur les flux de capitaux entre la société-mère et ses filiales à l’étranger. Par exemple, un assouplissement de la politique monétaire de la Fed se traduit par une diminution des coûts de financement en dollar auxquels font face les banques dans les économies récipiendaires des flux de capitaux (typiquement les pays émergents). Ces banques prennent alors plus de risques en prêtant davantage aux agents domestiques. Les entrées de capitaux entraînent une appréciation de la devise du pays récipiendaire, ce qui améliore le bilan des emprunteurs domestiques. Comme ces derniers apparaissent alors moins risqués aux yeux des banques, celles-ci vont leur concéder encore davantage de crédit. Un cercle vertueux est donc temporairement à l’œuvre, l’appréciation de la devise et le crédit se renforçant alors mutuellement. Lorsque le cycle se retourne, le mécanisme d’amplification joue cette fois-ci en sens inverse et la situation financière des banques et des emprunteurs se détériore violemment.

Bruno et Shin vont alors examiner comment fonctionne le canal de prise de risque en contexte international à travers un modèle autorégressif (VAR). Ils cherchent à observer comment les bilans s’ajustent en réponse aux changements de la politique monétaire américaine. Pour cela, ils vont se pencher sur la relation entre l’indice VIX de la volatilité des options sur les actions américaines et le taux directeur de la Réserve fédérale, en l’occurrence le taux des fonds fédéraux. Les précédentes études avaient mis en évidence une boucle rétroactive entre les deux variables : une baisse du Fed funds rate est suivie par un amortissement de l’indice VIX, tandis qu’une hausse de ce dernier est suivie par une réduction du taux des fonds fédéraux [Bekaert et alii, 2012].

Bruno et Shin constatent, tout d’abord, qu’une hausse de l’indice VIX provoque un élargissement de l’écart à terme, ce qui suggère que les participants au marché s’attendent alors à une réduction imminente du taux des fonds fédéraux ; un élargissement de l’écart à terme est suivi par une réduction du taux directeur au cours des trimestres suivants. L’écart à terme influence donc effectivement les conditions de marché. En outre, l’analyse révèle qu’un écartement du term spread se traduit par un rythme accru des mouvements de capitaux à travers les opérations transfrontalières des banques mondiales. Le cycle du levier d’endettement des banques mondiales apparaît au cœur des mouvements des capitaux propres au secteur bancaire ; ce cycle se traduit par des fluctuations dans la liquidité mondiale et celles-ci expliquent (en partie) l’expansion du crédit dans les pays récipiendaires des flux de capitaux. Le canal de prise de risque de la politique monétaire s’opère donc effectivement via la gestion de bilan des banques mondiales. Le processus de globalisation financière, en rendant ce mécanisme de transmission plus prégnant, participe ainsi par ce biais-là à fragiliser la stabilité financière mondiale. Or les banques centrales tendent à le délaisser dans leur analyse et leur prise de décision, donc à sous-évaluer les répercussions extérieures de leur politique monétaire.

 

Références Martin ANOTA

BEKAERT, Geert, Marie HOEROVA & Marco LO DUCA. (2012). « Risk, uncertainty and monetary policy,” Banque nationale de Belgique, working paper.

BORIO, Claudio, & Haibin ZHU (2008), « Capital regulation, risk-taking and monetary policy: a missing link in the transmission mechanism? », Banque des règlements internationaux, working paper, n° 268, décembre.

BRUNO, Valentina, & Hyun Song SHIN (2012), « Capital flows and the risk-taking channel of monetary policy », Banque des règlements internationaux, working paper, n° 400, décembre.

CALDERÓN, César, & Megumi KUBOTA (2012b), « Gross inflows gone wild: Gross capital inflows, credit booms and crises », Banque mondiale, Policy research working paper, n° 6270, novembre.

GOURINCHAS, Pierre-Olivier, & Maurice OBSTFELD (2012), « Stories of the twentieth century for the twenty-first », in American Economic Journal: Macroeconomics, vol. 4, n° 1.

TAYLOR, Alan M. (2012), « External imbalances and financial crises », NBER working paper, n° 18606, décembre.

Repost 0
2 février 2013 6 02 /02 /février /2013 20:31

http://www.gtglobaltrader.com/sites/default/files/ExportConfidence.jpg

L’essor du commerce intrafirme et le développement des multinationales ont bousculé les anciennes théories du commerce international qui ne faisaient apparaître des gains à l’échange qu’au travers soit des différences en termes de dotations factorielles, soit des avantages comparatifs intersectoriels dans le sillage de la théorie ricardienne. Les nouvelles théories du commerce international qui se sont développées depuis les années soixante-dix ont cherché à mieux rendre compte des évolutions touchant les échanges commerciaux. Pour cela, elles se sont éloignées du cadre de la concurrence pure et parfaite pour incorporer des éléments de concurrence imparfaite tels que la nature oligopolistique des marchés, la présence de rendements d’échelle croissants et la différenciation des produits [Melitz et Trefler, 2012]. Dans ces modélisations, Les consommateurs aiment la variété et sont prêts à payer un prix plus élevé pour obtenir le produit désiré, mais comme le marché est fragmenté en niches, les différentes entreprises qui y sont présentes ne parviennent pas à atteindre une échelle de production suffisante pour couvrir leurs coûts de développement. L’ouverture au commerce international, en élargissant les marchés, va permettre aux entreprises de pleinement exploiter les rendements d’échelle afin de rentabiliser leurs investissements. Les consommateurs profitent, quant à eux, non seulement d’une plus large variété de produits, mais l’intensification de la concurrence internationale se traduit également par une baisse des prix.

Limités au niveau méthodologique, ces nouveaux modèles ont fait l’hypothèse durant plusieurs décennies d’une homogénéité des entreprises ; les firmes étaient supposées produire à la même échelle et être confrontées aux mêmes coûts. Melitz (2003), d’une part, et Bernard, Eaton, Jensen et Kortum (2003), d’autre part, ont mis à jour une nouvelle source de gains du commerce international en prenant en compte l’hétérogénéité des entreprises. Dans un secteur étroitement défini, les entreprises sont effectivement diverses en termes de taille et de profit, en raison notamment des différences de productivité. Or, cette hétérogénéité des entreprises au sein d’un même secteur va contribuer à amplifier les gains de la libéralisation que la littérature économique avait déjà identifiés.

L’ouverture au commerce va en effet contribuer à relever la productivité, non seulement via les économies d’échelle, mais également à travers un processus darwinien de sélection des entreprises [Corcos et alii, 2012]. D’un côté, la libéralisation des échanges se traduit par une diminution des coûts de transaction qui vont inciter les entreprises étrangères à pénétrer les marchés domestiques. Les firmes domestiques vont alors voir leurs profits diminuer sur les ventes domestiques, et ce quel que soit leur niveau initial de productivité. D’un autre côté, certaines entreprises domestiques vont se révéler suffisamment productives pour prendre en charge les coûts qu'exigent l'accès aux marchés extérieurs, notamment les coûts de transport, et faire face aux barrières de nature institutionnelle ou culturelle. Ces firmes vont alors accéder aux marchés étrangers et en obtenir ainsi des profits supplémentaires.

Avec la libéralisation des échanges, les entreprises vont par conséquent se partitionner en trois groupes. Comme les entreprises les moins productives font des pertes sur les marchés domestiques et ne disposent pas d’accès aux marchés étrangers, elles sont forcées de se retirer du marché. Les entreprises les plus productives sont quant à elles en mesure de compenser le manque à gagner sur les ventes domestiques avec les profits qu’elles retirent de leurs exportations. Elles peuvent donc survivre et sont même susceptibles d’accroître leur part de marché. Enfin, les entreprises ayant des niveaux intermédiaires de productivité peuvent également survivre, mais elles ne sont pas suffisamment productives pour accéder aux marchés étrangers, si bien qu’elles sont confinées aux seuls marchés domestiques et voient leur part de marché décliner irrémédiablement. Au final, comme l’intégration du commerce international élimine les entreprises les moins productives, la productivité moyenne du secteur s’élève grâce à la réallocation des ressources productives depuis les producteurs les moins efficaces vers les plus efficaces.

La prise en compte de l’hétérogénéité des entreprises fait apparaître une source supplémentaire de gain à l’échange, provenant cette fois-ci de l’influence positive que l’élargissement des marchés exerce sur le processus innovation [Melitz et Trefler, 2012]. L'adoption des nouveaux produits et processus productifs améliorant la productivité impose effectivement des coûts fixes. L’intégration commerciale, en élargissant la taille du marché et l’échelle de production des entreprises, encourage ces dernières à entreprendre ces investissements et stimule par là leur productivité. Cette source supplémentaire de gain à l’échange a trait à l’efficacité interne à la firme, tandis que le gain associé à la sélection des entreprises relevait quant à lui de l’efficacité interentreprises (ou allocative).

Cette nouvelle littérature théorique qui s’élabore autour de l’hétérogénéité des entreprises est motivée par un certain nombre de constats empiriques réalisés au niveau microéconomique [Melitz et Redding, 2012] :

Premièrement, la participation au commerce international permettrait aux entreprises de réaliser de meilleures performances. Dans un même secteur, les exportateurs sont notamment plus larges, plus productifs, plus intensifs en capital et en travail qualifié que les entreprises non exportatrices et rémunèrent également davantage leurs salariés.

Deuxièmement, les effets de composition seraient particulièrement importants entre les entreprises présentes dans un même secteur. Les entreprises sortantes sont en l'occurrence relativement plus petites que les opérateurs historiques et les entreprises entrantes ont des taux de croissance de l’emploi relativement plus élevés que ces derniers.

Troisièmement, la performance d’un établissement ou d’une entreprise répond sur plusieurs plans à l’environnement commercial. La libéralisation des échanges se traduirait notamment par une hausse de la productivité, une accélération de l’adoption des nouvelles technologies, une rationalisation de la gamme de produits offerts et une réduction du mark-up.

Gregory Corcos et alii (2012) ont estimé les gains de la libéralisation du commerce en Union européenne, notamment les gains d’efficacité tirés de la sélection des entreprises les plus efficaces. Si l’intégration européenne n’avait pas eu lieu, un pays subirait en moyenne une perte permanente de 7 % de son niveau de productivité. L’analyse fait en outre apparaître que l’intégration européenne s’est traduite par une plus riche variété de produits, mais aussi par des baisses de prix et de mark-up de la même amplitude que la hausse de la productivité. Les gains à l’échange sont inégalement répartis dans l’espace, puisque les pays périphériques et ceux de petite taille en profitent le plus. Ainsi, les changements dans les barrières au commerce auraient des répercussions particulièrement larges.

 

Références Martin ANOTA

BERNARD, Andrew B., Jonathan EATON, J. Bradford JENSEN & Samuel KORTUM (2003), « Plants and Productivity in international trade », in American Economic Review, vol. 93.

CORCOS, Gregory, Massimo DEL GATTO, Giordano MION, & Gianmarco I.P. OTTAVIANO (2012), « Productivity and firm selection: Quantifying the ‘new’ gains from trade », in VoxEU.org, 10 juillet 2012.

MELITZ, Marc J. (2003), « The impact of trade on intra-industry reallocations and aggregate industry productivity », in Econometrica, vol. 71, n° 6.

MELITZ, Marc J., & Stephen J. REDDING (2012), « Heterogeneous firms and trade », NBER working paper, n° 18652, décembre.

MELITZ, Marc J., & Daniel TREFLER (2012), « Gains from trade when firms matter », in Journal of Economic Perspectives, vol. 26, n° 2.

Repost 0
publié par Martin Anota - dans Economie internationale
commenter cet article
29 janvier 2013 2 29 /01 /janvier /2013 20:28

La crise des années trente a été un événement d’une rare violence. Entre 1929 et 1933, la masse monétaire diminue de 26 %, le niveau des prix de 25 % et la production de 27 %. Sur la même période, des milliers des banques font faillite en plusieurs vagues. Après plusieurs décennies, les économistes ne s’accordent toujours pas sur les mécanismes exacts qui ont généré ces dynamiques dépressives. L’interprétation monétariste domine aujourd’hui dans les débats universitaires et ce sont Milton Friedman et Anna Schwartz (1963) qui en ont donné la formulation la plus célèbre.

Les deux économistes se sont appuyés sur l’équation quantitativiste pour affirmer que la contraction monétaire fut relativement exogène au déclin de la production : la diminution de la quantité de monnaie et la décélération de la vitesse de circulation, impulsée par la ruée sur les billets, auraient entraîné l’effondrement de la valeur de la production. En raison du multiplicateur monétaire, les banques réagissent à une baisse des dépôts en réduisant plus que proportionnellement leurs prêts pour maintenir leur liquidité. Par conséquent, avec l’aggravation de la crise bancaire, la baisse des dépôts et la nécessité d’accroître les réserves se seraient mutuellement renforcées pour conduire à un assèchement du crédit. Confrontées à des difficultés croissantes de financement, les entreprises ont diminué leurs dépenses, licencié leur personnel, voire fait faillite. La chute subséquente de l’investissement, de la consommation et de la production aurait alors rétroagi sur les turbulences bancaires.

Dans le schéma monétariste, la dépression trouve donc sa source dans les crises bancaires. Celles-ci apparaissent comme largement exogènes : elles expliquent la sévérité de la crise sans avoir elles-mêmes été produites par une quelconque évolution économique dans la période antérieure. Friedman et Schartz ont donc cherché à identifier, dans le chapitre 7 de leur ouvrage A Monetary History of the United States, les différents mouvements de la masse monétaire qui apparaissent inhabituels au regard des conditions économiques de la période courante, mouvements qu’ils qualifient de « chocs monétaires ». Ils concluent leur étude en accusant la Fed d’avoir été responsable, ne serait-ce que par son inaction, des divers enchainements qui ont conduit à transformer la récession en véritable dépression. La banque centrale aurait en effet insuffisamment alimenté en liquidité le système bancaire pour stopper la chute des dépôts ; elle ne se contente, par exemple, de réaliser des opérations d’open market qu’au début de la crise, fin 1929, et brièvement durant l’été 1932. Or, privées de liquidité interbancaire, les banques se révèlent incapables de maintenir leur activité de prêt, ce qui amplifie le ralentissement de l’activité.

                  GRAPHIQUE Evolution du taux d'intérêt du papier commercial (1925-1933)  

commercialrate                                                                                                        source : Romer et Romer (2013b)

Cette interprétation souffre de plusieurs limites. D’une part, Friedman et Schwartz ne parviennent pas à prouver que les chocs monétaires sont à l’origine de la Grande Dépression. Parmi les chocs qu’ils identifient, ceux repérés au début de la crise sont les plus tenus. D’autre part, leur livre ne parvient pas à décrire le mécanisme par lequel les chocs monétaires ont pu affecter l’économie. Plusieurs économistes ont supposé que Friedman et Schwartz avaient à l’esprit un canal du taux d’intérêt classique : la contraction de la masse monétaire aurait entraîné une hausse des taux d’intérêt réels et nominaux. Or, les taux d’intérêt nominaux furent clairement à la baisse lors de la Grande Dépression (cf. graphique). Les taux chutèrent suite au krach sur le marché boursier en octobre 1929. Ils diminuèrent à nouveau lors des vagues de panique d’octobre 1930 et de mars 1931. Ils s’élèvent certes brièvement fin 1931 (la Fed cherchant alors à combattre la spéculation contre le dollar), mais ils diminuent ensuite continuellement jusqu’à février 1933. Cette baisse des taux d’intérêt pourrait s’expliquer par le fait que la demande de monnaie ait diminué encore plus rapidement que l’offre de monnaie, or Friedman et Schwartz ne prennent pas en compte cette éventualité. En revanche, pour expliquer le comportement des taux d’intérêt lors des années trente, Peter Temin (1976) adopte une optique plus keynésienne et suggère que la Grande Dépression trouve sa source dans les larges chocs négatifs affectant la demande agrégée. La baisse des prix et de l’activité aurait selon lui entraîné une baisse de la demande de monnaie et par là une contraction de la masse monétaire.

Une façon de réconcilier l’interprétation de Friedman et Schwartz avec le comportement des taux nominaux demande d’introduire la déflation et les anticipations dans l’analyse : si la déflation était à l’époque majoritairement anticipée, alors les taux d’intérêt réels étaient élevés, si bien que le niveau élevé des coûts d’emprunt réels aurait déprimé la dépense et la production. Christina et David Romer (2013b) affirment que l’explication monétariste, pour être validée, nécessite la présence de telles anticipations, mais elle exige aussi que celles-ci furent le produit de la contraction monétaire. Ils ont alors cherché à fournir le mécanisme de transmission qui manque dans l’explication monétariste de la Grande Dépression. Ils ont analysé en détails les numéros de la revue d'affaires Business Week pour voir s’il existait un lien entre les chocs monétaires et les anticipations de déflations dans les années centrales de la crise, en l’occurrence 1930 et 1931. Ils constatent que les observateurs professionnels ont effectivement anticipé une déflation, et ce en invoquant l’action (ou plus exactement de l’inaction) de la Fed et la contraction monétaire. Les époux Romer en concluent que les chocs monétaires qui se sont produits au cours de la Dépression ont pu affecter la production et l’emploi en entraînant une hausse des taux d’intérêts réels.

Ces résultats ont plusieurs implications pour la conduite de la politique monétaire. Lorsque les taux d’intérêt nominaux sont à leur bordure inférieure zéro (zero lower bound), une politique monétaire expansionniste peut accroître la production en élevant notamment les anticipations d’inflation et en diminuant ainsi les taux d’intérêt réels. L’analyse des numéros de Business Week suggère aux époux Romer que l’expansion monétaire est effectivement capable de générer de telles anticipations. Lors de la Grande Dépression, les autorités monétaires en firent trop peu parce qu’elles étaient convaincues que leur action serait inefficace. Christina et David Romer (2013a) estiment dans une autre étude que les banques centrales tendent encore aujourd’hui à sous-estimer les bénéfices de leur action et à en surestimer les coûts, ce qui aurait notamment bridé leur réponse face à la Grande Récession. Ainsi, Christina Romer a régulièrement appelé la Fed à adopter des mesures plus agressives et à cibler le PIB nominal (NGDP targeting) afin de stimuler la reprise américaine. Selon elle, la proximité des taux nominaux de leur limite inférieure zéro ne doit pas empêcher la banque centrale d’influencer les anticipations, notamment à travers la pratique du forward guidance

 

Références Martin ANOTA

FRIEDMAN, Milton, & Anna Jacobson SCHWARTZ (1963), A Monetary History of the United States, 1867–1960, Princeton University Press for NBER.

HAUTCOEUR, Pierre-Cyrille (2009), La Crise de 1929, La Découverte, Repères.

ROMER, Christina D., & David H. ROMER (2013a), « The most dangerous idea in Federal Reserve history: Monetary policy doesn’t matter », janvier.

ROMER, Christina D., & David H. ROMER (2013b), « The Missing Transmission Mechanism in the Monetary Explanation of the Great Depression », NBER working paper, n° 18746, janvier.

TEMIN, Peter (1976), Did Monetary Forces Cause the Great Depression?, Norton.

Repost 0

Présentation

  • : D'un champ l'autre
  • D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher