Overblog Suivre ce blog
Administration Créer mon blog
26 janvier 2013 6 26 /01 /janvier /2013 20:18

Plusieurs concepts de production potentielle peuvent être distingués [Gaggl et Janger, 2009]. Le premier se réfère à la croissance tendancielle de long terme, qui correspond à une mesure d’état régulier de la croissance basée sur la croissance tendancielle des facteurs de production, en l’occurrence le travail et le capital, ainsi que sur le progrès technique. Le deuxième est un concept de plus court terme qui se réfère au niveau de production qu’atteindrait l’économie si les prix et salaires n’étaient pas rigides. Dans les modèles nouveaux keynésiens, le lent ajustement des prix et salaires peut mener à un écart entre la production courante et la production potentielle. L’écart de production (output gap) est finalement un indicateur de déséquilibre entre la demande et l’offre au niveau agrégé. Dans cette conception de court terme, la production potentielle est le niveau de production déterminé du côté de l’offre pour lequel il y a stabilité des prix. Si la production courante excède son niveau potentiel, l'économie est sujette à des pressions inflationnistes ; à l’inverse, si l’output gap est négatif, par exemple lors d’une récession, l’économie est susceptible de connaître des tensions déflationnistes. Dans les modèles nouveaux keynésiens, la production à prix flexibles converge à long terme vers la production d’état régulier.

Les principales composantes de la production potentielle sont donc l’offre de travail, le stock de capital et la productivité totale des facteurs. Or, aucune de ces trois composantes n’est totalement insensible à la conjoncture, si bien qu’une récession peut durablement affecter le niveau et le taux de croissance de la production potentielle, ce qui rejette finalement l'idée que les chocs touchant l'économie sont temporaires dans leurs effets. Par conséquent, rien n'assure que la production va retrouver sa trajectoire d'avant-crise. La stabilisation à court terme de l’activité par les pouvoirs publics est donc nécessaire pour préserver la croissance de long terme, notamment parce que celle-ci constitue le principal déterminant assurant la soutenabilité de l’endettement public. En outre, plus la crise réduit la production potentielle, plus l’écart de production sera resserré et donc plus tôt apparaîtront les pressions inflationnistes une fois la reprise de l’activité amorcée. Il est donc crucial de déterminer l’impact de la Grande Récession sur la production potentielle. La théorie suggère plusieurs canaux de transmission [Furceri et Mourougane, 2009 ; Gaggl et Janger, 2009] :

La contribution du capital à la production potentielle se détériore lors des récessions. Les entreprises répondent à la chute de la demande en réduisant volontairement leurs dépenses d’investissement, si bien que la croissance du stock de capital va décélérer. Le niveau de stock de capital sera réduit de manière permanente, même si le taux d’investissement retrouve ensuite son niveau d’avant crise. L’accroissement des contraintes financières accentue le ralentissement du rythme d’accumulation. L’effondrement des profits réduit les possibilités d’autofinancement. Les banques réagissent au ralentissement de l’activité en relevant leurs taux d’intérêt et en rationnant l’offre de crédit. La prime de risque s’accroît également sur les marchés obligatoires. La hausse de l’incertitude réduit donc également les possibilités de financement sur les marchés des capitaux. La chute même des prix d’actifs va également exacerber les contraintes financières en détériorant le bilan des entreprises et donc à nouveau leur capacité d’emprunt, en particulier si les actifs sont utilisés comme collatéraux. La détérioration des conditions financière empêche le lancement de nouveaux projets d’investissement et conduit à une multiplication des défauts des projets en cours. Enfin, la dépréciation du capital existant peut s’accélérer en raison des insolvabilités, de la réallocation sectorielle et de la réduction des surcapacités qui furent accumulées avant l’éclatement de la crise.

Les crises économiques, en réduisant le volume de la production et donc les besoins en main-d’œuvre, entraînent une hausse du taux de chômage. L'effet de la crise sur les taux d'activité est ambigu. D’un côté, la perte des revenus d’un ménage peut encourager ses membres inactifs à rechercher un emploi et ainsi à entrer dans la population active. Parallèlement, les chômeurs voient leur capital humain, c’est-à-dire leurs compétences et leur santé, se détériorer, si bien que leur productivité et par conséquent leur employabilité s’en trouvent réduites. En raison de ces effets d’hystérèse (hysteresis), le taux de chômage structurel est susceptible de régulièrement s’accroître tout au long de la récession [DeLong et Summers, 2012]. Surtout, un taux de chômage élevé peut donc décourager les chômeurs à rechercher un nouvel emploi et les inciter à quitter le marché du travail.

L'effet sur la productivité totale des facteurs est également ambigu. D'un côté, avec la hausse du chômage, moins de travailleurs expérimentent un apprentissage par la pratique (learning by doing). De plus, comme une partie des dépenses d’investissement est destinée à financer l’activité de recherche-développement, leur effondrement détériore la capacité de l’économie à innover et contribue à la chute du taux de progrès technique. D’un autre côté, la crise va assainir les différents secteurs en évinçant les entreprises les moins efficaces et en incitant les entreprises à se restructurer afin de réduire leurs pertes et survivre.

Les études empiriques se sont multipliées pour évaluer les répercussions de la Grande Récession sur la production potentielle. Jane Haltmaier (2012) a cherché à déterminer si la croissance de la production potentielle est affectée par les récessions, que celles-ci soient couplées ou non à une crise financière. Elle analyse la production tendancielle en utilisant les données relatives au PIB et à la population en âge de travail de 40 économies, en l’occurrence 21 pays avancés et de 19 pays émergents. Son échantillon comprend 187 récessions. Haltmaier observe précisément la croissance moyenne deux ans avant le pic d’activité précédant la récession, deux années après celui-ci, puis quatre années après.

Son analyse historique suggère que les ralentissements dans la croissance de la production courante, même s’ils sont temporaires, sont susceptibles d’avoir un impact négatif et permanent sur la production potentielle. Les récessions ont un impact modéré en moyenne, en l’occurrence une perte cumulative d’environ 1,5 point de pourcentage dans le niveau de la production tendancielle quatre ans après le pic de la récession. Toutefois, la profondeur d’une récession contribue à une réduction dans la production potentielle pour les économies avancées, tandis que la durée de la récession s’avère déterminante en ce qui concerne les pays émergents. Par conséquent, les récessions qui sont plus profondes et/ou plus longues que la moyenne peuvent fortement détériorer le niveau de la production tendancielle. De plus, que la récession ait coïncidé ou non avec une crise financière ne semble pas avoir un effet sur la perte cumulative en production tendancielle. Le degré de synchronisation d’une récession dans un pays donnée avec celle dans les autres pays ne semble pas non plus avoir un effet significatif sur la perte cumulative. L’étude de Haltmaier montre également que le principal vecteur du déclin de la production tendancielle est la chute de la contribution du ratio capital sur production.

GRAPHIQUE  Le niveau de la production tendancielle

NewNormal,2

source : Haltmaier (2012)

Haltmaier s’appuie alors sur ces résultats pour évaluer les répercussions de la récente crise mondiale sur la production potentielle des différentes économies. Pour les pays avancés, la Grande Récession a été deux fois plus sévère que la moyenne historique ; la production par tête a en effet chuté d’environ 7,5 %, alors qu’elle a diminué en moyenne de 3,5 % lors des précédents épisodes. La perte cumulative dans la production tendancielle s’élève en moyenne à 3 % pour les pays avancés. Elle avoisine ou dépasse 4 % pour plusieurs pays européens, la Grèce et le Portugal affichant sans surprise les pertes les plus élevées. Dans le cas de l’économie française, la production tendancielle a diminué de plus de 2 %. En revanche, la Grande Récession ne semble pas s’être traduite par une réduction de la production tendancielle pour les pays émergents, puisqu’elle fut relativement plus courte que les précédentes récessions. En fait, la Chine, l’Inde et l’Indonésie n’ont pas connu de récession dans la plus récente période.

Nicholas Oulton et María Sebastiá-Barriel (2013) confirment l'importance des effets d'hystérèse. Ils considèrent de leur côté l’hypothèse selon laquelle la capacité économique a été endommagée de manière permanente par la récente crise financière et par la récession qui s’ensuivit. Si cette hypothèse était vérifiée, alors elle impliquerait que, même si le taux de croissance de la productivité retournait à sa valeur d’avant-crise, le niveau de productivité suivrait définitivement une trajectoire inférieure à celle qu’il aurait suivie en l’absence de crise. Oulton et Sebastiá-Barriel ont constitué un panel de 61 pays pour la période s’étalant de 1955 à 2010. Ils observent alors les répercussions qu’une crise financière peut avoir à court terme sur le taux de croissance de la productivité du travail et à long terme sur le niveau de cette dernière.

Leur principal résultat est qu’une crise bancaire, telle qu’elle est définie par Carmen Reinhart et Kenneth Rogoff (2009), réduit en moyenne de 0,6 à 0,7 % le taux de croissance annuel de la productivité du travail et de 0,84 à 1,1 % son niveau de long terme pour chaque année de crise. L’un des canaux par lesquels une crise bancaire est susceptible d’endommager l’économie est à travers son impact sur le niveau de capital par travailleur. En l’occurrence, les auteurs constatent qu’une crise bancaire réduit en moyenne de 1 % le niveau de long terme du capital par travailleur. En outre, les crises bancaires ont à long terme un impact négatif sur le ratio d’emploi, en raison soit de la hausse du chômage, soit de la baisse du taux d’activité. Il apparaît enfin que l’impact sur le capital par tête est le double que celui sur le PIB par travailleur.

 

Références Martin ANOTA

DELONG, J. Bradford, & Lawrence H. SUMMERS (2012), « Fiscal policy in a depressed economy ».

FURCERI, Davide, & Annabelle MOUROUGANE (2009), « The effect of financial crises on potential output: New empirical evidence from OECD countries », OCDE, department working paper, n° 699, mai 2009.

GAGGL, Paul, & Jürgen JANGER (2009), « Will the Great Recession lead to a lasting impact on potential output in Austria? », in Monetary Policy and the Economy, n° 2009/3, novembre.

HALTMAIER, Jane (2012), « Do recessions affect potential output? », Federal Reserve, international finance discussion paper, n° 1066.

OULTON, Nicholas, & María SEBASTIÁ-BARRIEL (2013), « Long and short-term effects of the financial crisis on labour productivity, capital and output », Banque d'Angleterre, working paper, n° 470, janvier 2013.

REINHART, Carmen M., & Kenneth S. ROGOFF (2009), This Time is Different: Eight Centuries of Financial Folly, Princeton University Press. Traduction française, Cette fois, c’est différent: Huit siècles de folie financière, Pearson.

Repost 0
23 janvier 2013 3 23 /01 /janvier /2013 18:31

Les liens économiques se sont renforcés aussi bien au niveau régional que mondial lors du dernier quart de siècle. Le volume, la direction et la nature des flux commerciaux et financiers internationaux ont connu de fortes évolutions sur cette période. Depuis les années soixante (et ce jusqu’à la Grande Récession), le volume des échanges commerciaux s’est accru à un rythme plus rapide que la production mondiale ; le premier représentant trois fois le dernier. Les échanges intra-régionaux ont joué un rôle toujours plus important au sein du commerce international. Cela reflète le développement de pays émergents comme la Chine et la multiplication des accords commerciaux régionaux. Ensuite, les échanges intra-branche ont significativement contribué à l’essor du commerce international ces deux dernières décennies. La fragmentation des processus de production ont aussi particulièrement alimenté la création de flux commerciaux au niveau mondial. Parallèlement, les flux financiers ont également connu depuis les années quatre-vingt une expansion sans précédent. Si les flux financiers entre les économies avancées ont toujours constitué le principal moteur de l’essor des transactions internationales, les flux se sont également multipliés entre les régions constituées de pays avancées et les régions composées de pays en développement.

Ces développements ont pu affecter les patterns mondiaux et régionaux des cycles conjoncturels. On peut ainsi se demander si les forces de globalisation n’auraient pas accru l’interdépendance des pays et mené à une convergence des cycles d’affaires ; en d’autres termes, avec la plus grande ouverture au commerce international et à la finance internationale, les économies seraient devenues plus sensibles aux chocs externes et ces derniers se répercuteraient plus facilement d’un pays à l’autre, si bien que les performances tendraient à devenir plus similaires. Toutefois, malgré la présence de forts liens commerciaux et financiers au niveau mondial, les performances de croissance ont par exemple varié d’une région à l’autre au cours de la Grande Récession. Certaines régions, en particulier l’Asie, se sont en effet montrées particulièrement résilientes et sont rapidement revenues à leurs taux de croissance antérieurs [Abiad et alii, 2012] ; d’autres, comme l’Amérique du Nord et l’Europe, ont subi de profondes et durables contractions de l’activité. Ces événements pourraient au contraire suggérer un éventuel découplage des pays émergents d’avec les pays avancés, les fluctuations conjoncturelles des premiers n’étant plus alors intimement liées à celles des seconds.

L’impact de l’accroissement des échanges sur le degré de synchronisation des cycles mondiaux et régionaux apparaît ambigu, tant au niveau empirique que théorique. D’un côté, le renforcement des liens internationaux génère des externalités tant du côté de l’offre que de la demande et peut ainsi se traduire par une plus forte corrélation des cycles économiques. D’un autre côté, si le renforcement des liens internationaux passe par une plus forte spécialisation des pays, les nouvelles théories du commerce international suggérent au contraire que celui-ci va conduire à une baisse du degré de synchronisation des cycles conjoncturels. L’impact précis de l’approfondissement de la spécialisation sur le degré de comouvement des cycles d’affaires dépendrait en effet de la nature de la spécialisation et du type de choc. Si le renforcement des liens commerciaux est associé à une plus grande spécialisation intersectorielle et non intra-sectorielle, alors la nature des chocs façonnera l’impact exact du développement du commerce sur les fluctuations économiques. Si le cycle conjoncturel repose avant tout sur les chocs spécifiques aux secteurs, alors le comouvement des cycles économiques va s’affaiblir. En revanche, si les chocs communs sont à la source du cycle d’affaires, alors le degré de comouvement va s’élever.

Les études empiriques tendent à conclure à une plus grande synchronisation des cycles avec le développement commerce international. Les externalités d’offre et de demande domineraient ainsi les effets de spécialisation associés aux flux du commerce intersectoriel. L’intensité du commerce a également un plus large effet sur la corrélation des cycles d’affaires d’un pays à l’autre lorsque les économies présentent de fortes liens de commerce intra-branche et des structures sectorielles similaires. Le comouvement s’accroîtrait également avec les accords commerciaux régionaux. En revanche, les études sont plus nuancées concernant les répercussions des facteurs financiers. L’intégration financière conduirait à de plus fortes corrélations dans la production et la consommation dans les pays avancés, mais cet effet serait plus limité dans les pays en développement.

Hideaki Hirata, Ayhan Kose et Christopher Otrok (2013) ont analysé l’impact du renforcement des liens financiers sur l’évolution des cycles économiques régionaux et mondiaux. Leur modèle leur permet d’évaluer les rôles que jouent respectivement les facteurs spécifiques à l’économie mondiale, aux régions et aux pays dans les cycles conjoncturels à partir d’un échantillon de 106 pays, regroupés en 7 régions, pour la période s’étalant de 1960 à 2010. Ils constatent que, depuis le milieu des années quatre-vingt, les facteurs régionaux sont devenus de plus en plus importants pour expliquer les cycles d’affaires, en particulier dans les régions qui ont connu une forte croissance des flux commerciaux et financiers intra-régionaux. Le degré de synchronisation mondiale des cycles ne semble pas avoir varié ces dernières décennies, si bien que le facteur mondial a vu son importance relative décliner au cours du temps. Au final, la récente phase de mondialisation aurait donc vu émerger de véritables cycles d’affaires régionaux.

 

Références Martin ANOTA

ABIAD, Abdul, John BLUEDORN, Jaime GUAJARDO & Petia TOPALOVA (2012), « The rising resilience of emerging market and developing economies », IMF working paper, n° 300, décembre. Traduction disponible ici.

HIRATA, Hideaki, M. Ayhan KOSE & Christopher OTROK (2013), « Regionalization vs. globalization », Federal Reserve Bank of St Louis, working paper, n° 2, janvier.

KOSE, M. Ayhan, E. S. PRASAD, & M. E. TERRONES (2003), « How does globalization affect the synchronization of business cycles? », n° 27, IMF working paper, n° 27.

Repost 0
20 janvier 2013 7 20 /01 /janvier /2013 17:48

Plusieurs auteurs affiliés à la nouvelle économie keynésienne ont développé ces dernières décennies l’idée que les dynamiques sur les marchés du crédit jouent un rôle central dans les fluctuations conjoncturelles. La détérioration des conditions de crédit ne reflète pas passivement le ralentissement de l’activité économique, mais peut elle-même générer des pressions dépressives. Les travaux pionniers de Fisher, de Keynes et de Minsky mettaient déjà l’accent sur l’importance du crédit et de l’incertitude dans les cycles d’affaires. Les nouveaux keynésiens vont également rejeter l’idée d’une stricte frontière entre sphères réelle et financière, mais en raison de l’existence d’imperfections sur le marché du crédit, notamment l’asymétrie d’information. Les institutions et contrats financiers sont conçus de manière à réduire les coûts d’acquisition d’information et à réduire les problèmes d’aléa moral qui traversent ce marché. Les turbulences sur les marchés du crédit résultent elles-mêmes et sont la source d’une aggravation de l’asymétrie d’information et d’une hausse des coûts d’agence ; ces crises vont précisément avoir de profondes répercussions sur l’économie réelle en accroissant les coûts de financement.

Ces idées ont conduit Ben Bernanke, Mark Gertler et Simon Gilchrist (1999) à mettre en évidence l’existence d’un accélérateur financier (financial accelerator) : les développements endogènes aux marchés du crédit contribuent directement à la propagation et à l’amplification des chocs touchant l’économie. Dans leur modèle, les entrepreneurs ne disposent pas suffisamment de fonds propres pour entreprendre leurs projets d’investissement, donc ils sollicitent un crédit bancaire. Pour juger de leur capacité de remboursement, les banques prennent compte de la valeur nette (net worth) des éventuels emprunteurs, qui correspond au montant de l’ensemble de leurs actifs diminué de l’encours de leur endettement. Les banques vont toutefois aussi devoir prendre en compte la possibilité que les emprunteurs, une fois le prêt accordé, ne le destinent finalement pas au projet initialement annoncé ; elles n’ignorent pas non plus que la rentabilité des entreprises et donc leur capacité de remboursement peuvent se détériorer du fait de chocs défavorables sur l’économie. Elles vont donc se prémunir contre le risque d’un non-remboursement des prêts en exigeant une prime de financement externe (external finance premium), que les auteurs définissent précisément comme la différence entre les coûts de financement externe et le coût d’opportunité du financement interne. Il existe une relation inverse entre la prime de financement externe et la valeur nette des emprunteurs. En effet, moins l’emprunteur a de capitaux à apporter au financement du projet, plus les intérêts de l’emprunteur et du prêteur divergent, plus les coûts d’agence vont être importants. Les prêteurs vont compenser ces coûts d’agence en exigeant une plus grande prime de risque.

La valeur nette des emprunteurs va par conséquent être procyclique, tandis que la prime de financement externe sera contracyclique. Il en résulte une forte volatilité de l’emprunt et par là des dépenses, de l’investissement et de la production au cours du temps. Lors d’une expansion économique, les profits et les prix d’actifs tendent en effet à être à la hausse, si bien que les emprunteurs voient leur valeur nette et donc leur capacité d’endettement s’élever. Puisque la probabilité d’un défaut de remboursement diminue, les banques sont enclines à accorder davantage de prêts et réduisent la prime de risque. Les entreprises financent ainsi davantage de projets d’investissement et relèvent leur niveau de production. Les profits et prix d’actifs poursuivent leur essor et permettent une nouvelle expansion du crédit. En revanche, l’accélérateur financier va générer des processus cumulatifs à la baisse lors des ralentissements de l’activité. Par exemple, lorsque survient un choc défavorable de demande ou de productivité ou bien lorsque la banque centrale resserre sa politique monétaire, l’effondrement des profits et prix d’actifs se traduit par une détérioration de la valeur nette des entreprises. Les banques vont exiger une plus grande prime de risque et réduire les flux de nouveaux prêts, ce qui va déprimer l’investissement, conduire à une nombre de défaillances d’entreprises et finalement aggraver le ralentissement de l’activité. La baisse des prix d’actifs et l’alourdissement du fardeau de l’endettement vont s’alimenter l’une l’autre, selon un enchaînement cumulatif qui n’est pas sans rappeler le mécanisme de déflation par la dette (debt-deflation) mis en avant par Irving Fisher (1933).

Lawrence Christiano, Roberto Motto et Massimo Rostagno (2013) ont intégré le mécanisme d’accélérateur financier développé par Bernanke et alii à un modèle DSGE. Ils vont se pencher sur l’incertitude entourant la réussite des projets d’investissement. Dans leur modélisation, la probabilité d’un succès est une variable aléatoire indépendante de chaque entrepreneur. La réussite du projet n’est pas connue au moment où la banque accorde son prêt. Lorsque la probabilité est réalisée, sa valeur est directement observée par l’entrepreneur, mais elle ne peut être observée par le prêteur que s’il entreprend des dépenses de vérification (monitoring). Les auteurs qualifient de « risque » l’écart-type de la probabilité de succès et celui-ci est lui-même déterminé par un processus stochastique. Plus le risque est important, plus les entrepreneurs auront des chances hétérogènes de succès. Or, le taux d’intérêt sur les prêts d’entreprise inclut une prime pour couvrir les coûts de défaillance des entrepreneurs non chanceux. Cette prime de risque va alors fluctuer avec les variations dans la probabilité de succès, si bien que ces « chocs de risque » (risk shocks) vont avoir de profondes répercussions sur le financement de l’investissement et le reste de l’activité économique. Si le risque s’accroît, la prime de risque va s’élever et les banques vont rationner le crédit. Les entrepreneurs, disposant de moindres ressources financières, réduisent leur investissement. Avec l’effondrement des dépenses, la production, la consommation et l'emploi vont chuter. Les revenus des entrepreneurs diminuent avec le ralentissement de l’activité et ils subissent des pertes en capital, donc leur valeur nette s’effondre également. Tout comme dans l’article original de Bernanke et alii, le choc de risque implique donc une prime de risque du crédit contracyclique.

Christiano et alii étudient les données macroéconomiques relatives aux Etats-Unis pour la période s’étalant entre 1985 et 2010. Ils en concluent que les chocs de risque expliquent 60 % des fluctuations du taux de croissance de la production agrégée et une part importante de d’autres variables macroéconomiques. Autrement dit, les problèmes d’agence expliqueraient une proportion substantielle des fluctuations conjoncturelles observées depuis deux décennies et demie. Les auteurs en concluent que comprendre le caractère contracyclique de la prime de risque de crédit est la clé pour saisir les cycles économiques.

 

Références Martin ANOTA

BERNANKE, Ben, & Mark GERTLER (1989), « Agency costs, net worth, and business fluctuations », in American Economic Review, vol. 79, n° 1, mars.

BERNANKE, Ben, Mark GERTLER & Simon GILCHRIST (1999), « The financial accelerator in a quantitative business cycle framework », in J.B. Taylor et M. Woodford (dir.), Handbook of Macroeconomics, volume 1C, chapitre 21, Amsterdam, Elsevier Science.

CHRISTIANO, Lawrence, Roberto MOTTO & Massimo ROSTAGNO (2013), « Risk shocks », NBER working paper, n° 18682, janvier.

FISHER, Irving (1933), « The Debt-Deflation Theory of Great Depressions », in Econometrica, vol. 1, n° 4, pp. 337-357. Traduction française, « La théorie des grandes dépressions par la dette et la déflation », in Revue française d'économie, vol. 3, n° 3, 1988, pp. 159-182.

Repost 0
publié par Martin Anota - dans Instabilité financière
commenter cet article
15 janvier 2013 2 15 /01 /janvier /2013 19:56

La rapide croissance des émergents asiatiques est l’une des tendances lourdes les plus déterminantes qui aient redessiné l’économie mondiale ces dernières décennies et elle continuera très certainement à marquer les prochaines. Pour reprendre Larry Summers, « la spectaculaire modernisation des économies asiatiques est, avec la Renaissance et la Révolution industrielle, l’un des plus importants développements de l’histoire économique ». Alexander Gerschenkron faisait déjà observer que les pays en retard de développement pouvaient s'industrialiser et atteindre des taux de croissance supérieurs à ceux des pays avancés en mettant un place les politiques économiques appropriées. Ils peuvent importer les innovations des pays avancés au lieu de créer leurs propres nouvelles technologies. Ils peuvent aussi obtenir des gains de productivité en réaffectant les travailleurs sous-employés du secteur agricole vers l’industrie manufacturière tournée vers l’exportation, le secteur même où sont utilisées les technologies importées.

Pourtant, si beaucoup de pays en développement, notamment d’Amérique latine et du Moyen-Orient, ont acquis le statut de pays à revenu intermédiaire depuis les années cinquante, peu d’entre eux ont su poursuivre leur développement pour entrer dans le club des pays à revenu élevé. Beaucoup ont vu en effet leur croissance décélérer et se sont enlisés dans ce que la littérature économique appelle depuis quelques années une « trappe à revenu intermédiaire » ou  « piège du revenu intermédiaire » (middle-income trap). A la fin du vingtième siècle, la Malaisie et la Thaïlande avaient par exemple réussi à rapprocher leurs niveaux de productivité de ceux atteints par les pays avancés. Ils n’ont toutefois pas su modifier leur modèle de production et d’exportation, très intensif en main-d’œuvre. Or la concurrence s’est parallèlement exacerbée dans la région, avec tout d’abord l’essor de producteurs à faibles coûts comme la Chine et l’Inde ou plus récemment le Cambodge et le Vietnam, si bien que la croissance a fortement décéléré en Malaisie et en Thaïlande.

Il est aujourd’hui particulièrement crucial de comprendre pourquoi les pays émergents sont susceptibles de connaître une telle décélération de leur croissance et de dévoiler les facteurs permettant de leur assurer une place auprès des pays à haut revenu. En effet, dans le contexte actuel où les pays avancés font face à une stagnation durable de leur activité, la croissance des pays émergents tire l’essentiel de la croissance mondiale. Un ralentissement significatif de la croissance au Brésil, en Chine ou en Inde aurait de profondes répercussions sur l’économie mondiale. Au sein des pays émergents, la légitimité des gouvernants repose en outre bien souvent sur leur succès à assurer une croissance rapide du PIB. Ces questions prennent une résonance particulière dans le cas de la Chine. Ce pays représente en effet un part importante du monde émergent et même de la population mondiale, or un éventuel ralentissement affecterait profondément le bien-être de ses habitants et contrarierait leur sortie de la pauvreté. Ensuite, la croissance chinoise devient peu à peu une composante clé de la croissance mondiale. La résistance de la croissance chinoise au plus fort de la Grande Récession a bénéficié au reste du monde. Les exportations de biens d’équipement réalisées par l’Allemagne et le Japon dépendent fortement de la demande chinoise, tout comme les exportations de marchandises produites en Afrique et en Amérique latine. L'économie mondiale est aujourd'hui particulièrement vulnérable aux évolutions de l'économie chinoise. 

Barry Eichengreen, Donghyun Park et Kwanho Shin (2011) ont observé les différentes décélérations de croissance qui ont émaillé l’histoire économique depuis 1956. Ils se penchent plus précisément les pays qui ont connu un taux de croissance supérieur à 3,5 % sur au moins sept ans, puis une réduction d’au moins 2 points de pourcentage de leur taux de croissance sur les sept années suivantes. Leur analyse historique montre que le ralentissement de croissance survient typiquement aux alentours de 16700 dollars internationaux constants de 2005. A ce point, la croissance du PIB par tête ralentit de 5,6 à 2,1 % en moyenne, soit une baisse du taux de croissance de 3,5 points de pourcentage. La chute de la croissance de la productivité globale des facteurs explique 85 % de la chute du taux de croissance de la production, équivalente à 3 points de pourcentage. En outre, la probabilité d’une décélération de la croissance atteignait un pic lorsque le secteur manufacturier représente environ 23 % de l’emploi total dans l’économie.

A partir de données supplémentaires, Eichengreen, Park et Shin (2013a) approfondissent leur analyse et identifient finalement deux plages du revenu par tête pour lesquelles la croissance est susceptible de décélérer : la première s’étale entre 10 000 et 11 000 dollars, tandis que la seconde est comprise entre 15 000 et 16 000 dollars. Les pays de leur échantillon subissent effectivement deux décélérations de leur croissance. La croissance des pays à revenu intermédiaire ralentirait donc en plusieurs étapes. Par conséquent, un nombre plus élevé d’économies seraient susceptibles de connaître un (nouveau) ralentissement de leur croissance que ne le suggéreraient les précédents estimations. Cela signifie également que les pays à revenu intermédiaire peuvent connaître une décélération de leur croissance plus tôt au cours de leur développement.

Eichengreen et alii (2013a) constatent également que les ralentissements sont les plus susceptibles de se produire pour les économies ayant des ratios de dépendance élevés, des taux d’investissement élevés qui peuvent se traduire à l’avenir par de faibles rendements et enfin une sous-évaluation du taux de change qui les désinciterait à gravir l’échelle technologique. Les décélérations de la croissance sont en outre moins probables dans les pays où les niveaux d’éducation du secondaire et du supérieur sont élevés et où les produits de haute technologie comptent pour une large part des exportations. Le capital humain de grande qualité et l’innovation réduisent donc la probabilité qu’une économie tombe dans une trappe à revenu intermédiaire.

Ces résultats accréditent l'explication couramment avancée pour expliquer le piège des pays à revenu intermédiaire [Agénor et alii, 2012]. Dans un scénario typique, la réallocation de la main-d’œuvre des secteurs à faible productivité, en particulier l’agriculture, vers les secteurs à forte productivité, notamment l’industrie et les services modernes, s’accompagne d’une hausse importante du revenu par habitant, mais celle-ci se révèle temporaire. La réallocation se trouve amorcée par l’introduction des technologies importées dans les secteurs produisant des produits à faible coût et intensifs en travail. Une fois que le pays atteint un niveau de revenu intermédiaire, les ressources rurales en main-d’œuvre se tarissent et les salaires commencent à fortement s’élever, ce qui érode la compétitivité des produits intensifs en main-d’œuvre sur les marchés internationaux. La croissance de la productivité qui avait été initialement impulsée par la réallocation sectorielle et le rattrapage technologique est finalement épuisée. La croissance économique décélère au moment même où d’autres pays à faible revenu débutent leur industrialisation et s’engagent eux-mêmes dans une phase de croissance rapide.

Eichengreen et alii (2013a, 2013b) soulignent ainsi la nécessité d’abandonner les activités à faible valeur ajoutée pour gravir l’échelle technologique et ainsi éviter la trappe à revenu intermédiaire, mais une telle transition nécessite des travailleurs qualifiés. Un capital humain de grande qualité est nécessaire pour développer les services modernes à haute valeur ajoutée tels que les services aux entreprises. Sur ce point, la Chine semble relativement avantagée. La durée moyenne de scolarité dans le secondaire s’élève en Chine à 3,17 ans, soit un chiffre légèrement supérieur à la moyenne observée dans les différentes économies qui sont tombées dans la trappe à revenu intermédiaire, en l’occurrence 2,72 ans. Toutefois, même les pays émergents qui ont su rapidement améliorer leur niveau d’éducation peuvent souffrir d'une pénurie dans certains types de mains-d’œuvre qualifiées. Le déficit de capital humain explique en partie pourquoi la Malaisie et la Thaïlande sont tombées dans la trappe à revenu intermédiaire. A l’opposé, l'expansion rapide des enseignements secondaire et supérieur en Corée du Sud explique en partie pourquoi celle-ci a su grimper au niveau des pays à revenu élevé. La Chine ne pourra elle-même éviter la trappe des revenus intermédiaires qu’en développant un système d’éducation produisant les travailleurs qualifiés dont nécessitent précisément les employeurs.

De leur côté, Pierre-Richard Agénor, Otaviano Canuto et Michael Jelenic (2012) soulignent également l’importance que revêt pour la croissance de la productivité l’accès aux différents types d’infrastructures, en particulier les réseaux de communication à haut débit. Le développement des infrastructures d’informations et de communication permet d’attirer davantage de travailleurs qualifiés dans le secteur de la conception, améliore la productivité et les salaires dans ce secteur, mais aussi accroît la capacité du pays à innover. Elles facilitent en effet la circulation à moindre coûts des connaissances d’un pays à l’autre et en leur sein. En outre, elles réduisent les coûts de transactions du commerce international et de l’investissement étranger.

Les pays émergents, en premier lieu la Chine, ne sont pas condamnés à voir leur croissance décélérer. Echapper à la trappe au revenu intermédiaire leur demande toutefois de faire de l’innovation le principal moteur pour la croissance de la productivité en lieu et place de l’imitation. Les autorités publiques pourraient faciliter ce déplacement vers la frontière technologique à travers une multitude de mesures, notamment le déploiement d’infrastructures de pointe ; mais surtout, cette réorientation du modèle de croissance exige des politiques d’éducation plus ingénieuses pour générer le stock nécessaire de capital humain.

 

Références Martin ANOTA

AGÉNOR, Pierre-Richard, & Otaviano CANUTO (2012), « Middle-Income Growth Traps », World Bank policy research working paper, n° 6210.

AGÉNOR, Pierre-Richard, Otaviano CANUTO & Michael JELENIC (2012), « Avoiding middle-income growth traps », VoxEU.org, 21 December. Traduction disponible en ligne.

EICHENGREEN, Barry, Donghyun PARK, and Kwanho SHIN (2011), « When fast growing economies slow down: International evidence and implications for China », NBER working paper, n° 16919, mars.

EICHENGREEN, Barry, Donghyun PARK, and Kwanho SHIN (2013a), « Growth slowdowns redux: New evidence on the middle-income trap », NBER working paper, n° 18673, janvier.

EICHENGREEN, Barry, Donghyun PARK, and Kwanho SHIN (2013b), « Growth slowdowns redux: Avoiding the middle-income trap », in VoxEU.org, 11 janvier.

HAUSMANN, Ricardo, Lant PRITCHETT & Dani RODRIK (2005), « Growth accelerations », in Journal of Economic Growth, Springer, vol. 10, n° 4, décembre.

Repost 0
11 janvier 2013 5 11 /01 /janvier /2013 17:33

Les Etats-Unis sont sortis de la récession en 2009 et, pourtant, la reprise de l’emploi apparaît toujours particulièrement fragile. Le rebond de l’emploi avait aussi particulièrement déçu suite aux récessions qui s’étaient produites au début des années quatre-vingt-dix et au début des années deux mille, si bien que l’on a pu qualifier ces trois épisodes de « reprises sans emplois » (jobless recoveries). Les études se sont multipliées pour tenter d’en comprendre les fondements et surtout de déterminer si les reprises sans emplois constituent désormais un aspect structurel des cycles d’affaires aux Etats-Unis. Pour certains, la faible création s’explique tout simplement par la faiblesse de l’activité économique. Ils mettent notamment en avant la persistance d’un important écart de production (output gap) : puisque l’économie fonctionne encore loin de son potentiel, sa capacité à créer des emplois s’avère forcément réduite. Pour d’autres, le maintien du chômage à des niveaux élevés trouve sa source dans des facteurs plus structurels, notamment sur une inadéquation (mismatch) entre les (qualifications des) travailleurs et les (qualifications des) emplois.

Ce débat sur les causes de la faible création d’emplois s’avère déterminant pour concevoir la réponse la plus appropriée des autorités publiques. Les deux thèses n’impliquent pas les mêmes remèdes. Pour les partisans du premier point de vue, l’assouplissement de la politique monétaire et la relance budgétaire sont nécessaires pour stimuler la production et ainsi réduire le chômage. Les tenants de la seconde thèse estiment au contraire qu’une stimulation de la demande globale se révélerait peu efficace et plaident pour la mise en œuvre de politiques de l’emploi plus spécifiques telles que la formation à l’emploi.

Laurence Ball, Daniel Leigh et Prakash Loungani (2013a, 2013b) reviennent sur la loi d’Okun et évaluent, comme plusieurs auteurs ces derniers mois, si l’actuelle reprise démontre qu'elle n'est plus effective. Leur propos est finalement de déterminer si la reprise actuelle s’avère exceptionnelle au regard des précédentes sorties de crises. Les auteurs supposent qu’il existe des trajectoires de long terme pour la production, l’emploi et le chômage. Ils utilisent le terme de « production potentielle » (potential ouput) pour la production de long terme et celui de « taux naturel » (natural rate) pour l’emploi de long terme. La production potentielle est déterminée par la capacité productive de l’économie et elle croît au cours du temps avec l’accumulation des facteurs et le progrès technique. Les déplacements de la demande globale poussent le la production à fluctuer autour de son potentiel. Ces fluctuations de la production poussent les entreprises à engager et licencier des travailleurs, ce qui impacte le taux de chômage. Ball et alii réécrivent alors la loi d’Okun ainsi :

Ut – Ut* = β (Yt – Yt*) + εt

avec Ut – Ut* représentant l’écart de chômage (soit l’écart entre le taux effectif du chômage et son taux naturel) et Yt – Yt* l’écart de production (ou plus exactement l’écart entre le logarithme de la production effective et le logarithme de la production potentielle). Ball et alii se penchent sur la période s’étalant entre 1962 et 2011 et estiment que le coefficient d’Okun (β) s’élève à environ -0,4 sur cette période. Leur spécification est suffisamment bonne, puisqu’aucune année ne constitue une anomalie en termes de niveau de chômage (cf. graphique 1). En outre, une relation linéaire suffit pour adapter la loi d’Okun aux données. En effet, lorsque les auteurs estiment des coefficients distincts selon que les écarts de production sont positifs ou négatifs, les coefficients estimés s’élèvent à -0,37 pour les écarts de production positifs et à -0,39 pour les écarts de production négatifs. Enfin, alors que de précédentes études avaient suggéré que la loi d’Okun variait au cours du temps, les auteurs estiment que leur coefficient constant est statistiquement robuste.

GRAPHIQUE 1  Loi d'Okun estimée pour les Etats-Unis (1948-2011)

ballokun-11.jpg

source : Ball et alii (2013,b)

Ball et alii peuvent alors observer si la reprise actuelle constitue une anomalie historique. Comme nous l’avons déjà dit, graphiquement, aucune année n’apparaît particulièrement exceptionnelle. Suite à la Grande Récession, le taux de croissance de la production est revenu à sa valeur normale, si bien que la trajectoire effective de la production est quasiment parallèle à la trajectoire potentielle, permettant au niveau de production de dépasser en 2011 son pic d’avant-crise (cf. graphique 2). Un large écart de production subsiste or, dans de telles circonstances, la loi d’Okun implique que l’emploi et le chômage sont particulièrement éloignés de leurs niveaux de long terme. Entre 2009 et 2011, l’écart de production s’éleva à -10,8 % et l’écart entre le taux de chômage et sa valeur de long terme avoisinait 4,4 points de pourcentage. Le ratio de ces deux écarts, s’élevant à -0,41, est proche de l’estimation du coefficient d’Okun à laquelle aboutissent les trois auteurs.

GRAPHIQUE 2  Le logarithme du PIB réel américain

ballokun-2.jpg

source : Ball et alii (2013a)

Au cours des diverses récessions que connurent les Etats-Unis avant les années quatre-vingt-dix, la production connut un vif rebond après avoir atteint son creux et retrouva très rapidement sa trajectoire d’avant-crise, si bien que la création d’emplois put être particulièrement forte et que le chômage retourna également à son niveau antérieur. Aujourd’hui, tout comme cela fut le cas au début des années quatre-vingt-dix et au début des années deux mille, la lenteur de la reprise économique signifie qu’un large écart de production subsiste, donc la création d’emplois est elle-même logiquement faible. En d’autres termes, les reprises que connurent les Etats-Unis depuis les années quatre-vingt-dix ne sont exceptionnelles que par leur faible taux de croissance économique. Les « reprises sans emplois » sont un mythe.

Ball et alii estiment également la loi d’Okun pour vingt pays avancés depuis 1980. Une relation stable apparaît dans la majorité des pays. Le coefficient de la relation varie d’un pays à l’autre. Sur la  période observée, le coefficient s’élève par exemple à -0,45 pour les Etats-Unis et à -0,37 pour l’Allemagne et la France. En d’autres termes, une hausse de 1 % du PIB en France devrait se traduire par une baisse du taux de chômage de 0,37 point de pourcentage. Dans les pays où le taux de chômage est en moyenne le plus élevé, il est aussi relativement plus sensible aux évolutions de la production. La variation du coefficient d’Okun d’un pays à l’autre reflète certainement les caractéristiques propres à chaque marché du travail national. Parmi l’échantillon, le plus fort coefficient est celui de l’Espagne, où il atteint la valeur de -0,85, et il peut s’expliquer par l’importance du recours aux contrats temporaires. Le faible coefficient du Japon (-0,15) peut quant à lui trouver une explication dans la tradition des emplois à vie. En théorie, une plus grande protection de l’emploi doit atténuer l’impact des mouvements de production sur l’emploi et ainsi réduire le coefficient d’Okun. En se basant sur l’indice de législation de protection de l’emploi (LPE) développé par l’OCDE, les auteurs ne parviennent toutefois pas à faire émerger une relation entre le coefficient d’Okun et le degré de protection. 

 

Références Martin ANOTA

BALL, Laurence M., Daniel LEIGH, & Prakash LOUNGANI (2013a), « Okun's law: Fit at fifty? », NBER working paper, n° 18668, janvier.

BALL, Laurence M., Daniel LEIGH, & Prakash LOUNGANI (2013b), « The myth of 'jobless recoveries' », in Econbrowser (blog), 9 janvier.

KNOTEK, Edward S. (2007), « How useful Is Okun’s law? », Federal Reserve Bank of Kansas City, Economic Review, quatrième trimestre.

Repost 0
6 janvier 2013 7 06 /01 /janvier /2013 21:23

En 2008, les banques centrales ont réagi (à une exception près…) à l’aggravation des turbulences sur les marchés financiers et interbancaires en diminuant leurs taux directeurs, mais ces dernier se sont très rapidement rapprochés de leur limite inférieure zéro (zero lower bound), voire ont fini par l’atteindre. Or, la gravité de la récession fut telle qu’une règle de Taylor traditionnelle aurait impliqué que les autorités monétaires fixent un taux négatif. Dans cette situation de trappe à liquidité (liquidity trap), les banques centrales se sont alors résolues à adopter des mesures « non conventionnelles » pour contenir l’instabilité financière et stimuler l’activité économique. La Réserve Fédérale, sous la présidence de Ben Bernanke, a notamment procédé à des achats de titres de long terme tout en vendant simultanément des titres de court terme afin de diminuer les taux d’intérêt à long terme : c'est l'opération Twist. La banque centrale américaine a parallèlement adopté la pratique du forward guidance, à travers laquelle elle espère influencer les anticipations des marchés.

Les théories macroéconomiques contemporaines, auxquelles Ben Bernanke lui-même a contribué, considèrent en effet que les anticipations des agents (notamment en ce qui concerne l’orientation future de la politique monétaire) se révèlent déterminantes pour façonner l’impact des décisions des autorités monétaires sur l’économie. En particulier, selon Michael Woodford, la demande globale ne dépend pas seulement des taux d'intérêt courants de court terme, mais aussi des taux anticipés de long terme, qui dépendent quant à eux des taux anticipés de court terme. Même lorsque le taux directeur est contraint par son niveau plancher et que l’on peut s’attendre à ce qu’il le sera encore sur plusieurs trimestres,  les agents ne réagiront pas de la même manière à l’annonce de sa fixation à un niveau donné selon les anticipations qu’ils auront formulé concernant les prochaines mesures des autorités monétaires. Dans une situation de trappe à liquidité, ces anticipations vont même davantage importer qu’en temps normal. Si les agents anticipent que le taux d’intérêt nominal restera inchangé sur un certain nombre de trimestres, alors les anticipations relatives aux conditions économiques qui prévaudront après cette période auront un effet particulièrement large sur l’économie courante. Par conséquent, la politique monétaire peut gagner en efficacité si les banquiers centraux informent les marchés des mesures qu’ils prendront à l’avenir, bien au-delà de la prochaine réunion des gouverneurs. La pratique du forward guidance correspond précisément à l’envoi de signaux aux marchés pour les informer de la probable trajectoire que le taux directeur suivra dans le futur.

L'analyse de la décennie perdue au Japon réalisée par Paul Krugman (1999) et l'étude de Gauti Eggertsson et Michael Woodford (2003) ont suggéré qu’un banquier central confronté à une trappe à liquidité peut stimuler la demande agrégée dans la période courante en promettant de manière crédible de garder le taux directeur à zéro plus longtemps que ne le requerront à l'avenir les conditions économiques et en générant ainsi un boom de l’activité dans une période ultérieure. Selon les modèles de la nouvelle économie keynésienne, si les agents anticipent une hausse du revenu réel et du niveau général des prix dans une période future, ils seront incités à accroître dès à présent leurs dépenses réelles, ce qui devrait en outre immédiatement se traduire par des tensions inflationnistes. Si la banque centrale a pour objectif de cibler un taux d’inflation, alors les taux d’intérêt à court terme tendront à augmenter, ce qui contiendra l'accroissement des dépenses et freinera la hausse des prix. En revanche, si les taux d’intérêt nominaux restent inchangés, la hausse des dépenses sera plus élevée, ce qui, lors d’une récession, permettrait aux autorités monétaires de stimuler l’activité économique.

Dans ce contexte, le forward guidance se révèle important pour au moins deux raisons [Woodford, 2012]. D’une part, il est possible que le public ne discerne pas distinctement les intentions de la banque centrale. Cette incertitude s’avère particulièrement problématique si la borne inférieure zéro oblige la banque centrale à maintenir sa politique monétaire davantage resserrée qu’elle ne l’aurait souhaité et si elle désire convaincre les agents que la politique monétaire sera davantage assouplie que ne l’exigent les conditions économiques une fois que le niveau plancher cessera d’être une contrainte. Si la banque centrale clarifie ses propos et promet une politique plus assouplie plus tard, alors le niveau excessivement élevé des taux réels dans la période courante sera moins nuisible pour l’activité à court terme. D’autre part, le forward guidance oblige les autorités monétaires à davantage tenir leur engagement, ce qui améliore leur crédibilité et ancre encore plus efficacement les anticipations.

Dès la fin des années quatre-vingt, les banques centrales des économies avancées ont cherché à être plus transparentes. La banque centrale de Nouvelle-Zélande avait été la première à adopter le ciblage d’inflation ; poussant plus loin la logique de la transparence, elle fut également la première à adopter le forward guidance : en 1997, elle annonce en effet une trajectoire pour le taux interbancaire à 3 mois. Convaincues par les travaux qui se sont développé autour du concept de forward guidance, la Banque centrale de Norvège, la Banque royale de Suède et la Banque nationale tchèque embrassent respectivement celui-ci en 2005, en 2007 et en 2008. De son côté, la Fed a implicitement adopté cette pratique entre août 2003 et décembre 2005. Elle l’adopte à nouveau implicitement trois ans plus tard, avant de l’utiliser plus explicitement à partir d’août 2011. La déclaration prononcée par Ben Bernanke le 13 septembre 2012, selon laquelle la Fed ne relèvera pas ses taux avant l’année 2015, entre précisément dans cette stratégie d’ancrage des anticipations.

Cependant, même parmi les nouveaux keynésiens, tous les auteurs ne partagent pas l’idée que la pratique du forward guidance, voire même l’accroissement de la transparence, améliorent l’efficacité de la politique monétaire [Kool et Thornton, 2012]. Certains suggèrent notamment qu’elle pourrait perturber les marchés financiers si les agents économiques accordaient trop confiance dans la trajectoire de taux annoncée par la banque centrale et ne tenaient pas compte des autres informations qui se révèleront pertinentes pour les prochaines fixations du taux directeur. Les participants aux marchés seraient notamment susceptibles d’adopter un comportement grégaire et de réagir excessivement aux annonces des autorités monétaires. Une plus grande transparence pourrait fortement éloignée les anticipations des fondamentaux et finalement alimenter la formation de bulles sur les marchés d’actifs. De plus, pour être efficace, le forward guidance exige de la banque centrale qu’elle maintienne son taux directeur au niveau précédemment annoncé, et ce même si les conditions économiques ont entre-temps suffisamment changé pour justifier un ajustement du taux directeur. Une banque centrale pratiquant le forward guidance risque donc de ne pas modifier ses taux aussi rapidement qu’elle ne le devrait en réaction aux nouvelles informations. Un tel ajustement porterait atteinte à sa crédibilité, or celle-ci est justement essentielle à l’efficacité du forward guidance. Enfin, une telle stratégie pose un douloureux problème pratique dans sa mise en oeuvre : elle nécessite un consensus de la part des gouverneurs concernant la trajectoire future du taux directeur, or il n’est déjà pas évident d’en obtenir lors d’une réunion.

Clemens Kool et Daniel Thornton (2012) ont récemment évalué l’efficacité du forward guidance pour quatre banques centrales l’ayant adopté, en l’occurrence celles des Etats-Unis, de la Norvège, de la Nouvelle-Zélande et de la Suède. Ils observent si la pratique du forward guidance améliore la capacité des participants au marché à prévoir les futurs taux de court et long termes. Ils constatent que le forward guidance n’améliore la capacité des participants au marché à prévoir les taux courts que pour des horizons de prévisions relativement courts, mais seulement en Norvège et en Suède. L’analyse empirique ne montre par contre aucune amélioration de la prédictibilité des taux à long terme. Surtout, rien ne démontre que le forward guidance ait accru l’efficacité de la politique monétaire de la Nouvelle-Zélande, le premier pays à l’avoir adopté et par qui l'ait experimenté le plus longtemps. En raison des modestes améliorations dans la capacité de prévision des agents, Kool et Thornton en concluent que le forward guidance pourrait difficilement accroître la capacité des banques centrales à contrôler les rendements à long terme.

 

Références Martin ANOTA

EGGERTSSON, Gauti B., & Michael WOODFORD (2003), « The zero bound on interest rates and optimal monetary policy », in Brookings Papers on Economic Activity, n° 2003/1.

KOOL, Clemens J.M., & Daniel L. THORNTON (2012), « How effective is central bank forward guidance?  », Federal Reserve Bank of St. Louis, working Paper, n° 63, décembre.

KRUGMAN, Paul R. (1999), « It’s baaack: Japan’s slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, n° 1999/2.

WERNING, Iván (2012), « Managing a liquidity trap: Monetary and fiscal policy », Massachusetts Institute of Technology, working paper.

WOODFORD, Michael (1999), « Optimal monetary policy inertia », The Manchester School, n° 67.

WOODFORD, Michael (2008), « Forward guidance for monetary policy: Is it still possible? », in VoxEU.org, 17 janvier.

WOODFORD, Michael (2012), « Methods of policy accommodation at the interest rate lower bound », in The Changing Policy Landscape. Symposium organisé par la Federal Reserve Bank of Kansas City, Jackson Hole, Wyoming, août.

Repost 0
publié par Martin Anota - dans Politique monétaire
commenter cet article
3 janvier 2013 4 03 /01 /janvier /2013 19:47

Les brevets stimulent-ils l’innovation ? Cette question travaille depuis longtemps les économistes. Le brevet est un titre garantissant à son titulaire un droit d'exploitation exclusif (mais temporaire) sur une invention. Le titulaire se voit ainsi conférer un avantage concurrentiel susceptible de le placer temporairement en situation de monopole. Les brevets répondent à la nécessité de protéger les inventeurs en leur assurant un retour sur investissement par rapport aux dépenses de recherche-développement qu’ils ont initialement engagées. Si les brevets risquent de réduire le bien-être collectif à court terme en restreignant la concurrence, ils sont toutefois supposés inciter les entreprises à innover et ainsi accélérer la croissance économique à plus long terme. Ils constituent donc a priori un compromis entre les avantages sociaux tirés des plus fortes incitations à innover et les pertes en bien-être que subissent les consommateurs en raison des prix de monopole.

Toutefois, fournir des brevets particulièrement contraignants aux premières générations d’inventeurs peut réduire les incitations à innover chez les générations suivantes d’inventeurs. Au final, il est difficile de prévoir quels seront les effets nets d’un renforcement du système de brevets sur l’innovation. Les répercussions seront en outre particulièrement nuisibles si les contours de la propriété intellectuelle sont mal définis, puisque les générations futures d’inventeurs feront alors face à un risque accru de contentieux juridiques. A ce titre, les guerres des brevets qui sont actuellement à l’œuvre sur les marchés du smartphones et des tablettes numériques ne sont que l’épisode le plus récent des nombreux conflits plus ou moins médiatisés qui ponctuent depuis plus d’un siècle l’histoire économique.

Les inventeurs vont avoir tendance à surprotéger une nouvelle technologie par un ensemble de brevets enchevêtrés, un « maquis de brevets » (patent thicket). D’une part, la profusion de brevets qui en résulte peut en fait dissimuler de maigres avancées technologiques, si bien que le nombre de dépôts de brevets finit davantage par mesurer l’ampleur des comportements de recherche de rente (rent-seeking), que par constituer un indicateur fiable des efforts d’innovation qui sont fournis dans une économie. D’autre part, la pratique du maquis de brevets complique davantage l’accès au marché pour les nouveaux entrants. Ces derniers devront verser un supplément de redevances d’utilisation et multiplier les négociations pour utiliser la technologie brevetée, en particulier si les brevets sont détenus par différents propriétaires. L’utilisation stratégique des brevets par les opérateurs historiques comme moyen privilégié pour sauvegarder leurs profits est alors susceptible de bloquer les efforts d’innovation de la part des autres entreprises, qu’il s’agisse de potentielles concurrentes ou de simples « clientes » en aval désirant utiliser la technologie brevetée comme « intrant » pour lancer leur propre innovation sur d’autres marchés [Shapiro, 2001 ; Boldrin et Levine, 2012]. Des secteurs entiers sont ainsi susceptibles de subir une « tragédie des anticommuns » (tragedy of the anticommons) : une ressource (en l’occurrence ici une technologie) risque d’être sous-exploitée si elle fait l’objet de multiples revendications de droits de propriété [Guellec et alii, 2010]. Loin de stimuler la croissance à long terme, un éventuel renforcement des droits de propriété intellectuelle pourrait au contraire tarir la diffusion des connaissances et réduire en définitive le potentiel de croissance de l’économie.

Petra Moser (2012) élargit la focale et explore l’histoire économique pour déterminer quel système de droits de propriété intellectuel s’avère optimal pour encourager l’innovation. Elle observe tout d’abord si l’existence d’un système développé de brevets est parvenue, au cours de l’histoire, à stimuler l’innovation. Son analyse suggère que, dans les pays disposant d’un système de brevets, la majorité des innovations est générée en dehors de ce dernier. Elle conforte ainsi l’idée selon laquelle les brevets n’ont joué qu’un rôle mineur au cours de la Révolution industrielle en Grande-Bretagne. En effet, seule une petite part des innovations furent alors brevetées. Les facteurs culturels aussi bien que les systèmes collectifs d’invention sans brevets se sont révélés bien plus importants pour encourager le développement technologique et la croissance économique au cours du dix-neuvième siècle.

L’auteure constate également que les pays dénués de système de brevets produisent autant d’innovations que les pays disposant de droits de brevets et leurs innovations sont en outre d’une qualité similaire. Même en présence d’un système développé de protection de la propriété intellectuelle, les entreprises préfèrent s’appuyer, s’ils en ont la possibilité, sur des mécanismes alternatifs aux brevets pour protéger leurs innovations. Le secret se révèle en l’occurrence un moyen privilégié pour protéger la propriété intellectuelle, mais son efficacité varie dans le temps et d’un secteur à l’autre en fonction des caractéristiques propres à l’innovation. Les avancées en matière d’analyse scientifique ont accru l’usage des brevets en rendant le secret moins efficace.

Moser tire de son analyse historique quelques enseignements concernant l’impact du droit des brevets sur le processus d’innovation. Puisqu’une part importante des innovations émerge en dehors du système des brevets, les politiques publiques consistant à renforcer le droit des brevets peuvent échouer à stimuler l’innovation. Pire, si la protection de la propriété intellectuelle favorise excessivement la première génération d’inventeurs, alors les efforts d’innovation déclinent dans l’économie. En revanche, si elle incite les inventeurs à rendre publiques les informations techniques, alors le renforcement du système des brevets peut effectivement accélérer la diffusion des connaissances et stimuler ainsi le processus d’innovation.

L’histoire permet également à Moser d'évaluer l'efficacité des solutions aux problèmes posés par les brevets. Par exemple, les communautés de brevets (patent pools) permettent aux entreprises concurrentes de combiner leurs brevets, ce qui permet de désamorcer les litiges qui sont susceptibles d’apparaître lorsque plusieurs entreprises détiennent des brevets pour une même technologie. La licence obligatoire est un second mécanisme alternatif étudié par Moser. Elle permet aux concurrents d’utiliser ou de produire une invention brevetée, certes en rémunérant les détenteurs du brevet, mais sans pour autant avoir à obtenir leur consentement. Non seulement davantage d’entreprises peuvent alors utiliser et produire ladite technologie, mais l’intensification de la concurrence est susceptible d’en générer des versions plus performantes, si bien que le processus d’innovation s’en trouve encouragé tant en amont qu’en aval.

 

Références Martin ANOTA

BOLDRIN, Michele, & David K. LEVINE (2012), « The Case Against Patents », Federal Reserve Bank of St Louis, working paper, septembre.

GUELLEC, Dominique, Thierry MADIES & Jean-Claude PRAGER (2010), « Les marchés de brevets dans l’économie de la connaissance », rapport du CAE, n° 94, 19 novembre.

MOSER, Petra (2012), « Patent laws and innovation: Evidence from economic history », NBER Working Paper, n° 18631, décembre.

SHAPIRO, Carl (2001), « Navigating the patent thicket: Cross licenses, patent pools, and standard setting », in A. Jaffe, J. Lerner, and S. Stern (dir), Innovation Policy and the Economy, MIT Press.

Repost 0
29 décembre 2012 6 29 /12 /décembre /2012 18:50

Depuis les travaux précurseurs de Paul Samuelson et d’Eugene Fama dans les années soixante, l’hypothèse des marchés efficients (efficient-market hypothesis) fonde l’essentiel des travaux orthodoxes qui se penchent sur le rôle des marchés financiers dans l’allocation des risques. Un marché financier est qualifié d’efficient au sens de Fama (1970) si le prix des titres reflète toute l’information disponible. Lorsqu’une nouvelle information sort, elle se répand quasi instantanément parmi les participants au marché et est très rapidement incorporée dans le cours des titres. Or, les nouvelles sont par définition imprévisibles, donc les changements de prix sont eux-mêmes imprévisibles. Ni l’analyse technique (c’est-à-dire l’étude des valeurs boursières passées de manière à en déduire leur évolution future), ni l’analyse fondamentale (c’est-à-dire l’analyse de l’information financière pour aider les investisseurs à sélectionner les actions sous-évaluées) ne permettent à un investisseur d’atteindre des rendements plus élevés que ceux qu’il aurait obtenus en détenant un portefeuille de risque comparable qui serait composé d’actions sélectionnées de manière aléatoire.

Bien qu’elle vise avant tout à démontrer l’impossibilité de battre les marchés financiers, l’hypothèse des marchés efficients a une seconde implication qui découle du premier théorème de la théorie de l’équilibre général : des marchés financiers parfaitement concurrentiels, complets et efficients assurent des allocations paréto-optimales. Ils  permettent à l’économie d’allouer ses ressources vers leur meilleur usage en tout point du temps, notamment en transférant le plus efficacement possible les capitaux vers l’investissement productif. L’efficience, en promouvant la stabilité financière, serait finalement une condition à la stabilité macroéconomique. Les actifs financiers ne peuvent être sous-évalués ou sur-évalués, donc la formation et l’éclatement de bulles est impossible. Par conséquent, l’hypothèse des marchés efficients a offert une justification théorique au mouvement de dérégulation financière opéré à partir des années quatre-vingt.

Les économistes ont très rapidement observé que les cours boursiers sont bien trop volatiles pour être expliqués par des équations de prix d’actifs supposant des marchés efficients. La récurrence de crises financières contredit l’idée de marchés financiers tendant naturellement vers la stabilité et l’équilibre. Certains auteurs ont introduit des frictions financières dans leur modélisation pour expliquer cette volatilité excessive. Les modèles d’accélérateur financier développés par Ben Bernanke et Mark Gertler introduisent des problèmes d’asymétrie informationnelle. D’autres auteurs délaissent l’hypothèse de rationalité des agents pour faire apparaître des bulles. Nobuhiro Kiyotaki et John Moore (1997) ont de leur côté généré un nouveau courant de littérature en développant un modèle où les contraintes de crédit sont susceptibles de générer d’importants problèmes d’illiquidité. La Grande Récession a renouvelé l’intérêt de la modélisation de l’instabilité financière, mais ni les nouveaux keynésiens, ni les tenants d’une approche encore plus orthodoxe de la théorie néoclassique n’ont réussi, de leur aveu même, à délivrer un modèle capable de reproduire les plus graves crises financières.

Pour Roger E.A. Farmer, Carine Nourry et Alain Venditti (2012), il n’est pas nécessaire d’abandonner le cadre d’équilibre général, ni même d’introduire des frictions, pour démontrer que l’hypothèse de marchés efficients n’est pas valide. En d’autres termes, des marchés financiers qui seraient pleinement dérégulés ne pourront pas conduire à une situation Pareto-efficiente. Les auteurs reprennent le modèle intertemporel Arrow-Debreu, mais en y ajoutant deux modifications, non seulement mineures, mais aussi parfaitement réalistes : ils supposent que les agents ont une durée de vie limitée et que leurs taux d’actualisation sont hétérogènes. L’incapacité des marchés financiers à allouer efficacement les ressources ne tient pas à la présence de contraintes financières, de coûts financiers ou d’autres formes de barrières l’échange. Le premier théorème du bien-être échoue tout simplement car les agents ne peuvent participer à la répartition des risques avant leur naissance. Les marchés financiers ne peuvent alors être efficients au sens de Pareto, sauf par chance. Les agents ont beau être rationnels, dans le sens mainstream du terme, les marchés financiers ne le sont aucunement. Les prix d’actifs vont alors naturellement tendre vers des valeurs excessivement élevées et seront susceptibles de se retourner à tout moment, en entraînant une baisse permanente de la consommation et une hausse durable du chômage. L’échec dans l’allocation des ressources sur les marchés financiers permet ainsi à Farmer (2012) de justifier l’intervention de la banque centrale pour stabiliser les prix d’actifs et accroître le bien-être collectif.

La réfutation de l’hypothèse d’efficience dans le cadre même de la théorie néoclassique laisse ainsi suggérer que la régulation des marchés financiers reste essentielle pour assurer leur stabilité et plus largement la stabilité macroéconomique. Elle appelle également au développement de nouveaux paradigmes pour renouveler la théorie financière et offrir des modèles pertinents aux régulateurs. La finance comportementale, l’approche fractale des marchés ou bien encore la théorie du chaos offrent quelques pistes possibles. Les textes mêmes de Keynes recèlent de multiples intuitions que les nouveaux keynésiens n’ont pas encore exploitées. Pour ma part, je privilégierais l’hypothèse d’instabilité financière d'Hyman Minsky : toute analyse des marchés financiers doit partir de l’idée qu’ils tendent naturellement à accumuler des déséquilibres. Alors, les institutions de régulation et de supervision sont effectivement nécessaires pour contenir cette montée de l'instabilité.

 

Références Martin ANOTA

DAVIES, Howard (2012), « Economics in denial », in Project Syndicate, 22 août. Traduction française, L'économie dans le déni »

FAMA, E. F. (1970), « Efficient capital markets: A review of theory and empirical work », in Journal of Finance, vol. 25, n° 2.

FARMER, Roger E. A. (2012), « Qualitative easing: How it works and why it matters », CEPR discussion paper, n°  9153.

FARMER, Roger E.A., Carine NOURRY & Alain VENDITTI (2012), « The inefficient markets hypothesis: Why financial markets do not work well in the real world », NBER working paper, n° 18647, décembre.

KIYOTAKI, Nobuhiro, & John MOORE (1997), « Credit cycles », in Journal of Political Economy, vol. 105, n° 3.

Repost 0
publié par Martin Anota - dans Instabilité financière
commenter cet article
26 décembre 2012 3 26 /12 /décembre /2012 22:24

Au plus fort de la Grande Récession, en 2008 et 2009, les échanges commerciaux se sont contractés plus amplement que la production mondiale : en termes réels, cette dernière a diminué de 0,7 % en 2009, tandis que les flux commerciaux chutèrent de 11 % [Bussière et alii, 2012]. Ce « Grand Effondrement du Commerce » (Great Trade Collapse), pour reprendre les termes de Richard Baldwin (2009), n’est pas seulement l’un des symptômes les plus frappants de la violence de la Grande Récession, mais il constitue aussi l’un des événements les plus singuliers qui aient bouleversé le commerce international depuis de nombreuses décennies. Les analyses empiriques et théoriques se sont multipliées pour tenter de comprendre la surréaction des échanges commerciaux à la diminution de la production mondiale.

Rudolfs Bems, Robert C. Johnson et Kei-Mu Yi (2012) ont tiré quatre faits stylisés de cette récente littérature. Premièrement, la chute des échanges internationaux fut particulièrement « sévère, soudaine et synchrone » [Baldwin, 2009] lors de la Grande Récession. Depuis la Seconde Guerre mondiale, le commerce mondial avait connu trois contractions, en l’occurrence lors des récessions de 1974, de 1982 et de 2001. Aucun de ces trois épisodes n’égale de par son ampleur la récente crise mondiale. En outre, jamais aucun effondrement n’avait été aussi rapide. En l’occurrence, la contraction du commerce international lors de la Grande Récession n’est pas plus profonde que celle observée lors des années trente, mais elle s’avère toutefois bien plus abrupte. Elle s’est en effet concentrée sur le dernier trimestre 2008 et le premier trimestre 2009. Suite à novembre 2008, l’effondrement du commerce international prit en 9 mois une ampleur qu’il n’atteignit qu’après 24 mois lors de la Grande Dépression. Enfin, la récente contraction des échanges internationaux a présenté un degré de synchronisation qui n’avait auparavant jamais été observé. Toutes les économies majeures, qu’il s’agisse de pays émergents ou avancés, ont été simultanément touchées.

Deuxièmement, l’ampleur de l’effondrement du commerce a varié d’un secteur à l’autre. Le commerce des biens s’effondra bien plus rapidement que celui des services. Certains services poursuivirent même leur expansion lors de la crise, notamment les services aux entreprises. De larges différences sont également apparues entre les secteurs produisant des biens. Le commerce des biens durables a été bien plus durement touché que le commerce des biens non durables. Levchenko et alii (2010) constatent par exemple que les importations américaines en biens industriels et en fournitures s’effondrèrent trois à quatre fois plus amplement que les importations américaines de biens de consommation.

Troisièmement, l’effondrement du commerce affecta principalement la marge intensive du commerce. En d’autres termes, il s’explique avant tout par la réduction de la valeur des marchandises exportées par chaque entreprise ou secteur, et non par la diminution du nombre d’entreprises exportatrices ou du nombre de destinations vers lesquelles une entreprise exporte. Bricongne et alii (2010) estiment en l’occurrence que la marge intensive nette compte pour environ 90 % de la chute des exportations réalisées par les entreprises françaises.

Quatrièmement, l’effondrement du commerce est principalement dû à des changements dans les quantités échangées et non à des variations de prix. Si les prix ont diminué dans plusieurs secteurs exportateurs de matières premières, ils sont restés plutôt stables dans les secteurs produisant des biens différenciés. Levchenko et alii suggèrent ainsi que les deux tiers de la chute des échanges américains en valeur s’expliquent par un déclin des quantités. Dans leur étude relative aux entreprises françaises, Bricongne et alii confirment que l’essentiel de l’effondrement du commerce trouve une explication dans la baisse de la quantité de biens échangés. La chute brutale des prix des matières premières n’a finalement eu que peu de répercussions sur les échanges commerciaux.

Bems et alii se sont ensuite tournés vers les facteurs ayant conduit à l’effondrement du commerce mondial lors de la Grande Récession. La contraction de la demande agrégée en apparaît comme le principal déterminant, puisqu’elle expliquerait 65 à 80 % de l’effondrement des échanges internationaux. Elle offre aussi une explication aux évolutions propres à chaque secteur. Les dépenses en biens finals et surtout en biens durables ont connu de fortes baisses au cours de la Grande Récession. Comme la contraction de la demande a particulièrement touché les secteurs exportateurs, elle s’est inévitablement transmise au reste du monde. La chute de la demande en biens de consommation et d’investissement a immédiatement entraîné la chute de la demande en biens intermédiaires. L’internationalisation poussée des chaînes de valeur depuis les années quatre-vingt, couplée aux plus récentes évolutions technologiques, a contribué à synchroniser les performances commerciales des différentes économies : l’ensemble de la chaîne d’offre est quasi immédiatement informée de l’évolution des dépenses des consommateurs et chaque maillon réagit à cette information en adaptant rapidement son niveau de production et sa demande auprès des autres entreprises.

Le canal du crédit a joué un important rôle secondaire, puisqu’il contribuerait à expliquer 15 à 20 % de l’effondrement du commerce international. Les banques tendent naturellement à réduire leur offre de crédit durant les ralentissements économiques (ce qui amplifie ces derniers), mais l’assèchement du crédit fut particulièrement sévère suite à la faillite de Lehman Brothers. Les banques ont non seulement été à l’origine de l’effondrement de la demande globale, mais leur activité de financement a eu des répercussions plus directes sur le commerce international. Bems et alii isolent deux canaux de transmission pour les chocs financiers. D’une part, la baisse de l’offre de crédit complique le financement du capital circulant, ce qui pousse les entreprises à réduire leur production et par là l’offre destinée à l’exportation. D’autre part, le commerce international tend à être plus intensif en finance que le commerce domestique. Il implique de longues durées de transport et par là exige un supplément de crédit pour financer le laps de temps entre l’expédition et le paiement. Le règlement des transactions impliquant des acheteurs ou vendeurs étrangers est également marqué par une plus forte incertitude. Par conséquent, les chocs financiers ont directement perturbé les transactions du commerce international.

Enfin, la variation des stocks a constitué un véritable mécanisme d’amplification en poussant les importations à se réduire plus amplement que les ventes finales. Elle semble ainsi responsable de près de 20 % de l’effondrement des échanges mondiaux. Lors d’un choc négatif sur la demande finale, toutes les entreprises impliquées dans une chaîne de valeur réduisent automatiquement leurs stocks.

La politique commerciale et en particulier les mesures protectionnistes ne jouèrent finalement aucun rôle dans la contraction du commerce mondial, tout du moins lorsque l’on porte l’analyse au niveau agrégé. Certaines mesures commerciales spécifiques ont pu toutefois affecter certains secteurs ou partenaires pris au niveau individuel. Il n’y a toutefois eu aucun relèvement global des barrières, qu’elles soient tarifaires ou non. Sur ce point, les gouvernements ont su ne pas répéter les erreurs des années trente.

 

Références Martin ANOTA

BALDWIN, Richard (2009), « The Great Trade Collapse: What caused it and what does it mean? », in VoxEU.org, 27 novembre.

BEMS, Rudolfs, Robert C. JOHNSON & Kei-Mu YI (2012), « The Great Trade Collapse », NBER working paper, n° 18632, décembre.

BRICONGNE, Jean-Charles, Lionel FONTAGNÉ, Guillaume GAULIER, Daria TAGLIONI & Vincent VICARD (2010), « Firms and the global crisis: French exports in the turmoil », ECB working paper, n° 1245, septembre.

BUSSIÈRE, Matthieu, Fabio GHIRONI & Giulia SESTIERI (2012), « Estimating trade elasticities: Demand composition and the trade collapse of 2008–09 », in VoxEU.org, 14 février.

LEVCHENKO, Andrei A., Logan T. LEWIS & Linda L. TESAR (2010), « The collapse of international trade during the 2008-2009 crisis: In search of the smoking gun », NBER working paper, n° 16006, mai.

Repost 0
publié par Martin Anota - dans Economie internationale
commenter cet article
23 décembre 2012 7 23 /12 /décembre /2012 14:37

L’économie mondiale connaît une nouvelle vague de globalisation financière depuis quelques décennies. Les positions extérieures des pays avancés  sont passées de 68,4 % en 1980 à un pic de 438,2 % en 2007. Leur croissance a connu une première accélération au milieu des années quatre-vingt, puis une seconde entre 2004 et 2007. Rapportés au PIB, les flux financiers bruts des pays avancés ont plus que doublé entre 2002 et 2007 avant de connaître une sévère contraction à partir de 2008. Les économies émergentes ont connu un même schéma de boom et d’effondrement, mais d’une moindre ampleur. Les crises mexicaine et asiatique des années quatre-vingt-dix les ont en effet amenées à faire preuve d’une plus grande prudence en termes de pratiques financières. Par contre, les pays avancés ont de leur côté pleinement embrassé le modèle de la globalisation financière. Aux alentours de 2006, la globalisation apparaissait pour beaucoup comme un processus séculaire renforçant toujours plus étroitement les liens financiers entre les pays.

Comme le rappelle Dani Rodrik (2012), le principal argument avancé pour justifier la globalisation financière est qu’elle stimule la croissance économique à long terme. Elle permettrait une égalisation des rendements marginaux du capital autour du monde, un transfert d’épargne des pays riches vers les pauvres et une stimulation de la croissance économique et de la convergence entre les pays. Elle offrirait en outre aux investisseurs un meilleur couple risque-rendement à travers la diversification des portefeuilles. Et enfin, elle contribuerait à améliorer le partage du risque et le lissage de la consommation entre les pays.

Dans ce contexte, la crise financière mondiale qui a débuté en 2007 a constitué un véritable banc d’essai pour la globalisation financière. La panique sur les marchés financiers atteint son paroxysme entre l’automne 2008 et le printemps 2009, mais la crise ne s'arrêta pas là. A ce titre, la crise européenne pourrait fournir d’importants enseignements pour le reste du monde, vu le degré élevé d’intégration financière transfrontalière atteint par le continent (en particulier par la zone euro). Stephen Cecchetti et Enisse Kharroubi (2012) avaient évalué un peu plus tôt dans l’année le lien entre finance et croissance économique et en avaient conclu que le développement de la première pouvait très rapidement se révéler nocive à la seconde ; aujourd’hui, un autre économiste de la Banque des Règlements Internationaux (BRI), Philip R. Lane (2012), se penche sur les liens entre la globalisation financière et la crise mondiale.

Lane s’est tout d’abord demandé si la globalisation financière a directement contribué à l’accumulation des déséquilibres qui ont conduit à la crise financière. Elle a en effet directement participé à la rapide expansion des prêts domestiques dans de nombreux pays en stimulant à la fois les facteurs d’offre et de demande de crédit. Du côté de la demande, les afflux de capitaux ont pu contribuer au maintien de faible taux d’intérêt et amélioré la valeur nette des emprunteurs domestiques en poussant les prix d’actifs domestiques à la hausse. Parallèlement, les innovations financières ont permis un formidable relèvement de l’offre de crédit avant la crise, tout comme elles renforcèrent les pressions déflationnistes sur les marchés une fois que la crise s’est amorcée. Or, les investisseurs étrangers ont étroitement participé à l’essor de la titrisation. Les banques étrangères, en particulier les banques européennes, ont été les principaux acheteurs de titres adossés sur actifs.

La globalisation financière a permis aux banques d’accroître rapidement leur bilan. D’une part, elle alimenta directement l’expansion du crédit dans de nombreux pays en facilitant le refinancement des banques locales sur les marchés internationaux pour étendre leurs prêts. D’autre part, les banques ayant une activité internationale ont vu la taille et la complexité de leur bilan s’accroître fortement, si bien que les superviseurs nationaux eurent plus de difficulté à assurer leur mission. La globalisation financière amplifia ainsi les défauts dans la régulation et la supervision des banques et des marchés du crédit en permettant à de nombreuses activités financières de se développer bien au-delà que ne l’auraient permis des systèmes financiers en autarcie. Enfin, l’accumulation de déséquilibres sur les marchés du crédit n’aurait pas été possible sans l’implication croissante des pays émergents dans le système financier mondial. L’essor de la titrisation a été nourri, d’une part, par la plus forte demande pour les actifs à faible risque de la part des autorités publiques des pays émergents et, d’autre part, par les plus grandes possibilités de placements qu’offraient leurs économies.

En outre, la globalisation financière a également joué un rôle majeur dans l’apparition de massifs déséquilibres de comptes courants lors des années deux mille. Ceux-ci ont contribué à propager la crise et à en démultiplier les répercussions au sein de chaque économie. Les plus amples déficits courants observés avant la crise ont été suivis par les plus violents redressements des comptes courants entre 2008 et 2010, souvent via une forte contraction des dépenses domestiques.

Lane s’est ensuite demandé si la globalisation financière a influencé la propagation de la crise d’un pays à l’autre et ses répercussions sur chaque pays. Si la globalisation financière a fourni aux pays émergents un rempart contre la crise, elle a au contraire amplifié l’impact de cette dernière sur les économies avancées. Les pays émergents ont en effet tiré une substantielle protection de leur stratégie « long debt, short equity ». Par contre, si la stratégie « long equity, short debt » adoptée par de nombreuses économies avancées peut rapporter des rendements nets positifs en temps normal, elle se révèle au contraire particulièrement préjudiciable lors d’une crise, puisque la chute des valeurs boursières réduit la valeur nette des investisseurs domestiques, alors même les conditions sur les marchés du crédit se resserrent. Les banques furent les principaux investisseurs dans les autres banques, donc la course à la liquidité dans laquelle elles se lancèrent provoqua l’effondrement des marchés interbancaires. Les investisseurs étrangers ont liquidé leurs placements liquides, notamment leurs dettes de court terme, auprès des banques en difficulté ; symétriquement les investisseurs domestiques ont rapatrié leurs actifs liquides étrangers. En l’absence d’un véritable cadre de régulation international, une fuite vers la liquidité à l’œuvre au niveau mondial est plus difficilement maîtrisable que les paniques sur les marchés domestiques. Même s’il est rationnel d’un point de vue individuel, ce repli collectif, en asséchant la liquidité des marchés, a porté la crise à son paroxysme.

Lane s’interroge enfin sur l’impact de la globalisation sur la gestion de la crise aux niveaux national et international. L’intégration financière au niveau international a amplifié les coûts des échecs réglementaires, que ce soit dans la prévention de la crise ou bien dans sa gestion ex post. La résolution des faillites bancaires dans un contexte de degré élevé de globalisation financière a notamment posé un important défi aux autorités publiques. La complexité de la liquidation des banques actives au niveau international a trouvé une illustration avec le processus de faillite de Lehman Brothers. Il reste en outre difficile de partager les coûts budgétaires impliqués par la faillite d’un groupe bancaire multinational, tel que Dexia. Enfin, les gouvernements sont tentés d’abandonner les filiales étrangères de leurs banques domestiques afin de protéger ces dernières. Lors de la crise toutefois, plusieurs gouvernements ont accepté de prendre en charge le sauvetage de filiales étrangères, parfois à des coûts budgétaires particulièrement élevés.

Il n’en demeure pas moins que la globalisation financière ne peut pleinement contribuer à la diversification des risques, au lissage de la consommation et à l’allocation efficace du capital que si des institutions adéquates sont mises en place pour assurer la supervision des entités financières aux niveaux national et international. Certes un nouveau Système européen de supervision financière (SESF) a été instauré au niveau européen et il inclut notamment le Conseil européen du risque systémique (CERS) et trois nouvelles agences paneuropéennes, en l’occurrence l'Autorité bancaire européenne (ABE), l'Autorité européenne des assurances et des pensions professionnelles (AEAPP) et l'Autorité européenne des marchés financiers (AEMF). Toutefois, en Europe comme ailleurs, la supervision financière s’opère en pratique toujours au seul niveau national. Beaucoup reste donc à faire pour améliorer le cadre institutionnel afin que celui-ci puisse répondre aux défis posés par la globalisation financière.

 

Références Martin ANOTA

BRENDER, Anton, & Florence PISANI (2009), La crise de la finance globalisée, La Découverte, 2009.

CECCHETTI, Stephen G., & Enisse KHARROUBI (2012), « Reassessing the impact of finance on growth », BIS working paper, n° 381, juillet.

LANE, Philip R. (2012), « Financial globalisation and the crisis », BIS working paper, n° 397, décembre.

Repost 0
publié par Martin Anota - dans Instabilité financière
commenter cet article

Présentation

  • : D'un champ l'autre
  • D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher