Overblog Tous les blogs Top blogs Économie, Finance & Droit Tous les blogs Économie, Finance & Droit
Suivre ce blog Administration + Créer mon blog
MENU
19 juin 2013 3 19 /06 /juin /2013 22:53

Ces dernières décennies ont été marquées par une plus grande volatilité des prix des actifs (actions, obligations, logements, etc.). Ces derniers peuvent ainsi régulièrement connaître des périodes de hausses rapides suivies par de violents effondrements. Dans les pays avancés, l’apparente stabilité macroéconomique observée lors de la Grande Modération (great moderation) dissimula l’accumulation de profonds déséquilibres. De nombreux marchés boursiers, puis immobiliers ont connu la formation de bulles spéculatives au cours des années deux mille ; la hausse des cours boursiers et des prix immobiliers alimenta le crédit et celui-ci nourrit en retour la spéculation. Si ces dynamiques stimulent dans un premier temps la croissance économique, le retournement des prix d’actifs provoque un large mouvement de désendettement et conduit à un ralentissement de l’activité. Pour faciliter le nettoyage des bilans et atténuer la sévérité du choc, les banques centrales ont alors à assouplir leur politique monétaire. L’extrême sévérité de la crise du crédit subprime a conduit les autorités monétaires à placer leurs taux à leur borne inférieure zéro (zero lower bound) et à adopter des mesures non conventionnelles.

L’une des questions qui se pose est si la politique monétaire doit répondre au gonflement des bulles spéculatives sur les marchés d’actifs. Le rôle de la politique monétaire face aux prix d’actifs faisait déjà l’objet d’un intense débat avant la crise du crédit subprime. Le consensus entre de nombreux théoriciens et banquiers centraux était alors que les banques centrales ne devaient qu’assurer la stabilité des prix et minimiser l’écart de production (output gap). Dans cette optique, la politique monétaire ne répond aux variations des prix d’actifs que si ces derniers amènent la banque centrale à réviser ses anticipations d’inflation. Par exemple, si les cours boursiers augmentent, les actionnaires profitent de la hausse de la valeur patrimoniale pour consommer davantage. Le surcroît de demande qui en résulte s’accompagnera alors de tensions inflationnistes. Les autorités monétaires doivent ainsi tenir compte de l’effet de richesse associé aux booms boursiers dans leurs anticipations d’inflation. En outre, pour certains, la stabilité des prix contribue elle-même à renforcer la stabilité financière. Selon Anna Schwartz, la volatilité du niveau général des prix brouille les perspectives de rendements futurs, ce qui fragilise l’activité de crédit. Puisque l’inflation conduit les agents à surestimer la rentabilité des projets d’investissement et par conséquent la capacité de remboursement des emprunteurs, les taux de défaut de paiement sont  susceptibles de s’élever, les prêteurs de faire par conséquent faillite et les réactions en chaîne d’amorcer une crise financière. Aux yeux des monétaristes, la stabilité des prix permet aux investisseurs et épargnants de mieux juger des opportunités de profit et l’économie alloue alors plus efficacement les facteurs dans l’économie. 

Pour d’autres, la stabilité des prix est loin de garantir la stabilité financière et ils appellent alors les banques centrales à prendre véritablement en compte l’évolution des marchés financiers. Des autorités monétaires qui ne se focaliseraient sur le maintien de la stabilité des prix peuvent ainsi laisser les déséquilibres macrofinanciers s’accumuler au seul motif que ceux-ci ne se traduisent pas par des pressions inflationnistes. Or, il y a effectivement eu une déconnexion entre les prix des biens et services et les prix des actifs ces dernières décennies : les premiers tendent à rester stables, tandis que les seconds ont fortement gagné en volatilité. La réaction des banques centrales risque alors d’être asymétrique : elles n’ajustent pas leur taux directeur lorsque les prix d’actifs s’envolent, mais elles assouplissent en revanche leur politique monétaire lorsque les prix d’actifs s’effondrent car leur chute est susceptible de fortement  déprimer l’activité économique et d’amorcer un processus déflationniste ; autrement dit, elles ne réagissent aux bulles que lorsqu’elles éclatent. Non seulement la stabilité des prix n’est pas suffisante pour assurer la stabilité macroéconomique, mais elle peut aussi alimenter les déséquilibres financiers en réduisant les primes de risque et en incitant à la prise de risque. Les banques centrales contribuent elles-mêmes à insuffler de façon erronée un sentiment de sécurité. Rassurés à l’idée que la banque centrale interviendra si l’activité est menacée, les agents économiques prennent davantage de risques : c’est le paradoxe de la crédibilité (paradox of credibility) pour reprendre les termes de Claudio Borio et alii (2003). En formulant une telle idée, les économistes de la Banque des Règlements Internationaux rejettent ainsi l’hypothèse de Schwartz.

Puisque les épisodes de hausses rapides des prix d’actifs se soldent souvent par une crise financière et par une forte contraction de l’activité économique, certains appellent les banques centrales à réagir préventivement en relevant les taux directeurs lors de booms sur les marchés d’actifs pour limiter l’ampleur de la spéculation. Elles ciblent déjà l’inflation ; elles pourraient également cibler les prix d’actifs. En faisant éclater la bulle au plus tôt, les autorités monétaires épargneraient à l’économie les coûts macroéconomiques associés crises financières. Cette question d’un éventuel ciblage des prix d’actifs se pose à nouveau aujourd’hui, puisque la faiblesse des taux directeurs et les mesures non conventionnelles de politique monétaire sont susceptibles de stimuler les prises de risque inconsidérées et d’alimenter des bulles. En effet, si les autorités monétaires doivent réagir à une crise financière en baissant leurs taux directeurs, le relâchement des conditions de financement qui s’ensuit est susceptible d’alimenter une nouvelle bulle, en particulier si l’assouplissement monétaire est durable. Certains accusent ainsi la Fed d’avoir été responsable de la bulle immobilière aux Etats-Unis en laissant ses taux directeurs trop longtemps trop bas suite à l’éclatement de la bulle internet en 2000.

Aujourd’hui encore, les autorités monétaires sont confrontées à un douloureux dilemme : les taux directeurs sont peut-être trop élevés pour suffisamment stimuler l’activité, mais aussi bien trop faibles pour ne pas inciter les agents financiers à prendre des prises excessifs dans leur quête de rentabilité, or ni l’une, ni l’autre de ces éventualités n’est certaine. Un relèvement précoce des taux directeurs pourrait peut-être assurer la stabilité financière, mais en compromettant la reprise de l’activité ; tarder dans le resserrement monétaire ferait courir le risque qu’une nouvelle crise financière survienne et déprimerait (là aussi) la croissance, alors même que les banques centrales disposent aujourd’hui d’une marge de manœuvre beaucoup plus limitée qu’en 2007. Si les banques centrales réagissaient précocement, la probabilité et la sévérité des crises financières seraient atténuées et les banques centrales auraient besoin de moins assouplir leur politique monétaire dans l’éventualité d’une crise.

Ben Bernanke et Mark Gertler (2001) ont rejeté l’idée du ciblage des prix d’actifs. Selon eux, si la banque centrale répondait systématiquement aux hausses de cours boursiers en resserrant leur politique monétaire, ce resserrement n’aurait pas le même impact sur l’économie selon les causes de cet essor et il pourrait se révéler particulièrement dommageable dans certains cas. En l’occurrence, si la hausse des cours est effectivement due à une spéculation, le relèvement des taux directeurs pourrait a priori limiter les comportements spéculatifs. En revanche, si la hausse des cours est due à des gains de productivité, cette hausse est cohérente avec les fondamentaux, si bien que la banque centrale ne peut qu’endommager l’activité en resserrant sa politique monétaire. Les banques centrales ne peuvent donc réagir indistinctement aux hausses de cours. Elles doivent nécessairement déterminer si la hausse des cours est justifiée ou non au regard des fondamentaux avant d’ajuster leurs taux. Or, il est très difficile de déterminer si la hausse d’un prix résulte de la spéculation, en particulier en temps réel. Bernanke et Gertler en conclut que les autorités monétaires devraient abandonner l’idée de cibler les prix d’actifs. Les banques centrales vont par contre naturellement contenir les emballements spéculatifs en se contentant de réagir sévèrement à l’inflation. Si la hausse des cours boursiers est due à la spéculation, la hausse résultante de la demande globale via les effets de richesse se traduira par une accélération de l’inflation, si bien qu’une banque centrale recherchant la seule stabilité des prix relèvera mécaniquement ses taux directeurs et la spéculation s’en trouvera atténuée. En revanche, si la hausse des cours boursiers est due à des gains de productivité, la banque centrale n’a alors aucune raison d’intervenir à l’égard du boom boursier : les gains de productivité, en accroissant l’offre, poussent les prix des biens et services à la baisse, si bien que la banque centrale pourrait même avoir à diminuer ses taux directeurs pour stimuler la demande et éviter la déflation.

Le raisonnement de Bernanke peut faire l’objet de deux objections. D’une part, la moindre capacité de l’inflation des prix d’actifs à se traduire par une inflation des prix des biens et services ne permet pas au ciblage d’inflation d’assurer la stabilité financière. La Grande Récession est survenue dans un contexte où les banques centrales ciblaient plus ou moins explicitement l’inflation. D’autre part, Stephen Cecchetti et ses coauteurs (2000) affirment que déceler une déconnexion des prix d’actifs d’avec leurs fondamentaux est certes difficile, mais pas impossible. Distinguer entre les composantes fondamentale et spéculative des hausses de prix d’actifs n’est pas plus difficile que de déterminer la production potentielle d’une économie ou le NAIRU, deux agrégats qui jouent un rôle important dans la conduite actuelle de la politique monétaire et que les autorités monétaires cherchent régulièrement à estimer.

D’autres arguments amènent à rester prudent quant à l'introduction de la stabilité des prix d’actifs dans les objectifs des banques centrales [Bernanke, 2002]. Par exemple, les canaux de transmission de la politique monétaire demeurent encore imprécis, donc les autorités monétaires ne peuvent pleinement anticiper la réaction exacte des prix d’actifs et des autres variables économiques à un ajustement donné des taux directeurs. Ensuite, le resserrement monétaire pourrait se révéler insuffisant pour dissiper la spéculation ; en revanche, il peut occasionner de profonds dommages collatéraux en déstabilisant les marchés d’actifs où la spéculation est absente et, plus largement, en pénalisant la croissance économique.  Les banques centrales auraient à fortement relever leur taux d’intérêt pour espérer influencer significativement les prix d’actifs, mais cette action serait particulièrement nuisible à l’activité. Enfin, si les banques centrales poursuivaient explicitement un objectif de stabilité des prix d’actifs, les marchés se révèleraient excessivement confiants dans l’action de la banque centrale visant à assurer la stabilité financière. Le paradoxe de la crédibilité ne disparaitrait donc pas ; l’aléa moral s’en trouverait même aggravé : les agents sont incités à prendre encore davantage de risques. 

Si les banques centrales tirent les vrais enseignements de la Grande Récession, elles devraient davantage se préoccuper de la stabilité financière à l’avenir, si bien qu’elles pourraient revoir leurs objectifs et revenir quelque peu à leur mandat d’origine. Si le taux directeur est un instrument trop grossier pour stabiliser les prix d’actifs, alors même que l’objectif de stabilité financière apparaît essentiel pour la conduite de la politique monétaire, les banques centrales doivent nécessairement se doter d’outils supplémentaires pour atteindre cet objectif. Tout en redéfinissant leur objectifs de politique monétaire au profit de la lutte contre l’inflation, les banques centrales avaient délaissé plusieurs instruments de politique monétaire lors des années soixante-dix et quatre-vingt, notamment l’encadrement du crédit. Les récentes études ont pourtant confirmé le rôle central joué par le crédit dans le gonflement des bulles spéculatives ; en outre, les crises sont d’autant plus sévères que le crédit a initialement alimenté les déséquilibres. Les banques centrales n’ont peut-être pas à ajuster leurs taux pour stabiliser les bulles spéculatives, mais elles peuvent toujours redéployer certains instruments qu’elles jugeaient il y a encore peu de temps archaïques pour assurer la stabilité financière. 

 

Références

AGUR, Itai, & Maria DEMERTZIS (2013), « "Leaning against the wind" and the timing of monetary policy », IMF working paper, n° 13/86, avril.

BERNANKE, Ben S. (2002), « Asset-price "bubbles" and monetary policy », discours à New York, 15 octobre.

BERNANKE, Ben S., & Mark GERTLER (2001), « Should central banks respond to movements in asset prices? », in The American Economic Review, vol. 91, n° 2, mai.

BLANCHARD, Olivier, Giovanni DELL'ARICCIA & Paolo MAURO (2013), « Rethinking macro policy II: Getting granular », IMF staff discussion note, n° SDN/13/03, avril.

BORIO, Claudio, William ENGLISH & Andrew FILARDO (2003), « A tale of two perspectives: Old or new challenges for monetary policy », BIS working paper, n° 127.

CECCHETTI, Stephen, Hans GENBERG, John LIPSKY & Sushi WADHWANI (2000), Asset Prices and Central Bank Policy

GALÍ, Jordi (2013), « Monetary policy and rational asset price bubbles », NBER working paper, février, 18806.

MESONNIER, Jean-Stéphane (2004), « Le Paradoxe de la crédibilité en question », in Bulletin de la Banque de France, n° 122.

SCHWARTZ, Anna (1995), « Why financial stability depends on price stability? », in Economic Affairs, vol. 15, n° 4.

Partager cet article
Repost0
13 juin 2013 4 13 /06 /juin /2013 22:58

La productivité du travail est le principal déterminant de l’amélioration du niveau de vie. Or, sa croissance a fortement diminué aux Etats-Unis au milieu des années deux mille. Si cette tendance se poursuit, les perspectives de croissance à long terme pourraient particulièrement s’assombrir. Tyler Cowen (2011) a été l’un des premiers a suggéré que les Etats-Unis sont entrés dans une grande stagnation (great stagnation), c’est-à-dire dans une période prolongée où les innovations sont déjà largement exploitées et ne peuvent donc plus générer de la croissance. Certains, en particulier Robert Gordon (2012), ont affirmé que les technologies de l’information et de la communication (TIC) ne sont plus à même de stimuler la productivité du travail. Grâce à la révolution informatique, la croissance de la productivité s’était fortement accélérée à partir de 1995, après deux décennies de faible croissance, mais cette troisième révolution industrielle aura finalement été particulièrement courte, en particulier par rapport aux deux premières. Gordon note également que les Etats-Unis font face à de nombreux « vents contraires », tels que la stagnation du niveau d’éducation et la hausse des inégalités de revenu, qui pèsent également sur leurs perspectives de croissance. Pour d’autres encore, comme Erik Brynjolfsson et Andrew McAfee (2011), le progrès technique est encore présent, mais il serait désormais nettement destructeur d’emplois. Autrement dit, les travailleurs seraient entrés dans une « course contre la machine » (race against the machine). Dans l’un et l’autre de ces scénarii, la Grande Récession apparaît finalement comme un épiphénomène au regard de tendances de long terme particulièrement sombres : même sans la crise du crédit subprime, l’activité économique était destinée à durablement ralentir.

Martin Neil Baily, James Manyika et Shalabh Gupta (2013) ont récemment fait part d’un plus grand optimisme concernant les perspectives futures de l’économie américaine. Ils suggèrent en effet que les Etats-Unis pourraient renouer avec leurs performances macroéconomiques de la fin des années quatre-vingt-dix. Une croissance alimentée par l’innovation avait alors accru le volume de la production, tout en générant de nouveaux biens et services ; les nouvelles technologies avaient rendu possibles les gains de productivité. Or de larges secteurs de l’économie américaine, tels que l’éducation, la santé, l’infrastructure ou encore le secteur public, sont restés à l’écart de ce mouvement, si bien qu’il leur reste à rattraper un retard dans la croissance de la productivité. Aujourd’hui, les opportunités technologiques demeurent importantes. En l’occurrence, la révolution énergétique devrait stimuler l’investissement, non seulement dans l’extraction de ressources naturelles, mais aussi dans le secteur du transport et dans l’industrie intensive en énergie. Enfin, Baily et alii rejettent l’idée que la croissance puisse détruire l’emploi. L’observation des huit dernières décennies suggère que, certes il existe un arbitrage à très court terme entre la croissance de la productivité et celle de l’emploi, mais qu’à long terme la productivité demeure la principale manière d’améliorer le niveau de vie et qu’elle ne s’accroît pas aux dépens de l’emploi.

Evaluant de leur côté l’un des points importants de l’argumentaire de Gordon, David M. Byrne, Stephen D. Oliner et Daniel E. Sichel (2013) cherchent à savoir si la révolution informatique est réellement finie. Les auteurs observent tout d’abord la contribution des TIC à la croissance de la productivité du travail. Leurs résultats confirment l’idée selon laquelle la technologie informatique ne stimule plus autant la croissance de la productivité qu’elle ne le faisait entre 1995 et 2004, ce qui tend à confirmer la thèse de Gordon. Toutefois, sa contribution reste substantielle, puisqu’elle expliquerait plus du tiers de la croissance de la productivité du travail depuis 2004.

Les auteurs se focalisent ensuite sur la technologie des semi-conducteurs, dont les progrès constituent selon eux un élément déterminant dans la révolution informatique en rendant la puissance de calcul toujours plus efficace et toujours moins chère. Selon l’indice des prix des semi-conducteurs calculé par le Bureau of Labor Statistics, le prix des semi-conducteurs ajusté à leur qualité ne chuterait pas aussi rapidement qu’il le fit au début des années deux mille. Une telle évolution tend également à accréditer la thèse de Gordon. Toutefois, selon les auteurs, non seulement les progrès technologiques se sont poursuivis à un rythme rapide dans le secteur informatique, mais le BLS peut avoir considérablement sous-estimé la baisse des prix qu’ont pu connaître les semi-conducteurs au cours des dernières années. 

Byrne et ses coauteurs évaluent enfin les futures perspectives de croissance de la productivité du travail. En observant les progrès qui sont en cours dans le secteur informatique et en supposant que les innovations informatiques stimuleront davantage la productivité dans le reste de l’économie qu’ils ne le firent entre 2004 et 2012, les auteurs suggèrent que le taux de croissance de la productivité du travail devrait s’établir à 1,75 % par an. La croissance de la productivité du travail serait certes supérieure à celle observée depuis 2004, mais elle resterait inférieure à sa moyenne d’après-1889, en l’occurrence 2,25 %. Ce scénario ne suggère ni un retour à une croissance rapide, ni une stagnation durable de l’activité économique, mais plutôt l’idée selon laquelle l’économie ne génèrera durablement que de modestes gains de croissance. En revanche, si la technologie des semi-conducteurs continue de progresser au même rythme, Byrne et alii estiment que les avancées informatiques pourraient entraîner une plus rapide innovation dans l’ensemble de l’économie. La productivité du travail pourrait alors croître de 2,5 % par an, soit un taux supérieur à la moyenne historique à long terme. Les trois auteurs en concluent ainsi que la révolution informatique est loin d’être terminée.

 

Références

BAILY, Martin., N. James MANYIKA & Shalabh GUPTA (2013), « U.S. productivity growth: An optimistic perspective », in International Productivity Monitor, n° 25, printemps.

BRYNJOLFSSON, Erick, & Andrew McAFEE (2011)Race Against The Machine: How the Digital Revolution is Accelerating Innovation, Driving Productivity, and Irreversibly Transforming Employment and the Economy.

BYRNE, David M., Stephen D. OLINER & Daniel E. SICHEL (2013), « Is the information technology revolution over? », Fed, Finance and Economics Discussion paper, n° 36, mars.

COWEN, Tyler (2011), The Great Stagnation: How America Ate All the Low-hanging Food of Modern History, Got Sick, and Will (Eventually) Feel Better.

GORDON, Robert (2012), « Is US economic growth over? Faltering innovation confronts the six headwinds », CEPR Policy Insight, n° 63.

Partager cet article
Repost0
9 juin 2013 7 09 /06 /juin /2013 16:35

Les pays à faible revenu ont vu leur croissance économique s’accélérer au début des années quatre-vingt-dix. Depuis le début du siècle, leur rythme de croissance est même supérieur à celui des pays avancés, ce qui renouvelle chez certains de l’optimisme quant à la convergence des économies au niveau mondial. D’autres rappellent toutefois que les années soixante et le début des années soixante-dix nourrissaient de tels espoirs, avant que le ralentissement de l’économie mondiale ne compromette durablement le développement des pays à faible revenu, voire aggrave profondément leur situation. Se pose alors la question de savoir si l’actuelle accélération de la croissance dans les pays à faible revenu est durable ou si le scénario d’il y a quatre décennies est susceptible de se reproduire.

GRAPHIQUE  Taux de croissance réel par tête médian (en %)

source : FMI (2013)

John Bluedorn, Rupa Duttagupta, Jaime Guajardo et Nkunde Mwase (2013), en complément d’un rapport du FMI (2013), ont analysé les accélérations de croissance dans les pays à faible revenu au cours des six dernières décennies. Les quatre auteurs définissent un décollage de croissance (growth takeoff) comme une hausse de la production par habitant durant au moins cinq ans et avec une croissance moyenne d’au moins 3,5 %. Tout d’abord, les décollages de croissance dans les pays à faible revenu ont nettement augmenté depuis les années quatre-vingt-dix. Les décollages des pays à faible revenu ont donc eu lieu en deux vagues : la première eu lieu dans les années soixante et au début des années soixante-dix, tandis que la seconde eut lieu au cours des deux dernières décennies. Les récents décollages de croissance ont duré plus longtemps que les précédentes. Les décollages de croissance qui furent observés avant 1990 duraient en moyenne 7 ans et affichaient une croissance moyenne d’environ 5 %. Au cours des deux dernières décennies, la durée médiane d’un décollage a été de 9 ans pour les épisodes qui sont déjà finis et de 12 ans pour les épisodes toujours en cours ; les premiers sont associés à une croissance moyenne de 6,25 % et les seconds à une croissance moyenne de 5,25 %. Plus de la moitié des récents décollages ont continué malgré la Grande Récession.

Les pays à faible revenu, qu’ils aient décollé ou non, n’ont pas les mêmes structures économiques : certains sont abondants en ressources naturelles, d’autres ont fondé leur décollage sur la production manufacturière. Les pays abondants en ressources naturelles qui sont parvenus à décoller ont vu leur PIB par habitant s’accroître de 80 % en dix ans. Lorsque l’on observe leurs prédécesseurs de la précédente génération, ces derniers avaient également enregistré de bonnes performances dans la décennie suivant le décollage, mais ils furent ensuite rattrapés par d’autres pays à faible revenu. Les pays à faible revenu qui ont amorcé un décollage avant ou après 1990 en le fondant sur l’activité manufacturière ont connu une hausse de 50 % de leur PIB par habitant au bout d’une décennie.

Les décollages sont une étape majeure dans le développement car ils conduisent généralement à des hausses de 50 à 60 % du PIB par habitant dix ans après. Les pays qui sont parvenus à décoller tendent à maintenir la croissance de leur production par habitant sur une trajectoire solide dans les années suivant le décollage. Pour la génération actuelle, la production par habitant a généralement augmenté de 60 % dix ans après le début du décollage, tandis qu’elle n’augmentait que de 15 % pour les pays qui n’ont pas su décoller. Pour la génération précédente, la production par habitant avait augmenté de 50 % dix ans après le décollage, alors qu’elle n’augmentait que de 5 % pour ceux qui n’avaient pas décollé. 

Le décollage n’assure pourtant pas une poursuite de la croissance à un rythme soutenu à long terme. De nombreux pays à faible revenu qui sont actuellement dynamiques appartenaient également à la précédente génération des pays en décollage. Surtout, près d’un tiers des précédents décollages s’étaient soldés par une crise de change, de la dette ou bancaire. Le rythme de croissance a ralenti dix ans après le décollage pour les économies dynamiques de la précédente génération et un quart d’entre eux ont même totalement effacé leurs gains en production par tête au bout de vingt ans. Si seuls 15 % des récents décollages se sont jusqu’à présent soldés par une crise, les perspectives d’avenir pour les autres restent encore incertaines. 

Les auteurs comparent alors les pays dynamiques d’avant 1990 et ceux d’après 1990 pour déterminer si ces derniers sont plus résilients que leurs prédécesseurs. Hier comme aujourd’hui, les pays dynamiques sont caractérisés par des taux d’investissement et d’épargne plus élevés que les pays qui n’ont pas su décoller, ce qui souligne l’importance de l’accumulation du capital dans l’accélération de la croissance. Les deux générations se distinguent l’une l’autre dans la manière par laquelle les écarts entre l’épargne et l’investissement ont été financés. Une part plus importante du déficit courant est aujourd’hui financée par l’investissement direct à l’étranger, ce qui permit aux pays qui ont récemment décollé de diminuer leur endettement et de constituer une marge de manœuvre pour leur politique économique. Parmi ceux-ci, la dette publique est en effet passée de plus de 90 % à 44 % du PIB dix ans après le décollage et la dette extérieure est passée sur la même période de plus de 70 % à environ 44 %. Les précédents pays dynamiques avaient certes des dettes publique et externe s’élevant respectivement à 40 et 33 % du PIB avant du décollage, mais celles-ci doublèrent dans la décennie qui suivit ce dernier. Enfin, l’étude empirique ne permet pas d’affirmer que les récents décollages se sont accompagnés d’une accumulation de déséquilibres financiers. Certes les ratios du crédit sur PIB tendent à augmenter lors des récents décollages, mais ils sont inférieurs aux ratios de leurs prédécesseurs d’avant 1990 et aux ratios des pays à faible revenu qui n’ont pas su décoller.

Le décollage des pays à faible revenu tient pour beaucoup à la compétitivité et à la croissance des exportations. Une dépréciation du taux de change réel semble également avoir contribué à stimuler les performances à l'exportation pour plusieurs décollages des pays à faible revenu. Les pays dynamiques de l’actuelle génération se caractérisent par des exportations plus diversifiées géographiquement que leurs prédécesseurs. Cette plus grande diversification leur a certainement permis de s’appuyer sur la croissance rapide des pays émergents comme la Chine et l’Inde pour stimuler leurs propres exportations. Toutefois, une plus grande dépendance envers les pays émergents implique également une plus large exposition aux risques qui sont associés à ces derniers et aux variations des prix des matières première. 

Les pays qui ont récemment décollé ont mis en place des réformes structurelles améliorant la productivité et développé des institutions inclusives, ce qui favorise leur croissance à long terme. Ils possèdent notamment de meilleures infrastructures et des niveaux plus élevés de capital humain (si l’on mesure ce dernier par le nombre d'années de scolarité). Ils affichent également de bien moindres inégalités de revenu. Au final, John Bluedorn et ses coauteurs en concluent que les pays qui ont récemment entrepris leur décollage sont beaucoup moins vulnérables que leurs prédécesseurs d’avant 1990. En revanche, s’ils ont pu profiter d’un environnement international relativement favorable jusqu’à la Grande Récession, la stagnation des pays avancés et un ralentissement de la croissance dans les pays émergents, couplés à une baisse des prix des matières premières, pourraient fortement nuire à leurs futures performances macroéconomiques. Difficile alors de rester pleinement optimiste. 

 

Références

BLUEDORN, John, Rupa DUTTAGUPTA, Jaime GUAJARDO & Nkunde MWASE (2013), « The growth comeback in developing economies: A new hope or back to the future? », IMF working paper, mai.

FMI (2013), « Breaking through the frontier: Can today’s dynamic low-income countries make it? », World Economic Outlook: Hopes, Realities, Risks, avril. 

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher