Suivre ce blog
Administration Créer mon blog
28 juin 2015 7 28 /06 /juin /2015 23:58

Beaucoup de pays émergents ont connu des entrées de capitaux déstabilisatrices, qui conduisent à une appréciation de leur taux de change, une hausse des prix d’actifs et une expansion du crédit accroissant le risque de crise financière. Lorsque les capitaux s’arrêtent, voire refluent, l’économie bascule dans une profonde récession. Des tels mécanismes ont été à l'œuvre derrière l'accumulation des déséquilibres qui ont conduit à la crise de la zone euro : les pays « périphériques » de la zone euro (la Grèce, l'Irlande, l'Espagne, le Portugal, etc.) bénéficièrent d’amples afflux de capitaux en provenance du cœur de la zone euro (notamment l'Allemagne) qui alimentèrent en leur sein une expansion insoutenable du crédit, une hausse de la demande, des bulles sur les marchés immobiliers et un creusement du déficit extérieur.

Ce faisant, les décideurs politiques et les économistes se sont de plus en plus penchés sur l’opportunité de mettre en place des contrôles de capitaux. Ces derniers peuvent freiner les entrées de capitaux lors des booms, réduisant par là l’appréciation de la devise, l’expansion du crédit et ainsi la probabilité d’une crise financière ; ils peuvent aussi freiner les sorties de capitaux lors des effondrements. Les études qui se sont penchées sur les restrictions visant à restreindre les afflux de capitaux (lors des booms) ont suggéré qu’elles s’étaient révélées efficaces dans plusieurs cas, en contenant l’appréciation de la devise, en donnant une plus grande marge de manœuvre à la politique monétaire et en donnant aux investissements de long terme une plus grande part des afflux. Le FMI lui-même a eu tendance ces dernières années à nuancer ses positions vis-à-vis de la libéralisation financières et à donner un rôle aux contrôles des capitaux dans la gestion des flux de capitaux, en particulier pour les pays en développement [Ostry et alii, 2010].

Par contre, les restrictions visant à empêcher les sorties de capitaux (lors des retournements) ont fait l’objet de moins d’études. Ces dernières, notamment celle réalisée par Nicolas Magud, Carmen Reinhart et Kenneth Rogoff (2011), suggèrent qu’un resserrement échoue à affecter significativement les sorties de capitaux ou bien n’y parviennent que temporairement. Elles citent toutefois souvent une exception, en l’occurrence le cas de la Malaisie suite à la crise asiatique de 1997 : la Malaisie a resserré les restrictions en septembre 1998, ce qui lui permit de mettre un terme à la fuite des capitaux, de ramener ses réserves aux niveaux d’avant-crise, de stabiliser le taux de change du ringgit et de réduire ses taux d’intérêt. Plus récemment, lors de la crise financière mondiale, l’Islande semble avoir adopté efficacement un contrôle des capitaux ; ce dernier lui a permise de limiter les sorties de capitaux et de stabiliser le taux de change de sa monnaie, la couronne islandaise. Ces deux réussites sont exceptionnelles. Confrontées aux mêmes situations, la Thaïlande et l’Ukraine mirent en place un contrôle des capitaux, respectivement en 1997 et en 2008, mais celui-ci échoua à vraiment contenir les sorties de capitaux.

Mahir Binici, Michael Hutchison et Martin Schindler (2010) se sont focalisés sur les restrictions de sorties de capitaux et ils constatent qu’elles sont plus efficaces dans les pays avancés que les autres, en raison peut-être d’une meilleure qualité des institutions et de la réglementation. Plus récemment, Christian Saborowski, Sarah Sanya, Hans Weisfeld et Juan Yepez (2014) ont étudié l’efficacité des restrictions des sorties de capitaux à partir d’un échantillon de 37 pays en développement sur la période entre 1995 et 2010. Ils cherchent à déterminer si un resserrement des restrictions de sorties contribuent à réduire les sorties nettes de capitaux. Ils constatent qu’un resserrement des restrictions réduit en moyenne les sorties brutes de capitaux. Cependant il y a aussi une contraction des entrées brutes de capitaux (en raison des investisseurs étrangers), qui est plus ample que la contraction des sorties. En fait, un resserrement des restrictions est efficace s’il est soutenu par de forts fondamentaux macroéconomiques et de bonnes institutions ou si les restrictions existantes sont déjà assez complètes. Lorsqu’aucune des trois conditions n’est respectée, un resserrement des restrictions échoue à réduire les sorties nettes.

 

Références

BINICI, Mahir, Michael HUTCHISON & Martin SCHINDLER (2010), « Controlling capital? Legal restrictions and the asset composition of international financial flows », in Journal of International Money and Finance, vol. 29, n° 4.

BROCKMEIJER, Jan, David MARSTON & Jonathan D. OSTRY (2012), « Liberalizing capital flows and managing outflows », FMI.

MAGUD, Nicolas E., Carmen M. REINHART & Kenneth S. ROGOFF (2011), « Capital controls: Myth and reality - A portfolio balance approach », NBER, working paper, n° 16805.

OSTRY, Jonathan D., Atish R. GHOSH, Karl HABERMEIER, Marcos CHAMON, Mahvash S. QURESHI & Dennis B.S. REINHARDT (2010), « Capital inflows: the role of controls », FMI, staff position note, n° 10/04.

SABOROWSKI, Christian, Sarah SANYA, Hans WEISFELD & Juan YEPEZ (2014), « Effectiveness of capital outflow restrictions », FMI, working paper, n° 14/08.

Partager cet article

25 juin 2015 4 25 /06 /juin /2015 12:01

Le bilan des banques centrales a connu une forte expansion durant la récente crise financière mondiale et lors de la subséquente reprise. En l’occurrence, les banques centrales ont délibérément laissé gonfler leur bilan pour stimuler l’activité. Cette politique reste toutefois très controversée. Il n’est pas certain qu’elle stimule effectivement l’activité. Elle risque par contre d’avoir des effets pervers : certains craignent que l’explosion de la base monétaire entraîne une hyperinflation ou qu’elle alimente la prochaine crise financière.

Niall Ferguson, Andreas Schaab et Moritz Schularick (2015) ont étudié l’évolution des bilans des banques centrales de 12 pays avancés depuis 1900. Ils observent en l’occurrence 23 expansions et 17 expansions des bilans. La plupart du temps, la taille des bilans a fluctué entre 10 % et 20 % du PIB. Historiquement, les amples expansions et contractions des bilans ont été associées à des périodes de crise géopolitique ou financière. En l’occurrence, les épisodes synchronisés d’amples expansions et contractions ont été observées durant les Guerres mondiales, la Grande Dépression et la Grande Récession. Seul le cycle d’expansion-contraction de la Seconde Guerre mondiale est de même ampleur que celui observé depuis 2007. Les deux épisodes se distinguent toutefois l’un de l’autre dans leurs causes : alors que la finance de guerre représenta un puissant choc d’offre de monnaie avec des conséquences inflationnistes, les expansions de bilan lors de la récente crise résultent, du moins en partie, d’un puissant un choc de demande de monnaie durant la crise.

GRAPHIQUE Taille des bilans des banques centrales (en % du PIB)

Faut-il s’inquiéter de l’expansion du bilan des banques centrales ? Quelques enseignements de l'Histoire

source : Ferguson et alii (2015)

Relativement à la taille du secteur financier, les bilans des banques centrales (et en particulier les dépôts des banques commerciales auprès des banques centrales) se sont fortement réduits au cours des trois décennies précédant la crise financière. De ce point de vue, leur récente expansion marque en partie un retour aux niveaux antérieurs, en l’occurrence aux niveaux atteints durant les années soixante-dix, juste avant l’explosion du secteur financier. Au cours des dernières décennies, les banques centrales avaient ignoré l’énorme dette que le système financier édifiait et l’étroitesse toujours plus prononcée des fondations de liquidité sur laquelle il reposait. Depuis 2008, cette tendance a été en partie inversée. Par conséquent, les bilans des banques centrales sont susceptibles de rester durablement larges et les banques commerciales pourraient laisser de plus importants dépôts auprès des banques centrales.

Ferguson et ses coauteurs se sont demandé comment les banques centrales avaient réduit la taille de leur bilan au cours de l’histoire. La plupart des réductions ont eu lieu qu’avec l’expansion de l’économie. Seules quelques banques centrales ont normalisé leurs bilans après de larges expansions en réduisant leur taille nominale ; au cours de ces épisodes-là, la composition des bilans s’est révélée déterminante. Ils n’ont pas identifié un seul incident au cours duquel la banque centrale aurait vendu des titres de long terme publics (ou privés) pour inverser une large expansion en termes nominaux.

Ils montrent que, sur la période de leur échantillon, la taille du bilan des banques centrales et la dette publique tendent à varier dans le même sens. Cette observation est particulièrement vraie durant les Guerres  mondiales et immédiatement après elles. Durant les périodes de fortes turbulences économiques et politiques, les autorités budgétaires et monétaires ont eu tendance à travailler de concert. La distinction entre politique monétaire et politique budgétaire est alors difficile à se maintenir en période d’instabilité. L’expérience des années cinquante suggère qu’une banque centrale ayant acheté des obligations pour maintenir les taux d’intérêt de long terme à un faible niveau s’expose dès lors à des pressions politiques si elle désire ensuite s’en défaire.

Ferguson et ses coauteurs étudient également la relation entre le bilan des banques centrales et l’inflation. Les preuves empiriques ne suggèrent pas que la récente expansion des bilans fasse peser un risque immédiat sur la stabilité des prix. En effet, ils constatent une corrélation positive entre les deux variables pour la plupart du vingtième siècle, mais le lien s’est affaibli au cours des dernières décennies. Pour les auteurs, tant que les banques centrales gardent leur crédibilité en tant que gardiennes indépendantes de la stabilité des prix, l’expansion des bilans n’a pas à être nécessairement inflationniste. Par contre, la menace sur la stabilité des prix à long terme est réelle si l’indépendance des banques centrales est compromise. 

 

Références

FERGUSON, Niall, Andreas SCHAAB & Moritz SCHULARICK (2015), « Central bank balance sheets: Expansion and reduction since 1900 », CESifo, working paper, n° 5379.

WESSEL, David (2014), « Niall Ferguson’s (mostly) comforting history of central bank balance sheet expansions », in Wall Street Journal, 28 mai.

Partager cet article

publié par Martin Anota - dans Politique monétaire
commenter cet article
22 juin 2015 1 22 /06 /juin /2015 17:29

Le rôle que doivent jouer les banques centrales face aux variations des prix d’actifs continue d’être débattu. Avant la récente crise financière mondiale, certains préconisaient l’adoption de politiques monétaires allant « à contre-sens du courant » (leaning against the wind), consistant à faire éclater une bulle spéculative le plus tôt possible : dans cette logique, plus une bulle éclate rapidement, moins elle affectera l’activité. Ils étaient toutefois minoritaires : le consensus d’avant-crise était que les autorités monétaires devaient ignorer les bulles lorsqu’elles gonflent, et ce pour de multiples raisons. En effet, les bulles sont difficiles à détecter. Ensuite, même si elles sont détectées, un resserrement de la politique monétaire pourrait ne pas parvenir à les faire éclater, mais pourrait par contre très certainement freiner l’activité économique. Enfin, rien n’assure que les bulles finissent forcément par éclater, si bien qu’il est alors inutile de resserrer la politique monétaire. Par contre les banques centrales doivent intervenir lorsque les bulles éclatent en assouplissant leur politique monétaire pour réduire les répercussions de leur effondrement sur l’activité et éviter qu’elles ne génèrent des pressions déflationnistes. Lorsque la bulle internet éclata au début des années deux mille, les banques centrales assouplirent leur politique monétaire et le krach n’eut au final qu’un impact limité sur l’activité, ce qui conforta l’idée que la politique monétaire est à même de gérer la contraction de la demande globale consécutive à un effondrement des prix d’actifs. La sévérité de la Grande Récession et la lenteur de la subséquente reprise ont fait quelque peu voler en éclats le consensus d’avant-crise. Par contre, si les banques centrales ne peuvent véritablement pas ignorer les bulles spéculatives, il n’est pas certain qu’elles doivent pour autant utiliser leur politique monétaire pour les faire éclater prématurément : si la politique macroprudentielle parvient à elle seule à contenir l’accumulation de déséquilibres financiers au cours des booms, la banque centrale peut continuer d’utiliser la politique monétaire exclusivement pour stabiliser l’activité et l’inflation.

Malheureusement, il est très difficile de trancher dans ce débat en raison du manque de données empiriques sur les bulles spéculatives. Puisque les cycles d’expansions et d’effondrements des prix d’actifs et les crises financières sont des événements relativement rares, ils ne peuvent être rigoureusement étudiés qu’à partir de données de très long terme. Pour pallier ce manque, Oscar Jordà, Moritz Schularick et Alan Taylor (2015) ont étudié le rôle que jouent le crédit et les bulles sur les marchés d’actifs dans l’émergence des crises financières, en observant des données relatives à 17 pays entre 1870 et 2012. Ce faisant, ils poursuivent directement leur précédente étude portant sur les interactions entre politique monétaire, les bulles imobilières et l'instabilité financière [Jordà et alii, 2014].

Jordà et ses coauteurs notent tout d’abord que les récessions couplées avec une crise financière survenaient régulièrement avant la Seconde Guerre mondiale : pratiquement un tiers des récessions (en l’occurrence 22 des 74 récessions qu’ils observent) ont été synchrones avec une crise financière. Après la Seconde Guerre mondiale, cette proportion diminue : 22 des 84 récessions d’après-guerre ont été couplées avec une crise financière. Les auteurs se demandent alors si les récessions couplées à une crise financière sont typiquement précédées par des booms sur les marches d’actifs. La moitié des récessions couplées à une crise financière qui sont survenues avant la Seconde Guerre mondiale ont été précédées par une hausse des cours boursiers ou des prix de l’immobilier. En effet, la spéculation a très souvent eu lieu dans d’autres marchés d’actifs, notamment des matières premières. Par contre, après la Seconde Guerre mondiale, 21 des 22 récessions couplées avec une crise financière sont synchrones avec une chute des cours boursiers ou des prix de l’immobilier. Si les booms sur les marchés boursiers jouent un rôle proéminant dans les récessions financières avant la Seconde Guerre mondiale, les récessions financières observées après celle-ci ont très souvent été précédées par des bulles simultanées sur les marchés boursiers et immobiliers. Jorda et ses coauteurs se tournent ensuite vers les récessions « normales », c’est-à-dire celles qui ne s’accompagnent pas d’une crise financière. Avant la Seconde Guerre mondiale, la grande majorité des récessions normales (en l’occurrence 45 des 52 récessions) n’avaient pas de liens avec les actions ou l’immobilier. Par contre, environ la moitié des récessions normales d’après-guerre (29 des 62 récessions normales) sont liées à des bulles boursières. Parmi ces 55 récessions normales d’après-guerre, 5 sont liées à des bulles immobilières et 6 sont liées à la fois à des bulles immobilières et boursières.

Ensuite, Jordà et ses coauteurs notent également que les cours boursiers sont plus volatils que les prix de l’immobilier : les bulles boursières sont plus fréquentes que les bulles immobilières. Il y a eu après la Seconde Guerre mondiale plusieurs bulles boursières qui n’ont pas entraîné de crise financière. Par contre, même si les bulles immobilières sont moins fréquentes que les bulles boursières, elles ont plus de chances d’être suivies par une crise financière. Parmi les 44 récessions couplées à une crise financière que les auteurs peuvent observer dans leur échantillon, 28 sont liées à une bulle boursière, tandis que 18 sont liées à une bulle immobilière. Le contraste est encore plus frappant avec les récessions normales : parmi les 114 récessions normales, 40 sont liées à une bulle boursière, tandis que 15 sont liées à une bulle immobilière.

Ainsi, certaines bulles sont plus dangereuses que d’autres mais, comme le démontrent ensuite Jordà et ses coauteurs, c’est surtout l’interaction entre les bulles d’actifs et la croissance du crédit qui génère les plus grands risques d’instabilité financière. En effet, les simples bulles résultant de l’exubérance irrationnelle des marches (comme la bulle internet à la fin du vingtième siècle) peut n’offrir qu’une menace limitée à la stabilité financière. Par contre, les bulles alimentées par le crédit (comme la récente bulle immobilière aux Etats-Unis) sont une dangereuse combinaison. Dans de telles bulles, de pernicieux effets rétroactifs apparaissent entre la croissance du crédit, les prix d’actifs et le levier d’endettement : les prix d’actifs incitent les banques à davantage prêter et l’ensemble des agents à davantage emprunter, mais le crédit stimule en retour les achats d’actifs, donc pousse leur prix à la hausse. Ensuite, en analysant les conséquences macroéconomiques d’un effondrement des prix d’actifs, les auteurs montrent que les pertes en production d’un tel effondrement sont plus importantes et plus durables et la reprise subséquente de l’activité plus lente si la hausse des prix d’actifs lors du boom interagit avec une forte expansion du crédit. Lorsque les bulles alimentées par le crédit éclatent, elles amorcent un processus de désendettement qui déprime les dépenses des ménages et des entreprises, freine l’activité et détériore davantage la situation financière des agents économiques, ce qui déstabilise davantage les banques et les désincite à prêter. Un tel désendettement peut effectivement expliquer pourquoi la reprise a été particulièrement lente suite à la récente crise financière mondiale.

 

Références

JORDÀ, Òscar, Moritz SCHULARICK & Alan M. TAYLOR (2014), « Betting the house », NBER, working paper, n° 20771, décembre. 

JORDA, Òscar, Moritz SCHULARICK et Alan M. TAYLOR (2015), « Leveraged bubbles », document de travail, juin.

Partager cet article

publié par Martin Anota - dans Instabilité financière
commenter cet article
18 juin 2015 4 18 /06 /juin /2015 18:20

Certaines caractéristiques géographiques qui ont été propices au développement économique lors de l’étape agricole se sont révélées être des obstacles à la transition vers l’étape industrielle du développement. Pourtant, selon la croyance conventionnelle partagée par de nombreux économistes, la prospérité a persisté dans les économies qui ont connu une industrialisation précoce. En l’occurrence, le développement industriel est un catalyseur pour la croissance économique, dans la mesure où il aurait un effet persistant sur la prospérité économique. Pourtant, les régions industrielles qui étaient prospères en Europe occidentale et aux Etats-Unis au dix-neuvième siècle ont connu un déclin relatif par rapport aux autres régions de leur pays respectif. C’est le cas des Midlands au Royaume-Uni, de la Ruhr en Allemagne ou encore de la Rust Belt aux Etats-Unis.

De leur côté, Raphaël Franck et Oded Galor (2015) suggèrent que l’adoption de technologie industrielle est certes initialement favorable au développement économique, mais qu’elle exerce par contre un effet nuisible sur les niveaux de vie à long terme. Après avoir recueilli des données allant du dix-neuvième siècle jusqu’au début du vingt-et-unième, les auteurs observent les différences régionales dans l’adoption des machines à vapeur durant la Révolution industrielle en France, avant d’observer les différences régionales dans les performances macroéconomiques, avec en tête l’idée de rechercher comment l’écart de revenu entre les départements qui se sont le plus rapidement industrialisés et les autres départements a évolué au cours du temps. Le degré d’avancement dans le processus d’industrialisation atteint par chaque département est déterminé à partir de la prévalence de machines à vapeur sur la période 1860-1865 (cf. graphique ci-dessous). C’est à Fresnes-sur-Escaut, en 1732, qu’une machine à vapeur fut pour la première utilisée à des fins commerciales.

GRAPHIQUE Répartition de la puissance totale des machines à vapeur entre 1960 et 1965

L’industrialisation favorise-t-elle la prospérité à long terme ?

L’analyse prend en compte l’impact potentiel des caractéristiques géographiques de chaque département sur la relation entre l’industrialisation et le développement économique, notamment le climat, la pluviosité, la latitude, etc. En l’occurrence, elle prend en compte l’impact de ces facteurs spatiaux sur la profitabilité de l’adoption de la machine à vapeur, sur le rythme de sa diffusion d’une région à l’autre, etc. Elle prend également en compte l’emplacement  de chaque département, en l’occurrence son éloignement par rapport à la bordure maritime, son éloignement par rapport à Paris, les départements et pays qui le côtoient, etc. Enfin, l’analyse prend en compte les différences de développement initiales durant l’ère préindustrielle qui sont susceptibles d’affecter le processus d’industrialisation et le développement économique.

Franck et Galor constatent que les régions qui se sont industrialisées le plus tôt ont connu une hausse des taux d’alphabétisation plus rapidement que les autres régions et qu’elles générèrent des revenus par tête plus élevés que ces dernières aux cours des décennies suivantes. En effet, l’analyse établit que la puissance des machines à vapeur de chaque département sur la période 1860-1865 a un impact positif et significatif sur son revenu par tête en 1872, en 1901 et en 1930. Par contre, l’industrialisation précoce exerce un impact négatif sur le revenu par tête, l’emploi et l’égalité dans la période consécutive à 2000.

Les deux auteurs poursuivent leur analyse en explorant les possibles canaux à travers lesquels le développement industriel précoce peut avoir un impact négatif sur le niveau actuel de développement. Ils estiment que le déclin actuel des zones industrielles ne s’explique ni par une plus forte syndicalisation, ni par des salaires plus élevés, ni même par des restrictions aux échanges. Selon Franck et Galor, l’effet négatif de l’industrialisation précoce sur l'accumulation du capital humain est la principale force à l’origine du déclin relatif des régions industrielles. En l’occurrence, les zones qui ont connu une industrialisation précoce ont peut-être connu les plus gros progrès en termes d’alphabétisation et de scolarité au cours de celle-ci, mais ces zones ont par la suite été dépassées en termes de niveau scolaire par le reste du territoire. Une interprétation pourrait être que la prime industrialisation nécessitait à l’époque des travailleurs plus qualifiés que ceux employés dans les autres secteurs de l’économie, notamment l’agriculture. Savoir lire et compter reflétait peut-être alors un capital humain plutôt élevé. Mais aujourd’hui, non seulement ce savoir de base est peut-être considéré comme un faible capital humain, mais les autres secteurs de l’économie (en particulier le tertiaire) exigent peut-être davantage de qualifications que l’industrie. 

Ces constats amènent au final Franck et Galor à conclure que ce n’est pas l’adoption de technologies industrielles en tant que telle, mais les forces qui amorcèrent l’industrialisation qui ont été la source de prospérité parmi les économies que l’on considère aujourd’hui comme développées.

 

Référence

FRANCK, Raphaël, & Oded GALOR (2015), « Is industrialization conducive to long-run prosperity? », document de travail.

Partager cet article

15 juin 2015 1 15 /06 /juin /2015 20:22

Les inégalités de revenu s’accroissent dans la plupart des pays. Entre 1990 et 2012, dans les pays avancés, le coefficient de Gini a augmenté en moyenne de 5,25 points de Gini, tandis que le coefficient de Gini du revenu disponible (c’est-à-dire calculé après redistribution) a augmenté en moyenne de 3 points de Gini. La part du revenu captée par les 1 % des ménages les plus aisés tend à s’accroître et représente désormais environ 10 % du revenu total des pays avancés. Cette déformation dans la répartition du revenu s’explique par un creusement des inégalités dans la répartition du revenu du travail que du revenu du capital. Les inégalités sont plus fortes dans la répartition du patrimoine dans que dans la répartition du revenu.

GRAPHIQUE Les variations du coefficient de Gini entre 1990 et 2012 (en points de pourcentage) et son niveau en 2012 dans quelques pays

Le creusement des inégalités entrave la croissance

Les précédentes études du FMI, notamment celle réalisée par Jonathan Ostry, Andrew Berg et Charalambos Tsangarides (2014), ont constaté que les inégalités de revenu (mesurées à travers le coefficient de Gini) tendent à détériorer la croissance et à la rendre moins soutenable. Dans une étude plus récente, Era Dabla-Norris, Kalpana Kochhar, Nujin Suphaphiphat, Frantisek Ricka et Evridiki Tsounta (2015) ont montré que ce ne sont pas seulement les inégalités de revenu, mais plus largement la répartition même du revenu qui importe pour la croissance.

Dabla-Norris et alii confirment tout d’abord l’un des résultats d’Ostry et alii : une hausse du coefficient de Gini est associée à une moindre croissance de la production à moyen terme. Ils constatent en outre que l’accroissement de la part du revenu allant aux pauvres et aux classes moyennes contribue à stimuler la croissance économique, tandis que l’accroissement de la part du revenu rémunérant les 20 % les plus aisés se traduit par une plus faible croissance économique à moyen terme. Si la part du revenu rémunérant les 20 % les plus aisés augmente d’un point de pourcentage, la croissance du PIB diminue de 0,08 point de pourcentage au cours des cinq années suivantes, ce qui suggère que lorsque les plus riches s’enrichissent, il n’y a pas de « ruissellement » (trickle-down) des riches vers les pauvres. Par contre, si la part du revenu allant aux 20 % des plus pauvres augmente d’un point de pourcentage, la croissance économique augmente de 0,38 point de pourcentage. Une relation positive apparaît également entre les parts du revenu disponible et la croissance économique pour les deuxième et troisième quintiles (correspondant aux classes moyennes). 

Certes les inégalités peuvent stimuler la croissance, si elles incitent les agents à davantage investir et à fournir plus de travail, mais elles peuvent également la freiner. Par exemple, le creusement des inégalités empêche les plus pauvres de rester en bonne santé et d’accumuler aussi bien du capital physique que du capital humain, ce qui freine la productivité du travail et l’innovation. Dans une optique plus keynésienne, la concentration des revenus peut aussi freiner la croissance en réduisant la demande agrégée, car les plus riches ont une plus faible propension à consommer que les plus pauvres. L’essor des inégalités peut également nuire à la croissance en favorisant les crises financières. Par exemple, une période prolongée d’accroissement des inégalités dans les économies développées accroît le risque d’instabilité financière en incitant les ménages les plus pauvres à s’endetter et en permettant à certains groupes de pression d’appeler à une poursuite de la dérégulation financière. De plus, un accroissement de la part du revenu captée par les plus riches, dans un contexte de libéralisation financière, accroit les déficits extérieurs, or de tels déséquilibres augmentent également le risque de crise financière, donc de retournements brutaux de l’activité. Enfin, de fortes inégalités nuisent à l’investissement et aux relations marchandes en sapant la confiance et à la cohésion sociale, voire en favorisant l’émergence de conflits sociaux.

La littérature a déjà avancé plusieurs facteurs susceptibles d’expliquer les inégalités. Par exemple, en accroissant la demande de travail qualifié et en réduisant la demande de travail peu qualifié, le progrès technique aurait accru la prime de qualification (skill premium), c’est-à-dire l’écart entre les salaires des plus qualifiés et les salaires des moins qualifiés. Dans les pays avancés, la plus grande capacité des entreprises à adopter des technologies économes en main-d’œuvre et à délocaliser leurs unités de production a pu contribuer à accroître la prime de qualification et à exposer les moins qualifiés au chômage et à la modération salariale. La globalisation et la dérégulation financières ont pu accroître le patrimoine financier et les salaires dans le secteur financier, alors même que ce dernier est l’un des secteurs ayant connu la plus forte croissance au cours des dernières décennies. En outre, la plus grande flexibilité des marchés du travail a pu nuire aux travailleurs les moins qualifiés. En l’occurrence, le déclin de la syndicalisation a pu exacerber les inégalités de salaires en réduisant le pouvoir de négociation des travailleurs. Enfin, les systèmes de redistribution dans les pays avancés sont peut-être devenus de moins en moins progressifs au cours des dernières décennies, si bien qu’ils auraient eu de plus en plus de mal à contenir la hausse des inégalités.

A partir d’un échantillon de quasiment 100 pays avancés et en développement sur la période 1980-2012, Dabla-Norris et ses coauteurs réalisent alors une analyse empirique pour déterminer quels facteurs ont été à l’origine du creusement des inégalités à travers le monde. Ces facteurs ne sont pas les mêmes ou n’ont pas la même importance d’un pays à l’autre, mais certains sont communs à l’ensemble des pays. L’ouverture financière et le progrès technique sont associés à un accroissement des inégalités de revenu, puisqu’ils accroissent la prime de qualification et profitent par là de façon disproportionnée aux travailleurs qualifiés. La dérégulation du marché du travail bénéficie aux plus riches, mais réduit le pouvoir de négociation des travailleurs à faible revenu, si bien qu’elle contribue à accroître la part du revenu allant aux 10 % des plus aisés. L’approfondissement financier, le progrès technique et la dérégulation des marchés du travail expliquent l’essentiel de la hausse des inégalités des trois dernières décennies. Dans la mesure où le creusement des inégalités Dabla-Norris et ses coauteurs achèvent leur étude en appelant notamment à accroître la progressivité de l'impôt et à réprimer plus sévèrement les niches fiscales et l’évasion fiscale.

 

Références

DABLA-NORRIS, Era, Kalpana KOCHHAR, Nujin SUPHAPHIPHAT, Frantisek RICKA et Evridiki TSOUNTA (2015), « Causes and consequences of income inequality: A global perspective », FMI, staff discussion paper, n° 15/13, juin.

OSTRY, Jonathan D., Andrew BERG & Charalambos G. TSANGARIDES (2014), « Redistribution, inequality, and growth », FMI, staff discussion note, n° 14/02, février.

Partager cet article

13 juin 2015 6 13 /06 /juin /2015 16:17

Face à la sévérité de la Grande Récession et à la lenteur de la subséquente reprise, les banques centrales ont adopté diverses mesures « non conventionnelles » pour stimuler l’économie et la ramener au plein emploi. Elles ont notamment adopté des politiques d’assouplissement quantitatif (qualitative easing) consistant, selon la définition qu’en donnent Lenza et alii (2010), à accroître délibérément la taille du bilan, mais aussi l’assouplissement du crédit (credit easing) qui consiste à changer délibérément la composition de l’actif. Ce fut le cas de la Réserve fédérale aux Etats-Unis, dès la fin de l’année 2008, lorsqu’elle ramena son taux directeur au plus proche de zéro et chercha d'autres moyens pour davantage approfondir sa politique monétaire. Au début de l’année 2014, la Banque du Japon s’est lancée dans un programme d’accroissement rapide de son bilan (constituant la « première flèche » de l’abenomics) afin de sortir l’économie insulaire de la déflation dans laquelle elle est plongée depuis la fin des années quatre-vingt-dix. Plus récemment, le basculement de la zone euro dans la déflation a finalement convaincu la BCE d'adopter un programme d’assouplissement quantitatif malgré la réticence de plusieurs de ses membres.

Au niveau théorique, les études explorant l’impact de la politique monétaire sur les anticipations d’inflation s’appuient très souvent sur l’analyse que réalisa Paul Krugman (1998) lorsqu’il observa l’enfermement du Japon dans une trappe à liquidité à la fin des années quatre-vingt-dix. Krugman y suggérait que l’inefficacité dont fait preuve la politique monétaire dans une trappe à liquidité se ramène finalement à un problème de crédibilité. Dans son modèle, l’offre de monnaie à long terme est fixe et celle-ci détermine le niveau des prix à l’avenir. Cependant, si la banque centrale peut s’engager de façon crédible à accepter une plus large offre de monnaie à long terme et donc des prix plus élevés à l’avenir qu’ils n’auraient dû l’être, alors les taux d’intérêt réels auront tendance à décliner, stimulant dans la période courante l’investissement et sortant finalement l’économie de la trappe à liquidité. L’expansion et la modification du bilan des banques centrales peuvent (a priori) rendre crédible leur engagement à laisser une période de forte inflation une fois la reprise amorcée. 

L’assouplissement quantitatif vise à assouplir davantage la politique monétaire (même si les taux directeurs butent déjà sur leur borne inférieure zéro). Elle affecte en théorie l’activité via le canal du rééquilibrage des portefeuilles (portfolio-rebalancing) et le canal du signalement (signalling). Il y a rééquilibrage des portefeuilles en raison de l’imparfaite substituabilité entre les actifs : en modifiant les prix relatifs des actifs, un programme d’achat d’actifs à grande échelle réduit notamment les rendements obligataires (ce qui diminue les coûts de financement pour les entreprises) et incite les agents à acheter des actifs risqués (notamment des actions, ce qui accroît les cours boursiers et incite les ménages à consommer, via les effets de richesse, en accroissant la valeur de leur patrimoine financier). En outre, en accroissant son bilan, une banque centrale signale sa détermination à laisser ses taux d’intérêt à un faible niveau pendant une période prolongée, ce qui incite les agents à s’endetter et donc à dépenser. Toutefois, l’accroissement du bilan peut aussi conduire au résultat opposé : il peut en effet signaler aux agents que la banque centrale s’attend à une faiblesse durable de l’inflation et de l’activité, ce qui les amène en fait à réviser leurs propres anticipations d’inflation à la baisse et les désincite à emprunter. L’activité et l’inflation restent alors affaiblies et les anticipations se seront révélées être au final autoréalisatrices. Enfin, l’accroissement du bilan peut générer des effets de débordement sur les marchés des changes : en entraînant une dépréciation du taux de change, il alimente l’inflation importée. 

Jan Willem van den End et Christiaan Pattipeilohy (2015) ont analysé au niveau empirique l’impact que les programmes d’assouplissement quantitatif et d’assouplissement du credit adoptés par quatre banques centrales (en l’occurrence la Fed, la Banque d’Angleterre, la Banque du Japon et la BCE) ont pu avoir sur les anticipations d’inflation et le taux de change entre 2007 et 2014. Leur analyse suggère qu’un accroissement du bilan des banques centrales via l’assouplissement quantitatif est associé à une baisse des anticipations d’inflation à court terme aux Etats-Unis et au Royaume-Uni, ce qui suggère que des effets de signalement adverses sont à l’œuvre : les marchés interprètent l’assouplissement quantitatif comme signalant une faiblesse durable de l’activité, ce qui alimente leur pessimisme. Les répercussions de l’accroissement du bilan sur les anticipations d’inflation sont négligeables en zone euro. Le Japon est une exception, puisque l'accroissement de la taille du bilan de la banque centrale a entraîné une révision à la hausse des anticipations d’anticipation. Suite à l’adoption d’un assouplissement du crédit, les anticipations d’inflation à court terme tendent à s’accroître aux Etats-Unis et au Royaume-Uni, mais elles ne varient pas en zone euro ; un changement dans la composition du bilan n’a par contre aucun effet sur les anticipations d’inflation à long terme. En ce qui concerne les répercussions sur le taux de change, End et Pattipeilohy constatent que l’accroissement du bilan de la Fed s’est traduit par une appréciation du dollar. Par contre, l’accroissement du bilan de la Banque du Japon, de la Banque d’Angleterre et de la BCE tend respectivement à entraîner une dépréciation du yen, de la livre sterling et de l’euro. L’assouplissement du crédit opéré par la Banque d’Angleterre conduit par contre à une appréciation de la livre sterling.

Selon End et Pattipeilohy, la relative insensibilité des anticipations d’inflation aux politiques de bilan suggère que leur adoption n’a pas sapé la crédibilité des banques centrales : elle n’a pas suggéré aux marchés que les banques centrales revenaient sur leur engagement à cibler l’inflation. Malgré tout, leur étude montre que les banques centrales peuvent échouer à accroître les anticipations d’inflation. Les politiques de bilan se révèlent en soi insuffisantes pour changer significativement ces dernières. Selon les modèles des nouveaux keynésiens, l’assouplissement quantitatif ne peut parvenir à changer les anticipations que si la banque centrale parvient à s’engager de façon crédible à laisser une plus forte inflation en changeant de stratégie de politique monétaire. Par exemple, l’adoption d’un assouplissement quantitatif par la Banque du Japon fut synchrone avec un changement de sa stratégie de politique monétaire, puisqu’elle a abandonné son objectif d’inflation de 1 % pour un objectif d’inflation de 2 %. Par contre, la BCE, la Banque d’Angleterre et la Fed ont gardé leur cible d’inflation (en l’occurrence 2 %), ce qui a pu suggérer qu’elles resserraient leur politique monétaire dès que l’inflation s’accélérerait et réduit ainsi l’efficacité leurs mesures non conventionnelles. La crédibilité de ces banques centrales les empêche peut-être précisément à accroître significativement les anticipations d’inflation.

 

Références

Van den END, Jan Willem, & Christiaan PATTIPEILOHY (2015), « Central bank balance sheet policies and inflation expectations », De Nederlandsche Bank, working paper, mai.

KRUGMAN, Paul R. (1998), « It’s baaack: Japan’s slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, vol. 2.

LENZA, Michele, Huw PILL & Lucrezia REICHLIN (2010), « Monetary policy in exceptional times », Economic Policy, vol. 25, n° 4.

 

Partager cet article

publié par Martin Anota - dans Politique monétaire
commenter cet article
10 juin 2015 3 10 /06 /juin /2015 19:25

Depuis les années soixante-dix, le partage du revenu national a eu tendance à se déformer au profit des hauts revenus, en particulier dans les pays développés. Peut-être que la répartition du revenu s’oriente de plus en plus en faveur du capital et (par conséquent) de plus en plus en défaveur du travail, mais ce que les économies avancées ont connu, c'est surtout un fort creusement des inégalités dans la répartition des revenus du travail. Les études macroéconomiques sur les inégalités se sont multipliées depuis la parution du Capital au XXIième siècle de Thomas Piketty, afin d’en déterminer les causes, mais aussi leurs répercussions sur la croissance.

Plusieurs raisons ont été avancées pour expliquer le creusement des inégalités : la concurrence internationale, la financiarisation de l’économie, le déclin du syndicalisme, etc. Le progrès technique a souvent été présenté comme l’un des principaux moteurs des inégalités salariales. Il serait en l’occurrence biaisé en faveur du travail qualifié (skill-biased). En effet, selon des auteurs comme Daron Acemoglu (2002), David Autor, Frank Levy et Richard Murnane (2003), si les machines sont substituables avec le travail peu qualifié, elles sont par contre complémentaires avec le travail qualifié. Par conséquent, l’automatisation et la diffusion des nouvelles technologies d’information entraînent une baisse de la demande de travail peu qualifié et une hausse de la demande de travail qualifié. Or un facteur est d’autant plus rémunéré qu’il est demandé. En conséquence, puisque les travailleurs peu qualifiés voient leurs salaires être poussés à la baisse, tandis que les travailleurs qualifiés voient leurs salaires être poussés à la hausse, les inégalités salariales tendent à s’accroître. Cette idée serait confirmée par le fait que la prime de qualification (skill premium), c’est-à-dire l’écart salarial entre les très diplômés et les peu diplômés ait eu tendance à s’accroître ces dernières décennies, alors même que le nombre de diplômés a fortement augmenté. Dans cette logique, si l’économie est soumise à une destruction créatrice, à travers laquelle les emplois créés dans les secteurs innovants exigent davantage de compétences que les emplois détruits dans les secteurs en déclin, alors le processus tend à accroître le nouveau global de compétences. 

Toutefois, les études les plus récentes considèrent que ce ne sont pas nécessairement les tâches les moins qualifiées qui sont les plus explosées à l’automatisation, mais plutôt les tâches exigeant des qualifications intermédiaires. Les analyses empiriques suggèrent effectivement que le marché du travail connaît une polarisation : ce sont les emplois moyennement qualifiés qui tendent à disparaître, si bien que la main-d’œuvre se répartit de plus en plus entre des emplois très qualifiés (donc très rémunérés) et des emplois peu qualifiés (donc peu rémunérés). 

Le progrès technique est susceptible d’affecter les inégalités de revenu par un autre canal : en plaçant l’innovateur dans une situation de monopole, l’innovateur perçoit des rentes. Par conséquent, le processus de destruction créatrice stimule peut-être la croissance à long terme, mais il s’accompagne également d’une déformation du partage du revenu en faveur des innovateurs. Dans cette optique, le creusement des inégalités n’est pas perçu comme nocif pour la croissance : c’est peut-être précisément parce qu’ils espèrent obtenir des hauts revenus que les agents cherchent à innover. Il n’est alors pas étonnant de voir que, parmi les 50 individus les plus riches recensés par Forbes en 2015, 11 soient présentés comme des innovateurs et plusieurs autres dirigent ou possèdent des entreprises qui déposent des brevets.

Philippe Aghion, Ufuk Akcigit, Antonin Bergeaud, Richard Blundell et David Hémous (2015) utilisent des données de panel sur la période 1975-2010 pour observer l’impact de l’inventivité sur les inégalités de revenu. Ils mesurent l’inventivité par la quantité et la qualité des innovations brevetées et l’évolution des inégalités de revenu sont observées à travers la part du revenu détenue par les 1 % des ménages les plus aisés. Ils mettent en évidence une corrélation positive entre diverses mesures de l’inventivité et les inégalités de revenu aux Etats-Unis au cours des dernières décennies. Cette corrélation reflète (du moins partiellement) une causalité allant de l’inventivité vers les inégalités de revenu et cet effet est significatif : par exemple, lorsque les auteurs utilisent le nombre de brevets par tête, l’inventivité explique en moyenne 17 % de la hausse de la part du revenu allant aux 1 % des ménages les plus aisés entre 1975 et 2010. Par contre, lorsqu’Aghion et ses coauteurs utilisent des indicateurs d’inégalités de revenu qui ne se focalisent pas sur les 1 % des plus aisés, ils ne font apparaître qu’une faible corrélation positive, voire-une corrélation négative. C’est notamment le cas lorsqu’ils utilisent le coefficient de Gini, l’indice d’Atkinson ou la part rémunérant les 10 % les plus riches (de laquelle on retranche la part rémunérant les 1 % les plus aisés). Enfin les auteurs constatent que les effets positifs de l’inventivité sur la part du revenu national rémunérant les 1 % des ménages les plus aisés sont atténués dans les Etats présentant le lobbying le plus intense.

Aghion et ses coauteurs réalisent également des régressions transversales au niveau des zones de comutage. Celles-ci suggèrent que l’innovation est positivement corrélée avec la mobilité sociale ascendante, que la corrélation positive entre l’inventivité et la mobilité sociale s’explique surtout par les innovateurs entrants (et non par les innovateurs en place) et qu’elle s’affaiblit dans les Etats avec le lobbying le plus intense.

Les trois auteurs jugent que les résultats de leur étude confirment la thèse (néo)schumpétérienne selon laquelle une croissance tirée par l’innovation accroît à la fois la part du revenu rémunérant les plus aisés (en raison des rentes d’innovation), mais aussi la mobilité sociale (qui résulte de la réallocation des travailleurs d’un secteur à l’autre qui résulte du processus de destruction créatrice).

 

Références

ACEMOGLU, Daron (2002), « Technical change, inequality, and the labor market », in Journal of Economic Literature, vol. 40.

AGHION, Philippe, Ufuk AKCIGIT, Antonin BERGEAUD, Richard BLUNDELL & David HÉMOUS (2015), « Innovation and top income inequality », NBER, working paper, n° 21247, juin.

AGHION, Philippe, & Peter Howitt (1992), « A model of growth through creative destruction », in Econometrica, vol. 60.

AUTOR, David H., Lawrence F. KATZ & Melissa S. KEARNEY (2006), « The polarization of the U.S. labor market », in American Economic Review, vol. 96, n° 2.

AUTOR, David H., Frank LEVY & Richard J. MURNANE (2003), « The skill content of recent technological change: An empirical exploration », in Quarterly Journal of Economics, vol. 118, n° 4.

Partager cet article

7 juin 2015 7 07 /06 /juin /2015 09:57

La croissance de la productivité marque le pas aux Etats-Unis et la crise financière mondiale n'en est pas (la seule) responsable. En effet, la croissance de la productivité totale des facteurs (PTF) a commencé à ralentir au milieu des années deux mille, c’est-à-dire avant même la Grande Récession. Après avoir atteint en moyenne environ 1,75 % entre 1996 et 2004, elle a ensuite été divisée par deux sur la période 2005-2013. Ce ralentissement, combiné à la baisse des taux d’activité, signifie que la croissance de production potentielle a ralenti aux Etats-Unis : celle-ci pourrait être passée de 3 % à 2 %. Ce constat n’est guère enchanteur : il suggère qu’à long terme le niveau de vie américain progressera plus lentement qu’auparavant.

GRAPHIQUE  Taux de croissance de la production réelle et de la productivité totale des facteurs aux Etats-Unis (en %)

Le ralentissement de la productivité américaine

Pour beaucoup, ce ralentissement s’explique par un essoufflement de la révolution informatique ou tout du moins par l’émoussement de ses répercussions sur l’activité. John Fernald (2014) affirme que le récent ralentissement de la croissance de la productivité n’est qu’un retour au rythme moyen observé entre 1973 et 1995, après plus d’une décennie de gains de productivité exceptionnels associés à la révolution informatique. Après avoir accéléré au milieu des années quatre-vingt-dix, la croissance de la productivité du travail a de nouveau ralenti au début des années deux mille. Peu de preuves empiriques suggèrent que les dynamiques tendancielles de productivité aient fortement changé au cours de la Grande Récession ou lors de la reprise. Les dynamiques de la productivité du travail et de la PTF sont similaires à celles observées au cours des précédentes récessions. La PTF a connu le plus fort ralentissement observé depuis la Seconde Guerre mondiale, ce qui est cohérent avec l’idée d’une rétention de main-d’œuvre et de capital. La productivité du travail n’a pas décliné autant, ce qui reflète un approfondissement du capital durant la récession (l’usage de la main-d’œuvre déclinant plus rapidement que le capital) et une hausse de la qualité du travail (dans la mesure où ce sont essentiellement les travailleurs peu qualifié qui perdirent leur emploi). Durant la reprise, la TFP et la productivité du travail retournèrent pratiquement à leur tendance du milieu des années deux mille. Pessimiste, Robert Gordon (2012) doute de la capacité des Etats-Unis à générer des innovations aussi importantes que celles issues de la deuxième révolution industrielle. Selon lui, la troisième révolution industrielle, celle organisée autour des nouvelles technologies d’information et de la communication (TIC), a non seulement été courte, mais ses innovations ont peu de répercussions sur la croissance américaine, comparées aux précédentes.

D’autres sont plus optimistes sur la capacité des Etats-Unis à innover et sur la capacité des innovations à stimuler la croissance américaine à l’avenir. Par exemple, David Byrne, Stephen Oliner et Daniel Sichel (2013) montrent que depuis 2004, les TIC ont continué à fortement contribuer à la croissance de la productivité du travail aux Etats-Unis, mais qu’ils ne la stimulent pas autant que durant la période comprise entre 1995 et 2004. Ensuite, ils montrent que la technologie des semi-conducteurs, qui joue un rôle crucial dans la révolution des TIC, a poursuivi ses progrès à un rythme soutenu et que la baisse de ses prix peut avoir été fortement sous-estimée. Enfin, selon leurs prévisions de base, la croissance tendancielle de la productivité du travail devrait s’établir à 1,75 %, c’est-à-dire à un rythme inférieur à la moyenne de long terme (en l’occurrence 2,25 %), mais supérieur à ce qui a été observé au cours des dernières années. Selon des hypothèses plus optimistes, mais loin d’être irréalistes, ils suggèrent qu’elle pourrait revenir à sa moyenne historique, voire même la dépasser. En d’autres termes, ils estiment que la révolution informatique est loin d’être finie. De leur côté, Martin Neil Baily, James Manyika et Shalabh Gupta (2013)  estiment que les opportunités technologies restent importantes dans l’industrie avancée et que la révolution énergétique va impulser de nouveaux investissements, non seulement dans l’extraction d’énergies, mais aussi dans le secteur du transport et dans l’industrie intensive en énergie. Plusieurs secteurs importants de l’économie américaine, tels que l’éducation, la santé, les infrastructures et le secteur public, ont historiquement été en retard en termes de croissance de la productivité, non pas en raison d’un manque d’opportunités d’innovation, mais plutôt en raison de la rigidité institutionnelle et d’un manque d’incitations à changer.

Roberto Cardarelli et Lusine Lusinyan (2015) cherchent à éclairer le ralentissement de la croissance de la PTF des Etats-Unis en estimant la PTF au niveau agrégée et au sein des différents Etats au cours des deux dernières décennies. Ce faisant, ils cherchent à déterminer si le ralentissement de la croissance de la PTF a été similaire d’un Etat à l’autre, puis à quelle ampleur la croissance de la PTF agrégée peut bénéficier de la convergence des Etats à faible productivité vers les Etats à forte productivité et enfin quels sont les facteurs et les politiques les plus déterminants pour la croissance de la PTF. 

En observant la croissance de la PTF dans les différents Etats, les auteurs constatent que son ralentissement est généralisé. Alors que la croissance de la PTF a diminué au niveau agrégé des Etats-Unis de 1,75 point de pourcentage en moyenne sur la période 2005-2010 par rapport à la période 1996-2004, il y a en fait une forte hétérogénéité d’un Etat à l’autre. A un extrême, elle diminua de plus de 3 points de pourcentage au Nouveau-Mexique et dans le Dakota du Sud ; à un autre extrême, elle déclina de moins d’un point de pourcentage dans une dizaine d’Etats, notamment l’Oregon, l’Etat de Washington, le Nebraska et le Maryland. En outre, le ralentissement n’est pas plus important dans les Etats produisant ou utilisant relativement plus des TIC. Par exemple, le Nouveau-Mexique et l’Oregon présentent le degré le plus élevé de spécialisation dans la production de TIC et un degré similaire d’intensité en TIC, mais ont eu des performances de productivité et de croissance très différentes ces dernières décennies. Les écarts de performances entre l’Oregon et le Nouveau Mexique ne s’expliquent pas seulement par l’essoufflement du boom des TIC. Si cela avait été le cas, il y aurait eu une relation étroite entre les performances de productivité de chaque Etat et sa spécialisation dans les TIC. 

Cardarelli et Lusinyan suggèrent que le ralentissement de la croissance de la PTF aux Etats-Unis au cours des deux dernières décennies s’explique par une perte d’efficacité dans la combinaison entre le travail et le capital plutôt que par un ralentissement des avancées technologiques. En effet, ils observent comment la frontière de production (le montant maximal de production qui peut être obtenu à partir d’un montant fixe des ressources) s’est déplacée et comment chaque Etat se situe par rapport à cette frontière, c’est-à-dire s’il devient plus ou moins « efficaces ». Or ils constatent de larges écarts d’efficacité de la production d’un Etat à l’autre : la frontière de production s’est certes déplacée vers l’extérieur, mais en moyenne les Etats se sont éloignés de cette frontière. Si chaque Etat avait été capable de maintenir avec l’efficacité moyenne du pays, le PIB réel par travailleur en 2010 aurait été 3 % plus élevé qu’il ne l’a été, ce qui se serait traduit par un supplément de 400 milliards de consommation, d’investissement et d’exportations (soit plus de 1000 dollars supplémentaires pour chaque Américain). En l’occurrence, ce sont les Etats présentant les plus forts taux de réussite scolaire et un plus grand investissement en recherche-développement qui sont les plus proches de la frontière de production. En utilisant un indicateur de capital humain, Cardarelli et Lusinyan mettent en évidence une forte corrélation entre celui-ci et la croissance de la PTF parmi les Etats américains. L’analyse suggère également que les dépenses de recherche-développement des entreprises et surtout celles du gouvernement influencent positivement la croissance de la PTF.

 

Références

BAILY, Martin Neil, James MANYIKA & Shalabh GUPTA (2013), « U.S. productivity growth: An optimistic perspective », in International Productivity Monitor, vol. 25.

BYRNE, David M., Stephen D. OLINER & Daniel E. SICHEL (2013), « Is the information technology revolution over? », in International Productivity Monitor, vol. 25.

CARDARELLI, Roberto, & Lusine LUSINYAN (2014), « A tale of two states—Bringing back U.S. productivity growth », in iMFdirect (blog), 25 septembre.

CARDARELLI, Roberto, & Lusine LUSINYAN (2015), « U.S. total factor productivity slowdown: Evidence from the U.S. states », FMI, working paper, n° 15/116, mai.

FERNALD, John G. (2014), « Productivity and potential output before, during, and after the Great Recession », 29ème conference annuelle du NBER en macroéconomie.

GORDON, Robert (2012), « Is U.S. economic growth over? Faltering innovations confronts the six headwinds », NBER, working paper, n° 18315.

GORDON, Robert (2013), « U.S. productivity growth: The slowdown has returned after a temporary revival », in International Productivity Monitor, vol. 25.

Partager cet article

4 juin 2015 4 04 /06 /juin /2015 22:49

Avec la Grande Récession, la baisse des recettes fiscales associée au déclin de l’activité économique, le déploiement de plans de relance budgétaire et le renflouement du secteur bancaire ont conduit à une hausse de l’endettement public dans les pays avancés, alors même qu’elle était initialement élevée. Les ratios dette publique sur PIB ont atteint des niveaux qu’ils n’avaient pas atteints depuis plus de quatre décennies. La crainte que l’endettement suive une trajectoire explosive et devienne insoutenable a très rapidement amené les gouvernements à resserrer leur politique budgétaire ou tout du moins à abandonner la relance budgétaire à partir de 2010 pour ramener leur dette publique sur une trajectoire plus soutenable, même dans les pays qui n’ont pas connu de tensions sur le marché obligataire. Le resserrement budgétaire a pu freiner, voire avorter, la reprise dans plusieurs pays, accroissant en définitive les ratios d’endettement public au lieu de les réduire. L’insuffisance persistante de la demande globale (qui se traduit par le maintien d’un taux de chômage élevé) et la détérioration du capital public dans plusieurs pays, dans un contexte de faibles taux d’intérêt, plaidaient pourtant pour une poursuite des plans de relance budgétaire, sous la forme en particulier d’un investissement public dans les infrastructures qui serait financé par emprunt. En fait, le débat au sein du monde politique vise non pas à déterminer s’il faut opter pour la relance ou pour l'austérité, mais plutôt à quel rythme mener cette dernière. Ceux croyant que la dette publique nuit à la croissance préconisent une réduction rapide de l’endettement, tandis que ceux pointant le besoin de stimuler la demande globale préconisent de ralentir la consolidation.

Dans une nouvelle publication du FMI, Jonathan Ostry, Atish Ghosh et Raphael Espinoza (2015) cherchent à déterminer quels sont les ratios d’endettement public et les politiques d’investissement public qui sont optimaux suite à la crise financière mondiale. Ce qu’ils cherchent à déterminer est si les gouvernements endettés peuvent tout simplement ne rien faire du tout, c’est-à-dire vivre avec leur dette publique sans prendre de mesures pour la réduire. 

Ostry et ses coauteurs relèvent trois éventuelles objections à cette idée et évaluent chacune d’entre elles. Premièrement, dans certains pays, la dette publique est dangereusement élevée et leur gouvernement dispose d’une marge de manœuvre budgétaire limitée : ils sont proches d’une limite d’endettement à partir de laquelle les marchés sont susceptibles d’exiger de très fortes primes de risque sur les titres publics, voire tout simplement refuser de leur prêter. Ces pays ont un choix relativement limité, mais ce n’est pas le cas de l’ensemble des pays. Ostry et ses coauteurs distinguent les pays en fonction de leurs niveaux de dette et en les classant en trois zones : une zone verte où la marge de manœuvre budgétaire est importante ; une zone jaune où cette marge de manœuvre est positive, mais où le risque souverain est saillant ; et une zone rouge où la marge de manœuvre est nulle (cf. graphique ci-dessous). Pour les pays de la zone rouge et peut-être pour certains pays de la zone jaune, les contraintes d’endettement laissent peu d’options, si bien que les pays qui y sont classés ont peu d’options et devraient se focaliser sur la réduction de leur dette publique. Par contre, les pays dans la zone verte sont dans une position confortable pour continuer à se financer à de faibles taux d’intérêt et il est peu probable qu’ils connaissent une crise de la dette souveraine. Dans leur cas, vivre simplement avec la dette publique et laisser les ratios dette publique sur PIB diminuer avec la poursuite de la croissance économique apparaît comme une meilleure option que chercher à la réduire délibérément.

GRAPHIQUE  Marge de manœuvre budgétaire : distance par rapport à la limite d’endettement (en points de %)

 

Quand les gouvernements doivent-ils rembourser leur dette ?

Ostry et ses coauteurs tirent cette conclusion d’une analyse coûts-bénéfices. Les bénéfices d’un remboursement sont faibles pour les pays disposant d’une marge de manœuvre budgétaire et les crises de la dette souveraine sont certes coûteuses lorsqu’elles surviennent, mais leur fréquence est extrêmement faible, même pour des niveaux élevés d’endettement public. Les coûts d’une réduction de dette peuvent être bien plus élevés, même si la consolidation budgétaire est étalée sur plusieurs années : les hausses d’impôts et les baisses de dépenses publiques nécessaires pour générer un excédent primaire nuisent à la croissance à long terme, notamment en freinant l’accumulation du capital.

Deuxièmement, un argument souvent avancé pour réduire la dette publique est que celle-ci nuit à la croissance. En effet, les impôts nécessaires pour assurer le service de la dette freinent l’accumulation du capital et freinent tant l’offre que la demande de travail. Toutefois, Ostry et ses coauteurs jugent que cela ne démontre pas pour autant que le remboursement de la dette soit bon pour la croissance. Il affecte en effet l’économie, car la consolidation budgétaire qu’il implique (qu’elle prenne la forme d’une hausse des impôts ou d’une baisse des dépenses publiques) freine également l’accumulation du capital et pèse sur le travail.

Troisièmement, les économies peuvent subir de larges chocs budgétaires à l’avenir (par exemple une crise financière peut amener l’Etat à renflouer le secteur bancaire), si bien qu’il leur est logique de se constituer des marges de manœuvre budgétaire pour pouvoir emprunter malgré les chocs. Si la dette publique est élevée lorsqu’un tel choc survient, la prime de risque des titres publics est susceptible de s’élevé sur le marché obligataire, si bien que l’Etat peut en perdre l’accès. Pour Ostry et ses coauteurs, une réduction de la dette publique permet certes d’accroître la marge de manœuvre des Etats, mais cette marge de manœuvre sera illusoire si elle se reconstitue au détriment de l’investissement et de la croissance de la production. Ainsi, ils préconisent que les Etats ne remboursent pas le montant nominal de la dette publique, mais laissent plutôt le ratio dette publique sur PIB décliner naturellement avec la poursuite de la croissance.

 

Références

OSTRY, Jonathan D. & Atish R. GHOSH (2015), « When is repaying public debt not of the essence? », in iMFdirect (blog), 2 juin.

OSTRY, Jonathan D., Atish R. GHOSH & Raphael ESPINOZA (2015), « When should public debt be reduced? », FMI, staff discussion note, n° 15/10.

Partager cet article

31 mai 2015 7 31 /05 /mai /2015 10:37

Avant la Grande Récession, beaucoup s’accordaient à l’idée que la politique monétaire était à même de stabiliser l’activité économique, rendant alors inutile l’usage de la politique budgétaire pour atteindre cet objectif. Plusieurs soulignaient toutefois le danger d’une trappe à liquidité et prenaient l’exemple du Japon pour l’illustrer : depuis 1999, la Banque du Japon s’est révélée incapable de sortir l’économie insulaire de la stagnation et de la déflation. La crise financière mondiale a fini par faire voler en éclat ce quasi consensus : elle fut si violente que les banques centrales auraient dû adopter des taux d’intérêt nominaux fortement négatifs pour ramener les économies au plein emploi. Comme elles ne peuvent réduire leurs taux directeurs en-deçà de zéro (ou, tout du moins, difficilement), elles ont dû alors adopter des mesures non conventionnelles pour assouplir davantage leur politique monétaire. Surtout, les gouvernements ont dû adopter des plans de relance pour stimuler la demande globale.

La relance budgétaire est apparue nécessaire précisément à un moment où elle était des plus efficaces. En effet, la taille des multiplicateurs budgétaires semble dépendre de la position de l’économie dans le cycle d’affaires. En l’occurrence, les multiplicateurs sont faibles voire négatifs lorsque l’économie est en pleine expansion. Par contre, ils sont élevés, supérieurs à l’unité, lorsque l’économie est en récession, a fortiori si cette dernière s’accompagne d’un effondrement du crédit. En effet, la consommation des ménages dépend alors davantage du revenu courant que du revenu futur, tandis que l’investissement dépend davantage des profits courants que des profits futurs, si bien que la consommation et l’investissement deviennent particulièrement sensibles aux évolutions de la politique budgétaire.

Plusieurs études ont cherché à évaluer les répercussions des dépenses publiques sur l’activité économique lorsque les taux d’intérêt nominaux butent sur leur borne inférieure zéro. Ces études suggèrent que la taille des multiplicateurs budgétaires est élevée dans une telle situation : par exemple, Lawrence Christiano, Martin Eichenbaum et Sergio Rebelo (2011), Gauti Eggertsson (2011) et Michael Woodford (2011) estiment qu’elle est alors substantiellement supérieure à l’unité. Les plans de relance amènent les agents  à réviser leurs anticipations d’inflation à la hausse. Puisque les taux d’intérêt nominaux butent sur leur borne inférieure zéro, les taux d’intérêt réels diminuent, ce qui stimule la demande globale. Les anticipations d’inflation sont de nouveau révisées à la baisse et les taux d’intérêt réels diminuent davantage. Bref, non seulement la relance budgétaire est particulièrement efficace dans une trappe à liquidité, mais elle est aussi en l’occurrence le moyen le plus efficace pour sortir l’économie de cette dernière.

Vincent Belinga et Constant Lonkeng Ngouana (2015) ont estimé le multiplicateur des dépenses budgétaires aux Etats-Unis au cours du cycle de politique monétaire. Quelques études avaient auparavant cherché à évaluer l’impact de la politique budgétaire en contrôlant le niveau des taux d’intérêt. Belinga et Lonkeng Ngouana estiment que le niveau des taux d’intérêt ne suffit toutefois pas pour déterminer l’orientation de la politique monétaire : il faut prendre en compte les conditions macroéconomiques qui sont en vigueur. En effet, lorsque le taux d’intérêt est faible, la politique monétaire peut être considérée comme accommodante en temps normal, mais restrictive si l’économie connait une profonde récession et si les anticipations sont bien ancrées. Réciproquement, la politique monétaire n’est pas forcément négative si le taux d’intérêt est élevé alors même que l’économie est en surchauffe. 

En appliquant la méthode des projections locales aux données américaines trimestrielles, Belinga et Lonkeng Ngouana réalisent tout d’abord leurs estimations en observant la période comprise entre le quatrième trimestre 1965 et le quatrième trimestre 2008. Ils constatent que la réaction de la production dépend effectivement de l’orientation de la politique monétaire : la production s’accroît fortement suite à un choc de dépenses publiques lorsque la politique monétaire est accommodante ; elle diminue suite à un tel choc lorsque la politique monétaire n’est pas accommodante. En l’occurrence, la production augmente de 2,5 dollars un an après pour tout dollar dépensé par le gouvernement fédéral lorsque la politique monétaire est accommodante, mais elle chute de 1,6 dollar lorsque la politique monétaire n’est pas accommodante. Belinga et Constant Lonkeng Ngouana se penchent ensuite sur la réaction de la consommation privée face à une hausse surprise des dépenses du gouvernement fédéral. Lorsque la politique monétaire est accommodante, le choc budgétaire stimule fortement et de façon durable la consommation ; lorsque la politique monétaire est pas accommodante, le choc budgétaire évince légèrement la consommation.

Lorsque Belinga et Constant Lonkeng Ngouana étendent leur échantillon pour inclure la période comprise entre le quatrième trimestre 2008 et le quatrième trimestre 2012, ils constatent que le multiplicateur des dépenses publiques est plus faible. Bien qu’il soit toujours plus élevé par rapport au cas où la politique monétaire n’est pas accommodante, le multiplicateur budgétaire associé à une politique monétaire accommodante est plus faible sur l’échantillon recouvrant le récent épisode de borne inférieure zéro. Ce résultat est cohérent avec l’idée qu’une borne inférieure contraignante réduit la taille du multiplicateur en entretenant la faible confiance des agents. Belinga et Constant Lonkeng Ngouana constatent également que les dépenses du gouvernement fédéral sont fortement efficaces en période d’insuffisance de la demande globale si la politique monétaire est accommodante, mais qu’elles nuisent à l’activité dans le cas contraire.

 

Références

BELINGA, Vincent, & Constant LONKENG NGOUANA (2015), « (Not) dancing together: Monetary policy stance and the government spending multiplier », FMI, working paper.

CHRISTIANO, Lawrence, Martin EICHENBAUM & Sergio REBELO (2011), « When is the government spending multiplier large? », in Journal of Political Economy, vol. 119, n° 1.

EGGERTSSON, Gauti (2011), « What fiscal policy is effective at zero interest rates? », in NBER Macroeconomic Annual 2010, vol. 25.

WOODFORD, Michael (2011), « Simple analytics of the government expenditure multiplier », in American Economic Journal: Macroeconomics, vol. 3, n° 1.

Partager cet article

publié par Martin Anota
commenter cet article

Présentation

  • : D'un champ l'autre
  • D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher