Overblog
Suivre ce blog
Administration Créer mon blog
4 décembre 2016 7 04 /12 /décembre /2016 21:09
Quel lien entre croissance démographique et émissions de gaz à effet de serre ? 

Depuis Malthus, beaucoup accusent régulièrement la croissance démographique d’être à l’origine des dégâts environnementaux et désormais des émissions de gaz à effet de serre. Or, cette relation est loin d’être évidente. Les modes de vie changent continuellement, notamment sous l’impulsion de dynamiques aussi diverses que la hausse du niveau de vie, le progrès technique et l’urbanisation, et ils peuvent devenir plus ou moins polluants, si bien qu’une population peut aussi bien davantage polluer tout en restant constante que continuer à croître en polluant moins. Si Paul Erlich et John Holdren (1971) ont par exemple affirmé que la croissance démographique constituait le principal facteur contribuant à l’accroissement des dégâts environnementaux, Barry Commoner (1972) a minimisé le rôle qu’elle pouvait jouer et mis plutôt l’accent sur l’impact des changements technologiques. Afin de mieux isoler l’importance respective des différents facteurs susceptibles de contribuer aux dégâts environnementaux, Barry Commoner a proposé l’équation IPAT, qui se note ainsi :

I = P x A x T

Cette identité comptable indique que l’impact d’une population sur l’environnement (I) dépend de la taille de la population (P), du niveau de production ou de consommation par tête (« affluence » en anglais, A) et d’un effet technologie (T) correspondant à la quantité de pollution émise par unité produite ou consommée. Elle rappelle que les nuisances environnementales tendent à augmenter si la population augmente, si la consommation ou la production moyenne par individu augmente ou encore si chaque unité produite ou consommée tend à être de plus en plus polluante. Réciproquement, elles peuvent rester constantes, voire décliner, si la propension à polluer de chaque unité produite et consommée diminue suffisamment pour compenser la croissance démographique et l’augmentation de la production et de la consommation par tête.

Les plus optimistes (notamment les néoclassiques) mettent précisément l’accent sur le progrès technique pour affirmer que la croissance démographique et la croissance économique peuvent tout à fait se poursuivre tout en permettant une baisse des émissions polluantes. Autrement dit, il pourrait exister une « courbe de Kuznets environnementale » et le progrès technique constituerait non seulement le principal moteur de la croissance économique à long terme, mais également le remède à l’un de ses plus grands « maux ». Les plus pessimistes (notamment les décroissants) estiment par contre que le progrès technique ne parviendra pas à contenir l’épuisement des ressources naturelles et le réchauffement climatique en raison de l’effet rebond qu’il entraîne : en réduisant la propension à polluer de chaque unité produite ou consommée, dont leur coût d’usage ou de production, les avancées technologiques sont susceptibles d’inciter les agents à davantage consommer et produire, ce qui tend au contraire à accroître la pollution.

Depuis sa création, l’équation IPAT est devenue l’un des cadres privilégiés des études démo-écologique, notamment pour déterminer le rôle exact des divers facteurs susceptibles de contribuer aux émissions de gaz à effet de serre. En s’appuyant sur elle, Thomas Dietz et Eugene Rosa (1997) constatent que l’élasticité des émissions de dioxyde de carbone (CO2) vis-à-vis de la croissance démographique est proche de l’unité. Autrement dit, une hausse de la population de 1 % se traduit par une hausse d’environ 1 % des émissions de CO2. Appliquant également le cadre IPAT pour étudier les données relatives à 93 pays entre 1975 et 1996, Anqing Shi (2003) constate que l’élasticité du dioxyde de carbone vis-à-vis de la croissance démographique est comprise entre 1,41 et 1,65 en fonction le modèle utilisé. En outre, elle semble bien plus élevée dans les pays en développement que dans les pays développés. Toutefois, ces diverses études ne prennent pas en compte le fait que cette élasticité puisse varier avec le niveau de la population et se concentrent sur un unique gaz à effet de serre. Matthew Cole et Eric Neumayer ont élargi la focale en étudiant également le dioxyde de souffre (SO2) et en tenant compte du fait que l’élasticité des émissions de polluants vis-à-vis de la croissance démographique puisse varier avec la taille même de la population. En ce qui concerne les émissions de CO2, ils constatent que les accroissements démographiques s’accompagnent de hausses proportionnelles des émissions, tandis qu’une hausse du taux d’urbanisation et une baisse de la taille des ménages accroissent les émissions. Pour les émissions de SO2, Cole et Neumayer constatent une relation en forme de U, avec l’élasticité des émissions vis-à-vis de la croissance démographique augmentant à des niveaux élevés de population.

Gregory Casey et Oded Galor (2016) ont récemment utilisé une équation tirée de l’équation IPAT pour estimer l’effet de la moindre fertilité sur les émissions de carbone. Ils observent comment les modifications de comportements en matière de fertilité affectent les émissions de carbone via trois canaux : la taille de la population, la structure en âges de la population et la production économique. Ils constatent que l’élasticité des émissions vis-à-vis de la population est presque sept fois plus élevée que l’élasticité des émissions vis-à-vis du revenu par tête. Les résultats de la régression impliquent que la croissance de la population peut ralentir de 1 % et le niveau de vie s’accroître de 7 % sans que la pollution n’augmente. Ces résultats ont de profondes implications, à la fois pour la politique économique et la politique environnementale. Les autorités publiques font (ou croient faire) face à un arbitrage en matière de politiques climatiques : la réglementation environnementale, les écotaxes ou les marchés des quotas d’émission peuvent certes réduire les émissions de carbone, mais en freinant la croissance économique, du moins à court terme (1). Les constats auxquels aboutissent Casey et Galor suggèrent qu’une baisse de la fertilité peut simultanément accroître le revenu par tête et réduire les émissions de carbone, c’est-à-dire contribuer à freiner le réchauffement climatique sans qu’il y ait de coûts économiques, ce qui permet de contourner l’arbitrage auquel les politiques climatiques font face.

 

(1) L’arbitrage ne tient pas forcément à plus long terme. Certes, les mesures contribuant à protéger l’environnement ont certes un coût économique (par exemple, la taxation environnementale réduit la compétitivité des entreprises et le pouvoir d’achat des ménages), mais le réchauffement climatique lui-même freine la croissance. Or, de nombreuses études suggèrent que le coût des mesures nécessaires pour freiner le réchauffement climatique est certainement inférieur au coût de ce dernier : il est moins coûteux d’agir que de ne pas agir.

 

Références

CASEY, Gregory, & Oded GALOR (2016), « Population growth and carbon emissions », CEPR, discussion paper, n° 11659, novembre.

COLE, Matthew A., & Eric NEUMAYER (2004), « Examining the impact of demographic factors on air pollution », in Population and Environment, vol. 26, n° 1.

COMMONER, Barry (1972), « The environmental cost of economic growth », in Population, Resources and the Environment.

DIETZ, Thomas, & Eugene A. ROSA (1997), « Effects of population and affluence on CO2 emissions », in Proceedings of the National Academy of Sciences, vol. 94, n° 1.

EHRLICH, Paul R., & John P. HOLDREN (1971), « Impact of population growth », in Science, vol. 171.

SHI, Anqing (2003), « The impact of population pressure on global carbon dioxide emissions, 1975–1996: evidence from pooled cross-country data », in Ecological Economics, vol. 44, n° 1.

25 novembre 2016 5 25 /11 /novembre /2016 22:12
Et si l’accord de Paris accélérait le changement climatique ?

Selon les estimations du Global Carbon Project, les émissions mondiales de dioxyde de carbone, l’un des principaux gaz à effet de serre que génère l’activité humaine, ont atteint 36,3 milliards de tonnes [Le Hir, 2016]. Elles ont donc stagné par rapport à l’année précédente et devraient rester peu ou prou au même niveau en 2016. Ce ralentissement s’expliquerait notamment par la moindre émission de polluants par la Chine, mais celle-ci a été contrebalancée par une forte hausse des émissions polluantes par l’Inde. Au final, rien n’assure que cette stabilisation se poursuive, ni même qu’elle soit suivie par une baisse. Or, selon le Global Carbon Project, il faudrait que les émissions diminuent de 0,9 % chaque année d’ici 2030 pour éviter que la température moyenne dans le monde ne s’élève de 2 °C d’ici 2100 par rapport à la moyenne observée avant l’ère industrielle. Si, par contre, les émissions retrouvaient la trajectoire ascendante qu’ils suivaient précédemment, la hausse moyenne des températures mondiales s’établira entre 3,2 et 5,4 °C d'ici 2100.

Et si l’accord de Paris accélérait le changement climatique ?

source : The Economist (2016)

L’Accord de Paris qui a été obtenu en décembre dernier dans le cadre de la COP21 vise précisément à limiter la hausse des températures à 2°C. Il appelle à la mise en œuvre de mesures modérées d’ici 2025, puis à l’adoption de mesures plus strictes par la suite. En fait, chaque Etat signataire ne s’est engagé à la mise en œuvre d’aucune mesure précise, ni à respecter un quelconque délai précis. Autrement dit, l’Accord de Paris n’impose pas une réduction immédiate des émissions de gaz à effets de serre. Or pour Laurence Kotlikoff, Andrey Polbin et Andrey Zubarev (2016), l’Accord de Paris est susceptible par là même, non pas de freiner graduellement les émissions de CO2, mais au contraire de les accélérer rapidement. En effet, il signale aux producteurs d’énergies sales que les réserves de pétrole, de gaz naturel et de charbon vont devenir des actifs « bloqués », inutilisables. Autrement dit, il leur signale soit de ne jamais les utiliser, soit de les utiliser immédiatement. Rien n’assure qu’ils choisiront la première option.

C’est ce que Hans-Werner Sinn (2008) a appelé le « paradoxe vert » (green paradox) en appliquant la règle d’Hotelling relative à l’extraction des ressources non renouvelables pour étudier l’efficacité des politiques climatiques d’atténuation. Ces dernières visent à réduire les émissions de polluants en déprimant la demande d’énergies fossiles pour freiner leur production. Or Sinn montre qu’avec la mise en œuvre de telles mesures, les propriétaires des stocks de combustibles fossiles vont s’attendre à ce que ces actifs se déprécient plus rapidement que prévu, ce qui les incitera à avancer leurs projets d’extraction. L’accélération de l’extraction des ressources naturelles entraîne alors une accélération des émissions de carbone et ainsi du réchauffement climatique. Les politiques d’atténuation risquent ainsi de se révéler contre-productives. Une telle idée n’est pas nouvelle. Quelques années auparavant, Peter Sinclair (1992) montrait déjà à travers sa modélisation comment l’introduction d’une taxe environnementale pouvait aggraver et non ralentir le réchauffement climatique.

Kotlikoff et ses coauteurs suggèrent justement que l’Accord de Paris risque d’inciter les producteurs d’énergies sales à accélérer leur extraction et leur combustion. Ils le montrent à travers un modèle à générations imbriquées où ils traitent les dommages climatiques comme une externalité négative que génèrent les générations courantes et que subissent les générations futures. En outre, ils considèrent l’offre mondiale d’énergies sales comme fixe, ce qui signifie qu’elle sera pour l’essentiel utilisée. La seule question qui demeure est quand. Si elle est utilisée rapidement, les dommages climatiques seront massifs et irréversibles. Si elle est utilisée lentement, les dommages seront moindres. Or leur modèle suggère qu’un retard dans la mise en œuvre de la réduction des émissions de carbone va accélérer dans l’immédiat la production de carbone, ce qui conduira en définitive à une hausse permanente des températures bien supérieure à la limite que se sont imposés de respecter les pays signataires de l’Accord de Paris. Dans ce cas, le changement climatique sera plus ample que si aucune action n’avait été entreprise et c’est chaque génération qui verra son bien-être décliner. A l’inverse, la mise en œuvre immédiate de mesures climatiques va inciter dès à présent les producteurs à réduire leur consommation d’énergies sales et ainsi davantage limiter le réchauffement climatique, ce qui accroîtra en définitive le bien-être de chaque génération.

 

Références

KOTLIKOFF, Laurence J., Andrey POLBIN & Andrey ZUBAREV (2016), « Will the Paris accord accelerate climate change? », NBER, working paper, n° 22731, octobre.

LE HIR, Pierre (2016), « Les émissions mondiales de CO2 se stabilisent, mais le climat continue de s’emballer », in Le Monde, 14 juillet.

SINCLAIR, Peter (1992), « High does nothing and rising and worse: carbon taxes should be kept declining to cut harmful emissions », in Manchester School of Economic and Social Studies.

SINN, Hans-Werner (2008), « Public policies against global warming: a supply side approach », in International Tax and Public Finance, vol. 15, n° 4.

19 novembre 2016 6 19 /11 /novembre /2016 15:03
Quelque chose entre le trilemme et le dilemme…

Le choix du régime de change et l’attitude vis-à-vis des flux de capitaux sont deux questions majeures en finance internationale. En s’appuyant sur les modèles à la Mundell-Fleming, la littérature théorique a souvent suggéré l’existence d’un trilemme (ou « triangle des incompatibilité » ou encore « impossible trinité ») : un pays ne peut se caractériser simultanément par une libre mobilité des capitaux, une fixité du taux de change et une autonomie monétaire, c’est-à-dire une liberté de la banque centrale dans la fixation de ses taux d’intérêt : il perd cette autonomie monétaire s’il désire à la fois libérer les mouvements de capitaux et adopter un taux de change fixe ; il doit restreindre les mouvements de capitaux s’il désire à la fois garder une politique monétaire indépendante et ancrer son taux de change sur les autres devises ; il doit laisser sa monnaie flotter s’il désire garder l’autonomie de sa politique monétaire et laisser les capitaux se mouvoir librement. Alors qu’en pratique les pays ont pu présenter au cours de l’histoire une certaine « crainte du flottement » (fear of floating), le trilemme suggère qu’un pays aurait intérêt à laisser sa monnaie flotter lorsque son compte de capital est libéralisé. C’est une idée qu’a notamment défendue Maurice Obstfeld (2015), l’actuel économiste en chef du FMI : les données empiriques lui suggèrent que les pays laissant flotter leur devise jouissent d’une politique monétaire autonome.

Hélène Rey (2013) a pourtant remis en cause ce trilemme en constatant que, même s’ils laissent leur taux de change flotter, les pays qui ont libéralisé leur compte de capital ne gardent pas pour autant l’autonomie de leur politique monétaire. En effet, les mouvements de capitaux pourraient être soumis à un véritable cycle financier mondial. Ce cycle serait intimement lié aux variations de l’indice VIX (un indicateur de volatilité financière que beaucoup perçoivent comme un indicateur de l’aversion au risque), qui trouveraient quant à elles leur origine dans les changements de la politique monétaire américaine. Lorsque la Fed assouplit sa politique monétaire, l’appétit pour le risque tendrait à augmenter (comme le suggère le déclin de l’indice VIX), ce qui stimulerait l’endettement des investisseurs financiers et favoriserait l’afflux de capitaux dans les pays émergents : c’est la phase ascendante du cycle. Inversement, lorsque la Fed resserre sa politique monétaire, l’aversion pour le risque augmenterait (comme le suggère la hausse de l’indice VIX), ce qui freinerait les prises de risques et l’endettement de la part des investisseurs financiers, mais aussi déprimerait les mouvements de capitaux à destination des pays émergents : c’est la phase descendante du risque. Rey constate que même les banques centrales des pays qui laissent flotter leur taux de change sont contraintes de suivre les décisions de la Fed, dès lors que les capitaux se meuvent librement. Au final, il semble que chaque pays fait face, non pas à un trilemme, mais à un simple dillemme, en ne pouvant en définitive choisir qu’entre un « irréconciliable duo » : soit il perd l’autonomie de sa politique monétaire en libéralisant son compte de capital, soit il adopte un contrôle des capitaux pour garder une politique monétaire autonome.

Or, la Réserve fédérale a amorcé il y a peu le resserrement de sa politique monétaire, tout d’abord en réduisant ses achats d’actifs, puis en relevant (en décembre dernier) ses taux directeurs pour la première fois depuis la crise financière mondiale : le retour de l’économie américaine au plein emploi présage une possible surchauffe de l’activité, tandis que le maintien des taux à un faible niveau risque d’alimenter de nouvelles bulles spéculatives susceptibles de conduire à une nouvelle crise financière. Mais plusieurs pays à travers le monde sont loin de connaître une surchauffe et souffrent toujours d’une insuffisance de la demande globale. La question qui se pose alors est si la banque centrale de ces pays devra tout de même resserrer sa politique monétaire. Si c’est un dilemme et non un trilemme auquel les autres pays sont confrontés, alors leur banque centrale pourrait avoir à resserrer hâtivement sa politique monétaire.

Carlos Caceres, Yan Carrière-Swallow, Ishak Demir et Bertrand Gruss (2016) ont étudié l’impact des taux d’intérêt américains sur les taux des autres pays. Ils constatent que les taux d’intérêt de court terme (et les prix d’actifs) des Etats-Unis tendent à varier dans le même sens que les taux d’intérêt de court terme (et les prix d’actifs) du reste du monde, si bien que l’on peut s’attendre effectivement à ce que l’ensemble des taux d’intérêt domestiques s’élève tout autour du monde à mesure que la politique monétaire américaine se resserrera. Mais ils remarquent que cette corrélation s’explique en partie par la synchronisation des cycles d’affaires : c’est parce que l’ensemble des pays tendent simultanément à connaître une surchauffe que la Fed et les autres banques centrales tendent à resserrer simultanément leur politique monétaire. Cela dit, Caceres et ses coauteurs constatent une forte hétérogénéité d’un pays à l’autre et ils mettent en évidence l’absence d’autonomie monétaire dans certains cas. Pour autant, leur analyse suggère que la flexibilité du taux de change joue un rôle déterminant pour assurer l’autonomie de la politique monétaire des petites économies ouvertes vis-à-vis de la politique monétaire américaine lorsqu’ils ont libéralisé leur compte de capital. Ce résultat leur suggère que les pays laissant le plus amplement flotter leur taux de change sont les plus à même de faire face aux pressions exercées par le resserrement de la politique monétaire américaine.

Plus récemment, Xuehui Han et Shang-Jin Wei (2016) ont également étudié comment les changements de la politique monétaire dans les pays développés (le centre) affectent les pays émergents (la périphérie). Ils se distinguent des précédentes études en partant de l’idée d’une possible asymétrie des réactions des économies périphériques aux variations des taux d’intérêt d’un pays central. En l’occurrence, ils se demandent si les pays périphériques pourraient ne pas être autant incités à suivre la politique du pays du centre selon que ce dernier resserre ou assouplit sa politique monétaire. En effet, sans contrôles des capitaux, un régime de change flexible offre une certaine autonomie à la politique monétaire lorsque le pays du centre resserre sa politique monétaire, mais que ce n’est pas le cas lorsque le pays du centre réduit son taux d’intérêt. En d’autres termes, si certains craignent de laisser flotter leur monnaie, c’est avant tout parce qu’ils craignent que leur taux de change s’apprécie : lorsque le pays du centre assouplit sa politique monétaire, la banque centrale d’un pays périphérique assouplit également la sienne, même si l’évolution de l’activité domestique et du chômage domestique plaiderait au contraire pour un resserrement monétaire. Ainsi, un taux de change flexible n’offre qu’une protection asymétrique ou incomplète face aux changements de politique monétaire dans le reste du monde. Les contrôles de capitaux contribuent à isoler les pays de la périphérie des chocs de politique monétaire générés par le pays du centre lorsque ce dernier réduit son taux d’intérêt, et ce qu’importe que leur taux de change soit fixe ou flottant. Bref, chaque pays ferait face à quelque chose entre le dilemme et le trilemme.

 

Références

CACERES, Carlos, Yan CARRIÈRE-SWALLOW, Ishak DEMIR & Bertrand GRUSS (2016), « U.S. monetary policy normalization and global interest rates », FMI, working paper, n° 16/195, septembre.

HAN, Xuehui, & Shang-Jin WEI (2016), « International transmissions of monetary shocks: Between a trilemma and a dilemma », NBER, working paper, n° 22812, novembre.

OBSTFELD, Maurice (2015), « Trilemma and tradeoffs: Living with financial globalization », BRI, working paper, n° 480.

REY, Hélène (2013), « Dilemma not trilemma: The global financial cycle and monetary policy independence », document de travail présenté à la conférence de Jackson Hole, 24 août.

13 novembre 2016 7 13 /11 /novembre /2016 22:00
Faut-il taxer les contrats à durée déterminée ?

Dans de nombreux pays européens marqués par une forte protection de l’emploi, comme l’Espagne, la France, l’Italie et le Portugal, la majorité des emplois occupés correspondent à des contrats à durée indéterminée ; par contre, la majorité des embauches se font avec des contrats à durée déterminée. Les contrats à durée indéterminée n’ont pas de date d’échéance, mais leur rupture est très coûteuse pour les employeurs : elle implique de complexes procédures administratives et d’importantes indemnités de licenciement. Lorsque les employeurs s’attendent à ce que la durée de l’emploi soit courte, ils peuvent utiliser des contrats temporaires qui stipulent la date d’échéance de l’emploi ; l’employeur a alors le devoir de rémunérer son salarié jusqu’à la date d’échéance, mais il n’a pas à supporter de coûts supplémentaires lors de cette dernière.

Bien sûr, les autorités imposent une forte réglementation des contrats à durée limitée (notamment la limitation de leur nombre de renouvellements) et une forte protection des contrats à durée illimitée (notamment en accroissant les coûts de licenciement qui leur sont associés) dans l’optique de favoriser ces derniers. Mais toute une littérature suggère que la protection de l’emploi nuit en définitive à ce dernier en désincitant les employeurs à embaucher : les titulaires de contrats à durée indéterminée gagneraient en termes de sécurité de l’emploi, mais cela se ferait au détriment des autres actifs, qui enchaîneraient alors plus fréquemment les emplois précaires et les périodes de chômage. Au niveau agrégé, la plus grande protection de l’emploi pourrait se traduire par un plus faible volume d’emplois.

Pour inciter les employeurs à embaucher sur de longues périodes, même avec des contrats à durée déterminée, les gouvernements ont pu avoir tendance à taxer les contrats temporaires. Ce sont les contrats temporaires de faible durée qui sont tout particulièrement taxés en Espagne, en France et au Portugal, tandis que ce sont tous les contrats temporaires qui sont taxés en Italie. La France a par exemple introduit en 2013 une taxe correspondant à 3 % du salaire brut pour les contrats temporaires durant moins d’un mois et à 1,5 % du salaire brut pour les contrats temporaires durant entre un et trois mois ; mais si l’emploi temporaire est transformé en contrat à durée indéterminée, la taxe est remboursée à l’entreprise. L’année dernière, le gouvernement avait précisément projeté d’accroître la taxation des emplois à durée déterminée pour mieux faire passer la loi El Khomri.

Pierre Cahuc, Olivier Charlot, Franck Malherbet, Hélène Benghalem et Emeline Limon (2016) ont analysé les conséquences de la taxation des emplois temporaires que les gouvernements de plusieurs pays européens ont récemment mis en œuvre en appliquant un modèle aux données françaises. Leur analyse suggère que la taxation des contrats temporaires n’est pas une mesure appropriée pour inciter les entreprises à créer davantage d’emplois stables dans les pays d’Europe continentale qui sont caractérisés par une forte protection des emplois permanents. Certes, la taxation des contrats de courte durée peut inciter les entreprises à substituer des contrats à plus longue durée à des contrats de plus faibles durée, ainsi qu’à substituer des contrats permanents à des contrats provisoires si cela leur permet d’éviter de payer la taxe. La réduction de l’instabilité de l’emploi est amplifiée si la taxe est remboursée lorsque les contrats à durée déterminée sont transformés en contrats à durée indéterminée ou encore si la taxe sur les contrats temporaires de courte durée est augmentée tout en étant compensée par une réduction de la taxe sur les contrats temporaires de longue durée et sur les contrats permanents.

Toutefois, l’analyse de Cahuc et alii suggère que la taxation des contrats à durée déterminée réduit la durée moyenne des emplois et aggrave le chômage. L’analyse aboutit également à ce résultat lorsque la taxation est ciblée sur les contrats temporaires de court terme tout en étant compensée par une moindre taxation des contrats à durée indéterminée et des emplois temporaires de longue durée. Ils en concluent qu’il faut donc mettre en œuvre d’autres politiques pour contrer la forte segmentation des marchés du travail européens entre les emplois stables et les emplois instables. Pour accroître l’emploi et le bien-être des chômeurs, Cahuc et ses coauteurs rejoignent les conclusions obtenues par des auteurs comme Olivier Blanchard et Jean Tirole (2008) en estimant qu’il vaut mieux réduire les coûts de licenciement des contrats à durée indéterminée plutôt que de taxer les contrats temporaires pour réduire l’instabilité de l’emploi.

 

Références

BLANCHARD, Olivier J., & Jean TIROLE (2008), « The joint design of unemployment insurance and employment protection: A first pass », in Journal of the European Economic Association, vol. 6, n° 1.

CAHUC, Pierre, Olivier CHARLOT, Franck MALHERBET, Hélène BENGHALEM & Emeline LIMON (2016), « Taxation of temporary jobs: Good intentions with bad outcomes? », IZA, discussion paper, n° 10352, novembre.

11 novembre 2016 5 11 /11 /novembre /2016 17:59
La crise mondiale a-t-elle durablement bouleversé la conduite de la politique monétaire ?

La sévérité de la crise financière mondiale et la lenteur de la subséquente reprise ont poussé les banques centrales à fortement assouplir leur politique monétaire, tout d’abord en rapprochant leurs taux directeurs au plus proche de zéro, puis en adoptant des mesures moins « conventionnelles, comme les achats d’actifs à grande échelle dans le cadre de programmes d’assouplissement quantitatif (quantitative easing), en améliorant leur communication pour mieux guider les anticipations des agents à travers la pratique du forward guidance ou encore en poussant leurs taux directeurs en territoire négatif. C’est ainsi que peut-être « la nécessité s’est révélée être la mère de l’innovation ».

Mais, à mesure que le temps passe et que les effets de la crise mondiale s’atténuent ou que, tout du moins, le souvenir de la crise s’éloigne, il n’est pas impossible que les banques centrales se contentent de la boîte à outils dont elles disposaient avant la crise financière, c’est-à-dire essentiellement la variation des taux directeurs. Certes, certaines d’entre elles sont toujours aux prises avec une activité domestique particulière atone, mais d’autres ont commencé à resserrer leur politique monétaire, notamment pour éviter une surchauffe de leur économie et la formation d’une nouvelle bulle spéculative. Aujourd’hui, même si des banques centrales comme la BCE et la Banque du Japon continuent à adopter de nouvelles mesures pour davantage assouplir leur politique monétaire, la Réserve fédérale a quant à elle réduit ses achats d’actifs et a déjà commencé à relever son taux directeur, en raison du retour de l’économie américaine au « plein emploi ».

Ainsi, Alan Blinder, Michael Ehrmann, Jakob de Haan et David-Jan Jansen (2016) se sont demandé si ces récents changements observés dans la mise en œuvre de la politique monétaire sont susceptibles ou non d’être permanents. Ils s’appuient en l’occurrence sur deux sondages qu’ils ont menés entre février et mai 2016, l’un réalisé auprès des gouverneurs de nombreuses banques centrales à travers le monde et un second réalisé auprès des spécialistes de la politique monétaire parmi les universitaires. Ils constatent que les banques centrales dans les pays les plus touchés par la crise ont été celles qui ont été les plus enclines à recourir à de nouvelles mesures de politique monétaire, d’avoir discuté de leurs mandats et d’avoir davantage communiqué sur leurs actions et objectifs. Autrement dit, la nécessité a effectivement été « la mère des innovations ». Mais il semble que les idées ont plus largement changé. Par exemple, les banques centrales dans les pays les moins touchés par la crise ont indiqué avoir mis en œuvre des mesures de politique macroprudentielle. En outre, la relation entre les banques centrales et leurs gouvernements peuvent avoir bien changé, les banques centrales franchissant plus souvent la ligne de démarcation.

Certes, le monde des banquiers centraux n’a pas beaucoup changé, surtout si l’on fait abstraction de la Fed, de la Banque d’Angleterre, de la BCE et de la Banque du Japon : 70 % des gouverneurs de banque centrale qui ont répondu à l’annonce n’ont pas considéré l’éventualité d’adopter des taux nuls, voire des taux négatifs, ni même un programme d’assouplissement quantitatif. Mais la crise mondiale a amené beaucoup de gouverneurs et d’universitaires à reconsidérer ce que devait être le mandat des banques centrales. Beaucoup considèrent notamment que les autorités monétaires doivent ajouter la stabilité financière parmi leurs objectifs. Les mandats de certaines banques centrales ont d’ailleurs déjà été modifiés pour intégrer un objectif de stabilité financière. Pour autant, la plupart ne considèrent pas l’éventualité d’abandonner l’objectif de ciblage d’inflation.

Globalement, Blinder et ses coauteurs s’attendent à ce que les banques centrales aient à l’avenir de plus larges mandats, qu’elles utilisent plus largement des outils macroprudentiels et qu’elles communiquent plus activement qu’elles ne le faisaient avant la crise. Bien qu’il n’y ait pas encore de consensus sur les bénéfices ou sur les coûts respectifs des mesures non conventionnelles, Blinder et alii s’attendent à ce que la plupart d’entre elles demeurent dans les boîtes à outils des banques centrales, dans la mesure où les gouverneurs qui ont acquis de l’expérience avec un outil particulier sont les plus susceptibles d’avoir une bonne opinion de celui-ci. En outre, même si beaucoup pensent que les banques centrales doivent adopter des mesures macroprudentielles, il n’y a aucun consensus sur celles qui doivent être adoptées.

Enfin, Blinder et ses coauteurs notent de réelles différences entre ce que pensent les universitaires et ce que pensent les banquiers centraux sur la conduite de la politique monétaire. Par exemple, les premiers sont davantage favorables à ce que la plupart des mesures non conventionnelles qui ont été adoptées depuis la crise mondiale demeurent dans la boîte à outils des banques centrales, tandis que les seconds jugent souvent qu’il est trop tôt pour juger. En outre, même si les gouverneurs des banques centrales et les universitaires sont d’accord à l’idée que les banques centrales communiquent davantage depuis la crise et qu’elles continueront ainsi à le faire, les universitaires montrent une préférence pour le forward guidance qualitatif, basé sur les données, tandis que les banquiers centraux préfèrent généralement la forme qualitative du forward guidance. Enfin, si les gouverneurs des banques centrales ne jugent pas avoir reçu beaucoup de critiques pour avoir agi sur le plan politique ou avoir franchi la ligne durant la crise, la majorité des universitaires estiment au contraire que les autorités monétaires ont fait l’objet de nombreuses critiques pour avoir agi ainsi, beaucoup s'inquiétant notamment de leur indépendance.

 

Référence

BLINDER, Alan, Michael EHRMANN, Jakob de HAAN & David-Jan JANSEN (2016), « Necessity as the mother of invention: Monetary policy after the crisis », NBER, working paper, n° 22735, octobre.

publié par Martin Anota - dans Politique monétaire
commenter cet article
6 novembre 2016 7 06 /11 /novembre /2016 22:11
Comment ont évolué les inégalités régionales dans les pays développés ?

Les inégalités de revenu sont particulièrement fortes entre les régions. Par exemple, l’Ile-de-France a beau représenter 2,2 % du territoire français, elle concentre pourtant 18,8 % de la population française et produit 31 % du PIB français [Diez et alii, 2015]. En 2010, le niveau de vie d’un Francilien était 1,66 fois plus élevé que le niveau de vie moyen en France et même 2,21 fois plus élevé que celui d’un habitant du Limousin, la région la plus pauvre de France. Ces inégalités régionales étaient déjà très importantes un siècle et demi auparavant. En effet, en 1860, l’Ile-de-France était déjà la région la plus riche de France. Le niveau de vie de ses habitants représentait alors le double du niveau de vie moyen français et était 3,13 fois plus élevé que celui des habitants de la région la plus pauvre alors, en l’occurrence la Bretagne [Combes et alii, 2011].

Plusieurs études ont suggéré que les inégalités de revenu régionales ont suivi une forme en cloche, en croissant lors du décollage de la croissance, au début de l’industrialisation et de l’intégration des marchés, puis en déclinant par la suite. Autrement dit, les inégalités régionales suivraient une sorte de courbe de Kuznets. En l’occurrence, lors des premières étapes de l’industrialisation, quand s’amorce la croissance, les activités industrielles à forte valeur ajoutée tendraient à se concentrer dans un ensemble limité de lieux, laissant le reste du territoire héberger les activités les moins productives comme les activités agricoles. Avec la baisse des coûts de transport, il est de moins en moins nécessaire pour les entreprises de localiser leurs établissements à proximité des gisements de ressources naturelles et des fournisseurs, tandis que les avantages d’une concentration deviennent de plus en plus manifestes. Les inégalités spatiales ont alors tendance à s’auto-renforcer : par le jeu des économies d’échelle et des externalités d’agglomération, un lieu tend à attirer d’autant plus les activités productives et les travailleurs les plus qualifiés qu’il en concentre déjà beaucoup. La concentration n’est toutefois pas sans coûts : par exemple, le prix des terrains et de l’immobilier augmentent, les phénomènes de congestion (comme les bouchons sur la route) se multiplient, le temps de trajet des travailleurs entre leur domicile et leur travail augmentent, etc. Ainsi, les avantages de la concentration déclinent au cours du temps et, à partir d'un certain moment, les activités productives finissent par se disperser à nouveau.

Jeffrey Williamson (1965) constate précisément au niveau empirique que les inégalités régionales de revenu par tête ont connu une telle évolution en forme de cloche aux Etats-Unis, en atteignant leur pic au début du vingtième siècle. Un tel phénomène a également été observé dans les pays européens, notamment en France. Par exemple, selon Pierre-Philippe Combes, Miren Lafourcade, Jacques-François Thisse et Jean-Claude Toutain (2011), la répartition spatiale des activités industrielles et tertiaires a connu une évolution en forme de cloche en France depuis le milieu du dix-neuvième siècle : la concentration spatiale s’est accrue entre 1860 et 1930, puis les activités se sont plus également réparties entre les départements de 1930 à 2000. Alfonso Diez, Joan Ramón Rosés et Teresa Sanchis (2015) estiment que les inégalités entre les régions françaises ont eu tendance à augmenter entre 1860 et 1896, c’est-à-dire lors des premières étapes de l’industrialisation, puis à refluer entre 1896 et 1982.

Toutefois, ce processus semble s'être de nouveau inversé ces dernières décennies, comment le suggèrent notamment Felix Arnold et Hansjörg Blöchliger (2016). Ces derniers ont étudié comment les écarts en termes de PIB par tête entre 281 régions des pays de l’OCDE ont évolué entre 1995 et 2013. Ils constatent qu’en 2013, le PIB par tête des pays les plus riches (en l’occurrence du Luxembourg) était quatre fois plus élevé que celui du pays développé le plus pauvre (en l’occurrence le Chili). Le PIB par habitant de la région la plus riche (en l’occurrence le Luxembourg) était dix fois plus élevé que celui de la région la plus pauvre (en l’occurrence, l’Araucanie, au Chili). Entre 1995 et 2013, le PIB par tête s’est accru dans tous les pays, sauf en Grèce. La hausse du niveau de vie est la plus élevée dans les pays les moins développés, ce qui indique qu’un phénomène de rattrapage a été à l’œuvre.

Mais lorsqu’ils comparent l’ensemble des régions de leur échantillon les unes avec les autres, Arnold et Blöchliger constatent que les inégalités de PIB des régions, mesurées par un coefficient de Gini, ont diminué entre 1995 et 2013. Mais, au cours de cette même période, les inégalités entre les régions au sein de chaque pays, mesurées également par un coefficient de Gini, ont eu tendance à augmenter. Autrement dit, les inégalités entre les pays développés se sont réduites, mais les inégalités au sein de chaque pays développé ont eu tendance à augmenter. Et ce malgré le fait que l’ensemble des PIB régionaux aient eu tendance à augmenter : les régions les plus avancées ont eu tendance à s’enrichir plus rapidement que les régions les plus pauvres. Les plus fortes hausses des inégalités régionales ont été observées dans les pays qui appartenaient au bloc soviétique, en l’occurrence la Pologne, la République tchèque et la Hongrie.

Ces résultats sont notamment cohérents avec ceux obtenus par Sanchis et alii dans le cas français. Ces derniers notent que les dernières décennies du vingtième siècle ont été marquées par une nouvelle hausse des inégalités régionales en France ; ces dernières sont même revenues au niveau qu’elles atteignaient lors des années trente.

De son côté, The Economist (2016) note que les inégalités de revenu se sont accrues entre les régions les plus riches et les régions les plus pauvres dans chaque pays de la zone euro depuis la crise financière. Par exemple, le niveau de vie de la Calabre, la région la plus pauvre d’Italie, représente 40 % de celui de la province de Bolzano, la région la plus riche d’Italie, contre 45 % en 2007. Les autres régions pauvres du reste de la zone euro ont vu leur revenu chuter, tant en termes relatifs qu’en termes absolus. L’Allemagne constitue toutefois une exception, puisque le PIB par tête de l’ex-RDA (à l’exclusion de Berlin) s’élève à 67 % de celui de l’ex-RFA. Toutefois, l’essentiel du rattrapage en Allemagne s’est opéré au début des années quatre-vingt-dix, immédiatement suite à la réunification ; il ne s'est poursuivi par la suite que lentement. The Economist met l’accent sur deux possibles facteurs susceptibles d'expliquer la divergence entre les niveaux de vie régionaux : la désindustrialisation et l’austérité budgétaire. Les emplois de la fonction publique et les revenus de transfert ont en effet décliné, et ce peut-être tout particulièrement dans les régions les pauvres, c’est-à-dire celles qui en avaient le plus besoin. En analysant 13 pays européens sur la période s’écoulant entre 1980 et 2008, Luca Agnello, Giorgio Fazio et Ricardo Sousa (2016) ont constaté que les inégalités régionales ont eu tendance à se détériorer suite aux épisodes de consolidations budgétaires, en particulier lorsque ces derniers ont été amples et se sont appuyés sur une réduction des dépenses publiques plutôt que sur des hausses d’impôts. Autrement dit, le creusement des inégalités régionales est susceptible de se poursuivre dans la zone euro, dans la mesure où les autorités continuent sur la réduction des déficits publics.

 

Références

AGNELLO, Luca, Giorgio FAZIO & Ricardo M. SOUSA (2016), « National fiscal consolidations and regional inequality in Europe », in Cambridge Journal of Regions, Economy and Society, vol. 9, n° 1.

ARNOLD, Felix, & Hansjörg BLÖCHLIGER (2016), « Regional GDP in OECD countries: How has inequality developed over time? », OCDE, economics department working paper, n° 1329.

COMBES, Pierre-Philippe, Miren LAFOURCADE, Jacques-François THISSE & Jean-Claude TOUTAIN (2011), « The rise and fall of spatial inequalities in France: A long-run perspective », in Explorations in Economic History, vol. 48, n° 2.

DIEZ, Alfonso, Joan RAMÓN ROSÉS & M. Teresa SANCHIS (2015), « Regional inequality in France 1860‐2010: Structural change dynamics », document de travail.

The Economist (2016), « The gap between poor and rich regions in Europe is widening », 29 octobre.

WILLIAMSON, Jeffrey G. (1965), « Regional inequality and the process of national development », in Economic Development and Cultural Change, vol. 13, n° 4.

publié par Martin Anota - dans Economie géographique
commenter cet article
1 novembre 2016 2 01 /11 /novembre /2016 15:11
Qui sont les 1 % les plus riches au monde ?

Ces dernières décennies, l’essor des pays émergents, en particulier de la Chine et de l’Inde, a bouleversé l’économie mondiale et notamment la répartition mondiale des revenus. Des millions de personnes sont sorties de l’extrême pauvreté et les inégalités mondiales de revenu ont décliné (cf. graphique 1), marquant l’émergence de ce que certains considèrent comme une véritable classe moyenne mondiale.

GRAPHIQUE 1  Indicateurs d’inégalités mondiales

Qui sont les 1 % les plus riches au monde ?

source : Anand et Segal (2016)

Les inégalités de revenu et de patrimoine restent toutefois fortement marquées. Plusieurs études, notamment celles réalisées par Thomas Piketty, se sont penchées sur la part du revenu national et la part du patrimoine national détenues par les plus aisés au sein de chaque pays : elles suggèrent notamment que les 1 % les plus riches (le centile supérieur) dans les pays développés détiennent une part croissante du revenu national et du patrimoine national depuis les années soixante-dix [Alvaredo et alii, 2013]. Par contre, le sommet de la répartition mondiale des revenus reste encore peu exploré. Les économistes du Crédit Suisse notent toutefois que les 1 % des plus riches au monde possédaient 49 % de la richesse mondiale en 2000 ; cette part a ensuite atteint un minimum à 44 % en 2009, avant de s’accroître à nouveau et d’atteindre 50 % en 2015. De son côté, Oxfam estime qu’en 2015, 62 individus cumulaient ensemble autant de richesse que la moitié de l’humanité, c’est-à-dire 3,6 milliards de personnes. Les récents bouleversements de l’économie mondiale sont susceptibles de profondément modifier la répartition des catégories les plus riches au monde. Par exemple, la liste des milliardaires tenue par Forbes n’incluait aucun Chinois en 1996 ; elle en incluait 2 en 2005, 64 en 2010. En 2016, parmi les 1.810 milliardaires que cette liste recense, 251 étaient chinois. Autrement dit, 14 % des milliardaires étaient chinois.

GRAPHIQUE 2  Part du revenu mondial détenue par les 10 % les plus riches

Qui sont les 1 % les plus riches au monde ?

source : Anand et Segal (2016)

Sudhir Anand et Paul Segal (2016) ont récemment cherché à étudier en détails la composition des 1 % les plus riches au monde et son évolution entre 1988 et 2012 en utilisant les données d’enquêtes réalisées auprès des ménages et les données sur les hauts revenus tirées des données  fiscales. Ils constatent qu’un ménage devait avoir en 2012 un revenu par tête supérieur à 50.000 dollars PPA pour appartenir au centile supérieur de la répartition mondial. C’était le cas d’environ 64,2 millions de personnes, soit l’équivalent de la population française. Pour de nombreux pays développés, ce sont les 5 à 8 % des plus riches nationaux qui appartiennent au 1 % des plus riches mondiaux. Outre les membres de l’élite nationale, il s’agit de chefs entreprises ou de « super-cadres », pour reprendre l’expression de Thomas Piketty (2016). Parmi les pays en développement, c’est le Brésil qui possède la part de la population nationale appartenant aux 1 % des plus riches mondiaux la plus importante : les 1,7 % des Brésiliens les plus riches appartiennent au 1 % les plus riches au monde. Dans la plupart des autres pays en développement, cette part est bien inférieure à 1 %. Très souvent, dans les pays en développement, il s’agit de cadres supérieurs travaillant dans des grandes entreprises. Pour appartenir au 0,1 % des individus les plus riches au monde, un individu devait gagner en 2012 un revenu supérieur à 177.000 dollars PPA. Aux Etats-Unis, c’est le cas des 1 % les plus riches ; au Japon, en Allemagne, en France et aux Royaume-Uni, c’est le cas de 0,3 à 0,5 % des plus riches. Au niveau mondial, cette catégorie regroupe environ 6,4 millions de personnes. Leurs revenus moyens sont environ 67 fois plus élevés que le revenu moyen en parités de pouvoir d’achat.

GRAPHIQUE 3 Part du revenu mondial détenue par les 1 % les plus riches

Qui sont les 1 % les plus riches au monde ?

source : Anand et Segal (2016)

En outre, Anand et Segal constatent que la part des habitants des pays en développement par les 1 % les plus riches a diminué jusqu’à 2002, puis augmente significativement à partir de 2005. Autrement dit, la part des habitants des pays développés parmi les 1 % plus riches au monde a augmenté, puis décliné. En effet, elle s’élève à 79 % en 2012, alors qu’elle était comprise entre 86 %-90 % entre 1988 et 2005. Ainsi, la majorité des 1 % les plus riches au monde est toujours issue des pays développés. Même si les Chinois sont surreprésentés parmi les milliardaires, ils demeurent encore relativement peu présents par les 1 % et les 0,1 % les plus riches au monde. Malgré la forte croissance économique dont il a également jouit, l’autre grand pays émergent qu’est l’Inde n’a pas non plus vu la part de ses habitants présents parmi les 1 % les plus riches au monde s’accroître énormément.

Le point tournant dans l’évolution dans la répartition du centile supérieur mondial se situe donc aux alentours de 2005 et il coïncide ainsi avec le retournement dans l’évolution des inégalités mondiales. C’est bien la convergence des pays en développement vis-à-vis des pays développés qui a contribué à la fois à la réduction des inégalités mondiales et à la présence croissante des pays en développement parmi le centile supérieur de la répartition mondiale. Ces deux dernières tendances ont été renforcées par la crise financière mondiale qui a durablement freiné la croissance dans les pays développés. Elles sont susceptibles de se poursuivre aussi longtemps que la croissance est plus forte dans les pays en développement que dans les pays avancés. 

 

Références

ALVAREDO, Facundo, Anthony B. ATKINSON, Thomas PIKETTY & Emmanuel SAEZ (2013), « The top 1 percent in international and historical perspective », NBER, working paper, n° 19075.

ANAND, Sudhir, & Paul SEGAL (2016), « Who are the global top 1%? », Université d'Oxford, department of economics discussion paper.

PIKETTY, Thomas (2013), Le Capital au XXIe siècle.

26 octobre 2016 3 26 /10 /octobre /2016 22:15
Que mesurent vraiment les statistiques d'IDE ?

Les économistes et les responsables politiques considèrent les investissements directs à l’étranger (IDE) comme des flux de capitaux favorables à la croissance à long terme des économies qui les reçoivent. En effet, ils permettent à ces derniers d’accroître leurs capacités de production en utilisant l’épargne étrangère. Ainsi, les IDE contribuent à ce que les pays en développement évitent de basculer ou de rester piégés dans une trappe à sous-développement en raison de leur faible épargne domestique. D’autre part, les flux IDE sont a priori relativement stables, dans la mesure où leurs initiateurs suivent une stratégie de long terme et observent l’évolution des fondamentaux à moyen terme pour prendre leurs décisions. Par contre, les autres flux de capitaux, notamment les flux de portefeuille, sont souvent considérés comme plus volatiles et ils peuvent être déstabilisateurs. Par exemple, ils semblent avoir joué un rôle déterminant dans les épisodes de crises de change que les pays émergents ont pu connaître par le passé. Ainsi, lorsqu’il est question de contrôles des capitaux, ce sont précisément des flux de capitaux comme les flux de portefeuille que ces mesures cherchent avant tout à restreindre, tandis que les économistes et les responsables politiques tendent à en exempter les IDE.

Olivier Blanchard et Julien Acalin (2016) se sont penchés sur les flux d’IDE tels qu’ils sont mesurés dans les balances de paiements en utilisant les données trimestrielles relatives aux entrées et sorties d’IDE dans 25 pays émergents entre le premier trimestre 1990 et le quatrième trimestre 2015. Ils ont tiré de leur analyse plusieurs constats qui remettent en question l’image que la littérature et les déclarations publiques donnent habituellement aux IDE.

Par exemple, on s’attendrait à ce qu’il n’y ait aucune corrélation entre, d’une part, les IDE entrants et, d’autre part, les IDE sortants ou alors qu’il y ait une corrélation négative entre eux. En effet, si un pays apparaît comme attractif aux yeux des investisseurs étrangers, il serait étonnant que les investisseurs domestiques trouvent plus rentable d’investir à l’étranger. Ainsi, on s’attendrait à ce que les IDE entrants soient d’autant plus élevés que les IDE sortants soient faibles (et réciproquement). Or, Blanchard et Acalin mettent en évidence une corrélation positive assez élevée entre les IDE sortants et les IDE entrants. Ils en concluent alors qu’une grande partie de ce que l’on mesure dans plusieurs pays comment étant des IDE entrants sont en fait que des flux de capitaux qui transitent en leur sein, très certainement pour profiter d’une fiscalité plus favorable, et qu’ils ont en fait un tout autre pays pour destination finale. Ce problème est reconnu depuis longtemps, aussi bien par les statisticiens travaillant sur les IDE que par les autorités publiques elles-mêmes, mais Blanchard et Acalin mettent en évidence une corrélation bien plus large qu’attendu.

A la différence des autres flux de capitaux, notamment des flux de portefeuille, on pourrait s’attendre à ce que les flux d’IDE soient peu sensibles au taux d’intérêt de la Fed, du moins à court terme. Certes, si la Fed assouplit sa politique monétaire, les flux de portefeuille et surtout les flux d’endettement devraient davantage s’orienter vers les pays émergents, afin d’y profiter de plus hauts rendements, mais aussi les flux d’IDE ne devraient a priori pas réagir à l’assouplissement de la politique monétaire américaine. Or, Blanchard et Acalin constatent que les entrées d’IDE dans les pays émergents tendent à augmenter suite à une baisse du taux directeur de la Fed et même à augmenter plus rapidement que les flux d’endettement. En outre, on pourrait s’attendre à ce que les sorties d’IDE en provenance des pays émergents ne réagissent pas à une baisse du taux directeur de la Fed ou, alors, qu’elles baissent suite à celle-ci. Or, Blanchard et Acalin constatent que les IDE sortants des pays émergents tendent au contraire à s’accroître lorsque la Fed assouplit sa politique monétaire. Ces deux constats amènent ainsi les auteurs à considérer qu’une grande partie des flux de capitaux enregistrés comme flux d’IDE s’apparentent en fait davantage à des flux d’endettement, dans la mesure où ils répondent davantage aux changements de court terme de la politique monétaire américaine plutôt qu’aux fondamentaux de moyen terme des pays qui les génèrent et des pays qui les reçoivent.

 

Référence

BLANCHARD, Olivier, Blanchard & Julien ACALIN (2016), « What does measured FDI actually measure? », PIIE, policy brief, n° 16-17, octobre.

22 octobre 2016 6 22 /10 /octobre /2016 19:30
Comment la politique budgétaire interagit avec l’endettement privé

La Grande Récession a pu se caractériser par un surplomb de dette privée : considérant leur endettement comme excessifs, les agents (en l’occurrence les ménages) ont cherché à tout prix à se désendetter, or ce désendettement a fortement déprimé la demande globale et par là l’activité économique. Ces dernières années, divers travaux ont ainsi cherché à préciser comment l’endettement privé pouvait jouer un rôle de propagation et d’amplification des chocs macroéconomiques. Dans leurs divers travaux focalisés sur les Etats-Unis, Atif Mian et Amir Sufi (2011, 2012) ont montré que les comtés américains qui ont connu la plus forte hausse du crédit immobilier et des prix des logements avant la crise financière sont précisément les comtés qui ont connu la plus forte chute de l’activité lors de la récession subséquente. Leurs analyses suggèrent en l’occurrence que la détérioration de la situation financière des ménages explique l’essentiel de la chute de la demande privée et de la hausse du chômage. Utilisant une large base de données relatives à 17 pays avancés depuis 1870, Òscar Jordà, Moritz Schularick et Alan Taylor (2013) ont montré que ce n’est pas l’excès d’endettement public, mais bien l’excès d’endettement privé, qui constitue le meilleur indicateur avancé de crise financière. Jordà et ses coauteurs (2014) ont également constaté que les expansions du crédit sont suivies par de plus fortes récessions et de plus lentes reprises lorsqu’elles sont essentiellement alimentées par le crédit immobilier.

Plusieurs analyses théoriques ont alors cherché ces dernières années à déterminer quelle serait l’opportunité d’utiliser la politique budgétaire en période de surplomb de dette privée. Elles suggèrent que l’activité économique serait particulièrement sensible aux évolutions de la politique budgétaire en période de surplomb de dette privée. C’est notamment le cas de Gauti Eggertsson et Paul Krugman (2012), qui démontrent que la taille du multiplicateur budgétaire tend à s’accroître lors des épisodes de surplomb de dette privée. En effet, l’équivalence ricardienne ne peut tenir, du fait que certains agents sont contraints en termes d’endettement : puisqu’ils sont forcés de rembourser leur dette, leurs dépenses ne dépendent plus de leur niveau anticipé de revenu, mais de leur revenu courant. Non seulement une hausse temporaire des dépenses publiques ne conduit pas à une éviction des dépenses privées, mais elle peut même se traduire par une hausse des dépenses de la part des agents qui sont contraints en termes de liquidité. L’accroissement de la dette publique apparaît alors comme une solution à un problème provoqué par un excès d’endettement du secteur privé.

En observant les Etats-Unis, Marco Bernardini et Gert Peersman (2015) ont constaté que le multiplicateur des dépenses publiques est considérablement plus élevé au cours des périodes de surplomb de dette privée. En l’occurrence, un accroissement des dépenses publiques tendrait à réduire le ratio dette publique sur PIB, tandis qu’une contraction des dépenses publiques tend à accroître le ratio dette publique sur PIB. Autrement dit, un plan de relance pourrait s’autofinancer, tandis qu’un plan d’austérité serait contre-productif. Ainsi, Bernardini et Peersman confirment que le multiplicateur budgétaire a pu être sensiblement élevé durant la Grande Récession, tout du moins aux Etats-Unis.

Mathias Klein (2016) s’est quant à lui basé sur une base de données relatives à 12 pays développés pour étudier si et comment l’endettement privé est susceptible de modifier l’impact des consolidations budgétaires sur l’activité économique. Il constate que les réponses de l’activité économique aux consolidations budgétaires diffèrent significativement selon le niveau d’endettement du secteur privé. En l’occurrence, la consommation privée et le PIB chutent fortement suite à une consolidation budgétaire dans les pays caractérisés par une dette privée élevée. Une consolidation budgétaire représentant 1 % du PIB se traduit par une chute de 2 % du PIB et par une chute de plus de 4 % de la consommation privée dans les cinq années qui suivent sa mise en œuvre lorsqu’elle est synchrone à un surplomb de dette privée. Par contre, la consommation privée et le PIB ne diminuent que marginalement dans les pays caractérisés par un faible niveau de dette privée. Dans ce cas, une consolidation budgétaire équivalente à 1 % du PIB est associée à une baisse du PIB de 0,7 % et à une baisse de 1,1 % de la consommation.

En outre, Klein constate que les importations et le taux d’emploi chutent fortement suite à une consolidation budgétaire lorsque celle-ci est mise en œuvre dans un contexte d’endettement privé élevé, mais que ces deux variables ne réagissent pas dans un environnement de faible endettement privé. Les autorités monétaires réagissent aux consolidations budgétaires en réduisant le taux d’intérêt réel de la même amplitude que le niveau de la dette privée soit faible ou élevé. Le risque de défaut souverain et le ratio dette publique sur PIB augmentent significativement après les consolidations mises en œuvre dans un contexte de dette privée élevée ; autrement dit, les plans d’austérité, qui sont souvent adoptés en vue de réduire le ratio dette publique sur PIB et de ramener l’endettement public sur une trajectoire plus soutenable, sont contre-productifs avec un secteur privé fortement endetté.

Klein prend en compte la position de l’économie dans le cycle pour affiner ses résultats. Il constate que lorsque le niveau de dette privée est élevé, les consolidations budgétaires se traduisent par une chute de l’activité, aussi bien lors des récessions que lors des périodes d’expansions. Lorsque le niveau de dette privée est faible, les plans d’austérité n’ont pas d’effet significatif sur l’économie. Autrement dit, l’essentiel des coûts de l’austérité pourrait être déterminée par le niveau de dette privée, plutôt que par la position dans le cycle économique.

Plusieurs constats amènent Klein à souligner l’importance de la valeur nette des ménages pour expliquer la plus grande nocivité des plans d’austérité en présence d’un fort endettement privé. D’une part, lorsqu’il différencie entre la dette des ménages et la dette des entreprises, l’auteur constate que l’essentiel des résultats s’explique par l’endettement des ménages. Alors que le PIB réagit à peine lorsque la consolidation budgétaire est mise en œuvre en présence d’un fort endettement des entreprises, il réagit par contre fortement lorsqu’elle est mise en œuvre en présence d’un fort endettement des ménages. D’autre part, Klein montre que les prix de l’immobilier tendent à significativement chuter lorsque les consolidations budgétaire sont mises en œuvre en période de surplomb de dette privée. Ainsi, la détérioration de la situation financière des ménages pourrait constituer un possible canal via lequel un fort endettement privé rend les plans d’austérité particulièrement nocifs et les plans de relance fortement efficaces.

Ainsi, les résultats de Klein suggèrent que les niveaux élevés de dette privée dans les pays périphériques de la zone euro ont pu contribuer à fortement amplifier les répercussions des plans d’austérité sur l’activité domestique. Alors que les gouvernements ont cherché à ramener leur dette publique sur une trajectoire plus soutenable, leurs mesures de consolidation budgétaire ont pu au contraire accroître l’endettement public et compliquer le désendettement du secteur privé. 

 

Références

ANDRÉS, Javier, José E. BOSCÁ & Javier FERRI (2015), « Household debt and fiscal multipliers », in Economica, vol. 82.

BERNARDINI, Marco, & Gert PEERSMAN (2015), « Private debt overhang and the government spending multiplier: Evidence for the United States », CESifo, working paper, n° 5284.

EGGERTSSON, Gauti B., & Paul KRUGMAN (2012), « Debt, deleveraging, and the liquidity trap: A Fisher-Minsky-Koo approach », in The Quarterly Journal of Economics, vol. 127, n° 3.

JORDÀ, Òscar, Moritz H.P. SCHULARICK & Alan M. TAYLOR (2013), « Sovereigns versus banks: Credit, crises, and consequences », NBER working paper, n° 19506, octobre.

JORDÀ, Òscar, Moritz SCHULARICK & Alan M. TAYLOR (2014), « The Great Mortgaging: Housing finance, crises, and business cycles », NBER, working paper, n° 20501, septembre.

KLEIN, Mathias (2016), « Austerity and private debt », DIW, discussion paper, n° 1611, octobre.

MIAN, Atif R. & Amir SUFI (2011), « House prices, home equity-based borrowing, and the US household leverage crisis », in American Economic Review, vol. 101, n° 5.

MIAN, Atif R. & Amir SUFI (2012), « What explains high unemployment? The aggregate demand channel », NBER, working paper, n° 17830.

19 octobre 2016 3 19 /10 /octobre /2016 17:19
Pourquoi la reprise américaine a-t-elle été si lente ?

Entre le premier trimestre 2010 et le deuxième trimestre 2016, le PIB américain a augmenté en moyenne de 2,01 % par an. Au cours des précédentes reprises, il augmentait de 3,75 %, soit à un rythme près de deux fois plus rapide. Cet écart de croissance annuelle de 1,74 points de pourcentage, qui semble a priori modeste, se traduit en fait par une énorme perte en termes de création de richesse : si le PIB américain avait augmenté lors de l’actuelle reprise au même rythme qu’au cours des précédentes, il serait 13,2 % plus élevé qu’il ne l’est effectivement.

James Stock et Mark Watson (2016) ont cherché à expliquer cette mauvaise performance. En l’occurrence, ils se sont tout particulièrement penchés sur quatre ensembles de possibles candidats. Selon premier ensemble d’explications, c’est la croissance tendancielle qui a ralenti, en raison de changements structurels à l’œuvre ; si cette explication est juste, la croissance aurait ralenti même s’il n’y avait pas eu de crise financière. Des facteurs démographiques auraient notamment été à l’œuvre : si l’arrivée des femmes dans la population active a pu stimuler la croissance avant les années quatre-vingt-dix, les départs à la retraite des générations du baby-boom ont pu au contraire freiner la croissance économique depuis. En outre, le temps de travail a eu tendance à décliner, tandis que la croissance de la productivité a ralenti.

Selon un deuxième ensemble d’explication, la faiblesse de la reprise américaine pourrait résulter des problèmes chroniques associés à une insuffisance de la demande globale et aux erreurs de politique économique. Par exemple, les Etats-Unis ont pu se retrouver piégés dans la stagnation séculaire, l’accroissement des inégalités de revenu a pu déprimer la consommation ou, encore, des effets d’hystérèse ont pu affaiblir la croissance potentielle et aggraver le chômage structurel.

Selon un troisième ensemble d’explications, la faiblesse actuelle de la croissance américaine trouverait son origine dans des facteurs exceptionnels et transitoires, notamment le ralentissement du commerce mondial associé à la faible croissance européenne et au ralentissement de la croissance chinoise, le poids du désendettement des ménages américains sur l’investissement résidentiel, le resserrement de la politique budgétaire américaine, les difficultés de la Fed à davantage assouplir sa politique monétaire en raison de la borne inférieure zéro (zero lower bound), etc.

Enfin selon un quatrième ensemble d’explications, la faiblesse de la croissance du PIB et de la productivité aux Etats-Unis serait illusoire. Les difficultés dans la mesure des prix et production réels dans plusieurs secteurs de l’économie, en particulier le secteur des technologies d’information et de communication, amèneraient à sous-estimer le PIB et la productivité.

Afin d’identifier les facteurs susceptibles d’expliquer le mieux la relative faiblesse de la croissance américaine, Stock et Watson ont comparé l’évolution de plusieurs agrégats macroéconomiques lors de l’actuelle reprise par rapport à leur évolution lors des précédentes reprises. Ensuite, ils ont comparé l’évolution de ces mêmes variables lors de l’actuelle reprise par rapport à ce que nous pouvions prévoir fin 2009, malgré la sévérité de la crise, en utilisant les estimations révisées et définitives allant jusqu’à cette date.

Stock et Watson tirent plusieurs constats de leur analyse. Premièrement, parmi la perte des 1,74 de points de croissance, 0,91 points de pourcentage sont dus à la baisse du taux de croissance moyen à long terme du PIB. L’essentiel de ce ralentissement s’explique par la dynamique démographique. Deuxièmement, la croissance du PIB a été en moyenne 0,52 points de pourcentage inférieure à ce que l’on pouvait prévoir fin 2009, malgré la sévérité de la Grande Dépression. Troisièmement, la croissance de plusieurs mesures de l’activité économique, notamment de l’emploi, de la consommation et de l’investissement domestique privé brut, colle aux prévisions. Quatrièmement, d’autres indicateurs clés ont connu une reprise plus lente que par le passé. En l’occurrence, le taux de chômage de long terme et le taux d’activité ont été plus faibles que prévu. En outre, les niveaux des dépenses publiques et de l’emploi public ont été bien inférieurs aux prévisions, aussi bien au niveau fédéral qu’au niveau local. Cinquièmement, une partie du ralentissement de la croissance moyenne de la productivité que l’on a pu observer entre 2010 et 2016, en l’occurrence 0,23 points de pourcentage, s’explique par des facteurs conjoncturels.

Il apparaît que la consommation des services a certes été plus faible que prévu, mais la croissance de la consommation totale n’a que très faiblement contribué à la part non anticipée de la croissance du PIB ; la contribution de l’investissement à celle-ci a été encore plus faible. En fait, la croissance de l’investissement immobilier a été encore plus forte que ce que l’on pouvait prévoir fin 2009. Ainsi, Stock et Watson doute que la relative faiblesse de la croissance américaine s’explique par une demande globale inhabituellement faible. Le fait que le chômage se soit résorbé plus rapidement que ce que l’on pouvait prévoir en 2009 tend à confirmer une telle idée. Par contre, la politique budgétaire a effectivement été plus restrictive lors de l’actuelle reprise que par le passé. En l’occurrence, environ la moitié de la faiblesse de la croissance s’explique par une croissance anémique des dépenses publiques. La croissance relativement faible des exportations suggère que la faiblesse du commerce mondial a effectivement freiné la croissance américaine. Enfin, Stock et Watson confirment qu’il peut effectivement y avoir des problèmes de mesure, et ce pas seulement dans le secteur des technologies d’information et de communication.

 

Référence

STOCK, James H., & Mark W. WATSON (2016), « Why has GDP growth been so slow to recover? », document de travail, octobre.

 

Présentation

  • : D'un champ l'autre
  • D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher