Overblog Suivre ce blog
Administration Créer mon blog
18 décembre 2016 7 18 /12 /décembre /2016 23:39
Quel est l’impact de l’immigration sur l’emploi et les salaires ?

Dans un contexte de lente progression des salaires (notamment aux Etats-Unis) et de chômage élevé (en particulier en France), les populations des pays développés ont pu montrer ces dernières décennies une certaine hostilité vis-à-vis de l’immigration : celle-ci est régulièrement accusée de détruire l’emploi des autochtones ou de pousser leurs salaires à la baisse. La récente vague de réfugiés provoquée par le conflit syrien a accentué ces inquiétudes en Europe. Pourtant, tant les analyses théoriques que les études empiriques sont loin de leur donner raison.

Certes, la théorie néoclassique la plus standard suggère que l’immigration, en accroissant l’offre de travail, est susceptible de réduire les salaires, notamment parce qu’elle accroît la concurrence entre les travailleurs. Si les salaires ne sont pas pleinement flexibles, tout du moins à la baisse, l'ajustement risque de ne pas se faire (seulement) par les prix, mais (aussi) par les quantités : l’accroissement de l’offre de travail est susceptible d’entraîner une hausse du chômage. Ce raisonnement reste toutefois simpliste.

Tout d’abord, les travailleurs immigrés ne sont pas totalement « substituables » avec les travailleurs natifs, si bien que l’une des deux catégories risque d’être plus exposée au chômage que l’autre. Ensuite, dans la mesure où les immigrés n’ont souvent pas le même niveau de qualification que les travailleurs natifs, l’afflux de travailleurs immigrés est susceptible d’avoir de profonds effets redistributifs parmi la population autochtone. En effet, il est susceptible de détériorer les perspectives d’emploi des travailleurs natifs qui présentent des qualifications similaires, avec lesquels ils sont « substituables », et d’améliorer les perspectives d’emploi des travailleurs qui présentent des qualifications différentes, avec lesquels ils sont « complémentaires ». En effet, ces derniers voient leur efficacité augmenter, si bien qu’ils sont davantage demandés (leurs chances de se retrouver au chômage diminuent) et leurs salaires sont poussés à la hausse. Ainsi, l’afflux d’immigrés (peu qualifiés) dans les pays développés est susceptible d’y accroître le chômage des travailleurs peu qualifiés ou de réduire leurs salaires, tout en poussant les salaires des travailleurs qualifiés à la hausse.

L’immigration peut compenser l’un des effets pervers du progrès technique. Les machines sont souvent substituées aux travailleurs les moins qualifiés (ce qui a pu pousser leurs salaires à la baisse) et se révèlent complémentaires avec les travailleurs de qualifications intermédiaires (qui ont alors pu voir leurs salaires être poussés à la hausse). Or, en étudiant les données américaines, Ethan Lewis (2011) a constaté que dans les zones où l’immigration a été la plus forte, les usines ont moins investi dans l’automatisation, ce qui a compensé l’impact de l’immigration sur l’emploi et les salaires des moins qualifiés. En effet, l’immigration pousse le coût relatif du travail (non qualifié) à la baisse, donc le coût relatif du capital à la hausse.

L’immigration peut aussi compenser l’un des effets pervers de la mondialisation. En l’occurrence, l’accroissement de l’offre domestique de travail non qualifié est susceptible de réduire les incitations des entreprises domestiques à délocaliser leurs activités vers les pays à faible coût du travail. Donc elle réduit les chances que les travailleurs (non qualifiés) natifs perdent leur emploi en raison des délocalisations.

Surtout, l’afflux d’immigrés va contribuer à accroître la consommation, si bien qu’il va stimuler les débouchés des entreprises domestiques ; ces dernières vont répondre au surcroît de demande en augmentant leurs capacités de production, c’est-à-dire en embauchant et en investissant davantage. La hausse de l’investissement va elle-même contribuer à accroître les débouchés des entreprises produisant des biens d’investissement, ce qui va également les inciter à embaucher. La hausse de la demande de travail va en outre tendre à pousser les salaires à la hausse. C’est l’ensemble des catégories de travailleurs, autochtones et immigrés, qualifiés et non qualifiés, qui sont alors susceptibles de bénéficier de ces effets. A nouveau, les éventuels effets négatifs que l’immigration est susceptible d’exercer directement sur l’emploi et les salaires des autochtones non qualifiés s’en trouveront compensés par ce biais-là.

Quelques études ont cherché à s’appuyer sur des expériences naturelles qu’ont pu constituer les vagues de réfugiés passées. Jennifer Hunt (1992) a par exemple étudié le rapatriement des centaines de milliers de pieds-noirs en France en 1962, suite à l’indépendance de l’Algérie. Elle a constaté que l’impact de ce rapatriement s’est résorbé en quelques années. David Card (1990) a quant à lui étudié l’« exode de Mariel » de 1980, un épisode au cours duquel plusieurs dizaines de milliers de Cubains migrèrent à Miami. Cette vague de réfugiés a immédiatement augmenté la part des travailleurs non qualifiés parmi les actifs de Miami. Pourtant, Card ne parvient pas à mettre en évidence un impact durable qui soit significatif sur les salaires ou l’emploi des natifs les moins qualifiés de la ville ; le chômage à Miami a par exemple brutalement augmenté, mais il s’est ensuite résorbé en quelques mois. Enfin, Rachel Friedberg (2001) a étudié la vague d’immigration qu’a connue Israël au début des années quatre-vingt-dix suite à l’éclatement du bloc soviétique ; elle ne décèle pas non plus un impact négatif de l’immigration sur les revenus des autochtones. Même si au cours de ces trois épisodes la population active a pu localement s’accroître jusqu'à 10 %, ces diverses analyses suggèrent de faibles effets de l’immigration sur les salaires et sur l’emploi des autochtones. Leurs résultats ont toutefois pu être contestés par d’autres études. Borjas a par exemple remis en cause les conclusions de Card en notant que les natifs ont pu réagir à l’afflux d’immigrés cubains en quittant Miami et en recherchant un emploi ailleurs.

En résumant les études disponibles à l’époque, Rachel Friedberg et Jennifer Hunt (1995) concluaient que l’impact de l’immigration sur les salaires et le chômage des autochtones était faible : une hausse de 10 % du nombre d’immigrés ne réduit les salaires des autochtones que d’environ 1 %. Deux décennies après, il est difficile d’affirmer que la littérature soit parvenue à un quelconque consensus. D’un côté, plusieurs études (notamment celles publiée par Card) suggèrent que l’immigration a un impact peu significatif, voire positif, sur les travailleurs natifs. De l’autre, plusieurs études, en particulier celles de Borjas, estiment que l’immigration peut avoir de profonds coûts sur les autochtones. En étudiant les pays l’OCDE au cours de la période 1990-2000, Frédéric Docquier, Çaglar Ozden et Giovanni Peri (2014) estiment que l’immigration a eu un impact légèrement positif ou aucun impact sur les salaires moyens des autochtones dans chaque pays étudié. Ces effets, allant de 0 % à 4 %, sont généralement positivement corrélés avec le taux d’immigration du pays, c’est-à-dire la taille du flux d’immigrés relativement à la population. En outre, toujours parmi les pays de l’OCDE, l’immigration a eu les effets bénéfiques les plus amples sur les salaires des travailleurs les moins diplômés. En fait, plusieurs études ne suggèrent pas une concurrence entre autochtones et immigrés, mais plutôt entre immigrés eux-mêmes. Gianmarco Ottaviano et Giovanni Peri (2012), parmi d'autres, notent que ce sont ceux qui sont issus des plus récentes vagues d’immigration qui sont les plus affectés par les nouvelles vagues d’immigration ou, tout du moins, qui en tirent le moins de bénéfices.

Plusieurs études se sont focalisées sur l’impact de l’immigration sur le marché du travail français. Par exemple, Javier Ortega et Gregory Verdugo (2011) ont étudié l’impact de l’immigration sur les salaires et l’emploi des autochtones en France entre 1962 et 1999. Une première estimation leur suggère qu’une hausse de l’immigration de 10 % se traduit par une hausse des salaires des autochtones de 3 % ; une seconde estimation, plus fine, leur suggère des gains plus faibles, mais toujours positifs. De son côté, Anthony Edo (2013) constate que l’immigration n’affecte pas les salaires des autochtones, mais qu’elle entraîne tout de même des effets négatifs sur l’emploi. Ce résultat suggère qu’avec la rigidité relativement plus forte des salaires en France que dans les autres pays développés, l’ajustement du marché du travail face à l’immigration se fait davantage via l’emploi. Edo constate que les immigrés sont moins réticents à connaître de plus mauvaises conditions de travail que les autochtones de même productivité, ce qui accroît leurs chances d’être embauchés relativement à ces derniers. Enfin, il note que les autochtones qui sont embauchés sur des contrats temporaires, qui sont marqués par une moindre rigidité salariale que les contrats à durée indéterminée, sont susceptibles de subir des baisses de salaires en conséquence de l’immigration.

 

Références

BORJAS, George (2003), « The labor demand curve is downward sloping: Reexamining the impact of immigration on the labor market », in Quarterly Journal of Economics, vol. 118, n° 4.

CARD, David (1990), « The impact of the Mariel boatlift on the Miami labor market », in Industrial and Labor Relations Review, vol. 43, n° 2.

DOCQUIER, Frédéric , Çaglar OZDEN & Giovanni PERI (2014), « The labour market effects of immigration and emigration in OECD countries », in The Economic Journal, vol. 124, n° 579.

EDO, Anthony (2013), « The impact of immigration on native wages and employment », Centre d'économie de la sorbonne, working paper, n° 2013.64.

FRIEDBERG, Rachel M. (2001), « The impact of mass migration on the Israeli labor market », in Quarterly Journal of Economics, vol. 111.

FRIEDBERG, Rachel M., & Jennifer HUNT (1995), « The impact of immigrants on host countries wages, employment and growth », in Journal of Economic Perspectives, vol. 9.

HUNT, Jennifer (1992), « The impact of the 1962 repatriates from Algeria on the French labor market », in Industrial and Labor Relations Review, vol. 45.

LEWIS, Ethan (2011), « Immigration, skill mix, and capital skill complementarity », in Quarterly Journal of Economics, vol. 126.

ORTEGA, Javier, & Gregory VERDUGO (2011), « Immigration and the occupational choice of natives: A factor proportions approach », Banque de France, document de travail, n° 335.

OTTAVIANO, Gianmarco, & Giovanni PERI (2012), « Rethinking the effects of immigration on wages », in Journal of the European Economic Association, vol. 10, n° 1.

Repost 0
14 décembre 2016 3 14 /12 /décembre /2016 21:45
Comment peut-on expliquer les cycles d’affaires ?

Il existe deux grandes explications orthodoxes des cycles d’affaires. D’un côté, selon les néoclassiques, les cycles d’affaires trouvent avant tout leur origine du côté de l’offre. Lorsque l’économie subit un « choc d’offre positif » (une vague d’innovations améliorant la productivité, un contre-choc pétrolier, une baisse de la fiscalité etc.), l’activité tend à s’en trouver stimulée et l’inflation tend à ralentir. Par exemple, grâce au progrès technique, les entreprises ont accès à des méthodes de production qui leur permettent de produire plus rapidement et à moindres coûts ; la baisse des coûts leur permet de baisser leurs prix, donc d’accroître les ventes pour écouler leur supplément de production. Inversement, si l’économie subit un « choc d’offre négatif » (un choc pétrolier, des intempéries ou un conflit qui détruisent le tissu productif et les récoltes, une hausse de la fiscalité, etc.), l’activité tend à ralentir et l’inflation à s’élever. Par exemple, si les prix du pétrole augmentent, les coûts de production se renchérissent, ce qui réduira les profits ; pour maintenir leur marge, les firmes sont incitées à relever leurs prix de vente, mais ce faisant elles accroissent de nouveau les coûts de production des entreprises qui se fournissent auprès d’elles, donc l’inflation risque de s’accélérer. C’est précisément ce qui s’est passé lors de l’épisode de stagflation des années soixante-dix.

D’un autre côté, selon les keynésiens, les cycles d’affaires trouvent avant tout leur origine du côté de la demande globale. Dans leur optique, les entreprises prennent leurs décisions en matière de production, d’investissement, d’embauche et de fixation des prix en fonction de la demande, notamment de leurs anticipations de demande. Si les entreprises anticipent une forte demande, elles auront tendance à augmenter leur production, à investir pour accroître leurs capacités de production, à embaucher et à relever leurs prix. Réciproquement, si elles anticipent qu’elles vendront peu, elles auront tendance à réduire leur production, à réduire leurs dépenses d’investissement de façon à ne pas avoir trop de capacités de production excédentaires, à réduire les embauches, voire à licencier, mais aussi à baisser leurs prix. Autrement dit, une faible demande est susceptible d’entraîner une récession. 

Si le cycle économique trouve effectivement sa source du côté de la demande, alors plusieurs mécanismes sont susceptibles d’amplifier les cycles économiques. En effet, lorsque l’économie est en surchauffe, plusieurs cette dernière. Par exemple, si les prix augmentent, les agents vont avoir tendance à anticiper une poursuite de la hausse des prix, ce qui les incite à avancer leurs dépenses, notamment leurs achats de biens durables ; or, l’accroissement immédiat de la demande incite les entreprises à répondre à celle-ci en relevant leurs prix, en particulier si elles font face à des goulots d’étranglement, ce qui alimente en retour l’inflation. Lorsque leurs capacités de production sont saturées, les entreprises sont incitées à les accroître, donc à investir, mais l’investissement n’accroît pas immédiatement l’offre ; par contre, elle alimente instantanément la demande globale. Réciproquement, lorsque l’économie est en récession, cette dernière est susceptible de s’aggraver et de se muer en véritable dépression. En effet, face à une faible demande, les entreprises réduisent leurs dépenses (en investissement ou en consommation intermédiaire), licencient, voire réduisent les salaires, mais elles contribuent par là même à réduire davantage la demande globale. Si les firmes réduisent les prix pour tenter de vendre plus, les agents sont susceptibles d’être incités à reporter leurs achats de biens durables, afin de profiter de plus faibles prix à l’avenir, mais cela comprime davantage la demande à court terme.

Ces deux interprétations ne sont pas en soi contradictoires : théoriquement, il n’est pas impossible que l’économie puisse connaître successivement des chocs d’offre et des chocs de demande. Il est toutefois difficile de déterminer quelle est la source exacte des fluctuations de l’activité, en particulier en temps réel [1]. Dans l’une et l’autre de ces interprétations, les variables réelles comme la production, la consommation et l’investissement ont un comportement procyclique, ce qui est confirmé par les données empiriques. Comme le suggérait notamment Larry Summers (1986), les économistes peuvent observer le comportement de l’inflation afin de déterminer si une récession (ou une expansion) résulte d’un choc d’offre ou de demande ; c’est notamment sur cette idée que se sont appuyés Olivier Blanchard et Danny Quah (1989) lorsqu’ils ont proposé une méthode d’identification empirique des chocs. En effet, si la récession résulte d’une insuffisance de la demande globale, l’inflation devrait avoir tendance à ralentir, voire à laisser place à une déflation. Par contre, si elle résulte de problèmes du côté de l’offre, les prix devraient avoir tendance à augmenter. 

Il y a quelques années, Michal Andrle, Jan Brůha et Serhat Solmaz (2013) avaient observé le comportement de l’inflation et de la production dans la zone euro. Ils avaient mis en évidence que les deux variables tendaient à varier dans le même sens. Cette co-variation n’était pas apparente à première vue, mais elle apparaissait clairement à la fréquence des cycles d’affaires. A la fréquence des cycles d’affaires, la production et l’inflation sous-jacente tendent à varier dans le même sens et cette variation est à la fois stable et robuste ; les variations de l’inflation étaient toutefois en retard par rapport aux fluctuations de la production.

Dans une nouvelle contribution, Andrle et alii (2016) ont cherché à déterminer quels sont les principaux facteurs derrière les fluctuations de l’activité économique, mais en élargissant leur échantillon à l’ensemble des pays développés. Ils mettent à nouveau en évidence une tendance robuste et prévisible des variables réelles à varier dans le même sens au cours du cycle d’affaires, aussi bien d’un pays à l’autre qu’au cours du temps. Les cycles d’affaires dans les pays développés semblent trouver leur origine dans une unique source. Dans la mesure où la production réelle et l’inflation tendent à varier dans le même sens, cela plaide à nouveau en faveur d’une explication des cycles d’affaires reliant directement ces derniers à la demande globale. En l’occurrence, cette dernière expliquerait 80 % des variations des agrégats macroéconomiques au cours du cycle d’affaires.

 

[1] Cette question est cruciale pour les autorités publiques. Celles-ci doivent réagir à un choc d’offre négatif en mettant en œuvre des réformes structurelles afin d’accroître le potentiel de production de l’économie ; elles doivent réagir à un choc de demande négatif en stimulant la demande globale. Par contre, si elles mettent en œuvre des réformes structurelles à l’instant même où l’économie souffre d’une insuffisance de la demande globale, elles risquent de déprimer davantage cette dernière, donc d’aggraver la récession. De même, si elles assouplissent leurs politiques conjoncturelles alors même que la récession résulte de problèmes d’offre, elles risquent de ne pas parvenir à stimuler l’activité, mais par contre d’aggraver la récession en alimentant les pressions inflationnistes et dégradant par là davantage la profitabilité des firmes.

 

Références

ANDRLE, Michal, Jan BRŮHA & Serhat SOLMAZ (2013), « Inflation and output comovement in the euro area: Love at second sight? », FMI, working paper, n° 13/192, septembre.

ANDRLE, Michal, Jan BRŮHA & Serhat SOLMAZ (2016), « Output and inflation co-movement: An update on business-cycle stylized facts », FMI, working paper, n° 16/241, décembre.

BLANCHARD, Olivier J., & Danny QUAH (1989), « The dynamic effects of aggregate demand and supply disturbances », in American Economic Review, vol. 79, n° 4.

SUMMERS, Lawrence H. (1986), « Some skeptical observations on real business cycle theory », in Federal Reserve Bank of Minneapolis Quarterly Review, automne.

Repost 0
11 décembre 2016 7 11 /12 /décembre /2016 15:53
Comment le vieillissement démographique affecte-t-il la croissance de la productivité ?

Dans de nombreux pays développés, en particulier en Europe, les taux de fertilité déclinent dans un contexte où l’espérance de vie s’allonge et où l’immigration reste faible, si bien que la population tend à vieillir. Cela se traduit non seulement par une hausse des ratios de dépendance (par exemple, de la part des personnes âgées dans la population totale), mais également par une baisse des taux d’activité (la part des actifs dans la population en âge de travailler) et une hausse de l’âge moyen des personnes en emploi. La part des personnes âgées de plus de 55 ans devrait tout particulièrement s’accroître au cours des proches décennies, en particulier en Espagne, en Italie, au Portugal, en Grèce et en Irlande. Pour autant, même si l’Europe est aujourd’hui la région qui présente le plus grand pourcentage de personnes âgées de 60 ans ou plus, le reste du monde va également connaître un vieillissement rapide : en 2050, les plus de 60 ans représenteront plus du quart de la population dans chaque grande région du monde, à l’exception notable de l’Afrique [Aksoy et alii, 2015].

Si les économistes tendent à s’accorder pour considérer que la croissance démographique et le rajeunissement démographique stimulent la croissance économique (avec l’idée du « dividende démographique »), ils considèrent réciproquement que le vieillissement démographique freine la croissance économique, et ce via plusieurs canaux. Du côté de l’offre, le vieillissement de la population active, voire le déclin du nombre de personnes en âge de travailler, freine directement  la contribution du facteur travail à la croissance économique. Certes, il n’y a pas consensus autour de l’impact même sur l’épargne et (sa corollaire) la demande globale : pour autant, pour les néoclassiques, le vieillissement démographique tend à freiner la croissance économique en déprimant l’épargne agrégée ; pour les keynésiens, il tendrait au contraire à freiner la croissance et à alimenter les tensions déflationnistes en déprimant la demande globale. En poussant le taux d'intérêt naturel à la baisse, il serait l'une des principales causes de la stagnation séculaire  et contribuerait par là même à accroître la fréquence des épisodes de trappes à liquidité. La hausse des pensions de retraite dans un contexte d’affaiblissement des cotisations sociales et des rentrées fiscales tendrait à accroître la dette publique, donc à freiner la croissance économique en alourdissant le fardeau fiscal. 

Le vieillissement démographique est également susceptible d’affecter la croissance économique en modifiant la productivité. A un instant donné, les différentes classes d’âges dans la population active ne présentent pas le même niveau de productivité, si bien qu’une déformation de la composition en termes d’âge de la population active modifie le rythme de croissance de la productivité au niveau agrégé. En effet, la productivité d’un travailleur change tout au long de sa carrière. Plus il passe de temps en emploi, plus il acquiert d’expérience (notamment via l’apprentissage par la pratique). Par contre, plus il vieillit, plus il est lui est difficile d’acquérir de nouvelles compétences, d’apprendre à manier les nouvelles technologies ou à en créer de nouvelles, et plus les savoirs qu’il a déjà acquis se déprécient. Les compétences d’un travailleur pourraient dépendre tout particulièrement des compétences qu’il a initialement acquises, c’est-à-dire avant l’entrée même sur le marché du travail (lors de la scolarité) et lors des premiers temps dans la vie active : or plus le temps passe, plus ces compétences initiales s’usent ou deviennent obsolètes [Dixon, 2003]. Ainsi, la productivité d’un travailleur tendrait d’abord à augmenter, puis à décliner. Bref, il y aurait un âge, ou tout du moins une tranche d’âge, où la productivité atteindrait son maximum. Or, comme dans beaucoup de pays le salaire dépend de l’ancienneté, cela gonfler les coûts de production des entreprises alors même que leur main-d’œuvre perd en efficacité.

Plusieurs études empiriques suggèrent que la productivité et la propension à innover d’un individu atteignent leur maximum entre 40 et 50 ans [Aiyar et alii, 2016]. Par exemple, en analysant un large échantillon de pays développés et en développement entre 1960 et 1990, James Feyrer (2007, 2008) confirme en effet l’existence d’une relation en cloche entre l’âge et le niveau de productivité : la croissance de la productivité s’accélère lorsque la proportion des 40-49 ans parmi les travailleurs augmente, puis elle ralentit lorsque la proportion de travailleurs âgés augmente. A partir de données américaines sur la période 1975- 1995, Feyrer (2008) suggère que l’âge médian des innovateurs est stable autour de 48 ans, tandis que l’âge médian des dirigeants qui adoptent de nouvelles idées est plus proche de 40 ans. De son côté, Benjamin Jones (2010) constate que l’innovation est positivement associée aux cohortes jeunes et d’âge moyen, mais négativement affectée par les cohortes les plus vieilles. Yunus Aksoy, Henrique Basso, Ron Smith et Tobias Grasl (2015) montrent que les travailleurs âgés de plus de 50 ans ont un impact fortement négatif sur le nombre total de demandes de brevets. Par contre, les études portant sur des données plus désagrégées, par exemple celles obtenus au niveau des secteurs ou des entreprises prises individuellement rapportent des résultats plus nuancés. Axel Börsch-Supan et Matthias Weiss (2016) constatent par exemple que la productivité des travailleurs d’un grand constructeur automobile allemand commence à décliner à partir de 60 ans environ. Ces résultats pourraient suggérer que des externalités négatives tendraient à estomper au niveau agrégé certains effets positifs associés aux travailleurs âgés.

Au final, le vieillissement de la population active pourrait ainsi initialement stimuler l’innovation et la croissance de la productivité agrégée (dans la mesure où une part croissante des travailleurs se rapprochent de la tranche d’âge où ils sont les plus efficaces et innovants), avant de les déprimer (dans la mesure où une part croissante des travailleurs dépassent l’âge où leur productivité est maximale).

En analysant les données américaines, Nicole Maestas, Kathleen Mullen et David Powell (2016) montrent qu’un accroissement de 10 % de la part des 60 ans et plus dans la population déprime la croissance du PIB par tête américain de 5,5 %. Ainsi, le vieillissement démographique contribuerait à réduire la croissance annuelle du PIB américain de 1,2 point de pourcentage au cours de cette décennie et de 0,6 au cours de la suivante. Ce ralentissement s’expliquerait pour les deux tiers par la baisse du taux de croissance du PIB par travailleur (c’est-à-dire de la productivité du travail) et pour le tiers restant par le ralentissement de la croissance de la population active. En outre, ils constatent que le déclin de la croissance de la productivité occasionné par le vieillissement de la population active s’observe à chaque tranche d’âges des travailleurs. Autrement dit, une plus forte présence de travailleurs âgés rend les autres travailleurs moins efficaces.

En analysant les données relatives à 28 pays européens, Shekhar Aiyar, Christian Ebeke et Xiaobo Shao (2016) constatent que la croissance du nombre de travailleurs âgés de plus de 55 ans a contribué à réduire la croissance de la productivité totale des facteurs de 0,1 point de pourcentage en moyenne au cours des deux dernières décennies. L’impact n’a bien évidemment pas été le même d’un pays à l’autre : en Lettonie, en Lituanie, en Finlande, aux Pays-Bas et en Allemagne, ce sont environ 0,2 points de pourcentage qui ont été amputés chaque année à la croissance de la productivité totale des facteurs. Entre 2014 et 2035, le vieillissement de la population active devrait réduire la croissance de la productivité totale des facteurs de 0,2 points de pourcentage en moyenne. Cet effet serait encore plus sévère dans les pays comme l’Espagne, l’Italie, le Portugal, la Grèce et l’Irlande où l’on prévoit un vieillissement rapide de la main-d’œuvre dans un contexte de fort endettement public.

 

Références

AIYAR, Shekhar, Christian EBEKE & Xiaobo SHAO (2016), « The impact of workforce aging on European productivity », FMI, working paper, n° 16/238.

AKSOY, Yunus, Henrique S. BASSO, Ron P. SMITH & Tobias GRASL (2015), « Demographic structure and macroeconomic trends », Banco de España, documento de trabajo, n° 1528.

BÖRSCH-SUPAN, Axel, & Matthias WEISS (2016), « Productivity and age: Evidence from work teams at the assembly line », in The Journal of the Economics of Ageing, vol.7.

DIXON, Silvia (2003), « Implications of population ageing for the labour market », in Labour Market Trends.

FEYRER, James (2007), « Demographics and productivity », in The Review of Economics and Statistics, vol. 89, n° 1.

FEYRER, James (2008), « Aggregate evidence on the link between age structure and productivity », in Population and Development Review.

JONES, Benjamin (2010), « Age and great invention », in The Review of Economics and Statistics, vol. 92, n° 1.

MAESTAS, Nicole, Kathleen J. MULLEN & David POWELL (2016), « The effect of population aging on economic growth, the labor force and productivity », NBER, working paper, n° 22452.

Repost 0
publié par Martin Anota - dans Démographie
commenter cet article
7 décembre 2016 3 07 /12 /décembre /2016 16:29
Pourquoi les entreprises américaines sous-investissent-elles ?

Germán Gutiérrez et Thomas Philippon (2016) ont analysé le comportement de l’investissement privé en capital fixe aux Etats-Unis au cours des trente dernières décennies. Les données empiriques suggèrent que, depuis le début des années deux mille, l’investissement privé a été plus faible qu’attendu.

Suite à une hausse séculaire, la dépréciation est restée stable depuis 2000 ; par conséquent, la récente baisse de l’investissement net ne résulte pas d’une modification du taux de dépréciation, mais bien de l’investissement brut. Gutiérrez et Philippon se tournent alors vers deux grandes catégories d’explications. La première regroupe les théories qui prédisent un faible investissement en raison d’un faible Q. Elles mettent par exemple l’accent sur une possible hausse de l’aversion face au risque ou sur les révisions à la baisse de la croissance attendue. La seconde catégorie d’explications regroupe les théories qui prédisent un faible investissement malgré un Q élevé. Elles mettent par exemple l’accent sur les contraintes de crédit et la concurrence oligopolistique. Or les données suggèrent que l’investissement est faible relativement au ratio Q de Tobin : les entreprises non financières sont marquées par une forte profitabilité, mais elles n’investissent pourtant pas. Cela amène les auteurs à rejeter la première catégorie d’explications pour privilégier la seconde.

Les deux auteurs ont alors utilisé des données obtenues au niveau des secteurs et des entreprises prises individuellement pour tester huit hypothèses ; en l’occurrence, ils ont cherché à déterminer si le sous-investissement relativement au Q s’explique par des frictions financières, par une erreur de mesure, par une baisse de la concurrence ou encore par une mauvaise gouvernance des entreprises.

En effet, des frictions sur les marchés financiers pourraient contraindre les décisions d’investissement et forcer les entreprises à s’appuyer sur les fonds internes pour les financer ; certaines entreprises (par exemple les plus grandes) pourraient avoir un accès plus facile au crédit bancaire, grâce à leur réputation par exemple ; une éventuelle rareté des actifs sûrs est susceptible d’affecter les coûts en capital des entreprises. La hausse des actifs incorporels pourrait conduire à des erreurs de mesure, dans la mesure où l’investissement dans ces difficiles est difficile à mesurer, si bien que le capital total est peut-être sous-estimé et le Q surévalué ; la mondialisation pourrait conduire à sous-estimer le volume des investissements physiques qui sont entreprises aux Etats-Unis. La réglementation est susceptible d’introduire ou de renforcer les barrières à l’entrée ou à la sortie des marchés ; une hausse de l’incertitude entourant la future réglementation est susceptible de freiner les décisions d’investissement. Sur les marchés concentrés ou vieillissants qui sont caractérisés par des barrières à l’entrée ou à la sortie, les entreprises en place sont susceptibles d’être peu incitées à investir. Les récents changements dans la gouvernance des entreprises, notamment l’essor des stock-options dans la rémunération des dirigeants, ont pu également freiner l’investissement de plusieurs façons : les dirigeants peuvent être incités à accroître la part de la valeur ajoutée consacrée au profit et à accroître excessivement la part du profit versée aux actionnaires sous forme de dividendes, mais pour cela ils risquent de réduire les autres dépenses, notamment dans l’investissement ; les entreprises peuvent également utiliser leurs liquidités, non pas pour investir, mais pour racheter leurs propres actions afin de faire grimper leurs cours et de nouveau accroître la valeur actionnariale ; les actionnaires pourraient en l’occurrence faire preuve d’un court-termisme excessif en exigeant une hausse de la rentabilité à court terme, ce qui amène les entreprises à réduire les investissements qui ne sont rentables qu’à long terme.

L’analyse des données amène Gutiérrez et Philippon à rejeter l’idée que le sous-investissement puisse s’expliquer par des contraintes financières ou par une rareté des actifs sûrs. Les preuves empiriques suggérant un rôle pour la réglementation dans la faiblesse de l’investissement sont peu robustes. En revanche, le déclin de la concurrence et les changements dans la  gouvernance des entreprises pourraient expliquer ensemble 80 % du sous-investissement total relativement au ratio Q. En effet, les secteurs les plus concentrés tendent à moins investir, et ce indépendamment des conditions en vigueur sur le marché. Les changements dans la gouvernance des entreprises semblent effectivement avoir encouragé le court-termisme et incité par là même les entreprises à dépenser un montant disproportionné de leurs liquidités pour racheter leurs propres actions au lieu de les utiliser pour investir. L’essor des actifs incorporels pourrait expliquer le reste du sous-investissement ; pour autant, il ne réduit pas le pouvoir explicatif de la concurrence et de la gouvernance.

Ces résultats rejoignent ceux obtenus par Dong Lee, Han Shin et René Stulz (2016). Ces derniers ont constaté que les secteurs qui recevaient le plus de fonds étaient ceux qui présentaient le Q de Tobin le plus élevé, du moins jusqu’au milieu des années quatre-vingt-dix ; la relation n’est plus vérifiée après. Dans la mesure où les secteurs qui présentent un taux de financement plus élevé connaissent une croissance plus importante, il existe une corrélation négative non seulement entre le taux de financement d’un secteur et le ratio Q de ce même secteur, mais aussi entre les dépenses en capital et le Q de Tobin depuis le milieu des années quatre-vingt-dix. Les capitaux n’affluent plus à destination des secteurs présentant les plus grandes opportunités de croissance parce que, depuis le milieu des années quatre-vingt-dix, les entreprises présentes dans les secteurs caractérisés par les Q de Tobin les plus élevés rachètent de plus en plus leurs actions au lieu d’en profiter pour lever des fonds sur les marchés financiers.

 

Référence

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2016), « Investment-less growth: An empirical investigation », NBER, working paper, n° 22897, décembre.

LEE, Dong, Han SHIN & René M. STULZ (2016), « Why does capital no longer flow more to the industries with the best growth opportunities », NBER, working paper, n° 22924, décembre.

Repost 0
4 décembre 2016 7 04 /12 /décembre /2016 21:09
Quel lien entre croissance démographique et émissions de gaz à effet de serre ? 

Depuis Malthus, beaucoup accusent régulièrement la croissance démographique d’être à l’origine des dégâts environnementaux et désormais des émissions de gaz à effet de serre. Or, cette relation est loin d’être évidente. Les modes de vie changent continuellement, notamment sous l’impulsion de dynamiques aussi diverses que la hausse du niveau de vie, le progrès technique et l’urbanisation, et ils peuvent devenir plus ou moins polluants, si bien qu’une population peut aussi bien davantage polluer tout en restant constante que continuer à croître en polluant moins. Si Paul Erlich et John Holdren (1971) ont par exemple affirmé que la croissance démographique constituait le principal facteur contribuant à l’accroissement des dégâts environnementaux, Barry Commoner (1972) a minimisé le rôle qu’elle pouvait jouer et mis plutôt l’accent sur l’impact des changements technologiques. Afin de mieux isoler l’importance respective des différents facteurs susceptibles de contribuer aux dégâts environnementaux, Barry Commoner a proposé l’équation IPAT, qui se note ainsi :

I = P x A x T

Cette identité comptable indique que l’impact d’une population sur l’environnement (I) dépend de la taille de la population (P), du niveau de production ou de consommation par tête (« affluence » en anglais, A) et d’un effet technologie (T) correspondant à la quantité de pollution émise par unité produite ou consommée. Elle rappelle que les nuisances environnementales tendent à augmenter si la population augmente, si la consommation ou la production moyenne par individu augmente ou encore si chaque unité produite ou consommée tend à être de plus en plus polluante. Réciproquement, elles peuvent rester constantes, voire décliner, si la propension à polluer de chaque unité produite et consommée diminue suffisamment pour compenser la croissance démographique et l’augmentation de la production et de la consommation par tête.

Les plus optimistes (notamment les néoclassiques) mettent précisément l’accent sur le progrès technique pour affirmer que la croissance démographique et la croissance économique peuvent tout à fait se poursuivre tout en permettant une baisse des émissions polluantes. Autrement dit, il pourrait exister une « courbe de Kuznets environnementale » et le progrès technique constituerait non seulement le principal moteur de la croissance économique à long terme, mais également le remède à l’un de ses plus grands « maux ». Les plus pessimistes (notamment les décroissants) estiment par contre que le progrès technique ne parviendra pas à contenir l’épuisement des ressources naturelles et le réchauffement climatique en raison de l’effet rebond qu’il entraîne : en réduisant la propension à polluer de chaque unité produite ou consommée, dont leur coût d’usage ou de production, les avancées technologiques sont susceptibles d’inciter les agents à davantage consommer et produire, ce qui tend au contraire à accroître la pollution.

Depuis sa création, l’équation IPAT est devenue l’un des cadres privilégiés des études démo-écologique, notamment pour déterminer le rôle exact des divers facteurs susceptibles de contribuer aux émissions de gaz à effet de serre. En s’appuyant sur elle, Thomas Dietz et Eugene Rosa (1997) constatent que l’élasticité des émissions de dioxyde de carbone (CO2) vis-à-vis de la croissance démographique est proche de l’unité. Autrement dit, une hausse de la population de 1 % se traduit par une hausse d’environ 1 % des émissions de CO2. Appliquant également le cadre IPAT pour étudier les données relatives à 93 pays entre 1975 et 1996, Anqing Shi (2003) constate que l’élasticité du dioxyde de carbone vis-à-vis de la croissance démographique est comprise entre 1,41 et 1,65 en fonction le modèle utilisé. En outre, elle semble bien plus élevée dans les pays en développement que dans les pays développés. Toutefois, ces diverses études ne prennent pas en compte le fait que cette élasticité puisse varier avec le niveau de la population et se concentrent sur un unique gaz à effet de serre. Matthew Cole et Eric Neumayer ont élargi la focale en étudiant également le dioxyde de souffre (SO2) et en tenant compte du fait que l’élasticité des émissions de polluants vis-à-vis de la croissance démographique puisse varier avec la taille même de la population. En ce qui concerne les émissions de CO2, ils constatent que les accroissements démographiques s’accompagnent de hausses proportionnelles des émissions, tandis qu’une hausse du taux d’urbanisation et une baisse de la taille des ménages accroissent les émissions. Pour les émissions de SO2, Cole et Neumayer constatent une relation en forme de U, avec l’élasticité des émissions vis-à-vis de la croissance démographique augmentant à des niveaux élevés de population.

Gregory Casey et Oded Galor (2016) ont récemment utilisé une équation tirée de l’équation IPAT pour estimer l’effet de la moindre fertilité sur les émissions de carbone. Ils observent comment les modifications de comportements en matière de fertilité affectent les émissions de carbone via trois canaux : la taille de la population, la structure en âges de la population et la production économique. Ils constatent que l’élasticité des émissions vis-à-vis de la population est presque sept fois plus élevée que l’élasticité des émissions vis-à-vis du revenu par tête. Les résultats de la régression impliquent que la croissance de la population peut ralentir de 1 % et le niveau de vie s’accroître de 7 % sans que la pollution n’augmente. Ces résultats ont de profondes implications, à la fois pour la politique économique et la politique environnementale. Les autorités publiques font (ou croient faire) face à un arbitrage en matière de politiques climatiques : la réglementation environnementale, les écotaxes ou les marchés des quotas d’émission peuvent certes réduire les émissions de carbone, mais en freinant la croissance économique, du moins à court terme (1). Les constats auxquels aboutissent Casey et Galor suggèrent qu’une baisse de la fertilité peut simultanément accroître le revenu par tête et réduire les émissions de carbone, c’est-à-dire contribuer à freiner le réchauffement climatique sans qu’il y ait de coûts économiques, ce qui permet de contourner l’arbitrage auquel les politiques climatiques font face.

 

(1) L’arbitrage ne tient pas forcément à plus long terme. Certes, les mesures contribuant à protéger l’environnement ont certes un coût économique (par exemple, la taxation environnementale réduit la compétitivité des entreprises et le pouvoir d’achat des ménages), mais le réchauffement climatique lui-même freine la croissance. Or, de nombreuses études suggèrent que le coût des mesures nécessaires pour freiner le réchauffement climatique est certainement inférieur au coût de ce dernier : il est moins coûteux d’agir que de ne pas agir.

 

Références

CASEY, Gregory, & Oded GALOR (2016), « Population growth and carbon emissions », CEPR, discussion paper, n° 11659, novembre.

COLE, Matthew A., & Eric NEUMAYER (2004), « Examining the impact of demographic factors on air pollution », in Population and Environment, vol. 26, n° 1.

COMMONER, Barry (1972), « The environmental cost of economic growth », in Population, Resources and the Environment.

DIETZ, Thomas, & Eugene A. ROSA (1997), « Effects of population and affluence on CO2 emissions », in Proceedings of the National Academy of Sciences, vol. 94, n° 1.

EHRLICH, Paul R., & John P. HOLDREN (1971), « Impact of population growth », in Science, vol. 171.

SHI, Anqing (2003), « The impact of population pressure on global carbon dioxide emissions, 1975–1996: evidence from pooled cross-country data », in Ecological Economics, vol. 44, n° 1.

Repost 0
25 novembre 2016 5 25 /11 /novembre /2016 22:12
Et si l’accord de Paris accélérait le changement climatique ?

Selon les estimations du Global Carbon Project, les émissions mondiales de dioxyde de carbone, l’un des principaux gaz à effet de serre que génère l’activité humaine, ont atteint 36,3 milliards de tonnes [Le Hir, 2016]. Elles ont donc stagné par rapport à l’année précédente et devraient rester peu ou prou au même niveau en 2016. Ce ralentissement s’expliquerait notamment par la moindre émission de polluants par la Chine, mais celle-ci a été contrebalancée par une forte hausse des émissions polluantes par l’Inde. Au final, rien n’assure que cette stabilisation se poursuive, ni même qu’elle soit suivie par une baisse. Or, selon le Global Carbon Project, il faudrait que les émissions diminuent de 0,9 % chaque année d’ici 2030 pour éviter que la température moyenne dans le monde ne s’élève de 2 °C d’ici 2100 par rapport à la moyenne observée avant l’ère industrielle. Si, par contre, les émissions retrouvaient la trajectoire ascendante qu’ils suivaient précédemment, la hausse moyenne des températures mondiales s’établira entre 3,2 et 5,4 °C d'ici 2100.

Et si l’accord de Paris accélérait le changement climatique ?

source : The Economist (2016)

L’Accord de Paris qui a été obtenu en décembre dernier dans le cadre de la COP21 vise précisément à limiter la hausse des températures à 2°C. Il appelle à la mise en œuvre de mesures modérées d’ici 2025, puis à l’adoption de mesures plus strictes par la suite. En fait, chaque Etat signataire ne s’est engagé à la mise en œuvre d’aucune mesure précise, ni à respecter un quelconque délai précis. Autrement dit, l’Accord de Paris n’impose pas une réduction immédiate des émissions de gaz à effets de serre. Or pour Laurence Kotlikoff, Andrey Polbin et Andrey Zubarev (2016), l’Accord de Paris est susceptible par là même, non pas de freiner graduellement les émissions de CO2, mais au contraire de les accélérer rapidement. En effet, il signale aux producteurs d’énergies sales que les réserves de pétrole, de gaz naturel et de charbon vont devenir des actifs « bloqués », inutilisables. Autrement dit, il leur signale soit de ne jamais les utiliser, soit de les utiliser immédiatement. Rien n’assure qu’ils choisiront la première option.

C’est ce que Hans-Werner Sinn (2008) a appelé le « paradoxe vert » (green paradox) en appliquant la règle d’Hotelling relative à l’extraction des ressources non renouvelables pour étudier l’efficacité des politiques climatiques d’atténuation. Ces dernières visent à réduire les émissions de polluants en déprimant la demande d’énergies fossiles pour freiner leur production. Or Sinn montre qu’avec la mise en œuvre de telles mesures, les propriétaires des stocks de combustibles fossiles vont s’attendre à ce que ces actifs se déprécient plus rapidement que prévu, ce qui les incitera à avancer leurs projets d’extraction. L’accélération de l’extraction des ressources naturelles entraîne alors une accélération des émissions de carbone et ainsi du réchauffement climatique. Les politiques d’atténuation risquent ainsi de se révéler contre-productives. Une telle idée n’est pas nouvelle. Quelques années auparavant, Peter Sinclair (1992) montrait déjà à travers sa modélisation comment l’introduction d’une taxe environnementale pouvait aggraver et non ralentir le réchauffement climatique.

Kotlikoff et ses coauteurs suggèrent justement que l’Accord de Paris risque d’inciter les producteurs d’énergies sales à accélérer leur extraction et leur combustion. Ils le montrent à travers un modèle à générations imbriquées où ils traitent les dommages climatiques comme une externalité négative que génèrent les générations courantes et que subissent les générations futures. En outre, ils considèrent l’offre mondiale d’énergies sales comme fixe, ce qui signifie qu’elle sera pour l’essentiel utilisée. La seule question qui demeure est quand. Si elle est utilisée rapidement, les dommages climatiques seront massifs et irréversibles. Si elle est utilisée lentement, les dommages seront moindres. Or leur modèle suggère qu’un retard dans la mise en œuvre de la réduction des émissions de carbone va accélérer dans l’immédiat la production de carbone, ce qui conduira en définitive à une hausse permanente des températures bien supérieure à la limite que se sont imposés de respecter les pays signataires de l’Accord de Paris. Dans ce cas, le changement climatique sera plus ample que si aucune action n’avait été entreprise et c’est chaque génération qui verra son bien-être décliner. A l’inverse, la mise en œuvre immédiate de mesures climatiques va inciter dès à présent les producteurs à réduire leur consommation d’énergies sales et ainsi davantage limiter le réchauffement climatique, ce qui accroîtra en définitive le bien-être de chaque génération.

 

Références

KOTLIKOFF, Laurence J., Andrey POLBIN & Andrey ZUBAREV (2016), « Will the Paris accord accelerate climate change? », NBER, working paper, n° 22731, octobre.

LE HIR, Pierre (2016), « Les émissions mondiales de CO2 se stabilisent, mais le climat continue de s’emballer », in Le Monde, 14 juillet.

SINCLAIR, Peter (1992), « High does nothing and rising and worse: carbon taxes should be kept declining to cut harmful emissions », in Manchester School of Economic and Social Studies.

SINN, Hans-Werner (2008), « Public policies against global warming: a supply side approach », in International Tax and Public Finance, vol. 15, n° 4.

Repost 0
19 novembre 2016 6 19 /11 /novembre /2016 15:03
Quelque chose entre le trilemme et le dilemme…

Le choix du régime de change et l’attitude vis-à-vis des flux de capitaux sont deux questions majeures en finance internationale. En s’appuyant sur les modèles à la Mundell-Fleming, la littérature théorique a souvent suggéré l’existence d’un trilemme (ou « triangle des incompatibilité » ou encore « impossible trinité ») : un pays ne peut se caractériser simultanément par une libre mobilité des capitaux, une fixité du taux de change et une autonomie monétaire, c’est-à-dire une liberté de la banque centrale dans la fixation de ses taux d’intérêt : il perd cette autonomie monétaire s’il désire à la fois libérer les mouvements de capitaux et adopter un taux de change fixe ; il doit restreindre les mouvements de capitaux s’il désire à la fois garder une politique monétaire indépendante et ancrer son taux de change sur les autres devises ; il doit laisser sa monnaie flotter s’il désire garder l’autonomie de sa politique monétaire et laisser les capitaux se mouvoir librement. Alors qu’en pratique les pays ont pu présenter au cours de l’histoire une certaine « crainte du flottement » (fear of floating), le trilemme suggère qu’un pays aurait intérêt à laisser sa monnaie flotter lorsque son compte de capital est libéralisé. C’est une idée qu’a notamment défendue Maurice Obstfeld (2015), l’actuel économiste en chef du FMI : les données empiriques lui suggèrent que les pays laissant flotter leur devise jouissent d’une politique monétaire autonome.

Hélène Rey (2013) a pourtant remis en cause ce trilemme en constatant que, même s’ils laissent leur taux de change flotter, les pays qui ont libéralisé leur compte de capital ne gardent pas pour autant l’autonomie de leur politique monétaire. En effet, les mouvements de capitaux pourraient être soumis à un véritable cycle financier mondial. Ce cycle serait intimement lié aux variations de l’indice VIX (un indicateur de volatilité financière que beaucoup perçoivent comme un indicateur de l’aversion au risque), qui trouveraient quant à elles leur origine dans les changements de la politique monétaire américaine. Lorsque la Fed assouplit sa politique monétaire, l’appétit pour le risque tendrait à augmenter (comme le suggère le déclin de l’indice VIX), ce qui stimulerait l’endettement des investisseurs financiers et favoriserait l’afflux de capitaux dans les pays émergents : c’est la phase ascendante du cycle. Inversement, lorsque la Fed resserre sa politique monétaire, l’aversion pour le risque augmenterait (comme le suggère la hausse de l’indice VIX), ce qui freinerait les prises de risques et l’endettement de la part des investisseurs financiers, mais aussi déprimerait les mouvements de capitaux à destination des pays émergents : c’est la phase descendante du risque. Rey constate que même les banques centrales des pays qui laissent flotter leur taux de change sont contraintes de suivre les décisions de la Fed, dès lors que les capitaux se meuvent librement. Au final, il semble que chaque pays fait face, non pas à un trilemme, mais à un simple dillemme, en ne pouvant en définitive choisir qu’entre un « irréconciliable duo » : soit il perd l’autonomie de sa politique monétaire en libéralisant son compte de capital, soit il adopte un contrôle des capitaux pour garder une politique monétaire autonome.

Or, la Réserve fédérale a amorcé il y a peu le resserrement de sa politique monétaire, tout d’abord en réduisant ses achats d’actifs, puis en relevant (en décembre dernier) ses taux directeurs pour la première fois depuis la crise financière mondiale : le retour de l’économie américaine au plein emploi présage une possible surchauffe de l’activité, tandis que le maintien des taux à un faible niveau risque d’alimenter de nouvelles bulles spéculatives susceptibles de conduire à une nouvelle crise financière. Mais plusieurs pays à travers le monde sont loin de connaître une surchauffe et souffrent toujours d’une insuffisance de la demande globale. La question qui se pose alors est si la banque centrale de ces pays devra tout de même resserrer sa politique monétaire. Si c’est un dilemme et non un trilemme auquel les autres pays sont confrontés, alors leur banque centrale pourrait avoir à resserrer hâtivement sa politique monétaire.

Carlos Caceres, Yan Carrière-Swallow, Ishak Demir et Bertrand Gruss (2016) ont étudié l’impact des taux d’intérêt américains sur les taux des autres pays. Ils constatent que les taux d’intérêt de court terme (et les prix d’actifs) des Etats-Unis tendent à varier dans le même sens que les taux d’intérêt de court terme (et les prix d’actifs) du reste du monde, si bien que l’on peut s’attendre effectivement à ce que l’ensemble des taux d’intérêt domestiques s’élève tout autour du monde à mesure que la politique monétaire américaine se resserrera. Mais ils remarquent que cette corrélation s’explique en partie par la synchronisation des cycles d’affaires : c’est parce que l’ensemble des pays tendent simultanément à connaître une surchauffe que la Fed et les autres banques centrales tendent à resserrer simultanément leur politique monétaire. Cela dit, Caceres et ses coauteurs constatent une forte hétérogénéité d’un pays à l’autre et ils mettent en évidence l’absence d’autonomie monétaire dans certains cas. Pour autant, leur analyse suggère que la flexibilité du taux de change joue un rôle déterminant pour assurer l’autonomie de la politique monétaire des petites économies ouvertes vis-à-vis de la politique monétaire américaine lorsqu’ils ont libéralisé leur compte de capital. Ce résultat leur suggère que les pays laissant le plus amplement flotter leur taux de change sont les plus à même de faire face aux pressions exercées par le resserrement de la politique monétaire américaine.

Plus récemment, Xuehui Han et Shang-Jin Wei (2016) ont également étudié comment les changements de la politique monétaire dans les pays développés (le centre) affectent les pays émergents (la périphérie). Ils se distinguent des précédentes études en partant de l’idée d’une possible asymétrie des réactions des économies périphériques aux variations des taux d’intérêt d’un pays central. En l’occurrence, ils se demandent si les pays périphériques pourraient ne pas être autant incités à suivre la politique du pays du centre selon que ce dernier resserre ou assouplit sa politique monétaire. En effet, sans contrôles des capitaux, un régime de change flexible offre une certaine autonomie à la politique monétaire lorsque le pays du centre resserre sa politique monétaire, mais que ce n’est pas le cas lorsque le pays du centre réduit son taux d’intérêt. En d’autres termes, si certains craignent de laisser flotter leur monnaie, c’est avant tout parce qu’ils craignent que leur taux de change s’apprécie : lorsque le pays du centre assouplit sa politique monétaire, la banque centrale d’un pays périphérique assouplit également la sienne, même si l’évolution de l’activité domestique et du chômage domestique plaiderait au contraire pour un resserrement monétaire. Ainsi, un taux de change flexible n’offre qu’une protection asymétrique ou incomplète face aux changements de politique monétaire dans le reste du monde. Les contrôles de capitaux contribuent à isoler les pays de la périphérie des chocs de politique monétaire générés par le pays du centre lorsque ce dernier réduit son taux d’intérêt, et ce qu’importe que leur taux de change soit fixe ou flottant. Bref, chaque pays ferait face à quelque chose entre le dilemme et le trilemme.

 

Références

CACERES, Carlos, Yan CARRIÈRE-SWALLOW, Ishak DEMIR & Bertrand GRUSS (2016), « U.S. monetary policy normalization and global interest rates », FMI, working paper, n° 16/195, septembre.

HAN, Xuehui, & Shang-Jin WEI (2016), « International transmissions of monetary shocks: Between a trilemma and a dilemma », NBER, working paper, n° 22812, novembre.

OBSTFELD, Maurice (2015), « Trilemma and tradeoffs: Living with financial globalization », BRI, working paper, n° 480.

REY, Hélène (2013), « Dilemma not trilemma: The global financial cycle and monetary policy independence », document de travail présenté à la conférence de Jackson Hole, 24 août.

Repost 0
13 novembre 2016 7 13 /11 /novembre /2016 22:00
Faut-il taxer les contrats à durée déterminée ?

Dans de nombreux pays européens marqués par une forte protection de l’emploi, comme l’Espagne, la France, l’Italie et le Portugal, la majorité des emplois occupés correspondent à des contrats à durée indéterminée ; par contre, la majorité des embauches se font avec des contrats à durée déterminée. Les contrats à durée indéterminée n’ont pas de date d’échéance, mais leur rupture est très coûteuse pour les employeurs : elle implique de complexes procédures administratives et d’importantes indemnités de licenciement. Lorsque les employeurs s’attendent à ce que la durée de l’emploi soit courte, ils peuvent utiliser des contrats temporaires qui stipulent la date d’échéance de l’emploi ; l’employeur a alors le devoir de rémunérer son salarié jusqu’à la date d’échéance, mais il n’a pas à supporter de coûts supplémentaires lors de cette dernière.

Bien sûr, les autorités imposent une forte réglementation des contrats à durée limitée (notamment la limitation de leur nombre de renouvellements) et une forte protection des contrats à durée illimitée (notamment en accroissant les coûts de licenciement qui leur sont associés) dans l’optique de favoriser ces derniers. Mais toute une littérature suggère que la protection de l’emploi nuit en définitive à ce dernier en désincitant les employeurs à embaucher : les titulaires de contrats à durée indéterminée gagneraient en termes de sécurité de l’emploi, mais cela se ferait au détriment des autres actifs, qui enchaîneraient alors plus fréquemment les emplois précaires et les périodes de chômage. Au niveau agrégé, la plus grande protection de l’emploi pourrait se traduire par un plus faible volume d’emplois.

Pour inciter les employeurs à embaucher sur de longues périodes, même avec des contrats à durée déterminée, les gouvernements ont pu avoir tendance à taxer les contrats temporaires. Ce sont les contrats temporaires de faible durée qui sont tout particulièrement taxés en Espagne, en France et au Portugal, tandis que ce sont tous les contrats temporaires qui sont taxés en Italie. La France a par exemple introduit en 2013 une taxe correspondant à 3 % du salaire brut pour les contrats temporaires durant moins d’un mois et à 1,5 % du salaire brut pour les contrats temporaires durant entre un et trois mois ; mais si l’emploi temporaire est transformé en contrat à durée indéterminée, la taxe est remboursée à l’entreprise. L’année dernière, le gouvernement avait précisément projeté d’accroître la taxation des emplois à durée déterminée pour mieux faire passer la loi El Khomri.

Pierre Cahuc, Olivier Charlot, Franck Malherbet, Hélène Benghalem et Emeline Limon (2016) ont analysé les conséquences de la taxation des emplois temporaires que les gouvernements de plusieurs pays européens ont récemment mis en œuvre en appliquant un modèle aux données françaises. Leur analyse suggère que la taxation des contrats temporaires n’est pas une mesure appropriée pour inciter les entreprises à créer davantage d’emplois stables dans les pays d’Europe continentale qui sont caractérisés par une forte protection des emplois permanents. Certes, la taxation des contrats de courte durée peut inciter les entreprises à substituer des contrats à plus longue durée à des contrats de plus faibles durée, ainsi qu’à substituer des contrats permanents à des contrats provisoires si cela leur permet d’éviter de payer la taxe. La réduction de l’instabilité de l’emploi est amplifiée si la taxe est remboursée lorsque les contrats à durée déterminée sont transformés en contrats à durée indéterminée ou encore si la taxe sur les contrats temporaires de courte durée est augmentée tout en étant compensée par une réduction de la taxe sur les contrats temporaires de longue durée et sur les contrats permanents.

Toutefois, l’analyse de Cahuc et alii suggère que la taxation des contrats à durée déterminée réduit la durée moyenne des emplois et aggrave le chômage. L’analyse aboutit également à ce résultat lorsque la taxation est ciblée sur les contrats temporaires de court terme tout en étant compensée par une moindre taxation des contrats à durée indéterminée et des emplois temporaires de longue durée. Ils en concluent qu’il faut donc mettre en œuvre d’autres politiques pour contrer la forte segmentation des marchés du travail européens entre les emplois stables et les emplois instables. Pour accroître l’emploi et le bien-être des chômeurs, Cahuc et ses coauteurs rejoignent les conclusions obtenues par des auteurs comme Olivier Blanchard et Jean Tirole (2008) en estimant qu’il vaut mieux réduire les coûts de licenciement des contrats à durée indéterminée plutôt que de taxer les contrats temporaires pour réduire l’instabilité de l’emploi.

 

Références

BLANCHARD, Olivier J., & Jean TIROLE (2008), « The joint design of unemployment insurance and employment protection: A first pass », in Journal of the European Economic Association, vol. 6, n° 1.

CAHUC, Pierre, Olivier CHARLOT, Franck MALHERBET, Hélène BENGHALEM & Emeline LIMON (2016), « Taxation of temporary jobs: Good intentions with bad outcomes? », IZA, discussion paper, n° 10352, novembre.

Repost 0
11 novembre 2016 5 11 /11 /novembre /2016 17:59
La crise mondiale a-t-elle durablement bouleversé la conduite de la politique monétaire ?

La sévérité de la crise financière mondiale et la lenteur de la subséquente reprise ont poussé les banques centrales à fortement assouplir leur politique monétaire, tout d’abord en rapprochant leurs taux directeurs au plus proche de zéro, puis en adoptant des mesures moins « conventionnelles, comme les achats d’actifs à grande échelle dans le cadre de programmes d’assouplissement quantitatif (quantitative easing), en améliorant leur communication pour mieux guider les anticipations des agents à travers la pratique du forward guidance ou encore en poussant leurs taux directeurs en territoire négatif. C’est ainsi que peut-être « la nécessité s’est révélée être la mère de l’innovation ».

Mais, à mesure que le temps passe et que les effets de la crise mondiale s’atténuent ou que, tout du moins, le souvenir de la crise s’éloigne, il n’est pas impossible que les banques centrales se contentent de la boîte à outils dont elles disposaient avant la crise financière, c’est-à-dire essentiellement la variation des taux directeurs. Certes, certaines d’entre elles sont toujours aux prises avec une activité domestique particulière atone, mais d’autres ont commencé à resserrer leur politique monétaire, notamment pour éviter une surchauffe de leur économie et la formation d’une nouvelle bulle spéculative. Aujourd’hui, même si des banques centrales comme la BCE et la Banque du Japon continuent à adopter de nouvelles mesures pour davantage assouplir leur politique monétaire, la Réserve fédérale a quant à elle réduit ses achats d’actifs et a déjà commencé à relever son taux directeur, en raison du retour de l’économie américaine au « plein emploi ».

Ainsi, Alan Blinder, Michael Ehrmann, Jakob de Haan et David-Jan Jansen (2016) se sont demandé si ces récents changements observés dans la mise en œuvre de la politique monétaire sont susceptibles ou non d’être permanents. Ils s’appuient en l’occurrence sur deux sondages qu’ils ont menés entre février et mai 2016, l’un réalisé auprès des gouverneurs de nombreuses banques centrales à travers le monde et un second réalisé auprès des spécialistes de la politique monétaire parmi les universitaires. Ils constatent que les banques centrales dans les pays les plus touchés par la crise ont été celles qui ont été les plus enclines à recourir à de nouvelles mesures de politique monétaire, d’avoir discuté de leurs mandats et d’avoir davantage communiqué sur leurs actions et objectifs. Autrement dit, la nécessité a effectivement été « la mère des innovations ». Mais il semble que les idées ont plus largement changé. Par exemple, les banques centrales dans les pays les moins touchés par la crise ont indiqué avoir mis en œuvre des mesures de politique macroprudentielle. En outre, la relation entre les banques centrales et leurs gouvernements peuvent avoir bien changé, les banques centrales franchissant plus souvent la ligne de démarcation.

Certes, le monde des banquiers centraux n’a pas beaucoup changé, surtout si l’on fait abstraction de la Fed, de la Banque d’Angleterre, de la BCE et de la Banque du Japon : 70 % des gouverneurs de banque centrale qui ont répondu à l’annonce n’ont pas considéré l’éventualité d’adopter des taux nuls, voire des taux négatifs, ni même un programme d’assouplissement quantitatif. Mais la crise mondiale a amené beaucoup de gouverneurs et d’universitaires à reconsidérer ce que devait être le mandat des banques centrales. Beaucoup considèrent notamment que les autorités monétaires doivent ajouter la stabilité financière parmi leurs objectifs. Les mandats de certaines banques centrales ont d’ailleurs déjà été modifiés pour intégrer un objectif de stabilité financière. Pour autant, la plupart ne considèrent pas l’éventualité d’abandonner l’objectif de ciblage d’inflation.

Globalement, Blinder et ses coauteurs s’attendent à ce que les banques centrales aient à l’avenir de plus larges mandats, qu’elles utilisent plus largement des outils macroprudentiels et qu’elles communiquent plus activement qu’elles ne le faisaient avant la crise. Bien qu’il n’y ait pas encore de consensus sur les bénéfices ou sur les coûts respectifs des mesures non conventionnelles, Blinder et alii s’attendent à ce que la plupart d’entre elles demeurent dans les boîtes à outils des banques centrales, dans la mesure où les gouverneurs qui ont acquis de l’expérience avec un outil particulier sont les plus susceptibles d’avoir une bonne opinion de celui-ci. En outre, même si beaucoup pensent que les banques centrales doivent adopter des mesures macroprudentielles, il n’y a aucun consensus sur celles qui doivent être adoptées.

Enfin, Blinder et ses coauteurs notent de réelles différences entre ce que pensent les universitaires et ce que pensent les banquiers centraux sur la conduite de la politique monétaire. Par exemple, les premiers sont davantage favorables à ce que la plupart des mesures non conventionnelles qui ont été adoptées depuis la crise mondiale demeurent dans la boîte à outils des banques centrales, tandis que les seconds jugent souvent qu’il est trop tôt pour juger. En outre, même si les gouverneurs des banques centrales et les universitaires sont d’accord à l’idée que les banques centrales communiquent davantage depuis la crise et qu’elles continueront ainsi à le faire, les universitaires montrent une préférence pour le forward guidance qualitatif, basé sur les données, tandis que les banquiers centraux préfèrent généralement la forme qualitative du forward guidance. Enfin, si les gouverneurs des banques centrales ne jugent pas avoir reçu beaucoup de critiques pour avoir agi sur le plan politique ou avoir franchi la ligne durant la crise, la majorité des universitaires estiment au contraire que les autorités monétaires ont fait l’objet de nombreuses critiques pour avoir agi ainsi, beaucoup s'inquiétant notamment de leur indépendance.

 

Référence

BLINDER, Alan, Michael EHRMANN, Jakob de HAAN & David-Jan JANSEN (2016), « Necessity as the mother of invention: Monetary policy after the crisis », NBER, working paper, n° 22735, octobre.

Repost 0
publié par Martin Anota - dans Politique monétaire
commenter cet article
6 novembre 2016 7 06 /11 /novembre /2016 22:11
Comment ont évolué les inégalités régionales dans les pays développés ?

Les inégalités de revenu sont particulièrement fortes entre les régions. Par exemple, l’Ile-de-France a beau représenter 2,2 % du territoire français, elle concentre pourtant 18,8 % de la population française et produit 31 % du PIB français [Diez et alii, 2015]. En 2010, le niveau de vie d’un Francilien était 1,66 fois plus élevé que le niveau de vie moyen en France et même 2,21 fois plus élevé que celui d’un habitant du Limousin, la région la plus pauvre de France. Ces inégalités régionales étaient déjà très importantes un siècle et demi auparavant. En effet, en 1860, l’Ile-de-France était déjà la région la plus riche de France. Le niveau de vie de ses habitants représentait alors le double du niveau de vie moyen français et était 3,13 fois plus élevé que celui des habitants de la région la plus pauvre alors, en l’occurrence la Bretagne [Combes et alii, 2011].

Plusieurs études ont suggéré que les inégalités de revenu régionales ont suivi une forme en cloche, en croissant lors du décollage de la croissance, au début de l’industrialisation et de l’intégration des marchés, puis en déclinant par la suite. Autrement dit, les inégalités régionales suivraient une sorte de courbe de Kuznets. En l’occurrence, lors des premières étapes de l’industrialisation, quand s’amorce la croissance, les activités industrielles à forte valeur ajoutée tendraient à se concentrer dans un ensemble limité de lieux, laissant le reste du territoire héberger les activités les moins productives comme les activités agricoles. Avec la baisse des coûts de transport, il est de moins en moins nécessaire pour les entreprises de localiser leurs établissements à proximité des gisements de ressources naturelles et des fournisseurs, tandis que les avantages d’une concentration deviennent de plus en plus manifestes. Les inégalités spatiales ont alors tendance à s’auto-renforcer : par le jeu des économies d’échelle et des externalités d’agglomération, un lieu tend à attirer d’autant plus les activités productives et les travailleurs les plus qualifiés qu’il en concentre déjà beaucoup. La concentration n’est toutefois pas sans coûts : par exemple, le prix des terrains et de l’immobilier augmentent, les phénomènes de congestion (comme les bouchons sur la route) se multiplient, le temps de trajet des travailleurs entre leur domicile et leur travail augmentent, etc. Ainsi, les avantages de la concentration déclinent au cours du temps et, à partir d'un certain moment, les activités productives finissent par se disperser à nouveau.

Jeffrey Williamson (1965) constate précisément au niveau empirique que les inégalités régionales de revenu par tête ont connu une telle évolution en forme de cloche aux Etats-Unis, en atteignant leur pic au début du vingtième siècle. Un tel phénomène a également été observé dans les pays européens, notamment en France. Par exemple, selon Pierre-Philippe Combes, Miren Lafourcade, Jacques-François Thisse et Jean-Claude Toutain (2011), la répartition spatiale des activités industrielles et tertiaires a connu une évolution en forme de cloche en France depuis le milieu du dix-neuvième siècle : la concentration spatiale s’est accrue entre 1860 et 1930, puis les activités se sont plus également réparties entre les départements de 1930 à 2000. Alfonso Diez, Joan Ramón Rosés et Teresa Sanchis (2015) estiment que les inégalités entre les régions françaises ont eu tendance à augmenter entre 1860 et 1896, c’est-à-dire lors des premières étapes de l’industrialisation, puis à refluer entre 1896 et 1982.

Toutefois, ce processus semble s'être de nouveau inversé ces dernières décennies, comment le suggèrent notamment Felix Arnold et Hansjörg Blöchliger (2016). Ces derniers ont étudié comment les écarts en termes de PIB par tête entre 281 régions des pays de l’OCDE ont évolué entre 1995 et 2013. Ils constatent qu’en 2013, le PIB par tête des pays les plus riches (en l’occurrence du Luxembourg) était quatre fois plus élevé que celui du pays développé le plus pauvre (en l’occurrence le Chili). Le PIB par habitant de la région la plus riche (en l’occurrence le Luxembourg) était dix fois plus élevé que celui de la région la plus pauvre (en l’occurrence, l’Araucanie, au Chili). Entre 1995 et 2013, le PIB par tête s’est accru dans tous les pays, sauf en Grèce. La hausse du niveau de vie est la plus élevée dans les pays les moins développés, ce qui indique qu’un phénomène de rattrapage a été à l’œuvre.

Mais lorsqu’ils comparent l’ensemble des régions de leur échantillon les unes avec les autres, Arnold et Blöchliger constatent que les inégalités de PIB des régions, mesurées par un coefficient de Gini, ont diminué entre 1995 et 2013. Mais, au cours de cette même période, les inégalités entre les régions au sein de chaque pays, mesurées également par un coefficient de Gini, ont eu tendance à augmenter. Autrement dit, les inégalités entre les pays développés se sont réduites, mais les inégalités au sein de chaque pays développé ont eu tendance à augmenter. Et ce malgré le fait que l’ensemble des PIB régionaux aient eu tendance à augmenter : les régions les plus avancées ont eu tendance à s’enrichir plus rapidement que les régions les plus pauvres. Les plus fortes hausses des inégalités régionales ont été observées dans les pays qui appartenaient au bloc soviétique, en l’occurrence la Pologne, la République tchèque et la Hongrie.

Ces résultats sont notamment cohérents avec ceux obtenus par Sanchis et alii dans le cas français. Ces derniers notent que les dernières décennies du vingtième siècle ont été marquées par une nouvelle hausse des inégalités régionales en France ; ces dernières sont même revenues au niveau qu’elles atteignaient lors des années trente.

De son côté, The Economist (2016) note que les inégalités de revenu se sont accrues entre les régions les plus riches et les régions les plus pauvres dans chaque pays de la zone euro depuis la crise financière. Par exemple, le niveau de vie de la Calabre, la région la plus pauvre d’Italie, représente 40 % de celui de la province de Bolzano, la région la plus riche d’Italie, contre 45 % en 2007. Les autres régions pauvres du reste de la zone euro ont vu leur revenu chuter, tant en termes relatifs qu’en termes absolus. L’Allemagne constitue toutefois une exception, puisque le PIB par tête de l’ex-RDA (à l’exclusion de Berlin) s’élève à 67 % de celui de l’ex-RFA. Toutefois, l’essentiel du rattrapage en Allemagne s’est opéré au début des années quatre-vingt-dix, immédiatement suite à la réunification ; il ne s'est poursuivi par la suite que lentement. The Economist met l’accent sur deux possibles facteurs susceptibles d'expliquer la divergence entre les niveaux de vie régionaux : la désindustrialisation et l’austérité budgétaire. Les emplois de la fonction publique et les revenus de transfert ont en effet décliné, et ce peut-être tout particulièrement dans les régions les pauvres, c’est-à-dire celles qui en avaient le plus besoin. En analysant 13 pays européens sur la période s’écoulant entre 1980 et 2008, Luca Agnello, Giorgio Fazio et Ricardo Sousa (2016) ont constaté que les inégalités régionales ont eu tendance à se détériorer suite aux épisodes de consolidations budgétaires, en particulier lorsque ces derniers ont été amples et se sont appuyés sur une réduction des dépenses publiques plutôt que sur des hausses d’impôts. Autrement dit, le creusement des inégalités régionales est susceptible de se poursuivre dans la zone euro, dans la mesure où les autorités continuent sur la réduction des déficits publics.

 

Références

AGNELLO, Luca, Giorgio FAZIO & Ricardo M. SOUSA (2016), « National fiscal consolidations and regional inequality in Europe », in Cambridge Journal of Regions, Economy and Society, vol. 9, n° 1.

ARNOLD, Felix, & Hansjörg BLÖCHLIGER (2016), « Regional GDP in OECD countries: How has inequality developed over time? », OCDE, economics department working paper, n° 1329.

COMBES, Pierre-Philippe, Miren LAFOURCADE, Jacques-François THISSE & Jean-Claude TOUTAIN (2011), « The rise and fall of spatial inequalities in France: A long-run perspective », in Explorations in Economic History, vol. 48, n° 2.

DIEZ, Alfonso, Joan RAMÓN ROSÉS & M. Teresa SANCHIS (2015), « Regional inequality in France 1860‐2010: Structural change dynamics », document de travail.

The Economist (2016), « The gap between poor and rich regions in Europe is widening », 29 octobre.

WILLIAMSON, Jeffrey G. (1965), « Regional inequality and the process of national development », in Economic Development and Cultural Change, vol. 13, n° 4.

Repost 0
publié par Martin Anota - dans Economie géographique
commenter cet article

Présentation

  • : D'un champ l'autre
  • D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher