Dimanche 31 août 2014 7 31 /08 /Août /2014 12:17

Le théorème Heckscher-Ohlin-Samuelson (HOS) suggère que la mondialisation est susceptible de réduire les inégalités de revenu dans les pays en développement. En effet, puisque cette théorie suggère que chaque pays dispose d’un avantage comparatif dans la production de bien qui exige relativement le plus des facteurs dont il est abondamment dotés, les pays pauvres (qui disposent de peu de capitaux et d’une main-d’œuvre relativement peu qualifiée) devraient se spécialiser dans la production de biens exigeant relativement peu de capital et beaucoup de travail non qualifié. Puisque la main-d’œuvre non qualifiée est davantage demandée, ses salaires augmentent, tandis que la main-d’œuvre qualifiée, moins demandée, devrait connaître de moindres hausses salariales. Bref, les écarts de salaires entre travailleurs qualifiés et non qualifiées devraient se réduire. [1]

Cela pourrait par exemple expliquer par exemple pourquoi  les pays européens, initialement caractérisés par un ratio élevé de travailleurs non qualifiés, ont connu une baisse des inégalités au dix-huitième siècle avec le développement des échanges commerciaux avec les Etats-Unis [The Economist, 2014]. En 1700, les revenus moyens des 10 % des Français les plus aisés étaient 31 fois plus élevés que ceux des 10 % des Français les moins aisés ; en 1900, ils n’étaient plus que 11 fois plus élevés.

Le modèle Heckscher-Ohlin rencontre toutefois plusieurs problèmes au niveau empirique. D’une part, il prédit que les échanges bilatéraux seront d’autant plus importants que les dotations factorielles sont différentes. Pourtant les pays riches et les pays pauvres échangent très peu entre eux. D’autre part, l’analyse empirique suggère que les inégalités tendent à augmenter dans les pays en développement suite à une libéralisation des échanges. Les inégalités mondiales (mesurées par la répartition du revenu entre les pays riches et les pays pauvres) ont certes eu tendance à se réduire entre 1988 et 2008 selon la Banque mondiale, mais la mondialisation semble s’être traduite par une hausse des inégalités dans plusieurs pays pauvres. Celles–ci ont eu tendance à s’accroître suite à chaque épisode de libéralisation des échanges. L’indice de Gini a augmenté de 9 % en Afrique subsaharienne entre 1993 et 2008. Il a augmenté de 34 % en Chine sur deux décennies. 

Lords de la dernière édition de la conférence qui se tient chaque année à Lindau en Allemagne et qui réunit les « prix Nobel » d’économie, Eric Maskin s’est demandé pourquoi la mondialisation entraîne une hausse des inégalités dans les pays en développement et quelles solutions il faudrait alors mettre en œuvre pour les réduire. Il appuie sa réflexion sur un modèle néoclassique qu’il a réalisé avec Michael Kremer. Les deux économistes partent du fait que la main-d’œuvre est hétérogène dans les pays en développement. En l’occurrence, dans ces derniers, les firmes multinationales sont davantage susceptibles d’embaucher des travailleurs qualifiés que des travailleurs non qualifiés. La revue The Economist (2014) prend l’exemple des centres d’appels en Inde : leurs salariés disposent en général de l’équivalent du baccalauréat. Il n’en demeure pas moins que les travailleurs qualifiés des pays en développement sont moins efficaces que les travailleurs non qualifiés des pays développés.

Avant une réforme de libéralisation des échanges (à l’instar de celles menées à partir des années quatre-vingt), les travailleurs qualifiés et non qualifiés dans les pays en développement travaillaient ensemble, ce qui permettait d’accroître l’efficacité des non qualifiés. Avec la mondialisation, les travailleurs qualifiés des pays en développement peuvent plus facilement travailler avec les travailleurs des pays développés, si bien qu’ils délaissent leurs compatriotes non qualifiés. Les entreprises des pays avancés peuvent délocaliser certaines activités vers les pays en développement, mais ces activités sont alors réalisées sur place par des travailleurs qualifiés, alors qu’elles étaient réalisées par des travailleurs non qualifiées lorsqu’elles étaient réalisées dans les pays développés. 

Par conséquent, avec le développement du commerce intrafirme et l’essor des chaînes de valeur régionales, les travailleurs qualifiés dans les pays en développement sont davantage demandés et leur productivité augmente, si bien qu’ils voient leurs salaires augmenter. Les firmes multinationales payent alors dans les pays en développement des salaires plus élevés que la norme. Et effectivement, au Mexique, les entreprises exportatrices versent des salaires supérieurs de 60 % à ceux versés par les entreprises non exportatrices ; en Indonésie, les usines possédées par les étrangers versent aux cols blancs des salaires supérieurs de 70 % à ceux versés par les entreprises détenues par des résidents. D’après le modèle de Kremer et Maskin, non seulement les travailleurs les moins qualifiés ne peuvent pas faire face aux travailleurs qualifiés des pays riches, mais ils ont également perdu accès aux travailleurs qualifiés de leur propre pays. Leur productivité et leurs salaires diminuent, si bien que les inégalités de revenu s’accroissent.

Maskin suggère alors que la réduction des inégalités dans les pays en développement passe par l’éducation. 38 % des adultes sont analphabètes en Afrique et les taux d'analphabétisme dépassent les 50 % dans plusieurs pays. Mieux qualifiés, les travailleurs pauvres deviennent alors plus attractifs pour les entreprises étrangères et leurs salaires augmentent. Les travailleurs peu qualifiés peuvent difficilement investir dans le capital humain, ce qui justifie l’intervention des pouvoirs publics et l’aide internationale. En 1970, 30 % des enfants latino-américains étaient scolarisés dans le secondaire, alors qu’ils sont 88 % à l’être aujourd’hui. Au cours de cette période, l’Amérique latine a connu une forte réduction des inégalités et celle-ci s’expliquerait notamment par les investissements réalisés dans l’éducation, ce qui conforte la thèse de Maskin.


[1] Par contre, si l’on suit la logique du théorème HOS, c’est la dynamique inverse que l’on est susceptible d’observer dans les pays riches : puisque ceux-ci se caractérisent par une main-d’œuvre relativement qualifiée, ils sont censés se spécialiser dans la production exigeant le plus de travail qualifié, si bien que c’est la demande de travailleurs qualifiés qui augmente et donc leurs salaires s’accroissent. Puisque les travailleurs non qualifiés sont moins demandés, leurs salaires stagnent, voire diminuent, si bien que les inégalités ont tendance à augmenter avec la libéralisation des échanges et l’approfondissement de la spécialisation.

 

Références

The Economist (2014), « Revisiting Ricardo: Why globalisation is not reducing inequality within developing countries », 23 août.

EVANS-PRITCHARD, Ambrose (2014), « Nobel gurus fear globalisation is going horribly wrong (technical) », in The Telegraph, 22 août.

KREMER, Michael, & Eric MASKIN, « Globalization and inequality », document de travail.

C. W. (2014), « Eric Maskin and inequality: Learn, and be less unequal », in Free Exchange (blog), 23 août. 

Par Martin Anota - Publié dans : Economie internationale
Laisser un commentaire - Voir les 0 commentaires
Jeudi 28 août 2014 4 28 /08 /Août /2014 19:00

L’économie italienne est officiellement entrée en récession pour la troisième fois en six ans. D’après les estimations préliminaires, le PIB s’est contracté de 0,2 % au deuxième trimestre 2014, alors que les prévisionnistes s’attendaient à une hausse (bien modeste) de 0,1 %. Il s’agit de la plus mauvaise performance depuis 2000. Au cours du premier trimestre, le PIB avait déjà chuté de 0,1 %. Puisque la croissance a été négative sur deux trimestres successifs, la situation que traverse l’Italie est qualifiée de récession. Comme le note Jeffrey Frankel (2014), cette affirmation repose sur la définition de la récession telle qu’elle est utilisée en Europe. Mais il existe d’autres définitions. Selon celle qui est utilisée par le National Bureau of Economic Research aux Etats-Unis, la situation italienne serait considérée comme une récession unique longue de six ans.

GRAPHIQUE 1  PIB par tête italien (en dollars PPA 1990)

Emanuele-Felice--Giovanni-Vecchi--Italie-pib-par-tete.png

source : Emanuele Felice et Giovanni Vecchi (2012)

En effet, l’Italie a été sur une pente descendante depuis le choc de la crise mondiale en 2008. La reprise observée depuis 2010-2011 fut si timide que le niveau de la production avait à peine regagné le tiers de ses pertes lorsqu’un nouveau retournement est survenu en 2012. Le PIB italien reste 9,1 % sous le niveau qu’il atteignait à son pic d’avant-crise. Il est désormais à peine aussi élevé qu’en 2000, tandis que la production industrielle est en-deçà de ses niveaux des années quatre-vingt. Cette performance est même pire que celle du Japon qui était pourtant considéré comme « l’homme malade de l’économie mondiale » au cours des 25 dernières années [O’Brien, 2014]. Le gouvernement italien s’attend à ce que le taux de croissance annuel s’élève à 0,8 % cette année. Après l’annonce de l’entrée en récession, Moody’s prévoit que l’économie se contractera de 0,1 % et la Société Générale de 0,2%.  

GRAPHIQUE 2  PIB réel de l'Italie (en milliards de dollars)

Jeffrey-Frankel--Italie-pib-reel.png

source : Jeffrey Frankel (2014)

L’Italie connaît des problèmes du côté de l’offre. Pour Paolo Manasse (2013) comme pour d’autres économistes, l’incapacité du pays à renouer avec la croissance est l’héritage de son échec pluridécennal à réformer les marchés du crédit, des produits et du travail : il est difficile de créer et de développer une entreprise, le manque de concurrence conduit à une captation des rentes nocive à l’activité, tandis que la réglementation excessive du travail désincite les entreprises à embaucher tout en désincitant les salariés à être efficaces. Le manque de réformes a étouffé l’innovation, la productivité et par conséquent la croissance de la production. Au cours des 13 dernières années, la productivité a augmenté de 20 % en Allemagne, alors qu’elle n’augmentait que de 2 % en Espagne [Manasse et Manfredi, 2014]. Les salaires italiens ont poursuivi leur progression, mais déconnectés de l’évolution de la productivité. Depuis 2000, ils ont davantage augmenté dans les secteurs où la productivité s’est le moins accrue, tandis qu’à court terme les emplois ont surtout été créés dans les secteurs où la productivité a le moins augmenté. Entre le premier trimestre 2001 et le dernier trimestre 2011, le coût unitaire du travail de l’Italie a augmenté de 23 points de pourcentage de plus que dans ses partenaires commerciaux [Manasse, 2013]. Cette hausse du coût du travail a détérioré la compétitivité des entreprises italiennes, ce qui a contribué à dégrader les performances commerciales du pays. 

Toujours à l’instar de d’autres pays européens, l’Italie rencontre également de sérieux problèmes de demande. Les politiques structurelles pourraient éventuellement stimuler la croissance à long terme, mais elles affaiblissent à court terme la demande globale, si bien que les institutions internationales (comme le FMI ou l’OCDE) préconisent qu’elles s’accompagnent d’un assouplissement des politiques conjoncturelles. Si la récession s’explique effectivement par la faiblesse de la demande, les réformes structurelles sont susceptibles de la prolonger et de l’approfondir ; la déréglementation du marché du travail est susceptible d’aggraver le chômage. En outre, depuis 2010, la zone euro demande aux pays-membres de réduire leurs déficits budgétaires, c’est-à-dire soit de réduire les dépenses publiques, soit d’accroître les impôts. Qu’elle prenne l’une ou l’autre de ces formes (ou une combinaison des deux), la consolidation budgétaire déprime la demande globale, alors même que celle-ci est déjà insuffisante pour assurer le plein emploi. Comme les autres pays-membres resserrent également leur politique budgétaire et voient leur activité économique stagner, la récession se généralise et s’auto-entretient via le canal de commerce international. 

Le resserrement de la politique budgétaire en période d’atonie de l’activité conduit non pas à diminuer le ratio dette publique sur PIB, mais à l’augmenter. La dette publique représentait 135,6 % du PIB au premier trimestre, alors qu’elle représentait 130,2 % du PIB une année plus tôt [Evans-Pritchard, 2014]. Elle pourrait atteindre 140 % d’ici la fin de l’année. Comme plusieurs pays européens, l’Italie se trouve prise au piège d’un véritable cercle vicieux : parce que le gouvernement a mis en œuvre un plan d’austérité au cœur d’une récession, l’activité économique s’en trouve pénalisée, les recettes fiscales se tarissent et le déficit public se creuse, ce qui incite le gouvernement à poursuivre l’austérité afin d’équilibrer les finances publiques. La faiblesse de l’inflation, voire l’éventuel basculement dans la déflation, compliquent le désendettement public en accroissant la valeur réelle de la dette. La tâche est impossible. Une étude réalisée par le think-tank Bruegel suggère que l’Italie doit générer un excédent primaire représentant 5 % du PIB pour stabiliser la dette publique lorsque l’inflation s’élève quant à elle à 2 % ; ce chiffre s’élève à 7,8 % pour une inflation nulle [Evans-Pritchard, 2014]. La poursuite d’un tel objectif est vouée à l’échec puisqu’il enferme l’économie italienne dans la stagnation et amène le ratio d’endettement sur une trajectoire explosive. Elle apparaît d’autant plus vaine que Barry Eichengreen et Ugo Panizza (2014) ont montré que des excédents primaires aussi larges et persistants se sont révélés rares au cours de l’histoire.

Les eurosceptiques ne manquent pas de rappeler que le désastre long de 14 ans coïncide avec l’entrée dans l’union économique et monétaire (UEM) [Evans-Pritchard, 2014]. Avant l’adoption de la monnaie unique, l’Italie entretenait des excédents commerciaux avec l’Allemagne. En 1996, elle ancra la lire sur le deutschemark en 1996 en vue d’entrer dans l’union économique et monétaire. Or, à chaque fois que l’Italie a ancré sa monnaie sur la devise allemande au cours des quatre dernières décennies, elle a connu un ralentissement de la productivité et une détérioration de sa compétitivité ; elle ne restaurait cette dernière qu’en procédant à une dévaluation, une option indisponible avec l’adoption de la monnaie unique. L’économie allemande a par contre profité de l’UEM pour mettre en œuvre une désinflation compétitive, participant à dégrader la compétitivité des pays périphérique de la zone euro, puis imposant à ces derniers de supporter l’ajustement après la crise mondiale. En comprimant sa demande intérieure et en refusant d’assouplir sa politique budgétaire, l’Allemagne génère des pressions déflationnistes sur le reste de la zone euro. Si l’Italie avait gardé sa propre monnaie, elle aurait pu jouer sur son taux de change pour stimuler la demande extérieure et par là même l’activité domestique ; réciproquement, l’appartenance à la zone euro l’empêche d’utiliser cet instrument. Paolo Manasse, Tommaso Nannicini et Alessandro Saia (2014) ont cherché à récuser les arguments eurosceptiques. Selon leur analyse contrefactuelle, l’euro aurait stimulé les échanges, diminué les taux d’intérêt et l’inflation en Italie, mais il n’aurait eu qu’un faible impact négatif sur les revenus par habitant.

Quelles sont les bonnes politiques que l’Italie et les autres pays-membres devraient adopter pour renouer avec la croissance? Pour Frankel, les gouvernements des pays en difficulté, qu’il s’agisse aussi bien de l’Italie que du Portugal ou de la Grèce, doivent mettre en œuvre des réformes structurelles, en particulier sur le marché du travail. Celles-ci sont peut-être susceptibles de stimuler la croissance potentielle, mais elles ont à court terme de puissantes répercussions sur la demande globale. Elles doivent donc être accompagnées, au niveau européen par des politiques de relance. Il peut s’agir d’une relance de la consommation en Allemagne et de l’adoption de mesures de politique monétaire « non conventionnelles » par la BCE. L’unification monétaire rend plus nécessaire la mise en œuvre d’un ajustement plus symétrique entre les pays-membres. Le maintien de politiques budgétaires restrictives à l’échelle européenne rend alors plus attrayante l’abandon de la monnaie unique.

 

Références

EICHENGREEN, Barry, & Ugo PANIZZA (2014), « A surplus of ambition: Can Europe rely on large primary surpluses to solve its debt problem? », National Bureau of Economic Research, working paper, n° 20316, juillet.

EVANS-PRITCHARD, Ambrose (2014), « Italy's Renzi must bring back the lira to end depression », in The Telegraph, 13 août.

FRANKEL, Jeffrey (2014), « Italian growth: New recession or six-year decline? », in VoxEU.org, 11 août.

MANASSE, Paolo (2013), « The roots of the Italian stagnation », in VoxEU.org, 19 juin.

MANASSE, Paolo, & Thomas MANFREDI (2014), « Wages, productivity, and employment in Italy: Tales from a distorted labour market », in VoxEU.org, 19 avril.

MANASSE, Paolo, Tommaso NANNICINI & Alessandro SAIA (2014), « Italy and the euro: Myths and realities », in VoxEU.org, 24 mai.

O'BRIEN, Matt (2014), « Italy’s triple-dip recession has wiped out all its growth since 2000 », 7 août.

Par Martin Anota - Publié dans : Croissance et fluctuations économiques
Laisser un commentaire - Voir les 0 commentaires
Lundi 25 août 2014 1 25 /08 /Août /2014 19:08

Les conditions sur le marché du travail aux Etats-Unis se sont fortement dégradées avant même que l’économie ne bascule dans la Grande Récession. Durant les années quatre-vingt-dix, l’emploi américain a connu une vigueur non vue depuis les années soixante-dix, si bien qu'Alan Krueger et Robert Solow (2002) ont pu parler de « roaring nineties ». Entre 1991 et 2000, le ratio emploi sur population grimpa de 1,5 point de pourcentage pour les hommes et de plus de 3 points de pourcentage pour les femmes. La seconde moitié de la décennie fut marquée par une croissance rapide des salaires dans un contexte de faible inflation. Le taux de chômage national a atteint 4 % en 2000, son plus faible niveau de 1969. Avec le nouveau millénaire, le marché du travail américain connaît un retournement.  En 2007, le taux d’emploi des hommes était revenu à son niveau de 1991, tandis que le taux d’emploi des femmes cessa d’augmenter à partir de 2001. Après s’être élevé à 2,6 % entre 1991 et 2000, le taux de croissance annuel moyen n’atteint que 0,9 % entre 2000 et 2007. Ces mauvaises performances s’expliquent principalement par les contractions majeures de l’emploi manufacturé : après être resté relativement  constant au cours des années quatre-vingt-dix, il a décliné de 18,7 % entre 2000 et 2007.

Cette détérioration est synchrone avec un accroissement de la concurrence chinoise à l’import, si bien que beaucoup considèrent la première comme une conséquence de la seconde. En effet, entre 1990 et 2011, la part des exportations manufacturières mondiales réalisées par la Chine est passée de 2 à 16 %. En l’occurrence, l’essor de la Chine sur les marchés internationaux a en l’occurrence été particulièrement stimulée par son adhésion à l’Organisation mondiale du commerce (OMC) en 2001. Parallèlement, la part de la Chine dans les importations manufacturières américaines est passée de 4,5 % à 10,9 % entre 1991 et 2001, avant d’atteindre 23,1 % en 2011. 

Poursuivant leurs travaux antérieurs, Daron Acemoglu, David Autor, David Dorn, Gordon Hanson et Brendan Price (2014) ont exploré l’impact de l’essor des entreprises chinoises sur l’emploi américain et ils constatent qu’elle a fortement contribué aux récentes réductions de l’emploi manufacturé aux Etats-Unis. En effet, leur analyse contrefactuelle suggère que si la Chine n’avait pas davantage progressé dans les importations américaines après 1999, 560.000 emplois manufacturiers auraient été sauvegardés au cours des 12 années suivantes. En d’autres termes, l’exposition directe à la concurrence chinoise expliquerait un dixième du déclin de l’emploi manufacturier aux Etats-Unis.

En outre, la concurrence chinoise a eu des répercussions plus indirectes sur l’emploi agrégé. Certains effets indirects passent par les relations intersectorielles et celles-ci peuvent se révéler aussi bien positifs que négatifs pour la demande de travail aux Etats-Unis. D’un côté, si une entreprise du secteur industriel ferme ses portes en raison de la concurrence chinoise, cette défaillance réduit, d’une part, la demande pour ses fournisseurs américains en amont et, d’autre part, l’offre pour les entreprises en aval ; en d’autres termes, les défaillances dans un secteur donné pénalisent les entreprises présentes dans les autres secteurs, tout le long des chaînes de valeur. D’un autre côté, l’accroissement des importations dans les secteurs en amont peut réduire le coût d’obtention d’intrants, ce qui réduit les répercussions du choc sectoriel sur l’ensemble de l’économie.  Lorsqu’Acemoglu et ses coauteurs prennent en compte les effets indirects de la concurrence chinoise sur l’emploi américaine, ils constatent que celle-ci est à l’origine de la destruction de 985.000 emplois dans le seul facteur manufacturier et de 1,98 millions dans l’économie dans son ensemble. Les liens intersectoriels ont ainsi amplifié les répercussions du choc commercial sur l’emploi.

Cette première analyse, menée au niveau des seuls secteurs, ne parvient toutefois pas à capter deux autres effets macroéconomiques. D’un côté, le commerce avec la Chine entraîne une réallocation de la main-d’œuvre et des autres facteurs de production des secteurs en déclin vers de nouvelles opportunités, si bien que l’impact négatif direct et les effets intersectoriels sont susceptibles d’être en partie compensés. D’autre part, la demande globale s’en trouve affectée via les effets multiplicateurs à la Keynes : l’investissement et la consommation peuvent être s’affaiblir, ce qui accroît les destructions d’emplois initiales. Afin de prendre en compte ces deux effets supplémentaires, Acemoglu et ses coauteurs poursuivent alors leur analyse au niveau des marchés du travail locaux. Au final, ils estiment que les pertes nettes d’emplois associées à l’essor de la Chine s’élèvent à 2 à 2,4 millions au cours de la période s’étalant de 1999 à 2011.

 

Références

ACEMOGLU, Daron, David AUTOR, David DORN, Gordon H. HANSON & Brendan PRICE (2014), « Import competition and the great U.S. employment sag of the 2000s », National Bureau of Economic Research, working paper, n° 20395, août. 

AUTOR, David H., David DORN & Gordon H. HANSON (2013a), « The China syndrome: Local labor market effects of import competition in the United States », in American Economic Review, vol. 103, n° 6.

AUTOR, David H., David DORN & Gordon H. HANSON (2013b), « Untangling trade and technology: Evidence from local labor markets », National Bureau of Economic Research, working paper, n° 18938, avril.

AUTOR, David H., David DORN, Gordon H. HANSON & Jae SONG (2014), « Trade adjustment: Worker level evidence », National Bureau of Economic Research, working paper, n° 19226, juillet.

KRUEGER, Alan B., & Robert M. SOLOW (2002), The Roaring Nineties: Can Full Employment Be Sustained?

PIERCE, Justin R., & Peter K. SCHOTT (2014), « The surprisingly swift decline of U.S. manufacturing employment », Réserve fédérale, finance and economics discussion paper, n° 2014-4.

Par Martin Anota
Laisser un commentaire - Voir les 0 commentaires
Samedi 23 août 2014 6 23 /08 /Août /2014 12:26

Du soulèvement des luddites contre les machines à tisser jusqu’à aujourd’hui, beaucoup ont craint que les machines remplacent les êtres humains pour réaliser les tâches de production. Chaque innovation accroît l’éventail de tâches que les machines sont capables de réaliser, rendant obsolètes tout un ensemble de compétences et les emplois qui leur étaient associés.

Lors de la conférence tenue cette année à Jackson Hole (portant précisément sur le thème le marché du travail), David Autor (2014) s’est à nouveau penché sur les bouleversements de l’emploi provoquées par le progrès technique. Il rappelle qu’au cours de l’histoire, les destructions d’emplois à court terme associées aux hausses de productivité furent finalement (plus que) compensées par d’amples créations d’emplois, non seulement dans les secteurs innovateurs, mais aussi et surtout dans les autres secteurs de l'économie. Pour Autor, il est plus facile de voir les emplois menacés par le progrès technique plutôt que les opportunités ouvertes par ce dernier : beaucoup ont surestimé le potentiel des nouvelles technologies à se substituer aux travailleurs et sous-estimé le potentiel des deux facteurs de production à se révéler complémentaires. Par exemple, au cours du vingtième siècle, la part de la main-d’œuvre employée dans le secteur agricole est passée de 41 à 2 %, notamment en raison des gains de productivité associés à la révolution agricole. Le ratio emploi sur population n'a cessé d'augmenter malgré la diffusion des innovations et l'entrée des femmes sur le marché du travail. Il était difficile pour les agriculteurs du début du vingtième-siècle d’imaginer que si peu de leurs descendants travailleraient dans le secteur agricole ; il leur était encore plus difficile d’imaginer qu’autant de personnes travailleraient aujourd’hui dans la finance, dans la santé, dans l’électronique, dans le divertissement, etc.

La révolution des technologies d’information et de communication ravive aujourd’hui les craintes pour l'emploi. Selon William Nordhaus (2007), le coût associé à la réalisation d’un ensemble de calculs a été divisé par 1700 milliards de fois depuis l’avènement de l’ère informatique. Cette baisse du coût apparaît aux entreprises comme une puissante incitation pour substituer le travail humain relativement cher par une puissance de calcul toujours moins chère. Beaucoup se demandent si le rythme rapide de l’automatisation ne menacerait pas de rendre inutiles les travailleurs d’ici quelques décennies et craignent une « fin du travail ». Pour Erik Brynjolfsson et Andrew McAfee (2014), les travailleurs seraient en passe de perdre la « course contre les machines » (race against the machine).

Les ordinateurs ont de plus en plus remplacé les travailleurs pour accomplir les « tâches routinières », c’est-à-dire explicites et codifiables. Ces tâches correspondaient à des activités manuelles et cognitives exigeant des compétences intermédiaires. Autor fait toutefois preuve ici d'optimisme en suggérant que la marge de substitution est limitée : les ingénieurs ne peuvent pas programmer un ordinateur pour réaliser un processus qu’ils ne comprennent pas explicitement. Il existe plusieurs tâches que nous comprenons tacitement et accomplissons facilement sans pour autant que nous ne connaissions des « règles » ou procédures explicites. C’est le cas lorsque nous cassons un œuf sur le bord d’un bol, écrivons un paragraphe convaincant ou développons une hypothèse pour expliquer un phénomène incompris pour reprendre les exemples d’Autor. Ce dernier se réfère ici au paradoxe de Polanyi : Michael Polanyi (1966) avait observé que « nous en savons plus que ce que nous pouvons dire ».

Les tâches de travail qui sont les plus susceptibles d’être automatisées sont celles qui suivent des procédures explicites et codifiables ; en l’occurrence, les ordinateurs se révèlent supérieurs aux travailleurs dans la réalisation de ces tâches, que ce soit en termes de rapidité, de qualité, de précision et de rentabilité. Par contre, les tâches qui se révèlent les plus difficiles à être automatisées sont celles exigeant de la flexibilité, une part de jugement et du sens commun, c’est-à-dire des compétences que nous ne comprenons que tacitement. Par conséquent, les ordinateurs peuvent facilement se substituer aux travailleurs pour ce qui concerne les tâches routinières et codifiables, alors que les travailleurs disposent d’un avantage comparatif dans la résolution de problèmes, l’adaptabilité et la créativité. Il en résulte que les entreprises n’auraient alors plus besoin que de travailleurs non qualifiées et de travailleurs très qualifiés pour produire.

Le risque associé à l'informatisation n'est pas celui d'une réduction du nombre d'emplois disponibles, mais plutôt d'une dégration d'une large part d'entre eux. Et effectivement, le marché du travail américain a connu une polarisation au cours des dernières décennies : les emplois peu qualifiés (donc peu rémunérés) et les emplois très qualifiés (donc très bien rémunérés) ont connu une croissance plus rapide que les emplois exigeant des compétences intermédiaires. Certains ont suggéré que la polarisation du marché du travail et en particulier la croissance d’emplois peu qualifiés intensifs en tâches manuelles pourrait dénoter que l’éducation et le progrès technique ne sont plus complémentaires. Pour Autor, le progrès technique qui a stimulé la demande de main-d’œuvre qualifiée pendant de nombreuses décennies va continuer à le faire au cours des prochaines.

Ces dynamiques ont de profondes répercussions sur la structure des salaires. Même si l’informatisation pourrait accroître la part des emplois dans le travail intensif en tâches manuelles, elle n’est pas susceptible d’accroître rapidement leurs rémunérations en raison de l’absence de fortes complémentarités et de l’abondance potentielle de l’offre la main-d’œuvre. En effet, les travailleurs aux compétences intermédiaires, qui se voient remplacer par des machines, risquent avant tout de grossir les rangs des demandeurs d’emplois peu qualifiés. Par contre, les travailleurs hautement qualifiés, toujours plus recherchés par les entreprises, sont les véritables gagnants des avancées technologiques : puisque leur travail est complémentaire à l’activité des machines, ils bénéficient de salaires élevés. Par conséquent, le progrès technique, fortement biaisé en faveur du travail qualifié, pourrait contribuer à expliquer la hausse des inégalités salariales aux Etats-Unis.

Autor suggère toutefois que la polarisation ne va pas se poursuivre indéfiniment. Même si plusieurs tâches exigeant des compétences intermédiaires sont susceptibles d’être automatisées, beaucoup d’emplois exigeant des compétences intermédiaires amènent le travailleur à réaliser un ensemble de tâches impliquant l’ensemble du spectre des compétences. Autor prend l’exemple des professions de soutien médical (notamment les techniciens en radiologie) qui constituent des emplois moyennement qualifiés et relativement bien rémunérés qui représente non seulement une part significative, mais aussi croissante de l’emploi. Selon Autor, ces emplois vont continuer à se développer car ils exigent des tâches qui ne peuvent pas être facilement automatisées, à moins d’accepter une perte de qualité.

Autor est sceptique à la thèse selon laquelle la dégradation du marché du travail au cours de la dernière décennie serait une conséquence néfaste de l’informatisation. Cette période coïncide en effet avec un ralentissement des investissements dans l’informatique, ce qui amène Autor à rejeter l’idée qu’elle corresponde à nouvelle ère de substitution du travail par le capital. En outre, au cours de la même décennie, l’économie mondiale a connu une forte croissance et les inégalités mondiales ont diminué. Il apparaît alors peut plausible que le progrès technique ait à la fois bénéficié à la majorité des pays tout en pénalisant le pays qui constitue le meneur technologique. Pour Autor, la détérioration du marché du travail américain que l’on a pu observer après 2000 et surtout après 2007 s’explique par d’autres événements macroéconomiques. Le premier d’entre eux est l’éclatement de bulles spéculatives, tout d’abord de la bulle boursière, puis de la bulle immobilière, qui réduisirent l’investissement et l’activité innovatrice. Le second événement est associé à la mondialisation et à l’essor des pays émergents : non seulement les entreprises chinoises ont directement concurrencé les entreprises américaines sur les marchés de biens manufacturés, mais plusieurs autres secteurs dépendaient étroitement de l’activité de ces dernières [Autor et alii, 2013].

 

Références

AUTOR, David H. (2014), « Polanyi’s paradox and the shape of employment growth », conférence tenue à Jackson Hole, 21-23 août.

AUTOR, David H., David DORN & Gordon H. HANSON (2013), « The China syndrome: Local labor market effects of import competition in the United States », in American Economic Review, vol. 103, n° 6.

BRYNJOLFSSON, Erik, & Andrew MCAFEE (2014), Race Against the Machine.

NORDHAUS, William D. (2007), « Two centuries of productivity growth in computing », in Journal of Economic History, vol. 67, n° 1.

POLANYI, Michael (1966), The Tacit Dimension.

Par Martin Anota - Publié dans : Travail, emploi, chômage
Laisser un commentaire - Voir les 0 commentaires
Mercredi 20 août 2014 3 20 /08 /Août /2014 11:56

Au cours des deux derniers siècles, beaucoup ont affirmé que les pays devaient s’industrialiser pour que leur croissance décolle et que leur niveau de vie converge vers celui des pays avancés. C’est notamment le cas de William Baumol, Nicholas Kaldor, Arthur Lewis, Ragnar Nurkse, Dani Rodrik pour citer les plus connus. Récemment, c’est précisément en s’industrialisant que les tigres asiatiques ont su rejoindre le club des pays avancés. Réciproquement, beaucoup ont considéré les services comme peu utiles, dotés d’une faible valeur et don par conséquent peu rémunérateurs pour leurs prestataires. William Baumol (1967) estimait que les services sont réfractaires aux gains de productivités, car ils nécessitent des relations de face à face, qui sont par nature peu enclins à la standardisation et aux échanges commerciaux, or selon lui ce sont précisément ces derniers qui constituent selon le moteur de croissance de la productivité.

Comme le montrent Prakash Loungani et Saurabh Mishra (2014), le secteur tertiaire a connu de profonds bouleversements au cours des dernières décennies, en particulier au cours de la dernière. Désormais beaucoup de services sont à forte intensité technologique et leurs prestataires sont fortement rémunérés. Certains suggèrent que les services contribuent bien plus à la croissance économique et à l’emploi que l’industrie aussi bien dans les pays à faible revenu que les pays à haut revenu. En effet, le secteur tertiaire contribue déjà à 60 % de l’emploi mondial.

Grâce au développement des technologies de l’information et de la communication, la réalisation d’un service nécessite de moins en moins une relation de face-à-face, ce qui brouille davantage la distinction entre biens et services : tous comme les biens, un service n’est pas nécessairement consommé là où il est produit. Le nombre d’activités pouvant être numérisées et exportées ne cesse de s’élargir, une évolution qui se reflète par l’accroissement de la part des services dans les exportations mondiales : en l’occurrence, au cours de la dernière décennie, les exportations de services « modernes » se sont développées plus rapidement que celles des produits manufacturés. Autrefois le secteur des services dépendait étroitement de la demande domestique, mais désormais il pourrait davantage dépendre de la demande mondiale, ce qui réduit les problèmes de débouchés que pourrait rencontrer le secteur tertiaire d’un pays donné lorsque le niveau de vie domestique est faible.

Le progrès technique et l’essor des échanges ont contribué à améliorer la productivité des services. A l’instar de la production des biens, la production d’un service peut être décomposée en plusieurs tâches et celles-ci ne sont pas nécessairement réalisées sur le même lieu physique. En l’occurrence, une entreprise peut faire réaliser chaque tâche par l’entreprise la plus à même pour la réaliser. La spécialisation et les économies d’échelle entraînent alors une hausse de la productivité des services. En outre, le développement du secteur manufacturier semble dépendre de plus en plus étroitement de l’offre de services, comme le démontre le processus même d’externalisation. Lorsqu’une entreprise décompose la production d’un bien en de multiples tâches, plusieurs d’entre elles peuvent relever des services : par exemple, la conception d’un produit nécessite de la recherche-développement et sa diffusion nécessite une activité de distribution.

Ces évolutions changent les trajectoires de croissance qui s’offrent aux pays en développement. La littérature économique suggère que les activités à forte valeur ajoutée tendent à se concentrer dans les pays développés, tandis que les activités à faible valeur ajoutée tendent à se concentrer dans les pays en développement. En d’autres termes, plus un pays se développe, plus la valeur ajoutée de ses activités s’accroît, plus il délaisse La réalité est un peu plus complexe : les entreprises des pays avancés font faire de plus en plus leurs activités les plus standardisées dans les pays en développement et certaines de ces activités sont à haute valeur ajoutée. Loungani et Mishra citent notamment comme exemples « la prolifération des bureaux spécialisés dans les conseils aux entreprises et le traitement des connaissances ainsi que l’explosion du commerce électronique et de la vente en ligne dans les pays émergents du Moyen-Orient, au Brésil, en Chine, en Inde et à Singapour ». Par conséquent, la part des pays en développement dans les exportations mondiales de services est passée de 14 % à 25 % entre 1990 et 2011. Les pays en développement exportent de plus en plus de services qui l’étaient jusqu’à présent par les seuls pays développés.

Parallèlement les mêmes dynamiques qui ont profité au secteur tertiaire ont également bouleversé le secteur manufacturier. Le progrès technique a rendu l’activité manufacturière plus intensive en capital et en compétences, si bien qu’il crée moins d’emplois qu’auparavant. Plusieurs pays en développement, notamment les pays africains, connaissent une « désindustrialisation prématurée » (pre-mature deindustrialization). Dani Rodrik s’est en l’occurrence inquiété à multiples reprises du fait que la part de l’activité manufacturière dans la production diminue dans les pays en développement bien plus tôt qu’elle l’a fait dans les pays développés.  Cela peut s’expliquer par le fait que les consommateurs des pays développés dépensent désormais avantage dans l’achat de services que dans l’achat de biens. Cela réduit la marge de croissance des pays cherchant à s’industrialiser, mais il n’y a pas de limites dans les services. 

Ejaz Ghani et Stephen O’Connell (2014) ont cherché à déterminer le rôle des différents secteurs d’activité dans la convergence entre les économies afin de déterminer quel chemin les pays en développement d’Afrique, les « lions africains », peuvent emprunter pour que l’amorce de croissance qu’ils connaissent actuellement puisse se pérenniser et leur permettre de rejoindre également le club des pays développés. Leurs constats empiriques suggèrent que la convergence mondiale a continué de façon plus intense. Le rythme de croissance des pays africains tout comme celui des émergents asiatiques est plus rapide que celui des pays développés. Le modèle de croissance des lions africains n’est toutefois pas le même que celui des tigres asiatiques : les seconds ont bénéficié d’un développement rapide du secteur manufacturé, alors que les premiers bénéficient de d’autres secteurs.

Les deux auteurs s’appuient sur plusieurs faits empiriques. Tout d’abord, les pays à faible revenu qui ont récemment amorcé leur décollage en Afrique et qui débutèrent avec un faible niveau de productivité du travail dans le secteur tertiaire ont connu la plus rapide croissance de la productivité du travail dans ce secteur. Les pays qui débutèrent avec un faible niveau de productivité du travail dans le secteur manufacturier ont connu la plus rapide croissance de cette productivité du travail. Ce résultat est cohérent avec les précédentes études qui suggéraient que le secteur manufacturé présentait une tendance à la convergence mondiale. Toutefois les pays en développement africains connaissent un plus lent développement de leur secteur manufacturier que les tigres asiatiques. En outre, les deux auteurs constatent que la convergence mondiale de croissance dans les services est plus forte que dans le secteur manufacturier. Ghani et O’Connell en concluent que l’escalator de croissance dans le secteur des services qui s’offre aux pays africains est au moins aussi puissant que celui du secteur manufacturier, voire même plus puissant. 

 

Références

BAUMOL, William (1967), « Macroeconomics of unbalanced growth: The anatomy of urban crisis », in The American Economic Review, vol. 57, n° 3.

GHANI, Ejaz, & Stephen D. O’CONNELL (2014), « Can service be a growth escalator in low income countries? », Banque mondiale, policy research working paper, n° 6971.

LOUNGANI, Prakash, & Saurabh MISHRA (2014), « Not your father’s service sector », in Finance and Development, juin. Traduction française, « Où est passé le secteur des services de papa ? », in Finances et Développement, juin.

Par Martin Anota - Publié dans : Economie du développement
Laisser un commentaire - Voir les 0 commentaires
Dimanche 17 août 2014 7 17 /08 /Août /2014 23:59

crédit : Amr Abdallah Dalsh/Reuters

Les études en économie internationale se sont particulièrement penchées sur les évolutions des réserves internationales et leur composition en devises. Elles suggèrent que la demande de réserves internationales s’accroît fortement avec la taille du pays émetteur, que les effets persistants sont fortes et que la crédibilité des politiques est également importantes. La généralité de ces constats demeure une question ouverte dans la mesure où ces études ont souvent été réalisées en se basant sur les données relatives à la période comprise entre l’éclatement du système de Bretton Woods au début des années soixante-dix et le lancement de l’euro à la fin des années quatre-vingt-dix.

Barry Eichengreen, Livia Chiţu et Arnaud Mehl (2014) se sont demandés si le rôle des devises nationales comme réserves internationales a été fondamentalement altéré par le passage de la fixité des taux de change à leur flexibilité (ce que les auteurs appellent l’« hypothèse du bouleversement », upheaval hypothesis), une idée qui a trouvé plusieupartisans suite à l’effondrement du système de Bretton Woods. Les données qui étaient disponibles pour les précédentes études qui ont étudié l’instabilité de la demande en réserves étaient insuffisantes pour tester cette hypothèse. Par exemple, le FMI rassemble des données sur la composition en devises des réserves internationales, mais il ne le fait que depuis le début des années soixante-dix. Eichengreen et ses coauteurs étendent les données standards sur la composition en devises des réserves étrangères aussi bien en amont qu’en aval pour tester s’il y a effectivement eu un changement des déterminants des parts de devises de réserves avec l’effondrement de Bretton Woods. En particulier, ils recueillent des données pour la période s’écoulant entre la fin des années quarante et le début des années soixante-dix, c’est-à-dire précisément à celle correspondant à la fixité des sens. Au total, les auteurs parviennent à constituer des données pour une période correspondant aux deux-tiers du siècle, en l’occurrence entre 1947 et 2013.

GRAPHIQUE 1  Composition en devises des réserves de change (en %)

Eichengreen--composition-en-devises-des-reserves--copie-1.png

source : Eichengreen et alii (2014)

La livre britannique représentait au lendemain de la Seconde Guerre mondiale plus de 80 % des réserves de change (cf. graphique 1). Le dollar américain remplaça rapidement la livre comme réserve de devise internationale dominante. Il représentait la moitié des réserves de devises au début des années cinquante. L’essor du dollar et le déclin de la livre sterling se poursuivirent au cours des décennies suivantes. Les quelques fluctuations autour de ces tendances s’expliquent peut-être en partie par les variations des taux de change : par exemple, la baisse de la part du dollar dans les réserves de change après 1976 s’explique peut-être par la dépréciation du dollar vis-à-vis des autres devises ; l’accélération de la chute de la livre sterling à la fin des années soixante et au début des années soixante-dix s’explique quant à elle notamment par sa dépréciation ; sa chute en 1976 s’explique en partie par les crises de balance des paiements et de devise que le Royaume-Uni a connues cette année-là. Par conséquent, il est intéressant d’étudier les fluctuations des parts des devises dans les réserves de change en considérant les taux de change comme constants (cf. graphique 2). A partir du début des années soixante-dix, le deutschemark, puis l’euro ont joué un rôle croissant comme réserve de devise, du moins jusqu’à la crise de la dette souveraine en 2010. Enfin, le yen a représenté une part croissante dans les réserves de change, puis une part décroissante à partir de la fin des années quatre-vingt, c’est-à-dire dire précisément à partir du moment où les bulles spéculatives ont éclaté et où le Japon a basculé dans la stagnation.

GRAPHIQUE 2  Composition en devises des réserves de change à taux de change constants (en %)

Eichengreen--composition-en-devises-des-reserves-de-change.png

source : Eichengreen et alii (2014)

Comprendre le renversement de fortunes au commencement du graphique nécessite de comprendre pourquoi le sterling est devenu si dominant après la seconde Guerre mondiale. Le sterling et le dollar représentaient chacun 40 % des réserves de change dans les années vingt et au début  des années trente. Ensuite, les départs de la Grande-Bretagne et des Etats-Unis de l’étalon-or (respectivement en 1931 et 1933) poussèrent les banques centrales étrangères à liquider leurs détentions de sterling et en dollar. Les réserves en sterling et dollar furent relativement limitées à la fin des années trente. La dominance du sterling en 1947 s’explique donc par la volonté des alliés du Royaume-Uni au cours de la guerre d’accepter des créances libellées en sterling sur le gouvernement britannique en paiement pour le matériel et les produits alimentaires fournis à l’économie britannique. La plupart des livres sterling détenues en 1947 furent accumulées en raison des circonstances exceptionnelles attachées à la guerre. Ensuite, plusieurs des détenteurs de sterlings voulurent les substituer par d’autres actifs de réserve. Le dollar est alors apparu comme l’alternative la plus évidente. 

L’analyse d’Eichengreen et alii tend à confirmer  l’upheaval hypothesis. Après l’éclatement de Bretton Woods, les effets de l’inertie et de la crédibilité des autorités politiques sur le choix en devises des réserves internationales sont devenus plus puissants, tandis que ceux associés aux effets de réseaux se sont affaiblis. L’accroissement de l’inertie après Bretton Woods reflète le fait que cette période n’a pas vu un changement de devise dominante qui soit comparable à celui qui survint entre 1947 et 1973 avec le remplacement de la livre sterling par dollar. Avant 1973, de profonds doutes entourant l’usage futur de la livre sterling comme réserve de change ont poussé les gestionnaires de réserves à remettre en question leurs habitudes et à changer de devise, en l’occurrence à privilégier le dollar. Après 1973, les Etats-Unis ont réussi à ne pas susciter autant de doutes. La dilution des effets de réseaux s’explique notamment par le développement de nouveaux instruments, marchés et technologies d’information. Bref il devient de plus en plus facile et de moins en moins coûteux pour les banques centrales tout comme les autres agents économiques d’effectuer des transactions dans une devise autre que celle dominante. Le fait que les effets d’inertie soient devenus plus forts pourrait suggérer que le dollar restera durablement la devise dominante, chose que tend à confirmer la résilience de sa part dans les réserves de change après la crise financière mondiale. Par contre, la dilution des effets de réseaux joue en défaveur du dollar. Certes la formation d’habitudes ou l’absence d’alternatives viables participent également à la persistance, mais puisque les effets de réseaux sont moins importants, rien ne certifie que le dollar ne perdra pas le statut de devise dominante.

Eichengreen et ses coauteurs se penchent également sur les politiques que les gouvernements et banques centrales ont mises en œuvre après la Seconde Guerre mondiale en vue d’encourager ou ben de décourager l’utilisation internationale de leurs devises. Historiquement, il apparaît qu’il fut plus facile de décourager l’usage d’une devise comme réserve de change plutôt que de l’encourager. Par le passé, les autorités publiques ont pu encourager l’utilisation internationale de leur devise essentiellement et surmonter les effets d’inertie en promouvant la stabilité macroéconomique et en ouvrant le compte de capital. Ces instruments peuvent également être utilisés pour décourager l’usage international d’une devise, mais les autorités publiques disposent pour cela d’instruments supplémentaires comme les déclarations officielles et les mesures relatives au régime de taux de change. Ces instruments supplémentaires présentent des effets plus larges et persistants. Ces constats ne sont pas sans implications pour les politiques (notamment les contrôles de capitaux) que la Chine a mises en œuvre par le passé pour décourager l’utilisation internationale du renminbi et pour les politiques qu’elle met désormais à l’œuvre pour l’encourager. Pour que l’usage du renminbi s’internationaliste, la Chine doit procéder à la libéralisation du compte de capital, mais celle-ci n’apparaît pas suffisante. Même l’adoption de mesures additionnelles ne garantit pas l’internationalisation du renminbi.

 

Référence

CHIŢU, Livia, Barry EICHENGREEN et Arnaud MEHL (2014), « Stability or upheaval? The currency composition of international reserves in the long run », Banque centrale européenne, working paper, 13 août.

Par Martin Anota - Publié dans : Relations financières internationales
Laisser un commentaire - Voir les 0 commentaires
Jeudi 14 août 2014 4 14 /08 /Août /2014 23:55

La période qui précéda la Grande Récession fut caractérisée par une explosion des déficits et excédents des comptes courants. En l’occurrence, la périphérie de la zone euro, les Etats-Unis, le Royaume-Uni et l’Europe centrale et orientale connaissaient une aggravation de leur déficits courants, tandis que l’Asie émergente (en particulier la Chine), les exportateurs de pétrole et plusieurs pays avancés en zone euro et en Europe du Nord engrangeaient des excédents courants. Si l’on pouvait considérer la demande comme excessive dans les premiers, elle était par contre excessivement faible dans les seconds. Les déséquilibres courants ont été facilités par un environnement financier mondial caractérisé par une faible aversion face au risque des prêteurs et emprunteurs. Durant cette période, les mouvements de capitaux ont atteint une ampleur inédite.

GRAPHIQUE  Déséquilibres globaux (en % du PIB mondial)

Lane--Milesi-Ferretti--desequilibres-mondiaux-comptes-cou.png

source : Lane et Milesi-Ferretti (2014)

Les déséquilibres courants ont atteint leur pic en 2007-2008, puis se sont fortement contractés à partir de 2009 avec la Grande Récession (cf. graphique). Si la détérioration des comptes courants n’a pas conduit à la crise financière mondiale, cette dernière a tout e même entraîné un fort rééquilibrage des comptes courants. C’est sur ce dernier que Phillip Lane et Gian Maria Milesi-Ferretti (2014) se sont penchés. Ils constatent qu’entre 2007 et 2013, la baisse du déficit courant correspond à l’équivalent de 0,7 % du PIB mondial pour les Etats-Unis et de 0,3 % pour les pays déficitaires d’Europe. Ces derniers ont vu leur déficit courant se réduire de 80 %. Par contre, sur la même période, les déficits courants ont augmenté dans le reste du monde (en particulier en Australie, au Brésil, au Canada, en France, en Inde et au Mexique) et cette hausse correspond à l’équivalent de 0,3 % du PIB mondial. La contraction des excédents courants au sein des pays asiatiques représente l’équivalent de 0,8 % de PIB mondial, tandis qu’elle fut d’une moindre ampleur parmi les exportateurs de pétrole.

Certes les déséquilibres de comptes courants se sont réduits depuis la Grande Récession, mais Lane et Milesi-Ferretti nuancent ce constat : les déséquilibres en termes de stocks ont continué à s’accentuer. A la fin de l’année 2012, quatre groupes créditeurs (les pays européens en excédent, l’Asie émergente, le Japon, les exportateurs de pétrole) détenaient un stock assez comparable d’actifs étrangers nets, avec trois groupes de pays débiteurs (les pays européens en déficit, les Etats-Unis et le reste du monde) représentant un niveau absolu similaire de engagements extérieurs nets. 

Les prévisions suggèrent que la contraction des déséquilibres globaux se poursuivra au cours des prochaines années. L’une des questions que se pose alors Lane et Milesi-Ferretti est si cet ajustement sera ou non temporaire. L’ajustement résultait initialement de facteurs conjoncturels, notamment une forte chute de la demande domestique dans les pays déficitaires comme les Etats-Unis, la périphérie de la zone euro et plusieurs autres pays européens, ainsi qu’une baisse des prix des matières premières qui s’expliquait elle-même par la chute de la demande mondiale. Les auteurs observent la taille des écarts de production (output gaps) aussi bien dans les pays déficitaires que dans les pays excédentaires. Dans les deux cas, l’écart de production est négatif, mais il est plus important dans les pays déficitaires que dans les pays excédentaires, ce qui suggère à nouveau pour les auteurs que la réduction des excédents courants est essentiellement conjoncturelle. Au fur et à mesure que se poursuivra la reprise, la demande sera susceptible d’augmenter plus rapidement dans les pays déficitaires que dans les pays excédentaires.

Lane et Milesi-Ferretti se demandent enfin si l’ajustement des comptes courants observé depuis la crise mondiale correspond à une correction des déséquilibres et leur analyse suggère que c’est effectivement le cas. Les écarts de compte courants d’avant-crise et les positions externes nettes d’avant-crise contribuent à expliquer une part importante des différences dans la croissance de la demande que l’on a pu voir entre les pays. Les auteurs se sont demandé si les politiques monétaires menées durant la crise sont corrélées avec les déséquilibres initiaux. C’est le cas pour les pays ayant un taux de change flexible, parmi lesquels les pays déficitaires ont pu réduire leurs taux d’intérêt. Ce n’est pas le cas des pays ayant un ancrage de leur taux de change, notamment les pays-membres de la zone euro. Au sein de cette dernière, le taux directeur est le même pour l’ensemble des pays, c’est-à-dire aussi bien pour les pays déficitaires que pour les excédentaires. Les variations des taux de change réels révélés stabilisateurs, mais seulement pour les pays dont la monnaie n’est pas ancrée à une autre. Notamment pour ces diverses raisons, la réduction des déséquilibres courants a pu se révéler particulièrement douloureuse pour les pays déficitaires, en particulier ceux qui ne disposent pas d’une politique monétaire autonome. Au lieu de reposer sur une modification des dépenses, l’ajustement est passé par une réduction des dépenses, entraînait une contraction de l’activité. Les auteurs plaident donc pour un ajustement plus symétrique : les pays déficitaires doivent tempérer la baisse des dépenses, tandis que les pays excédentaires devraient accélérer la croissance de leur demande. 

 

Référence

LANE, Phillip R., & Gian Maria MILESI-FERRETTI (2014), « Global imbalances and external adjustment after the crisis », FMI, working paper, août.

Par Martin Anota - Publié dans : Relations financières internationales
Laisser un commentaire - Voir les 0 commentaires
Mardi 12 août 2014 2 12 /08 /Août /2014 02:19

De plus en plus d’études cherchent à déterminer l’impact macroéconomique des dégradations environnementales et surtout du changement climatique. Par exemple, Melissa Dell, Benjamin Jones et Benjamin Olken (2012) se sont penchés sur l’impact des hausses de température sur la croissance économique. Par contre, les répercussions à long terme des événements extrêmes, notamment des cyclones, ont été relativement délaissées. Pourtant 35 % de la population mondiale est dès à présente exposée aux cylones proprement dits, aux ouragans, aux typhons et aux tempêtes tropicales ; si l’Europe en est épargnée, ce n’est pas le cas des zones côtières de l’Amérique du Nord, de l’est asiatique ou de l’Océanie. En outre, ces évènements extrêmes se révèlent particulièrement coûteux. Or, avec le réchauffement climatique, les cyclones sont susceptibles de gagner en intensité et de devenir plus fréquents.

Hsiang--Jina--catastrophe-climatique--cyclone--PIB-par-tet.png

Les économistes ne sont pas parvenus à se concilier sur les répercussions exactes des catastrophes environnementales sur la production à long terme. Les différents résultats qu’ils sont susceptibles d’obtenir peuvent être regroupés en quatre grandes hypothèses concurrentes :

1. Selon l’hypothèse de la destruction créatrice (creative destruction hypothesis), les désastres peuvent stimuler temporairement les économiques pour grossir plus rapidement, ne serait-ce parce que le remplacement du capital détruit stimule la demande en biens et services, parce que l’aide internationale afflue vers les zones sinistrées ou encore parce que les dégradations environnementales stimulent l’innovation.

2. Selon l’hypothèse d’une meilleure reconstruction (build back better hypothesis), la croissance ralentit initialement avec les pertes humaines et les destructions du capital productif, mais le remplacement progressif du capital détruit par le capital neuf peut stimuler la croissance à long terme, car une partie des actifs détruits était obsolète ou usée.

3. Selon l’hypothèse de retour à la tendance (recovery to trend), la croissance est temporairement freinée, mais elle atteint ensuite un rythme élevé qui permet aux niveaux de revenu de converger vers leur tendance de long terme. Avec les destructions et les pertes humaines, les facteurs travail et capital deviennent rares, si bien que le produit marginal du capital s’élève, incitant les individus et les capitaux à affluer vers les lieux dévastés jusqu’à ce que la production retrouve la tendance qu’elle suivait avant le désastre. 

4. Selon l’hypothèse d’absence de reprise (no recovery hypothesis), les désastres entraînent un ralentissement de la croissance économique soit en détruisant le capital productif, soit en détruisant des biens de consommation durables (en particulier des logements) qui sont remplacés en utilisant des fonds qui auraient pu être utilisés pour financer des investissements productifs. Il peut ne pas y avoir de reprise car aucun mécanisme ne compense complètement les répercussions immédiates sur la production. Ces dernières s’accompagnent également d’une chute de la consommation. La production peut certes continuer à croître à long terme après le désastre, mais elle reste inférieure aux niveaux qu’elle aurait atteintes en l’absence de désastre.

Solomon Hsiang et Amir Jina (2014) sont peut-être les premiers à estimer l’impact des désastres environnementaux de grande échelle sur la croissance de long terme. Ils ont utilisé les données météorologiques pour déterminer l’exposition de chaque pays aux cyclones entre 1950 et 2008. Ils ont ensuite observé l’impact des différents cyclones observés au cours de cette période sur la trajectoire de croissance de chaque pays. Leur analyse les amène à rejeter les hypothèses selon lesquelles ces désastres stimuleraient la croissance ou que les pertes disparaitraient à court terme avec les migrations ou les transferts de richesse. En effet, après avoir essuyé un cyclone, un pays voit son revenu, non par retourner à la trajectoire tendancielle qu’il suivait auparavant, mais plutôt suivre une nouvelle trajectoire qui lui est parallèle et inférieure. Chaque mètre par seconde additionnel dans l’exposition aux vents moyenne d’un pays réduit sa production par tête de 0,37 % vingt ans après. En d’autres termes, deux décennies après le passage d’un ouragan, le PIB est inférieur de 3,6 % à ce qu’il aurait été s’il n’y avait pas eu de désastre environnemental. Il n’y a pas de rebond de la croissance au cours des vingt années qui suivent un cyclone, donc les revenus restent à jamais inférieurs aux niveaux qu’ils auraient sinon atteints. En l’occurrence, selon Hsiang et Jina, les pertes de revenu associées aux plus violents cyclones apparaissent même plus importantes que celles associées à une crise bancaire. En effet, le type de cyclones particulièrement violent que l’on observe qu’une fois tous les dix ans réduit les revenus par tête de 7,4 % vingt ans après.

En outre, les répercussions économiques des cyclones sont plus importantes pour les pays qui les subissent peu fréquemment et plus faibles pour les pays qui les subissent régulièrement. Selon Hsiang et Jina, ce résultat pourrait suggérer que les populations exposées s’adaptent à leur climat en entreprenant des investissements qui protègent partiellement leurs économies des cyclones. Toutefois les pays qui sont exposés de façon répétée aux cyclones souffrent d’une perte de revenu qui s’amplifie avec chaque tempête. Donc un climat propice aux cyclones diminue substantiellement le taux de croissance à long terme. Dans les régions particulièrement exposées, les auteurs constatent que les pertes générées par les cyclones pourraient expliquer environ un quart des différences de taux de croissance de long terme observées d’un pays à l’autre. En agrégeant leurs résultats pour l’ensemble des pays, Hsiang et Jina estiment que les cyclones qui sont survenus entre 1950 et 2008 eurent pour conséquence de ralentir le taux de croissance annuel du PIB mondiale d’environ 1,27 point de pourcentage durant la période s’écoulant entre 1970 et 2008. Bref les cyclones joueraient un rôle déterminant dans les performances macroéconomiques.

Hsiang et Jina relient ensuite leurs résultats aux prévisions de l’activité cyclonique future. Ils estiment que le coût actualisé du changement climatique est supérieur de 9700 milliards de dollars (soit l’équivalent de 13,8 % du PIB mondial courant) au montant précédemment avancé par la littérature. Par exemple, la valeur actualisée des pertes en croissance de long terme associées aux cyclones s’élèvent à 855 milliards de dollars pour les Etats-Unis (soit 5,9 % du PIB américain), à 299 milliards de dollars pour les Philippines (soit 83,3 % de son PIB courant), à 1000 milliards de dollars pour la Corée du Sud (73 % de son PIB courant), 1400 milliards de dollars pour la Chine (soit 12,6 % de son PIB courant) et 4500 milliards de dollars pour le Japon (soit 101,5 % de son PIB courant).

 

Références

DELL, Melissa, Benjamin F. JONES & Benjamin A. OLKEN (2012), « Temperature shocks and economic growth: Evidence from the last half century », in American Economic Journal: Macroeconomics, vol. 4, n° 3.

HSIANG, Solomon M., & Amir S. JINA (2014), « The causal effect of environmental catastrophe on long-run economic growth: Evidence from 6,700 cyclones », National Bureau of Economic Research, working paper, n° 20352, juillet.

Par Martin Anota - Publié dans : Environnement et ressources naturelles
Laisser un commentaire - Voir les 0 commentaires
Vendredi 8 août 2014 5 08 /08 /Août /2014 13:13

Il est bien connu que la distribution du patrimoine est fortement asymétrique, en l’occurrence fortement concentrée sur les ménages les plus aisés. Par exemple, aux Etats-Unis, il est régulièrement avancé que les 5 % des ménages les plus aisés possèderaient 60 % du patrimoine national, tandis que le 1 % des ménages les plus aisés possèderaient 30 % du patrimoine. Jusqu’à récemment, moins d’études ont cherché à estimer la répartition du patrimoine au sein des pays européens. Pourtant la répartition du patrimoine tient une place centrale dans le débat public : les autorités publiques peuvent chercher à réduire les inégalités de richesse dans un souci de justice sociale. En outre, les études se sont récemment multipliées pour montrer que les inégalités sont susceptibles de freiner la croissance économique.

Une manière de mesurer le patrimoine des ménages est d’interroger directement ces derniers sur les actifs qu’ils possèdent et les dettes qu’ils ont contractées via des enquêtes. La Survey of Consumer Finances (SCF) menée par la Fed est utilisée pour rendre compte de la répartition du patrimoine aux Etats-Unis. De leur côté, la BCE, l’Eurosystème et plusieurs institutions de comptabilité nationale européennes mènent l’enquête sur le patrimoine et la consommation des ménages (Household Finance and Consumption Survey, HFCS) pour évaluer la répartition du patrimoine en zone euro. Ces sondages souffrent toutefois de non-réponses et de non réponses différentielles : les ménages peuvent ne pas participer à l’enquête en raison de leur absence, de leur  manque de temps, du refus de révéler des informations sensibles, etc. Il semble que les ménages les plus aisés tendent à présenter les taux de non réponse plus élevés. Or, si les ménages qui ne répondent pas à l’enquête ont systématiquement un patrimoine plus important que les autres, la part de la richesse nationale détenue par les plus aisés pourrait être particulièrement sous-estimée. 

Pour déterminer plus précisément la part du patrimoine national que détiennent les 1 % et les 5 % des ménages les plus aisés, Philip Vermeulen (2014) a combiné les données issues de la HFCS et de la SCF avec les données sur les milliardaires du magazine Forbes. Puisque plusieurs études ont suggéré que la répartition du patrimoine parmi les plus aisés correspondait assez bien à une distribution de Pareto, l’auteur cherche à déterminer cette dernière. Il fournit alors de nouvelles estimations du patrimoine détenu par les plus aisés.

On pensait précédemment que la part du revenu nationale détenue par les 1 % des ménages les plus aisés s’élevait à 24 % en Allemagne, à 23 % en Autriche, à 12 % en Belgique, 34 % aux Etats-Unis, à 18 % en France, à 14 % en Italie, à 9 % aux Pays-Bas. En fait, selon l’auteur, ces chiffres sous-estiment plus ou moins fortement les inégalités : les 1 % des ménages les plus aisés possèderaient 33 % du patrimoine national en Allemagne, 17 % en Belgique, entre 35 et 37 % aux Etats-Unis, entre 19 et 20 % en France, 21 % en Italie et entre 12 et 17 % aux Pays-Bas.

 

Référence

VERMEULEN, Philip (2014), « How fat is the top tail of the wealth distribution? », Banque Centrale Européenne, working paper, 14 juillet.

Par Martin Anota - Publié dans : Répartition et inégalités de revenus
Laisser un commentaire - Voir les 0 commentaires

Présentation

Rechercher

Créer un blog gratuit sur over-blog.com - Contact - C.G.U. - Signaler un abus - Articles les plus commentés