Overblog Suivre ce blog
Administration Créer mon blog
18 décembre 2012 2 18 /12 /décembre /2012 21:41

Les travaux les plus optimistes en économie de l’environnement confèrent au changement technologique une place déterminante dans la lutte contre le réchauffement climatique, or les récentes modélisations incorporant un progrès technique endogène suggèrent que le marché ne va pas générer suffisamment d’innovations pour réduire l’ampleur du changement climatique. Les dépenses en recherche-développement sont en l’occurrence bien trop concentrées dans la création de technologies « sales ». Plusieurs modèles ont affirmé que la trajectoire du progrès technique est soumise à un phénomène de dépendance au sentier (path dependency). En effet, dans les économies qui ont fortement innové par le passé dans les technologies sales, les entreprises trouveront plus profitable d’innover à l’avenir dans ces dernières. Ce phénomène de dépendance au sentier va entrer en interaction avec les externalités environnementales : les entreprises ne prennent pas en compte le fait que la dégradation de l’environnement va se traduire par une diminution de la productivité agrégée et de l’utilité des consommateurs. Une économie soumise au seul laissez-faire va donc excessivement produire des technologies sales en délaissant l’innovation en technologies propres. Une intervention des autorités publiques est alors nécessaire pour réorienter le changement technologique sur une trajectoire compatible avec la protection de l’environnement. Par exemple, l’Etat peut favoriser l’adoption d’énergies renouvelables et inciter les agents à délaisser les énergies fossiles.

Le secteur automobile va être déterminant dans la transition écologique. Le transport routier représente en effet 16,5 % des émissions mondiales de CO2, ce qui a récemment amené Philippe Aghion, Antoine Dechezleprêtre, David Hemous, Ralf Martin et John Van Reenen (2012) à se pencher sur le processus d’innovation dans le secteur automobile. Ils ont utilisé les données de 3423 entreprises et individus dans 80 pays entre 1965 et 2005. Aghion et ses coauteurs se sont focalisés sur les innovations propres (en l’occurrence les voitures électriques, à hydrogène et hybrides) plutôt que sur les innovations dans l’efficience énergétique du carburant, car il est difficile de pleinement distinguer celles-ci des innovations sales. De plus, les progrès dans l’efficience énergétique d’une voiture à combustion interne vont se trouver limités par des limites technologiques. Enfin, les progrès réalisés dans l’efficience énergétique du carburant peuvent être annulés par la multiplication des véhicules en circulation, phénomène que l’on qualifie d’effet rebond (et que les théoriciens de la décroissance ont particulièrement mis en avant pour dénier au progrès technique ses vertus curatives).

L’étude fait tout d’abord apparaître qu’une hausse des prix du carburant stimulent l’innovation dans les technologies propres et pousse au contraire les agents à délaisser l’innovation sale. Les différences observées d’un pays à l’autre (ou au cours du temps) dans la fiscalité des carburants expliquent en grande partie les différences de prix. Ces derniers n’auront pas le même impact d’un constructeur automobile à l’autre selon leurs parts respectives de marché.

L'analyse confirme également la présence d’une dépendance au sentier dans le changement technologique : les entreprises que furent les plus exposées par le passée à l’innovation propre sont les plus susceptibles de consacrer leurs futurs efforts de recherche à l’innovation propre. Réciproquement, les entreprises qui ont auparavant généré une multitude d’innovations sales sont plus susceptibles de se focaliser à l’avenir sur l’innovation sale. En utilisant les modèles économétriques, les auteurs mettent en évidence la présence d’une dépendance au sentier tant au niveau de chaque entreprise qu’au niveau agrégé.

L’existence d’une telle dépendance au sentier aussi bien pour l’innovation sale que propre souligne la nécessité d’agir au plus tôt pour modifier les incitations à innover. Puisque le stock d’innovations sales est plus élevé que le stock d’innovations sales (l’échantillon d’Aghion et alii incorpore notamment 6500 brevets en technologies propres contre 18500 brevets en technologies sales), l’effet de sentier de dépendance va conduire les économies à fortement émettre du carbone, même si une légère taxe carbone est introduire ou si les autorités publiques subventionnent la recherche-développement verte. Aghion et alii plaident alors à une forte action aujourd’hui, quitte à relâcher les efforts à l’avenir, une fois que l’économie sera placée sur une trajectoire d’innovation propre. Les hausses dans les prix du carbone peuvent contribuer à réorienter les efforts d’innovation vers le développement de technologies plus propres. Par exemple, les auteurs estiment que si les prix du carburant se maintenaient à plus de 140 % de leur valeur en 2005, le stock d’innovations propres pourrait dépasser le stock d’innovations sales en moins d’une quinzaine d’années. L'instauration d'une véritable taxe carbone permettrait ainsi d'accélérer le redéploiement de la recherche-développement vers l'objectif d'une croissance verte.

 

Référence Martin ANOTA

AGHION, Philippe, Antoine DECHEZLEPRÊTRE, David HEMOUS, Ralf MARTIN, & John VAN REENEN (2012), « Carbon taxes, path dependency and directed technical change: Evidence from the auto industry », NBER working paper, n° 18596, décembre.

Repost 0
16 décembre 2012 7 16 /12 /décembre /2012 14:41

Bien que la crise de 2007 ait commencé dans un nombre restreint de pays développés, la récession qui s’ensuivit se diffusa rapidement à l’ensemble de l’économie mondiale en empruntant les canaux de la finance et du commerce. Aucun découplage miraculeux n’a immunisé le reste du monde contre les turbulences touchant l'économie américaine, ni même le monde émergent du ralentissement économique dans les pays avancés. Le choc qui se produisit dans le système bancaire américain perturba de nombreux secteurs financiers autour du monde. L'instabilité financière s’est peu à peu transmise à l’économie réelle en entrainant une profonde contraction de l’activité économique, du commerce international et des flux internationaux des capitaux. Si l’économie mondiale semble avoir amorcé une reprise en 2009, tirée en particulier par les émergents, la croissance demeure toutefois particulièrement lente et faiblement créatrice d’emplois.

L’impact de la Grande Récession sur l’activité économique a cependant fortement varié d’un pays à l’autre. Cela peut s’expliquer par des expositions et vulnérabilités différentes aux chocs et par l’hétérogénéité des cadres macroéconomiques et institutionnels, notamment des politiques économiques mises en place en réponse à la crise. L’espace lui-même a contribué à façonner la diffusion de la crise. On peut donc s’attendre à une hétérogénéité des réactions des entreprises aussi bien d’un pays à l’autre qu’à l’intérieur de chaque économie.

Leandro Medina (2012) a étudié la performance des entreprises pendant et après la crise mondiale en examinant 6581 entreprises manufacturières dans 48 pays développés et émergents pour tenter d’identifier les facteurs qui ont contribué à les rendre vulnérables à la crise ou bien à renforcer leur résistance aux chocs. L’économiste du FMI évalue l’impact d'une multitude de variables observées avant la crise mondiale sur la performance des entreprises en 2010, notamment leur taille, leur niveau d’endettement, leur actif immobilisé et leur niveau de dette de court terme, ainsi que les caractéristiques propres à leur secteur et à leur pays. Medina juge en outre intéressant de comparer la performance des entreprises des pays émergents avec celles réalisées par les firmes dans les pays avancés. En effet, la crise éclata dans les économies avancées. De plus, la reprise mondiale a été bien plus rapide dans les économies émergentes, en particulier en Asie et en Amérique latine, et le secteur bancaire de plusieurs économies émergentes s’est montré particulièrement résistant.

Sur le plan théorique, une hausse du levier est susceptible d’accroître le risque opérationnel pour l’entreprise et de se traduire ainsi par un renchérissement du coût du financement externe. Celui-ci va entraîner à son tour une réduction de l’investissement, des flux de liquidité et de la production, ce qui peut déclencher un ralentissement de l’activité. Ben Bernanke, Mark Gertler et Simon Gilchrist (1996) avaient notamment suggéré, au travers leur concept d’accélérateur financier, qu’un levier d’endettement élevé démultiplie les répercussions d’un ralentissement en amplifiant le choc initial lors de sa propagation. D’un autre côté, le levier ne va accroître la probabilité de faillite que s’il n’est pas compensé par des anticipations optimistes de croissance ou par de plus favorables conditions d’endettement. Dans une économie donnée, la vulnérabilité des entreprises aux chocs économiques et par là la sévérité d’une récession dépendraient en définitive du levier d’endettement des entreprises, des conditions macroéconomiques et politiques, ainsi que des perspectives futures de croissance. Par conséquent, il apparaît donc utile pour Medina d’évaluer l’éventuelle présence d’effets de seuil concernant le levier d’endettement pour déterminer si ses répercussions sur la performance des entreprises diffèrent selon qu’il s’établit à un niveau bas ou élevé.

L’analyse empirique met tout d’abord en évidence l'impact négatif du levier d’endettement dont firent usage les entreprises en 2007 sur leurs performances en 2010. Une hausse de 10 points de pourcentage du levier se traduit par une diminution des ventes trois ans plus tard représentant en moyenne 0,7 point de pourcentage. L’effet négatif du levier est non linéaire, puisqu’il se révèle particulièrement puissant dans les entreprises qui faisaient l’usage d’un important levier avant l’éclatement de la crise. En outre, le levier d’endettement a des répercussions particulièrement lourdes sur la performance des entreprises présentes dans les pays émergents.

Ensuite, l’analyse de Medina révèle que le ratio d’immobilisation d'avant-crise, qui rapporte le montant des actifs immobiliers sur le total des actifs, exerce un effet positif sur la croissance des entreprises en 2010. Une hausse de 10 points de pourcentage du ratio d’immobilisation de l’entreprise se traduit en moyenne par une accélération de la croissance des ventes de 0,8 point de pourcentage. Les études antérieures mettaient déjà en avant une plus grande sensibilité aux récessions des secteurs qui dépendent le moins des actifs immobilisés. L’analyse de Medina révèle en outre que l’immobilisation des actifs exerce surtout un effet positif sur la performance des entreprises des pays émergents.

De plus, le ratio d’endettement à court terme, rapportant ce dernier sur la dette totale, exerce un effet négatif sur la performance des entreprises en 2010. Une hausse de 10 points de pourcentage du ratio se traduit en moyenne par un ralentissement de 0,3 point de pourcentage de la croissance des ventes. En théorie, les entreprises des pays émergents ont un moindre accès aux marchés financiers et dépendent par conséquent plus fortement du financement de court terme. Pourtant, l’analyse empirique révèle que la dette de court terme s'avère bien plus dommageable pour les entreprises dans les pays avancés que dans les émergents.

L’auteur se penche ensuite sur l’impact de la taille des entreprises sur leur résilience face à la crise. Les données ne font apparaît aucun effet statistiquement significatif sur la performance des entreprises dans les économies émergentes ; en revanche, il y a un effet particulièrement négatif de ce facteur sur la performance des entreprises dans les pays avancés. La littérature théorique suggère l’existence de deux effets contraires. D’un côté, les plus grandes entreprises devraient avoir un meilleur accès au crédit, donc la taille devrait influencer positivement sur la performance. D’un autre côté, la productivité est susceptible de diminuer au fur et à mesure que la taille de l’entreprise s’élargit. L’auteur conclut que le second effet tend à l’emporter sur le premier dans les pays avancés.

Le cadre macroéconomique importe aussi fortement pour la croissance de l’entreprise. Medina met en l’occurrence l’accent sur l’importance des variations du taux du change. En théorie, les répercussions de ces dernières sur les entreprises dépendront de la structure en devises de leur endettement. D’un côté, si les entreprises sont endettées en devise étrangère alors que leurs actifs sont libellés en monnaie domestique, une dépréciation du taux de change gonfle la valeur de leur endettement et réduit leur valeur nette, ce qui accroît les coûts de financement auxquelles elles font face et peut entraîner une contraction de leurs niveaux d’investissement et de production. D’un autre côté, une dépréciation peut améliorer la compétitivité des entreprises qui produisent les biens dans l’économie domestique et les vendent à l’étranger. Le second effet semble l’avoir remporté sur le premier lors de la crise mondiale, puisque l’analyse empirique montre que, dans les pays ayant connu une dépréciation de leur taux de change, les entreprises ont connu une plus rapide reprise dans les secteurs qui dépendent particulièrement du commerce extérieur.

 

Références Martin ANOTA

BERNANKE, Ben, Mark GERTLER & Simon GILCHRIST (1996), « The financial accelerator and the flight to quality », in The Review of Economics and Statistics, vol. 78, n° 1, février.

MEDINA, Leandro (2012), « Spring forward or fall back? The post-crisis recovery of firms », FMI, working paper, n° 292, décembre.

Repost 0
publié par Martin Anota
commenter cet article
14 décembre 2012 5 14 /12 /décembre /2012 18:36

Deux interprétations sont en concurrence pour expliquer la Grande Récession. D’un côté, une conception rend les déséquilibres globaux directement responsables de la crise mondiale. Lors de la dernière décennie, certains pays comme les Etats-Unis avaient en effet accumulé de larges déficits de compte courant et d’autres, comme les émergents asiatiques, ont accumulé de massifs excédents courants. Les premiers ont constitué la nécessaire contrepartie des seconds : l’endettement des ménages américains n’aurait pas été possible si les économies émergentes n’avaient pas dégagé et exporté un excès d’épargne (saving glut). Si les déséquilibres globaux alimentaient puissamment la croissance mondiale en soutenant la demande américaine et en stimulant la croissance chinoise, les massifs transferts de capitaux qu’ils engendraient au niveau mondial suscitaient régulièrement des inquiétudes parmi les économistes et les responsables politiques tout au long de la décennie. Selon les commentaires les plus catastrophiques, les déséquilibres de comptes courants étaient susceptibles de se dénouer en provoquant de profonds bouleversements de l’économie mondiale, au premier rang desquels se trouvaient l’effondrement du dollar et la faillite des Etats-Unis.

Dans les multiples commentaires réalisés sur le sujet, les autorités publiques ont été d’une manière ou d’une autre tenues pour responsables de ces déséquilibres globaux, que ce soit en accumulant de larges réserves de devises dans le cas des pays émergents ou bien en creusant de larges déficits publics dans le cas des Etats-Unis. Pourtant, la crise mondiale ne trouve absolument pas son origine dans une crise budgétaire, chose que beaucoup tendent à oublier aujourd’hui. Les larges flux transfrontaliers qui avaient été observés tout au long de la décennie en Europe sont avant tout de nature privée, le secteur bancaire ayant directement contribué à transférer massivement l’épargne des pays du Nord vers la périphérie sud pour y financer bulles immobilières et booms de la consommation. L’unification monétaire avait quant à elle particulièrement contribué à accélérer ces transferts et dissimuler les risques qui les entouraient. Les problèmes de soutenabilité de l’endettement public ne sont apparus qu’après coup et sont le résultat direct du puissant ralentissement de l’activité économique et des multiples plans de sauvetages bancaires mis en œuvre pour maintenir la stabilité du secteur financier. D’où le développement d’une seconde interprétation de la crise mondiale, plus minskyenne, qui attribue directement celle-ci aux systèmes financiers en affirmant que les booms du crédit ont alimenté une suraccumulation de risques macrofinanciers.

Lorsque l’on adopte un point de vue de plus long terme, l’histoire révèle une assez large corrélation entre l’ampleur des déséquilibres extérieurs et la fréquence des crises financières. La mobilité internationale des capitaux a suivi au cours du temps une évolution en forme de U. Jusqu’en 1913, sous le régime de l’étalon-or, il n’y avait potentiellement pas de barrières aux transferts internationaux des capitaux. Par contre, dans l’entre-deux-guerres, en particulier lors des années trente, les pays adoptèrent une forme d’autarcie en limitant les flux transfrontaliers. Les années quatre-vingt ont marqué le début d’une nouvelle période de libéralisation des mouvements des capitaux.

Les crises financières ont parallèlement suivi le même profil d’évolution. Les économies avancées étaient régulièrement confrontées à l’instabilité financière à la fin du dix-neuvième siècle. Les crises attinrent une intensité exceptionnelle avec la Grande Dépression. En revanche, l’économie mondiale a connu une période durable de stabilité financière après la Seconde Guerre mondiale. Si les pays en développement purent alors essuyer quelques crises, les pays avancés furent de leur côté totalement épargnées par celles-ci. Depuis le début des années quatre-vingt en revanche, les économies en développement subissent régulièrement des épisodes d’instabilité financières. Les pays avancés ont également connu quelques crises financières ces dernières décennies, la plus violente étant incontestablement celle qui fit basculer l’économie mondiale dans la Grande Récession en 2008.

S’il est indéniable que l’analyse historique fait émerger une corrélation entre l’intégration financière internationale avec l’instabilité financière, la seconde n’est toutefois pas nécessairement une conséquence de la première. En outre, le maintien de la stabilité financière dans l’après-guerre tient peut-être à la plus grande régulation de l’activité bancaire qui existait à l’époque. Durant les années trente, les dirigeants politiques avaient en effet répondu aux paniques bancaires et détresses financières en renforçant puissamment la réglementation et la supervision du secteur financier. Ces modifications du cadre institutionnel avaient alors fortement contraint l’usage du levier d’endettement, donc les prises de risque de la part des agents financiers. Indépendamment de déplacement vers une plus grande autarcie, les modifications du paysage financier domestique ont peut-être suffi pour instaurer un régime macrofinancier moins risqué.

Il faut donc davantage pousser l’analyse pour déterminer, entre les deux ensembles de politiques qui furent mises en place au milieu du vingtième siècle, lequel joua un rôle de premier plan dans la stabilisation durable de l’environnement macrofinancier. Alan M. Taylor (2012) procède à une telle analyse, avec pour objectif celui de confronter les deux interprétations concurrentes de l’actuelle crise mondiale au regard de l’histoire macrofinancière.

Rejoignant les précédentes conclusions d’auteurs tels que Claudio Borio, l’étude historique de Taylor suggère que le boom du crédit a constitué, depuis la naissance de la finance moderne, l’indicateur avancé le plus pertinent pour les crises financières. Au cours de l’histoire, les booms et effondrements du crédit ont été aussi bien générés par l’épargne domestique que par l’épargne domestique. C’est bien lorsque les flux financiers, qu’ils soient d’origine domestique ou étrangère, s’accumulent en engendrant de larges expositions de crédit dans le système financier domestique que les risques d’une crise financière s’avèrent particulièrement élevés et que les coûts du désendettement consécutif s’accroissent fortement. Les déséquilibres globaux apparaissent quant à eux comme moins corrélés avec les épisodes de détresse financière que ces derniers ne le sont avec les indicateurs de crédit. Par conséquent, la moindre prégnance des déséquilibres globaux depuis l’éclatement de la crise mondiale et l’effondrement subséquent du commerce international ne peut nullement laisser présager une plus grande stabilité macrofinancière. En revanche, la persistance d’un niveau élevé d’endettement dans le secteur privé suggère que l’économie mondiale demeure particulièrement vulnérable à une nouvelle phase d’instabilité financière.

Ainsi, les conditions de crédit importent bien davantage que les déséquilibres extérieurs pour le cycle financier et même les cycles d’affaires plus typiques. Certes, une variable externe comme les comptes courants demeurent un indicateur pertinent pour analyser les facteurs de crise externe, que ce soit l’accès au marché des capitaux, des primes de risque élevées, un défaut souverain ou un recours aux programmes du FMI. Mais une variable interne comme le crédit se révèle plus utile pour analyser les sources de crise interne, que ce soit une détresse des agents financiers domestiques, des paniques bancaires ou encore les faillites des établissements financiers.

 

Référence Martin ANOTA

Alan M. Taylor (2012), « External imbalances and financial crises », NBER working paper, n° 18606, décembre.

Repost 0
publié par Martin Anota - dans Instabilité financière
commenter cet article
11 décembre 2012 2 11 /12 /décembre /2012 20:02
Repost 0
publié par Martin Anota
commenter cet article
8 décembre 2012 6 08 /12 /décembre /2012 19:02

Plusieurs études suggèrent que les performances économiques d’un territoire et en particulier d’une ville dépendent du niveau d’entrepreneuriat en son sein. Comme le note par exemple AnnLee Saxenian (1994) dans sa comparaison entre les performances de la région de Boston et celles de la Silicon Valley, les entrepreneurs jouent un rôle essentiel dans l’adaptation des territoires à l’évolution économique. Les villes ayant un plus haut niveau d’entrepreneuriat connaissent une plus rapide croissance de l’emploi que celles disposant de peu d’entrepreneurs, mais aucune explicitation ne s'est révélée pleinement satisfaisante pour éclairer une telle corrélation.

Benjamin Chinitz (1961) s’est penché sur la pénurie d’entrepreneurs qui caractérisait Pittsburgh dans les années cinquante et qui contrastait fortement avec le climat créatif qui régnait à la même époque à New York. Il avait émis l'idée que les mines de charbon proches de Pittsburgh avaient poussé les entreprises locales à se spécialiser dans des activités de transformation des métaux qui présentaient de larges économies d’échelle. L'activité de ces grosses entreprises se serait alors traduite par une pénurie en capital humain sur plusieurs générations. Dans son explication, Chinitz met d’une part l’accent sur l'importance de la transmission intergénérationnelle des qualifications et attitudes en affirmant que les salariés des grosses entreprises ont insuffisamment inculqué les talents entrepreneuriaux à leurs enfants. Il estime d’autre part que le développement des activités extractives s’est traduit par un accès plus restreints pour les nouvelles entreprises aux intrants. Chinitz offre ainsi une prime formulation de la théorie de la malédiction des ressources naturelles (natural resource curse) ; celle-ci s’opérait dans l’exemple de Pittsburgh via des activités intensives en ressources naturelles qui auraient évincé l’activité entrepreneuriale à la source de la croissance de long terme.

Edward L. Glaeser, Sari Pekkala Kerr et William R. Kerr (2012) testent l’intuition de Chinitz en comparant les villes aux Etats-Unis qui étaient proches des dépôts miniers en 1900 avec celles qui en étaient éloignées. Ils étudient les liens qui existent entre les dépôts miniers et l’entrepreneuriat moderne. De nombreuses industries extractives présentent des rendements d’échelle. L’extraction, la transformation et le transport des minerais sont des opérations intensives en capital qui ne sont véritablement rentables que lorsqu’elles sont opérées à une large échelle. Selon Glaeser et alii, les villes disposant d’une abondance en minéraux et charbon se seraient par conséquent dotées de structures industrielles qui se caractérisent par des établissements de grande taille et par une atrophie de l’activité entrepreneuriale. Leur analyse montre que, même plusieurs décennies après, les villes qui avoisinèrent les mines au tournant du siècle hébergent de nombreuses activités qui encouragent le développement des emplois de cadres, mais évincent aussi en parallèle les entrepreneurs. La proximité d’une ville avec les dépôts minéraux et de charbon en 1900 s’avère positivement corrélée avec la taille moyenne des établissements manufacturiers en 1963 et dans les années qui suivent. La composition industrielle d’une ville et la taille et types des entreprises qui y sont implantées influenceraient ainsi de manière durable l’activité entrepreneuriale.

L’étude montre que la croissance de l’emploi dans les nouvelles entreprises est plus faible dans les villes proches des mines que dans les villes qui en sont éloignées. Cette relation est observable sur plusieurs générations et apparaît même dans des secteurs qui ne sont pas directement reliés à l’activité minière : le fait qu’une ville soit proche des mines en 1900 se traduit aujourd’hui par une plus grande taille des établissements, par une moindre création d’entreprises et par une moindre croissance urbaine aussi bien pour le commerce, que pour la finance ou encore pour les autres activités de services. Les auteurs cherchent ensuite à déterminer si leurs résultats sont attribuables à un déclin général des villes construites autour des mines, telles que Pittsburgh, qui serait survenu dans les années soixante. Il apparaît que le phénomène s’opère aussi bien dans les villes au climat plus chaud, présentant une forte croissance de l’emploi, que dans les plus vieilles villes du nord, celles de la Rust Belt : la proximité des villes aux mines historiques atténue toujours leur croissance de l’emploi. En définitive, l’activité minière influencerait l’entrepreneuriat moderne bien plus fortement que ne le fait l’évolution même des régions américaines.

 

Références Martin ANOTA

BELSIE, Laurent (2012), « Entrepreneurship and urban growth », NBER, novembre.

CHINITZ, Benjamin (1961), « Contrasts in Agglomeration: New York and Pittsburgh », in American Economic Review Papers and Proceedings, vol. 51, n° 2.

GLAESER, Edward L., Sari Pekkala KERR & William R. KERR (2012), « Entrepreneurship and urban growth: An empirical assessment with historical mines », NBER working paper, n° , août.

SAXENIAN, Anna Lee (1994), Regional Advantage: Culture and Competition in Silicon Valley and Route 128, Harvard University Press.

Repost 0
publié par Martin Anota - dans Economie géographique
commenter cet article
5 décembre 2012 3 05 /12 /décembre /2012 19:15

Dans les pays où les ressources naturelles ne sont pas abondantes, les phases de décollage économique sont très souvent associées, à une forte hausse de l’investissement. Ce dernier n’est toutefois pas une condition suffisante pour une croissance rapide. Si l’investissement a par exemple joué un rôle déterminant dans le décollage des économies asiatiques, celles-ci ont notamment profité de fortes exportations. De plus, un investissement élevé n’est pas sans s’accompagner de coûts économiques particulièrement élevés. Malgré leur taux élevé d’épargne, les économies asiatiques se sont fortement reposées sur le financement étranger pour maintenir un rythme élevé d’accumulation du capital. Si elles purent ainsi expérimenter une période de forte croissance, cette dernière laissa toutefois place à une crise bancaire ou une crise de change dans nombre d’entre elles en 1997. L’investissement excessif, notamment dans les secteurs immobiliers et manufacturiers, avait été alimenté par un coût de financement anormalement faible.

Les performances économiques réalisées par la Chine ces trois dernières décennies tiennent en grande partie à l’ampleur de ses dépenses d’investissement. La formation brute du capital fixe s’élevait en moyenne à 39 % du PIB au cours de la dernière décennie ; l’investissement représente aujourd’hui la moitié du PIB. Dans leur récente contribution pour le FMI, Il Houng Lee, Murtaza Syed et Liu Xueyan (2012) ont cherché à déceler la présence d’un surinvestissement en Chine, en comparant ses performances avec celle des autres économies. Le ratio capital sur production de la Chine se situe parmi ceux des autres pays émergents. En revanche, la Chine se démarque de ces derniers par l’ampleur de sa croissance économique. L’analyse montre que la contribution marginale d’une unité supplémentaire d’investissement à la croissance chinoise a chuté au cours du temps, si bien que des hausses toujours plus importantes d’investissement sont nécessaires pour générer un montant égal de croissance.

L’analyse suggère que la Chine connaît effectivement un surinvestissement. L’écart entre le rythme d’investissement et ses fondamentaux représente désormais environ 10 %du PIB. Cette divergence est plus large et plus persistante que celle observée dans les pays asiatiques avant la crise de 1997. L’impulsion budgétaire opérée par les autorités chinoises en 2009 afin de contrer les répercussions de la crise mondiale est à l’origine de la plus récente divergence. Sous certaines hypothèses, l’excès d’investissement atteint même jusqu’à 20 % du PIB.

L’existence de larges capacités de production inutilisées menace directement la stabilité macroéconomique de la région. Le financement de l’investissement comporte en lui-même de nombreux risques. L’éclatement d’une crise externe est toutefois peu probable, puisque l’investissement chinois fait peu appel au financement extérieur. Se basant sur l’expérience des autres émergents, les auteurs estiment la probabilité d’une crise de change est d’une chance sur cinq. Lee et alii suggèrent que la crise trouverait son origine ailleurs.

L’économie domestique est le théâtre d’un transfert implicite et invisible des ressources par le secteur financier vers certains secteurs. Le fardeau financier du surinvestissement représente près de 4 % du PIB par an et est en définitive supporté par les ménages. Les petites et moyennes entreprises paient de leur côté un prix élevé de capital, car les plus grandes entreprises bénéficient d’un financement prioritaire. Si une crise survenait, elle serait très certainement amorcée par l’un des liens faibles composant ce système implicite de subvention. Un soudain ralentissement du rythme d’accumulation n’aurait toutefois pas seulement des répercussions sur l’économie domestique, mais également sur les pays étrangers tant la croissance mondiale dépend aujourd’hui fortement de l’investissement chinois.

Conscientes des risques sous-jacents à un éventuel surinvestissement, les autorités chinoises cherchent à réorienter le modèle de croissance sur la consommation domestique. L’étude du FMI pourrait toutefois suggérer que la soutenabilité de la croissance exige de plus faibles taux de croissance.

 

Références Martin ANOTA

DING, Sai, Alessandra GUARIGLIA & John KNIGHT (2012), « Does China overinvest? Evidence from a panel of chinese firms », Université de Nottingham, Research paper, n° 4.

LEE, Il Houng, Murtaza SYED & Liu XUEYAN (2012), « Is China over-investing and does it matter?  », FMI, working paper, n° 277, novembre.

Repost 0
3 décembre 2012 1 03 /12 /décembre /2012 20:24

Immédiatement suite au choc financier de 2007, les Etats-Unis et l’Europe ont tous deux observé les performances macroéconomiques des diverses régions qui les composent diverger les unes des autres. Le choc initial sur les marchés immobiliers et la réaction immédiate des économies à celui-ci furent relativement similaires des deux côtés de l’Atlantique. A partir de 2009, toutefois, les différents Etats fédérés des Etats-Unis sont entrés dans un mouvement de convergence, tandis que les performances économiques des Etats européens continuèrent de diverger les unes des autres. Charles A.E. Goodhart et D. James Lee (2012) estiment ainsi que les mécanismes d’ajustement aux chocs doivent donc être améliorés en Union européenne. Afin de déterminer quelles refontes institutionnelles doivent être opérées en Europe pour renforcer sa résilience aux chocs, les deux économistes observent comment les mécanismes d’ajustement ont effectivement agi lors de la crise dans trois Etats, en l’occurrence en Arizona, en Espagne et en Lettonie. Arizona et Espagne sont tous les deux membres d’une union monétaire ;  la Lettonie n’appartient pas à la zone euro, mais sa devise est toutefois ancrée à l’euro. Sur le continent européen, si l’Espagne peine toujours aujourd’hui à achever un ajustement satisfaisant, la Lettonie a de son côté ajusté son économie via une dévaluation interne, mais au prix de coûts macroéconomiques particulièrement élevés.

Si l’économie américaine s’ajuste plus facilement aux chocs macroéconomiques, ce n’est pas en raison d’une plus grande flexibilité des salaires. Les salaires américains sont légèrement moins flexibles que les salaires espagnols et beaucoup moins flexibles que les salaires lettons. En revanche, les travailleurs sont plus mobiles aux Etats-Unis : si les emplois sont massivement détruits dans un Etat américain, les travailleurs et leurs familles vont se déplacer vers les régions où les opportunités d’emplois restent nombreuses. L’Europe souffre d’une plus grande inertie de la main-d’œuvre : si les opportunités d’emplois se réduisent dans une région, les taux d’activité vont baisser après une période temporaire de chômage élevé. Toutefois, les auteurs concluent de leur analyse que la mobilité du travail n’est pas le facteur permettant à un ajustement plus flexible des Etats-Unis aux chocs par rapport à l’Europe.

Goodhart et Lee se tournent ensuite vers les mécanismes budgétaires. Selon une conception assez répandue, une union monétaire ne peut durablement subsister sans qu’existe en parallèle une union budgétaire. Cette dernière pourrait se concrétiser par l’instauration de mécanismes automatiques de transferts budgétaires contracyliques du niveau fédéral vers les Etats en difficulté afin d’amortir les fluctuations conjoncturelles : par exemple, un ralentissement de l’activité se traduirait automatiquement par une hausse des allocations chômage et de moindres prélèvements obligatoires, ce qui devrait ralentir la contraction de l'activité. Les auteurs ont donc observé comment de tels transferts budgétaires ont effectivement agi comme amortisseurs contracyliques. Leur analyse fait apparaître que les flux budgétaires automatiques du centre fédéral vers l’Arizona ne sont pas aussi importants qu’attendu. En revanche, l’Arizona et la Lettonie furent particulièrement soutenus lorsque les répercussions de la crise se révélèrent profondes pour leur économie. Les auteurs en concluent que la volonté politique d’aider les Etats voisins en difficulté importe bien davantage que l’existence de mécanismes de transferts automatiques.

Goodhart et Lee se penchent enfin sur l’impact des différences entre les secteurs bancaires deux côtés de l’Atlantique sur la résilience des économies aux chocs. L’un des facteurs aggravateurs de la crise européenne fut l’interaction entre le risque souverain et le risque bancaire. De tels cercles vicieux furent moins visibles aux Etats-Unis, d’une part, parce que la dette des Etats fédérés occupe une moindre place dans l’encours total de la dette publique et, d’autre part, parce que les principales banques américaines sont aujourd’hui des entités évoluant au niveau fédéral. Il existe toutefois des interactions entre l’activité économique d’un Etat fédéré et l’activité des banques locales. Lorsque les prêts bancaires locaux sont concentrés sur l’immobilier, un effondrement du marché immobilier local va sévèrement endommager la santé du système bancaire local. Les banques sont alors moins désireuses et capables d’accorder de nouveaux prêts, ce qui entretient un cercle vicieux. L’analyse réalisée par Goodhart et Lee suggère que, si le système bancaire local est principalement focalisé sur la dette publique et l’économie locales, les chocs macroéconomiques s’en trouvent amplifiés, en particulier lorsque l’Etat est le membre d’une union monétaire et ne dispose ni d’une devise, ni d’une politique monétaire qui lui soient propres. Selon eux, il serait en définitive bien plus urgent d’instaurer une union bancaire en Europe avant de procéder à une union budgétaire.

 

Référence Martin ANOTA

GOODHART, Charles A.E., & James LEE (2012), « Adjustment mechanisms in a currency area », London School of Economics, working paper, 26 octobre.

Repost 0
publié par Martin Anota - dans Intégration européenne
commenter cet article
30 novembre 2012 5 30 /11 /novembre /2012 16:25

La poursuite de la récession et l’aggravation du chômage en zone euro ne conduisent aucunement ses dirigeants politiques à redéfinir leurs stratégies de sortie de crise. Les gouvernements se sont engagés à continuer leurs efforts de rigueur l’année prochaine pour ramener le niveau d’endettement public sur une trajectoire soutenable, ne faisant tout entier reposer une éventuelle dynamisation de l’activité économique que sur la mise en place de réformes structurelles. Dans un tel contexte, il est difficile de voir ce qui pourrait enrayer la dégradation de la situation sur les marchés du travail et empêcher le chômage de toucher 27 millions de résidents européens fin 2013 [Blot et alii, 2012].

Dans les circonstances actuelles, une quelconque manœuvre de consolidation budgétaire ne peut qu’échouer en zone euro. Comme l’ont notamment montré Emi Nakamura et Jón Steinsson (2012) dans leur analyse des impulsions budgétaires aux Etats-Unis, appartenir à une union monétaire amplifie substantiellement la taille des multiplicateurs budgétaires en période de crise. Par conséquent, si les relances budgétaires sont alors susceptibles d’être particulièrement efficaces, les plans d’austérité vont au contraire se révéler particulièrement dommageables à l’activité. Lorsque le chômage est élevé, davantage de ménages et d’entreprises sont contraints en termes de liquidité. De nombreux consommateurs vont ainsi dépenser la totalité de leurs revenus ; de tels comportements « non ricardiens » donnent à la politique budgétaire une extrême efficacité. En outre, les répercussions d’une consolidation budgétaire sur le PIB sont particulièrement exacerbées lorsque les taux directeurs avoisinent, voire atteignent leur bordure inférieure zéro (zero lower bound). Les autorités monétaires voient leur marge de manœuvre se réduire, si bien que la sortie de l’économie hors de la trappe à liquidité ne va dépendre en définitive que de la seule politique budgétaire.

Avec l'ouverture des économies, les politiques adoptées dans un pays sont susceptibles d'influer sur les performances économiques des autres pays. Alan J. Auerbach et Yuriy Gorodnichenko (2012) mettent en évidence que la politique budgétaire mise en oeuvre dans un pays donné a des effets significatifs sur la production des autres pays. L'ampleur de ces effets de débordement dépend de la conjoncture et ceux-ci sont particulièrement larges au cours des récessions, ce qui dénote l'importance de la coordination des politiques économiques lors des ralentissements de l'activité. Dans le cas d’une union monétaire en particulier, l’impact des plans d’austérité est amplifié en raison de l’interdépendance des pays-membres et plus particulièrement des liens commerciaux qui existent entre eux. Lorsque tous les pays consolident simultanément leurs finances publiques, la production de chaque pays est non seulement réduite par la consolidation budgétaire mise en œuvre dans l’économie domestique, mais elle sera également affectée par les consolidations budgétaires réalisées dans les autres pays-membres.

La multiplication des plans d’austérité dans une zone monétaire conduit inévitablement ceux-ci à échouer. La contraction de l’activité générée par l’austérité se traduit mécaniquement par une baisse des rentrées fiscales, voire également par une hausse des dépenses publiques en raison des stabilisateurs automatiques. Non seulement les ratios dette publique sur PIB risquent de ne pas diminuer, mais ils sont au contraire susceptibles de s’élever et de compliquer la stabilisation de l’endettement public. Plusieurs études du FMI reconnaissent que les consolidations budgétaires ne stimulent jamais l’activité économique; toutes les accélérations de l’activité domestique qui ont été observées suite à l’adoption d’un plan d’austérité s’expliquent par un boom de la demande extérieure, en général impulsée par une dépréciation réelle du taux de change. Or, les Etats-membres de la zone euro, notamment les pays les plus sévèrement touchés en périphérie, ne peuvent individuellement procéder à une telle dépréciation pour compenser le choc négatif généré par les plans d’austérité sur leur économie domestique.

La nature même des mesures de rigueur va conditionner l’ampleur de leurs répercussions sur l’activité. Nicoletta Batini, Giovanni Callegari et Giovanni Melina (2012) confirment les effets dépressifs des consolidations et constatent que les réductions de dépenses publiques sont bien plus dommageables à l’activité que les hausses d’impôts. Christopher J. Erceg et Jesper Lindé (2012) ont de leur côté développé un modèle DSGE de deux économies pour observer comment l’appartenance à une union monétaire façonne précisément les effets d’une consolidation selon qu’elle prenne la forme d’une hausse d’impôts ou bien d’une réduction des dépenses publiques. Une consolidation entraîne une contraction de l’activité dans la totalité des environnements monétaires qu’ils étudient. Toutefois, à court et moyen termes, une contraction des dépenses publiques déprimera davantage la production que si la consolidation budgétaire avait pris la forme d’une hausse d’impôts. Par contre, le modèle suggère que les réductions des dépenses sont moins dommageables à l’activité à long terme, ce qui amène Erceg et Lindé à finalement préconiser une combinaison de réductions de dépenses et de hausses d’impôts si l’Etat-membre d’une union monétaire était contraint à consolider ses comptes publics. Les deux auteurs reconnaissent toutefois sous-estimer les répercussions que les réductions de dépenses publiques peuvent avoir sur la croissance potentielle. Les dépenses d’infrastructure sont en effet susceptibles de stimuler la productivité du capital privé, tandis que les dépenses en éducation améliorent la productivité de long terme de la main-d’œuvre en stimulant l’accumulation de capital humain, deux canaux que leur modélisation ne prend pas en compte.

Dawn Holland et Jonathan Portes (2012) ont observé quelles ont été les répercussions des divers plans d’austérité adoptés en zone euro. Les politiques économiques poursuivies ces dernières années par les pays européens se révèlent au final particulièrement nocives pour l’activité. En outre, le resserrement budgétaire a entraîné une hausse du ratio dette publique sur PIB dans chaque pays-membre, excepté en Irlande. La consolidation coordonnée des politiques budgétaires s’est traduite par une hausse du ratio d’approximativement 5 points de pourcentage pour la zone euro dans son ensemble. Les plans d’austérité ont généralement été mis œuvre afin d’atténuer les tensions sur les marchés de la dette souveraine et éviter une contagion, or il apparaît qu’ils ont pu conduire au contraire à une hausse des taux d’intérêt, exacerber les effets négatifs sur la production et finalement accroître les ratios dette sur PIB. Non seulement la croissance aurait été plus élevée si de telles politiques n’avaient pas été mises en œuvre, mais les ratios dette publique sur PIB auraient également été plus faibles. Hier comme aujourd’hui, décaler dans le temps les efforts d’ajustement budgétaire permettrait de réduire les coûts sur l’emploi et la croissance, sans forcément que l’endettement s’éloigne de sa trajectoire soutenable. La croissance économique reste le principal déterminant de la soutenabilité des finances publiques.

 

Références Martin ANOTA

Auerbach, Alan J., & Yuriy Gorodnichenko (2012), « Output spillovers from fiscal policy », NBER working paper, n° 18578, novembre.

BATINI, Nicoletta, Giovanni CALLEGARI & Giovanni MELINA (2012), « Successful austerity in the United States, Europe and Japan », FMI working paper, n° 190, juillet.

BLOT, Christophe, Jérôme CREEL et Xavier TIMBEAU (2012), « iAGS, un rapport annuel indépendant », in Blog de l’OFCE, 30 novembre.

ERCEG, Christopher J., & Jesper LINDÉ (2012), « Fiscal consolidation in a currency union: Spending cuts vs. tax hikes », Federal Reserve, International finance discussion paper, n° 1063, novembre 2012.

HOLLAND, Dawn, & Jonathan PORTES (2012), « Self-defeating austerity? », in VoxEU.org, 1er novembre.

NAKAMURA, Emi, & Jón STEINSSON (2011), « Fiscal stimulus in a monetary union: Evidence from U.S. regions », in NBER working paper, n° 17391, septembre.

Repost 0
27 novembre 2012 2 27 /11 /novembre /2012 20:14

La géographie importe pour l’économie et notamment pour la diffusion des technologies. Celles-ci ne se déplacent pas dans le vide de la théorie. Leur diffusion s’apparente à un phénomène épidémiologique, puisqu’elles ne sont tout d’abord adoptées que par un nombre limité d’agents économiques, puis (après que le taux d'adoption ait atteint un certain seuil) connaissent une propagation exponentielle dans la population avant de voir le taux d’adoption se stabiliser. Ces aspects de la diffusion technologique ne sont pas sans implications plus larges pour les performances macroéconomiques. Les différences technologiques observées entre les pays sont essentielles pour expliquer les larges disparités de revenu par tête que l’on peut constater entre eux. La technologie est certes non rivale et n’implique aucun coût de transport, mais sa diffusion d’un pays à l'autre reste toutefois lente. Non seulement le laps de temps peut être particulièrement longue entre l’instant où l’innovation apparaît et celui où elle est utilisée dans un pays donné, mais il peut aussi être particulièrement long entre l’instant où la nouvelle technologie pénètre un pays et celui où elle est suffisamment diffusée en son sein pour avoir un impact significatif sur la productivité des résidents.

Les études empiriques qui se penchent sur le processus d’adoption des technologies considèrent les agents qu’il implique comme indépendants les uns des autres. Si ces analyses n’ont jamais rejeté l’idée qu’existent des interactions entre les pays dans l’adoption des technologies, elles n’ont pas été en mesure jusque là à les mettre évidence, ni d’évaluer par conséquent comment elles contribuent à ce que l’adoption technologique diffère d’un pays à l’autre. Adopter une technologie implique de disposer au préalable d’un savoir qui ne peut généralement être acquis qu'au travers les multiples interactions avec les autres agents, or la géographie est susceptible de façonner la fréquence et le succès de ces interactions individuelles. Les savoirs technologiques sont plus facilement transmissibles entre des agents localisés dans des pays proches plutôt qu’éloignés l’un de l’autre, notamment parce que l’adoption technologique peut exiger des savoirs tacites, donc des contacts de face à face. Les schémas d’adoption d’une technologie donnée peuvent en outre être souvent corrélés entre pays voisins, car la rentabilité de son adoption dans un pays dépend, comme par exemple dans le cas des chemins de fer, de son adoption dans les pays limitrophes.

Certains analyses ont observé les citations de brevets, tandis que d’autres ont considéré les répercussions des dépenses de recherche-développement d’un pays sur celles réalisées par les autres pays, afin de mettre à jour la présence d’externalités de connaissances qui seraient liées à l’activité de recherche-développement. L’innovation et l’adoption des technologies restent toutefois des processus distincts et rien ne certifie que les savoirs nécessaires à l’élaboration de nouvelles technologies soient similaires à celles qu’exigent par la suite leur adoption. Il apparaît en outre plus judicieux de se baser sur les effets de débordement qui sont à l’œuvre entre les pays plutôt qu’en leur sein.

Les études menées au niveau microéconomique pour étudier l’adoption des technologies agricoles ont mis à jour des effets de corrélation spatiale dans l’adoption des nouvelles technologies agricoles, par exemple l’adoption de nouvelles cultures ou de graines à haut rendement. Ces approches sont toutefois limitées car elles n’étudient que quelques technologies relativement simples, telles que de nouveaux engrais ou semences, qui ne peuvent dès lors représenter tout le continuum des technologies. Les données microéconomiques ne permettent pas non plus d'identifier la présence d’interactions entre les pays dans l’adoption technologique. Les interactions spatiales à l’œuvre dans le processus d’adoption technologique peuvent survenir de manière différente selon la distance qui sépare les agents qu’elle implique.

Saisir comment les technologies se diffusent géographiquement apparaît donc essentiel pour comprendre la vitesse à laquelle s’opèrent ces diffusions. Dans cette optique, Diego Comin, Mikhail Dmitriev et Esteban Rossi-Hansberg (2012a, b) ont compilé un nouvel ensemble de données pour étudier la diffusion des technologies tant dans le temps que dans l’espace. Ils étudient la diffusion de 20 technologies majeures dans 161 pays au cours des 140 dernières années. Pour s’assurer de la robustesse de leurs résultats, Comin et alii ont notamment isolé les effets proprement spatiaux de trois facteurs qui sont également susceptibles d’influencer la diffusion technologique, en l’occurrence le capital humain, l’ouverture au commerce extérieur et le cadre institutionnel.

Leur analyse empirique fait apparaître que les pays qui sont les plus éloignés géographiquement des pays les plus avancés technologiquement bénéficient le moins rapidement de leurs technologies. En l’occurrence, ce retard technologique est particulièrement prononcé pour les pays du sud par rapport aux pays du nord ; les distances entre latitudes importent davantage que les distances entre longitudes. Les répercussions géographiques de la diffusion se diluent au cours du temps : elles vont être initialement fortes, avant de décliner pour finalement disparaître. Cet effet distingue le transfert technologique des autres transferts qui s’opèrent au niveau international, notamment les flux de biens, de migrants ou d’investissements directs à l’étranger. Ces autres flux diminuent également avec la distance en raison de coûts de transport et de restrictions, en particulier sur la migration, mais l’effet de la distance ne disparaît pas dans le temps. En revanche, une fois que la technologie s’est diffusée, la distance n’a plus d’importance car les transmissions de savoirs et innovations n’exigent d’être opérées qu’une seule fois et ces savoirs et innovations peuvent ensuite être utilisées à de multiples reprises. Finalement, l’espace importe pour la diffusion technologique entre les pays.

Dans un second temps, Comin et alii ont développé un modèle simple qui leur permet de reproduire les schémas spatiaux et temporels de la diffusion technologique qu'ils ont saisis au travers de leur analyse empirique. Les auteurs s’inspirent ici des travaux qui soulignent l’important des échanges de connaissances entre individus pour la croissance économique, notamment l’analyse réalisée par Jonathan Eaton et Samuel Kortum (1999) ou plus récemment celle de Robert Lucas (2009). Les auteurs font l’hypothèse que la technologie se diffuse via les interactions entre adoptants et non-adoptants. Ils supposent en outre que les interactions sont aléatoires et plus probables lorsque les agents sont à proximité l’un de l’autre. Le modèle détermine l’évolution de l’adoption de chaque technologique en se basant, d’une part, sur la fréquence des interactions sociales et, d’autre part, le déclin spatial dans la probabilité d’interactions. Ils procèdent à des estimations pour définir ces deux paramètre. Ces estimations font apparaître que la fréquence des interactions est plus élevée pour les nouvelles technologies et que les interactions spatiales diminuent de 73 % tous les 1000 kilomètres.

 

Références Martin ANOTA

COMIN, Diego, Mikhail DMITRIEV & Esteban ROSSI-HANSBERG (2012a), « The spatial diffusion of technology », NBER working paper, novembre.

COMIN, Diego, Mikhail DMITRIEV & Esteban ROSSI-HANSBERG (2012b), « Heavy technology: The process of technological diffusion over time and space », in VoxEU.org, 26 novembre.

EATON, Jonathan, & Samuel KORTUM (1999), « International technology diffusion: theory and measurement », in International Economic Review, vol. 40, n° 3.

LUCAS, Robert (2009), « Ideas and growth », in Economica, vol. 76.

Repost 0
26 novembre 2012 1 26 /11 /novembre /2012 19:04

Plusieurs théories ont récemment affirmé que la taille d’un pays influence la production et divers autres variables macroéconomiques. Les économies d’échelle ont une place déterminante dans les nouvelles théories du commerce internationale, dans les analyses de la nouvelle économie géographique et de l’économie urbaine, dans les théories de la croissance endogène ou encore dans toute une partie de l’économie politique qui se focalise sur la fourniture des biens publics. Chacune de ces théories suggère que plus les pays sont grands, plus ils doivent être performants.

Sythétisant les résultats obtenus par les nouvelles théories du commerce international, Elhanan Helpan et Paul Krugman (1985) expliquent comment les rendements croissants peuvent influer sur les échanges internationaux. Pour cela, ils distinguent les économies d’échelle selon qu’elles soient internes ou externes à l’entreprise. En présence d’économies d’échelle internes, le marché tend à se structurer en monopole ; puisque les coûts de production diminuent lorsque la taille de l’entreprise s’accroît, la concurrence tend en effet à disparaître. En revanche, les économies d’échelle externes ne remettent pas forcément en cause la concurrence. Le coût unitaire de production dépend alors de la taille, non pas de l’entreprise, mais du secteur. Les industries tendent dans ce cas à se concentrer spatialement, notamment en clusters, pour partager intrants, main-d’œuvre, technologies et infrastructures. La nouvelle économie géographique s’est par la suite particulièrement focalisée sur les déterminants et les répercussions spatiales de ces économies d’agglomération. De nombreuses relations économiques gagnent en efficacité lorsqu’elles sont concentrées localement, par exemple dans un pays donné plutôt que dans deux. Les pays produisant à grande échelle un bien donné sont particulièrement favorisés. Les économies, même dotées de faibles coûts salariaux, ne pourront que difficilement concurrencer le pays qui sera entré en premier dans la production d’un bien donné, car il leur faudra atteindre un niveau de production suffisamment important pour bénéficier d’économies d’échelle. Les accidents historiques qui conduisent un pays donné à la production de tel ou tel bien sont donc susceptibles de durablement façonner les échanges internationaux. 

La littérature macroéconomique sur les effets d’échelle trouve son origine dans l’idée d’Adam Smith selon laquelle l’ampleur du marché limite la spécialisation du travail. La parabole de la manufacture d’épingles fait de l’apprentissage par la pratique (learning by doing) l’un des catalyseurs de la productivité. Le travail y est parcellisé, chaque travailleur ne se voyant confier qu’un nombre restreint d’opérations. Les travailleurs se perfectionnent dans leur spécialité et deviennent toujours plus efficaces. Les gains de productivité générés par la division du travail rend possible l’extension du marché. Un cercle vertueux s’engage alors, puisque l’extension des marchés incite à nouveau les entreprises à investir et à approfondir la division du travail. Le processus s’opère également entre les branches d’activité. Le processus productif est divisé en davantage d’étapes avec l’apparition de marchés de sous-traitance toujours plus spécialisés, donc plus efficaces. Les coûts diminuent à chaque étape puisque l’extension des marchés est source d’économies d’échelle. La plus grande productivité générée par la spécialisation et l’étirement des cycles de production est alors susceptible de générer des effets d’échelle entre les pays, aux côtés peut-être de la plus grande intégration internationale (des marchés des capitaux, des biens, des services et du travail) et des effets d’échelle sur la concurrence.

Les modèles de croissance endogène ont formalisé de tels effets d’échelle. L’une de leurs hypothèses cruciales est que les idées sont non rivales et cette non-rivalité est propre à engendrer des externalités. La technologie correspond en partie à de l’information, or le coût de reproduction de l’information est sensiblement inférieur à son coût initial de production, donc une même technique peut facilement être répliquée et utilisée par de nombreux agents économiques. Dans le modèle séminal de Paul Romer (1986) par exemple, l’investissement de chaque entreprise, en particulier en recherche-développement, est susceptible d’augmenter, non seulement sa propre productivité, mais également la productivité des autres firmes en raison des externalités technologiques. L’investissement est source d’apprentissage par la pratique et le savoir ainsi généré va inévitablement se diffuser à l’ensemble des entreprises puisqu’il ne peut être approprié par la seule entreprise qui l’a généré. Si la main-d’œuvre est ramenée à un stock de capital humain, elle peut elle-même faire l’objet d’une accumulation, à l’instar du capital physique. La quantité de capital humain repose sur le progrès technique ; inversement, ce sont les chercheurs, c’est-à-dire fondamentalement du capital humain, qui vont mettre au point de nouvelles techniques. En définitive, comme les pays peuvent d’autant plus dépenser en formation et en recherche-développement qu’ils sont larges, la taille de l’économie influencerait le taux de croissance ou le niveau du revenu par tête à long terme.

Dans leurs travaux d’économie politique, Alberto Alesina et Enrico Spolaore (2003) ont identifié les principaux bénéfices associés à une large population. Ils estiment que celle-ci se traduit notamment par de plus faibles coûts par tête des biens publics, des systèmes fiscaux plus efficaces, de moindres coûts de défense par tête et par une plus grande capacité à redistribuer les revenus au sein du pays. 

Ces divers pans de la littérature économique suggèrent ainsi la taille d’un pays doit notamment influencer la productivité, la production, l’inflation, le crime, la santé ou encore les inégalités. En particulier, plus le pays est large, plus ses niveaux de productivité et de revenu par tête doivent être élevés. Andrew K. Rose (2006) a notamment cherché à déceler les effets d’échelle au sein des pays. Il a pour cela compilé les données relatives à 200 pays pour la période s’étalant de 1960 à 2000 et lié la population d’un pays à une large variété de variables économiques et sociales qu’elle serait susceptible d’influencer. Les plus petits pays semblent plus ouverts au commerce international, mais n’apparaissent pas systématiquement différents des plus grands. Il s’avère incapable de trouver un effet d’échelle significatif du pays sur chacune des variables observées, si ce n’est sur l’ouverture de l’économie. La taille du pays n’importe tout simplement pas. Les effets d’échelle pourraient en définitive ne s’opérer qu’à un niveau infranational.

Plus récemment, Natalia Ramondo, Andrés Rodríguez-Clarez et Milagro Saborío-Rodríguez (2012) se sont également penchés sur le décalage entre les données empiriques relatives aux pays et les résultats obtenus par les modèles basés sur les externalités technologiques. A partir de la modélisation proposée par Samuel Kortum (1997), où la croissance trouve son origine dans le processus d’innovation, ils estiment que le Danemark devrait théoriquement avoir un niveau de revenu par tête s’élevant à 34 % de celui observé aux Etats-Unis, alors qu’il représente en réalité 91 % de ce dernier. Pour résoudre cette « énigme danoise », ils vont supposer, d’une part, que les pays ne sont pas complètement isolés des uns des autres et, d’autre part, que les pays ne sont pas pleinement intégrés au niveau domestique. Avec la prise en compte de ces deux formes de frictions, leur modélisation implique une valeur théorique du revenu par tête danois représentant 75 % du revenu américain. Les frictions domestiques expliqueraient les deux tiers de l’énigme danoise, alors que le commerce extérieur et la production multinationale n’en expliqueraient que 5 %. Un quart de l’écart reste encore inexpliqué, ce qui suggère aux auteurs la présence d’autres formes de frictions qui ne sont pas associées au commerce ou à la production multinationale, notamment la diffusion technologique internationale qui est à l’œuvre en dehors du champ de l’entreprise.

 

Références Martin ANOTA

ALESINA, Alberto, & Enrico SPOLAORE (2003), The Size of Nations, The MIT Press.

GUELLEC, Dominique, & Pierre RALLE (2003), Les Nouvelles Théories de la croissance, La Découverte.

HELPMAN, Elhanan, & Paul R. KRUGMAN (1985), Market Structure and Foreign Trade, MIT Press.

KORTUM, Samuel S. (1997), « Research, patenting and technological change », in Econometrica, vol. 65, n° 6, novembre.

RAINELLI, Michel (2009), Le Commerce international, La Découverte.

RAMONDO, Natalia, Andrés RODRÍGUEZ-CLAREZ & Milagro SABORÍO-RODRÍGUEZ (2012), « Scale effects and productivity across countries: Does country size matter? », NBER working paper, n° 18532, novembre.

ROMER, Paul (1986), « Increasing returns and long run growth », in Journal of Political Economy, vol. 94, n° 5, octobre.

ROSE, Andrew K. (2006), « Size really doesn’t matter: In search of a national scale effect », NBER working paper, n° 12191, avril.

Repost 0

Présentation

  • : D'un champ l'autre
  • D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher