Overblog
Suivre ce blog Administration + Créer mon blog
9 février 2013 6 09 /02 /février /2013 18:59

Dans l’optique néoclassique, une économie peut générer de la croissance en accroissant la quantité de facteurs de production, c’est-à-dire en relevant l'offre de travail, en investissant dans l’éducation et en accumulant du capital productif. Cette croissance, qualifiée d’« extensive », se double d’une croissance « intensive » reposant sur les avancées technologiques. A long terme, le progrès technique serait le principal déterminant de l’élévation du niveau de vie des populations. Autrement dit, une diminution du taux d’innovation se traduirait par une décélération du taux de croissance potentielle, auquel cas l'économie est susceptible de converger vers un état stationnaire à la Solow.

Une telle éventualité a récemment été soulevée par Tyler Cowen (2011), auteur du blog Marginal Revolution. Selon lui, la Grande Récession aurait dissimulé des tendances plus lourdes et plus dramatiques, celles d’une grande stagnation (great stagnation) qui ne s’achèvera que dans plusieurs décennies. Non seulement les facteurs de la croissance extensive sont sujets à des rendements décroissants, mais l’innovation aurait également atteint un « plateau technologique », si bien que la croissance ne peut que durablement ralentir. Cowen cite notamment les travaux de Charles Jones (2002). Ce dernier avait étudié la contribution des différents facteurs à la croissance des revenus par tête aux Etats-Unis entre 1950 et 1993. Il en avait conclu que si 20 % de la croissance américaine pouvaient être attribués à la croissance de la population, 80 % de la croissance économique provenaient de la hausse du niveau de scolarité et de la plus grande intensité de la recherche, c’est-à-dire de l’essor de la main-d’œuvre dans les industries génératrices d’idées. Comme ces deux variables ne peuvent plus continuer à progresser, la croissance devrait ralentir.

Encore plus récemment, Robert Gordon (2012) fit preuve d’un plus grand pessimisme dans son provocateur « Is U.S. economic growth over? ». Il identifie au cours de ces deux siècles et demi trois révolutions industrielles (RI). La première se déroula de 1750 à 1830 et généra la vapeur et le réseau ferroviaire. La deuxième, la plus importante, s’étala de 1870 à 1900 et engendra entre autres l’électricité, le moteur à combustion interne, l’eau courante, les communications, la chimie et le pétrole. La troisième se déroula de 1960 à 2005 et offrit les ordinateurs, internet et les téléphones mobiles. Chacune de ces phases a été suivie par une période d’expansion économique, en particulier la deuxième : la productivité connut une croissance relativement rapide entre 1890 et 1972. Une fois que les innovations de la deuxième RI ont été pleinement exploitées, la croissance entre 1972 et 1996 fut plus lente qu’auparavant. La troisième RI ne s’est traduite que par une courte période de forte croissance entre 1996 et 2004. Aucune des innovations qu’elle aura générées n’a été aussi influente que celles du passé. Avec le ralentissement de la productivité observé depuis 1970, le taux de croissance du revenu mondial pourrait retrouver ses valeurs d’avant la première RI, c’est-à-dire avoisiner zéro. Les rapides progrès de ces 250 dernières années n’auront donc constitué qu’un épisode unique dans l’histoire économique.

Six « vents contraires » (headwinds) viennent en outre assombrir les perspectives de croissance à long terme des Etats-Unis et de plusieurs économies avancées. Le vieillissement de la population se traduit par une baisse du taux d’activité et de la productivité ; le niveau de scolarité atteint un plateau aux Etats-Unis ; les inégalités de revenu progressent ; la mondialisation, à travers la concurrence des pays émergents et la délocalisation des activités productives en leur sein, exerce une pression à la baisse sur les salaires des pays avancés ; la gestion de la crise environnementale réduira le budget des ménages ; enfin, le désendettement du secteur privé et la charge de la dette publique vont également compresser le revenu disponible et par là les dépenses de consommation.

La thèse du pessimisme technologique a rencontré de nombreuses critiques. En outre, cette idée d’une stagnation durable n’est pas nouvelle. Selon Gary Becker (2012) et Matthew Klein (2012), elle semble regagner en popularité à chaque fois que l’économie connaît un ralentissement prolongé de l’activité. (En revanche, les périodes d’expansion économique tendent à convaincre les gens que la croissance va se poursuivre indéfiniment.) Alvin Hansen affirmait à la fin des années trente que les Etats-Unis subissaient alors une « stagnation séculaire » (secular stagnation) : les bonnes performances qu’avait pu connaître par le passé l’économie américaine résultaient de dynamiques favorables qui ne pouvaient être exploitées qu’une seule fois, qu’il s’agisse de l’innovation technologique ou de la croissance démographique. La haute croissance des trente glorieuses a été un radical démenti à la thèse d’Hansen.

William Janeway (2013) souligne quant à lui un défaut évident dans l’argumentation de Gordon. Selon ce dernier, les effets de la troisième RI sur la productivité se seraient dissipés après seulement huit années, alors qu’il fallut plus de huit décennies pour que la deuxième RI porte ses fruits. Gordon choisit de mettre un terme à la troisième RI en 2005, soit 45 ans après ses débuts, mais moins de la moitié du temps donné aux première et deuxième RI pour suivre leur cours. Cela revient à juger de l’impact économique de l’électricité seulement 45 ans après l’implantation de la première usine électrique en 1882, c’est-à-dire à une date où les industries manufacturières ne découvraient qu’à peine les bénéfices de cette énergie pour leur organisation interne et où l’industrie électroménagère n’en était qu’à ses balbutiements. En troquant la révolution des TIC, Gordon néglige notamment le fait que le développement du commerce en ligne et surtout des intelligences artificielles n’en est qu’à ses prémices.

Selon Daron Acemoglu et James Robinson (2012), deux éléments clés sont absents du débat. Tout d’abord, le processus d’innovation, comme toute activité économique, est une quête de profit ; il répond donc aux incitations. Les deux auteurs reprennent l’exemple de Schmookler : la demande accrue de transport s’était traduite par une plus forte demande pour les fers à cheval, si bien qu’il y eut un taux d’innovation très élevé pour le fer à cheval tout au long de la fin du dix-neuvième et au début du vingtième siècle ; les innovations se sont par la suite taries en raison de la concurrence du moteur de traction à vapeur, puis du moteur à combustion interne. Aujourd’hui, lorsque le gouvernement accroît sa demande pour certains vaccins, les sociétés pharmaceutiques réagissent en multipliant les essais cliniques. Ou encore, les changements démographiques se traduisent par une expansion du marché pour différents types de médicaments et ainsi par la découverte de nouveaux médicaments. Puisqu’il est difficile de prévoir où les incitations à innover seront fortes, il est difficile de prédire où émergeront les innovations. Ainsi, ce n’est pas parce que nous connaissons les grandes innovations du passé et reconnaissons qu’elles ont été formidables, que nous pouvons en déduire que les innovations futures ne les égaleront pas. Cela dit, il ne faut pas faire l’erreur inverse de Gordon : croire que les innovations futures seront forcément révolutionnaires et permettront, par exemple, de résoudre la crise environnementale. L’expérience passée suggère en revanche que tant qu’il y aura des incitations, les innovations suivront.

Ensuite, Acemoglu et Robinson (2013) regrettent que la question institutionnelle soit absente du débat, alors qu’elle devrait au contraire être placée en son centre. L’innovation découle en effet d’institutions inclusives, c’est-à-dire d’ensembles de règles permettant aux agents de prendre librement leurs décisions. Ce sont ces règles qui déterminent la capacité de la société à exploiter la créativité, les compétences et les idées, soit son potentiel de croissance. S’interroger sur les perspectives de croissance revient alors à se demander si les institutions inclusives continueront à se développer à l’avenir ou bien si elles déclineront. Le processus d’innovation risque en effet de se tarir si les institutions deviennent extractives, c’est-à-dire si elles ne bénéficient qu’à une seule minorité au détriment du reste de la population. Le risque est alors de gâcher une masse considérable de talents. En l’occurrence, si la Rome antique se révéla incapable d’innover, non pas parce ce qu’elle atteignit les limites de sa capacité innovatrice, mais parce que ses institutions devinrent extractives.

Même parmi les détracteurs, beaucoup partagent l’idée de Gordon selon laquelle le creusement des inégalités va comprimer le potentiel de croissance au cours des prochaines décennies. Ce n’est pas le cas de l’optimiste Dave Altig (2013), pour lequel ce « vent contraire » pourrait au contraire constituer le signe d’une prochaine accélération de la croissance. L’adoption de nouvelles technologies peut en effet impliquer un coût substantiel en termes d’apprentissage, or seule la main-d’œuvre qualifiée s’avère avantagée dans cet apprentissage. Dans un premier temps, le manque d'expérience va donc empêcher l’économie de pleinement exploiter des nouvelles technologies. La demande pour la main-d’œuvre qualifiée va s’accroître, la prime de qualification (skill premium), c’est-à-dire le différentiel de salaire entre travailleurs qualifiés et non qualifiés, va alors s’élever et les inégalités de revenus se creuser. L'économie investit dans le capital humain pour accroître la quantité de main-d’œuvre qualifiée, mais cet investissement n’est pas mesurable, si bien que la croissance de la productivité semble décrocher durant cette période. Une fois que la main-d’œuvre qualifiée est suffisante, l’économie peut alors exploiter tous les potentiels des nouvelles technologies, si bien que la productivité s’élève et la prime de qualification diminue. Selon Greenwood et Yorukoglu (1997), l’accélération du progrès technique s’est à plusieurs reprises accompagnée au cours de l’histoire d’un creusement des inégalités et d’un ralentissement de la croissance de la productivité. Ces trois dynamiques auraient notamment coïncidé au milieu du dix-neuvième siècle, la période riche en avancées technologiques qui mena finalement à l'âge d'or de Gordon. Par conséquent, Dave Altig suggère que le creusement des inégalités que l’on peut observer depuis quelques décennies pourrait finalement préfigurer une accélération de la croissance de la productivité dans un proche avenir.

 

Références Martin ANOTA

ACEMOGLU, Daron, & James ROBINSON (2013), « The End of Low Hanging Fruit? », in Why Nations Fail (blog), février.

ALTIG, Dave (2013), « Half-full glasses », in macroblog, 1er février. Traduction française disponible ici.

BECKER, Gary (2012), « Will long-term growth slow down? », in The Becker-Posner blog, 10 juillet.

COWEN, Tyler (2011), The Great Stagnation: How America Ate All the Low-hanging Food of Modern History, Got Sick, and Will (Eventually) Feel Better.

The Economist (2013), « Has the ideas machine broken down? », 12 janvier.

GORDON, Robert (2012), « Is US economic growth over? Faltering innovation confronts the six headwinds », CEPR Policy Insight, n° 63.

GREENWOOD, Jeremy, & Mehmet YORUKOGLU (1997), « 1974 », Carnegie-Rochester Conference Series on Public Policy, vol. 46, n° 1, juin.

JANEWAY, William (2013), « Growth out of time », in Project Syndicate, 17 janvier. Traduction française, « La temporalité de la croissance ».

JONES, Charles I. (2012), « Sources of U.S. economic growth in a world of ideas », in American Economic Review, vol. 92, n° 1, mars.

KLEIN, Matthew C. (2012), « Was that it? », in Free Exchange (blog), 8 septembre.

Partager cet article
Repost0
6 février 2013 3 06 /02 /février /2013 20:31

Les mouvements de capitaux se sont intensifiés avec le processus d’intégration financière opéré au niveau mondial. Le maintien actuel des taux directeurs à un faible niveau dans les économies avancées a suscité un véritable débat sur la nature de la liquidité mondiale, sa transmission d’une économie à l’autre et sur ses risques potentiels. Suite à la crise financière, les pays émergents, qui avaient été épargnés par les booms d’endettement au cours des années deux mille, ont fait face à d’importants afflux de capitaux, en raison de leur plus grande résilience lors de la Grande Récession et des meilleurs rendements qu’ils offraient par rapport aux économies avancées. Selon un point de vue répandu, les faibles taux directeurs et les achats d’actifs par les banques centrales des pays avancés seraient un vecteur clé dans les mouvements internationaux de capitaux. Ces derniers sont susceptibles de se traduire par une expansion excessive du crédit dans les pays destinataires et finalement par une surchauffe de leur économie susceptible de se solder par une crise.

Pierre-Olivier Gourinchas et Maurice Obstfeld (2012) ont mené une analyse empirique pour la période s’étalant de 1973 à 2010 afin d’identifier les déterminants des crises financières. Ils constatent que la hausse rapide du levier d’endettement et la brutale appréciation du taux de change réel constituent deux prédicteurs particulièrement significatifs des crises financières. Ce résultat est vérifié aussi bien pour les économies avancées que pour les économies émergentes. Cette conclusion est également partagée par Alan Taylor (2012) dans son étude historique. D’autres analyses affirment que les afflux massifs de capitaux entraînent des booms sur les marchés du crédit et des actifs. Cherchant à concilier ces deux courants de la littérature, César Calderón et Megumi Kubota (2012) observent de leur côté un échantillon de 71 pays pour la période s’étalant de 1975 à 2010. Ils constatent que l’accumulation des flux de capitaux tend à précéder les booms sur les marchés du crédit.

Poursuivant directement l’analyse de Gourinchas et Obstfeld, Valentina Bruno et Hyun Song Shin (2012) se demandent comment la politique monétaire des pays avancés peut influencer le levier d’endettement et les taux de change réels dans les économies récipiendaires des flux de capitaux. Ils vont se focaliser sur un canal souvent négligé de la politique monétaire, celui qui a reçu le nom de « canal de la prise de risque » (risk-taking channel) depuis les travaux de Claudio Borio et Haibin Zhu (2008). Ce mécanisme de transmission donne un rôle crucial au secteur bancaire dans le façonnement des conditions financières et des primes de risque au cours du cycle. Les banques sont en effet des intermédiaires qui empruntent à court terme et prêtent à long terme, si bien que la rentabilité des nouveaux prêts dépend de l’écart entre les deux taux, c’est-à-dire l’écart à terme (term spread). Comme les taux longs sont moins sensibles aux variations des taux directeurs que les taux courts, la politique monétaire peut influer sur le spread de terme, ce qui permet aux banques centrales de jouer sur la prise de risque des banques et par là de peser sur l’activité économique.

Bruno et Shin explorent alors les implications du canal de prise de risque dans un contexte international en mettant l’accent sur l’activité transfrontalière des banques mondiales, c’est-à-dire sur les flux de capitaux entre la société-mère et ses filiales à l’étranger. Par exemple, un assouplissement de la politique monétaire de la Fed se traduit par une diminution des coûts de financement en dollar auxquels font face les banques dans les économies récipiendaires des flux de capitaux (typiquement les pays émergents). Ces banques prennent alors plus de risques en prêtant davantage aux agents domestiques. Les entrées de capitaux entraînent une appréciation de la devise du pays récipiendaire, ce qui améliore le bilan des emprunteurs domestiques. Comme ces derniers apparaissent alors moins risqués aux yeux des banques, celles-ci vont leur concéder encore davantage de crédit. Un cercle vertueux est donc temporairement à l’œuvre, l’appréciation de la devise et le crédit se renforçant alors mutuellement. Lorsque le cycle se retourne, le mécanisme d’amplification joue cette fois-ci en sens inverse et la situation financière des banques et des emprunteurs se détériore violemment.

Bruno et Shin vont alors examiner comment fonctionne le canal de prise de risque en contexte international à travers un modèle autorégressif (VAR). Ils cherchent à observer comment les bilans s’ajustent en réponse aux changements de la politique monétaire américaine. Pour cela, ils vont se pencher sur la relation entre l’indice VIX de la volatilité des options sur les actions américaines et le taux directeur de la Réserve fédérale, en l’occurrence le taux des fonds fédéraux. Les précédentes études avaient mis en évidence une boucle rétroactive entre les deux variables : une baisse du Fed funds rate est suivie par un amortissement de l’indice VIX, tandis qu’une hausse de ce dernier est suivie par une réduction du taux des fonds fédéraux [Bekaert et alii, 2012].

Bruno et Shin constatent, tout d’abord, qu’une hausse de l’indice VIX provoque un élargissement de l’écart à terme, ce qui suggère que les participants au marché s’attendent alors à une réduction imminente du taux des fonds fédéraux ; un élargissement de l’écart à terme est suivi par une réduction du taux directeur au cours des trimestres suivants. L’écart à terme influence donc effectivement les conditions de marché. En outre, l’analyse révèle qu’un écartement du term spread se traduit par un rythme accru des mouvements de capitaux à travers les opérations transfrontalières des banques mondiales. Le cycle du levier d’endettement des banques mondiales apparaît au cœur des mouvements des capitaux propres au secteur bancaire ; ce cycle se traduit par des fluctuations dans la liquidité mondiale et celles-ci expliquent (en partie) l’expansion du crédit dans les pays récipiendaires des flux de capitaux. Le canal de prise de risque de la politique monétaire s’opère donc effectivement via la gestion de bilan des banques mondiales. Le processus de globalisation financière, en rendant ce mécanisme de transmission plus prégnant, participe ainsi par ce biais-là à fragiliser la stabilité financière mondiale. Or les banques centrales tendent à le délaisser dans leur analyse et leur prise de décision, donc à sous-évaluer les répercussions extérieures de leur politique monétaire.

 

Références Martin ANOTA

BEKAERT, Geert, Marie HOEROVA & Marco LO DUCA. (2012). « Risk, uncertainty and monetary policy,” Banque nationale de Belgique, working paper.

BORIO, Claudio, & Haibin ZHU (2008), « Capital regulation, risk-taking and monetary policy: a missing link in the transmission mechanism? », Banque des règlements internationaux, working paper, n° 268, décembre.

BRUNO, Valentina, & Hyun Song SHIN (2012), « Capital flows and the risk-taking channel of monetary policy », Banque des règlements internationaux, working paper, n° 400, décembre.

CALDERÓN, César, & Megumi KUBOTA (2012b), « Gross inflows gone wild: Gross capital inflows, credit booms and crises », Banque mondiale, Policy research working paper, n° 6270, novembre.

GOURINCHAS, Pierre-Olivier, & Maurice OBSTFELD (2012), « Stories of the twentieth century for the twenty-first », in American Economic Journal: Macroeconomics, vol. 4, n° 1.

TAYLOR, Alan M. (2012), « External imbalances and financial crises », NBER working paper, n° 18606, décembre.

Partager cet article
Repost0
2 février 2013 6 02 /02 /février /2013 20:31

http://www.gtglobaltrader.com/sites/default/files/ExportConfidence.jpg

L’essor du commerce intrafirme et le développement des multinationales ont bousculé les anciennes théories du commerce international qui ne faisaient apparaître des gains à l’échange qu’au travers soit des différences en termes de dotations factorielles, soit des avantages comparatifs intersectoriels dans le sillage de la théorie ricardienne. Les nouvelles théories du commerce international qui se sont développées depuis les années soixante-dix ont cherché à mieux rendre compte des évolutions touchant les échanges commerciaux. Pour cela, elles se sont éloignées du cadre de la concurrence pure et parfaite pour incorporer des éléments de concurrence imparfaite tels que la nature oligopolistique des marchés, la présence de rendements d’échelle croissants et la différenciation des produits [Melitz et Trefler, 2012]. Dans ces modélisations, Les consommateurs aiment la variété et sont prêts à payer un prix plus élevé pour obtenir le produit désiré, mais comme le marché est fragmenté en niches, les différentes entreprises qui y sont présentes ne parviennent pas à atteindre une échelle de production suffisante pour couvrir leurs coûts de développement. L’ouverture au commerce international, en élargissant les marchés, va permettre aux entreprises de pleinement exploiter les rendements d’échelle afin de rentabiliser leurs investissements. Les consommateurs profitent, quant à eux, non seulement d’une plus large variété de produits, mais l’intensification de la concurrence internationale se traduit également par une baisse des prix.

Limités au niveau méthodologique, ces nouveaux modèles ont fait l’hypothèse durant plusieurs décennies d’une homogénéité des entreprises ; les firmes étaient supposées produire à la même échelle et être confrontées aux mêmes coûts. Melitz (2003), d’une part, et Bernard, Eaton, Jensen et Kortum (2003), d’autre part, ont mis à jour une nouvelle source de gains du commerce international en prenant en compte l’hétérogénéité des entreprises. Dans un secteur étroitement défini, les entreprises sont effectivement diverses en termes de taille et de profit, en raison notamment des différences de productivité. Or, cette hétérogénéité des entreprises au sein d’un même secteur va contribuer à amplifier les gains de la libéralisation que la littérature économique avait déjà identifiés.

L’ouverture au commerce va en effet contribuer à relever la productivité, non seulement via les économies d’échelle, mais également à travers un processus darwinien de sélection des entreprises [Corcos et alii, 2012]. D’un côté, la libéralisation des échanges se traduit par une diminution des coûts de transaction qui vont inciter les entreprises étrangères à pénétrer les marchés domestiques. Les firmes domestiques vont alors voir leurs profits diminuer sur les ventes domestiques, et ce quel que soit leur niveau initial de productivité. D’un autre côté, certaines entreprises domestiques vont se révéler suffisamment productives pour prendre en charge les coûts qu'exigent l'accès aux marchés extérieurs, notamment les coûts de transport, et faire face aux barrières de nature institutionnelle ou culturelle. Ces firmes vont alors accéder aux marchés étrangers et en obtenir ainsi des profits supplémentaires.

Avec la libéralisation des échanges, les entreprises vont par conséquent se partitionner en trois groupes. Comme les entreprises les moins productives font des pertes sur les marchés domestiques et ne disposent pas d’accès aux marchés étrangers, elles sont forcées de se retirer du marché. Les entreprises les plus productives sont quant à elles en mesure de compenser le manque à gagner sur les ventes domestiques avec les profits qu’elles retirent de leurs exportations. Elles peuvent donc survivre et sont même susceptibles d’accroître leur part de marché. Enfin, les entreprises ayant des niveaux intermédiaires de productivité peuvent également survivre, mais elles ne sont pas suffisamment productives pour accéder aux marchés étrangers, si bien qu’elles sont confinées aux seuls marchés domestiques et voient leur part de marché décliner irrémédiablement. Au final, comme l’intégration du commerce international élimine les entreprises les moins productives, la productivité moyenne du secteur s’élève grâce à la réallocation des ressources productives depuis les producteurs les moins efficaces vers les plus efficaces.

La prise en compte de l’hétérogénéité des entreprises fait apparaître une source supplémentaire de gain à l’échange, provenant cette fois-ci de l’influence positive que l’élargissement des marchés exerce sur le processus innovation [Melitz et Trefler, 2012]. L'adoption des nouveaux produits et processus productifs améliorant la productivité impose effectivement des coûts fixes. L’intégration commerciale, en élargissant la taille du marché et l’échelle de production des entreprises, encourage ces dernières à entreprendre ces investissements et stimule par là leur productivité. Cette source supplémentaire de gain à l’échange a trait à l’efficacité interne à la firme, tandis que le gain associé à la sélection des entreprises relevait quant à lui de l’efficacité interentreprises (ou allocative).

Cette nouvelle littérature théorique qui s’élabore autour de l’hétérogénéité des entreprises est motivée par un certain nombre de constats empiriques réalisés au niveau microéconomique [Melitz et Redding, 2012] :

Premièrement, la participation au commerce international permettrait aux entreprises de réaliser de meilleures performances. Dans un même secteur, les exportateurs sont notamment plus larges, plus productifs, plus intensifs en capital et en travail qualifié que les entreprises non exportatrices et rémunèrent également davantage leurs salariés.

Deuxièmement, les effets de composition seraient particulièrement importants entre les entreprises présentes dans un même secteur. Les entreprises sortantes sont en l'occurrence relativement plus petites que les opérateurs historiques et les entreprises entrantes ont des taux de croissance de l’emploi relativement plus élevés que ces derniers.

Troisièmement, la performance d’un établissement ou d’une entreprise répond sur plusieurs plans à l’environnement commercial. La libéralisation des échanges se traduirait notamment par une hausse de la productivité, une accélération de l’adoption des nouvelles technologies, une rationalisation de la gamme de produits offerts et une réduction du mark-up.

Gregory Corcos et alii (2012) ont estimé les gains de la libéralisation du commerce en Union européenne, notamment les gains d’efficacité tirés de la sélection des entreprises les plus efficaces. Si l’intégration européenne n’avait pas eu lieu, un pays subirait en moyenne une perte permanente de 7 % de son niveau de productivité. L’analyse fait en outre apparaître que l’intégration européenne s’est traduite par une plus riche variété de produits, mais aussi par des baisses de prix et de mark-up de la même amplitude que la hausse de la productivité. Les gains à l’échange sont inégalement répartis dans l’espace, puisque les pays périphériques et ceux de petite taille en profitent le plus. Ainsi, les changements dans les barrières au commerce auraient des répercussions particulièrement larges.

 

Références Martin ANOTA

BERNARD, Andrew B., Jonathan EATON, J. Bradford JENSEN & Samuel KORTUM (2003), « Plants and Productivity in international trade », in American Economic Review, vol. 93.

CORCOS, Gregory, Massimo DEL GATTO, Giordano MION, & Gianmarco I.P. OTTAVIANO (2012), « Productivity and firm selection: Quantifying the ‘new’ gains from trade », in VoxEU.org, 10 juillet 2012.

MELITZ, Marc J. (2003), « The impact of trade on intra-industry reallocations and aggregate industry productivity », in Econometrica, vol. 71, n° 6.

MELITZ, Marc J., & Stephen J. REDDING (2012), « Heterogeneous firms and trade », NBER working paper, n° 18652, décembre.

MELITZ, Marc J., & Daniel TREFLER (2012), « Gains from trade when firms matter », in Journal of Economic Perspectives, vol. 26, n° 2.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher