Overblog
Suivre ce blog Administration + Créer mon blog
12 février 2013 2 12 /02 /février /2013 23:50

Les actifs sûrs (safe assets) sont la pierre angulaire des systèmes financiers. Il s’agit essentiellement de titres de dette publique et de titres de dette privée à haute qualité, notamment des titres adossés sur actifs. Ils offrent une réserve de valeur sûre, servent de collatéraux dans les transactions financières, satisfont aux exigences prudentielles et servent de référence dans la fixation du prix des autres actifs, c’est-à-dire des actifs risqués. En effet, parce qu’ils sont insensibles aux informations, ces actifs sont particulièrement liquides et peuvent stocker la valeur sans que les agents aient à craindre des pertes en capital lors des périodes de turbulences financières. Sous la contrainte de la réglementation prudentielle, les banques s’appuient alors sur les actifs sûrs pour renforcer leurs réserves de capital et de liquidité.

Au cours des années deux mille, la croissance rapide des pays émergents, dans un contexte où leur développement financer demeurait fragile, s'est traduit par une plus forte demande pour les actifs sûrs et a ainsi entraîné une pénurie de ces actifs au niveau mondial. L’excédent d’épargne des économies émergentes s’est massivement placé dans les bons du Trésor américains et en titres adossés sur des créances hypothécaires. Les taux d’intérêt à long terme ont diminué, alimentant (et justifiant) une plus grande prise de risque de la part des agents privés et contribuant ainsi au gonflement des déséquilibres globaux. La titrisation des actifs risqués a, d’une part, permis à l’économie américaine de fonder sa croissance sur l'endettement et les dépenses des ménages. D'autre part, elle a permis aux entités financières des pays avancés de générer une importante masse d’actifs (jugés) sans risque et ceux-ci ont fini par soutenir l’ensemble du système financier.

La pénurie d’actifs sans risque est susceptible de générer de l’instabilité financière et lorsque la crise survient, elle amplifie la pénurie qui l’a engendrée [Gourinchas et Jeanne, 2012]. En temps normal, les prêteurs ne sont en effet pas incités à s’informer de la valeur des actifs produits par le secteur privé que les entreprises utilisent comme collatéraux pour emprunter, si bien qu’un large montant d’actifs peut être utilisé pour soutenir l’emprunt dans l’économie. Une crise éclate quand la publication de mauvaises nouvelles incite les prêteurs à s'informer de la valeur des actifs produits par le secteur privé, ce qui les amène à ne prêter qu’aux seules entreprises disposant d’actifs de haute qualité et à réduire la gamme d’actifs qu’elles acceptent comme collatéraux [Gorton et Ordoñez, 2013]. En l’occurrence, la crise financière a éclaté en 2007 lorsque nombre des actifs privés générés depuis le début de la décennie ont perdu leur statut d’actifs sûr, ce qui mena le système financier mondial au bord de l’effondrement. L’économie mondiale a subi une hausse brutale de l’aversion au risque et du taux d’épargne des agents privés. Le désendettement des entités financières s’est traduit par une course vers la sécurité (fly to safety), c’est-à-dire finalement par un brutal accroissement de la demande d’actifs sûrs alors même que leur offre se contractait tout aussi rapidement.

Dans ce contexte de spirale déflationniste sur les marchés financiers et de ralentissement de l’activité réelle, l’action des administrations publiques a joué en parallèle deux fonctions pour (tenter de) ramener l’économie au plein emploi [Brender et alii, 2012]. D’une part, le creusement du déficit a permis d’amortir le choc macroéconomique ; les dépenses publiques ont partiellement compensé la chute de la demande globale. D’autre part, l’émission de dette publique a permis d’accroître l’offre d’actifs sans risque ; le système financier a absorbé ces titres et produit en contrepartie les placements que recherchaient les épargnants.

Cette nature stabilisatrice des actifs publics est difficilement appréhendable dans un cadre néoclassique standard. D'après l’équivalence ricardienne, les ménages internalisent la contrainte budgétaire du gouvernement, si bien que la manière par laquelle l’Etat finance ses dépenses importe peu. Que ce financement passe par l'emprunt ou par l'impôt, les ménages réduisent dans tous les cas leurs dépenses pour payer le surcroît d’impôts dans la période courante ou anticiper les impôts supplémentaires qui seront exigés à l’avenir. Ce résultat nécessite toutefois que les marchés des capitaux soient parfaits. Le statut des actifs publics brise toute équivalence ricardienne [Gorton et Ordoñez, 2013]. Lors d’une crise, les actifs privés ne peuvent être utilisés de façon satisfaisante comme collatéraux. Lorsque les agents privés sont soumis à des contraintes de liquidité, les titres publics fournissent des services de liquidité. Ils peuvent remplacer les actifs privés, accroître la richesse des agents privés et permettre un relâchement des contraintes d’endettement auxquels ces derniers font face. Puisque l’endettement devient préférable à l’imposition, l’équivalence ricardienne est brisée. Gorton et Ordoñez (2013) notent toutefois qu’il existe des limites à l’utilisation des titres publics comme collatéraux. Si les titres sont détenus par le reste du monde, ils ne peuvent plus couvrir les impôts, si bien que la pression fiscale s’accroît dans l’économie nationale. Malgré cela, il reste optimal pour l’Etat d’émettre de la dette lors des périodes d’instabilité macroéconomique.

Pierre-Olivier Gourinchas et Olivier Jeanne (2012) notent de leur côté que les autorités budgétaires doivent nécessairement se coordonner avec les autorités monétaires pour que les actifs publics puissent pleinement jouer leur rôle stabilisateur. Lors de la Grande Récession, l’offre d’actifs sûrs s’est à nouveau contractée quand la détérioration des ratios d’endettement public a conduit à une dégradation des notations et par là à la crise de la dette souveraine dans la zone euro. La perte du statut d’actif sans risque a mis les emprunts d’Etat directement en concurrence avec les titres privés comme placement pour les épargnants. Les autorités publiques perdent alors une marge de manœuvre dans leur gestion de l’activité, si bien que l’économie mondiale pourra difficilement revenir au plein emploi. En période d’instabilité macroéconomique, c’est-à-dire à un instant où les agents privés sont réticents à prendre davantage de risques, cette mutation des titres publics en actifs risqués menace directement la stabilité du système financier. Seule la banque centrale peut intervenir pour assurer la stabilité macrofinancière en élargissant autant que nécessaire la taille de son bilan et en absorbant par là le volume de risque que les agents privés refusent de porter [Brender et alii, 2012].

 

Références Martin ANOTA

BRENDER, Anton, Emile GAGNA & Florence PISANI (2012), La Crise des dettes souveraines, La Découverte.

GORTON, Gary B., & Guillermo ORDOÑEZ (2013), « The supply and demand for safe assets », NBER working paper, n° 18732, janvier.

GOURINCHAS, Pierre-Olivier, & Olivier JEANNE (2012), « Global safe assets », Banque des règlements internationaux, working paper, n° 399, décembre.

Partager cet article
Repost0
9 février 2013 6 09 /02 /février /2013 18:59

Dans l’optique néoclassique, une économie peut générer de la croissance en accroissant la quantité de facteurs de production, c’est-à-dire en relevant l'offre de travail, en investissant dans l’éducation et en accumulant du capital productif. Cette croissance, qualifiée d’« extensive », se double d’une croissance « intensive » reposant sur les avancées technologiques. A long terme, le progrès technique serait le principal déterminant de l’élévation du niveau de vie des populations. Autrement dit, une diminution du taux d’innovation se traduirait par une décélération du taux de croissance potentielle, auquel cas l'économie est susceptible de converger vers un état stationnaire à la Solow.

Une telle éventualité a récemment été soulevée par Tyler Cowen (2011), auteur du blog Marginal Revolution. Selon lui, la Grande Récession aurait dissimulé des tendances plus lourdes et plus dramatiques, celles d’une grande stagnation (great stagnation) qui ne s’achèvera que dans plusieurs décennies. Non seulement les facteurs de la croissance extensive sont sujets à des rendements décroissants, mais l’innovation aurait également atteint un « plateau technologique », si bien que la croissance ne peut que durablement ralentir. Cowen cite notamment les travaux de Charles Jones (2002). Ce dernier avait étudié la contribution des différents facteurs à la croissance des revenus par tête aux Etats-Unis entre 1950 et 1993. Il en avait conclu que si 20 % de la croissance américaine pouvaient être attribués à la croissance de la population, 80 % de la croissance économique provenaient de la hausse du niveau de scolarité et de la plus grande intensité de la recherche, c’est-à-dire de l’essor de la main-d’œuvre dans les industries génératrices d’idées. Comme ces deux variables ne peuvent plus continuer à progresser, la croissance devrait ralentir.

Encore plus récemment, Robert Gordon (2012) fit preuve d’un plus grand pessimisme dans son provocateur « Is U.S. economic growth over? ». Il identifie au cours de ces deux siècles et demi trois révolutions industrielles (RI). La première se déroula de 1750 à 1830 et généra la vapeur et le réseau ferroviaire. La deuxième, la plus importante, s’étala de 1870 à 1900 et engendra entre autres l’électricité, le moteur à combustion interne, l’eau courante, les communications, la chimie et le pétrole. La troisième se déroula de 1960 à 2005 et offrit les ordinateurs, internet et les téléphones mobiles. Chacune de ces phases a été suivie par une période d’expansion économique, en particulier la deuxième : la productivité connut une croissance relativement rapide entre 1890 et 1972. Une fois que les innovations de la deuxième RI ont été pleinement exploitées, la croissance entre 1972 et 1996 fut plus lente qu’auparavant. La troisième RI ne s’est traduite que par une courte période de forte croissance entre 1996 et 2004. Aucune des innovations qu’elle aura générées n’a été aussi influente que celles du passé. Avec le ralentissement de la productivité observé depuis 1970, le taux de croissance du revenu mondial pourrait retrouver ses valeurs d’avant la première RI, c’est-à-dire avoisiner zéro. Les rapides progrès de ces 250 dernières années n’auront donc constitué qu’un épisode unique dans l’histoire économique.

Six « vents contraires » (headwinds) viennent en outre assombrir les perspectives de croissance à long terme des Etats-Unis et de plusieurs économies avancées. Le vieillissement de la population se traduit par une baisse du taux d’activité et de la productivité ; le niveau de scolarité atteint un plateau aux Etats-Unis ; les inégalités de revenu progressent ; la mondialisation, à travers la concurrence des pays émergents et la délocalisation des activités productives en leur sein, exerce une pression à la baisse sur les salaires des pays avancés ; la gestion de la crise environnementale réduira le budget des ménages ; enfin, le désendettement du secteur privé et la charge de la dette publique vont également compresser le revenu disponible et par là les dépenses de consommation.

La thèse du pessimisme technologique a rencontré de nombreuses critiques. En outre, cette idée d’une stagnation durable n’est pas nouvelle. Selon Gary Becker (2012) et Matthew Klein (2012), elle semble regagner en popularité à chaque fois que l’économie connaît un ralentissement prolongé de l’activité. (En revanche, les périodes d’expansion économique tendent à convaincre les gens que la croissance va se poursuivre indéfiniment.) Alvin Hansen affirmait à la fin des années trente que les Etats-Unis subissaient alors une « stagnation séculaire » (secular stagnation) : les bonnes performances qu’avait pu connaître par le passé l’économie américaine résultaient de dynamiques favorables qui ne pouvaient être exploitées qu’une seule fois, qu’il s’agisse de l’innovation technologique ou de la croissance démographique. La haute croissance des trente glorieuses a été un radical démenti à la thèse d’Hansen.

William Janeway (2013) souligne quant à lui un défaut évident dans l’argumentation de Gordon. Selon ce dernier, les effets de la troisième RI sur la productivité se seraient dissipés après seulement huit années, alors qu’il fallut plus de huit décennies pour que la deuxième RI porte ses fruits. Gordon choisit de mettre un terme à la troisième RI en 2005, soit 45 ans après ses débuts, mais moins de la moitié du temps donné aux première et deuxième RI pour suivre leur cours. Cela revient à juger de l’impact économique de l’électricité seulement 45 ans après l’implantation de la première usine électrique en 1882, c’est-à-dire à une date où les industries manufacturières ne découvraient qu’à peine les bénéfices de cette énergie pour leur organisation interne et où l’industrie électroménagère n’en était qu’à ses balbutiements. En troquant la révolution des TIC, Gordon néglige notamment le fait que le développement du commerce en ligne et surtout des intelligences artificielles n’en est qu’à ses prémices.

Selon Daron Acemoglu et James Robinson (2012), deux éléments clés sont absents du débat. Tout d’abord, le processus d’innovation, comme toute activité économique, est une quête de profit ; il répond donc aux incitations. Les deux auteurs reprennent l’exemple de Schmookler : la demande accrue de transport s’était traduite par une plus forte demande pour les fers à cheval, si bien qu’il y eut un taux d’innovation très élevé pour le fer à cheval tout au long de la fin du dix-neuvième et au début du vingtième siècle ; les innovations se sont par la suite taries en raison de la concurrence du moteur de traction à vapeur, puis du moteur à combustion interne. Aujourd’hui, lorsque le gouvernement accroît sa demande pour certains vaccins, les sociétés pharmaceutiques réagissent en multipliant les essais cliniques. Ou encore, les changements démographiques se traduisent par une expansion du marché pour différents types de médicaments et ainsi par la découverte de nouveaux médicaments. Puisqu’il est difficile de prévoir où les incitations à innover seront fortes, il est difficile de prédire où émergeront les innovations. Ainsi, ce n’est pas parce que nous connaissons les grandes innovations du passé et reconnaissons qu’elles ont été formidables, que nous pouvons en déduire que les innovations futures ne les égaleront pas. Cela dit, il ne faut pas faire l’erreur inverse de Gordon : croire que les innovations futures seront forcément révolutionnaires et permettront, par exemple, de résoudre la crise environnementale. L’expérience passée suggère en revanche que tant qu’il y aura des incitations, les innovations suivront.

Ensuite, Acemoglu et Robinson (2013) regrettent que la question institutionnelle soit absente du débat, alors qu’elle devrait au contraire être placée en son centre. L’innovation découle en effet d’institutions inclusives, c’est-à-dire d’ensembles de règles permettant aux agents de prendre librement leurs décisions. Ce sont ces règles qui déterminent la capacité de la société à exploiter la créativité, les compétences et les idées, soit son potentiel de croissance. S’interroger sur les perspectives de croissance revient alors à se demander si les institutions inclusives continueront à se développer à l’avenir ou bien si elles déclineront. Le processus d’innovation risque en effet de se tarir si les institutions deviennent extractives, c’est-à-dire si elles ne bénéficient qu’à une seule minorité au détriment du reste de la population. Le risque est alors de gâcher une masse considérable de talents. En l’occurrence, si la Rome antique se révéla incapable d’innover, non pas parce ce qu’elle atteignit les limites de sa capacité innovatrice, mais parce que ses institutions devinrent extractives.

Même parmi les détracteurs, beaucoup partagent l’idée de Gordon selon laquelle le creusement des inégalités va comprimer le potentiel de croissance au cours des prochaines décennies. Ce n’est pas le cas de l’optimiste Dave Altig (2013), pour lequel ce « vent contraire » pourrait au contraire constituer le signe d’une prochaine accélération de la croissance. L’adoption de nouvelles technologies peut en effet impliquer un coût substantiel en termes d’apprentissage, or seule la main-d’œuvre qualifiée s’avère avantagée dans cet apprentissage. Dans un premier temps, le manque d'expérience va donc empêcher l’économie de pleinement exploiter des nouvelles technologies. La demande pour la main-d’œuvre qualifiée va s’accroître, la prime de qualification (skill premium), c’est-à-dire le différentiel de salaire entre travailleurs qualifiés et non qualifiés, va alors s’élever et les inégalités de revenus se creuser. L'économie investit dans le capital humain pour accroître la quantité de main-d’œuvre qualifiée, mais cet investissement n’est pas mesurable, si bien que la croissance de la productivité semble décrocher durant cette période. Une fois que la main-d’œuvre qualifiée est suffisante, l’économie peut alors exploiter tous les potentiels des nouvelles technologies, si bien que la productivité s’élève et la prime de qualification diminue. Selon Greenwood et Yorukoglu (1997), l’accélération du progrès technique s’est à plusieurs reprises accompagnée au cours de l’histoire d’un creusement des inégalités et d’un ralentissement de la croissance de la productivité. Ces trois dynamiques auraient notamment coïncidé au milieu du dix-neuvième siècle, la période riche en avancées technologiques qui mena finalement à l'âge d'or de Gordon. Par conséquent, Dave Altig suggère que le creusement des inégalités que l’on peut observer depuis quelques décennies pourrait finalement préfigurer une accélération de la croissance de la productivité dans un proche avenir.

 

Références Martin ANOTA

ACEMOGLU, Daron, & James ROBINSON (2013), « The End of Low Hanging Fruit? », in Why Nations Fail (blog), février.

ALTIG, Dave (2013), « Half-full glasses », in macroblog, 1er février. Traduction française disponible ici.

BECKER, Gary (2012), « Will long-term growth slow down? », in The Becker-Posner blog, 10 juillet.

COWEN, Tyler (2011), The Great Stagnation: How America Ate All the Low-hanging Food of Modern History, Got Sick, and Will (Eventually) Feel Better.

The Economist (2013), « Has the ideas machine broken down? », 12 janvier.

GORDON, Robert (2012), « Is US economic growth over? Faltering innovation confronts the six headwinds », CEPR Policy Insight, n° 63.

GREENWOOD, Jeremy, & Mehmet YORUKOGLU (1997), « 1974 », Carnegie-Rochester Conference Series on Public Policy, vol. 46, n° 1, juin.

JANEWAY, William (2013), « Growth out of time », in Project Syndicate, 17 janvier. Traduction française, « La temporalité de la croissance ».

JONES, Charles I. (2012), « Sources of U.S. economic growth in a world of ideas », in American Economic Review, vol. 92, n° 1, mars.

KLEIN, Matthew C. (2012), « Was that it? », in Free Exchange (blog), 8 septembre.

Partager cet article
Repost0
6 février 2013 3 06 /02 /février /2013 20:31

Les mouvements de capitaux se sont intensifiés avec le processus d’intégration financière opéré au niveau mondial. Le maintien actuel des taux directeurs à un faible niveau dans les économies avancées a suscité un véritable débat sur la nature de la liquidité mondiale, sa transmission d’une économie à l’autre et sur ses risques potentiels. Suite à la crise financière, les pays émergents, qui avaient été épargnés par les booms d’endettement au cours des années deux mille, ont fait face à d’importants afflux de capitaux, en raison de leur plus grande résilience lors de la Grande Récession et des meilleurs rendements qu’ils offraient par rapport aux économies avancées. Selon un point de vue répandu, les faibles taux directeurs et les achats d’actifs par les banques centrales des pays avancés seraient un vecteur clé dans les mouvements internationaux de capitaux. Ces derniers sont susceptibles de se traduire par une expansion excessive du crédit dans les pays destinataires et finalement par une surchauffe de leur économie susceptible de se solder par une crise.

Pierre-Olivier Gourinchas et Maurice Obstfeld (2012) ont mené une analyse empirique pour la période s’étalant de 1973 à 2010 afin d’identifier les déterminants des crises financières. Ils constatent que la hausse rapide du levier d’endettement et la brutale appréciation du taux de change réel constituent deux prédicteurs particulièrement significatifs des crises financières. Ce résultat est vérifié aussi bien pour les économies avancées que pour les économies émergentes. Cette conclusion est également partagée par Alan Taylor (2012) dans son étude historique. D’autres analyses affirment que les afflux massifs de capitaux entraînent des booms sur les marchés du crédit et des actifs. Cherchant à concilier ces deux courants de la littérature, César Calderón et Megumi Kubota (2012) observent de leur côté un échantillon de 71 pays pour la période s’étalant de 1975 à 2010. Ils constatent que l’accumulation des flux de capitaux tend à précéder les booms sur les marchés du crédit.

Poursuivant directement l’analyse de Gourinchas et Obstfeld, Valentina Bruno et Hyun Song Shin (2012) se demandent comment la politique monétaire des pays avancés peut influencer le levier d’endettement et les taux de change réels dans les économies récipiendaires des flux de capitaux. Ils vont se focaliser sur un canal souvent négligé de la politique monétaire, celui qui a reçu le nom de « canal de la prise de risque » (risk-taking channel) depuis les travaux de Claudio Borio et Haibin Zhu (2008). Ce mécanisme de transmission donne un rôle crucial au secteur bancaire dans le façonnement des conditions financières et des primes de risque au cours du cycle. Les banques sont en effet des intermédiaires qui empruntent à court terme et prêtent à long terme, si bien que la rentabilité des nouveaux prêts dépend de l’écart entre les deux taux, c’est-à-dire l’écart à terme (term spread). Comme les taux longs sont moins sensibles aux variations des taux directeurs que les taux courts, la politique monétaire peut influer sur le spread de terme, ce qui permet aux banques centrales de jouer sur la prise de risque des banques et par là de peser sur l’activité économique.

Bruno et Shin explorent alors les implications du canal de prise de risque dans un contexte international en mettant l’accent sur l’activité transfrontalière des banques mondiales, c’est-à-dire sur les flux de capitaux entre la société-mère et ses filiales à l’étranger. Par exemple, un assouplissement de la politique monétaire de la Fed se traduit par une diminution des coûts de financement en dollar auxquels font face les banques dans les économies récipiendaires des flux de capitaux (typiquement les pays émergents). Ces banques prennent alors plus de risques en prêtant davantage aux agents domestiques. Les entrées de capitaux entraînent une appréciation de la devise du pays récipiendaire, ce qui améliore le bilan des emprunteurs domestiques. Comme ces derniers apparaissent alors moins risqués aux yeux des banques, celles-ci vont leur concéder encore davantage de crédit. Un cercle vertueux est donc temporairement à l’œuvre, l’appréciation de la devise et le crédit se renforçant alors mutuellement. Lorsque le cycle se retourne, le mécanisme d’amplification joue cette fois-ci en sens inverse et la situation financière des banques et des emprunteurs se détériore violemment.

Bruno et Shin vont alors examiner comment fonctionne le canal de prise de risque en contexte international à travers un modèle autorégressif (VAR). Ils cherchent à observer comment les bilans s’ajustent en réponse aux changements de la politique monétaire américaine. Pour cela, ils vont se pencher sur la relation entre l’indice VIX de la volatilité des options sur les actions américaines et le taux directeur de la Réserve fédérale, en l’occurrence le taux des fonds fédéraux. Les précédentes études avaient mis en évidence une boucle rétroactive entre les deux variables : une baisse du Fed funds rate est suivie par un amortissement de l’indice VIX, tandis qu’une hausse de ce dernier est suivie par une réduction du taux des fonds fédéraux [Bekaert et alii, 2012].

Bruno et Shin constatent, tout d’abord, qu’une hausse de l’indice VIX provoque un élargissement de l’écart à terme, ce qui suggère que les participants au marché s’attendent alors à une réduction imminente du taux des fonds fédéraux ; un élargissement de l’écart à terme est suivi par une réduction du taux directeur au cours des trimestres suivants. L’écart à terme influence donc effectivement les conditions de marché. En outre, l’analyse révèle qu’un écartement du term spread se traduit par un rythme accru des mouvements de capitaux à travers les opérations transfrontalières des banques mondiales. Le cycle du levier d’endettement des banques mondiales apparaît au cœur des mouvements des capitaux propres au secteur bancaire ; ce cycle se traduit par des fluctuations dans la liquidité mondiale et celles-ci expliquent (en partie) l’expansion du crédit dans les pays récipiendaires des flux de capitaux. Le canal de prise de risque de la politique monétaire s’opère donc effectivement via la gestion de bilan des banques mondiales. Le processus de globalisation financière, en rendant ce mécanisme de transmission plus prégnant, participe ainsi par ce biais-là à fragiliser la stabilité financière mondiale. Or les banques centrales tendent à le délaisser dans leur analyse et leur prise de décision, donc à sous-évaluer les répercussions extérieures de leur politique monétaire.

 

Références Martin ANOTA

BEKAERT, Geert, Marie HOEROVA & Marco LO DUCA. (2012). « Risk, uncertainty and monetary policy,” Banque nationale de Belgique, working paper.

BORIO, Claudio, & Haibin ZHU (2008), « Capital regulation, risk-taking and monetary policy: a missing link in the transmission mechanism? », Banque des règlements internationaux, working paper, n° 268, décembre.

BRUNO, Valentina, & Hyun Song SHIN (2012), « Capital flows and the risk-taking channel of monetary policy », Banque des règlements internationaux, working paper, n° 400, décembre.

CALDERÓN, César, & Megumi KUBOTA (2012b), « Gross inflows gone wild: Gross capital inflows, credit booms and crises », Banque mondiale, Policy research working paper, n° 6270, novembre.

GOURINCHAS, Pierre-Olivier, & Maurice OBSTFELD (2012), « Stories of the twentieth century for the twenty-first », in American Economic Journal: Macroeconomics, vol. 4, n° 1.

TAYLOR, Alan M. (2012), « External imbalances and financial crises », NBER working paper, n° 18606, décembre.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher