Overblog
Suivre ce blog Administration + Créer mon blog
22 juin 2013 6 22 /06 /juin /2013 12:26

Dans les pays avancés, la politique budgétaire a joué un rôle significatif dans la réduction des inégalités de revenu à long terme. Entre 1985 et 2005, la politique budgétaire (à travers les impôts sur le revenu direct et les transferts) diminue annuellement le Gini moyen d’environ 15 points de pourcentage (soit environ d’un tiers) dans les pays de l’OCDE [Bastagli et alii, 2012]. Toutefois, de nombreuses dynamiques (parmi lesquelles figurent la mondialisation, le progrès technique ou l’essor de la finance) tendent depuis quelques décennies à accroître les inégalités avant transferts. Plus récemment, la mise en place de réformes réduisant la progressivité du système fiscal a diminué l’impact redistributif de la politique budgétaire. 

La Grande Récession a exacerbé les pressions pesant sur les finances publiques et incité les Etats à entreprendre de nouvelles réformes. En effet, les faibles conditions économiques se traduisent par de moindres prélèvements obligatoires ; parallèlement, le jeu des stabilisateurs automatiques, les plans de relance et le renflouement des banques en difficulté entraînent une hausse des dépenses publiques. Depuis 2010, de nombreux Etats ont alors pris plusieurs mesures visant à réduire les déficits publics et à stabiliser la trajectoire de l’endettement public en combinant hausses des prélèvements obligatoires et baisses des dépenses publiques. Or, si ces mesures sont prises trop tôt, elles peuvent retarder la reprise de l’économie et au final de se traduire, non pas par une stabilisation de l’endettement public, mais par une nouvelle détérioration des finances publiques. Elles sont en outre susceptibles de conduire à un creusement des inégalités de revenus. En effet, les couches les plus populaires de la société sont les plus exposées à la crise. Comme elles sont en outre les plus dépendantes de l’action publique, elles sont également les plus susceptibles d’être fragilisées par les plans d’austérité. 

Si les répercussions des plans d'austérité sur l’activité économique et sur l’endettement public ont fait l’objet d’une multitude d’analyses, leur impact proprement dit sur les inégalités de revenu a été beaucoup moins exploré. Laurence Ball, Davide Furceri, Daniel Leigh et Prakash Loungani (2013) viennent de creuser cette question dans un document de travail préparé pour le Fonds monétaire international. Ils ont ainsi observé les différents épisodes de consolidation budgétaire qui ont été entrepris dans 17 pays de l’OCDE entre 1978 et 2009.

Ball et alii constatent que les épisodes de consolidation budgétaire ont effectivement pour conséquence d’accroître les inégalités : en moyenne, les plans d’austérité se traduisent par une hausse de l’indice de Gini de 0,1 point de pourcentage un an après leur mise en place (soit environ 0,4 %), mais de 0,9 point de pourcentage (soit environ 3,4 %) huit ans après. Lorsque les auteurs distinguent les consolidations selon qu’elles se basent sur une réduction des dépenses ou bien sur une hausse des impôts, ils constatent que les ajustements opérés via les dépenses ont eu, en moyenne, les répercussions les plus larges sur la répartition : les inégalités de revenu s’accroissent d’environ 1 point de pourcentage lorsque la consolidation passe par un ajustement des dépenses et de 0,6 point de pourcentage lorsque les mesures concernent les impôts. Ce résultat ne surprend pas les auteurs, puisque selon eux, dans les économies avancées, l’impact direct de la politique budgétaire sur les inégalités s’opère du côté des dépenses. Lorsque l’activité ralentit, la hausse des dépenses qui est associée au versement d’allocations et d’aides contribue à contenir les inégalités de revenu en compensant les pertes du revenu du travail et en soutenant la demande.

Ensuite, Ball et alii constatent que les plans de consolidation budgétaire réduisent en général la part des revenus rémunérant les travailleurs. Cet effet passe déjà par un canal direct : certains plans d’austérité comprennent une réduction des rémunérations dans le secteur public. Il peut également y avoir des canaux plus indirects. Les consolidations accroissent par exemple le chômage et notamment le chômage à long terme. La perte d’emploi affecte les gains futurs du travailleur, dégrade sa santé et bouleverse la trajectoire socioprofessionnelle de ses enfants en dégradant leurs performances scolaires, donc leurs propres perspectives de rémunération. Plus la durée de chômage est longue, plus ces impacts sont importants. Or, les populations les plus exposées au chômage sont précisément celles disposant des plus faibles qualifications, si bien qu’elles risquent de s’enfermer dans une trappe à inactivité et dans la pauvreté. Plus le travailleur passe de temps au chômage, moins il aura de chances d’être embauché, puisqu’il perd peu à peu de ses compétences et tend à s’exclure de la population active. Au niveau agrégé, il existe un effet d’hystérèse (ou d’hystérésis) : le chômage risque de s’enkyster et de devenir un problème structurel. Ball et alii constatent que les consolidations budgétaires conduisent effectivement à une hausse durable du chômage à long terme, ce qui les amène à valider ce canal de transmission.

Depuis le milieu des années quatre-vingt-dix, les inégalités de revenu disponible se sont accrues plus rapidement que les inégalités du revenu de marché en raison de la moindre générosité de la protection sociale et de la moindre progressivité des impôts [Bastagli et alii, 2012]. Les plans d’austérité qui ont été menés dans le sillage de la Grande Récession vont accroître cette tendance, or celle-ci n’est pas sans avoir de multiples répercussions macroéconomiques. La consolidation tend déjà par elle-même à directement réduire la demande globale ; la hausse des inégalités va également peser sur l’activité et retarder la reprise, ce qui compromet le retour de l'endettement public sur une trajectoire plus soutenable. En poursuivant leur hausse, les inégalités de revenu demeurent en outre un facteur d’instabilité financière.

 

Références 

AGNELLO, Luca, & Ricardo M. SOUSA (2012), « How does fiscal consolidation impact on income inequality? », Banque de France, document de travail, n° 382, mai.

BALL, Laurence, Davide FURCERI, Daniel LEIGH & Prakash LOUNGANI (2013), « The distributional effects of fiscal austerity », IMF working paper, n° 13/51, 21 juin.

BASTAGLI, Francesca, David COADY & Sanjeev GUPTA (2012), « Income inequality and fiscal policy », IMF staff discussion note, n° SDN/12/08, 27 septembre.

Partager cet article
Repost0
19 juin 2013 3 19 /06 /juin /2013 22:53

Ces dernières décennies ont été marquées par une plus grande volatilité des prix des actifs (actions, obligations, logements, etc.). Ces derniers peuvent ainsi régulièrement connaître des périodes de hausses rapides suivies par de violents effondrements. Dans les pays avancés, l’apparente stabilité macroéconomique observée lors de la Grande Modération (great moderation) dissimula l’accumulation de profonds déséquilibres. De nombreux marchés boursiers, puis immobiliers ont connu la formation de bulles spéculatives au cours des années deux mille ; la hausse des cours boursiers et des prix immobiliers alimenta le crédit et celui-ci nourrit en retour la spéculation. Si ces dynamiques stimulent dans un premier temps la croissance économique, le retournement des prix d’actifs provoque un large mouvement de désendettement et conduit à un ralentissement de l’activité. Pour faciliter le nettoyage des bilans et atténuer la sévérité du choc, les banques centrales ont alors à assouplir leur politique monétaire. L’extrême sévérité de la crise du crédit subprime a conduit les autorités monétaires à placer leurs taux à leur borne inférieure zéro (zero lower bound) et à adopter des mesures non conventionnelles.

L’une des questions qui se pose est si la politique monétaire doit répondre au gonflement des bulles spéculatives sur les marchés d’actifs. Le rôle de la politique monétaire face aux prix d’actifs faisait déjà l’objet d’un intense débat avant la crise du crédit subprime. Le consensus entre de nombreux théoriciens et banquiers centraux était alors que les banques centrales ne devaient qu’assurer la stabilité des prix et minimiser l’écart de production (output gap). Dans cette optique, la politique monétaire ne répond aux variations des prix d’actifs que si ces derniers amènent la banque centrale à réviser ses anticipations d’inflation. Par exemple, si les cours boursiers augmentent, les actionnaires profitent de la hausse de la valeur patrimoniale pour consommer davantage. Le surcroît de demande qui en résulte s’accompagnera alors de tensions inflationnistes. Les autorités monétaires doivent ainsi tenir compte de l’effet de richesse associé aux booms boursiers dans leurs anticipations d’inflation. En outre, pour certains, la stabilité des prix contribue elle-même à renforcer la stabilité financière. Selon Anna Schwartz, la volatilité du niveau général des prix brouille les perspectives de rendements futurs, ce qui fragilise l’activité de crédit. Puisque l’inflation conduit les agents à surestimer la rentabilité des projets d’investissement et par conséquent la capacité de remboursement des emprunteurs, les taux de défaut de paiement sont  susceptibles de s’élever, les prêteurs de faire par conséquent faillite et les réactions en chaîne d’amorcer une crise financière. Aux yeux des monétaristes, la stabilité des prix permet aux investisseurs et épargnants de mieux juger des opportunités de profit et l’économie alloue alors plus efficacement les facteurs dans l’économie. 

Pour d’autres, la stabilité des prix est loin de garantir la stabilité financière et ils appellent alors les banques centrales à prendre véritablement en compte l’évolution des marchés financiers. Des autorités monétaires qui ne se focaliseraient sur le maintien de la stabilité des prix peuvent ainsi laisser les déséquilibres macrofinanciers s’accumuler au seul motif que ceux-ci ne se traduisent pas par des pressions inflationnistes. Or, il y a effectivement eu une déconnexion entre les prix des biens et services et les prix des actifs ces dernières décennies : les premiers tendent à rester stables, tandis que les seconds ont fortement gagné en volatilité. La réaction des banques centrales risque alors d’être asymétrique : elles n’ajustent pas leur taux directeur lorsque les prix d’actifs s’envolent, mais elles assouplissent en revanche leur politique monétaire lorsque les prix d’actifs s’effondrent car leur chute est susceptible de fortement  déprimer l’activité économique et d’amorcer un processus déflationniste ; autrement dit, elles ne réagissent aux bulles que lorsqu’elles éclatent. Non seulement la stabilité des prix n’est pas suffisante pour assurer la stabilité macroéconomique, mais elle peut aussi alimenter les déséquilibres financiers en réduisant les primes de risque et en incitant à la prise de risque. Les banques centrales contribuent elles-mêmes à insuffler de façon erronée un sentiment de sécurité. Rassurés à l’idée que la banque centrale interviendra si l’activité est menacée, les agents économiques prennent davantage de risques : c’est le paradoxe de la crédibilité (paradox of credibility) pour reprendre les termes de Claudio Borio et alii (2003). En formulant une telle idée, les économistes de la Banque des Règlements Internationaux rejettent ainsi l’hypothèse de Schwartz.

Puisque les épisodes de hausses rapides des prix d’actifs se soldent souvent par une crise financière et par une forte contraction de l’activité économique, certains appellent les banques centrales à réagir préventivement en relevant les taux directeurs lors de booms sur les marchés d’actifs pour limiter l’ampleur de la spéculation. Elles ciblent déjà l’inflation ; elles pourraient également cibler les prix d’actifs. En faisant éclater la bulle au plus tôt, les autorités monétaires épargneraient à l’économie les coûts macroéconomiques associés crises financières. Cette question d’un éventuel ciblage des prix d’actifs se pose à nouveau aujourd’hui, puisque la faiblesse des taux directeurs et les mesures non conventionnelles de politique monétaire sont susceptibles de stimuler les prises de risque inconsidérées et d’alimenter des bulles. En effet, si les autorités monétaires doivent réagir à une crise financière en baissant leurs taux directeurs, le relâchement des conditions de financement qui s’ensuit est susceptible d’alimenter une nouvelle bulle, en particulier si l’assouplissement monétaire est durable. Certains accusent ainsi la Fed d’avoir été responsable de la bulle immobilière aux Etats-Unis en laissant ses taux directeurs trop longtemps trop bas suite à l’éclatement de la bulle internet en 2000.

Aujourd’hui encore, les autorités monétaires sont confrontées à un douloureux dilemme : les taux directeurs sont peut-être trop élevés pour suffisamment stimuler l’activité, mais aussi bien trop faibles pour ne pas inciter les agents financiers à prendre des prises excessifs dans leur quête de rentabilité, or ni l’une, ni l’autre de ces éventualités n’est certaine. Un relèvement précoce des taux directeurs pourrait peut-être assurer la stabilité financière, mais en compromettant la reprise de l’activité ; tarder dans le resserrement monétaire ferait courir le risque qu’une nouvelle crise financière survienne et déprimerait (là aussi) la croissance, alors même que les banques centrales disposent aujourd’hui d’une marge de manœuvre beaucoup plus limitée qu’en 2007. Si les banques centrales réagissaient précocement, la probabilité et la sévérité des crises financières seraient atténuées et les banques centrales auraient besoin de moins assouplir leur politique monétaire dans l’éventualité d’une crise.

Ben Bernanke et Mark Gertler (2001) ont rejeté l’idée du ciblage des prix d’actifs. Selon eux, si la banque centrale répondait systématiquement aux hausses de cours boursiers en resserrant leur politique monétaire, ce resserrement n’aurait pas le même impact sur l’économie selon les causes de cet essor et il pourrait se révéler particulièrement dommageable dans certains cas. En l’occurrence, si la hausse des cours est effectivement due à une spéculation, le relèvement des taux directeurs pourrait a priori limiter les comportements spéculatifs. En revanche, si la hausse des cours est due à des gains de productivité, cette hausse est cohérente avec les fondamentaux, si bien que la banque centrale ne peut qu’endommager l’activité en resserrant sa politique monétaire. Les banques centrales ne peuvent donc réagir indistinctement aux hausses de cours. Elles doivent nécessairement déterminer si la hausse des cours est justifiée ou non au regard des fondamentaux avant d’ajuster leurs taux. Or, il est très difficile de déterminer si la hausse d’un prix résulte de la spéculation, en particulier en temps réel. Bernanke et Gertler en conclut que les autorités monétaires devraient abandonner l’idée de cibler les prix d’actifs. Les banques centrales vont par contre naturellement contenir les emballements spéculatifs en se contentant de réagir sévèrement à l’inflation. Si la hausse des cours boursiers est due à la spéculation, la hausse résultante de la demande globale via les effets de richesse se traduira par une accélération de l’inflation, si bien qu’une banque centrale recherchant la seule stabilité des prix relèvera mécaniquement ses taux directeurs et la spéculation s’en trouvera atténuée. En revanche, si la hausse des cours boursiers est due à des gains de productivité, la banque centrale n’a alors aucune raison d’intervenir à l’égard du boom boursier : les gains de productivité, en accroissant l’offre, poussent les prix des biens et services à la baisse, si bien que la banque centrale pourrait même avoir à diminuer ses taux directeurs pour stimuler la demande et éviter la déflation.

Le raisonnement de Bernanke peut faire l’objet de deux objections. D’une part, la moindre capacité de l’inflation des prix d’actifs à se traduire par une inflation des prix des biens et services ne permet pas au ciblage d’inflation d’assurer la stabilité financière. La Grande Récession est survenue dans un contexte où les banques centrales ciblaient plus ou moins explicitement l’inflation. D’autre part, Stephen Cecchetti et ses coauteurs (2000) affirment que déceler une déconnexion des prix d’actifs d’avec leurs fondamentaux est certes difficile, mais pas impossible. Distinguer entre les composantes fondamentale et spéculative des hausses de prix d’actifs n’est pas plus difficile que de déterminer la production potentielle d’une économie ou le NAIRU, deux agrégats qui jouent un rôle important dans la conduite actuelle de la politique monétaire et que les autorités monétaires cherchent régulièrement à estimer.

D’autres arguments amènent à rester prudent quant à l'introduction de la stabilité des prix d’actifs dans les objectifs des banques centrales [Bernanke, 2002]. Par exemple, les canaux de transmission de la politique monétaire demeurent encore imprécis, donc les autorités monétaires ne peuvent pleinement anticiper la réaction exacte des prix d’actifs et des autres variables économiques à un ajustement donné des taux directeurs. Ensuite, le resserrement monétaire pourrait se révéler insuffisant pour dissiper la spéculation ; en revanche, il peut occasionner de profonds dommages collatéraux en déstabilisant les marchés d’actifs où la spéculation est absente et, plus largement, en pénalisant la croissance économique.  Les banques centrales auraient à fortement relever leur taux d’intérêt pour espérer influencer significativement les prix d’actifs, mais cette action serait particulièrement nuisible à l’activité. Enfin, si les banques centrales poursuivaient explicitement un objectif de stabilité des prix d’actifs, les marchés se révèleraient excessivement confiants dans l’action de la banque centrale visant à assurer la stabilité financière. Le paradoxe de la crédibilité ne disparaitrait donc pas ; l’aléa moral s’en trouverait même aggravé : les agents sont incités à prendre encore davantage de risques. 

Si les banques centrales tirent les vrais enseignements de la Grande Récession, elles devraient davantage se préoccuper de la stabilité financière à l’avenir, si bien qu’elles pourraient revoir leurs objectifs et revenir quelque peu à leur mandat d’origine. Si le taux directeur est un instrument trop grossier pour stabiliser les prix d’actifs, alors même que l’objectif de stabilité financière apparaît essentiel pour la conduite de la politique monétaire, les banques centrales doivent nécessairement se doter d’outils supplémentaires pour atteindre cet objectif. Tout en redéfinissant leur objectifs de politique monétaire au profit de la lutte contre l’inflation, les banques centrales avaient délaissé plusieurs instruments de politique monétaire lors des années soixante-dix et quatre-vingt, notamment l’encadrement du crédit. Les récentes études ont pourtant confirmé le rôle central joué par le crédit dans le gonflement des bulles spéculatives ; en outre, les crises sont d’autant plus sévères que le crédit a initialement alimenté les déséquilibres. Les banques centrales n’ont peut-être pas à ajuster leurs taux pour stabiliser les bulles spéculatives, mais elles peuvent toujours redéployer certains instruments qu’elles jugeaient il y a encore peu de temps archaïques pour assurer la stabilité financière. 

 

Références

AGUR, Itai, & Maria DEMERTZIS (2013), « "Leaning against the wind" and the timing of monetary policy », IMF working paper, n° 13/86, avril.

BERNANKE, Ben S. (2002), « Asset-price "bubbles" and monetary policy », discours à New York, 15 octobre.

BERNANKE, Ben S., & Mark GERTLER (2001), « Should central banks respond to movements in asset prices? », in The American Economic Review, vol. 91, n° 2, mai.

BLANCHARD, Olivier, Giovanni DELL'ARICCIA & Paolo MAURO (2013), « Rethinking macro policy II: Getting granular », IMF staff discussion note, n° SDN/13/03, avril.

BORIO, Claudio, William ENGLISH & Andrew FILARDO (2003), « A tale of two perspectives: Old or new challenges for monetary policy », BIS working paper, n° 127.

CECCHETTI, Stephen, Hans GENBERG, John LIPSKY & Sushi WADHWANI (2000), Asset Prices and Central Bank Policy

GALÍ, Jordi (2013), « Monetary policy and rational asset price bubbles », NBER working paper, février, 18806.

MESONNIER, Jean-Stéphane (2004), « Le Paradoxe de la crédibilité en question », in Bulletin de la Banque de France, n° 122.

SCHWARTZ, Anna (1995), « Why financial stability depends on price stability? », in Economic Affairs, vol. 15, n° 4.

Partager cet article
Repost0
13 juin 2013 4 13 /06 /juin /2013 22:58

La productivité du travail est le principal déterminant de l’amélioration du niveau de vie. Or, sa croissance a fortement diminué aux Etats-Unis au milieu des années deux mille. Si cette tendance se poursuit, les perspectives de croissance à long terme pourraient particulièrement s’assombrir. Tyler Cowen (2011) a été l’un des premiers a suggéré que les Etats-Unis sont entrés dans une grande stagnation (great stagnation), c’est-à-dire dans une période prolongée où les innovations sont déjà largement exploitées et ne peuvent donc plus générer de la croissance. Certains, en particulier Robert Gordon (2012), ont affirmé que les technologies de l’information et de la communication (TIC) ne sont plus à même de stimuler la productivité du travail. Grâce à la révolution informatique, la croissance de la productivité s’était fortement accélérée à partir de 1995, après deux décennies de faible croissance, mais cette troisième révolution industrielle aura finalement été particulièrement courte, en particulier par rapport aux deux premières. Gordon note également que les Etats-Unis font face à de nombreux « vents contraires », tels que la stagnation du niveau d’éducation et la hausse des inégalités de revenu, qui pèsent également sur leurs perspectives de croissance. Pour d’autres encore, comme Erik Brynjolfsson et Andrew McAfee (2011), le progrès technique est encore présent, mais il serait désormais nettement destructeur d’emplois. Autrement dit, les travailleurs seraient entrés dans une « course contre la machine » (race against the machine). Dans l’un et l’autre de ces scénarii, la Grande Récession apparaît finalement comme un épiphénomène au regard de tendances de long terme particulièrement sombres : même sans la crise du crédit subprime, l’activité économique était destinée à durablement ralentir.

Martin Neil Baily, James Manyika et Shalabh Gupta (2013) ont récemment fait part d’un plus grand optimisme concernant les perspectives futures de l’économie américaine. Ils suggèrent en effet que les Etats-Unis pourraient renouer avec leurs performances macroéconomiques de la fin des années quatre-vingt-dix. Une croissance alimentée par l’innovation avait alors accru le volume de la production, tout en générant de nouveaux biens et services ; les nouvelles technologies avaient rendu possibles les gains de productivité. Or de larges secteurs de l’économie américaine, tels que l’éducation, la santé, l’infrastructure ou encore le secteur public, sont restés à l’écart de ce mouvement, si bien qu’il leur reste à rattraper un retard dans la croissance de la productivité. Aujourd’hui, les opportunités technologiques demeurent importantes. En l’occurrence, la révolution énergétique devrait stimuler l’investissement, non seulement dans l’extraction de ressources naturelles, mais aussi dans le secteur du transport et dans l’industrie intensive en énergie. Enfin, Baily et alii rejettent l’idée que la croissance puisse détruire l’emploi. L’observation des huit dernières décennies suggère que, certes il existe un arbitrage à très court terme entre la croissance de la productivité et celle de l’emploi, mais qu’à long terme la productivité demeure la principale manière d’améliorer le niveau de vie et qu’elle ne s’accroît pas aux dépens de l’emploi.

Evaluant de leur côté l’un des points importants de l’argumentaire de Gordon, David M. Byrne, Stephen D. Oliner et Daniel E. Sichel (2013) cherchent à savoir si la révolution informatique est réellement finie. Les auteurs observent tout d’abord la contribution des TIC à la croissance de la productivité du travail. Leurs résultats confirment l’idée selon laquelle la technologie informatique ne stimule plus autant la croissance de la productivité qu’elle ne le faisait entre 1995 et 2004, ce qui tend à confirmer la thèse de Gordon. Toutefois, sa contribution reste substantielle, puisqu’elle expliquerait plus du tiers de la croissance de la productivité du travail depuis 2004.

Les auteurs se focalisent ensuite sur la technologie des semi-conducteurs, dont les progrès constituent selon eux un élément déterminant dans la révolution informatique en rendant la puissance de calcul toujours plus efficace et toujours moins chère. Selon l’indice des prix des semi-conducteurs calculé par le Bureau of Labor Statistics, le prix des semi-conducteurs ajusté à leur qualité ne chuterait pas aussi rapidement qu’il le fit au début des années deux mille. Une telle évolution tend également à accréditer la thèse de Gordon. Toutefois, selon les auteurs, non seulement les progrès technologiques se sont poursuivis à un rythme rapide dans le secteur informatique, mais le BLS peut avoir considérablement sous-estimé la baisse des prix qu’ont pu connaître les semi-conducteurs au cours des dernières années. 

Byrne et ses coauteurs évaluent enfin les futures perspectives de croissance de la productivité du travail. En observant les progrès qui sont en cours dans le secteur informatique et en supposant que les innovations informatiques stimuleront davantage la productivité dans le reste de l’économie qu’ils ne le firent entre 2004 et 2012, les auteurs suggèrent que le taux de croissance de la productivité du travail devrait s’établir à 1,75 % par an. La croissance de la productivité du travail serait certes supérieure à celle observée depuis 2004, mais elle resterait inférieure à sa moyenne d’après-1889, en l’occurrence 2,25 %. Ce scénario ne suggère ni un retour à une croissance rapide, ni une stagnation durable de l’activité économique, mais plutôt l’idée selon laquelle l’économie ne génèrera durablement que de modestes gains de croissance. En revanche, si la technologie des semi-conducteurs continue de progresser au même rythme, Byrne et alii estiment que les avancées informatiques pourraient entraîner une plus rapide innovation dans l’ensemble de l’économie. La productivité du travail pourrait alors croître de 2,5 % par an, soit un taux supérieur à la moyenne historique à long terme. Les trois auteurs en concluent ainsi que la révolution informatique est loin d’être terminée.

 

Références

BAILY, Martin., N. James MANYIKA & Shalabh GUPTA (2013), « U.S. productivity growth: An optimistic perspective », in International Productivity Monitor, n° 25, printemps.

BRYNJOLFSSON, Erick, & Andrew McAFEE (2011)Race Against The Machine: How the Digital Revolution is Accelerating Innovation, Driving Productivity, and Irreversibly Transforming Employment and the Economy.

BYRNE, David M., Stephen D. OLINER & Daniel E. SICHEL (2013), « Is the information technology revolution over? », Fed, Finance and Economics Discussion paper, n° 36, mars.

COWEN, Tyler (2011), The Great Stagnation: How America Ate All the Low-hanging Food of Modern History, Got Sick, and Will (Eventually) Feel Better.

GORDON, Robert (2012), « Is US economic growth over? Faltering innovation confronts the six headwinds », CEPR Policy Insight, n° 63.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher