Overblog Tous les blogs Top blogs Économie, Finance & Droit Tous les blogs Économie, Finance & Droit
Suivre ce blog Administration + Créer mon blog
MENU
27 février 2018 2 27 /02 /février /2018 18:30
Et si la natalité était le meilleur indicateur avancé de l’activité ?

Plusieurs études ont montré que la fertilité était une variable procyclique, c’est-à-dire qu’elle a tendance à augmenter d’autant plus rapidement que la croissance économique est forte et, réciproquement, à baisser lors des récessions. Tomáš Sobotka, Vegard Skirbekk et Dimiter Philipov (2011) notaient qu’au cours d’une récession, « la baisse de la fertilité commence avec un bref retard compris entre une année et deux années et demie ». Autrement dit, les couples réagiraient au ralentissement de la croissance et à la détérioration subséquente de la situation sur le marché du travail en faisant moins d’enfants. 

La dernière crise financière mondiale ne fait pas exception. Sam Roberts (2009), dans le New York Times, avait par exemple rapidement noté que la Grande Récession qui secouait alors l’économie américaine avait provoqué une forte baisse de nombre de naissances dès 2008. Mais si c’est effectivement le cas, alors cette chute des naissances a dû être provoquée par une chute des conceptions en 2007, voire en 2008. Or, la croissance économique était encore vigoureuse en 2007 et la récession n’a officiellement éclaté au Etats-Unis qu’au cours de la seconde moitié de l’année 2008, officiellement en décembre selon la datation du NBER.

Kasey Buckles, Daniel Hungerman et Steven Lugauer (2018) ont alors étudié l’idée que la natalité puisse constituer un indicateur avancé du cycle d’affaires : elle semble atteindre un pic et amorcer une chute quelques temps avant le début des récessions. C’est ce qu’ils constatent en étudiant les données relatives à plus de 100 millions de naissances qui ont eu lieu aux Etats-Unis entre 1988 et 2015. Lors des dernières récessions qui ont touché l’économie américaine, c’est-à-dire celles qui ont commencé en 1990, 2001 et 2008, le taux de croissance des conceptions a commencé à chuter quelques trimestres avant que la conjoncture se retourne ; en l’occurrence, la baisse du nombre de naissances lors de ces trois récessions ne s’explique pas par une hausse du nombre d’avortements ou de fausses couches. Par exemple, si le nombre de conceptions avait légèrement augmenté durant le premier semestre de l’année 2007, son taux de croissance en rythme annuel est devenu négatif au troisième trimestre, soit bien avant que la production économique ne décroche. De plus, les chutes de conceptions qui précèdent les récessions sont en l’occurrence larges. Par exemple, le taux de croissance annuel des conceptions a chuté de plus de 4 points de pourcentage à la veille de la Grande Récession. Buckles et ses coauteurs ont également étudié l’évolution des conceptions à la fin des récessions ; celle-ci est toutefois bien plus ambigüe qu’à la veille des récessions. Par exemple, la Grande Récession n’a pas seulement été suivie par une reprise sans emplois (jobless recovery) ; elle a aussi été une reprise sans bébés (baby-less recovery).

GRAPHIQUE  Taux de croissance du PIB et du nombre de conceptions d’enfants autour de la Grande Récession

source : Buckles et alii (2018)

Les comportements en matière de fertilité sont donc bien plus tournés vers l’avenir (forward-looking) que ne le suggéraient les études existantes portant sur le lien entre natalité et cycle économique. Ils sont en l’occurrence très sensibles aux conditions économiques prévalant dans le futur proche ; cela remet en cause l’idée de Gary Becker (1960) selon laquelle la « production » de bébés est relativement insensible au court terme.

Buckles et ses coauteurs ne concluent pas que la chute de la natalité puisse être à l’origine des récessions ; si les ménages retardent leurs projets de grossesse, ils peuvent également par là même retarder certains achats de biens, notamment des biens durables comme les logements. Par contre, il est possible que le facteur qui est à l’origine du recul des conceptions soit également celui qui est à l’origine de la contraction de l’activité économique, en pesant dans les deux cas sur la confiance, mais qu’il affecte plus rapidement les comportements en matière de conception que l’activité économique. Cette étude souligne surtout qu’il serait opportun de s’appuyer sur le nombre de grossesses pour améliorer les prévisions de croissance économique. Certes la corrélation entre fertilité et activité économique est loin d’être parfaite, mais le nombre de grossesses apparaît être un indicateur avancé du cycle économique au moins aussi performant que la plupart de ceux retenus, par exemple le niveau de confiance des consommateurs, l’indice Case-Shiller utilisé pour juger de l’évolution des prix de l’immobilier ou encore les achats de biens durables comme les machines à laver, les lave-vaisselles et les voitures.

 

Références

BECKER, Gary (1960), « An economic analysis of fertility », in Demographic and Economic Change in Developed Countries.

BUCKLES, Kasey, Daniel HUNGERMAN & Steven LUGAUER (2018), « Is fertility a leading economic indicator? », NBER, working paper, n° 24355, février.

ROBERTS, Sam (2009), « Birth rate is said to fall as a result of recession », in The New York Times, 7 août.

SOBOTKA, Tomáš, Vegard SKIRBEKK & Dimiter PHILIPOV (2011), « Economic recession and fertility in the developed world », in Population and Development Review, vol. 37, n° 2.

Partager cet article
Repost0
18 décembre 2017 1 18 /12 /décembre /2017 16:07
Quel est le taux de rendement de tout ?

Les économistes se sont depuis longtemps intéressés au taux de rendement du capital : les classiques David Ricardo et John Stuart Mill ont consacré une grand part de leur travail aux intérêts et aux profits ; c’est en raison de la baisse tendancielle du taux de profit que Karl Marx estime que le capitalisme est condamné à s’effondrer, etc. Aujourd’hui, le taux de rendement du capital continue de tenir une place importante dans de nombreux débats, notamment autour du taux d’intérêt naturel, de la stagnation séculaire et des inégalités. Malgré ce rôle dans de nombreuses théories, les estimations empiriques restent bien fragmentaires le concernant. L’immobilier est par exemple une composante essentielle du patrimoine des ménages, il représente environ la moitié de la richesse nationale d’une économie et, pourtant, les rendements de l’immobilier restent peu connus.

Oscar Jordà, Katharina Knoll, Dmitry Kuvshinov, Moritz Schularick et Alan Taylor (2017) ont cherché à combler ce vide en construit une large base de données annuelles sur les taux de rendement des plus grandes classes d’actifs dans 16 pays développés depuis 1870 : deux classes d’actifs risqués (l’immobilier et les actions) et deux classes d’actifs relativement sûrs (les obligations publiques et les bons du Trésor).

Jordà et ses coauteurs ont tout d’abord remarqué la grande stabilité du rendement des actifs risqués. L’immobilier résidentiel et les actions ont généré des gains réels élevés, en moyenne d’environ 7 % par an. Avant la Seconde Guerre mondiale, les rendements sur l’immobilier et les actions ont suivi des trajectoires finalement assez similaires ; pour autant, l’immobilier rapportait davantage que les actions. Depuis le conflit, les actions ont davantage rapporté en moyenne que l’immobilier, mais au prix d’une plus forte volatilité et une plus forte synchronisation avec le cycle d’affaires ; les actions ont connu des cycles d’expansion et d’effondrements plus fréquents et plus corrélés. En outre, s’il n’y a pas de corrélation entre les rendements immobiliers au niveau international, les rendements boursiers sont devenus de plus en plus corrélés d’un pays à l’autre au fil du temps, en particulier depuis la Seconde Guerre mondiale.

Le rendement réel des actifs sûrs a été très volatile à long terme et souvent bien plus volatile que le rendement réel des actifs risqués. Chacune des deux guerres mondiales et les années soixante-dix ont été marquées par de très faibles taux sur les actifs sûrs, bien inférieurs à zéro, ce qui permit notamment aux gouvernements de se désendetter rapidement au sortir de la Seconde Guerre mondiale. Le taux réel sur les actifs sûrs a atteint des pics durant l’entre-deux-guerres et au milieu des années quatre-vingt, lorsque les banques centrales avaient fortement resserré leur politique monétaire pour combattre l’inflation. Au final, la baisse des taux réels sur les actifs sûrs que nous avons pu observer ces dernières décennies s’apparente à celle que l’on a pu observer dans les décennies qui ont précédé la Première Guerre mondiale. A très long terme, donc, le taux réel sur les actifs sûrs semble fluctuer autour des niveaux qu’il atteint actuellement, si bien que le niveau actuel n’est finalement pas inhabituel au regard de l’Histoire. Par conséquent, les économistes devraient se demander, non pas pourquoi les taux ont baissé ces dernières décennies, mais plutôt pourquoi ils ont été aussi élevés au milieu des années quatre-vingt.

Ces constats sont cohérents avec celui auquel avaient abouti Kathryn Holston, Thomas Laubach et John Williams (2016) : le taux d’intérêt naturel semble avoir décliné depuis le milieu des années quatre-vingt et est aujourd’hui proche de zéro. Ils sont également compatibles avec l’hypothèse de la stagnation séculaire avancée par Larry Summers (2014) : en raison de dynamiques lourdes comme la hausse des inégalités ou le vieillissement démographique, les économies avancées ont peut-être tendance à dégager un excès structurel d’épargne qui les piège durablement dans une trappe à faible investissement. Une telle éventualité a de profondes implications pour la conduite de la politique économique. Par exemple, si les taux d’intérêt de court terme risquent plus fréquemment de se retrouver contraints par leur borne inférieure zéro, alors les banques centrales peuvent ne pas parvenir à ramener rapidement les économies au plein emploi suite aux chocs macroéconomiques ; cela remet d’ailleurs en cause la stratégie de ciblage d’inflation qu’elles ont eu tendance à suivre ces dernières décennies.

A très long terme, la prime de risque a été volatile ; elle tend même à fluctuer sur plus décennies, en des amplitudes qui dépassent celles observées à la fréquence des cycles d’affaires, sans pour autant présenter de tendance manifeste à long terme. En temps de paix, les primes de risque sont généralement stables, comprises entre 4 % et 5 %, mais elles sont étrangement restées élevées des années cinquante aux années soixante-dix. Les fortes hausses de prime de risque en temps de guerre et durant l’entre-deux-guerres découlent avant tout de la chute des taux d’intérêt sur les actifs sûrs plutôt que d’une hausse des taux d’intérêt sur les actifs risqués. Le taux risqué a souvent été plus lisse et plus stable que les taux sûrs, en restant en moyenne compris entre 6 % et 8 % dans la plupart des pays. Récemment, la prime de risque s’est élevée, précisément parce que les taux sûrs ont chuté plus rapidement que les taux risqués. Pour autant, les deux taux de rendement sont restés proches de leur valeur historique normale. 

Jordà et ses coauteurs précisent également la relation entre le taux de rendement sur le patrimoine (r) et le taux de croissance de l’économie (g) qui tient une place si cruciale dans le magnum opus de Thomas Piketty (2013). Selon ce dernier, si le rendement du capital est supérieur à la croissance, alors les rentiers accumulent plus rapidement du patrimoine, ce qui accroît les inégalités de richesse. Ce serait effectivement le cas ces dernières décennies, ce qui expliquerait la hausse des ratios richesse sur revenu et la hausse des inégalités [Piketty et Zucman, 2013]. En se concentrant sur les données britanniques sur la période s’écoulant entre 1210 et 2013, Jakob Madsen (2017) a récemment confirmé l’idée que l’écart rg tend à gouverner la dynamique du ratio richesse sur revenu et la part du revenu du capital. En analysant des données relatives à de nombreuses économies, Jordà et ses coauteurs constatent que r est fortement supérieur à g : au niveau mondial et dans la plupart des pays, le taux de rendement pondéré du capital représentait le double du taux de croissance au cours des 150 dernières années. Les exceptions concernent des périodes très particulières, en l’occurrence les années de conflit ou les années qui entourent immédiatement celles-ci. En l’occurrence, avant la Seconde Guerre mondiale, l’écart rg s’élevait en moyenne à 5 % par an, sauf lors de la Première Guerre mondiale. Aujourd’hui, il reste élevé, compris entre 3 % et 4 % ; il s’est réduit à 2 % durant les années soixante-dix, lors des chocs pétroliers, avant de se creuser dans les années qui ont précédé la crise financière mondiale. Le fait que les rendements du patrimoine soient restés assez élevés et stables depuis les années soixante, tandis que la richesse agrégée s’est accru rapidement, suggère que l’accumulation du capital a contribué à modifier la répartition du revenu national au détriment du travail et par là à alimenter les inégalités de revenu.

 

Références

HOLSTON, Kathryn, Thomas LAUBACH & John C. WILLIAMS (2016), « Measuring the natural rate of interest: International trends and determinants », Réserve fédérale de San Francisco, working paper, n° 2016-11, décembre.

JORDÀ, Oscar, Katharina KNOLL, Dmitry KUVSHINOV, Moritz SCHULARICK & Alan M. TAYLOR (2017), « The rate of return on everything, 1870–2015 », NBER, working paper, n° 24112.

MADSEN, Jakob B. (2017), « Is inequality increasing in r - g? Piketty’s principle of capitalist economics and the dynamics of inequality in Britain, 1210-2013 », CAMA, working paper, n° 63/2017, octobre.

PIKETTY, Thomas (2013), Le Capital au XXIe siècle.

PIKETTY, Thomas, & Gabriel ZUCMAN (2013), « Capital is back: Wealth-income ratios in rich countries 1700-2010 », Paris School of Economics, 26 juillet.

SUMMERS, Lawrence (2014), « U.S. economic prospects: Secular stagnation, hysteresis, and the zero lower bound », in Business Economics, vol. 49, n° 2.

Partager cet article
Repost0
17 décembre 2017 7 17 /12 /décembre /2017 21:25
L’intelligence artificielle et le nouveau paradoxe de la productivité

L’économie américaine (pour ne pas dire l’essentiel des pays développés) présente une situation paradoxale. D’un côté, les systèmes utilisant une intelligence artificielle égalent ou surpassent déjà les capacités humaines dans des domaines toujours plus nombreux, ce qui permet de nouvelles avancées dans d’autres secteurs. On devrait par conséquent s’attendre à une poursuite, voire à une accélération, de la croissance de la productivité et donc des niveaux de vie. Une telle prévision optimiste, promesse d’une hausse soutenue des profits, contribue d’ailleurs sûrement à soutenir les cours boursiers. Pourtant, la croissance de la productivité mesurée a été divisée par deux au cours de la dernière décennie. Ce ralentissement, qui s’est amorcé avant qu’éclate la crise financière mondiale, est un phénomène généralisé : il a initialement touché les pays développés, puis les grands pays émergents. Il contribue par conséquent à contenir la hausse des niveaux de vie : par exemple, la majorité des Américains ont vu leur revenu réel stagné depuis la fin des années quatre-vingt-dix.

Bref, nous nous retrouvons face à une variante du paradoxe de la productivité mis en avant par Robert Solow (1987) : nous voyons partout les nouvelles technologies, sauf dans les statistiques de productivité. Erik Brynjolfsson, Daniel Rock et Chad Syverson (2017) en ont proposé quatre explications possibles.

Selon une première explication, l’optimisme que suscitent les nouvelles technologies est tout simplement infondé. Celles-ci ont peut-être des effets visibles sur certains secteurs en particulier, mais il est possible que leurs effets au niveau agrégé soient diffus. Si c’est effectivement le cas, l’optimisme risque de ne pas perdurer et de laisser place à la seule déception. Une telle révision des anticipations se traduira alors par une chute des valeurs boursières.

Selon une deuxième explication, avancée notamment par Joel Mokyr (2014), il est possible que la croissance de la productivité soit restée soutenue, voire ait accélérée, mais que cela ait échappé aux indicateurs. Bref, le ralentissement de la productivité que l’on a observé cette dernière décennie est peut-être illusoire ; la population tire peut-être davantage de gains des nouvelles technologies qu’on ne le pense. Cela s’expliquerait par le fait que les indicateurs habituels ne sont pas adaptés pour mesurer la valeur ajoutée des récentes innovations. Par exemple, les consommateurs passent une grande partie de leur temps sur leurs smartphones et les réseaux sociaux en ligne, mais comme ces innovations ont un coût monétaire relativement faible, elles  représentent une faible part du PIB relativement à l’utilité qu’elles procurent. Pourtant, plusieurs études, notamment celles de Roberto Cardarelli et Lusine Lusinyan (2015), Chad Syverson (2016) et David Byrne et alii (2016) suggèrent que les problèmes de mesure ne peuvent être la principale explication derrière le ralentissement de la croissance de la productivité : après tout, le PIB ne reflète peut-être pas tous les bénéfices des technologies actuelles, mais il ne reflétait peut-être pas non plus tous les bénéfices des technologies passées.

Selon une troisième explication, les nouvelles technologies génèrent peut-être déjà de nombreux gains, mais ces derniers pourraient être captés par une fraction de l’économie, si bien que leurs effets sur la croissance de la productivité moyenne est faible au niveau agrégé et qu’ils sont nuls pour le travailleur médian. La nature rivale des nouvelles technologies pourrait entraîner une sorte de « ruée vers l’or » à travers laquelle les compétiteurs adoptent des pratiques pour obtenir les gains ou en bloquer l’accès aux autres, c’est-à-dire des pratiques nuisibles pour le reste de l’économie, qui annulent au niveau agrégé les bénéfices des innovations. Une telle hypothèse est cohérente avec plusieurs constats empiriques : les écarts de productivité entre les entreprises les plus avancées et les entreprises moyennes semblent s’être creusés au sein de chaque secteur ces dernières années ; une poignée de « firmes superstars » capte une part de marché de plus en plus grande (Autor et alii, 2017), etc. Certains, comme Jan De Loecker et Jan Eeckhout (2017) ou Germán Gutiérrez et Thomas Philippon (2017), s’inquiètent ainsi de voir la hausse de la concentration dans les différents secteurs et la perturbation résultante du pouvoir de marché des différents agents entraîner des pertes de bien-être au niveau agrégé. En outre, notamment pour cette raison, le revenu total continue peut-être d’augmenter, mais le revenu moyen stagne avec l’accroissement des inégalités.

Selon une quatrième explication, les espoirs ne sont peut-être pas trop optimistes et les indicateurs statistiques n’ont peut-être pas tort : il se pourrait que les gains tirés des nouvelles technologies soient réels et massifs, mais qu’ils ne se sont pas encore manifestés. D’une part, il est possible qu’il faille beaucoup de temps avant que le stock de nouvelles technologies ait atteint une taille suffisante pour déployer tous leurs effets. D’autre part, il est possible que des investissements connexes soient nécessaires pour que le potentiel de ces technologies se concrétise et qu’il faille du temps pour identifier et mettre en œuvre ces investissements. C’est peut-être surtout des investissements dans des actifs intangibles et non des actifs physiques que les nouvelles technologies nécessitent : l’acquisition de certaines compétences, une refonte de l’organisation du travail, etc. En fait, il se pourrait que le délai soit d’autant plus long que la technologie est susceptible de bouleverser l’économie.

Même si les autres explications sont plausibles et cohérentes avec certaines preuves empiriques, c’est la dernière que Brynjolfsson et ses coauteurs privilégient. La (faiblesse de la) croissance actuelle de la productivité n’indique en rien quel sera le rythme de sa croissance future : la croissance de la productivité au cours d’une décennie n’a pas de significatif pouvoir prédictif pour celle de la décennie suivante. Dans la mesure où la croissance de la productivité totale des facteurs est « une mesure de notre ignorance », il n’est pas étonnant que ce résidu ne puisse être prévu à partir de ses valeurs passées.

 

Références

AUTOR, David, David DORN, Lawrence F. KATZ, Christina PATTERSON & John VAN REENEN (2017), « Concentrating on the fall of the labor share », NBER, working paper, n° 23108.

BRYNJOLFSSON, Erik, Daniel ROCK & Chad SYVERSON (2017), « Artificial intelligence and the modern productivity paradox: A clash of expectations and statistics », NBER, working paper, n° 24001, novembre.

BYRNE, David M., John G. FERNALD & Marshall B. REINSDORF (2016), « Does the United States have a productivity slowdown or a measurement problem? », Brookings Papers on Economic Activity.

CARDARELLI, Roberto, & Lusine LUSINYAN (2015), « U.S. total factor productivity slowdown: Evidence from the U.S. states », FMI, working paper, n° 15/116, mai.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687, août.

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2016), « Investment-less growth: An empirical investigation », NBER, working paper, n° 22897, décembre.

MOKYR, Joel (2014), « Secular stagnation? Not in your life », in voxEU.org, 11 août.

SOLOW, Robert (1987), « We'd better watch out », in New York Times Book Review.

SYVERSON, Chad (2016), « Challenges to mismeasurement explanations for the U.S. productivity slowdown », NBER, working paper, n° 21974, février.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher