Overblog Tous les blogs Top blogs Économie, Finance & Droit Tous les blogs Économie, Finance & Droit
Suivre ce blog Administration + Créer mon blog
MENU
29 septembre 2024 7 29 /09 /septembre /2024 15:42

Ces dernières années ont été marquées par d’importants progrès en matière d’intelligence artificielle, à l’instar du lancement de ChatGPT, devenu très rapidement populaire. Ces avancées tiennent notamment aux progrès dans la puissance de calcul, évoquées par la fameuse « loi de Moore » et sa prédiction d’un doublement de la capacité des microprocesseurs tous les deux ans. La complexité des systèmes d’IA a augmenté encore plus vite que cette puissance de calcul : au cours de la dernière décennie, le montant de puissance de calcul utilisée pour entraîner les systèmes d’IA les plus avancés a doublé tous les six mois, grâce aux montants massifs investis par les entreprises d’IA [Sevilla et Roldan, 2024]. Ces progrès laissent envisager l’apparition à terme d’une intelligence artificielle générale, c’est-à-dire d’une IA présentant un niveau d’intelligence similaire à celui de l’être humain et capable de réaliser toutes les tâches cognitives que ce dernier peut réaliser. 

L’apparition d’une IA générale semble tout à fait plausible à très long terme, mais est-elle envisageable dans un avenir proche ? Pour les plus « optimistes », une telle IA pourrait apparaître dans moins d’une décennie. C’est l’un des scénarii envisagés et étudiés par Anton Korinek et Donghyun Suh (2024) (cf. Korinek [2023] pour un résumé).

Qu’importe la date exacte de son apparition, pour Anton Korinek (2024), l’émergence de l’IA générale marquera la fin de l’âge industrielle et ouvrira une nouvelle ère de la même façon que la Révolution industrielle a mis un terme à l’ère malthusienne. Durant l’âge malthusien, les ressources naturelles constituaient le facteur rare, si bien que celles-ci contraignaient la croissance démographique et, en conséquence, la croissance économique. Avec l’âge industriel, c’est le travail qui est devenu le facteur rare, ce qui a permis une forte croissance de la productivité du travail et des salaires, mais la croissance économique est restée contrainte par la croissance démographique : la capacité d’innovation dépend de la taille de la population, comme l’a formalisé Jones (1995) avec son modèle de croissance semi-endogène. Durant l’âge de l’IA générale, lorsque les machines deviendront un substitut parfait au travail humain, ce dernier cessera d’être un facteur limitatif et l’accumulation du stock d’idées ne sera plus contrainte par la taille de la population, si bien que la croissance s’apparentera à celle formalisée par le modèle de croissance endogène de Paul Romer (1990). 

Le développement de l’IA est ainsi susceptible de stimuler la croissance, mais dans quelle mesure ? Certains sont là aussi très optimistes, estimant qu’une IA générale est susceptible de rapidement créer une « singularité » technologique, mais d’autres, notamment Daron Acemoglu (2024), n’envisagent pas d’amples gains, du moins pas dans un avenir prévisible. Outre des gains incertains, le développement de l’IA et, à terme, l’apparition d’une IA générale ne sont pas s’accompagner de risques. Pour Korinek (2024), l’IA générale posera huit défis économiques :

1. Le premier défi concerne l’emploi et la répartition des revenus. A court terme, il n’est pas clair quant à savoir si l’IA creuse ou réduit les inégalités de revenu. Les précédentes innovations liées à l’informatique avaient plutôt tendance à être complémentaires avec les travailleurs qualifiés et à conduire à une automatisation des tâches réalisées par les travailleurs peu qualifiés, ce qui a eu tendance à creuser les inégalités de revenu [Katz et Murphy, 1992]. Mais certaines études suggèrent que le déploiement actuel de l’IA tend à les réduire : l’IA peut stimuler l’efficacité des moins qualifiés, comme l’ont observé Erik Brynjolfsson et alii (2023), et elle élargit les possibilités d’automatisation des tâches réalisées jusqu’à présent par les travailleurs qualifiés, en l’occurrence les tâches cognitives. David Autor (2024) estime ainsi que l’IA est susceptible de mettre un terme à l’érosion des classes moyennes en favorisant les emplois qu’elles occupent et en stimulant leurs salaires.

Mais à plus long terme, il est à craindre que l’IA rende le travail redondant, à mesure que ses avancées accroissent la substituabilité entre travail et capital. L’IA générale est susceptible de provoquer un chômage de masse, une chute des salaires et une hausse des inégalités [Acemoglu et Restrepo, 2019 ; Acemoglu et Restrepo, 2020 ; Korinek, 2023]En l’occurrence, l’essentiel des bénéfices de l’IA générale pourraient être captés par ceux qui possèdent le capital et contrôlent les technologies d’IA.

L’IA est également susceptible de creuser les écarts de revenu entre les pays, dans la mesure où les pays en développement ont un avantage comparatif dans les activités intensives en travail. On retrouve une intuition du modèle de Romer (1990) : les pays disposant d'un stock élevé d'idées pourront connaître une plus forte croissance que ceux qui en disposent d'un faible stock ; les premiers étant les pays développés et les secondes les pays en développement, les écarts de revenu risquent d'augmenter.

2. Le deuxième défi concerne les compétences et l’éducation. Cette dernière joue aujourd’hui un rôle clé dans l’acquisition des compétences et, en conséquence, sur l’accès à l’emploi. Or, l’IA va rendre obsolètes certaines compétences actuellement valorisés sur le marché du travail. Pour Korinek, les emplois qui resteront disponibles se situeront dans les activités où la présence humaine est recherchée pour elle-même ; il pense notamment au domaine religieux ou la supervision de l’IA. L’éducation devra alors pour préparer à ces emplois. En outre, l’IA va certainement bouleverser la transmission même du savoir. 

3. Le troisième défi concerne la cohésion sociale et la stabilité politique. En perturbant le marché du travail, l’IA est susceptible d’entraîner un mécontentement populaire, des désordres sociaux et de l’instabilité politique. Les conflits sociaux se joueront certainement entre ceux qui bénéficient de l’IA (en premier lieu leurs propriétaires) et ceux qui en pâtissent. 

4. Le quatrième défi concerne la politique macroéconomique. La demande globale va se modifier ; elle ne sera peut-être plus tirée par la consommation des ménages, mais par l’investissement liée à l’IA. Avec la déstabilisation du marché du travail, les autorités devront certainement mettre en place des mécanismes pour assurer aux êtres humains un minimum de revenu, dans un contexte où les sources même de leurs recettes fiscales seront bouleversées. De nouvelles formes de redistribution s’avèreront sûrement nécessaires, peut-être un revenu de base. 

5. Le cinquième défi concerne la politique de la concurrence. En effet, le développement de l’IA nécessite de massifs financements et de vastes bases de données, ce qui génère d’importantes économies d’échelle et donc d’importantes barrières à l’entrée. En conséquence, le marché de l’IA peut se retrouver extrêmement concentré, la production était réalisée par quelques entreprises. 

6. Le sixième défi concerne la propriété intellectuelle. Non seulement l’IA s’abreuve de contenus déjà existants, mais ses propres créations posent d’importantes questions en termes de propriété. 

7. Le septième défi concerne l’environnement. Si à l’âge de l’IA générale, le travail humain cesse d’être le facteur rare, les ressources naturelles le redeviennent. La consommation d’énergies par l’IA explose, ce qui est susceptible d’accélérer, d’une part, l’épuisement de certaines ressources naturelles et, d’autre part, le changement climatique en alimentant les émissions de gaz à effet de serre. Inversement, l’IA pourrait stimuler la recherche scientifique et ainsi contribuer à la découverte de solutions aux différents problèmes environnementaux. 

8. Le huitième et dernier défi concerne la gouvernance mondiale. L’IA générale est susceptible de bouleverser le partage des richesses et du pouvoir entre les pays. Ces richesses et ce pouvoir peuvent notamment se concentrer entre les mains d’une poignée de nations technologiquement avancées et de puissantes entreprises. Il s’agira également de veiller à ce que les finalités et valeurs de l’IA générale restent alignées sur celles de l’humanité et qu’elle veille à la préservation de cette dernière.

 

Références

ACEMOGLU, Daron (2024), « The simple macroeconomics of AI », MIT, working paper, avril.

ACEMOGLU, Daron, & Pascual RESTREPO (2019), « Artificial intelligence, automation, and work », in Ajay Agrawal, Joshua Gans & Avi Goldfarb (dir.), The Economics of Artificial Intelligence: An Agenda, University of Chicago Press. 

ACEMOGLU, Daron, & Pascual RESTREPO (2020), « The wrong kind of AI? Artificial intelligence and the future of labor demand », in Cambridge Journal of Regions, Economy and Society, vol. 13, n° 1.

AUTOR, David (2024), « AI could actually help rebuild the middle class », in Noema Magazine.

BRYNJOLFSSON, Erik, Danielle LI & Lindsey RAYMOND (2023), « Generative AI at work », NBER, working paper, n° 31161, avril.

JONES, Charles I. (1995), « R&D-based models of economic growth », in Journal of Political Economy, vol. 103, n° 4.

KATZ, Lawrence F., & Kevin M. MURPHY (1992), « Changes in relative wages, 1963-1987: Supply and demand factors », in Quarterly Journal of Economics, vol. 107, n° 1.

KORINEK, Anton (2023), « Scenario planning for an A(G)I future », in FMI, Finance & Development. Traduction française, « Scénarios pour un avenir sous le signe de l'IA(G) », in FMI, Finances & Développement.

KORINEK, Anton (2024), « Economic policy challenges for the age of AI », NBER, working paper, n° 32980, septembre.

KORINEK, Anton, & Donghyun SUH (2024), « Scenarios for the transition to AGI », NBER, working paper, n° 32255, mars.

ROMER, Paul (1990), « Endogenous technological change », in Journal of Political Economy, vol. 98, n° 5.

SEVILLA, Jaime, & Edu ROLDÁN (2024), « Training compute of frontier AI models grows by 4-5x per year », Epoch AI, mai.

Partager cet article
Repost0
19 août 2024 1 19 /08 /août /2024 13:48

Les prix ont fortement augmenté dans le sillage de la pandémie de Covid-19, ce qui mit un terme à plusieurs décennies de faible inflation (cf. graphique 1). Les banques centrales ont réagi en relevant leur taux directeurs, réalisant ainsi le resserrement des politiques monétaires le plus synchronisé à travers le monde qui ait été observé depuis au moins une cinquantaine d’années [Cavallino et alii, 2022]. Le pic d’inflation a été atteint au cours de l’année 2022, marquant le début d’une désinflation [de Soyres et alii, 2024]. La BCE a procédé en juin dernier à une première baisse de ses taux directeurs depuis le début du nouveau cycle de resserrement monétaire ; aux Etats-Unis, la poursuite de la baisse de l’inflation, dans un contexte de dégradation du marché du travail, pourrait pousser la Réserve fédérale à faire prochainement de même [Waechter, 2024]. L’une des questions qui taraudent Jay Powell et les autres responsables de la banque centrale américaine est de savoir si un assouplissement de la politique monétaire ne serait prématuré.

GRAPHIQUE 1  Taux d’inflation aux Etats-Unis (en %)

Pourquoi la Fed ne parvient-elle pas toujours à réduire l’inflation ?

Christina et David Romer (2024) ont étudié les tentatives de désinflations visées par la Réserve fédérale depuis la Seconde Guerre mondiale. En appliquant l’approche narrative qu’ils ont développée lors de leurs précédents travaux [Romer et Romer, 2023], ils ont identifié neuf épisodes au cours desquels les responsables de la Fed ont estimé que le taux d’inflation courant était excessivement élevé et ont en conséquence resserré la politique monétaire pour le réduire : ces épisodes ont respectivement débuté en en octobre 1947, en août 1955, en septembre 1958, en décembre 1968, en avril 1974, en août 1978, en octobre 1979, en mai 1981 et en décembre 1988 (cf. graphique 2). Au cours de ces neuf épisodes, les autorités monétaires ont cherché à réduire le taux d’inflation, pas simplement l’empêcher d’augmenter davantage, et elles ont été prêtes à déprimer l’activité économique pour y parvenir. 

GRAPHIQUE 2  Taux d’inflation sous-jacente aux Etats-Unis (en %)

Pourquoi la Fed ne parvient-elle pas toujours à réduire l’inflation ?

Ce qui change au cours de ces neuf épisodes, c’est notamment le niveau d’engagement dont fait preuve la Fed à l’égard de sa lutte contre l’inflation. Christina et David Romer ont mesuré celui-ci en déterminant notamment, à travers les propos des responsables de la Fed, dans quelle mesure ceux-ci acceptaient des pertes en production pour réduire l’inflation et dans quelle mesure ils estimaient que la dynamique de l’inflation dépendait de la politique monétaire. Ils estiment que le niveau d’engagement envers la désinflation était élevé en 1958, en 1979 et en 1981, modéré en 1947, en 1955 et en 1988 et faible en 1968, en 1974 et en 1978. Par exemple, en 1978, les responsables de la Fed affirmaient catégoriquement qu’ils ne souhaitaient qu’un léger ralentissement de la croissance américaine et estimaient que la politique monétaire ne pouvait à elle seule réduire l’inflation. En 1981, ils jugeaient la politique monétaire cruciale pour faire baisser l’inflation et ils étaient clairement prêts à accepter que l’économie américaine essuie de lourdes pertes en production pour y parvenir.

Ce niveau d’engagement des responsables de la Fed importe visiblement pour la réussite de la désinflation : à travers les régressions qu’ils réalisent, Christina et David Romer observent que le premier est fortement corrélé avec la seconde. Au cours des épisodes où la Fed s’engage clairement envers la désinflation, l’inflation décline significativement et durablement, tandis qu’au cours des épisodes où la Fed ne s’engage pas clairement envers la désinflation, la baisse de l’inflation n’est, au mieux, que limitée et brève. En 1958 et en 1979, quand les responsables s’étaient fortement engagées à réduire l’inflation, non seulement celle-ci diminua, mais en outre elle resta durablement à un faible niveau. Inversement, en 1968 et en 1978, quand les responsables ne s’étaient engagés que faiblement envers leur objectif d’inflation, l’inflation ne baissa que de façon limitée et rebondit rapidement. 

La question est alors de s’avoir pourquoi le degré d’engagement joue. Christina et David Romer ont alors observé dans quelle mesure les anticipations d’inflation ont été affectées par la politique monétaire au cours des épisodes désinflationnistes. Pour cela, ils se sont notamment appuyés sur les évocations des décisions de la Fed dans les médias, par exemple les pages du New York Times et du Wall Street Journal, et les mesures de l’inflation anticipée tirées des indicateurs de marchés financiers. Ils concluent au terme de leur analyse que le niveau d’engagement de la Fed vis-à-vis de la désinflation n’affecte pas les anticipations d’inflation.

Ce n’est donc pas en influençant ces dernières que la banque centrale parvient à réduire l’inflation ; ce sont les effets directs de la politique monétaire sur l’activité économique qui jouent. Ainsi, si la banque centrale s’engage fortement à la désinflation, elle tend à persévérer dans son action tant qu’elle n’a pas atteint son objectif. Inversement, si un faible engagement de la Fed ne permet par de réduire significativement et durablement l’inflation, c’est parce que celle-ci abandonne prématurément sa lutte contre l’inflation, par optimisme ou par crainte de déprimer excessivement l’activité économique.

En ce qui concerne l’actuel épisode désinflationniste, le dixième depuis la Seconde Guerre mondiale, Christina et David Romer sont optimistes quant à sa réussite. En effet, Powell et les autres responsables de la Fed ont manifesté, notamment lors de leurs réunions, un fort niveau d’engagement vis-à-vis de la désinflation, notamment en indiquant que la stabilité des prix était leur principal objectif et qu’ils étaient prêts à accepter une dégradation de l’activité économique et une hausse du chômage pour l’atteindre.

Les constats des Romer viennent conforter l'idée que les anticipations d'inflation ne jouent qu'un rôle limité dans la dynamique de l'inflation ou, du moins, dans la transmission de la politique monétaire à celle-ci [Rudd, 2021]. Reste la question de savoir si la dégradation de l'activité économique et du marché du travail est nécessaire à la désinflation. Les Romer ne cherchent pas à y répondre , se contentant d’évoquer la possible existence d’une courbe de Phillips, mais sans l’explorer. 

 

Références

CAVALLINO, Paolo, Giulio CORNELLI, Peter HÖRDAHL & Egon ZAKRAJSEK (2022), « "Front-loading" monetary tightening: pros and cons », BRI, BIS Bulletin, n° 63, 9 décembre.

ROMER, Christina D., & David H. ROMER (2023), « Does monetary policy matter? The narrative approach after 35 years », in American Economic Review, vol. 113, n° 6.

ROMER, Christina D., & David H. ROMER (2024), « Lessons from history for successful disinflation », in Journal of Monetary Economics.

RUDD, Jeremy B. (2021), « Why do we think that inflation expectations matter for inflation? (and should we?) », Réserve fédérale, finance and economics discussion paper, n° 2021-062.

de SOYRES, François, Grace LOFSTROM, Mitch LOTT, Chris MACHOL & Zina SAIJID (2024), « Disinflation progress: A comparison of advanced economies », Réserve fédérale, FEDS Notes, 2 août.

WAECHTER, Philippe (2024), « Et l’inflation dit à la Fed: c’est le moment », 14 août.

Partager cet article
Repost0
13 juin 2024 4 13 /06 /juin /2024 17:58

On pourrait s’attendre à ce que la croissance s’accompagne d’une hausse du niveau de bonheur de la population. Après tout, si le revenu moyen augmente, alors la population voit son pouvoir d’achat augmenter et elle devrait pouvoir mieux satisfaire ses besoins. On devrait donc s’attendre à une relation positive entre revenu moyen et niveau de bonheur moyen. Pourtant, il y a cinquante ans, Richard Easterlin (1974) constatait que le niveau moyen de bien-être avait stagné à long terme aux Etats-Unis, malgré la hausse du revenu moyen. Il a par la suite, dans d’autres publications, fait la même observation pour d’autres pays développés.

L’existence même de ce paradoxe a été contestée, notamment par Angus Deaton (2008) et par Betsey Stevenson et Justin Wolfers (2008), qui concluent en une robuste relation positive entre bien-être et revenu, que ce soit entre les pays ou au cours du temps. Mais d’autres économistes aboutissent à des résultats allant dans le sens d’Easterlin. Easterlin a lui-même remis en cause, à plusieurs reprises, les conclusions de Stevenson et Wolfers (voir par exemple Easterlin [2017]).

Deux explications ont été mises en avant pour expliquer le paradoxe d’Easterlin. Le premier est l’effet d’adaptation. L’idée est que la hausse de revenu dont jouit un individu peut certes accroître son niveau de satisfaction, mais temporairement : le niveau de satisfaction augmente, puis diminue pour finalement revenir à son niveau initial. L’interprétation serait que l’individu serait initialement plus heureux, dans la mesure où il peut mieux satisfaire ses besoins existants, mais qu’il va ensuite s’habituer à son nouveau train de vie, revoir ses exigences, se découvrir de nouveaux besoins. En conséquence, au niveau agrégé, la croissance peut certes accroître les niveaux de satisfaction à court terme, mais pas à long terme. Si toutes les études qui ont testé l’existence de l’effet d’adaptation n’ont pas toutes conclu en son existence, celles qui l’ont fait ont conclu en son asymétrie : le gain en bien-être d’une hausse du revenu se dissipe, tandis que la perte en bien-être d’une baisse du revenu est définitive. C’est l’effet d’une « aversion à la perte » mise en évidence dans les expériences en économie comportementale [Kahneman et alii, 1991]. Il y aurait ainsi un « effet de cliquet », similaire à celui mis en avant par James Duesenberry (1949) dans le cas de la consommation : les individus prendraient peut-être comme référence le niveau maximal de consommation qu’ils ont atteint par le passé. Ces résultats sont sûrement décourageants pour les partisans de la croissance, mais ils le sont peut-être encore plus pour les partisans d’une décroissance (volontaire) : si la croissance n’augmente pas durablement le bien-être moyen, la décroissance pourrait au contre le réduire irrémédiablement.

Le deuxième effet susceptible d’expliquer le paradoxe d’Easterlin est l’effet de rivalité. L’idée est que le bien-être d’un individu ne tient pas (seulement) à son revenu : il dépend (aussi) du revenu des autres en raison du jeu des comparaisons. Autrement dit, il ne dépendrait pas de son revenu absolu, mais de son revenu relatif. Cette idée est cohérente avec l’observation que, dans une population donnée, les riches se déclarent bien plus heureux que les pauvres. Si elle est exacte, elle empêche la croissance d’augmenter le niveau de satisfaction : la hausse du revenu moyen ne change en rien le fait que certains gagnent plus que d’autres. Si la croissance ne modifie pas la hiérarchie des revenus, par exemple si tous les individus voyaient leur revenu augmenter du même montant, alors le niveau de satisfaction de chacun ne variera guère. Si certains voient leur revenu augmenter plus vite que celui des autres, leur niveau de satisfaction augmentera peut-être, mais parallèlement ceux qui rétrogradent dans la hiérarchie des revenus verront leur niveau de satisfaction baisser. Ce serait un jeu à somme nulle.

Pourtant, les populations des pays riches se déclarent en moyenne plus heureuses que celles des pays pauvres : le paradoxe d’Easterlin ne s’observe pas dans le cas de ces derniers. L’une des explications avancée pour concilier ces divers faits stylisés, notamment par Ronald Inglehart, est qu’il existerait un seuil de satiété. En-deçà de ce seuil, la croissance améliore la satisfaction moyenne, par exemple en permettant à la population de mieux satisfaire ses besoins de base ; mais à partir de ce seuil, le paradoxe d’Easterlin s’appliquerait : la poursuite de la croissance ne parviendrait plus à accroître la satisfaction moyenne. Peut-être qu’une fois les besoins de base satisfaits, la survie assurée, les individus ne verraient plus leur satisfaction augmenter avec leur revenu, la satisfaction de besoins faisait apparaître de nouveaux besoins ou les individus se lançant dans une course assez vaine à la consommation ostentatoire. Une telle hypothèse a notamment été soutenue par Ed Diener et Martin Seligman (2004) et Andrew Clark et alii (2008) et Rafael Di Tella et Robert MacCulloch (2010). Pour Bruno Frey et Alois Stutzer (2002), il se situerait autour de 10.000 dollars. Richard Layard (2003, 2005) estimait tout d’abord que le seuil de satiété se situait à un revenu par tête autour de 15.000 dollars, avant de relever son estimation à 20.000 dollars (cf. graphique 1). 

GRAPHIQUE 1  Revenu moyen par tête et niveau de bonheur moyen 

Relation entre bonheur et revenu : y a-t-il un point de satiété ?

Betsey Stevenson et Justin Wolfers (2013) se sont penchés sur une telle hypothèse. La simple observation de la relation entre bien-être et revenu pour les différents centiles de la répartition du revenu dans les vingt-cinq pays les plus peuplés : les courbes ne semblent s’aplatir dans aucun pays (cf. graphique 2). Certes, la relation n’est pas linéaire, mais log-linéaire : plus le revenu est élevé, plus le supplément de revenu doit lui-même être de plus en plus important pour rapporter un même supplément de satisfaction. Cela dit, la relation reste positive et significative. Stevenson et Wolfers ont testé plus rigoureusement la présence d’un éventuel point de satiété à 9.000, 15.000 et 25.000 dollars. Leur analyse n’a pas fait apparaître de rupture de la relation entre bien-être et revenu moyen pour de tels niveaux de revenu par tête. 

GRAPHIQUE 2  Bien-être et revenu dans les 25 pays les plus peuplés

Relation entre bonheur et revenu : y a-t-il un point de satiété ?

Dans une nouvelle étude de l’INSEE, Jean-Marc Germain (2024) s’est à son tour penché sur l’identification d’un éventuel seuil de satiété. Pour cela, il a utilisé des données d’enquête sur les conditions de vie des ménages dans cinq pays, en l’occurrence la France, l’Allemagne, le Royaume-Uni, les Etats-Unis et l’Australie. Il conclut en la présence d’un seuil de satiété pour la satisfaction dans la vie de 30.000 euros en France, 40.000 euros en Allemagne, 45.000 euros au Royaume-Uni, 60.000 euros en Australie et 80.000 euros aux Etats-Unis ; la satiété est toutefois partielle dans le cas de ces deux derniers pays.

A partir des données de panel françaises, Germain approfondit son analyse en allant au-delà de la seule identification du point de satiété. Il constate Notamment que, en-deçà du seuil de satiété, une baisse du revenu réduit davantage la satisfaction dans la vie qu’une hausse du revenu ne l’améliore ; une telle observation va dans le sens de l’hypothèse d’un effet de cliquet. En outre, selon ses estimations, l’effet de rivalité réduirait d’un tiers l’impact du revenu sur le bien-être subjectif. Enfin, Germain montre que le fait de vivre seul, les problèmes de santé et l’exposition à la pollution ont le même effet négatif sur le bien-être déclaré que l’on soit au-dessus ou au-dessus du seuil de satiété. En revanche, l’expérience du chômage, le sentiment d’insécurité civile et la pression au travail ont un effet négatif plus puissant lorsque le revenu est inférieur au point de satiété plutôt qu’au-dessus.

 

Références

CLARK, Andrew E., Paul FRIJTERS & Michael A. SHIELDS (2008), « Relative income, happiness, and utility: An explanation for the Easterlin paradox and other puzzles », in Journal of Economic literature, vol. 46, n° 1.

DAVOINE, Lucie (2020), Economie du bonheur, nouvelle édition, La Découverte.

DEATON, Angus (2008), « Income, health and well-being around the world: Evidence from the Gallup word poll », in Journal of Economic Perspectives, vol. 22, n° 2.

DI TELLA, Rafael, & Robert MACCULLOCH (2010), « Happiness adaptation to income beyond ‘basic needs’ », in Ed Diener, John Helliwell & Daniel Kahneman (dir.), International Differences in Well-Being, Oxford University Press.

DIENER, Ed, & Martin E.P. SELIGMAN (2004), « Beyond money: Toward an economy of well-being », in Psychological science in the public interest, vol. 5, n° 1.

DUESENBERRY, James (1949), Income, Saving and the Theory of Consumer Behavior, Harvard University Press. 

EASTERLIN, Richard A. (1974), « Does economic growth improve the human lot. Some empirical evidence », in Paul David & Melvin Reder (dir.), Nations and Households in Economic growth: Essays in Honor of Moses Abramovitz.

EASTERLIN, Richard A. (2016), « Paradox lost? », in Review of Behavioral Economics, vol. 4, n° 4.

FREY, Bruno S., & Alois STUTZER (2002), « What can economists learn from happiness research? », in Journal of Economic Literature, vol. 40, n° 2.

GERMAIN, Jean-Marc (2024), « Bien-être ressenti et revenu : l’argent fait-il le bonheur ? », INSEE, document de travail.

INGLEHART, Ronald (1997), Modernization and Postmodernization, Princeton University Press.

KAHNEMAN, Daniel, & Angus DEATON (2010), « High income improves evaluation of life but not emotional well-being », in Proceedings of the National Academy of Sciences, vol. 107, n° 38.

KAHNEMAN, Daniel, Jack L. KNETSCH & Richard H. THALER (1991), « Anomalies: The endowment effect, loss aversion, and status quo bias », in Journal of Economic Perspectives, vol. 5, n° 1.

LAYARD, Richard (2003), « Happiness: Has social science a clue? What is happiness? Are we getting happier? ».

LAYARD, Richard (2005), Happiness: Lessons from a New Science, Penguin.

SENIK, Claudia (2014), L'Economie du bonheur, Le Seuil.

STEVENSON, Betsey, & Justin WOLFERS (2008), « Economic growth and subjective well-being: Reassessing the Easterlin paradox », in Brookings Papers on Economic Activity, vol. 2008, n° 1.

STEVENSON, Betsey, & Justin WOLFERS (2013), « Subjective well-being and income: Is there any evidence of satiation? », in American Economic Review, Papers and Proceedings, vol. 103, n° 3.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher