Comment comparer les coûts actuels d’une action de protection de l’environnement avec les coûts futurs des conséquences de l’inaction ? Christian Gollier propose une approche scientifique de cet arbitrage intertemporel entre coûts et bénéfices.
Comment comparer les coûts actuels d’une action de protection de l’environnement avec les coûts futurs des conséquences de l’inaction ? Christian Gollier propose une approche scientifique de cet arbitrage intertemporel entre coûts et bénéfices.
Dans son dernier livre, Pricing the planet’s future, Christian Gollier revient sur le vieux problème économique du choix d’un taux d’actualisation pour sélectionner des projets d’investissement sur le long terme. Face à une décision de ce type, on recourt fréquemment à l’analyse coûts-bénéfices qui consiste à faire la somme des coûts et des bénéfices impliqués par le projet d’investissement. Mais comme ces coûts Ct et ces bénéfices Bt se réalisent en général à des dates, t, différentes, ils sont pondérés par un facteur 1/(1 + r)t, qui décroît avec le temps et où r est le taux d’actualisation. Plus r est grand, moins les composantes d’une date éloignée ont d’importance, le taux r indiquant implicitement ce que vaut un euro à une date t quelconque par rapport à un euro en t-1. Ainsi, actualisé à 5%, un euro dans un an est égal à 1/1,05 euros aujourd’hui, soit environ 0,95 euros qui est la valeur actualisée de un euro dans un an. Au final, on sélectionnera le projet si sa valeur actualisée nette, égale à la somme des [Bt — Ct]/(1 + r)t pour chaque date t, est positive. Le taux d’actualisation est donc utilisé par les économistes pour calculer la valeur que l’on donne aujourd’hui au futur.
Cette question est particulièrement sensible pour les projets ayant une composante environnementale qui sont généralement un horizon de long terme. L’influence du taux d’actualisation sur la valeur d’un tel projet est en effet très importante. Ainsi, la valeur actuelle d’un million d’euros dans 300 ans avec un taux de 1% est d’environ 50 000 euros alors qu’avec un taux de 5% elle sera de moins de 50 centimes. La multiplication par 5 du taux divise par 100 000 la valeur actualisée à cet horizon. Les différences qu’implique le choix de la valeur du taux d’actualisation sur la valeur actuelle de l’investissement futur permettent de comprendre pourquoi ce taux est aujourd’hui le centre de nombreuses discussions et controverses parmi les spécialistes du climat.
Une illustration récente de l’importance de ce débat a été donnée par la publication du « rapport Stern » [1] sur le changement climatique. On sait que ce rapport aboutissait à préconiser, sur la base d’une analyse coûts-bénéfices, la mise en œuvre immédiate d’une politique de lutte contre le changement climatique, estimant que le coût de l’attente était nettement plus important que celui de l’action. Pour arriver à cette recommandation, l’actualisation des coûts et des bénéfices se faisait au taux de 1,4%. Très rapidement, ce choix a été critiqué, notamment par l’économiste William Nordhaus [2], spécialiste reconnu des questions climatiques, qui, en prenant un taux d’actualisation de 6% aboutissait à la recommandation opposée c’est à dire à préconiser l’attente à l’action immédiate. En effet, les bénéfices d’une lutte contre le changement climatique sont essentiellement des dommages évités dans le futur tandis que ses coûts sont immédiats (par exemple, si on investit dans les énergies renouvelables plus fortement aujourd’hui, l’énergie finale va immédiatement coûter plus cher que celle obtenue en continuant à exploiter les ressources fossiles nettement plus bon marché. Et nous n’en tirerons les résultats que dans quarante ou cinquante ans sous la forme d’un réchauffement, et donc des dommages, plus faibles que prévus). Dans une analyse coûts-bénéfices avec un taux d’actualisation élevé, ces bénéfices seront très minorés et les coûts l’emporteront, conduisant à ne pas entreprendre la lutte contre le changement climatique. De nombreux autres économistes sont ensuite intervenus dans la discussion pour appuyer l’une ou l’autre position, en particulier Christian Gollier, dont le livre recensé ici peut être lu comme l’exposé de l’état de l’art des connaissances actuelles sur cette question du taux d’actualisation.
Affirmé dès la première page, le but « ultime » de l’auteur est d’aider à construire un consensus sur la manière dont la société devrait valoriser le futur, autrement dit sur la détermination du « bon » taux d’actualisation, s’appuyant sur les fondements scientifiques les plus solides possible. C’est donc un livre qui a une double dimension. Il a d’une part une dimension pédagogique affirmée, avec une volonté de présenter l’état le plus à jour des bases théoriques du taux d’actualisation, même s’il s’adresse avant tout à des lecteurs ayant de bonnes connaissances en économie et n’étant pas rebutés par le formalisme mathématique. Pour ce faire, le livre est organisé en quatre parties, composées de chapitres assez courts et abordant le sujet en le complexifiant progressivement, chacun d’eux se terminant par un résumé succinct des principaux résultats obtenus (ce qui peut convenir au lecteur qui n’a pas suivi l’exposé formel au cours du chapitre concerné). D’autre part, l’auteur présente un point de vue normatif assumé qui le place en « conseiller du prince ». Ainsi il n’hésite pas à fournir au fil de l’ouvrage des estimations quantitatives du « bon » taux d’actualisation en s’appuyant sur les résultats présentés précédemment.
Il serait fastidieux de décrire en détail le contenu des quatorze chapitres, aussi se contentera-t-on ici de s’en tenir à ce qui nous semble l’essentiel. Nous présentons tout d’abord les résultats principaux de l’ouvrage en essayant de les rendre accessibles, puis nous élaborons une critique des conclusions et de la méthode générale. La théorie de base du taux d’actualisation est présentée dans la première partie du livre, où il est défini comme le taux de rendement interne minimum d’un projet sans risque, c’est à dire le taux qui annule la valeur actualisée nette du projet. À l’aide d’un modèle simple à deux périodes, le chapitre 1 présente les trois manières de définir ce taux : le taux d’intérêt observé sur les marchés financiers, la productivité marginale du capital ou le taux de rendement de l’épargne. L’équivalence de ces trois façons de définir le taux d’actualisation vient d’un simple argument d’arbitrage sous la condition de marchés parfaits (notamment du crédit) et de plans de consommation optimaux ; si, par exemple, le taux d’intérêt sur les marchés financiers était inférieur au taux de rendement de l’épargne, un investisseur rationnel préférerait épargner plutôt que placer son argent sur les marchés : le taux de rendement de l’épargne diminuerait et l’investisseur continuerait à épargner jusqu’à retrouver l’égalité entre les deux taux). Le deuxième chapitre expose la règle de Ramsey qui est au cœur de la théorie et des développements présentés ultérieurement dans le livre. Cette règle stipule que le taux d’actualisation efficient (aussi bien individuel que social) r est la combinaison de trois paramètres : le taux de préférence pur pour le présent δ (ou « taux d’impatience »), le taux de croissance de l’économie, g et l’aversion relative pour l’inégalité intertemporelle de la consommation γ. La règle de Ramsey définit le taux d’actualisation de la manière suivante : r = d + gγ. Plus γ est élevé, moins nous souhaitons investir maintenant si nous anticipons que nous serons plus riche dans le futur et moins nous souhaiterons transférer notre richesse actuelle pour des générations plus riches que nous [3]. Il s’agit d’un paramètre qui n’est pas directement observable, comme la fonction d’utilité elle-même, et sur lequel il n’existe pas de consensus chez les économistes, les valeurs obtenues par estimation pouvant être comprises entre 0,7 et 15, voire plus. L’auteur retient comme valeur « raisonnable » γ = 2. En revanche, d’un point de vue normatif il y a un large consensus pour considérer que le taux de préférence pour le présent δ, (qui s’applique à la pondération des utilités alors que le taux d’actualisation r s’applique à la pondération des flux monétaires ou financiers), doit être nul puisque c’est la seule valeur qui donne un poids égal aux différentes générations dans l’allocation des utilités. En France, le rapport Lebègue [4] retient pour r la valeur de 4% (soit δ = 0, g = 2 et γ = 2).
Le troisième chapitre clôt la première partie en présentant des extensions de la règle de Ramsey en situation d’incertitude quant à la croissance prochaine. L’incertitude introduit un troisième terme dans la règle de Ramsey qui est négatif et s’interprète comme un effet de précaution. Alors que gγ est un effet de richesse en principe positif, l’effet de précaution vient réduire le taux d’actualisation. Il est conforme à l’intuition que plus le futur est incertain, plus on est incité à investir pour rendre ce futur plus sûr, ce qui conduit à diminuer le taux d’actualisation pour rendre cet investissement plus rentable. Ces deux effets jouent en sens opposé et on ne peut donc pas définir une règle générale stipulant que le taux d’actualisation en situation d’incertitude serait toujours plus petit (ou plus grand) que le taux d’actualisation sans incertitude. Toutefois, l’auteur montre qu’en cas de prudence [5], l’incertitude sur la croissance conduit à réduire légèrement le taux d’actualisation, l’effet de précaution l’emportant sur l’effet de richesse (de 0,4% pour les pays développés selon l’auteur, faisant ainsi passer le taux d’actualisation de 4% à 3,6%).
δ représente simplement la préférence individuelle pure pour le présent, et mesure ainsi l’ « impatience » : plus δ est élevé, plus un individu préfère toucher une somme maintenant que plus tard, et donc plus, naturellement, sont taux d’actualisation r est élevé.
Intuitivement, le taux de croissance de l’économie g rentre également comme déterminant dans le taux d’actualisation, parce que, par exemple, si l’économie croit, de manière générale, rapidement, les revenus ou la richesse d’un individu vont également croitre à un rythme important, ce qui fait que cet individu sera d’autant moins prêt à accepter que le versement d’une somme soit différée d’aujourd’hui à plus tard, puisque, à une date plus tardive, il sera plus riche.
Cet effet de la croissance économique générale sur le taux d’actualisation est pondéré par l’aversion pour l’inégalité intertemporelle de la consommation γ. Si γ est élevé, cela signifie que l’individu préfère « lisser » sa consommation au cours du temps, et éviter que celle-ci ne varie trop. Cette aversion rend donc naturellement un individu plus sensible à la croissance générale de l’économie g, qui affecte l’évolution temporelle de ses revenus, et donc de sa consommation.
La deuxième partie traite de la valeur du taux d’actualisation en fonction du terme considéré pour le projet, c’est à dire de la date à laquelle ses conséquences économiques deviennent négligeables ou nulles. Pour ce faire, le quatrième chapitre examine comment ce taux change selon l’évolution de l’effet de richesse et de l’effet de précaution. La difficulté vient du fait que les résultats sont très sensibles aux hypothèses faites [7]. En particulier, selon le type de croissance de l’économie, le taux d’actualisation peut dépendre ou non du temps. Les résultats théoriques peuvent donc varier fortement en fonction des paramètres. Le cinquième chapitre introduit la possibilité d’événements extrêmes (comme une baisse brutale de la production) dont la probabilité est connue tandis que le chapitre suivant considère que même cette probabilité est incertaine. Comme on peut s’y attendre, les résultats précédents ne tiennent plus et tout dépend des hypothèses faites sur la nature des incertitudes. Le chapitre qui clôt la deuxième partie, propose une théorie unifiée du taux d’actualisation en fonction de la maturité, c’est à dire de la durée de vie du projet. Là aussi, les résultats vont dépendre des hypothèses faites sur la nature des incertitudes mais ils confirment le fait que la plupart du temps, le taux d’actualisation d’un projet à long terme sera plus faible que celui d’un projet à plus court terme.
Les deux dernières parties sont consacrées à des extensions des résultats précédents et confirme l’idée que généralement le taux d’actualisation doit être d’autant plus faible que les revenus futurs sont lointains. La raison est toujours la même et tient au poids généralement plus important de l’effet de précaution par rapport à l’effet de richesse. Le livre se termine par une conclusion générale d’une page où l’on peut penser que l’auteur a mis les résultats qu’il considère comme essentiels. Il y réaffirme que son objectif était d’établir un consensus sur le taux d’actualisation social à utiliser dans l’analyse coûts-bénéfices, une question qui le préoccupe depuis de nombreuses années comme le montrent les nombreux articles qu’il y a consacré et qui sont cités au fil de son ouvrage. Cette préoccupation se traduit aussi tout au long du livre où chaque chapitre se termine par un exercice de calibrage [8] aboutissant à donner une valeur la plus précise possible au taux d’actualisation. Du point de vue quantitatif, le résultat principal que l’auteur reprend dans sa conclusion générale, consiste à recommander un taux double du taux de croissance anticipé pour les projets à maturité courte (5 à 10 ans), ce qui implique d’après la règle de Ramsey γ = 2, et un taux d’actualisation compris entre 1 et 2% pour les projets à maturité longue du fait de l’incertitude plus grande qui est la leur.
int ?
Peut-on pour autant suivre l’auteur dans sa position normative en acceptant comme il l’affirme au début du chapitre 4 que « la première partie de ce livre conclut qu’il y a une base scientifique solide pour recommander l’utilisation d’un taux d’actualisation dans le monde développé autour de 3,6% pour les cash flows des prochaines années » ? Si on accepte comme base de départ la règle de Ramsey (dont il faut quand même souligner qu’elle est aussi liée à des hypothèses discutables, dont celle d’efficience des marchés financiers) et le fait que le taux de préférence pur pour le présent δ est nul, le paramètre clé est le paramètre γ que l’auteur estime « raisonnablement » à 2, ce qui n’est pas un argument d’une rigueur scientifique évidente ! Il en résulte une discussion entre experts qui n’est pas sans rappeler celle sur le sexe des anges. Ainsi Martin Weitzman [9] juge que la plupart des économistes trouvent « décent » le trio de valeurs (δ = 2, g = 2, γ = 2), même si « de son propre point de vue » les valeurs (δ = 1, g = 2, γ = 2,5) ou (δ = 0, g = 2, γ = 3) lui semblent tout aussi « raisonnables », aboutissant de toute façon à un taux d’actualisation de 6% dont on peut penser qu’il était déjà anticipé par lui comme étant la « bonne » valeur. On notera enfin que le recours à la règle de Ramsey revient à remplacer la recherche de la valeur (inconnue) du taux d’actualisation r par la recherche des valeurs (tout aussi inconnues) du taux de préférence pour le présent δ et de la fonction d’utilité (i.e. du paramètre γ), ce qui ne garantit pas nécessairement un gain d’efficacité ou de possibilité d’explication.
Ne pouvant pas en rester à des « justifications » si clairement subjectives, un argument est fréquemment avancé pour proposer telle valeur de γ, c’est le recours à l’observation des comportements réels des agents dans leurs décisions d’investissement et d’épargne. C’est la position de Martin Weitzman dans l’article cité précédemment, où ce dernier remarque, avec raison, que la plupart des économistes s’accordent pour considérer que les comportements des agents ne sont pas cohérents avec un taux de préférence pour le présent nul et une aversion relative pour l’inégalité égale à 1. Ces valeurs conduisent à un taux d’actualisation égal au taux de croissance (soit environ 2%) alors que les taux d’intérêts sur les marchés financiers sont nettement supérieurs, donc en contradiction avec l’argument d’arbitrage évoqué plus haut. Néanmoins, cette justification fondée sur l’observation ne tient plus si l’on adopte une approche normative comme Christian Gollier dans son livre. Ce n’est pas parce que les comportements sont ce qu’ils sont, qu’il faut accepter ce qu’ils induisent. La volonté de prendre comme point de départ l’observation des comportements est d’autant moins justifiée que notre mode de développement économique est aujourd’hui largement remis en question, notamment du fait de la crise écologique, mais aussi de la crise financière qui remet en cause la rationalité qu’on leur prêtait jusqu’ici. Il ne devient d’ailleurs plus impensable que nous puissions être non pas nécessairement plus riches dans le futur mais au contraire plus pauvres (ce qui impliquerait un taux de croissance négatif et donc un taux d’actualisation également négatif [10]). Il faut d’ailleurs souligner que le taux de croissance g utilisé dans les calculs de l’auteur est celui qu’il tire des statistiques disponibles, à savoir celles qui calculent des PIB dont on sait qu’ils ne tiennent compte ni des externalités ni de l’épuisement des ressources naturelles. Ce faisant, utiliser de tels taux pour définir le « bon » taux d’actualisation à l’aide de la règle de Ramsey risque de conduire à un taux trop élevé, et donc réduisant d’autant les opportunités d’investissements, notamment ceux dont les bénéfices attendus sont éloignés dans le temps, comme les investissements écologiques. C’est d’ailleurs la raison pour laquelle aujourd’hui les énergies renouvelables, par exemple, ont besoin d’être subventionnées pour être rentables. Au taux de 4% les réductions de dommages qu’elles promettent (par diminution des émissions de gaz à effet de serre) ne sont pas suffisamment valorisées face aux bénéfices tirés de l’exploitation des ressources fossiles.
Finalement, on reste peu convaincu au terme de la lecture, et malgré l’appareillage mathématique qui ne peut qu’impressionner, que le taux d’actualisation qui devrait être utilisé dans les choix d’investissements à long terme soit celui qui est proposé par l’auteur. Soulignant les profondes divergences, mises en évidence par Martin Weitzman [11] (1998) au sein des économistes les plus réputés, sur le taux d’actualisation qui devrait être utilisé dans la lutte contre le changement climatique, il affirmait y trouver une motivation à son travail, mais en refermant son livre on a le sentiment que les divergences demeurent. La raison en est peut-être dans cette référence à la règle de Ramsey qui irrigue tous les développements de l’ouvrage. Vouloir à tout prix fonder scientifiquement la valeur d’un paramètre aussi subjectif que l’aversion relative à l’inégalité peut sembler un défi bien difficile à relever. Il y a pourtant une alternative et il est étonnant de ne pas la voir mentionnée dans un livre qui se veut la référence actuelle sur ce thème. Elle est présentée dans un article de Mertens et Rubinchik [12] où les auteurs montrent que si on tient sérieusement à la position éthique d’un traitement égal des différentes générations(δ = 0), il est possible en normalisant de manière adéquate les utilités, de faire disparaître l’aversion à l’inégalité ce qui conduit à un taux d’actualisation égal au taux de croissance de l’économie. Si ce dernier n’en reste pas facilement prévisible, il est néanmoins beaucoup plus accessible (et discutable sur des bases objectives) que le paramètre γ. La normalisation utilisée tient sa justification dans le fait que deux agents économiques ayant exactement les mêmes caractéristiques biologiques et psychologiques, (ayant donc les mêmes fonctions de demande), ne tireront pas la même utilité d’un panier de bien identique indépendamment de leur environnement. Ainsi, un américain et un pakistanais pauvres avec la même fonction d’utilité (donc le même γ) ne tireront pas la même utilité d’un dollar selon qu’ils vivent aux USA ou au Pakistan. Cette approche est évidemment en contradiction avec celle de l’agent représentatif, c’est à dire d’un agent théorique unique représentant la société toute entière, telle qu’elle est utilisée par Christian Gollier pour traiter de l’influence des inégalités sur le taux d’actualisation dans son chapitre 9 et qui trouve que cela dépend de la fonction d’utilité de l’agent représentatif [13]. La normalisation proposée par Mertens et Rubinchik, sans abandonner l’idée d’un agent représentatif, permet néanmoins d’éliminer la référence à l’aversion relative à l’inégalité g pour définir un taux d’actualisation qui réalise une réelle équivalence entre générations. En éliminant le paramètre subjectif non observable de la règle de Ramsey elle permet néanmoins de continuer à donner une valeur au futur (et donc de pouvoir prendre des décisions ayant des conséquences intertemporelles) en s’appuyant sur les anticipations de croissance qui sont plus « objectives » et en tout cas plus accessibles à la discussion collective.
En fin de compte, le livre de Christian Gollier, s’il ne réussit pas à atteindre l’objectif « ultime » qu’il s’était fixé, peut être lu comme un document utile pour juger de la manière dont la plupart des économistes abordent cette vieille question du taux d’actualisation. Et de ce point de vue, il n’est pas sûr qu’il réussisse à construire le consensus que l’auteur appelait de ses vœux.
par , le 23 septembre 2013
Deux articles de C. Gollier sur les taux d’actualisation et le développement durable :
Gilles Rotillon, « Peut-on fixer le prix du futur de la planète ? », La Vie des idées , 23 septembre 2013. ISSN : 2105-3030. URL : https://laviedesidees.fr/Peut-on-fixer-le-prix-du-futur-de
Si vous souhaitez critiquer ou développer cet article, vous êtes invité à proposer un texte au comité de rédaction (redaction chez laviedesidees.fr). Nous vous répondrons dans les meilleurs délais.
[1] Le rapport Stern fut le premier rapport officiel de grande ampleur sur le changement climatique réalisé par un économiste ; il bénéficia d’un écho important sur la scène internationale. Le rapport original en anglais est disponible sur la page : http://www.webcitation.org/5nCeyEYlr. Pour un résumé en français, voir http://www.hm-treasury.gov.uk/d/stern_longsummary_french.pdf.
[2] Nordhaus, William D. 2007. “A Review of the Stern Review on the Economics of Climate Change.” Journal of Economic Literature, 45, 686-702.
[3] Ce paramètre est égal à —cu’’(c)/u’(c) où u est la fonction d’utilité et c la consommation et peut aussi s’interpréter comme l’aversion relative au risque.
[4] Rapport Lebègue. 2005. Révision du taux d’actualisation des investissements publics. Commissariat Général au Plan.
[5] La prudence est définie par le fait que la dérivée troisième de la fonction d’utilité est positive ou nulle.
[6] Ramsey, Frank P. (1928). « A Mathematical Theory of Saving », Economic Journal, 38 (152), p. 543—559
[7] Ainsi, si g suit une marche aléatoire et si γ est constante, r est indépendant de la maturité du projet considéré, mais ce n’est plus le cas si g suit un processus autorégressif d’ordre 1.
[8] Partant de la règle de Ramsey, il s’agit, en s’appuyant sur des statistiques disponibles ou des résultats d’enquêtes, (le calibrage), de donner des valeurs « plausibles » aux paramètres de la règle ou de ses extensions.
[9] Weitzman, Martin L.2007. “A Review of the Stern Review on the Economics of Climate Change.” Journal of Economic Literature, 45, 703-724.
[10] Un taux d’actualisation négatif implique que le futur est davantage valorisé que le présent. Un euro dans un an avec un taux d’actualisation de -2% a une valeur actuelle d’environ 1,02 euros. Cela revient à donner d’autant plus d’importance aux conséquences économiques qu’elles sont éloignées dans le temps. Dans ces conditions, la lutte contre le changement climatique serait une priorité.
[11] Weitzman, Martin L.1998. “Gamma discounting” American Economic Review, 91, 260-271.
[12] Mertens Jean-François, Rubinchik Anna. 2008. “Intergenerational Equity and the Discount Rate for Cost-Benefit Analysis” CORE Discussion paper n°2008077, 1-25, publié en 2012 dans Macroeconomic Dynamics, 16, p. 61-93.
[13] Plus précisément de la concavité ou de la convexité de la prudence absolue de l’utilité.