21
1 Les modèles dans les débats de politiques climatiques : entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès que la question climat émergea sur l’agenda international en 1988, les modélisateurs furent submergés de commandes pour répondre à deux questions : faut-il agir maintenant attendre des preuves évidentes des risques encourus? Comment coordonner des politiques touchant à l'ensemble des secteurs d'activité dans les 192 pays que compte la planète ? L’économiste est mis ici au défi de l’ambition qu’il se donne soit, pour reprendre l’expression de Alan Manne, to put some rationale into discussions, fournir un langage commun à des parties prenantes séparées par des divergences d’intérêt et par des vues contrastées des enjeux. Son utopie mobilisatrice est celle d’un dialogue serein entre partisans de l’action, convaincus de la gravité des risques climatiques et de la possibilité de décarboniser nos économies à coûts faibles et tenants de l’inaction optimistes sur l’ampleur des risques et pessimistes sur les coûts d’une décarbonisation significative. Quel bilan tirer un quart de siècle plus tard ? On partira ici de l’idée que, au-delà d’un flux de ‘chiffres’ fournis de façon continue, la contribution la plus cruciale de la modélisation s’est faite au niveau de la problématisation même des enjeux. Le fait que le Protocole de Kyoto soit un ‘unfinished business’ (retrait des USA, pas d’engagement quantifié des pays en développement) est certes du à plusieurs facteurs dont des paramètres géopolitiques puissants. Mais on ne peut faire comme si la structuration intellectuelle du processus n’était pour rien dans ce semi échec alors même qu’un accord était loin d’être impossible entre ‘intérêts économiques bien compris’ (Hourcade et Ghersi, 2002). Nous essayerons de montrer que parmi les obstacles à un compromis, il y a les difficultés des modélisateurs à maîtriser les visions du monde (donc les malentendus) qui se créent autour de leurs exercices et les tensions entre les règles de la syntaxe des modèles (imposée par les mathématiques et par les contraintes calculatoires), celles de leur sémantique (imposée par le corpus théorique sur lequel ils s’adossent) et les glissements de sens provoqués par l’utilisation dans le langage ‘naturel’ des débats publics de notions sorties de leur contexte sémantique. Nous le ferons par un itinéraire passant par trois lieux importants de controverses sur les politiques climatiques. A chaque étape nous demanderons au lecteur un peu de patience et nous l’arrêterons sur des ‘détails’ apparemment techniques. Dans ces détails se jouent en effet les tensions entre les modèles comme langages de vérité sur le monde réel et les modèles comme langage de négociation entre des acteurs. Les modèles dont on parle ici sont des artefacts utiles pour ‘penser’ les enjeux des mondes futurs. Mais on va se rendre compte comment ceux-ci sont interprétés en fonction de croyances pré-établies (changeantes en fonction des périodes et des nécessités rhétoriques) et comment, sans élucidation de ces interprétations, les risques sont grands que les exercices

Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

1

Les modèles dans les débats de politiques climatiques : entre le capitole et la roche tarpéienne ?

Jean-Charles Hourcade

CIRED Novembre 2006

Dès que la question climat émergea sur l’agenda international en 1988, les modélisateurs furent submergés de commandes pour répondre à deux questions : faut-il agir maintenant attendre des preuves évidentes des risques encourus? Comment coordonner des politiques touchant à l'ensemble des secteurs d'activité dans les 192 pays que compte la planète ? L’économiste est mis ici au défi de l’ambition qu’il se donne soit, pour reprendre l’expression de Alan Manne, to put some rationale into discussions, fournir un langage commun à des parties prenantes séparées par des divergences d’intérêt et par des vues contrastées des enjeux. Son utopie mobilisatrice est celle d’un dialogue serein entre partisans de l’action, convaincus de la gravité des risques climatiques et de la possibilité de décarboniser nos économies à coûts faibles et tenants de l’inaction optimistes sur l’ampleur des risques et pessimistes sur les coûts d’une décarbonisation significative. Quel bilan tirer un quart de siècle plus tard ? On partira ici de l’idée que, au-delà d’un flux de ‘chiffres’ fournis de façon continue, la contribution la plus cruciale de la modélisation s’est faite au niveau de la problématisation même des enjeux. Le fait que le Protocole de Kyoto soit un ‘unfinished business’ (retrait des USA, pas d’engagement quantifié des pays en développement) est certes du à plusieurs facteurs dont des paramètres géopolitiques puissants. Mais on ne peut faire comme si la structuration intellectuelle du processus n’était pour rien dans ce semi échec alors même qu’un accord était loin d’être impossible entre ‘intérêts économiques bien compris’ (Hourcade et Ghersi, 2002). Nous essayerons de montrer que parmi les obstacles à un compromis, il y a les difficultés des modélisateurs à maîtriser les visions du monde (donc les malentendus) qui se créent autour de leurs exercices et les tensions entre les règles de la syntaxe des modèles (imposée par les mathématiques et par les contraintes calculatoires), celles de leur sémantique (imposée par le corpus théorique sur lequel ils s’adossent) et les glissements de sens provoqués par l’utilisation dans le langage ‘naturel’ des débats publics de notions sorties de leur contexte sémantique. Nous le ferons par un itinéraire passant par trois lieux importants de controverses sur les politiques climatiques. A chaque étape nous demanderons au lecteur un peu de patience et nous l’arrêterons sur des ‘détails’ apparemment techniques. Dans ces détails se jouent en effet les tensions entre les modèles comme langages de vérité sur le monde réel et les modèles comme langage de négociation entre des acteurs. Les modèles dont on parle ici sont des artefacts utiles pour ‘penser’ les enjeux des mondes futurs. Mais on va se rendre compte comment ceux-ci sont interprétés en fonction de croyances pré-établies (changeantes en fonction des périodes et des nécessités rhétoriques) et comment, sans élucidation de ces interprétations, les risques sont grands que les exercices

Page 2: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

2

modélisés ne participent à des jeux de masque qui amoindrissent leur capacité à révéler des mécanismes méconnus et pourtant essentiels pour les débats publics. I. EVALUATION DES POLITIQUES : ET SI ON REGARDAIT LE SCENARIO DE

REFERENCE ? Toute évaluation des politiques publiques repose sur un principe simple, projeter un

scénario de référence puis y injecter des mesures qui le déforment. Il est alors frappant de constater que les discussions se polarisent sur ces mesures sans trop prêter attention au scénario de référence, comme si celui-ci n’était qu’un simple détour du raisonnement. Or comme, on va le voir, l’écriture de ce scénario prédétermine bien des conclusions.

Les enjeux d’un dialogue récurrent entre deux modeling tribes

Une part importante des scénarios énergie-croissance utilisés dans le dossier climat est

produite par des modèles dits bottom-up (BU). Riches en information technologique, ils utilisent un langage proche de celui de l’ingénieur (expression en quantités physiques des besoins de confort thermique, d’éclairage, de mobilité ou de force motrice) et leur composante économique se réduit à la projection d’un scénario de croissance économique simple (le PIB, sa répartition sectorielle et le revenu des ménages) et à la formulation d’hypothèses sur les coûts des techniques et des énergies fossiles. Même si cela n’est pas systématique, ces modèles conduisent assez aisément à des résultats plutôt optimistes. Les ingénieurs en effet sont habiles à détecter des potentiels ‘à coûts négatifs’, en particulier matière d’efficacité des équipements utilisateurs d’énergie ; ces potentiels sont dus à l’écart entre les techniques en place et la meilleure technologie disponible. De même ils savent dessiner des systèmes futurs de production d’énergie très peu émetteurs de carbone, chacun bien sûr en fonction d’une expertise difficilement séparable de ses propres croyances ; tel fera un scénario ‘doux’ mobilisant les énergies nouvelles et renouvelables, tel autre mettra en scène la nouvelle corne d’abondance que constituerait une ‘société de l’hydrogène’ adossée au nucléaire civil.

L’autre ‘tribu’ est celle des modèles ‘top-down’ qui privilégient l’étude des

interdépendances économiques entre groupes sociaux, secteurs et pays. Mobilisant la boîte à outil de l’économiste, elle s’intéresse aux flux de valeur mais dessinent de façon beaucoup plus fruste le contenu technique des scénarios. Sauf à représenter, on y reviendra, le double-dividende à attendre d’une articulation entre politiques climatiques et réformes fiscales, ces modèles conduisent à des résultats généralement plus pessimistes. Ils mettent en scène en effet des arguments solides qui tempèrent l’optimisme des approches d’ingénieur : impacts (sur la distribution des revenus, l’emploi, la compétitivité, les choix de technique) de la transformation des prix relatifs provoquée par les outils d’incitation (taxes, permis négociables, normes) à mettre en place1, contraintes de financement venant du fait que les technologies ‘sans carbone’ sont en général bien plus que les énergies fossiles, hausse de la demande provoquée par les gains d’efficacité énergétique et baisse de la demande2.

1 Il n’est pas inutile de noter que l’argument vaut pour l’exploitation des potentiels à coûts négatifs : si les meilleures techniques ne sont pas adoptées aujourd’hui, c’est bien qu’il y a quelque part une défaillance des structures d’incitation. 2 Si, par des normes ou accords volontaires, on diffuse des moteurs consommant deux litres de carburants ex-fossiles aux cent km, cela fera baisser le coût de la mobilité automobile et rendra le transport routier de marchandises plus compétitif par rapport au rail en l’absence d’une hausse des taxes sur les carburants.

Page 3: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

3

L’enjeu du dialogue entre économistes et ingénieurs paraît donc évident : ce ne sont pas des quantités de dollars ou d’euros qui émettent des gaz à effet de serre et il faut bien représenter les systèmes techniques ; mais penser ces systèmes indépendamment de leur contexte économique et social c’est construire des chimères. Or ce dialogue achoppe sur quelques ‘détails’ techniques ; si on les regarde de près, on s’apercevra qu’ils sont en fait révélateur de postures intellectuelles renvoyant à des enjeux plus fondamentaux que la simple question du dialogue entre ingénieurs et économistes.

D’une astuce technique à une vision du fonctionnement du monde

Partons des modèles d’équilibre général calculables (MEGC) mobilisés par les

économistes pour pallier le caractère partiel des modèles bottom-up. Ces modèles apparaissent dans un contexte précis à la fin des années quatre-vingt : repli des modèles keynésiens critiqués pour leur manque de fondements microéconomiques, mise au point d’algorithmes pour la résolution de modèles d’équilibre général de taille respectable tournant sur des micro-ordinateurs. Bientôt, la diffusion de logiciels comme GAMS permettra, avec une bonne formation mathématique et quelque ténacité, d’écrire rapidement des maquettes de toute économie. Les MEGC vont bénéficier d’un important effet d’autorité et des modèles empiriques assez riches pourront être adossées à la théorie de l’équilibre général alors que celle-ci était surtout utilisée jusqu’ici dans des analyses en statique comparative sur la base de maquettes très compactes de l’économie et ne pouvant fournir que des enseignements qualitatifs sur la nature des mécanismes en jeu. Mais ce succès se fait au prix d’un tour de force méthodologique dont on méconnaît généralement les implications.

Nous avons vu l’importance du traitement de la demande d’énergie ; c’est là que certains voient une source de coûts négatifs, c’est aussi la variable clef qui contrebalance la hausse du coût en capital des techniques économes en carbone et l’impact sur le pouvoir d’achat des consommateurs d’une hausse des prix unitaires des énergies. Or, les MEGC vont employer, pour l’analyse de la demande, une méthodologie qui va rendre difficile la discussion des marges de manœuvre réelles à ce niveau.

La grande force des MEGC est de saisir les interdépendances et le concept d’équilibre est ici central mais dans un sens très précis qui est en fait une contrainte de conservation des flux de valeur. Agents et secteurs interagissent mais les flux qui les lient doivent être équilibrés dans un sens strictement comptable : si un ménage ou un Etat est endetté, il y aura simplement un signe moins sur le chiffre donnant son solde. Pour le dire crûment, l’équilibre comptable peut renvoyer à des économies très déséquilibrées ; les premiers modèles empiriques utilisant cette approche dans les années quatre-vingt traitaient d’ailleurs d’économies sous-développées fort loin de l’équilibre optimal.

Un premier glissement sémantique autour de la notion d’équilibre vient de ce que, par

opposition aux modèles keynésiens, les MEGC vont chercher un fondement microéconomique en représentant des acteurs économiques rationnels: observant les prix en vigueur, les ménages composent leurs achats de façon à maximiser l’utilité qu’ils tirent d’un revenu donné et les entreprises sélectionnent la technique qui minimise leur coût de production. Qu’il me soit permis de demander ici au chercheur en sciences sociales sceptique sur la notion de rationalité optimisatrice de ‘jouer le jeu’ et d’admettre qu’après tout la formalisation dont nous parlons n’implique pas nécessairement une adhésion à l’anthropologie de l’homo oeconomicus. On peut penser que l’évolution des techniques et des préférences n’est pas réductible à des mécanismes économiques, et en même temps, qu’une

Page 4: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

4

entreprise ne peut prendre durablement le risque d’une technique plus chère sans raisons stratégiques; de même, la rationalité d’un consommateur est limitée par l’information dont il dispose et le système symbolique qui formate ses goûts, mais il ne fera pas durablement exprès d’acheter très cher un bien peu utile.

Ce qui nous intéresse ici est le nœud de malentendu autour du traitement de la

composante physique dans un tel dispositif. Concentrons nous, pour des raisons de simplicité sur la fonction de production (le raisonnement vaut, mutatis mutandi, pour la demande des ménages). L’information de base utilisée par un MEGC est un tableau de flux en valeur dont on peut tirer une structure de coût (part de dépenses allouées au travail, aux équipements, à l’énergie et aux autres consommations intermédiaires. L’économiste ne connaît pas la fonction de production ‘physique’ au sens de l’ingénieur qui sous-tend ce tableau, fonction d’ailleurs trop complexe pour être écrite en termes tractables. Mais l’économiste la révèle à un niveau agrégé, depuis Berndt et Wood (1975) et Jorgenson (1981) grâce à une technique précise qui est une reprise d’un ‘truc’ (wrinkle) employée par Solow (1956) pour écrire son modèle de croissance devenu modèle canonique de la discipline.

Ce ‘truc’ repose sur l’hypothèse d’égalité du rapport des prix des facteurs et de leur

productivité marginale (par exemple les salaires avec la productivité du travail). On montre en effet montrer 3 qu’autour d’un point d’équilibre optimal, on peut faire correspondre à une fonction de production ‘physique’ une fonction coût (en valeur). Concrètement la première fonction dit que pour produire 100 unités d’un produit donné il faudra 100000 heures de travail, 300 tonnes d’énergie (en équivalent pétrole), 20 tonnes d’acier et 100 unités d’une machine fictive (l’amortissement du parc); la deuxième dira que les salaires, le pétrole, l’acier et les machines représentent 30%, 10%, 5% et 15% du coût de production. Dans les faits, les structures de coût sont seules données par les statistiques; on peut donc calculer ses coefficients puis révéler ceux de la fonction ‘réelle’ en connaissant les prix des facteurs. Il suffit pour cela de choisir une forme fonctionnelle (Cobb-Douglas, CES) et de se munir d’un compendium mathématique (Berck, P., Sydsaeter, K., 1992) donnant les formules nécessaires.

Reste bien sûr à s’interroger sur le domaine de validité de ce ‘truc’. Juste avant la généralisation, avec un important effet d’autorité de ces fonctions de production dans les modèles empiriques, Solow lui-même avertissait dès 1988 : ‘ce ‘truc’ (wrinkle) est acceptable à un niveau agrégé seulement (pour des buts spécifiques), ce qui implique d’être prudent sur l’interprétation des fonctions de production macroéconomiques comme renvoyant à un contenu technique spécifique(Solow, 1988)4. En toute rigueur, les fonctions de production ainsi révélées ne peuvent de toute façon être tenues pour des proxies acceptables du vrai ensemble de techniques disponibles, qu’au strict voisinage d’un équilibre de base optimal. Elles constituent donc une base fragile pour l’étude de politiques climatiques qui vont exiger des écarts importants par rapport au scénario de base. Il est d’abord douteux que les élasticités de substitution entre facteurs de production qui prévalent autour de cet équilibre restent valident dès qu’on s’en éloigne significativement. En manipulant des fonctions à élasticité constante sur un large spectre de prix relatifs on court même le risque de projeter implicitement des systèmes technologiques chimériques qui simulent des substitutions là où

3 Pour les mathématiciens signalons qu’il s’agit du lemme dit de Shephard, soit une modalité d’application du théorème de l’enveloppe. 4 Quatrorze années plus tard cet avertissement est confirmé par Frondel et al. (2002); après avoir analysée un millier d’études économétriques, ils concluent « que les déductions faites à partir de ces travaux apparaissent largement comme un artefact et non plus avoir à vec une inférence statistique sur les relations techniques »

Page 5: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

5

des asymptotes technologiques sont atteintes, voire qui violent les lois de la thermodynamique (Babiker et al., 2001)

Mais du point de vue des représentations du monde en jeu dans les joutes publiques, la

caractéristique majeure de ce truc apparemment anodin est de présupposer qu’à chaque point du temps, les choix de technique sont optimaux pour un vecteur prix donné. Dans un tel dispositif, calibré sur les dépenses d’énergie (donc l’énergie finale), toute possibilité de ‘coût négatif’ disparaît; il ignore par construction les gains d’efficacité potentiels dans la conversion énergie finale – service énergétique rendu. Nul n’est besoin d’insister ici sur l’importance politique de cette ignorance. Certains économistes la justifient en considérant que, dans les faits, les potentiels ‘à coûts négatifs’ sont marginaux car, si des technologies étaient réellement supérieures, elles seraient automatiquement adoptées modulo l’inertie des équipements existants. Les ingénieurs, par leur réductionnisme technique, ignorent d’importants coûts cachés qui expliquent le comportement des consommateurs ; ce peut-être des questions d’ergonomie et de difficultés de maintenance pour des techniques de production ou des questions d’esthétique et de qualité de service pour les produits finaux. Le temps passant, je crois disposer d’un échantillon suffisamment grand d’interventions de collègues pour assurer que ‘l’épouse représentative’ d’un économiste américain ne supporte pas le type d’éclairage que donnent les lampes à très basse consommation. Les économistes peuvent certes reconnaître qu’il existe un résidu de ‘coûts négatifs’ du aux imperfections de marché (problèmes d’information, de réseaux de distribution, de structures contractuelles inadaptées comme les partages de responsabilité entre locataires et propriétaires) mais ils font alors valoir que les corriger comporte des coûts de transaction économiques et politiques ce qui réduit d’autant le potentiel réellement récupérable (Stavins et Jaffe 1994).

Or ce débat apparemment simple sur l’adoption des technologies n’est qu’un

symptôme d’un autre enjeu plus fondamental quoique moins directement tangible. Constater avec Stiglitz (1998) les difficultés de faire passer des réformes ‘pareto-improving’ n’est pas la même chose que représenter des économies toujours situées sur leur frontière de production efficace réellement atteignable. Un deuxième glissement sémantique s’introduit alors : on passe de l’équilibre comptable à l’équilibre de marché instantané puis à l’optimalité d’un sentier de croissance équilibré.

Interrogeons nous en effet sur la vision du fonctionnement de l’économie où il est

légitime de penser, moyennant des écarts conjoncturels vite résorbés, que les facteurs de production sont toujours rémunérés à leur productivité marginale. Tout observateur fera observer la réalité des sous-emplois des facteurs (périodes de chômage structurel), la volatilité de la valeur des capitaux, et la difficulté que représente, dans un contexte de grande incertitude (sur les performances des techniques et sur les demandes finales), l’inertie des systèmes technico-économiques. Or il existe une hypothèse ‘raisonnable’ et logique où tout ceci tient ; c’est celle des anticipations parfaites où les acteurs sont assez doués pour anticiper, apprendre en fonction des informations reçues et, progressivement, converger vers le sentier de croissance optimal.

A nouveau, je préfère demander au chercheur en sciences sociales de ne pas

‘s’énerver’ trop vite. Tout économiste tant soit peu soucieux de prise sur le réel reconnaîtra qu’il s’agit ici d’une hypothèse ‘héroïque’. Le débat de fonds est le suivant, résumé par cette phrase bien connue (dans le milieu concerné) de A. Manne et Rutherford « si l’hypothèse d’anticipation parfaite est peu plausible, l’hypothèse de comportements myope est pire encore » En d’autres termes, si on ne peut supposer que les agents anticipent correctement à

Page 6: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

6

chaque point du temps, il est encore plus faux de supposer qu’ils ne sont pas instruits par l’expérience. De plus, si on veut représenter des scénarios avec erreur d’anticipation et correction lente des croyance, on doit multiplier des hypothèses ‘ad hoc’ sur ces erreurs ; cela débouche sur la genèse ad infinitum de scenarii multiples avec au total un ‘plat de spaghetti’ de courbes dont on ne sait que faire. En cas d’anticipation parfaite au moins, on dispose d’un cadre analytique clair et univoque, d’un point de référence dont on connaît les propriétés et qu’on peut comparer à l’état actuel des économies.

Ces arguments ne sont pas infondés même s’ils caricaturent un peu les approches sans

anticipation parfaite. L’écriture de scénarios contrastés permet en effet d’éviter le piège du ‘plat de spaghetti’ et on peut modéliser les structures d’anticipation à retenir non pas à partir d’hypothèses ad hoc mais sur de comportements observables (par exemple les pratiques d’investissement des secteurs). Les scénarios en anticipation parfaites sont sûrement utiles d’un point de vue strictement analytique, mais le prix à payer est qu’ils ne peuvent représenter que des scénarios ‘en âge d’or’ situés sur un sentier de croissance régulier. On s’interdit alors de représenter ce qui est l’enjeu majeur du point de vue de la décision publique, à savoir celui de la réaction à un choc exogène (prix du pétrole par exemple) ou à des politiques publiques d’économies en déséquilibres ou en équilibre sub-optimal (chômage structurel par exemple). Communiquer des résultats dans le débat public sans signaler cette limite c’est faire comme si, vues sur le très long terme, les imperfections étaient de simples ‘bruits’ autour de tendances régulières. C’est une vision possible de la croissance, mais une parmi d’autres. On eut revenir ici à Solow, le ‘père’ des modèles de croissance : Les booms et récessions sont aujourd’hui interprétés déviations optimales sur des sentiers optimaux en réponse à des variations aléatoires de la productivité et du désir de temps libre. Je ne suis convaincu par rien de tout ceci. Les marchés des biens et du travail ….. sont des pièces imparfaites de la machinerie sociale avec ses spécificités institutionnelles. Ils ne ressemblent pas … à des mécanismes sans friction de conversion des désirs de consommation et loisir des ménages en production et emploi » Or, représenter les trajectoires de croissance sous forme de trend régulier plus ou moins pentu est loin d’être anodin pour l’évaluation des coûts des politiques climatiques et pour la conduite du débat public. Les conséquences d’un débat à demi entamé

Un point de pure nécessité logique est le plus souvent ignoré : si le scénario de référence utilise de façon optimale les ressources, toute limite sur les émissions de carbone ne peut que se traduire par une moindre croissance et une baisse du bien-être. C’est une. Ce n’est qu’en partant de scénarii comportant des imperfections qu’il y a une place pour des politiques win-win, sans regret, à coût négatif, peu importe ici le vocable.

Le problème est que, historiquement, les discussions se polarisèrent sur une seule

facette de cet enjeu, la question du choix des techniques ‘à coût négatifs. Cette polarisation fût d’autant plus aisée qu’elle structurait une confrontation entre des tribus bien définies : ingénieurs vs économistes, militants de l’efficacité énergétique vs tenants des réponses par l’offre, partisans vs adversaires du nucléaire. Elle occulta d’autres potentiels majeurs de stratégies ‘sans-regret’ : prévention des chocs pétroliers (et des coûts de militaires et non militaires de la sécurité d’approvisionnement), prévention des risques de rupture de financement des infrastructures dans les pays en développement, financement des systèmes sociaux, chômage structurel autant de dossiers où existe des lieux de complémentarité souvent

Page 7: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

7

indirects mais bien réels entre politiques climatiques et politiques économiques. Cette occultation a été facilité par le fait qu’organiser une mobilisation politique et

intellectuelle autour de l’enveloppe macroéconomique des scénarios de référence ne va pas de soi. Il y a d’abord le simple fait qu’une notion comme le double-dividende de réformes fiscales renvoie à une réalité moins tangible que les performances des chaudières ou des éoliennes. Mais, plus fondamentalement, joue l’effet d’hypnose qui résulte de la visualisation de courbes croissant de façon monotone et aisément identifiables à ces scénarii sans crises. Ces courbes sont communément adoptées pour des raisons de simplicité mais aussi de political correctness. La croissance est une donnée ‘naturelle’ et on ne saurait admettre aisément des scenarii de moindre croissance ou ne crise. Or, c’est en visualisant des scénarii macro-économiques non optimaux, avec des hauts et des bas, des accidents et des ruptures de trajectoire, qu’on songerait à chercher où sont les lieux de conciliation entre croissance et environnement.

Le déficit d’analyse et de perception devient encore plus criant lorsqu’on parle des

pays en développement : comment en effet briser le nœud gordien environnement – développement si on ne part pas de scénarii de base qui incorporent les caractéristiques de base d’une situation de sous-développement: économie informelle, fortes imperfections des marchés, instabilité des institutions ? A ne pas le faire on s’enferme dans une problématique sans issue, celle du partage de l’effort. Même accompagnée de considérations généreuses sur la fairness du burden sharing, elle est simplement inacceptable avec des pays qui ne peuvent l’accepter vu les écarts de niveau de revenu par tête 5. Des argumentations ‘à la Lomborg’ pour qui, dans l’arbitrage climat-développement, il faut choisir le développement et la lutte contre la pauvreté deviennent alors légitimes. Avec des scénarii de base, moins esthétiques, moins politiquement corrects, on s’apercevrait que certes il y a des arbitrages à faire (si des stratégies climatiques peuvent être ‘no-regret’ elles ne sauraient être ‘no pain’) mais que ce n’est pas entre climat et développement.

A titre illustratif de cet effet d’hypnose vous trouverez ici deux graphiques qui

donnent d’un scénario de référence pour la Chine calculé pour la Banque Mondiale, à partir d’un modèle avec déséquilibre et d’un scénario avec tensions énergétiques . Dans le premier, le format de présentation est classique; on en tire l’idée rassurante que les tensions énergétiques ne sont pas un problème majeur. Dans le graphique du bas on représente les mêmes résultats en variations entre la courbe ‘sans heurt’ et la courbe ‘avec friction’. Ce qui saute aux yeux alors est la soudaine perte de croissance dans un premier temps puis un choc vers 2025, comme si la Chine avait alors une fragilité spécifique; c’est en fait celle du début d’inversion de sa pyramide d’âge donc de sa capacité d’épargne. Immédiatement on se dit alors qu’atténuer ces tensions par des politiques d’efficacité énergétique pourrait être un double-dividende significatif des politique climatiques. II. SELECTION DES OUTILS D ’ INCITATION ; DE LA DIFFICULTE DE DISSIPER DES

MIRAGES On connaît le principe du protocole de Kyoto: les pays de l'annexe B (pays développés) s'engagent sur des limites quantitatives de leurs émissions de gaz à effet de serre (GES) ; pour

5 Faire remarquer que le riche Chinois ou le riche Brésilien sans parler des couches aisées de population en Arabie Saoudite ou dans les Emirats émet plus de gaz à effet de serre que l’Européen moyen est ici diplomatiquement inefficace vis-à-vis d’un G77+Chine qui négocie pour l’instant ‘en bloc’.

Page 8: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

8

les atteindre au moindre coût, ils peuvent importer des permis d’émission négociables (PEN) d'autres pays de la même annexe B ou acquérir des crédits d’émission via des projets dans les pays en développement dans le cadre du mécanisme de développement propre (MDP). Ce principe résulte d’une histoire complexe, faite de compromis diplomatiques successifs plus que de volonté expresse de tel ou tel acteur. Ce n’était en particulier pas, contrairement à la légende, le premier choix des USA dont la délégation à la COP1 de Berlin avait pour mandat de refuser des engagements quantitatifs (Hourcade, 2002). Les PEN ne sont en fait qu’un moyen de parer les inconvénients de l’incertitude sur les coûts associés à tout engagement de ce type. Pour comprendre le rôle des modèles économiques dans ce débat il faut revenir au constat qu'il n'y a que deux façons réalistes de coordonner des politiques climatiques à l'échelle internationale, des taxes carbone (levées dans chaque pays et recyclées en interne) et des engagements quantitatifs. Or, il en est une autre qui a de fervents partisans, celle d’engagements sur des "politiques et mesures" (P&M). Le problème de cette approche, utile à une échelle locale et sur des dossiers particuliers, est qu’elle ne peut fonctionner comme système global: comment en effet harmoniser les normes de climatisation entre Reykjavik, Sao Paulo et Boston, comparer les politiques de transport au Japon où trois-quarts de la population est concentrée dans une énorme mégalopole et dans le Far West américain ? Le risque est de ne s'accorder que sur des formules floues. Si on veut des critères plus tangibles, il ne reste donc bien que deux options ; celles-ci ont en commun de faire émerger un prix du carbone. Or, les modèles vont être ici pris entre deux postures, négation absolue de l’analyse économique vs hypnose acritique, qui vont obérer gravement la réussite de la négociation. Tout se joue sur la question du signal-prix. Rendre les choses plus chères n’est en effet pas très populaire et il serait politiquement plus commode d’éviter l'alternative taxe versus "droit à polluer". Dans un pamphlet contre ces derniers une députée de gauche, dont le nom importe peu, écrivait à peu près : "et qu'on ne me parle pas des taxes, c'est un moyen de faire payer les pauvres en permettant aux riches de polluer à leur aise" ; une position de droite dirait « pas de contraintes sur les entreprises et pas de nouvel impôt qui alimenterait une bureaucratie peu efficace C’est cette position de refus de faire payer qui explique la permanence de l’idée d’une coordination par les P&M : normes techniques, labels, campagnes d'information qui incitent à choisir des technologies peu émettrices de carbone, R&D. Or, en dehors de sa non négociabilité, elle repose sur un vrai mirage économique, la gratuité. Quand les modèles montrent combien la gratuité est vraiment très chère qu’on ne saurait accepter Convenons d’abord que, pour diviser par quatre les émissions de carbone, il faudra aller au-delà des potentiels d'amélioration à très bas coût des appareils utilisateurs d'énergie et se doter des techniques plus sophistiquées et plus chères au moins dans un premier temps (sinon le problème serait spontanément résolu). Supposons qu'une norme impose une baisse de 20 % des émissions unitaires moyennes pour produire un bien donné. En fait les entreprises ne sont pas touchées de la même façon par cette contrainte : pour certaines une baisse de 5% des émissions suffira, qu’elles obtiendront à coût nul en organisant simplement un peu mieux l’entretien et le réglage de leurs appareils de production ; d’autres se situent à la moyenne et il leur faudra augmenter leur coût unitaire de 100€ à 120€ par exemple ; d’autres enfin, parce qu’ils ont un vieil équipement devront débourser 40€ par tonne. Si l’offre n’est pas excédentaire, ces entreprises vont vendre leur produit à 140€ par tonne (ou si le marché est élastique à 130€ en rognant sur leurs marges) et le résultat sera une rente nouvelle pour les

Page 9: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

9

deux autres catégories d’entreprises. En d'autres termes la gratuité d'une norme n'est qu'apparente: on croit imposer une contrainte aux industriels mais ceux-ci en transmettent le coût aux consommateurs et empochent un profit additionnel. Le très libéral Stigler faisait naguère remarquer que les industriels plaident pour les instruments de marché mais font tout ce qu'ils peuvent pour les éviter : les normes constituent en effet pour les lobbies les plus habiles des sources de rente. Les taxes (comme des permis d'émissions vendus aux enchères) permettent de récupérer ces rentes et d'en faire bénéficier l'ensemble du corps social (baisse d'autres prélèvements, soutien aux couches sociales les plus durement touchées par la hausse des prix de l'énergie). On a donc d'un côté un effet redistributif négatif caché derrière l'apparente gratuité et de l'autre une vérité des coûts impopulaire mais qui donne les moyens de réduire ces mêmes effets négatifs. L'insistance des économistes sur la nécessité de signaux prix se comprend encore mieux quand on en vient au noyau dur de l'affaire, les transports. Supposons que, par des normes ou des accords volontaires, on diffuse des moteurs consommant 2l/100km de carburants ex-fossiles; la conséquence immédiate sera de baisser le coût du kilomètre parcouru, donc d'inciter encore plus à la mobilité automobile. De même, des moteurs de camions plus efficaces accentueraient le recul du rail dans le transport des marchandises. Ces mécanismes pervers ne peuvent être bloqués que par l’augmentation du prix des carburants. Le fait de devoir recourir à des taxes carbone (ou à des permis vendus aux enchères) n’est d’ailleurs pas une mauvaise nouvelle ; les modèles montrent que, si leur produit est correctement recyclé elle sont (légèrement) favorables à la majorité des secteurs et à l’emploi 6car elles permettent de baisser les prélèvements obligatoires retombant sur les coûts de production (mécanisme de double-dividende). Mais les écotaxes, après un long soutien de l'Union Européenne, vont être bloquées par une coalition hétéroclite où les réflexes anti-fiscaux et l’opposition des industriels se combinent à la méfiance d'une partie de la gauche vis-à-vis d'un outil qui "fait payer les pauvres"; la mouvance écologiste s'avère, elle, prise en squeeze entre un discours "pollueur payeur" et une volonté ne pas paraître "antipopulaire". On a donc ici, pour le moins, un déficit de capacité de conviction de l’analyse économique. De quelques bonnes raisons d’un déficit de conviction sur une thèse juste Il est banal de constater l’existence de filtres idéologiques qui interdisent d’accepter les informations qui déplaisent d’où qu’elles viennent. Mais, dans le cas présent, il serait par trop commode de s’en tenir là sans se poser des questions sur la responsabilité propre des modélisateurs. Il existe en effet des faiblesses techniques réelles dans les modèles existants et, lorsque des plaidoyers pour les signaux-prix sont construits sans précaution et en forme d’arguments d’autorité, le risque est de ne convaincre que ceux qui sont prêts à en accepter d’entrée le contenu. On revient ici, par un autre biais, aux querelles « bottom-up » vs top-down. Dans leur version la plus pure en effet, les modèles top-down ne peuvent représenter aisément que des réactions

6 Ce n'est pas le cas pour les secteurs très énergivores (sidérurgie, ciment, non-ferreux, produits pétroliers) pour lesquels la solution est a) d’admettre qu’une part seulement des permis est acquise aux enchères, l’autre étant obtenue gratuitement b) de négocier des garanties auprès de l'OMC sur la possibilité de mesures protectionnistes contre les pays appliqueraient à leur industrie des dispositifs plus laxistes que la règle commune (cf la position de Stiglitz sur ce point).

Page 10: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

10

aux prix ; on peut certes essayer d’y intégrer des informations « bottom-up » sur l’impact d’une norme, mais cela se fait via des hypothèses exogènes sans qu’on ait en général assez d’information sur les coûts réels de la norme. C’est pourquoi les modélisateurs top-down sont assez réticents sur ce type de manipulation, certains d’entre eux d’ailleurs par conviction a priori de la supériorité des signaux-prix sur les normes (en fait celle-ci dépend des domaines concernés en termes d’efficacité incitative sur le changement technique). Nier cette faiblesse de l’état de l’art renforce les postures de refus de signaux-prix tant il est aisé de donner des exemples de l’intérêt des mesures ‘non-prix’ comme les normes (qualité, sécurité) ou les politiques d'infrastructures. De plus, la quasi-totalité des modèles n’intègre que les prix du carbone par rapport aux autres biens et ignorent les prix du foncier et de l'immobilier qui sont si importants pour l’avenir des biocarburants (prix de la terre et compétition bioénergie-production alimentaire) ou pour la dynamique des besoins de mobilité. Ces faiblesses n’invalident ni les arguments qui font des prix du carbone un vecteur supérieur de coordination internationale, ni le mécanisme du double-dividende ; mais, en présentant le signal-prix comme l’alpha et l’oméga des politiques climatiques, alors qu’il n’en est qu’une pré-condition, tout sera prêt pour un blocage rhétorique tant il est évident que c’est sur une panoplie plus large de paramètres qu’il faut jouer ; prétendre infléchir les tendances dans les transports via le seul prix du carbone sans toucher à l’immobilier et aux infrastructures relève aussi du mirage puisqu’il faudrait atteindre des niveaux de taxe inacceptables politiquement La structure de ce blocage rhétorique va se retrouver, mutatis mutandi dans l’affaire des permis d’émission négociables. Ceux-ci, parce qu’ils introduisent une contrainte sur le commerce extérieur (importation de permis) ont l'avantage, par rapport à des taxes, de pousser les gouvernements à mettre en jeu l'ensemble des variables autres que le prix du carbone. Mais ce système a fait l'objet de fortes résistances idéologiques et fut dénoncé comme conduisant à la marchandisation de l'environnement et à la possibilité pour les ‘riches’ d’acheter des PEN aux ‘pauvres’ sans pour autant transformer leurs modes de consommation. Les modélisateurs vont bien sûr être conviés dans cette querelle mais ils seront pris au piège de la surinterprétation des résultats par des visions du monde antagonistes et ils participeront souvent eux-mêmes à la mise en place du piège. Coûts politiques d’effets d’hypnose persistants L’archétype de ce piège est celui de la querelle de la ‘supplémentarité’. Pour s’assurer que les PEN ne deviennent pas un instrument à disposition des USA pour éviter tout effort réel, l’Europe demanda pendant trois ans, sous la pression principale de l’Allemagne, qu’il y ait un plafond (concrete ceiling) sur les importations de PEN. Aux USA en revanche, il était nécessaire de démontrer à des sénateurs réticents que le protocole de Kyoto ne conduirait pas à la ruine du pays. Ainsi, Jae Edmonds, un des plus connus des modélisateurs américains, convoqué dans une audition du Sénat fournit des simulations ou le prix du carbone était autour de 20$/tc mais ceci en important 85% de la différence entre les objectifs et les émissions du scénario de base. Pour ce faire il lui suffisait de faire tourner son modèle (SGM) sur l’ensemble du monde, tiers-monde compris. Un tel chiffre utilisé pédagogiquement pour montrer que Kyoto ne conduirait pas nécessairement les USA à un désastre économique, donnait aux ‘anti-droits-à-polluer’ en Europe la preuve que les USA utiliserait les marchés de permis comme un moyen de contourner les efforts à mener dans leurs propres frontières. En fait, ces simulations supposaient que la totalité du potentiel d’abattement dans les pays en développement pourra réellement être exploité. Or ce potentiel ne peut l’être que via des projets de « développement propre » ce qui en restreint bien sûr l’ampleur (difficultés de définition de projets clairement identifiables, coûts de transaction, difficultés de mesure de la

Page 11: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

11

réalité des réductions). Un numéro spécial de Energy Journal de 1999 (auquel participa J. Edmonds ; MacCraken, 1999) le chiffra à 15%. En introduisant de tels éléments de réalisme, la querelle de la supplémentarité devient vite sans objet : les USA font la majeure partie de leurs réductions ‘at home’, plus d’ailleurs que le Japon et l’Europe qui dans les modèles, ont des courbes de coût d’abattement plus pentues que les USA et sont davantage intéressés à importer. Mais cette querelle aura décalé de trois ans un accord possible, assez pour qu’une nouvelle administration vienne se retirer du processus. En fait, s’est créé un jeu de miroirs déformants où chacun des camps en présence interprète les résultats en fonction de sa propre visée argumentative et de sa propre perception du monde, puis une sorte d’effet d’hypnose autour des résultats des modèles, qui va toucher les pro et anti marché. Quel est en effet le monde que décrit un modèle mondial ? C’est un monde ou des grands pays ou grandes régions, face à une contrainte carbone, arbitrent entre la satisfaire par une action domestique ou par importation de permis d’émettre. Implicitement, ce sont des acteurs rationnels qui gèrent leurs économies de façon à compenser les effets redistributifs inévitables d’une politique. Ainsi, la main-d’œuvre ‘libérée’ d’un secteur intensif en énergie dans une région se déversera sans heurt dans de nouvelles activités ; de même la différentiation des impacts d’un prix donné du carbone selon les niveaux de revenus sera neutralisée par des politiques appropriées. Enfin, c’est un monde où les Etats ne s’inquiètent absolument pas des conséquence géopolitiques de la structure de leurs échanges, par exemple pour les USA, de devoir importer 10 à 15 G$ de PEN en majeure partie de la Russie. Le monde décrit par un modèle mondial en équilibre général est donc une sorte de ‘table rase’ qui suppose que les hétérogénéités et aspérités du monde réel sont aisément surmontées grâce à des gouvernements bénévolents et éclairés. Une tel artefact, il faut y insister est fort utile pour le raisonnement dans la mesure où il fournit un point de repère solide pour mettre en lumière des mécanismes importants qui restent valides dans des économies plus réalistes. Il n’est d’ailleurs pas impossible, quand cela est faisable techniquement, de réinjecter dans les mêmes modèles telle ou telle aspérité du monde réel pour en examiner les conséquences. Nous l’avons vu pour les coûts de transaction du MDP mais c’est aussi ce que fait Jae Edmonds lorsqu’il fût convié par une administration Clinton accusée par Bush jr. de mener le pays à la ruine, à bien les coûts potentiels de Kyoto pour l’économie américaine. Il écrit alors un scénario où, en raison d’un temps de retard dans l’adoption des mesures appropriées et de non coordination avec la politique monétaire (taux de change fixe) le coût de Kyoto pour les USA serait de 4% du PIB sur 15 ans au lieu de 1% dans son scénario central. En fait, l’essentiel des dérives vient du moment où l’artefact est pris pour la réalité. Certes, chacun proteste de ne jamais tomber dans un tel piège, mais l’hypnose sur l’artefact commence lorsque toutes les rhétoriques s’organisent autour de lui. Ainsi, lors de la querelle de la supplémentarité, les anti-PEN rejettent l’idée d’un marché généralisé du carbone à l’échelle mondiale l’absence de régulation publique pour pallier les dysfonctionnements du système (pouvoirs de monopoles, utilisation stratégique des quotas, effets redistributifs). Mais ce qu’ils rejettent ainsi, c’est le système de PEN tel que décrit par les modèles. Or Kyoto n’instaure pas un marché généralisé du carbone. Il ne fait que permettre aux Etats d'alléger le coût de leurs engagements; stricto sensu, les échanges se font entre Etats. Ainsi, un pays qui maîtriserait son urbanisme, favoriserait les transports collectifs et les modes doux de déplacement, relèverait la fiscalité des carburants au fur et à mesure des gains d'efficacité des moteurs pourrait ne pas avoir de marché du carbone mais intervenir comme exportateur sur les marchés internationaux et être ainsi récompensé de sa bonne conduite. Les tenants de

Page 12: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

12

Kyoto, symétriquement, vont faire comme si l’horizon du système Kyoto était l’extension du mécanisme des PEN à tous les secteurs, y compris les transports et à tous les pays en développement. Ils vont défendre leurs positions sans ce rendre compte que cet horizon différait notablement de la lettre et de l’esprit de Kyoto. Un point important ici est la rapidité avec laquelle les positions rhétoriques se figent en figures irréversibles. Ainsi, après que, de façon répétée, quinze ministres de l’environnement eurent fait de la supplémentarité l’emblème de la position Européenne, il devenait quelque peu déplacé d’expliquer qu’elle n’avait pas d’objet et desservait même la position économique de l’Europe. Toute argumentation économique était aisément décrédibilisée au nom même du simplisme des modèles. Au-delà de l’épisode de Kyoto, un autre exemple d’effet d’hypnose est celui qui se crée quand la discussion se polarise sur des projections de croissances ‘en âge d’or’. Outre le fait d’interdire de représenter des stratégies sans-regret, ces projections ont une autre conséquence, à savoir de conduire à des coûts systématiquement modérés des politiques climatiques (sauf quelques modèles dont il est aisé de voir les biais) : Kyoto représenterait de 0,1 à 1% de pertes du PIB pour l’annexe B sur vingt ans si on recourt aux échanges de permis, soit, dans le pire des cas une taux de croissance annuel diminué de 0,0049%. Ce résultat n’est pas surprenant : dans l’économie flexible des modèles, où les agents prennent à temps les bonnes décisions, le coût des politiques climatiques ne peut qu’être faibles vu le faible poids de l’énergie dans la richesse totale. Ce résultat arrange bien les administrations qui peuvent s’y caler pour soutenir la possibilité de politiques climatiques ambitieuses sans pour autant adopter les arguments ‘bottom-up’ qui pourraient paraître trop militants. Il n’est d’ailleurs pas faux de dire que la plupart des ministères des finances ou de l’industrie légitiment leur réserve vis-à-vis de politiques climatiques agressives en se référant aux modèles top-down alors que ceux de l’environnement privilégient les modèles bottom-up. Une exception notable, est celle d’une commande de l’EPA (USA), en 1991, à Dale Jorgenson, économiste de Harvard proche des milieux républicains; à l’époque un agent de l’EPA, suffisamment compétent pour ne pas céder à l’effet d’autorité d’un MEGC sous-tendu par une économétrie sophistiquée, avait remarqué que, si D. Jorgenson ne pouvait produire de coûts négatifs (des études commandées à des modèles bottom-up se chargeraient de les donner) il utilisait des fonctions de production (dites translog) très flexibles qui avaient le bon goût de simuler des flexibilités technologiques (donc des coûts bas) d’autant plus grandes que la taxe carbone était élevée. Le problème est que, lorsqu’on veut convaincre les industriels du bien fondé des politiques, ceux-ci ont de la peine à accepter des résultats fondés sur des modèles donnant une vision des marchés qui ne correspond pas à leurs propres pratiques (rôle des surprises, de la volatilité des prix, des inerties, des captures de rentes). En fait, en partant de modèles simulant des économies plus réalistes (avec déséquilibre, imperfections de marché) on ferait certes apparaître de plus grands risques de dérapage des coûts en cas de politiques mal ajustées mais aussi des potentiels plus importants de stratégies sans-regret et de plus. Mais dans ce cas on changerait les lignes d’une discussion aujourd’hui conduite a partir de ‘camps’ bien établis et dont on a pris l’habitude. 3. EVALUER LES DOMMAGES : DE LA GESTION DE CROYANCES

CONTRADICTOIRES

Page 13: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

13

Un dernier exemple important de la mobilisation des modèles est le débat sur le tempo de l’action à partir de 1995 ; l’enjeu était celui des cibles à retenir à Kyoto pour 2012. La Convention Climat (1992) est un chef-d’œuvre de langage diplomatique puisqu’elle affiche une volonté de stabiliser les concentrations de GES dans l’atmosphère à un niveau garantissant l’absence d’interférence dangereuses avec le système climatique sans définir ce niveau. Or, stabiliser à 750 ppm n’implique aucune contrainte notable sur les scénarios d’émission tendanciels alors que 450 ppm exige des efforts sérieux. Ce que révèle la négligence d’un raisonnement pourtant simple Sans raison autre que la publication par le deuxième rapport du Giec d’un jeu de trajectoires d’émissions compatible avec des niveaux de stabilisation compris entre 350 ppm et 750 ppm (avec un scénario non plausible à 1000 ppm), l’attention se porta sur le chiffre médian de 550 ppm. Comme, d’après la moyenne des sorties de modèle, ce chiffre correspondait à une hausse de température de 2°C par rapport à 1990, l’Union Européenne retint ensuite ce chiffre comme le plafonds de hausse de température à ne pas dépasser. Il s’agissait d’un jugement purement politique ; en l’absence d’information scientifique sur le coût des dommages, 550ppm devenait l’indicateur d’un seuil de risques inacceptable. Le débat fut conduit à partir de modèles dit ‘intégrés’ comportant un module de croissance économique compact et des formes réduites de cycle du carbone et de la réponse climatique. Wigley, Richels et Edmonds publièrent dans Nature (1996) un article très utile pour soutenir les positions américaines. Ils montraient que, pour stabiliser à 550 ppm, nul n’était besoin sur les vingt prochaines années de décrocher de façon significative des tendances en cours : mieux valait attendre que les équipements existants soient obsolètes, les remplacer par des technologies peu émettrices au fur et à mesure des baisses de coût permises par le progrès technique et ne pas ralentir la croissance en investissant trop précocement en projets d’abattement. Grubb et al. (1997) ont répondu à cet argument dans la même revue en faisant remarquer que nous ne savons pas aujourd’hui la bonne cible à retenir, ceci pour deux raisons : a) on ne sait si une augmentation moyenne de + 2°C ne provoquera pas d’importants chocs locaux susceptibles de se propager sur toute l’économie b) 30% des simulations existantes retiennent un coefficient de sensibilité climatique qui fait qu’il faut rester sous 450 ppm pour ne pas dépasser 2°C de réchauffement. Il suffit alors de prendre l’objectif de 550 ppm comme une moyenne entre 450 ppm et 650 ppm, puis de considérer que nous aurons à choisir la trajectoire définitive dans 20 ans (quand nous en saurons plus) pour conclure qu’il faut un décrochage immédiat significatif (autour de celui exigé par Kyoto) (cf Graphique n°1) si on veut se garder la possibilité de bifurquer vers un objectif de 450 ppm. La signification de l’exercice est la suivante : soit une population partagée par tiers entre des optimistes qui pensent que les dommages climatiques ne seront pas un problème, des raisonnables pour qui 550 ppm représente un bonne assurance et des craintifs qui veulent rester au dessous de 450 ppm; supposons que cette population, plutôt que de se lancer dans des batailles argumentatives qui ne peuvent surmonter les désaccords en temps et en heure, décide de mandater un ‘planificateur bienveillant’ pour qu’il calcule la trajectoire qui maximiserait le ‘bien-être’ collectif sur la base ‘un homme – une voix’. Cette trajectoire est celle qui permet de ne pas avoir trop dépensé sur deux décennies s’il s’avère qu’en fait M Lomborg, l’écologiste sceptique (2001) ou M. Allègre avaient raison et de ne pas se trouver dans lock-in interdisant de pivoter, s’il le fallait, vers 450 ppm.

Page 14: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

14

11source: IPCC/WGIII/TS p.67

Graphique n° 1

Graphique n° 2

Page 15: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

15

Le paramètre central qui explique que l’argument de l’action retardée soit réfuté dans ce type d’approche est le jeu entre l’inertie des systèmes technico-économiques et l’irréversibilité de l’accumulation du GES ; si on ne procède à aucune inflexion des tendances sur vingt ans il devient très coûteux d’accélérer la décarbonisation de l’économie pour respecter un plafonds de 450 ppm parce que cela implique une accélération du renouvellement des infrastructures. L’affaire est scientifiquement tranchée mais il est intéressant de noter que les critiques de Kyoto évitent de mentionner la structure même du raisonnement. Cet oubli permet d’accréditer l’idée que Kyoto ne sert à rien puisqu’il ne permet que de gagner 0.3° de température sur un siècle alors qu’il n’est qu’un premier coup de frein ‘en attendant d’en savoir plus’. Le raisonnement de Lomborg (2001) (repris par C. Allègre) suppose une humanité se comportant comme un conducteur qui, ayant tapoté la pédale de frein dans la perspective d’un freinage plus sérieux en cas de verglas dans un virage, s’arrêterait de donner d’autres coups de frein pour contrôler la vitesse du véhicule au cas où il faudrait s’arrêter. Les vrais enjeux de l’analyse coût-bénéfice Les sceptiques sérieux peuvent ici rétorquer que la structure précédente de raisonnement comporte le risque d’une dictature de la minorité. On aura compris que le coût de l’action retardée vient de l’accélération des efforts pour rester dans un « budget carbone » donné. Or, si 5% de la population votent pour un écologisme intégral prônant un objectif de 400 ppm, alors ils pèseront d’un poids disproportionné dans le calcul du planificateur; celui-ci n’a beau compter que pour 5% le fait de devoir bifurquer vers 400ppm, ces 5% vont dominer le calcul car les coûts de l’action retardée pour respecter cette cible tendent vers l’infini. La conclusion est donc qu’il faut rendre raison des plafonds retenus dans le calcul, et qu’on ne peut le faire sans une analyse coût – bénéfice qui met en balance en termes monétaires les coûts de l’action et les dommages évités. Il faut alors comparer des coûts qui se produisent à des périodes de temps différentes, donc utiliser un taux d’actualisation et on butte immédiatement sur le fait que, les coûts d’abattement et les dommages évités étant séparés par plusieurs décennies, ces derniers comptent vite très peu dans le calcul. Dans une approche de décision séquentielle similaire à celle expliquée plus haut (et où on introduit des possibilités de dommages catastrophiques) il n’est pas économiquement rationnel de lancer dès aujourd’hui des politiques significatives de décarbonisation (cf Graphique n° 1). Le Giec, dans son résumé pour décideurs, met ce graphique en regard du premier pour bien marquer qu’il y a un choix à faire sur la structure même de la décision. Un tel résultat nourrit le procès récurrent contre deux pratiques des économistes, l’usage d’un taux d’actualisation et l’agrégation monétaire des impacts. Pour la troisième et dernière fois, je demanderai au lecteur de mettre ses doutes entre parenthèses. Je ne le fais pas par manie d’économiste mais par prise en compte du monde ‘tel qu’il est’. Il est frappant que ce soit un philosophe, Luc Ferry, qui fasse remarquer dans son attaque contre l’écologisme que « tout franc dépensé au nom de l’environnement ne le sera pas ailleurs » (Ferry, 1992). C’est Lomborg, un statisticien qui, pour démontrer qu’il vaut mieux investir sur le développement que sur la prévention climatique, s’appuie sur le fait que l’efficacité marginale du capital investi en Inde est 15% si on en croie les taux d’intérêts en vigueur. A ne pas accepter de débattre sur ce terrain, ce qui est le réflexe courant, on se prive de faire remarquer que, si l’efficacité marginale des investissements en Inde était vraiment de 15% pendant 50 ans, elle permettrait un taux de croissance Indien si élevé (de 13 à 14% par an) et

Page 16: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

16

que l’Indien moyen serait alors quatre fois plus riche que l’américain moyen de cette époque. L’erreur vient ici de ce qu’on confond les taux d’intérêts de court terme (qui incorporent une prime de risque) et le taux d’actualisation qui est dicté par le taux de croissance économique de long terme. Si on retient un tel taux, et si, en toute rigueur, de l’incertitude sur la croissance, alors les taux acceptables sont plutôt compris entre 2 et 3% à l’échelle mondiale. Un argumentaire ‘à la Lomborg’ montre les dangers du maniement d’une vulgate économique non encadrée par un modèle d’ensemble cohérent. A fuir le débat, on se prive aussi de comprendre pourquoi avec des taux d’actualisation faibles, même l’hypothèse de dommages très élevés sur le long terme ne conduit pas à des actions significatives de précaution. A nouveau on retrouve ici l’importance d’un truc de modélisation. Les courbes de dommages couramment utilisées sont des fonctions « régulières » des concentrations (ou de la température) sous forme de paraboles ou d’exponentielles calées sur des valeurs estimées autour de +2°C d’augmentation, valeur qui, selon les auteurs, tourne autour de 1% à 3% du PIB sur le long terme. Dès lors, si on veut représenter des dérives catastrophiques pour des hausses de températures plus élevées avec des courbes à concavité constante et passant par un point donné pour deux degrés, il faut que les dommages se déploient lentement pendant cinquante ans et n’explosent vraiment que vers la fin du siècle. Le Graphique n°3 suffit à s’en convaincre. Si en revanche on admet, avec la même hypothèse pour +2°C, que la courbe des dommages croit de façon moins régulière, présente ici ou là des seuils et des non-linéarités, alors, même en actualisant, on peut montrer la rationalité économique d’une action plus précoce surtout si on tient compte de l’incertitude sur la variabilité climatique. L’histoire racontée ici (plus conforme à la succession des évènements dits extrêmes ces dernières années) est celle de l’occurrence de petits chocs à court terme et d’une accélération des dommages à partir de 2035-2040 ; vue l’inertie des systèmes technico-économiques (50 ans pour un système électrique), alors, c’est bien dès aujourd’hui qu’il convient d’agir.

Graphique 3

Page 17: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

17

En fait, la joute toujours recommencée entre partisans et adversaires du taux d’actualisation en ces affaires masque le vrai enjeu, celui des ‘croyances’ sur le rythme de déploiement des dommages climatiques et des raisons pour lesquelles certains voient des dangers que d’autres nient. C’est ici qu’il faut en venir au chiffrage monétaire lui-même et aux causes possibles de non-linéarités dans les dommages. Les évaluations existantes sont très rares et pourront paraître extraordinairement basses. Elles viennent de quelques auteurs : Nordhaus7, Frankhauser, Mendelsohn et Tol. En dehors de leur caractère incomplet, elles s’expliquent très bien, à nouveau, par la croyance dans les anticipations parfaites ; elles racontent en effet un monde où, face aux transformations des climats, les hommes vont très vite apprendre à s’adapter et prendre systématiquement les mesures qu’il faut en temps et en heure. On comprend intuitivement pourquoi : si on suppose que nous savons dès aujourd’hui que le climat de la Riviera va se déplacer vers celui de la Normandie d’ici la fin du siècle, alors, on peut prévoir en conséquence la migration des infrastructures hôtelières et celle des populations fuyant un climat devenu trop chaud et organiser les solidarités nécessaire. Sous hypothèse d’anticipation parfaite et d’apprentissage rapide sur les évolutions du climat, même une difficulté comme celle de durée de vie d’équipements (les centrales électriques) allant au-delà de cinquante ans est vite résolue : si on connaît les marchés futurs, on peut planifier les investissements lourds avec autant de facilité qu’un investissement récupérable en deux ans. Le débat sur les dommages est certes une affaire d’investigation scientifique sur les impacts du changement climatique : il faut en savoir plus sur le cycle de l’eau, les réponses des écosystèmes, l’évolution des biotopes, l’adaptation des espèces ou la migration des bactéries ou virus. Mais in fine la façon dont ces impacts vont se traduire en des montants de dommages plus ou moins élevés va dépendre de la vision que l’on a du fonctionnement des sociétés et de leurs capacités à anticiper et à d’adapter aux imprévus. Comme le montrent des expériences aussi diverses que l’explosion de AZF à Toulouse, le tremblement de terre d’Istanbul, les tornades répétées dues à El Nino en Amérique Latine, les contraintes ne sont pas ici que financières ; elles viennent aussi du délai technique et organisationnel à transformer un effort financier en travaux concrets (déficit de compétences, contraintes logistiques, controverses sur les travaux à mener). Or, dans une économie avec déséquilibre de telles contraintes se transforment en ‘amplificateurs de coûts’ qui portent les dommages à des niveaux nettement supérieurs à ceux que l’on obtient avec des économies suivant des sentiers de croissance stabilisés sur lesquels on revient aisément après tout écart. On retrouve ici, par un autre biais, l’argument selon lequel il faudrait investir sur le développement pour rendre les économies capables de se payer l’adaptation. Cet argument est légitime à condition qu’on le tienne pour ce qu’il est, une croyance parmi d’autres, à savoir que les investissements en développement seront toujours désormais bien placés et bien conduits. En toute rigueur on devrait affecter un degré de probabilité à cette vision du monde par rapport à une vision moins optimiste que j’incline à penser plus réaliste. Sinon les arguments ne manquent pas pour montrer les risques de non linéarités dans les dommages climatiques. Le premier ministre du Honduras déplora ainsi que le cyclone Michèle en 2001 avait « ramené le développement économique du pays 20 ans en arrière (IFRCRCS 2002). De même, l’exemple de la Nouvelle-Orléans, où le recul des travaux de d’entretien et renforcement des digues n’est pas pour rien dans la catastrophe est très révélateur de la façon dont une négation ex-ante d’un risque peut s’avérer un facteur d’amplification du risque.

7 Pour cet auteur, il importe de retenir la phrase suivante à propos de ses propres travaux : citation en français

Page 18: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

18

In fine donc, acceptation ou pas de l’analyse coût-bénéfice, la modélisation n’est qu’un détour pour nous renvoyer aux vrais enjeux que sont notre rapport au risque et les croyances que nous formons concernant la force des impacts et les capacités de réponse de nos sociétés.

Conclusion Le titre de cet article suggère que, convoqués pour éclairer les futurs, les modélisateurs se retrouvent un peu comme les invités au Capitole, bien trop proches de la roche Tarpéienne qui est ici celle du dédain de leurs travaux. Le risque est alors de se priver de ce que, malgré leurs fragilités, les ‘expériences numériques’ qu’il mènent peuvent apporter : forcer chacun à rendre compte, de ses conjectures, visions du monde et choix normatifs en des termes tels qu’on peut en cerner la cohérence et les implications grâce à ce juge de paix qu’est un modèle numérique. J’espère avoir convaincu le lecteur que beaucoup se joue sur des détails a priori sans intérêt. A chacune des étapes du parcours suivi, j’ai essayé de montrer comment des astuces commodes (interpolation entre 0°C et 2°C des courbes de dommages) ou des habitudes méthodologiques (fonctions de production) peuvent s’avérer d’une importance inattendue. C’est parce que de tels détails ne sont pas discutés qu’il est difficile de contrôler la surinterprétation des résultats au prisme de visions du monde soit préexistantes soit provoquées par la présentation même des travaux. Les modélisateurs portent ici une part de responsabilité lorsque, pour protéger l’élément de vérité contenu dans leurs simulations, par peur de complexifier le message mais aussi par enfermement sur leur propre langage, ils évitent d’ouvrir la boîte à outil et ne se hâtent pas de signaler des glissements sémantiques effectués à partir de leurs travaux. Mais on ne peut faire comme si les ‘utilisateurs’ eux-mêmes n’avaient pas leur part de responsabilité : attraction d’une tangibilité parfois illusoire, manque d’éducation à

Real GDP losses - China

-4.0%

-3.0%

-2.0%

-1.0%

0.0%

1.0%

2000 2010 2020 2030 2040 2050

% o

f re

al G

DP

Low Growth + energy frictions

High Growth + energy frictions

Page 19: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

19

l’incertitude qui fait qu’on va chercher le « best guess », le « raisonnable », commodité que représente la polarisation des débats autour de camps bien établis. Tout ceci empêche de faire l’effort de percevoir la nature des enjeux réels derrière les querelles de modélisateurs. Or ces querelles sont loin d’être purement technique ; que ce soit dans l’écriture des scénarios de base et la recherche de stratégies ‘sans-regret’, dans la discussion des mécanismes de marché ou dans celle du coût des dommages, on a vu, un peu comme un l’importance des notions d’équilibre, d’optimum et d’anticipation parfaite. Se contenter de dénoncer l’irréalisme de ces notions, c’est enfoncer porte ouverte (encore que des phénomènes d’hypnose peuvent expliquer que beaucoup les tiennent pour vraies) et ne pas comprendre la raison profonde de leur persistance, une sorte d’Hayekisme tacite. La vraie bataille de Hayek ( ) est le constructivisme, la prétention de rationaliser le monde et de formater le futur ; il y voit le début de la fin des libertés et fait du marché le seul contre-feu possible. On le faisait de son temps ‘au nom des lendemains qui chantent’ et, implicitement beaucoup redoutent qu’on puisse le faire au nom des grandes peurs en imposant un volontarisme technologique quelconque, d’où d’ailleurs la réticence à expliciter les variables de développement (style de consommation, technologies, formes urbaines) qui sous-tendent les projections de PIB et à envisager des ‘futurs alternatifs’. Certes, la nature des défis actuels empêche de croire que les marché produiront nécessairement les bons signaux viendront en temps et heure, mais la structure de raisonnement à la Hayek est suffisamment prégnante (et pose un problème suffisamment sérieux) pour qu’on la discute en tant que telle et qu’on ne la laisse pas se lover, à l’insu de tous, dans quelque équation plus ou moins sophistiquée. Bibliographie Babiker, M.H., J.M. Reilly, M. Mayer, R.S. Eckaus, I. Sue Wing and R.C. Hyman (2001), The MIT Emissions Prediction and Policy Analysis (EPPA) Model : Emissions, Sensitivities and Comparison of Results. Massachusetts Institute of Technology. Joint Program on the Science and Policy of Global Change report n° 71 Berck, P., Sydsaeter, K., (1992), Economists” Mathematical Manual. Berlin, Springer-Verlag, 166 p. Berndt, E.R., D.O. Wood (1975), “Technology, Prices and the Derived Demand for Energy”, Review of Economics and Statistics, 57(3), pp. 259-268 Ferry, L., (1992). Le nouvel ordre écologique. Paris, Grasset, 275 p.

Fankhauser, S., (1995), Valuing Climate Change: the Economics of Greenhouse, Earthscan, London (UK). Frondel, M., C.M. Schmidt (2002), “The Capital-Energy Controversy : An Artifact of Cost Shares?”, The Energy Journal, 23(3), pp. 53-79 Grubb M.J., Ha Duong M. Hourcade J.-C.,. (1997).- "Influence socioeconomic inertia and uncertainty on optimal CO2-emission abatement", Nature, n°390, pp. 270-274

Page 20: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

20

Harrison, G.W. and T. Rutherford, (1999). "Burden sharing, joint implementation and carbon coalitions." International Agreements on Climate Change, C. Carraro (ed.), Kluwer Academic Publishers, Dordrecht. Hourcade J.-C., Ghersi F., (2002), "The Economics of a Lost Deal : Kyoto – The Hague, - Marrakesh", The Energy Journal, vol. 23, n° 3, 26 p Hourcade J.-C. (1998).- "Débat autour du principe de précaution", Natures, Sciences, Sociétés, vol. 6, n°1, pp. 41-45. Hourcade J.-C. (1998).- "Analyse économique, modélisation prospective et développement durable ou comment faire remonter des informations du futur ?", Économies et sociétés, série F. 36, n°1, pp. 175-192. Hourcade J.-C.., 2002, - "Dans le labyrinthe de verre. La négociation sur l'effet de serre ", Critique Internationale, Fondation Nationale des Sciences Politiques, n° avril 2002, pp. 143-159.

Jaffe A.B. et Stavins R. (1994), “The Energy-Efficiency Gap: What Does It Mean?”, Energy Policy, 22, pp. 804-810

Jorgenson, D.W., and B.M. Fraumeni (1981), « Relative Prices and Technical Change » in E.R. Berndt, B.C. Field (eds.) Modeling and Measuring Natural Resource Substitution, MIT Press, Cambridge MA, United States Lomborg, B. (2001), The Skeptical Environmentalist. Measuring the Real State of the World, Cambridge University Press MacCracken, C.N. Edmonds, J.A. Kim, S.H., (1999), “The Economics of the Kyoto Protocol”, The Energy Journal, Special Issue, 20 Mendelsohn, R., Morrison, W., Schlesinger, M., and Andronova, N., 2000, Country-specific market impacts of climate change, Climatic Change, 45, 553 569. Mendelsohn, R. and Williams, L., 2004, Comparing Forecasts of the Global Impacts of Climate Change, Mitigation and Adaptation Strategies for Global Change 9 (4), 315-333. Nordhaus, W., and Boyer, R., 2000, Warming the world : economics models of climate change, MIT Press, Cambridge (MA, USA). Nordhaus, W., 2006, Geography and macroeconomics: New data and new findings, Proceedings of the National Academy of Sciences, May 2006.

Solow, R.M., 1956, "A contribution to the theory of economic growth", Quarterly Journal of Economics, 65, pp. 65-94

Solow, R.M., 1988, "Growth Theory and After” American Economic Review, 78(3), pp. 307-317 Stavins, R., 1995: The Costs of Carbon Sequestration, A Revealed Preference Approach. J.F. Kennedy School of Government, Harvard University and Resources for the Future, Harvard,

Page 21: Les modèles dans les débats de politiques climatiques : entre le … · 2009-07-03 · entre le capitole et la roche tarpéienne ? Jean-Charles Hourcade CIRED Novembre 2006 Dès

21

California

Stiglitz, J., 1998, "The private uses of public interests : incentives and institutions", Journal of Economic Perspectives, vol. 12, n° 2, spring 1998, pp. 36-22

Tol, R.S.J., 2002a, New estimates of the damage costs of climate change, Part I : Benchmark estimates, Environmental and Resource Economics, 21 (1), 47 73. Tol, R.S.J., 2002b, New estimates of the damage costs of climate change, Part II : Dynamic estimates, Environmental and Resource Economics, 21 (2), 135 160. Wigley T. M. L, Richels R., Edmonds J. (1996), « Economic and Environmental Choices in the Stabilisation of atmospheric CO2 concentration »,. Nature. Vol. 379, 18 janvier.