274
Collection « Recherches »

DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

Embed Size (px)

Citation preview

Page 1: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

INTRODUCTION 1

Collection « Recherches »

Page 2: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LA COLLECTION « RECHERCHES » À LA DÉCOUVERTE

Un nouvel espace pour les sciences humaines et sociales

Depuis le début des années 1980, on a assisté à un redéploiement considérable de la recherche en sciences humaines et sociales : la remise en cause des grands systèmes théoriques qui dominaient jusquʼalors a conduit à un éclatement des recherches en de multiples champs disciplinaires indépendants, mais elle a aussi permis dʼouvrir de nouveaux chantiers théoriques. Aujourdʼhui, ces travaux commencent à porter leurs fruits : des paradigmes novateurs sʼélaborent, des liens inédits sont établis entre les disciplines, des débats passionnants se font jour.

Mais ce renouvellement en profondeur reste encore dans une large mesure peu visible, car il emprunte des voies dont la production éditoriale traditionnelle rend difficilement compte. L̓ ambition de la collection « Recherches » est précisément dʼaccueillir les résultats de cette « recherche de pointe » en sciences humaines et sociales : grâce à une sélection éditoriale rigoureuse (qui sʼappuie notamment sur lʼexpérience acquise par les directeurs de collection de La Découverte), elle publie des ouvrages de toutes disciplines, en privilégiant les travaux trans et multidisciplinaires. Il sʼagit principalement de livres collectifs résultant de programmes à long terme, car cette approche est incontestablement la mieux à même de rendre compte de la recherche vivante. Mais on y trouve aussi des ouvrages dʼauteurs (thèses remaniées, essais théoriques, traductions), pour se faire lʼécho de certains travaux singuliers.

L̓ éditeur

Page 3: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

SOUS LA DIRECTION DE

Amy Dahan Dalmedico

Les modèles du futurChangement climatique et scénarios économiques :

enjeux scientifiques et politiques

Publié avec le concours du CNRS et du ministère de l’Enseignement supérieur et de la Recherche

LA DÉCOUVERTE2007

Page 4: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

ISBN : 978-2-7071-5013-4

Le logo qui figure sur la couverture de ce livre mérite une explication. Son objet est dʼalerter le lecteur sur la menace que représente pour lʼavenir de lʼécrit, tout particulièrement dans le domaine des sciences humaines et sociales, le développement massif du photocopillage.

Le Code de la propriété intellectuelle interdit en effet expressément, sous peine des sanctions pénales réprimant la contrefaçon, la photocopie à usage collectif sans autorisation des ayants droit. Or, cette pratique est généralisée dans les établissements dʼenseignement et à lʼuniversité, provoquant une baisse brutale des achats de livres, au point que la possibilité même pour les auteurs de créer des œuvres nouvelles et de les faire éditer correctement est aujourdʼhui menacée.

Nous rappelons donc quʼaux termes des articles L. 122-10 à L. 122-12 du Code de la propriété intellectuelle toute photocopie à usage collectif, intégrale ou partielle, est interdite sans autori-sation du Centre français dʼexploitation du droit de copie (CFC, 20, rue des Grands-Augustins, 75006 Paris). Toute autre forme de reproduction, intégrale ou partielle, est également interdite sans lʼautorisation de lʼéditeur.

Si vous désirez être tenu régulièrement informé de nos parutions, il vous suffit dʼenvoyer vos nom et adresse aux Éditions La Découverte, 9 bis, rue Abel-Hovelacque, 75013 Paris. Vous recevrez gratuitement notre bulletin trimestriel À la Découverte. Vous pouvez également retrouver lʼensemble de notre catalogue et nous contacter sur notre site www.editionsladecouverte.fr

© Éditions La Découverte, Paris, 2007.

Page 5: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

Sommaire

Introduction Modèles et fabrications du futur : du débat sur la croissance au débat climatique et retour

par Amy Dahan Dalmedico 7

I. Le débat sur la croissance des années 1970 et ses outils

1. Croissance ou stabilité ? L̓ entreprise du Club de Rome et le débat autour des modèles

par Élodie Vieille Blanchard 21

2. La construction historique des paradigmes de modélisation intégrés : William Nordhaus, Alan Manne et lʼapport de la Cowles Commission

par Pierre Matarasso 44

3. Les économistes face au long terme : lʼascension de la notion de scénario par Michel Armatte 63

II. L’alerte climatique, la gouvernance mondiale du régime climatique

4. Les modèles numériques de climat par Hélène Guillemot 93

5. Le régime climatique, entre science, expertise et politique par Amy Dahan Dalmedico 113

6. Les modèles dans les débats de politique climatique : entre le Capitole et la Roche tarpéienne ?

par Jean-Charles Hourcade 140

Page 6: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

III. Fabrication des futurs : batailles de représentation et délibération publique

7. Les émissions optimales de CO2 le sont-elles vraiment ? par Christian Azar 167

8. Modèles mondiaux et représentation des pays en développement par Emilio Lèbre La Rovère, Vincent Gitz, André Santos Pereira 184

9. Pour une morale de la modélisation économique des enjeux climatiques en contexte dʼexpertise par Olivier Godard 203

10. Les couloirs de la persuasion. Usages de la communication, tissu associatif et lobbies du changement climatique par Emmanuel Paris 227

Les auteurs 245

Page 7: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

Parmi les dégradations environnementales et les risques apparus au cours de ces dernières décennies, la question de lʼeffet de serre anthropique1 et des changements climatiques qui devraient en résulter est certainement lʼune des plus complexes à saisir collectivement. La menace est-elle vraiment si grave ? Quelles sont les modalités de son évaluation ? Selon quelles procédures, à partir de quels savoirs envisage-t-on des réponses politiques et sociales à la hauteur du péril ? Vastes questions qui mobilisent, toutes, lʼétude des régimes de production des savoirs scientifiques (sciences de la nature et/ou sciences économiques et sociales) dans leurs interactions avec le politique2 et que cet ouvrage a pour ambition de contribuer à éclairer.

Considérons en premier lieu le point de vue de la science du climat : comment les climatologues en arrivent-ils à affirmer que le climat va chan-ger, et avec telle ou telle ampleur ? Quels sont les outils et les méthodes des chercheurs engagés dans ce domaine ? Quʼen est-il des incertitudes relatives à ces assertions ? Pour toutes ces questions, les modèles numériques sont lʼoutil privilégié de la discipline, ils jouent un rôle fondamental tant dans la connaissance du climat présent et passé que dans les projections à long terme ou encore dans la mesure de la « sensibilité » à lʼeffet anthropique. Le besoin de confronter et de valider les résultats des modèles, la nécessité dʼévaluer lʼétat des connaissances et des réponses possibles ont dʼailleurs conduit, dès 1988, à la constitution de formes singulières et inédites dʼexpertise – avec notamment la création du Groupe dʼexperts intergouvernemental sur lʼévolution du climat (le GIEC3) – qui méritent notre attention.

1. Cʼest-à-dire lié aux activités humaines.2. Pour une mise en perspective historique de cette question, voir le livre de Dominique Pestre,

Science, argent et politique, publié aux Éditions de lʼINRA en 2003.3. En anglais, IPCC : Intergovernmental Panel on Climate Change.

Introduction

Modèles et fabrications du futur :

du débat sur la croissance au débat climatique et retour

Amy Dahan Dalmedico

Page 8: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR8

En raison des caractéristiques globales et planétaires de la question, de lʼampleur des dégâts possibles et des implications considérables quʼaurait pour nos sociétés la réduction des émissions de gaz à effet de serre, le réchauf-fement climatique pose, en second lieu, une question inédite aux sciences économiques : aider à définir les actions à entreprendre face au phénomène. Et contribuer, à ce titre, à élaborer des réponses qui devront être acceptées depuis le niveau mondial jusquʼau niveau local. Or, il sʼavère là aussi que les sciences économiques ne savent traiter la complexité de ce problème quʼen recourant à des modèles. Il importe donc de mettre à plat ces derniers, de savoir comment ils sont élaborés, partagés, perfectionnés par la communauté des économistes. Mais aussi de comprendre dʼoù ils viennent, ce quʼils ignorent ou charrient implicitement. Il nous faut saisir le rôle que ces modèles jouent dans dʼautres arènes que les milieux académiques – forums de négociations internationales, organismes de décisions dans des cadres nationaux, espace public ou médias – et les malentendus éventuels qui en résultent.

Les modèles ont donc un statut hégémonique dans deux ensembles (au moins) de communautés de chercheurs (des sciences de la nature et des sciences économiques) engagés dans le domaine du changement climatique. Mais une autre notion joue également un rôle prééminent : celle de scénario. En effet, pour tous ceux qui cherchent à fournir des prédictions numériques et des savoirs quantitatifs sur le futur éloigné de notre planète et celui de nos sociétés, les scénarios dʼévolution socio-économique sont incontournables ; ils entrent en inputs des modèles proprement climatiques et ils interviennent dans la nouvelle génération des modèles dits intégrés qui couplent modèles dʼactivités humaines (évolution énergétique, usage des sols…) et modèles « de lʼunivers ». Ainsi, dans la fabrication des futurs, une relation incestueuse entre modèle et scénario tend à sʼétablir : le scénario intervient dans les modè-les et le modèle permet de produire des scénarios. Il nous a semblé que cette relation méritait dʼêtre auscultée.

En troisième lieu, enfin, la dimension proprement géopolitique caractérise massivement le changement climatique. Après la convention de Rio en 1992, des Conférences des Parties (les COP4) se réunissent annuellement sous lʼégide de la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC5) et deviennent des arènes de négociation internationale sur la politique climatique. En moins de dix ans, le sujet est passé dʼune préoccu-pation scientifique complexe à un thème politique qui divise la diplomatie internationale, met en compétition les intérêts économiques, voit sʼaffronter

4. COP : Conference of Parties. « La Conférence des Parties est lʼorgane suprême de la convention [la Convention-cadre des Nations unies sur les changements climatiques, CCNUCC]. Elle prend, dans les limites de son mandat, les décisions nécessaires pour en promouvoir la mise en œuvre effective » (article 22 de la convention Climat, point 2).

5. En anglais, UNFCCC : United Nations Framework Convention on Climate Change.

Page 9: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

INTRODUCTION 9

les conceptions du droit, fait diverger les choix politiques et reconfigure les alliances. La négociation sur le climat et la politique climatique se confirme comme lʼune des plus difficiles, en particulier parce quʼelle exige une avancée déterminante de la gouvernance mondiale. Une course paraît engagée entre la dégradation du climat et la capacité de décision politique des pays de la planète. Son moteur est puissant : cʼest notre communauté de destin sur cette terre. Derrière la question du multilatéralisme et au-delà des inégalités Nord-Sud quʼil faut affronter, se profile une question autrement cruciale : celle de la capacité de lʼhumanité à faire face collectivement à son avenir. Lʼalerte sur lʼeffet de serre a puissamment relancé les efforts de production dʼimages du futur. La production de ces divers scénarios du futur, associés à lʼémer-gence de la notion de développement durable, devient dʼailleurs un enjeu suffisamment critique dans les débats de politique internationale pour être soumise à une « évaluation par les pairs » dans le cadre du Groupe dʼexperts intergouvernemental sur lʼévolution du climat.

Sur les questions politiques, notre objectif nʼa pas été – car ce nʼétait pas exactement notre compétence – dʼétudier dans le détail le processus des négociations ayant conduit au protocole de Kyoto et dʼen faire le bilan à lʼheure où les perspectives dʼengagement pour la période qui va au-delà de 2012 sont fort peu claires6. Nous avons abordé la dimension géopolitique du problème climatique plutôt du point de vue des science studies que de celui des sciences politiques, en insistant sur les questions suivantes : comment les enjeux géopolitiques croisent-ils, dans ce contexte, les enjeux scientifiques ? Comment fonctionne la fabrication de consensus scientifiques pour la décision politique, et quel est lʼimpact de cette fabrique sur la vie scientifique elle-même ? Peut-on évaluer le poids de la communauté scientifique et la qualité du travail effectué par les organismes dʼexpertise, notamment le GIEC, dans le processus politique ? L̓ étude dʼautres controverses scientifico-techniques contemporaines a montré que les logiques scientifique et politique ne se déve-loppent pas séparément ; au contraire, elles interagissent et sʼhybrident parfois étroitement. Quʼen est-il dans le domaine du changement climatique ?

6. Au bénéfice du processus, on pourrait inscrire lʼémergence dʼun cadre relativement « éthique » permettant la fixation dʼengagements de résultats quantifiés concernant les émissions des pays industrialisés, lʼascension dʼune opinion publique mondiale douée dʼune conscience planétaire (ONG, médias), la réouverture de la négociation Nord-Sud et lʼinvention de mesures de flexibilité. Parmi les insuffisances notoires, il faut souligner lʼabsence de débat sur les modes de vie, la faiblesse des politiques effectivement conduites dans les pays industrialisés, la confiance excessive dans les mécanismes régulateurs de marché et sans doute la lourdeur des règles de lʼONU. Voir lʼarticle de Pierre Radanne, « Les négociations à venir sur les changements climatiques », Études prospectives, n° 1 (publications de lʼIEPF, Montréal, 2004) et la thèse en sciences politiques de Benjamin Denis, La politique internationale du climat. Analyse du processus de construction du cadre international de lutte contre le réchauffement global, soutenue à lʼUniversité libre de Bruxelles en 2006.

Page 10: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR10

En résumé, modèles, scénarios, expertise, interactions entre le scientifique et le politique, fabrication des futurs sont les questions, tant conceptuelles que pratiques, privilégiées dans cet ouvrage. Nous avons voulu les aborder de différents points de vue : méthodologique, historique, épistémologique et politique. Avec cette pluralité dʼangles dʼanalyse qui se superposent et se combinent au fil des chapitres, notre objectif était de promouvoir et dʼencou-rager une attitude réflexive et critique à leur égard.

La première partie de lʼouvrage est une mise en perspective historique dʼun certain nombre dʼoutils – modèle mathématique global, modèle intégré, scénario – devenus récurrents dans le débat climatique. Ces outils ont acquis dès les années 1970 une importance déterminante dans lʼétude du futur à la suite du manifeste lancé par le Club de Rome contre la croissance. En effet, la publication du célèbre Limits to Growth7 en 1972 et du modèle World de Forrester initie une large discussion, tant académique que publique, sur la viabi-lité de notre société de croissance et lʼépuisement des ressources de la planète. Ce débat sʼarticule également autour dʼautres modèles globaux, mis en place progressivement au cours de la décennie, qui apportent chacun un éclairage et des conclusions spécifiques sur cette question de la croissance. Élodie Vieille Blanchard revisite cette époque, tant les modèles que les controverses – notam-ment la critique féroce de lʼéconomiste William Nordhaus, qui va construire le modèle DICE (Dynamic Integrated Model of Climate and Economy) en réaction à World. Elle cherche à mettre en lumière la manière dont chaque modèle est porteur de présupposés idéologiques implicites, en particulier un rapport spécifique à la technologie et à la nature. Ces cosmologies concourent, dit-elle, avec le choix dʼune méthodologie propre de modélisation, à construire une image du futur et à énoncer certaines prescriptions sur les meilleurs choix présents à faire pour nos sociétés dans la perspective de ce futur.

Les avocats de la croissance zéro, quʼils aient été critiqués ou approuvés, ont suscité à leur époque un grand intérêt, y compris dans le milieu académi-que. Ce nʼest plus le cas de nos jours, pourquoi ? Dans son étude sur la genèse de la modélisation intégrée, Pierre Matarasso propose une explication et une réponse à cette interrogation. Deux structures de modèle économique jouent un rôle particulièrement important dans la modélisation intégrée du changement climatique : les modèles de « croissance optimale » et les modèles « dʼana-lyse dʼactivités ». Les premiers sont à la base des approches dites top-down (approche globale et généralement agrégée de lʼéconomie), les seconds sont au cœur des approches bottom-up (approche par les technologies). Deux auteurs importants sʼillustrent dans chacune de ces approches : William Nordhaus avec

7. Rapport au Club de Rome traduit en français sous le titre Halte à la croissance ! et paru aux éditions Fayard en 1972.

Page 11: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

INTRODUCTION 11

son modèle DICE de croissance optimale ; Alan Manne et le modèle MARKAL (Market Allocation Model) dʼanalyse dʼactivités. Ces deux modèles ont fait école, ont été déclinés par de très nombreux auteurs ; ils ont suscité un effort coopératif international, aujourdʼhui repris par le G8. Grâce aux archives de la Cowles Foundation, lʼun des centres américains les plus importants de la mathématisation des sciences économiques, Pierre Matarasso propose un récit des origines, à la fois intellectuelles et politiques, de ces paradigmes de modé-lisation à travers les travaux de Ramsey et de von Neumann, lʼémergence de la recherche opérationnelle et la critique du Club de Rome. Cette inscription dans le mainstream de la science économique expliquerait ainsi, pour lui, la suprématie des modèles de croissance à la Nordhaus et la marginalisation de la tradition issue du Club de Rome.

Dans les années 1970, la construction des représentations du futur éner-gétique se fonde sur des modèles économétriques très simples de prévision de croissance des consommations par extrapolation du passé sur de grands agrégats. La croissance énergétique est ainsi rigidement liée à la croissance économique ; la prolongation des tendances à vingt ou trente ans laisse imagi-ner une convergence vers le mode de vie américain. La technologie nucléaire est souvent là pour répondre à la raréfaction des ressources de combustibles, avec son cortège de filières dont le développement est censé sʼenchaîner harmonieusement pour mettre fin à notre assujettissement aux ressources épuisables et sauver le rêve dʼune société opulente. Des représentations uto-piques concurrentes émergent simultanément, révélant un optimisme similaire mais opposé pour des solutions technologiques alternatives, mobilisant les énergies renouvelables à grande échelle et témoignant dʼune efficacité éner-gétique jamais atteinte. Cʼest notamment de cette confrontation que va naître lʼapproche exploratoire du futur énergétique de moyen-long terme par scénario pour balayer le champ des futurs possibles, en ouvrant les boîtes noires des dynamiques macroéconomiques et des comportements agrégés.

Cʼest à une étude en profondeur de lʼattitude des économistes face au long terme que se livre Michel Armatte. Après avoir passé en revue les différents temps de lʼéconomie et les méthodes qui y sont associées (la conjoncture, les budgets, la planification), il souligne que la méthodologie privilégiée des éco-nomistes pour les raisonnements de long terme est le recours aux modèles théo-riques de croissance. L̓ un des plus célèbres, le modèle de Solow, a dʼailleurs inspiré Nordhaus pour son modèle DICE. Or la démarche prospective – dont Michel Armatte évoque les moments forts et les principaux lieux (français et américains) – sʼen distingue nettement. Ses principales caractéristiques – le volontarisme des projections et surtout la pluralité des futurs – la rendent a priori suspecte aux yeux des économistes. Michel Armatte sʼarrête alors sur la méthode des scénarios au centre de la démarche prospective. Lʼexamen de plusieurs cas historiques de construction de scénarios – « scénarios de

Page 12: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR12

lʼinacceptable » (DATAR), scénario « Interfuturs » (OCDE), Scanning the Future (scénario néerlandais)… – lui permet dʼexplorer les articulations pos-sibles entre modèle et scénario, en particulier dans le cas des scénarios SRES8 utilisés par le GIEC dans le domaine du changement climatique. Il met ainsi en évidence le double caractère des scénarios : quantification rattachée à la tra-dition des modèles intégrés et forme qualitative (narrative storyline) dʼimage ou de récit qui restitue une cohérence et permet une large diffusion.

Vers la fin des années 1980, la question du réchauffement climatique global fait irruption sur la scène tant scientifique que géopolitique et médiatique. La deuxième partie de cet ouvrage est principalement consacrée à lʼalerte climatique, considérée dans ses rapports au politique : fonctionnement de lʼexpertise, définition des politiques climatiques. À lʼheure où un certain « anarchisme épistémologique » se manifeste9, nous avons souhaité fournir au lecteur une introduction à la modélisation numérique globale du climat. Domaine de longue tradition scientifique, développé depuis les années 1960, la modélisation du climat a été stimulée par plusieurs dynamiques. Premièrement, des dynamiques instrumentales : dʼune part, la puissance croissante des ordi-nateurs a été un élément moteur du développement des modèles ; dʼautre part, les technologies spatiales ont permis dʼengranger une quantité croissante de mesures et de données dʼobservation, sans lesquelles aucun modèle ne pour-rait exister. Deuxièmement, une dynamique opérationnelle, car la prévision météorologique a revêtu depuis les années 1950 une importance stratégique croissante. Sans omettre, évidemment, la logique des dynamiques proprement scientifiques. Hélène Guillemot nous offre une description très informée des pratiques de construction des modèles numériques de climat et de leurs mutations sous lʼinfluence des problématiques du changement climatique. Ces modèles se sont progressivement complexifiés depuis les premiers modèles de circulation atmosphérique jusquʼaux modèles du « système Terre », qui intègrent désormais un nombre croissant de milieux et dʼinteractions entre eux (océans, sols, hydrologie, végétation, pollutions chimiques, cycle du carbone, etc.). L̓ introduction des sols, par exemple, a entraîné lʼintroduction de tout un ensemble de savoirs, de pratiques, dʼacteurs et de modèles nou-veaux. Non seulement elle sʼinscrit dans la tendance irrésistible d’intégration dʼéléments de plus en plus hétérogènes, de mécanismes et de rétroactions de plus en plus complexes – intégration indissociable de lʼeffort de réduction des incertitudes –, mais lʼintervention des surfaces amorce un mouvement de

8. Abréviation consacrée pour le Special Report on Emissions Scenarios publié par lʼIPCC (Intergovermental Panel on Climate Change, dénomination anglo-saxonne du GIEC) en 2000.

9. Nous faisons référence ici à la critique de Claude Allègre, grand scientifique mais extérieur au domaine de la climatologie, déclarant avec arrogance : « Je doute et jʼai le droit de douter ! » Cet anarchisme nʼa rien à voir avec les controverses instruites entre spécialistes et chercheurs engagés dans le domaine qui sont le lot ordinaire de la recherche.

Page 13: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

INTRODUCTION 13

retour vers des questions et des préoccupations plus locales. Hélène Guillemot accompagne ses descriptions dʼune réflexion épistémologique sur les princi-pales méthodologies à lʼœuvre, le souci de validation des modèles, la néces-sité des « traductions » et le caractère pluridisciplinaire des pratiques que lʼordinateur favorise. Modèles, simulations, paramétrisations, couplage de modèles, intégration, complexité sont les notions principales (ou les concepts) qui y jouent un rôle clé.

En moins de dix ans, on lʼa dit, le changement climatique est passé du statut de sujet scientifique complexe à celui dʼun thème politique aux enjeux majeurs. La structuration du GIEC en trois groupes de travail, les études quʼil suscite, lʼagenda quʼil définit ont contribué à reconfigurer lʼensemble du champ. À partir de 1995, les Conférences des Parties réunies annuelle-ment deviennent des arènes de négociations internationales sur le sujet en même temps que des forums hybrides où se croisent des groupes de plus en plus variés. Progressivement, les préoccupations centrales de la recherche se modifient, de nouvelles pratiques apparaissent ; les enjeux géopolitiques croisent les questions scientifiques. Un seul exemple ici suffira à lʼillustrer. La question posée dans la convention de Rio était celle dʼune inflexion des trajectoires dʼémissions des pays industrialisés, cʼest-à-dire passer dʼune croissance continue à une stabilisation, puis à une réduction de ces émissions. Depuis, les travaux scientifiques du GIEC ont introduit une question concrète déterminante : quelle dégradation du climat acceptons-nous ? Cette question en a amené dʼautres en cascade : vers quelle concentration en carbone se stabiliser ? Quelles sont les trajectoires dʼémissions qui conduisent à cette concentration ? Vers quelle répartition des émissions entre les pays industria-lisés et les pays en développement doit-on aller ? L̓ objectif principal dʼAmy Dahan est de revenir sur cette évolution, sur le rôle déterminant quʼy ont joué le GIEC et dʼautres institutions du régime. À partir du point de vue des études sociales des sciences, elle propose une réflexion sur les relations entre science, politique et expertise dans ce domaine. Elle accorde une attention privilégiée aux liens entre expertise scientifique et gouvernance globale, marquée en particulier par la tension des rapports Nord-Sud. En revenant sur la cartographie des communautés scientifiques, des institutions et des acteurs, elle sʼattache à mettre en évidence lʼhybridation croissante des dynamiques scientifiques et des politiques. Elle analyse notamment le fonctionnement et le positionnement du GIEC, véritable fer de lance du régime climatique qui, dʼun côté, revendique un modèle traditionnel dʼexpertise scientifique et, de lʼautre, joue un rôle déterminant dans lʼarticulation avec le politique. Afin de réfléchir à ce que cet exemple nous enseigne sur les liens entre science et politique à lʼéchelle internationale, sur les questions de construction et de fonctionnement, à cette échelle, de lʼexpertise, prise entre normes de scientificité et exigences de délibération démocratique.

Page 14: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR14

Jean-Charles Hourcade prend acte de lʼambiguïté qui préside à toute convocation des modèles économiques dans la détermination des politiques climatiques qui pourraient être préconisées. Dans ce contexte, souligne-t-il, les modèles peuvent être vus comme un langage de communication entre disciplines, comme un langage de négociation entre acteurs séparés par des divergences dʼintérêts et de visions du monde et, aussi, comme un outil de détermination des paramètres « objectifs » permettant de définir les bonnes politiques. Il décortique lʼutilisation – nécessaire et inévitable, dit-il – de métaphores par les modélisateurs pour rendre compte en langage « naturel » de la syntaxe interne de leurs outils ; et de la manière dont ces métaphores débouchent souvent sur des jeux sémantiques qui ont un effet structurant sur la délibération publique, précisément parce que les notions utilisées repren-nent alors un sens commun en partie dissocié de celui quʼelles revêtent dans la communication interne entre modélisateurs. Jean-Charles Hourcade étudie ce mécanisme autour de trois groupes de notions qui ont eu et continueront dʼavoir un impact réel sur les débats stratégiques : les notions dʼéquilibre et dʼoptimum (de quel scénario de base parle-t-on ?), les coûts et les bénéfices des politiques climatiques (faut-il agir ou pas ?), « lʼévidence » du prix unique du carbone comme garant de lʼefficacité. Techniques de modélisation à lʼori-gine, lʼéquilibre général, le sentier optimal ou les anticipations rationnelles se révèlent ainsi être également des métaphores qui véhiculent des perceptions du fonctionnement de lʼéconomie, ce qui les empêche de jouer leur rôle de clarificateur du débat. Jean-Charles Hourcade sʼinterroge sur lʼexistence dʼune matrice commune entre les constructeurs de modèles et leurs « clients », voire leurs critiques, permettant de comprendre les effets de croyance et dʼhypnose qui ont pu contribuer à des blocages décisionnels ; matrice nécessairement complexe et dont le fonctionnement ne peut quʼêtre historiquement situé. Il suggère cependant quʼelle comporte trois dimensions structurantes : le rap-port à lʼincertitude et à la controverse, lʼimpression de « tangibilité » et de transparence versus lʼopacité des artefacts et, enfin, une confrontation à portée idéologique plus fondamentale autour de la question du « constructivisme », du type de la position dʼHayek, cʼest-à-dire contestant la possibilité même de définir des politiques climatiques.

La troisième partie de lʼouvrage laisse place à plusieurs études qui soit approfondissent, sous certains angles, lʼanalyse critique des modèles écono-miques de changement climatique engagée dans les chapitres précédents, soit abordent leurs dimensions éthiques ou communicationnelles. Par exemple, le cadre tant des modèles de croissance optimale que des modèles dʼanalyse dʼactivités est fondé sur le concept dʼoptimalité. Cʼest ce concept même quʼin-terroge Christian Azar. Quoique lʼeffet de serre soit considéré comme lʼun des problèmes environnementaux les plus sérieux, certaines études économiques – dont le célèbre modèle DICE de Nordhaus – continuent à dire quʼil serait

Page 15: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

INTRODUCTION 15

optimal de laisser les émissions de gaz à effet de serre être multipliées par trois au cours du siècle à venir. Dʼautres études, en revanche, concluent que des réductions considérables seraient justifiées par les seuls motifs économiques. Christian Azar cherche à cerner précisément les raisons de ces divergences, et il se concentre sur quatre questions cruciales qui interviennent dans les analyses économiques de lʼeffet de serre : les « surprises » climatiques catas-trophiques (événements de faible probabilité, mais aux conséquences énor-mes), les méthodes dʼévaluation des coûts, le choix du taux dʼactualisation et, enfin, le choix des critères de décision. Il met en lumière le rôle décisif de ces questions dans les conclusions politiques tirées des modèles économiques du changement climatique, et en particulier comment elles impliquent, chacune, des choix éthiques significatifs. Cette conclusion simple de la présence de choix éthiques et de jugements de valeur dans les modélisations économi-ques doit être reconnue très largement, plaide Christian Azar, car lʼéconomie est trop souvent perçue comme un outil neutre, apte à fournir les politiques « optimales » aux décideurs.

Emilio Lèbre La Rovere, Vincent Gitz et André Santos Pereira discutent les principales difficultés de représentation, par les modèles mondiaux, du système de lʼéconomie, du système énergétique et de lʼusage des sols dans les pays en développement. Ils passent en revue différents obstacles : dis-ponibilité et qualité des données, imperfection des marchés, spécificité des ressources dʼénergies renouvelables, dynamiques dʼoccupation du territoire, etc. La question fondamentale quʼils soulèvent – celle de lʼidentification des limites de lʼexercice de modélisation dans le cas des pays en développement – est finalement très représentative de la problématique générale de limitation des émissions de gaz à effet de serre face au défi du changement climatique. Ces émissions ont un lien direct avec le niveau dʼactivité économique dʼun pays, sa façon de produire et de consommer lʼénergie, mais aussi sa manière dʼutiliser les sols. Or, les secteurs traditionnels et informels de lʼéconomie dans les pays en développement sont un exemple privilégié de lʼintersection entre ces trois axes dʼanalyse. En effet, les activités intégrées par ces secteurs correspondent à une partie importante de la production agricole, de la consom-mation énergétique des ménages et de lʼusage des sols. Paradoxalement, ces secteurs contribuent dʼautant plus fortement aux émissions de gaz à effet de serre que leur représentation par des modèles mathématiques est plus complexe et limitée. Les auteurs attendent des équipes de modélisation travaillant dans les pays en développement quʼelles rendent mieux compte de ces problèmes.

La densité des travaux de prévision et de prospective énergétique ne supprime pas le sentiment de grande incertitude que nous éprouvons vis-à-vis de lʼavenir ; elle tend même à imposer lʼimage dʼun avenir joué très largement sans nous. Olivier Godard nous invite à réfléchir à la manière dont la conception de la modélisation à long terme, dans le champ de lʼénergie

Page 16: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR16

et du climat, pourrait servir ou desservir la liberté collective. Il sʼappuie en particulier sur deux épisodes précis de lʼhistoire de la modélisation dans ce domaine : lʼusage en 1992 du modèle Global 2100 par Alan Manne et Richard Richels pour évaluer lʼimpact du projet européen de taxation des émissions de carbone et les travaux menés en France en 1996-1998 par le groupe Énergie 2010-2020 du Commissariat général du Plan. Plusieurs questions émergent de ces deux exemples. La modélisation utilisée en contexte dʼex-pertise nʼa-t-elle pas souvent pour enjeu, plus ou moins tacite, de façonner les représentations et les anticipations, voire dʼexciter des réflexes, plutôt que de susciter la réflexion et dʼêtre un vecteur de lumière permettant dʼéclairer les consciences ? Olivier Godard aborde aussi les modalités dʼune prise en charge explicite de la pluralité des avenirs possibles. Mais lʼinscription dʼune telle pluralité au cœur de la modélisation est-elle vraiment souhaitée, tant par les décideurs que par les modélisateurs ? Nʼest-elle pas contradictoire avec le projet dʼune modélisation intégrée, qui aurait internalisé toutes les variables humaines et naturelles ? Il sʼinterroge également sur les hypothèses normatives qui assignent aux « générations futures » une forme de repré-sentation identique à celle des générations actuelles, sans sʼembarrasser des problèmes nombreux que pose le statut éthique de ces générations éloignées. Un utilitarisme simpliste lui paraît le substrat implicite de ces modèles éco-nomiques à long terme.

Cʼest sous un autre angle quʼEmmanuel Paris, spécialiste des sciences de lʼinformation et de la communication, explore également la question des rap-ports entre liberté collective et maîtrise du futur. « Le futur nous appartient. » On peut comprendre cette formule ainsi : dans une société démocratique, la voix de chacun compte pour dire de quoi demain doit être fait, et comment sʼy prendre. Dans cette acception, la définition collective du futur prendrait consistance sous deux conditions : la conscience partagée par tous de lʼintérêt de prendre connaissance de lʼavis de chacun au sujet de ce que doit être le futur et lʼexistence dʼun système capable dʼorganiser de manière « pure et parfaite » lʼéchange des points de vue à ce sujet. Emmanuel Paris explore la validité dʼune telle interprétation, selon laquelle le futur nous appartiendrait effectivement, la communication des paroles exprimées à ce sujet en faisant foi. Quel rôle joue alors lʼactualité dans la communication du changement climatique ? En effet, au fil des semaines se succèdent dans les médias les descriptions de crises durant lesquelles le problème posé à la société par ce phénomène environnemental est redéfini. Ces traductions incessantes sont le fait dʼindividus et de collectifs poursuivant dans lʼespace public un même double objectif : modifier les représentations sociales du phénomène et mener le processus de résolution collective des problèmes quʼil pose.

Page 17: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

INTRODUCTION 17

Les auteurs réunis ici ne se revendiquent pas, on lʼaura compris, dʼun même point de vue ou dʼune approche identique. Historiens et sociologues des sciences, économistes ou spécialistes des sciences de lʼinformation et de la communication nʼont pas les mêmes méthodes ni les mêmes traditions intellectuelles ; ils ne se posent généralement pas les mêmes questions. De plus, il subsiste toujours, dans les échanges, des chocs entre visions du monde distinctes, entre points de vue optimistes et pessimistes, qui sont le produit dʼhistoires idiosyncrasiques complexes.

Cet ouvrage est le résultat dʼun projet de recherche interdisciplinaire10 qui sʼest déroulé pendant quatre ans (2003-2006). Et de très nombreux séminai-res, ateliers de travail et journées dʼétudes, ouverts à des chercheurs et des doctorants de diverses disciplines, ont offert lʼopportunité de confrontations approfondies11. Par ce retour répété sur les notions et les énoncés les plus courants, nous avons été, en un sens, contraints à la réflexivité. Cʼest celle-ci que nous nous sommes attachés à transmettre.

Réflexivité ne signifie pas manque de conviction ou indifférence. Le débat sur la croissance des années 1970 a suscité un courant intellectuel qui a forgé les outils du débat climatique. Aujourdʼhui, ce débat nous renvoie, via les questions énergétiques et environnementales, aux questions posées par lʼépuisement des ressources et la durabilité du développement, donc au débat sur la croissance. La boucle semble bouclée.

Pourtant, la qualité du débat sur le changement climatique dans lʼopinion publique reste insatisfaisante. Or, aucune négociation sur la réduction des émissions ne peut déboucher sur des résultats significatifs si elle nʼest pas fondée sur un large débat public. La première bataille est culturelle : il nous faut construire un imaginaire de long terme concernant les politiques, les modes de vie et les futurs. Et il faut souhaiter évidemment que cette construction intervienne par une avancée de culture collective et non par la pression de

10. Ce projet a été soutenu financièrement par le ministère de lʼEnseignement supérieur et de la Recherche dans le cadre dʼune ACI « Travail, techniques, théories. Travail interdisciplinaire en sciences humaines et sociales ». Saluons ici quelques participants actifs du projet qui ne figurent pas comme contributeurs de lʼouvrage : Jean-Yves Grandpeix, Jean-Louis Dufresne, Hubert Kieken, Venance Journé, Kostas Chatzis, Gilles Crague et un jeune doctorant, Stefan Aykut. Remercions également Julie Koskas et Patrick Mabire pour leur aide dans la traduction et la mise au point des articles de nos collègues étrangers. Je suis aussi très reconnaissante à Dominique Caillé pour sa collaboration rigoureuse dans la préparation finale du manuscrit.

11. Celles-ci se sont encore élargies à des anthropologues, des politistes, des écologues…, et elles ont culminé au cours dʼun colloque international qui sʼest tenu à lʼÉcole nationale des ponts et chaussées (Paris) en mars 2006, coorganisé par Amy Dahan et Jean-Charles Hourcade.

Page 18: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR18

contraintes institutionnelles ou, pire, par des violences armées et guerrières12. La question de la lutte contre le changement climatique jette un défi inédit à notre société, à notre civilisation. Lʼefficacité de lʼensemble nécessite lʼen-gagement de chacun. La vitalité démocratique, la qualité des comportements démocratiques pourraient bien devenir des facteurs déterminants pour maîtriser lʼeffet de serre. Un débat public est à construire ; une parole collective doit émerger. Puisse cet ouvrage issu dʼun effort de recherche lui-même collectif et interdisciplinaire y contribuer !

12. Voir le dossier de la revue Le Débat (n° 13, janvier-février 2005) : « La démocratie peut-elle faire face à une catastrophe climatique ? »

Page 19: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

INTRODUCTION 19

I.

Le débat sur la croissance des années 1970 et ses outils

Page 20: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

1

Croissance ou stabilité ? L̓ entreprise du Club de Rome

et le débat autour des modèles

Élodie Vieille Blanchard

À la fin des années 1960, un groupe international, composé principalement de personnalités du monde des affaires et de la politique, se forme à lʼinitiative dʼun industriel italien, Aurelio Peccei. Son objectif est dʼétudier « les dangers globaux qui menac[ent] lʼhumanité », comme « la surpopulation, la dégra-dation de lʼenvironnement, la pauvreté dʼenvergure mondiale et le mauvais usage de la technologie ». Ce groupe, dont la constitution est officielle depuis septembre 1968, et qui a pris pour nom « le Club de Rome » suite à une réunion fondatrice dans la capitale italienne, fait appel à des personnalités du monde scientifique et de la planification pour mener des recherches sur ces questions. Le premier résultat dʼun travail de modélisation réalisé dans ce cadre est la publication, en 1972, dʼun rapport sur les « limites de la croissance ».

Ce rapport, en anglais The Limits to Growth, présente diverses simulations effectuées avec un modèle mathématique, et porte un message politiquement radical : il préconise dʼarrêter la croissance économique et démographique glo-bale, sans quoi, annonce-t-il, le monde devra faire les frais dʼun effondrement généralisé – de la production, du niveau de vie et, de fait, de la population. Suite à la sortie de ce livre, un débat sur « lʼavenir global » de nos sociétés sʼengage, et il sʼarticule autour de la mise en place dʼun certain nombre de « modèles mathématiques ». Dans les années qui précèdent, un certain nombre dʼouvrages avaient déjà soulevé le problème des implications du « progrès » dans le long terme, et appelé à ralentir lʼempreinte technologique sur la nature. Silent Spring, de Rachel Carson, ouvrage fondateur du mouvement écolo-giste américain, en est un exemple significatif [Carson, 1962]. Il condamne lʼapplication obsessionnelle de la technologie chimique à la lutte contre les insectes et appelle à une maîtrise des populations fondée au contraire sur une connaissance des écosystèmes, sʼappuyant sur leurs mécanismes naturels. Par ailleurs, au cours des années 1960, plusieurs économistes hétérodoxes avaient déjà développé une critique de la croissance économique, et appelé à la mise en

Page 21: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR22

place dʼune « société de stabilité » [Boulding, 1966 ; Daly, 1971 ; Georgescu-Roegen, 1971]. Le Club de Rome nʼa donc pas inventé la « croissance zéro ». En revanche, la question de la viabilité du chemin que suit notre société glo-bale est exprimée, pour la première fois, en des termes mathématiques, les données du problème étant mises en relation au sein dʼun modèle, et lʼappel à un mode de vie plus stable, en équilibre avec la nature, se voit investi de lʼautorité dʼun ordinateur, celui sur lequel les simulations ont été effectuées.

Le débat autour de la croissance, initié par la parution des Limits to Growth, porte en lui des enjeux philosophiques et politiques majeurs. Il donne lieu à lʼexpression de diverses représentations du lien entre société et environ-nement naturel, et laisse transparaître toute une variété de positionnements concernant les priorités pour notre société globale dans le long terme. Nous souhaitons retracer ici ce débat dans ses grandes lignes et saisir la spécificité de lʼobjet « modèle » comme instrument dʼinvestigation, dʼargumentation et de communication. Après avoir décrit lʼémergence du projet du Club de Rome et sa mise en place, nous brosserons le tableau des modèles et des groupes participant au débat. Nous tenterons alors de comprendre comment, au sein de chacun dʼentre eux, sʼarticulent une méthodologie et un système de valeurs bien particuliers, qui concourent à en faire les porteurs de voix diverses sur le sujet de la croissance, témoins dʼintérêts sociaux et économiques variés.

DES MODÈLES POUR APPRÉHENDER LE FUTUR

Aurelio Peccei, le fondateur du Club de Rome, est paradoxalement issu du milieu de lʼindustrie, dans lequel la croissance est vue comme une bénédiction plutôt que comme un danger. Pour lʼentreprise FIAT notamment, il a assumé des responsabilités importantes dans le cadre de projets censés « développer » le tiers monde et visant à diffuser dans ces pays nos modes de production et de consommation. Mais dès le milieu des années 1960, son discours sʼest teinté dʼinquiétude à propos du « progrès », de ses conséquences sur lʼenvi-ronnement et sur les êtres humains, avec une insistance sur la nécessité de le comprendre et de le maîtriser. Cʼest dans ce souci que Peccei a fondé le Club de Rome à la fin des années 1960, avec Alexander King, alors directeur des affaires scientifiques à lʼOCDE. Dès lʼorigine, il sʼest agi de mobiliser les méthodologies systémiques issues du domaine militaire pour essayer de mieux comprendre les « grands problèmes de lʼépoque ».

Le Club de Rome et la modélisation

Erich Jantsch, consultant auprès de lʼOCDE pour les questions de prévision technologique, et Hasan Ozbekhan, cybernéticien, ont participé à lʼélaboration

Page 22: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

23CROISSANCE OU STABILITÉ ? L̓ ENTREPRISE DU CLUB DE ROME…

des premiers projets. Ce dernier a développé le concept de « problémati-que mondiale », qui est présenté aujourdʼhui encore comme la raison dʼêtre du Club de Rome. Pour Peccei et ses collègues, les profondes transformations de notre monde technologique créent un faisceau de problèmes dʼéchelle glo-bale, dans des domaines aussi variés que lʼécologie, lʼéducation, la pauvreté ou les institutions politiques, et ces problèmes sont inextricablement liés les uns aux autres. Cʼest ce complexe de problèmes quʼil faut comprendre sous le terme de « problématique ». Initialement, le projet du Club de Rome a été de créer la méthodologie entièrement nouvelle requise par le caractère inédit des questions émergeant dʼun monde en profonde mutation technologique.

Mais la réalité en a décidé autrement et le modèle qui a été fondé a abordé les choses dʼune manière bien plus restrictive que prévu : cʼest une métho-dologie existante, la dynamique des systèmes, qui a été mise au service du projet du Club de Rome. Cette méthodologie avait été élaborée au début des années 1960 au MIT (le Massachusetts Institute of Technology), par Jay Forrester, une figure importante du complexe militaro-industriel de la Seconde Guerre mondiale puis de la guerre froide. Ingénieur électrique de formation, celui-ci sʼétait investi dʼabord dans lʼ« effort de guerre » en déve-loppant des appareils techniques militaires, des radars par exemple. Il avait ensuite œuvré à la mise en place de dispositifs plus larges et complexes, en participant notamment au projet SAGE pendant la guerre froide, qui visait à développer un réseau automatisé de contrôle et de commandement (avec des radars disséminés sur lʼintégralité du sol des États-Unis) destiné à détecter lʼarrivée dʼéventuels missiles soviétiques. Un tel projet supposait une double élaboration : celle dʼune infrastructure matérielle et celle dʼun programme de fonctionnement, détaillant en particulier la manière dont lʼinformation devait circuler entre les unités. En 1956, Forrester, nouvellement installé à la Sloan School de Management du MIT, avait alors recyclé ses compétences dʼana-lyse et de gestion des systèmes au service du management, en développant une méthodologie appelée « dynamique industrielle », puis « dynamique des systèmes ». Cette méthodologie, conçue dʼabord pour résoudre des problèmes de gestion des entreprises, a ensuite été appliquée aux problèmes de lʼévo-lution des villes et de divers systèmes biologiques et sociaux. Elle conçoit un système comme un ensemble dʼéléments, liés les uns aux autres par des relations de cause à effet, quʼelle représente sur un schéma comportant des boucles de rétroaction, dans une perspective cybernétique. La programma-tion informatique des modèles de dynamique des systèmes repose sur des équations qui détaillent plus précisément ces relations. Elle donne lieu à des simulations qui présentent lʼévolution discrète du système dans un intervalle de temps donné.

Pour répondre à la demande du Club de Rome, formulée à lʼoccasion dʼune rencontre à Berne en juin 1970, Forrester a dʼabord conçu seul, en trois

Page 23: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR24

semaines, la première version dʼun modèle mondial, World 1, comprenant près de 40 équations non linéaires, nourrie avec les données chiffrées de lʼouvrage de Peccei, The Chasm Ahead [1969] et de quelques autres articles du même auteur. Ce modèle devient ensuite World 2 avec lʼimplication du System Dynamics Group, formé autour de Dennis Meadows – un jeune chercheur de 28 ans, qui a obtenu son doctorat en management au MIT –, puis World 3, le modèle présenté dans les Limits to Growth.

FIGURE 1. – STRUCTURE DU SYSTÈME MONDIAL POUR WORLD 2

Source : World Dynamics, J. Forrester [1971].

Page 24: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

25CROISSANCE OU STABILITÉ ? L̓ ENTREPRISE DU CLUB DE ROME…

L̓ équipe qui développe ce dernier modèle est pluridisciplinaire, interna-tionale, formée de 17 chercheurs, souvent jeunes, en majorité américains, et issus plutôt des sciences de la nature et du management. Il nʼy a aucun éco-nomiste. La structure de base du modèle global reste pratiquement inchangée entre les différentes versions. Elle sʼarticule autour de 5 variables clés : popu-lation, industrie, agriculture, ressources et pollution, la variable population étant centrale et les autres variables affectant son évolution par le biais de

Page 25: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR26

coefficients multiplicateurs de la natalité, ou de la mortalité. Par exemple, une plus grande pollution fait augmenter le taux de mortalité, tandis quʼune plus grande abondance de nourriture fait croître le taux de natalité. Les simulations effectuées avec World 2 et World 3 seront présentées dans des rapports desti-nés au grand public, respectivement World Dynamics [1971] et The Limits to Growth [1972], ce dernier ayant un retentissement public considérable. World Dynamics est lʼœuvre de Forrester seul, tandis que The Limits to Growth est cosigné par quatre auteurs : Donella Meadows, la rédactrice principale, biophysicienne, épouse de Dennis Meadows ; Dennis Meadows lui-même, qui a dirigé le travail de modélisation ; Jørgen Randers, un Norvégien alors doctorant en management au MIT ; William Behrens qui a travaillé sur la partie « ressources » du modèle.

Dans chacun des deux rapports, la structure du modèle est présentée sous la forme dʼun schéma qui montre comment ses éléments, décrits par des variables (population, état des ressources…), dépendent les uns des autres, formant des « boucles de rétroaction » (cf. figure 1, pages précédentes).

À ce schéma correspond un système dʼéquations, chacune donnant lʼétat dʼune variable à la date t + 1 en fonction de lʼétat dʼautres variables à la date t.

Les rapports présentent lʼévolution des variables pour un certain nombre de scénarios : le scénario de base suppose que les tendances présentes se pour-suivront, et le système y expose un comportement overshoot and collapse :

FIGURE 2. – LE COMPORTEMENT OVERSHOOT AND COLLAPSE DU MODÈLE WORLD 2

Source : World Dynamics, J. Forrester [1971].

Page 26: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

27CROISSANCE OU STABILITÉ ? L̓ ENTREPRISE DU CLUB DE ROME…

la population et la pollution croissent jusquʼà atteindre une valeur limite, à partir de laquelle elles sʼeffondrent. La qualité de vie décroît également assez rapidement. Les scénarios suivants examinent les conséquences de progrès technologiques dans le domaine de la production, permettant à lʼindustrie dʼêtre moins polluante, ou moins gourmande en ressources naturelles. Ces hypothèses sont traduites par des variations de paramètres du modèle, comme celui qui correspond à la valeur « ressources naturelles à lʼorigine ». Leurs conséquences sont présentées sous la forme dʼun jeu de graphiques comme celui qui apparaît ci-contre (figure 2). On y voit apparaître lʼévolution des variables clés, avec en plus celle de la variable « niveau de vie ».

Dans chacun de ces scénarios, on assiste au bout dʼun certain temps à un effondrement du système : les variables « qualité de vie », « population » et « production » croissent puis chutent. Les progrès technologiques ne modifient pas ce schéma comportemental, ils ne font que repousser lʼeffondrement plus loin dans le temps. Les seuls scénarios qui conduisent à un comportement dif-férent sont ceux où lʼon choisit de stabiliser la population et la production, ce à quoi le Club de Rome appelle dans ses rapports. Les simulations présentées dans World Dynamics et The Limits to Growth sont pratiquement les mêmes, mais lʼargumentation autour des simulations est beaucoup plus détaillée dans le second ouvrage. Donella Meadows y mène toute une réflexion sur le bien-fondé dʼune société de stabilité, en sʼappuyant sur des écrits philosophiques et économiques. La bibliographie de World Dynamics, en revanche, est quasi inexistante.

L’événement des Limits to Growth

La publication des Limits to Growth est un événement médiatique de grande envergure. Le magazine américain Time en propose une version syn-thétisée ; les journaux et la télévision en diffusent les méthodes et les conclu-sions, et donnent la parole à ses auteurs. En Europe, le futur président de la Commission du Marché commun, Sicco Mansholt, est profondément ébranlé par les conclusions du Club de Rome et propose de lancer immédiatement en Europe un programme politique de mise en place dʼune « économie de pénurie », contre lequel sʼinsurgent avec vigueur les hommes politiques de tous les bords de lʼéchiquier (en France, Georges Marchais et Raymond Barre protestent publiquement) [Reboul et Te Pass, 1972]. Chez les économistes, qui nʼapprécient pas les méthodes de lʼétude et rejettent ses conclusions, on assiste à une véritable levée de boucliers. La critique du modèle employé par le Club de Rome va donner lieu à la mise en place dʼun certain nombre dʼautres modèles, dans le but de contrer les conclusions des Limits…, en se fondant sur le même type de méthodologie. Dans le milieu académique en général, les réactions sont vives. John Maddox, lʼancien éditeur de Nature,

Page 27: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR28

affirme que la trop grande simplicité du modèle World fait de lʼétude « une absurdité ». L̓ équipe de la Science Policy Research Unit de lʼuniversité du Sussex, au Royaume-Uni, rédige collectivement une critique particulière-ment détaillée [Cole, 1973]. Cette critique porte dʼabord sur la structure du modèle, qui, selon elle, jette le discrédit sur la technologie comme moyen de résoudre les grands problèmes de société. Elle sʼattaque aussi à la fiabilité du modèle, en montrant que, lorsque lʼon fait tourner le modèle en arrière à partir de 1900, les variables prennent des valeurs aberrantes par rapport à la réalité historique. Enfin, elle dénonce lʼattitude « technocratique » du Club de Rome qui prétend, depuis son centre de recherche déconnecté de la société, dicter au monde la meilleure marche à suivre à partir de données chiffrées. Herman Kahn, le « futurologue » qui a fondé le Hudson Institute – après des années consacrées aux recherches militaires et en particulier à la question de lʼarme nucléaire –, élabore quant à lui, en réponse aux Limits to Growth, un « scénario pour les 200 prochaines années » [Kahn, 1976], où il cherche à montrer que le projet volontariste dʼune croissance zéro nʼest pas pertinent, en argumentant que la société mondiale est en train dʼeffectuer spontanément un virage vers une ère de stabilité « post-industrielle », où la consommation ne sera plus une fin en soi.

L’IIASA et la modélisation globale

Dès la présentation des premiers résultats des modèles World, et avant même la parution des Limits to Growth, la méthodologie et les conclusions du Club de Rome sont critiquées ; deux équipes décident de fonder chacune un nouveau modèle « global » pour apporter de nouveaux éléments de réponse à la question soulevée.

La première équipe sʼorganise à Hanovre autour dʼEduard Pestel (pro-fesseur de mécanique à lʼorigine et lʼun des fondateurs du Club de Rome) et à Cleveland autour de Mihajlo Mesarovic (fondateur de la théorie « des systèmes hiérarchiques multiniveaux » qui sera appliquée dans le modèle). Elle inclut des chercheurs en sciences politiques – Barry Hugues et John Richardon Jr –, et sa critique porte principalement sur lʼabsence de prise en compte des disparités régionales démographiques, industrielles et agricoles dans les modèles World, pour lesquels le monde est décrit par un jeu unique de variables globales [Mesarovic et Pestel, 1974].

La seconde équipe est composée principalement de chercheurs des pays du Sud, avec une représentation importante de mathématiciens et dʼécologues, et son étude se voit patronnée par la fondation Bariloche, en Argentine. Pour ce groupe de recherche, les problèmes soulevés dans les Limits to Growth, comme celui de lʼépuisement des ressources, sont essentiellement des problè-mes de pays riches, et, par ailleurs, la catastrophe annoncée par le rapport est

Page 28: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

29CROISSANCE OU STABILITÉ ? L̓ ENTREPRISE DU CLUB DE ROME…

déjà une réalité présente pour bien des pays du tiers monde. L̓ idée est donc de créer un modèle pour déterminer sʼil est possible de satisfaire les besoins fondamentaux de ces pays, et pour définir les meilleures mesures à prendre pour y parvenir [Herrera, 1977].

Le premier modèle adopte la méthodologie mise en place par Mihajlo Mesarovic à des fins de gestion des entreprises, qui met en évidence, pour un système, la coordination entre différents niveaux de prise de décision et la manière dont des décisions prises dans des secteurs particuliers du système lʼaffectent au niveau global. Ce modèle a pour ambition de faire apparaître lʼhétérogénéité des parties du monde et leur interdépendance. Dans le modèle, les pays sont donc regroupés en 10 grandes régions. Ses résultats sont présentés dans le second rapport au Club de Rome, publié en 1974, et qui diffère du premier par plusieurs aspects. Tout dʼabord, la structure du modèle, vraisem-blablement bien moins facile à schématiser que celle de World, nʼy apparaît pas. Ensuite, chaque chapitre soutient un message particulier quʼil appuie en mettant en avant le comportement de telle ou telle variable sous telle ou telle hypothèse. Par exemple : il faut se mobiliser rapidement pour combler le fossé entre pays riches et pays pauvres ; ou alors : il est bénéfique pour tous les pays de coopérer afin de se partager au mieux les ressources naturelles plutôt que de se battre pour se les approprier. La conclusion générale de lʼouvrage, naturellement plus nuancée que celle du premier rapport au Club de Rome, ne connaît pas de retentissement public. Elle prétend surtout dépasser la dichoto-mie du débat soulevé par les Limits to Growth (pour ou contre la croissance ?) et appelle à cultiver dans le monde une « croissance organique » – qui permette à ses différentes parties de se développer harmonieusement – plutôt quʼune « croissance indifférenciée », insoutenable dans le long terme.

Dans le « modèle Bariloche », le monde est découpé en 4 grandes régions : monde développé, Afrique, Asie, Amérique latine. Le problème auquel le modèle prétend répondre est celui de la satisfaction des besoins fondamentaux de ces trois dernières régions. Ainsi, le rapport rédigé à lʼattention du grand public [Herrera, 1977] commence par dessiner une société normative où des niveaux acceptables de développement auraient été atteints dans les domaines du logement, de lʼalimentation et de lʼéducation. Le modèle, introduit après, prétend estimer la possibilité de réalisation dʼune telle société. La représenta-tion de sa structure ressemble à celle des modèles World : elle fait apparaître des boucles de rétroaction qui montrent comment les variables dépendent les unes des autres. La variable « espérance de vie », qui dépend directement de la satisfaction des besoins fondamentaux et indirectement du niveau de vie, y joue un rôle central. La méthodologie de lʼétude consiste à la maximiser sur chaque période dʼun an et à faire évoluer les autres variables en conséquence. Plus précisément : au début de chaque année et pour chaque région, lʼétat des variables du modèle détermine une quantité totale de ressources humaines et

Page 29: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR30

financières disponibles. L̓ ordinateur détermine alors la répartition optimale de ces ressources entre différents secteurs dʼactivité : celle pour laquelle lʼespérance de vie sera maximale à la fin de lʼannée. Ce choix de répartition étant fixé, le modèle tourne alors sur la période suivante et détermine une nouvelle quantité de ressources humaines et financières disponibles pour lʼan-née suivante. L̓ optimisation est réitérée de proche en proche. La conclusion du rapport est quʼil est possible de parvenir assez rapidement à une situation acceptable pour lʼAmérique latine, et à moyen terme pour lʼAfrique et lʼAsie. Elle stipule aussi que les pays développés devront accepter de stabiliser leur niveau de vie afin de permettre aux plus pauvres de sortir de la misère. Comme chez Mesarovic et Pestel, il y a donc une prise en considération du monde dans sa diversité, et lʼon ne peut envisager lʼévolution de lʼune de ses parties sans tenir compte des autres.

Au cours de la décennie 1970, dans la continuité du débat, une petite dizaine de modèles « globaux », à lʼinstar des trois que nous venons de pré-senter, seront mis en place par des équipes situées en différents points du monde. Ces modèles seront tous discutés et évalués au cours de conférences organisées entre 1974 et 1980 par lʼIIASA (International Institute for Applied Systems Analysis, un organisme fondé en 1972 dans les environs de Vienne, à lʼinitiative de Peccei, dans lʼobjectif de rassembler pays de lʼEst et de lʼOuest dans une recherche commune sur les « problèmes de nos sociétés avancées ») [Meadows et alii, 1982]. Les conclusions de ces modèles, qui prétendent ser-vir dʼoutils de décision autant que de réflexion, sont en général synthétisées dans un rapport destiné au grand public. Nous avons vu que les modèles de Mesarovic et Pestel et de la fondation Bariloche réagissaient directement aux conclusions des Limits to Growth sur la question de la croissance globale du monde. Le suivant, MOIRA, sʼinscrit encore dans cette thématique puisquʼil pose la question de la production de nourriture dans un monde en expansion : comment nourrir une population qui est en train de doubler ? En revanche, les « modèles globaux » conçus par la suite, fondés sur une structure plus classique de modèle économique, prétendent plutôt intégrer divers aspects (économiques, démographiques…) dans un même cadre quʼapporter des éléments nouveaux sur la question des limites de la croissance.

Si, pendant la décennie 1970, un certain nombre de personnalités du milieu académique consacrent leur temps et leur énergie à la conception de modèles globaux, ils délaissent pour la plupart cette activité à partir de 1980, soit pour continuer à fonder des modèles « sectoriels » qui répondent à des questions plus ciblées que celle du bien-fondé de la croissance économique (comme Forrester qui se consacre à un modèle de lʼéconomie américaine axé sur les questions dʼinflation et de chômage), soit pour occuper des postes de responsabilité dans le milieu politique ou institutionnel (comme Gehrart Bruckmann, lʼorganisateur des conférences de lʼIIASA, qui ne sʼoccupe

Page 30: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

31CROISSANCE OU STABILITÉ ? L̓ ENTREPRISE DU CLUB DE ROME…

plus de modélisation globale à partir des années 1980, mais est élu député conservateur au Parlement autrichien, où il sʼoccupe néanmoins de questions environnementales).

L’économiste William Nordhaus

Du côté des économistes, William Nordhaus1, de la Cowles Foundation, est celui qui réagit avec le plus de vigueur à la publication des Limits to Growth. Sa critique va déboucher sur un travail de modélisation qui aboutira à la mise en place du modèle DICE (Dynamic Integrated Model of Climate and Economy) au début des années 1990 [Nordhaus, 1992]. Nordhaus sʼinsurge en particulier contre lʼabsence de prise en compte des mécanismes économiques dans World 2 et World 3, qui véhicule selon lui une vision figée des rapports entre lʼhumain et la nature, et conduit à considérer le processus dʼépuisement des ressources comme inéluctable. Il revendique tout dʼabord quʼun modèle de gestion des ressources naturelles admette la possibilité de la « substitution » entre matière, capital et travail, et entre différentes matières premières, ce qui signifie que, dans la production dʼun bien, on peut remplacer lʼapport dʼune matière première par celui dʼune autre, ou diminuer cette quantité de matière première disponible en « améliorant » le processus de production. Nordhaus considère également que les mécanismes de prix peuvent permettre de pré-server efficacement les ressources : si une ressource devient excessivement chère, sa demande va diminuer et son épuisement se ralentir.

En 1973, dans un article de la Cowles Foundation, Nordhaus [1973a] propose un modèle de gestion des ressources énergétiques fondé sur un méca-nisme dʼoptimisation intertemporelle, qui vise à minimiser dans le long terme le coût lié à lʼextraction, au transport et au traitement des ressources. Cette notion dʼoptimisation est au cœur du modèle DICE (mis en place au cours des années 1980) qui consiste en une intégration de la contrainte climatique au modèle de croissance optimale de Ramsey. Il sʼagit alors de minimiser, dans le long terme, les coûts liés au changement climatique, de ses dégâts aussi bien que de sa prévention. Alors que les modèles fondés pour le Club de Rome sont aujourdʼhui tombés en désuétude et que les modèles thermo-dynamiques du processus économique nʼont jamais été pris en considération par les décideurs, ce modèle DICE a connu une véritable postérité. Il a donné naissance à tout un courant de modélisation et ses résultats, qui encouragent une attitude dʼattentisme par rapport au changement climatique, ont vraisem-blablement influencé la prise de décisions (ou lʼabsence de prise de décisions) de la part des autorités américaines dans la période récente [Sterman et Booth Sweeney, 2002].

1. À propos de cet auteur, on pourra consulter ici même le chapitre rédigé par Pierre Matarasso.

Page 31: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR32

DES MODÈLES QUI « FABRIQUENT LE FUTUR »

Le débat autour de la croissance sʼenracine dans les années 1960, qui voient la montée en puissance du mouvement environnementaliste et les premiers développements dʼune théorie « thermodynamique » du processus économique chez Kenneth Boulding, Nicholas Georgescu-Roegen et Herman Daly. Pour ces auteurs, la science économique classique, qui représente le processus économique comme un cycle économique fermé, déconnecté de son environnement physique, échoue profondément à représenter la transformation irréversible que ce processus fait subir au monde : il faut mettre en place une nouvelle science économique qui prenne en compte ces aspects.

Ces auteurs, ainsi que les autres participants au débat sur la croissance, sʼils divergent quant à leurs points de vue, sʼaccordent sur lʼidée quʼà leur époque, il devient nécessaire de « penser le futur », dʼy réfléchir de manière rationnelle, puisque nos sociétés se trouvent à un moment charnière de leur évolution et que lʼêtre humain a acquis des pouvoirs dʼune ampleur nouvelle qui peuvent lui ouvrir les portes du paradis ou le mener à sa perte. Ainsi, Kenneth Boulding évoque la « grande transition » que nos sociétés subissent, Herman Kahn le passage vers la société « post-industrielle », Aurelio Peccei et le Club de Rome la « problématique mondiale » qui émerge des grands changements de notre époque. Si Herman Kahn juge que les problèmes évoqués par le Club de Rome ne sont pas si graves quʼil y paraît, il a été le premier à étudier les dangers liés à la guerre atomique, et à penser dans les détails un monde post-guerre atomique afin que notre société ne soit pas prise au dépourvu dans le cas où celle-ci surviendrait. Nordhaus lui-même a jugé nécessaire de mettre en place un modèle global pour répondre à la question soulevée par le Club de Rome. Dʼune manière générale, les modèles qui ont été conçus lʼont été dans cette perspective de gestion du monde, pour servir dʼoutils aux décideurs plutôt que pour simplement permettre la réflexion et la discussion.

Si on sʼintéresse maintenant à la réponse apportée par les modèles et les protagonistes de notre débat à la question « la croissance peut-elle et doit-elle continuer ? », nous observons un échantillon varié de positions : pour les modèles World, la réponse est clairement non. Pour le modèle de Mesarovic et Pestel, elle pourrait continuer, mais à condition de changer de nature et de devenir « organique ». Pour le modèle Bariloche, elle peut et doit se pour-suivre pour les pays du Sud, mais les pays du Nord doivent y renoncer. Pour les modèles de Nordhaus, il nʼy a aucun problème pour que les États-Unis continuent à augmenter leur consommation dʼénergie, à condition que la gestion de cette énergie soit conduite rationnellement.

Page 32: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

33CROISSANCE OU STABILITÉ ? L̓ ENTREPRISE DU CLUB DE ROME…

Méthodologie versus idéologie : une dichotomie à dépasser

Le débat autour des limites de la croissance a fait couler beaucoup d e̓ncre dans le domaine de l̓ étude des sciences dans les années 1980, la plupart des textes écrits prenant parti pour ou contre le rapport au Club de Rome. Les tentatives de placer ce rapport dans un cadre plus large, afin de comprendre ce qui a contribué à former ses conclusions, nous semblent les plus intéressantes (elles ne sont d a̓illeurs pas nécessairement impartiales). Brian Bloomfield [1986], sociologue des sciences britannique, a par exemple réalisé une étude comparée du System Dynamics Group du MIT, à l̓ origine du modèle World 3, et de la Science Policy Research Unit de l̓ université du Sussex, qui, comme nous l̓ avons vu, a proposé une critique très complète du rapport au Club de Rome. Il s e̓st intéressé aux méthodologies prisées par chacun de ces deux groupes, en mettant à leur compte les divergences de position dans le débat sur la croissance. Pour lui, le System Dynamics Group adoptait une position plutôt pessimiste en affirmant que les sociétés humaines auraient à choisir entre la stabilité et la catastrophe. La Science Policy Research Unit adoptait au contraire une position plus optimiste, en affirmant que d a̓utres alternatives étaient possibles. En retraçant l̓ histoire de la dynamique des systèmes, à travers ses applications à l̓ industrie puis à la gestion urbaine, Bloomfield essayait de montrer que cette méthodologie portait en elle certaines rigidités structurelles qui conditionnaient les conclusions du rapport au Club de Rome, tandis que l̓ équipe du Sussex privilégiait une méthodologie plus souple qui le conduisait à conclure à une plus grande variété d o̓ptions pour appréhender l̓ avenir.

Dans une autre veine, Philippe Braillard [1982] a replacé le premier rapport au Club de Rome (The Limits to Growth) dans la série des rapports qui se sont succédé pendant la décennie 1970, sans accorder beaucoup dʼintérêt au choix de la dynamique des systèmes comme méthodologie. Il a cherché au contraire à dégager lʼidéologie sous-jacente à ces rapports, qui ont porté sur des sujets aussi variés que les déchets, les relations internationales ou lʼéducation, et dont la plupart ne se sont pas appuyés sur un modèle mathématique. Pour Braillard, tous ces rapports présentaient le devenir « naturel » de la société comme catastrophique, dans quelque domaine que ce soit, et préconisaient un virage radical au présent pour éviter cet avenir catastrophique. Une telle approche consistait donc à ignorer la méthodologie du rapport au Club de Rome, pour ne considérer que lʼidéologie véhiculée par ce groupe.

Dans une telle perspective, on pourrait être tenté de ne voir les modèles utilisés par le Club de Rome et les autres groupes impliqués que comme des outils rhétoriques venant appuyer telle ou telle idée préexistante. Certains éléments pourraient nous encourager dans ce sens : lʼintroduction des Limits to Growth présente le modèle comme un véritable outil dʼinvestigation, mis en place pour répondre à une question ouverte. En revanche, des dis-

Page 33: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR34

cours antérieurs énoncent que lʼobjectif du Club de Rome est dʼétudier la manière dʼacheminer nos sociétés vers la stabilité. Le modèle serait donc venu appuyer une option le précédant : il est préférable que nos sociétés vivent en équilibre avec leur environnement plutôt que de subir une transfor-mation permanente sous le signe du « progrès ». De même, si on sʼintéresse au discours de Nordhaus avant la mise en place de ses modèles, on y décèle une volonté dʼassurer pour son pays une augmentation continuelle de la consommation dʼénergie, et les conclusions tirées de son modèle DICE en 1992 [Nordhaus, 1992] sʼinscrivent bien dans ce sens puisquʼelles affirment quʼil est préférable de ne pas prendre de mesures trop drastiques contre le changement climatique, lesquelles se révéleraient plus coûteuses que dʼen réparer les dégâts2.

Dans notre étude historique, faut-il donc se désintéresser des modèles au prétexte quʼils nʼapportent aucune conclusion nouvelle et se contentent dʼappuyer des idées préexistantes, quʼils ne sont que les gages de rationalité des orientations quʼils préconisent ? Il nous semble pertinent, au contraire, de les étudier précisément afin dʼessayer de comprendre de quelle manière ils parviennent à intégrer certaines préoccupations et certains choix de société dans une forme prétendument objective et rationnelle.

Modèles et « cosmologies »

Venons-en à une étude comparative de trois modèles qui ont posé la question de la croissance au niveau global, en y apportant des réponses différenciées : le modèle World, le modèle Bariloche et le modèle DICE de Nordhaus. Nous allons voir comment plusieurs thèmes y sont traités, dans les discours péri-phériques comme dans la structure mathématique elle-même, afin de saisir de quelle manière fond et forme s̓ articulent, et en quoi le traitement de ces thèmes contribue à façonner des conclusions différentes en ce qui concerne la « crois-sance ». Nous nous inspirerons du travail de Brian Bloomfield, qui, le premier, a proposé d a̓ppliquer la notion de « cosmologie » à l̓ étude des entreprises de modélisation, dans le but de saisir comment des croyances partagées par des groupes peuvent se trouver intégrées dans des équations mathématiques.

Le rapport à la polarité nature/technologie nous semble constituer une dimension particulièrement pertinente pour éclairer la manière dont certaines conceptions du monde façonnent la structure et les conclusions des modèles qui nous intéressent. Dans les Limits to Growth, une certaine vision du progrès technique se dégage du discours aussi bien que des équations. Le discours présente la technologie comme un facteur ambivalent, source dʼun nouveau pouvoir sur nous-mêmes, mais aussi lourde de menaces puisque nous sommes

2. Voir le chapitre rédigé par Christian Azar dans cet ouvrage.

Page 34: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

35CROISSANCE OU STABILITÉ ? L̓ ENTREPRISE DU CLUB DE ROME…

parfois impuissants à la mettre à notre service, quʼelle risque de nous échapper et de se retourner contre nous. Les extraits qui suivent illustrent bien cette conception : « La révolution industrielle […] a amené une explosion dʼacti-visme, de laideur et dʼopulence » ; la science et la technique qui ont apporté opulence et santé « furent aussi les agents principaux de la complexité de la situation actuelle, […] ont permis lʼextraordinaire poussée démographique, amené la pollution et autres nuisances et effets nocifs et annexes de lʼindustria-lisation ». Par ailleurs, une vision déshumanisante de la technique se dégage de certains passages : « la motorisation a allégé le poids du travail physique mais lui a retiré toute signification » ; « un sentiment dʼangoisse commence à se répandre devant une vie qui se vide de toute qualité ». Si la technologie apparaît comme dangereuse dans les discours, dans le modèle, en revanche, elle est représentée comme un facteur qui ne peut agir sur les problèmes que de manière locale, sans résoudre la crise dans sa globalité.

Rappelons que le rapport sʼorganise autour de la présentation des résultats de plusieurs simulations, portant sur lʼévolution du système tout entier. La première simulation dégage les conséquences dʼune évolution « naturelle » du système social global, cʼest-à-dire dʼune continuation de ses tendances présentes. On y envisage des variables de population et de production croissant exponentiellement dans un environnement où les ressources naturelles et la capacité dʼabsorption de la pollution sont limitées. Cette simulation conduit à un « effondrement » du système global. Les simulations suivantes étudient les effets de divers progrès techniques sur lʼévolution du système. De lʼune à lʼautre, certains paramètres constants du modèle subissent des variations. Par exemple, dans lʼune des simulations, le paramètre « ressources naturel-les dʼorigine » est multiplié par deux, ce qui correspond à lʼhypothèse que de nouveaux gisements seront découverts, ou que le recyclage permettra à chaque unité de matériau dʼêtre utilisée deux fois au lieu dʼune. Dans une autre, cʼest le seuil maximal de tolérance de la pollution qui est multiplié par deux. Le schéma évolutif du modèle sous ces hypothèses aboutit également à un effondrement, la seule différence étant quʼil survient plus tard que dans la simulation de base. La traduction du « progrès technique » dans le modèle World révèle, selon ses détracteurs, un certain pessimisme concernant les promesses de la technique ; pour eux, il aurait été plus judicieux de supposer que le progrès permettrait aux ressources exploitables de croître aussi vite que leur consommation, et lʼeffet dʼune telle hypothèse sur lʼévolution du système aurait été tout à fait différent.

Technologie versus nature

Pessimisme ou réalisme ? Il est certain que la conception de la technologie est un point essentiel de divergence entre le Club de Rome et ses critiques.

Page 35: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR36

Pour ses critiques, la technologie est toujours plus forte que la nature, elle peut résoudre tous les problèmes. Pour réfuter la conclusion des Limits to Growth, ils abordent lʼune après lʼautre les menaces évoquées par le rapport, afin de montrer que le progrès technologique permettra de les éviter : celle de lʼépuisement des ressources minérales, puis celle du manque de nourriture, puis celle de la pollution… Cʼest donc en abordant les problèmes soulevés par le Club de Rome « tranche par tranche » que les critiques parviennent à démonter les conclusions des Limits. Or, dans ce rapport où lʼêtre humain est conçu comme un élément de la nature – dans laquelle il doit trouver une juste place –, lʼactivité humaine est abordée de manière « systémique », et les interactions entre les secteurs des modèles World font que, si la technologie apporte son soutien à un secteur particulier (par exemple, en doublant les ressources naturelles), alors des répercussions se feront sentir dans un autre secteur du modèle (par exemple, dans celui de la pollution).

La représentation de la technologie dans les Limits to Growth est une source de questionnement, compte tenu de lʼappartenance de la plupart des membres du Club de Rome à lʼélite industrielle et/ou politique, peu encline a priori à tenir un discours écologiste qui émanait alors surtout de la contre-culture, compte tenu aussi de lʼenracinement de la dynamique des systèmes dans les questions liées à la croissance des entreprises.

Il est certain que le projet du Club de Rome a impliqué des personnes de milieux et dʼintérêts divers. Rappelons quʼAurelio Peccei a développé dès les années 1960 un discours ambivalent à propos de la technologie, tantôt idéalisée, tantôt perçue comme un facteur majeur de déstabilisation sociale et morale. Par la suite, il est allé plus loin en critiquant lʼorientation majoritai-rement matérialiste de nos sociétés et son désintérêt pour des questions plus métaphysiques. Forrester a conçu la première version du modèle World, mais il sʼest consacré avant et après ce projet à des modèles économiques privilé-giant la croissance économique. Cela nous incite à penser que les hypothèses fondatrices du modèle (croissance exponentielle dans un cadre fini, impliquant nécessairement une saturation) émanaient de Peccei, sans doute influencé par la pensée environnementaliste de son époque et marqué par son expérience du « développement » dans les pays du tiers monde. L̓ équipe pluridisciplinaire qui a travaillé sur le modèle World 3, et en particulier Donella Meadows qui a rédigé le rapport, a apporté une certaine coloration au texte, qui accompagne lʼexposition des simulations de toute une réflexion sur la société de stabilité quʼil convient de construire et ses avantages par rapport à la société existante. Cette réflexion apparaît nourrie de lʼinfluence dʼéconomistes critiques du progrès technique, comme Boulding et Daly, mentionnés plus haut. On sait aussi que le couple Meadows revendiquait un mode de vie particulièrement autosuffisant et écologiste, et que Donella Meadows, qui sʼest toujours présen-tée comme « paysanne aussi bien que chercheuse », avait adopté un mode de

Page 36: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

37CROISSANCE OU STABILITÉ ? L̓ ENTREPRISE DU CLUB DE ROME…

vie quʼon qualifierait aujourdʼhui de « décroissant », limitant par exemple ses déplacements en avion au minimum en raison de leur impact sur le climat.

Chez Nordhaus, et pour la fondation Bariloche, le rapport à la technologie est complètement différent. La technologie nʼest vue ni comme une menace ni comme un outil limité. Au contraire, elle semble pouvoir résoudre tous les problèmes posés par les Limits to Growth, à condition quʼon attende le temps quʼil faut. Le discours de Nordhaus, dans sa critique des modèles World, sʼattaque principalement à ce qui, dans ces modèles, traduit pour lui un manque de confiance dans les technologies du futur. Pour lui lʼhypothèse de la « substitution » devrait être acceptée, car elle exprime la confiance quʼon accorde à la technologie pour dépasser les limites que la nature semble poser : ce qui semble impossible aujourdʼhui en termes de production ne le sera peut-être pas demain. Lorsquʼil fait tourner le modèle de Forrester pour infirmer ses conclusions, il pose dʼabord lʼhypothèse de ressources naturelles illimitées et suppose ensuite quʼil est possible de produire sans polluer du tout. Évidemment, les résultats de ces simulations sont différents de ceux de Forrester.

En 1973, Nordhaus part dʼune « contradiction apparente » pour mettre en place un modèle de gestion des ressources énergétiques. Dʼun côté, nous dit-il [Nordhaus, 1973a], ce sont les télévisions, les maisons surchauffées et les transports aériens qui font la grandeur des États-Unis. De lʼautre, certains « pessimistes » mettent en avant les problèmes posés par la consommation croissante dʼénergie dans les pays industrialisés et souhaitent un arrêt de cette croissance. Lʼhypothèse très forte quʼil énonce alors, pour résoudre cette contradiction, consiste en lʼavènement dʼune technologie complètement propre, puisant dans des ressources infinies pour produire de lʼénergie, et en sa généralisation complète sous 150 ans. Il la nomme backstop technology. Le modèle consiste alors à optimiser la gestion des ressources énergétiques dans la période antérieure à la généralisation totale de cette backstop techno-logy. Et cʼest ainsi quʼen 1973 Nordhaus évacue la question de lʼépuisement des ressources énergétiques. Plus tard, vers 1976, il commence à prendre en compte la question du changement climatique et à poser les premiers jalons de son modèle DICE, un modèle dʼoptimisation intertemporelle de la fonction de coût. Dans les articles qui marquent la construction de ce modèle, Nordhaus se montre constamment préoccupé de ce que la consommation dʼénergie des États-Unis puisse continuer à croître exponentiellement (il nʼévoque pas le reste du monde), et fait lʼhypothèse dʼune technologie permettant de ne pas dépasser une certaine concentration de CO2 dans lʼatmosphère, tout en autori-sant une multiplication par 5 de la consommation énergétique des États-Unis entre 1970 et 2100. Ces hypothèses technologiques sont donc précisément cel-les qui amènent à la conclusion attendue. Elles seront vivement critiquées par un chercheur du MIT, qui élaborera en 1996 un modèle alternatif à DICE : le

Page 37: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR38

modèle FREE (Feedback Rich Energy Economy Model), qui intègre des hypo-thèses tout à fait différentes et conclut à la nécessité dʼune action bien plus drastique et urgente contre le changement climatique [Fiddaman, 1996]. Mais, pour revenir à Nordhaus, on peut remarquer au passage que, le modèle quʼil choisit pour y « greffer » la question du changement climatique étant un modèle de « croissance optimale » (celui de Ramsey), il était a priori peu probable que les conclusions de ses simulations sʼopposent à la croissance…

Le point de vue des pays en développement

Dans le rapport de la fondation Bariloche, le point de vue est celui des pays en développement, et la question de départ est la possibilité de combler le fossé économique entre ces pays et les pays riches. Les hypothèses sur la technologie sont énoncées de manière explicite avant la présentation de la structure du modèle. Dans tous les domaines évoqués, ces hypothèses sem-blent incroyablement optimistes au regard de notre connaissance actuelle : la technologie devrait nous permettre de disposer de ressources naturelles en quantité toujours croissante, nous dit-on, et dans le modèle, la question de ces ressources naturelles nʼest absolument pas prise en compte (à la différence du modèle de gestion de Nordhaus où lʼon considère leur quantité comme limitée, mais seulement pour un temps fini). La technologie est présentée comme un outil contrôlable, qui peut avoir de bons ou de mauvais effets selon lʼusage quʼon en fait. Ainsi, la technologie nucléaire est vue de façon tout à fait positive, et lʼon considère quʼon doit pouvoir neutraliser aisément ses dangers. La possibilité dʼun changement climatique est rapidement évacuée comme une hypothèse vague et sans crédit. Les méthodes industrielles de production agricole sont très valorisées, avec lʼidée que leurs conséquences néfastes ne sont pas une fatalité mais découlent de mauvaises pratiques. Dʼune manière générale, on a lʼimpression que la nature nʼest pas prise en compte comme une entité vulnérable face aux activités humaines, et quʼaucune acti-vité humaine ne peut avoir sur elle dʼimpact grave. Pour ce modèle, il sʼagit donc dʼoptimiser une production agricole, industrielle et tertiaire sur une période donnée, mais les limitations à cette production ne proviennent pas de lʼenvironnement naturel.

Lʼétude conclut quʼil est possible pour les pays du tiers monde dʼat-teindre un bon niveau de vie, même si les pays les plus riches doivent pour cela diminuer un peu le leur. Si la croissance économique est au cœur des modèles World et DICE (décriée dans un cas, valorisée dans lʼautre), elle nʼest pas vraiment centrale pour le modèle Bariloche. La consommation nʼy est pas valorisée pour elle-même au-delà du seuil où les besoins considérés comme élémentaires sont satisfaits. Il est remarquable en tout cas que, si les intérêts de Nordhaus et de la fondation Bariloche divergent dʼévidence,

Page 38: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

39CROISSANCE OU STABILITÉ ? L̓ ENTREPRISE DU CLUB DE ROME…

leur représentation de la technologie, elle, soit aussi proche. On peut pen-ser que, dans les deux cas, un « intérêt à la croissance » conditionne cette représentation.

Le futur de Herman Kahn

Herman Kahn, qui, sans concevoir de modèle, participe au débat, développe aussi sa propre « cosmologie » concernant les sujets qui nous intéressent dès les années 1960. Sharon Ghamari-Tabrizi, qui a écrit un ouvrage biographique sur le fondateur du Hudson Institute portant essentiellement sur sa période de futurologie militaire, le décrit ainsi : « Il souhaitait évacuer les éléments non sociaux de notre humanité, le terrestre et lʼhumblement biologique. Sous sa cuirasse, lʼhumanité est emmaillotée dans la terre même, lʼair, le feu, lʼeau de lʼExistence – Kahn voulait se débarrasser de cette dépendance » [Ghamari-Tabrizi, 2005].

Dans son ouvrage L’An 2000, publié en 1967, Kahn envisage déjà la pos-sibilité pour les sociétés humaines dʼétablir des colonies dans lʼespace avant le tournant du millénaire. Dans The Next 200 years – sa réponse aux Limits to Growth –, il évoque un certain nombre de possibilités pour dépasser ce quʼil perçoit comme une dépendance pesante de lʼêtre humain à la nature : la fabrication de nourriture synthétique pour couvrir les besoins dʼune population en expansion, ou la production dʼénergie par fusion nucléaire. Son rapport à la nature et à la technologie est donc plus proche de celui de Nordhaus que de celui de lʼéquipe des Meadows.

Relations internationales et rapport au futur

Si la relation à la polarité nature/technologie est celle qui nous semble le mieux caractériser les différences de vision du monde entre les modélisateurs, qui se cristallisent au sein des modèles, dʼautres aspects sont également à mentionner. En premier lieu, la manière dont les relations internationales sont traitées. Il nʼen est pas question dans le modèle World, qui représente un monde agrégé, ce qui a été critiqué (le modèle de Mesarovic et Pestel a été fondé pour dépasser cette insuffisance). Dans le modèle de la fondation Bariloche, les relations internationales sont représentées par différentes formes dʼéchange entre des « blocs » de pays. On y considère que la satisfaction des besoins essentiels pour tous les pays est primordiale. Une croissance continuelle pour les pays riches nʼest donc pas valorisée. Il sʼagit, au contraire, que ces pays riches adoptent des restrictions pour permettre aux plus pauvres dʼatteindre un niveau de vie décent. Le monde est considéré comme un tout organique dont une partie ne doit pas se développer aux dépens des autres parties. Chez Nordhaus, il nʼest pas question de considérer le monde dans son ensemble, mais

Page 39: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR40

de satisfaire les besoins de son pays ou dʼun groupe de pays : le monde « non communiste ». Il nʼy a aucune prise en compte du monde dans sa diversité.

Le rapport au futur, quant à lui, diffère sensiblement dʼun modèle à lʼautre. Pour le modèle World et ses différentes versions, il sʼagit, comme lʼa écrit Philippe Braillard, dʼéchapper à un avenir catastrophique en infléchissant le chemin suivi par lʼhumanité. Les simulations aboutissent à une multitude de futurs en fonction des hypothèses initiales, et entre les divers scénarios simulés, on opte pour celui qui aboutit à la situation la moins mauvaise. Dans les Limits to Growth, cʼest cette situation finale qui importe plutôt que la trajectoire qui va y conduire. Ce qui implique quʼon préfère des hypothèses conduisant à une situation finale stable plutôt quʼà une oscillation continuelle du système. Dans chaque simulation, on étudie lʼévolution sur lʼintervalle de temps global. Si le système « survit », le scénario est validé. Sinon il est rejeté. Des analystes de la méthode dite « dynamique des systèmes » ont montré par ailleurs que cette méthodologie associait à chaque système un « comportement type » – parmi trois ou quatre possibles –, et que le comportement overshoot and collapse était lʼun dʼeux. Cela montre à quel point le discours (« nous allons droit dans le mur ») du Club de Rome et son choix méthodologique concourent à délivrer le message des limites de la croissance.

Pour les deux autres modèles, il nʼy a pas dʼenjeu vital de type « sauver la planète », et pas de manichéisme « bons/mauvais scénarios ». Il sʼagit dʼoptimiser un paramètre, pour chaque segment dʼune période donnée dans le modèle de la fondation Bariloche, et sur la durée totale de la période pour les modèles de Nordhaus. Le futur nʼest pas présenté comme une menace potentielle. Pour le modèle Bariloche, il est vu comme le cadre potentiel de lʼavènement dʼune société meilleure, et, pour Nordhaus, il nʼest présenté ni comme positif ni comme négatif : cʼest simplement une période à gérer intelligemment. Pour Herman Kahn, qui envisageait jusquʼà lʼexplosion dʼune guerre nucléaire comme un phénomène gérable, les problèmes évoqués dans les Limits to Growth ne se posent évidemment pas comme des questions cru-ciales, dont la prise en charge urgente serait nécessaire pour que lʼhumanité ait un avenir…

POSTÉRITÉ DES MODÈLES ET ÉLÉMENTS DE CONCLUSION

Nous avons abordé ici des modèles intégrant dans leur structure et leurs équations des présupposés très différents sur la place de lʼhomme dans la nature ou les possibilités de la technologie, déclinant la question de la croissance mondiale de plusieurs manières et apportant tout un éventail de réponses à la question initiée par le Club de Rome. Ces réponses semblent correspondre à des positions sociales et culturelles ainsi quʼà des intérêts variés.

Page 40: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

41CROISSANCE OU STABILITÉ ? L̓ ENTREPRISE DU CLUB DE ROME…

Dans le milieu académique contemporain, on discrédite en général lʼen-treprise de modélisation du Club de Rome – au motif que le modèle créé était beaucoup trop simpliste –, mais on admet quʼelle a permis de soulever des problèmes essentiels et de montrer que les questions environnementales devaient être vraiment prises au sérieux. Cette conclusion partielle et partiale omet un point essentiel. Les avocats de la croissance zéro ont véritablement pris part au débat académique dans les années 1970. On les a approuvés ou critiqués, mais en tout cas, on leur a accordé de lʼintérêt, ce dont témoigne, à lʼépoque, la publication de plusieurs livres destinés exclusivement à contrer leurs affirmations. Aujourdʼhui, la nécessité dʼune société de décroissance ou de stabilité économique nʼest plus reconnue, en général, comme une thèse valide ; au contraire, le modèle DICE de Nordhaus a connu une grande postérité et ses résultats ont été pris au sérieux par des instances politiques influentes. Et pourtant ! Si le modèle World manquait à représenter certains aspects essentiels de la situation mondiale comme les mécanismes économiques, on décèle également, chez les promoteurs de la croissance économique (Nordhaus, Bariloche, Kahn, Maddox…) quelques erreurs gravissimes dʼinterprétation du réel, tel le déni du changement climatique ou la croyance en lʼavènement imminent dʼune source dʼénergie infinie et non polluante.

En France, aujourdʼhui, le mouvement pour la décroissance sʼappuie sur les écrits de quelques universitaires, mais cette orientation nʼest pas prise en considération par la science économique, et aucun modèle mathématique ne vient la soutenir [Bernard et alii, 2003]. Aux États-Unis, en revanche, lʼ« économie écologique » a émergé à la fin des années 1980, avec la mise en place dʼun organisme et dʼun journal, dans la continuation de la pensée de Georgescu-Roegen ou Daly mais aussi de Donella Meadows : lʼun des présupposés de ce courant de pensée est précisément lʼexistence de « limi-tes » à notre expansion économique [Ropke, 2004]. La rédactrice des Limits to Growth, décédée en 2001, laisse derrière elle des disciples, en particulier au Sustainability Institute quʼelle a fondé dans le Vermont. Ce centre est à la fois un lieu de recherche et de mise en pratique de la soutenabilité, avec une ferme bio et un écovillage. Des recherches critiques sur la modélisation y sont conduites.

Il est particulièrement intéressant, de nos jours, de revisiter le débat des années 1970 sur la croissance zéro, pour y déceler lʼémergence de thèmes cruciaux dans la discussion autour de la gestion du changement climatique, comme le rapport entre pays du Nord et pays du Sud ou les possibilités de la technologie du futur. L̓ intérêt dʼune approche historique et comparative de la modélisation est quʼelle permet de dégager ce qui est implicite aux modèles dʼaujourdʼhui et qui est considéré comme évident parce que commun à tous : par exemple, cette absence de la thématique de la stabilité économique comme choix de société pertinent.

Page 41: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR42

L̓ avenir – lʼunique, pas celui des modèles – nous dira si la critique acadé-mique de la croissance économique est bien morte, ou si, en ces temps troublés de crise écologique, elle va renaître pour relayer lʼappel « altermondialiste » et politique à une « décroissance soutenable », qui dénonce le dogme du produit national brut comme indicateur ultime de la réussite dʼune société et revendique la définition dʼobjectifs sociaux et écologiques plus concrets.

RÉFÉRENCES BIBLIOGRAPHIQUES

BERNARD M., CHEYNET V. et CLÉMENTIN B. (2003), Objectif décroissance, Parangon, Lyon.BLOOMFIELD B. (1986), Modelling the World – The Social Constructions of System Scientists,

Blackwell, Oxford.BOULDING K. (1966), « The economics of the coming spaceship earth », dans JARRETT H.

et HOPKINS J. (dir.), Environmental Quality in a Growing Economy, University Press, Baltimore.

BRAILLARD P. (1982), L’Imposture du Club de Rome, PUF, Paris.CARSON R. (1962), Silent Spring, Riverside Press, Cambridge.COLE H. S. D. (1973), Thinking about the Future : a Critique of the Limits to Growth,

Chatto & Windus, Londres.DALY H. (1971), « Toward a stationary-state economy », dans HARTE J. et SOCOLOW R. (dir.),

Patient Earth, Holt, Rinehart & Winston, New York.FIDDAMAN T. (1996), Feedback Complexity in Integrated Climate-Economy Models, thèse

de doctorat, Sloan School of Management, MIT, Cambridge (disponible sur Internet : home.earthlink.net/~tomfid).

FORRESTER J. (1971), World Dynamics, Wright-Allen Press, Cambridge.GEORGESCU-ROEGEN N. (1971), The Entropy Law and the Economic Process, Harvard

University Press, Cambridge, Mass.GHAMARI-TABRIZI S. (2005), The Worlds of Herman Kahn, Harvard University Press,

Cambridge, Mass.KAHN H. (1976), The Next 200 years, William Morrow & Company, New York.KAHN H. et WIENER A. (1967), L’An 2000. Un canevas de spéculations pour les 32 prochaines

années, Robert Laffont, Paris.HERRERA A. (1977), Un monde pour tous, PUF, Paris.MEADOWS D. et D., RANDERS J. et BEHRENS W. (1972), The Limits to Growth, New York

University Books, New York (traduction française : Halte à la croissance !, Fayard, Paris, 1972).

MEADOWS D., RICHARDSON J. et BRUCKMANN G. (1982), Groping in the Dark, the First Decade of Global Modelling, Wiley, New York.

MESAROVIC M. et PESTEL E. (1974), Stratégie pour demain, Le Seuil, Paris.NORDHAUS W. (1973a), « The allocation of energy resources », Cowles Foundation Paper

n° 401.– (1973b), « World dynamics : measurement without data », Cowles Foundation Paper

n° 399.– (1977), « Economic growth and climate : the carbon dioxide problem », Cowles Foundation

Paper n° 443.– (1992), « An optimal transition path for controlling greenhouse gases », Science, vol. 58,

p. 1315-1319.

Page 42: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

43CROISSANCE OU STABILITÉ ? L̓ ENTREPRISE DU CLUB DE ROME…

NORDHAUS W. et TOBIN J. (1972), « Is growth obsolete ? », Cowles Foundation Paper n° 398 (accessible sur le site Internet de la Cowles Foundation http://cowles.econ.yale.edu/P/).

PECCEI A. (1969), The Chasm Ahead, Collier-MacMillan, Londres.REBOUL L. et TE PASS A. (1972), La Lettre Mansholt. Réactions et commentaires, J.-J. Pauvert,

Paris.ROPKE I. (2004), « The early history of modern ecological economics », Ecological Economics,

n° 50, p. 293-314.STERMAN J. D. et BOOTH SWEENEY L. (2002), « Cloudy skies : assessing public understanding

of global warming », System Dynamics Review, n° 18 (2).

Page 43: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR44

L̓ ÉMERGENCE DʼUNE NOUVELLE CONCEPTION DE « LʼÉCONOMIE-MONDE »

Au début des années 1970, le Club de Rome engage des recherches sur lʼavenir planétaire. Ces recherches tentent de démontrer quʼune croissance indéfinie est impossible en raison des ressources minières limitées et de lʼac-cumulation de pollutions. À la vision traditionnelle de la science économique qui sʼintéresse aux interactions entre des agents humains médiatisées par des marchandises, le Club de Rome oppose la nécessité de rendre compte de lʼinfluence des activités économiques sur la biosphère. Le rapport Limits to Growth, basé sur les travaux de J. Forrester et D. Meadows [Meadows et alii, 1972], sʼefforce de donner à cette approche un fondement scientifique. À partir de cette époque, notre vision de lʼéconomie réelle commence donc à sʼétendre de lʼanalyse des échanges et de la formation des prix vers lʼunivers des phénomènes physiques, chimiques et biologiques de niveau planétaire qui résultent des activités humaines. Par ailleurs, les visions du futur ne peuvent plus se contenter dʼêtre des projections du passé en raison de la croissance des populations, de la raréfaction de certaines ressources, de lʼévolution des techniques et des transformations irréversibles de lʼenvironnement1.

La question du couplage de modèles économiques avec les modèles de la climatologie et les modèles écologiques se pose. La nécessité dʼappréhen-der le très long terme, bien au-delà des horizons envisagés jusque-là par la « prévision » économique, sʼimpose également. En effet, les climatologues introduisent un « temps long » dans lʼanalyse du climat du fait de lʼinertie considérable (de lʼordre du siècle) des phénomènes géophysiques et géo-chimiques. En termes économiques, la question du changement climatique devient, à partir des années 1980, celle de la comparaison du coût des actions

1. Voir le chapitre précédent rédigé par Élodie Vieille Blanchard.

2

La construction historique des paradigmes de modélisation

intégrée : William Nordhaus, Alan Manne et lʼapport

de la Cowles Commission

Pierre Matarasso

Page 44: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

45LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE…

de prévention limitant les émissions (passage à une société sobre en énergie) avec le coût des impacts négatifs (les dommages) du changement climatique. Il est donc nécessaire de mettre en balance des événements, des phénomènes, des décisions et des dépenses qui sʼéchelonnent sur une échelle temporelle étendue. Le surgissement dʼun problème nouveau et grave, la nécessité de rendre compte physiquement de lʼimpact des activités humaines sur la bio-sphère et de remonter aux décisions à prendre, va mobiliser de nombreux économistes de talent et les pousser à réactualiser des formes de représentation que lʼémergence des comptabilités nationales et le contexte régulier des Trente Glorieuses avaient rendues temporairement caduques.

La science économique des années 1960-1970 croyait pouvoir se passer dʼune étude détaillée de la base matérielle des processus économiques, grâce à lʼéconométrie et aux comptabilités nationales généralisées à la planète entière. La science du changement climatique va décevoir cet espoir et impliquer un retour vers des formes de représentation économique plus anciennes et surtout plus détaillées technologiquement et géographiquement pour le long terme. Ces formes de représentation sʼincarnent dans les modèles de Frank Plumpton Ramsey et de John von Neumann, qui concernent le long terme pour le premier et des représentations élaborées de la production pour le second. Ce retour nous permet de reprendre, à nouveaux frais, lʼhistoire de la pensée économique, de relativiser la parenthèse macro-économétrique pour aller vers des représentations moins inertielles (on passe de la « prévision » à la recherche dʼun contrôle adéquat) et davantage centrées sur les aspects matériels et technologiques (les modèles se développent sur deux plans : celui des processus et des comptabilités physiques, et celui des contreparties financières de ces processus).

La problématique des études économiques qui se développent à la suite des préoccupations environnementales des années 1970 ne se construit donc pas à partir de rien. Elle emprunte largement aux divers mouvements de pensée qui ont éclos depuis la fin de la guerre et ont commencé à bouleverser les scien-ces économiques. Ces mouvements de pensée sont marqués par la Seconde Guerre mondiale et ses conséquences ; ils sʼancrent dans les préoccupations de la reconstruction de lʼEurope et du développement des pays anciennement colonisés – préoccupations qui ne sont dʼailleurs pas sans rapport avec celles qui naissent avec le changement climatique. La tentative de résoudre ces questions bénéficie largement des méthodologies déployées avec lʼeffort de guerre (logistique militaire, commande des radars et engins, développement des automatismes et de lʼinformatique). À la fin de la Seconde Guerre mon-diale, des méthodologies et des questionnements nouveaux imprègnent peu à peu la pensée économique. Von Neumann, dont la confiance immodérée en la technique est bien connue, imagine dès les années 1950 la généralisation de lʼénergie nucléaire, le geo-engineering (modification volontaire et contrôlée

Page 45: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR46

du climat) et, probablement, la conquête dʼautres planètes. Son travail sur les self-reproducing automata donnera naissance à la métaphore des Von Neumann probes qui matérialisent une extension interplanétaire des machines ! Quelques années plus tard, Kenneth E. Boulding, René Dubos et, après eux, Jay Forrester et Dennis Meadows se préoccupent de la finitude des ressources fossiles et de lʼaccumulation des pollutions ; leur optique est centrée sur lʼidée que la planète Terre est le vaisseau spatial à gérer. Tjalling C. Koopmans et Herbert Simon, deux futurs prix Nobel, travaillent dès les années 1950 dans le cadre de la Cowles Commission2 sur le thème du développement économique en lien aux futures sources dʼénergie jusquʼà imaginer des déploiements massifs de lʼénergie nucléaire dans les pays en développement.

Les approches méthodologiques sont diverses :— John von Neumann avec les automates « autoreproducteurs » et son

travail sur lʼéquilibre général des années 1930 a posé des bases théoriques, mais très idéalisées des problèmes de croissance et de ce que lʼon bapti-serait aujourdʼhui la « soutenabilité » ; il sʼappuie sur des représentations technologiques détaillées qui convoquent des « processus élémentaires » et « des événements discrets », ce qui nʼest pas étonnant de la part de lʼun des unificateurs de la mécanique quantique ;

— Jay Forrester et Norbert Wiener, qui viennent de la cybernétique appli-quée à des problèmes militaires (radars, poursuite de cible, guidage…), éla-borent des paradigmes en termes de systèmes dʼéquations différentielles simultanées et de contrôle (notion de feedback) pour modéliser des « systèmes complexes » ;

— Herbert Simon et Tjalling C. Koopmans cherchent, dans le cadre de la Cowles Commission, à joindre élaboration mathématique des problèmes économiques et études appliquées (logistique des transports, énergie, prévi-sion…). La Cowles est le lieu où lʼinteraction des économistes et des ingénieurs ayant travaillé pour la Rand Corporation, lʼU.S. Air Force et le Pentagone va se produire autour de la mathématisation de lʼéconomie.

Cʼest à partir de ces différents points de vue que vont se développer les paradigmes de modélisation qui sont actuellement à lʼœuvre dans la probléma-tique du changement climatique. Nous allons tenter dʼexpliquer pourquoi les conceptions de von Neumann et Koopmans vont sʼimposer par lʼentremise de leurs héritiers spirituels, William Nordhaus et Alan Manne, qui sont devenus les figures centrales contemporaines de la recherche sur lʼéconomie du chan-gement climatique. Au contraire, Forrester et Meadows seront de plus en plus

2. La Cowles Commission qui deviendra la Cowles Foundation a été fondée par Alfred Cowles après la crise de 1929. Son but est de rapprocher lʼéconomie des sciences exactes par une utilisation systématique des mathématiques. T. C Koopmans jouera un rôle essentiel dans sa direction. Nous donnons plus loin quelques éléments sur lʼhistoire de cet organisme. Un point de vue sur cette organisation : http://cepa.newschool.edu/het/schools/cowles.htm

Page 46: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

47LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE…

contestés à partir des années 1980. La critique qui leur sera opposée sʼattaque autant à leur objectif déclaré de « croissance zéro » quʼà leur méthode, qui repose sur la dynamique des systèmes. On pourrait penser que la suprématie méthodologique de la Cowles Foundation est le résultat de la posture ins-titutionnelle très forte de cette structure, faite de publications scientifiques remarquées et de commandes fédérales (la Cowles produira plusieurs lauréats du prix Nobel en économie). À lʼinverse, la critique académique adressée au Club de Rome paraît provenir de son ambition plus contestataire. Le Club de Rome est une organisation plus européenne quʼaméricaine et il réussit magistralement son opération de communication destinée à lancer lʼalerte, ce que des chercheurs comme Boulding ou Dubos nʼavaient pas réussi à faire. Mais dans un deuxième temps, Limits to Growth va susciter une réaction extrêmement violente et fera lʼobjet dʼun procès en nullité de la part du milieu des sciences économiques.

Il est tentant de renvoyer le relatif échec méthodologique du Club de Rome à son message politique radical (la « croissance zéro ») et à sa position institu-tionnelle plus marginale. De même, le succès de la Cowles Foundation semble pouvoir être attribué à sa notoriété académique et politique. Cette explication des succès relatifs de ces deux organisations est légitime, mais elle nʼest que partielle. Il est nécessaire de sʼinterroger également sur les méthodes et les protocoles scientifiques suivis par ces équipes, finalement rivales, en matière de modélisation. Les héritiers spirituels de Koopmans proposent-ils une méthode de modélisation plus adaptée que celle de Forrester ? La prééminence des conceptions de la Cowles Foundation est-elle une conséquence logique de la sélection des méthodes les plus opératoires ou bien une injustice de lʼhistoire vis-à-vis de Forrester et Meadows ? Pourquoi, en dépit de lʼinvention de méthodes de modélisation novatrices, matérialisées par les langages de pro-grammation des systèmes dynamiques Dynamo et Stella, Forrester nʼa-t-il pas la même postérité ? Pourquoi, enfin, le modèle IMAGE, séquelle principale du Club de Rome, reste-t-il confiné au cercle de ses créateurs ? Autant de questions qui impliquent dʼanalyser la formation de « communautés épistémiques » dans le monde de la modélisation liée au changement climatique.

MODÈLES ET COMMUNAUTÉS ÉPISTÉMIQUES

Dès le début des années 1980, des expériences de modélisation dans le domaine de lʼénergie et du changement climatique voient le jour. Ces modélisa-tions constituent à la fois un retour vers des méthodes qui avaient commencé à se développer avec la crise de lʼénergie (1973) et leur prolongement. Diverses équipes dans le monde conjuguent leurs efforts sous lʼégide dʼorganisations comme lʼEnergy Modeling Forum (EMF), créé par des chercheurs de Stanford

Page 47: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR48

en 1976, ou plus tard le Groupe dʼexperts intergouvernemental sur lʼévolu-tion du climat (GIEC). L̓ International Institute for Applied System Analysis (IIASA), créé en 1974 à Vienne, accueille lui aussi de nombreux chercheurs et joue un rôle important dans la diffusion des idées sur la modélisation envi-ronnementale. LʼIIASA est proche dès lʼorigine de la Cowles Foundation, et Tjalling C. Koopmans fréquente les deux institutions. La collaboration Stanford-IIASA, qui se poursuit dans lʼEMF, est également ancienne. Georges Dantzig, co-inventeur avec Koopmans de la programmation linéaire et de lʼanalyse dʼactivités, séjourne à lʼIIASA où il dirige le premier methodology group. Alan Manne et William Nordhaus séjournent également à lʼIIASA dans les années 1970. À la même époque, George Dantzig fonde le Laboratoire de recherche opérationnelle à Stanford (Stanford Optimisation Laboratory, SOL), avec Alan Manne qui en prendra la direction plus tard.

Cʼest dans ces divers lieux que se créent les équipes de modélisation qui vont, par la suite, travailler sur le changement climatique. Dès avant les années 1970 se met donc en place un réseau dʼéconomistes qui partagent une culture commune faite de recherche opérationnelle et de mathématisation de la théorie économique. Ce réseau implique G. B. Dantzig et son équipe du SOL, T. C. Koopmans et une partie des membres de la Cowles, et enfin lʼIIASA qui fournit un lieu de rencontre et de réflexion orienté vers le long terme, à lʼécart des contraintes académiques3. Ce groupe se fera assez vite une obligation de contrer lʼargumentaire du Club de Rome, en particulier pour ce qui concerne la « croissance zéro » [Nordhaus et Tobin, 1972].

Parmi les modèles dʼéconomie planétaire ou de systèmes énergétiques mondiaux, quelques-uns sont devenus rapidement des références qui revêtent plusieurs formes. On peut distinguer :

— des modèles paradigmatiques dont non seulement les équations et les résultats sont publics, mais également les données, les sources informatiques, les programmes et les modalités de calcul, ce qui permet à de nombreuses équipes de sʼen inspirer pour les décliner sous diverses formes ;

— des modèles coopératifs dont les sources informatiques et les données sont disponibles par appartenance à une association de membres (pays et équipes de recherche) ; ce qui permet là aussi à de nombreuses équipes de bénéficier dʼune expérience collective et de développements coopératifs (un peu sur le mode actuel des développements open source) ;

— des modèles de référence et dʼexpertise développés par des équipes dans des cadres nationaux ou internationaux, mais dont la maîtrise reste essentiellement dans les mains de lʼéquipe qui les a conçus.

3. La description détaillée de la manière dont la Cowles sʼest engagée dans les questions de ressources non renouvelables et dʼénergie se trouve dans le rapport dʼactivité des années 1970-1973, disponible sur Internet à lʼadresse : http://cowles.econ.yale.edu/P/reports/1970-73.htm, où les rôles respectifs de Koopmans, Nordhaus et Manne y sont précisés.

Page 48: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

49LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE…

Une différence essentielle entre tous ces modèles tient à leurs modalités de développement. On note une croissance spontanée, par emprunt ou colla-boration dʼindividu à individu, dans le cas des modèles « paradigmatiques ». Dans les modèles « coopératifs », la collaboration prend un caractère plus organisé grâce à la mise en place dʼune institution qui assure la diffusion des sources. Le premier type sʼillustre par le modèle DICE (Dynamic Integrated Model of Climate and Economy) de William Nordhaus et le second par le modèle MARKAL (Market Allocation Model), associé en particulier au nom dʼAlan Manne. On peut se convaincre de la diffusion de DICE et MARKAL en comptabilisant leurs occurrences dans la littérature scientifique et dans les communications à lʼEnergy Modeling Forum. Depuis quelques années, le Forum, organisé en commun avec lʼIIASA, est jumelé avec les rencontres de lʼassociation des utilisateurs de MARKAL (ETSAP) : plusieurs dizaines dʼéquipes travaillent ou ont travaillé sur DICE ; les applications de MARKAL dépassent la trentaine de pays et ont mobilisé près de 75 équipes. DICE comme MARKAL sont en général présentés dans des revues ou des livres qui four-nissent les listes dʼéquations, les informations extensives sur les méthodes de résolution et leurs justifications. Le programme informatique commenté est parfois diffusé intégralement. Ces modèles possèdent donc un caractère générique incontestable, les équations sont des « types » dʼéquations qui peu-vent être adaptées à divers contextes (MARKAL) ou diverses préoccupations (DICE). Face à cette diffusion, les autres modèles conservent leur crédibilité mais demeurent restreints aux équipes qui les développent4.

On pourrait faire remarquer que le modèle du Club de Rome vérifie, en commun avec DICE et MARKAL, les conditions larges de diffusion grâce à lʼutilisation des langages de programmation Dynamo, puis du langage Stella qui sont friendly oriented ; dès le milieu des années 1970, les criti-ques du modèle « Limits to growth » pouvaient en reproduire les résultats. Cependant, il a toujours manqué à Jay Forrester un ancrage dans la science économique et un fondement théorique pour être reconnu par la communauté des économistes. Le modèle IMAGE nʼa pratiquement fait lʼobjet dʼaucune publication dans les journaux scientifiques consacrés de la discipline tandis quʼun consensus méthodologique, se traduisant par de nombreuses publications académiques, sʼest établi assez rapidement autour de DICE et MARKAL. Ce consensus autour des méthodes de la Cowles Foundation est fondé sur une base conceptuelle solide, et également sur le réseau de ceux qui partagent cette base conceptuelle. On entend ici par base conceptuelle une structure de concepts qui permet dʼenseigner les modèles, de guider les nouveaux arrivants vers le développement de problématiques et dʼapplications inédites. La base

4. Cela ne doit pas sʼinterpréter comme une réserve à lʼégard des modèles moins diffusés, nécessaires à lʼenrichissement, à lʼévolution et à la critique des modèles les plus diffusés.

Page 49: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR50

conceptuelle assure lʼintercompréhension entre les différentes équipes de modélisation, elle constitue un paradigme au sens le plus fort de ce terme.

On peut opposer aux modélisations possédant ce type dʼarmature concep-tuelle des modèles qui se revendiquent de « lʼart de modéliser », cʼest-à-dire de lʼintuition juste, du tour de main et de lʼà-propos dans la définition des équa-tions. Ces modèles peuvent être utiles et sʼenseigner ; parfois, ils deviennent la norme. Pourtant, lʼexpérience récente des modèles macroéconométriques, qui relèvent souvent de ces sortes de « tour de main », montre que beaucoup nʼont pas survécu. À bien des égards, le modèle IMAGE est presque entiè-rement dénué de bases théoriques unificatrices (en économie du moins), il est composé de multiples modules ad hoc reliés entre eux. Les publications disponibles ne permettent pas de le reproduire : les équations ne sont que partiellement explicitées et les nombreuses routines de résolution ne sont pas décrites. Cʼest un ensemble de connaissances quʼil est difficile de mettre à jour et de transférer (voire dʼexpertiser).

UNE TRADITION INTELLECTUELLE FORTE ET ANCIENNE

Revenons aux origines intellectuelles des modélisations que nous avons qualifiées de « paradigmatiques » ou « coopératives ». Remonter de près de cinquante ans en arrière (de 1970 à 1920) pourrait réclamer une justification. En fait, elle se résume en deux points : 1° DICE est un modèle dit de « crois-sance optimale », qui descend en ligne directe du « modèle de Ramsey » [Ramsey, 1928], devenu une clé de voûte de la science économique contem-poraine. Le modèle de Ramsey a été ensuite réactualisé par Koopmans sous le nom de « modèle de Ramsey-Koopmans » [Nordhaus, 1992a] ; 2° MARKAL et MERGE [Manne, 1994a, 1995] reprennent une représentation du secteur énergétique en « analyse dʼactivités » ; ce formalisme, qui inclut « produc-tions jointes » et « alternatives de production », provient dʼun modèle de la production en économie souvent dit « de von Neumann-Sraffa ».

La modélisation de la production que lʼon rencontre dans les deux modèles résulte dʼune préoccupation commune : déterminer des prix dʼéquilibre des biens ; et pour que cela soit possible, il faut que la production soit représen-tée en flux physiques. Dʼune part, le modèle de Ramsey apparaît comme le prototype de la modélisation, une modélisation concentrée à lʼextrême sur le nombre le plus limité possible dʼagrégats macroéconomiques. Dʼautre part, le « modèle de von Neumann-Sraffa » est le prototype théorique des modèles bottom-up, cʼest-à-dire des modèles dʼingénieur où la production est décrite de manière extrêmement détaillée. Ces types de modélisation sont souvent oppo-sés, bien quʼun auteur comme T. C. Koopmans, qui a réactualisé les travaux antérieurs, ait toujours considéré les deux approches comme complémentaires

Page 50: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

51LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE…

[Koopmans, 1964, 1965]. Dʼailleurs, les modèles comme MERGE ETA-Macro et MARKAL-Macro dʼAlan Manne couplent les deux approches.

Derrière des modèles comme MARKAL et DICE, nʼy aurait-il quʼune idée judicieuse que lʼon peut attribuer à des individus isolés, ou beaucoup plus que cela : la trace dʼune nouvelle manière de penser les problèmes économiques ? Cʼest cette seconde thèse que je veux suggérer par un bref détour historique : la naissance des modèles que nous utilisons aujourdʼhui dans le domaine du changement climatique a mobilisé trois générations de chercheurs qui ont œuvré depuis les années 1930 dans une certaine continuité. La puissance descriptive et lʼefficacité opératoire des méthodes qui vont se développer à la Cowles Foundation proviennent dʼun premier élan méthodologique communiqué dʼabord par Wittgenstein, largement retravaillé et débarrassé de ses défauts initiaux par des hommes comme von Neumann, Sraffa, Ramsey, mais également A. N. Whitehead et N. Georgescu-Roegen (coéditeur de Koopmans, 1951a). Une seconde génération est constituée, dans les années 1950, aux USA, par Tjalling C. Koopmans, George B. Dantzig et Herbert Simon qui sont les héri-tiers des précédents. Enfin, la troisième génération, celle de leurs successeurs directement impliqués dans les recherches sur le changement climatique, dont William D. Nordhaus et Allan S. Manne sont les figures principales.

Les cercles de Cambridge et de Vienne

Quelques points de repère historiques situeront notre propos. Rappelons quʼaprès la publication en 1921 par Wittgenstein de son Tractatus logico- philosophicus, deux cercles de discussion se forment à Cambridge et à Vienne. Le premier, informel, autour de Wittgenstein lui-même ; le second, plus formel, est le célèbre cercle de Vienne. À Cambridge, Ludwig Wittgenstein, Piero Sraffa et Frank Plumpton Ramsey poursuivent ensemble et dans lʼen-tourage de Keynes, durant plusieurs années, un débat méthodologique qui se reflète dans les œuvres de chacun dʼentre eux5. Ramsey est (en collaboration avec C. K. Ogden) le premier traducteur anglais du Tractatus et se rend en Autriche en 1923 et 1924 pour rencontrer Wittgenstein. Il effectue avec lui une relecture des Investigations philosophiques. Paul Sraffa aura également de longues conversations avec Wittgenstein. Ce dernier considère même que le passage à sa « seconde philosophie » résulte des conversations quʼil a eues avec Ramsey et Sraffa6. À Vienne, dans la proximité du cercle, en

5. Voir lʼintroduction des Remarques philosophiques de Wittgenstein (qui cite Ramsey et Sraffa) et celle de Production de marchandises par des marchandises de Sraffa qui, lui, cite Ramsey [Sraffa, 1960].

6. Voir par exemple : http://www.wittgen-cam.ac.uk/cgi-bin/text/biogre.html, « Wittgenstein biographical sketch », et aussi les ressources des Wittgenstein Archives, http://gandalf.aksis.uib.no/wab/

Page 51: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR52

particulier au séminaire mathématique de Karl Menger, Anton Wald puis John von Neumann présentent dans les années 1930 ce qui va constituer une refondation de lʼéconomie mathématique autour du thème de lʼéquilibre général ; à ces réunions participent Oskar Morgenstern et dʼautres membres du cercle [Menger, 1994].

Quelles sont donc les préoccupations clés qui agitent les esprits du « cercle de Cambridge7 » et du cercle de Vienne, et qui se réfractent dans les modèles de Ramsey et de von Neumann ? Il est possible de les lister ainsi :

— le problème de la description par reconstruction logique du monde à « notre échelle », pour refonder les approches scientifiques ;

— la tentative dʼopérer cette reconstruction (dans le Tractatus de Wittgenstein et lʼAufbau de Rudolf Carnap) sur une base « atomistique », logiquement structurée ;

— lʼarticulation de cette base atomistique sur les notions duales de « faits » et de « choses », ou encore de « processus » et « dʼobjets », aux-quelles correspondent des assemblages de propositions du langage ou des mathématiques ;

— le problème de ce qui arrive dans un système « à la fin des temps » : cʼest la question de lʼarrêt des machines de Türing ou encore… des modèles de croissance de Ramsey à horizon infini ;

— la recherche dʼun moyen terme entre les représentations en logique (purement combinatoires) et les représentations en équations différentielles (trop éloignées des changements qualitatifs) ;

— enfin, lʼavènement théorique et pratique des concepts dʼ« événements discrets » et de « processus élémentaires » dans la représentation de la produc-tion en économie mais aussi… dans les machines de Türing, dans la théorie des jeux ou dans le choix des techniques « digitales » en informatique.

Ramsey se situe entièrement dans une optique de reconstruction du monde8. Cʼest dans cette perspective quʼil écrit son article « A mathematical theory of savings » [Ramsey, 1928], une tentative de traitement logico-mathématique à horizon infini de la question : « How much of its income a nation should save ? » Il sʼagit dʼune reconstruction logique a minima de la vie économique, dans laquelle les agents obéissent à un principe unique de rationalité figuré par la recherche dʼun optimum intertemporel. Faut-il consommer dʼabord ou épargner pour construire du capital qui permettra de produire plus et de consommer davantage ? Lʼidée essentielle du modèle est que la trajectoire optimale est déterminée par lʼextremum dʼune fonction « intertemporelle » représentant lʼutilité des agents économiques. On peut de la sorte déterminer

7. On devrait ici, bien entendu, évoquer Keynes qui jouait un rôle éminent dans ce qui se passait à Cambridge. Mais, comme lʼindique le titre de notre article, lʼanalyse historique ici proposée ne prétend pas à lʼexhaustivité.

8. Voir en particulier Ramsey [1927, 1931].

Page 52: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

53LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE…

lʼaction optimale à chaque période, sans recourir à aucune autre hypothèse de comportement que celle impliquée par cette fonction (ce qui ne serait pas le cas dans une simulation récursive). Lʼidée dʼétudier de cette manière un trajet optimal de lʼéconomie pour des agents humains est neuve et puissante et elle aura une postérité remarquable. Koopmans réactualise cette approche dans Koopmans [1965].

Von Neumann, le formalisme de l’analyse d’activités

Séparément, mais étant probablement au courant de leurs travaux respec-tifs, von Neumann (dès les années 1930) et Sraffa (plus tard) proposent une reconstruction conforme aux principes précédents (logico-atomistiques) de lʼunivers de la production en économie9. Cette dernière est décrite par des associations de processus « qui consomment » ou « produisent » des biens. La conception des « processus » comme base de la représentation nʼest pas sans rappeler aussi bien la théorie des jeux, qui transforme un état en un autre, que les « événements discrets » de la machine de Türing (lecture-écriture séquentielle de la bande) ou encore les structures dʼévénements des « auto-mates » de von Neumann.

Cʼest lʼémergence dʼune nouvelle conception de la temporalité, une nou-velle manière de considérer les rapports entre « processus » et « objets ». La notion de processus chez Sraffa et von Neumann, qui sert de base à lʼanalyse dʼactivités10, décrit notamment le fonctionnement dʼun atelier qui consomme du fer en barre pour produire des vis et des copeaux de fer, qui consomme des machines « neuves »… et qui rejette, à la fin du processus, des machines « usées ». Un processus « différent » est susceptible de produire des vis de même fonction avec des moyens moins mécanisés11. Chaque processus est représenté par un processus unitaire, calé sur une usine, une machine, un atelier, une quantité dʼunités produites, etc. Un système complexe réel correspond à un assemblage de multiples processus unitaires, assemblage qui vérifie une règle simple : tout ce qui est consommé doit avoir été produit. Cʼest cette règle qui provoque le dimensionnement des processus les uns par rapport aux autres.

9. David Champernowne, proche de Türing et de Sraffa à Cambridge, est le commentateur de la première traduction de von Neumann en anglais. Voir von Neumann [1937].

10. Pour Koopmans, il nʼy a aucun doute quʼil faut attribuer lʼanalyse dʼactivités à von Neumann. La conception de von Neumann innove par rapport à Walras ou Leontief et permet en particulier de traiter de manière extrêmement pertinente du capital fixe diversifié techniquement en termes de flux [Koopmans, 1964].

11. Il y a « productions jointes » car on produit à la fois des objets et des déchets, il y a aussi « alternatives de production » car un même objet peut être produit par différents processus. Cʼest une double généralisation des formalismes « à la Leontief » (matrices « rectangulaires » et non « carrées ») comme Dantzig lʼa souvent déclaré.

Page 53: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR54

Le formalisme de lʼanalyse dʼactivités est présenté pour la première fois dans un article, « A model of general equilibrium », présenté dʼabord au séminaire de Menger à Vienne [von Neumann, 1937], puis traduit en anglais après la guerre [von Neumann, 1945]. Le modèle introduit trois innovations majeures qui vont changer la face de lʼéconomie mathématique :

— cʼest un modèle de croissance à horizon infini ;— le schème descriptif est celui de lʼanalyse dʼactivités avec une représen-

tation « atomistique » de la production, lʼévolution des stocks dʼéquipements étant décrite dans ce cadre ;

— la preuve de lʼexistence de lʼéquilibre utilise des techniques mathéma-tiques nouvelles pour lʼépoque, qui deviendront elles aussi paradigmatiques dans la discipline12.

Lʼune des grandes innovations des travaux de Ramsey et von Neumann est relative au traitement du temps : un problème dynamique est ramené, dans sa résolution, à un problème statique (résolution dite « intertempo-relle ») ; on cherche à se mettre dans une situation où les différents groupes dʼéquations sont traités comme un système dʼéquations « simultanées » et non comme une récursion temporelle. En dʼautres termes, on « simulta-néise » les périodes temporelles consécutives dans les résolutions, quʼelles soient analytiques comme chez Ramsey et en théorie des jeux, ou algorith-miques comme dans la programmation linéaire dynamique. La question cruciale des « comportements » est traitée par un calcul sur lʼensemble de la période temporelle, au moyen dʼune procédure mathématique qui anticipe des calculs « intertemporels », portant sur lʼactualisation de lʼutilité espérée. La question du choix des agents résulte de la recherche dʼun optimum pour une fonction intertemporelle, on évite ainsi la question de savoir comment définir des comportements récursifs à chaque période. Cʼest une supposition dʼanticipation parfaite.

La tentative de von Neumann et Ramsey sʼapparente à celle de lʼénon-ciation de propositions économiques sur le très long terme, en sʼappuyant sur des considérations aussi minimales que possibles, relatives aux com-portements dont lʼun et lʼautre nʼignorent pas le caractère contingent. Dʼoù ce paradoxe entre des modèles particulièrement simplifiés et une grande richesse dʼinterprétation potentielle [Koopmans, 1964, 1965]. Les modèles DICE et MARKAL, qui sont des déclinaisons des modèles de Ramsey et de von Neumann, sʼenracinent donc dans la tradition de reconstruction de lʼéconomie commencée entre les deux guerres et qui connaît un nouvel essor à partir des années 1940.

12. On peut mentionner : théorème de Brouwer, topologie, dualité, point selle, minimax…

Page 54: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

55LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE…

La Cowles et le rôle de Koopmans

La Cowles Foundation fut lʼun des lieux dʼaccueil des membres du cer-cle de Vienne fuyant le nazisme. Elle bénéficia en particulier de lʼapport du séminaire de Menger13. Les travaux que Koopmans développe empruntent beaucoup aux modèles « de von Neumann » et « de Ramsey » et lui vaudront le prix Nobel dʼéconomie (conjointement avec le russe Kantorovitch14). Deux jeunes participants de la fondation, Kenneth Arrow et Herbert Simon, ont pour maîtres deux autres membres éminents du cercle de Vienne, respectivement Anton Wald et Rudolf Carnap.

Koopmans, élève de Timbergen et Frisch, se lance dans une étude des systèmes de transport optimaux. En étudiant systématiquement cette question, de même que celle plus générale des resources allocations, Koopmans se rend compte de leur proximité, dʼune part, avec la théorie de lʼéquilibre général développée par von Neumann et Wald, dʼautre part, avec les représentations en « analyse dʼactivités » et la programmation linéaire développée par Dantzig dans le cadre de lʼU.S. Air Force. À cette époque, lʼanalyse dʼactivités est considérée comme une profonde innovation dans le domaine de la représenta-tion de la production en économie. En 1949 se tient une conférence à laquelle participent la plupart des futurs grands noms de lʼéconomie des États-Unis : Samuelson, Arrow, Koopmans, Simon, Dantzig, Georgescu-Roegen. Cette conférence donnera la brochure n° 13 de la Cowles Commission. Debreu et Arrow réalisent des prolongements théoriques à ces formalismes et les rattachent à une conception logiquement rigoureuse de lʼéquilibre général [Koopmans, 1951a]. L̓ entreprise de la Cowles sʼoriente vers la mise en place dʼun paradigme économique qui sʼétend de la théorie jusquʼaux applications, peut se décliner à diverses échelles dʼespace et de temps et qui couple analyse dʼactivités et théories de lʼutilité en partie reprises de Ramsey15. Parallèlement, la Cowles développe aussi de nombreux travaux économétriques avec, en particulier, Lawrence Klein.

Lorsque survient la crise de lʼénergie, Koopmans commence à fréquenter lʼIIASA ; il sʼinterroge avec Simon sur la validité des modèles économétriques pour traiter de ces problèmes où technologies et long terme jouent des rôles importants. Pour Koopmans, statistiques et économétrie sont intéressantes dans les périodes où le futur est dans la droite ligne du passé. Mais si le futur implique des ruptures par rapport au passé, il faut dʼautres méthodes. En particulier, les méthodes économétriques et les fonctions de production sont

13. Voir par exemple : http://cepa.newschool.edu/het/schools/cowles.htm14. Pour des raisons inexplicables, George Dantzig nʼa pas été associé à ce prix Nobel comme

il aurait dû lʼêtre. Koopmans en fut très affecté et il versa à lʼIIASA la moitié du montant du prix quʼaurait dû partager Dantzig.

15. http://cowles.econ.yale.edu/P/reports/1932-52b.htm

Page 55: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR56

absolument inadaptées à lʼétude du long terme qui exige une représentation explicite des technologies et des processus pour étudier des transitions éner-gétiques « charbon » / « renouvelables » / « nucléaire » [Koopmans16, 1978]. Dans ce même texte de 1978, Koopmans détaille les travaux sur lʼénergie de Nordhaus, de Manne et de lʼéquipe de modélisation de ce qui devien-dra MARKAL. Il faut remarquer que Simon présente au même moment les modélisations technico-économiques de Hoffman [Tessmer et alii, 1975] en analyse dʼactivités comme la seule alternative « sérieuse » aux travaux du Club de Rome17. Un programme de recherche se met en place entre lʼIIASA et la Cowles (Dantzig est le chef du methodology group à lʼIIASA où Koopmans va lui succéder) qui vise à proposer une alternative méthodologique aussi bien au Club de Rome (explicitement désigné) quʼaux économétriciens de lʼénergie. L̓ année suivante Nordhaus, membre de la Cowles, publie un essai intitulé « Can we control carbon dioxide ? » [1975].

L̓ ÉMERGENCE DES MODÈLES INTÉGRÉS DU CLIMAT

Alan Manne : de la logistique aux politiques climatiques

Alan Manne commence sa carrière à la Rand Corporation. Il travaille alors en termes dʼanalyse dʼactivités à des applications dont les principes sont encore en vigueur aujourdʼhui, aussi bien sur lʼoptimisation des raffineries que sur les routes aériennes optimales. De 1956 à 1961, il est enseignant à Yale et réalise un certain nombre de travaux dans le cadre de la Cowles. En 1962, il fonde avec Dantzig, inventeur de la programmation linéaire, le Laboratoire de recherche opérationnelle à Stanford.

Au moment où lʼanalyse dʼactivités se développe rapidement avec la programmation linéaire, la comptabilité nationale aux USA commence à appliquer les méthodes « input-output » de Leontief. La question du lien

16. « À mes yeux, un modèle constitué dʼun ensemble de processus alternatifs [comme lʼanalyse dʼactivités, ndt] représente une manière plus appropriée de rendre compte des possibilités de production quʼun modèle input-output [à la Leontief, ndt] ou encore un modèle fondé sur des fonctions de production continues [fonctions de production Cobb-Douglas, CES…, ndt]. »

17. « Il y a peu dʼintérêt à consacrer nos efforts à réaliser des scénarios du genre de ceux que la “world dynamics” et le Club de Rome ont récemment popularisés. Au lieu de cela, ce qui est nécessaire, ce sont des modèles capables de représenter des états alternatifs et cohérents des systèmes énergétiques au niveau de la production de milliers de terawattheures. À ma connaissance, le seul modèle de ce type est celui de Kenneth Hoffman du Brookhaven National Laboratory, qui est réalisé à partir des techniques de la programmation linéaire [il sʼagit du modèle BESOM, qui deviendra MARKAL, ndt] » [Simon, 1973, p. 1110-1121]. Et plus loin Simon ajoute : « Nous produisons des rapports statistiques et des prévisions détaillées sur de multiples aspects des problèmes de lʼénergie, mais nous manquons des capacités dʼanalyse et de programmation orientées vers la conception de systèmes énergétiques, capacités que nous savons parfaitement mettre en place. »

Page 56: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

57LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE…

entre les deux formalismes est traitée dans la monographie de la Cowles sur lʼanalyse dʼactivités et dans le livre de Samuelson, Dorfman et Solow, Linear Programming and Economic Analysis [1958]. Peu après, Alan Manne [1960] présente une critique du livre de Hollis Chenery et Paul Clark, Interindustry Economics. Dans ce texte, il critique très vivement les méthodes à la Leontief, les « matrices carrées » input-output, au profit de lʼanalyse dʼactivités (matrices rectangulaires). Les mots sont durs : « Les meilleures capacités dʼanalyse des spécialistes de lʼapproche input-output [à la Leontief, ndt] ont été mises au service de bricolages et de ravaudages autour du formalisme initial ; de telles improvisations auraient pu largement être évitées si lʼon avait eu recours à lʼanalyse dʼactivités. » On ne peut évoquer plus brutalement le « bricolage » de la macroéconomie. Lʼannée suivante, il publie avec Harry Markowitz (futur prix Nobel) une monographie de la Cowles fondée sur lʼespoir dʼune macroéconomie qui reposerait sur une représentation claire des processus liés aux activités humaines en termes de process analysis [Manne et Markowitz, 1960].

Dix ans plus tard environ, ces idées sont reprises par K. C. Hoffman dans sa thèse pour mettre en place le prototype du modèle MARKAL. Manne est lʼun des premiers à appliquer les méthodes de process analysis au thème sectoriel de lʼénergie, puis en collaborant avec les équipes de MARKAL, à concevoir MARKAL-Macro [Manne, 1994a]. Il étend par ailleurs, à partir des années 1990, les principes du process analysis aux questions de lʼeffet de serre dans le cadre du modèle MERGE [Manne, 1995]. Il apporte une contribution majeure à la structuration du débat sur ce sujet.

William Nordhaus : de la critique du modèle du Club de Rome au modèle DICE

Les années 1970 voient lʼémergence aux USA des premiers travaux qui critiquent la croissance comme objectif fondamental de lʼactivité économique. Nordhaus, disciple de Koopmans, joue un rôle de premier plan dans la critique du rapport Limits to Growth au travers dʼabord dʼun article rédigé avec Tobin, « Is growth obsolete ? », en 1972 [Nordhaus et Tobin, 1972]. Il poursuit avec lʼune des critiques les plus systématiques et argumentées des modèles de Forrester et Meadows. Lʼarticle « World Dynamics : measurement without data » [1973a] est le premier pas de son engagement dans une recherche sur les prospectives mondiales en liaison avec le thème de lʼénergie et du CO2. Cet article est une analyse technique détaillée de la structure des équations du modèle du Club de Rome et une tentative de considérer le modèle comme « une théorie scientifique » à laquelle on fait passer des épreuves. Nordhaus fait tourner le modèle, réalise des analyses de sensibilité… et arrive à des conclusions dévastatrices :

Page 57: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR58

— la dynamique des systèmes nʼest quʼune variante des techniques de simulation employées en économie depuis longtemps ;

— la représentation économique incluse dans World Dynamics est une régression par rapport aux travaux sur la croissance économique (sans cohé-rence macroéconomique…) ;

— le modèle nʼest, en aucune manière, sérieusement validé sur des données empiriques ;

— il ne fait référence à aucune théorie économique reconnue ;— les résultats du modèle sont très sensibles à la valeur des paramètres et

lʼon obtient des résultats opposés avec de petites modifications ;— la prospective de long terme est un exercice qui manque de modestie

surtout si lʼon oublie les rétroactions du marché sur les produits rares (pro-cessus de substitution) et le progrès technique.

Il reprend la plume pour développer cette fois ses propres convictions. Dans lʼAmerican Economic Review, sous le titre « Resources as a constraint on growth » [Nordhaus, 1974], il est lʼun des premiers économistes à men-tionner le problème de lʼeffet de serre mis en avant par le rapport du MIT de 1970, Man’s Impact on Global Environment. Il séjourne à lʼIIASA après Dantzig et Koopmans, et produit un premier document de travail sur le changement climatique. Dans le contexte de la crise de lʼénergie, Nordhaus développe un modèle énergétique mondial, simplifié en analyse dʼactivités, et entame une collaboration étroite avec les climatologues pour concevoir un modèle de climat réduit quʼil sera possible de coupler à la partie énergétique [Nordhaus, 1979].

Progressivement, Nordhaus précise son raisonnement économique pour le poser en termes dʼéquité intertemporelle et dʼéquité spatiale en sʼorien-tant vers un « modèle de croissance optimale » (à la Ramsey-Koopmans). Cette orientation est sensible dès les années 1980 et constitue la matière de son article « How fast should we graze the global commons ? » [Nordhaus, 1982]. Elle se précise avec des estimations de plus en plus détaillées du coût de la réduction des émissions, fondées sur le recoupement de toutes les études disponibles. Un travail comparable est réalisé sur les impacts du changement climatique. Il parvient ainsi au modèle DICE en 1992, publié dans Science et dont Nordhaus propose dʼenvoyer les sources informatiques à qui le lui demandera. Un livre est édité en 1994 [Nordhaus, 1994]. Chapitre après chapitre, lʼauteur fournit au lecteur, sous des formats clairs, le cadre théorique, lʼensemble des données et le programme informatique pour faire tourner le modèle18.

18. Voir Nordhaus [1992a, p. 1315-1319 ; 1993, p. 27-50]. Ces deux textes signalent explicitement que lʼon se place dans le cadre dʼun modèle intertemporel de Ramsey.

Page 58: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

59LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE…

Science et politique dans le changement climatique

Lorsque le changement climatique est devenu un enjeu politique aux États-Unis, les scientifiques américains ont été mis à contribution. Lʼatmosphère « non interventionniste » régnant dans certains milieux politiques nʼa pas été sans répercussions sur les scientifiques. Nordhaus, comme Manne, ont eu tendance à différer ou à vouloir « exporter » les mesures contre le changement climatique. Cʼest la controverse devenue célèbre sur la « when and where flexi-bility ? ». Les modèles de Nordhaus, comme ceux de Manne, ont fait lʼobjet de vives critiques. Ces critiques sont de plusieurs ordres19. Dans DICE par exemple, lʼeffort de réduction ne se communique pas au capital installé ; dès que lʼeffort cesse, les émissions se remettent à croître instantanément (en dépit de lʼinstallation vraisemblable dans la réalité dʼun capital qui reste adapté aux faibles émissions). Dans MARKAL-Macro, les changements de technologie énergétique ne se communiquent pas à la structure macroéconomique du fait que précisément celle-ci est un modèle de Ramsey très agrégé. Plus généra-lement, le calcul sur une utilité qui fait lʼobjet dʼune actualisation minimise les dommages à long terme eu égard aux mesures à prendre aujourdʼhui. Paradoxalement, un certain nombre des critiques que Nordhaus avait adressées au Club de Rome sʼappliquent à son propre modèle DICE.

CONCLUSION

Le modèle de Forrester et Meadows (Limits to Growth-World 3) et les modèles MARKAL et DICE sont, en un sens, devenus tous trois des para-digmes. Limits to Growth a trouvé un prolongement dans le modèle IMAGE utilisé aujourdʼhui dans les prospectives SRES (Special Report on Emissions Scenarios) du GIEC20. Alors quʼIMAGE nʼa jamais suscité lʼadhésion des économistes, DICE et MARKAL ont entraîné en revanche de nombreuses équipes et permis la création de communautés de travail. Au terme de ce survol historique, trois raisons semblent à lʼorigine de ces évolutions différentes :

— DICE et MARKAL sʼappuient sur un fondement théorique et pratique, élaboré depuis plus de cinquante ans ;

— une institution intellectuellement puissante, la Cowles, les a portés sur le plan scientifique ;

— ces modèles possèdent une unité fonctionnelle qui autorise une appro-priation méthodologique et informatique efficace, dans le cadre de la diffusion des équations, données et sources informatiques.

19. Voir ici même Christian Azar (chapitre VII).20. Voir le chapitre de Michel Armatte (chapitre III).

Page 59: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR60

Limits to Growth et IMAGE apparaissent comme des constructions plus « phénoménologiques » dont les fondements théoriques sont moins clairs, autant pour ce qui est des déterminants de la dynamique (comportements) que pour les modes descriptifs des phénomènes physiques. Ces modèles sont davantage des programmes informatiques que des modèles construits sur une théorie (comme DICE) ou un fondement descriptif éprouvé (comme MARKAL), ce qui ne facilite ni leur transmission ni leur critique.

DICE et MARKAL sʼinspirent des structures théoriques stylisées des modèles de Ramsey et de von Neumann-Sraffa. Cette stylisation a donné nais-sance à divers paradigmes économiques qui sont comme les grands classiques dont Barthes disait quʼà chaque relecture, on y trouve toujours quelque chose de nouveau. Les deux types de modèles sont utiles mais, pour traiter du long terme, un cadre théorique stylisé est nécessaire à la discussion. Aucun modèle ne saurait prétendre à la vérité – en particulier si son objet est dʼaider à pren-dre des décisions pour éviter les catastrophes sur le long terme. Cependant, à défaut de vérité, un modèle doit proposer une structure de raisonnement très ouverte à la discussion et à lʼéchange dʼarguments mis en forme.

Le Club de Rome, à partir dʼune intuition juste, a lancé une alerte essen-tielle mais ne sʼest pas donné tous les outils nécessaires. Sous lʼimpulsion de Koopmans et Simon, la Cowles a commencé à mettre en place des outils plus adaptés. Toutefois, Nordhaus et Manne ne se sont pas affranchis de pré-supposés politiques qui ont probablement guidé les choix de paramètres et lʼusage de méthodes de résolution vers des résultats favorables au statu quo dans lʼaction sur le changement climatique.

RÉFÉRENCES BIBLIOGRAPHIQUES

Une grande partie des textes de la bibliographie peuvent être consultés sur les archives de la Cowles Foundation à lʼadresse suivante : http://cowles.econ.yale.edu/P/

Les numéros des Cowles Foundation Papers (CFP) et des Cowles Monographies (CM) sont indiqués en fin de référence.

Les rapports pluriannuels sont également disponibles en ligne.

ARMATTE M. (2004), « Les sciences économiques reconfigurées par la pax americana », dans DAHAN A. et PESTRE D, Les Sciences pour la guerre (1940-1960), Presses de lʼEHESS, Paris, p. 129-173.

KOOPMANS T. C. (1951a), Activity Analysis of Production and Allocation, proceedings of a conference, par Tjalling C. Koopmans, en collaboration avec A. Alchian, G. B. Dantzig, N. Georgescu-Roegen, P. A. Samuelson, A. W. Tucker, John Wiley, New York (http://cowles.econ.yale.edu/P/cm/m13/index.htm).

Page 60: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

61LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE…

– (1951b), « Efficient allocation of resources », Econometrica, vol. 19, n° 4, octobre, CFP 52.

– (1953), « Activity analysis and its application », American Economic Review, vol. 43, n° 2, mai, CFP 75c.

– (1964), « Economic growth at a maximal rate », The Quarterly Journal of Economics, vol. 78, août, CFP 217.

– (1965), « On the concept of optimal economic growth », Academiae Scientiarum Scripta Varia, vol. 28, n° 1, CFP 238.

– (1973), « Some observations on optimal economic growth and exhaustible resources », dans BOS H. C. (dir.), Economic Structure and Development, Essays in Honor of J. Timbergen, North-Holland, Amsterdam, CFP 396.

– (1978), « The transition from exhaustible to renewable or inexhaustible resources », dans Economic Growth and Resources, St Martin Press, New York, CFP 533.

MANNE A. S. (1960), « Comments on “interindustry economics” », Naval Research Logistics Quarterly, vol. 7, n° 4, décembre, p. 385-391, CFP 167.

– (1974), « Multi-sector models for development planning : a survey », Journal of Development Economics, vol. 1, n° 1, juin, p. 43-69 ; repris dans INTRILIGATOR M. D. et KENDRICK D. A. (dir.), Frontiers of Quantitative Economics, vol. II, North-Holland, Amsterdam, 1974, p. 449-500.

– (1976), « ETA : A model for energy-technology assessment », Bell Journal of Economics ; repris dans INTRILIGATOR M. D. et KENDRICK D. A. (dir.), Frontiers of Quantitative Economics, vol. III B, 1977, North-Holland, Amsterdam (chap. 12).

– (1977), « ETA-MACRO : A model of energy-economy interactions », dans HITCH C. J. (dir.), Modeling – Energy-Economy Interaction, Resources for the Future, Washington, D.C.

– (1985), « Economic equilibrium : model formulation and solution », Mathematical Programming Study, n° 23.

– (1991), « Global 2100 : an almost consistent model of CO2 emission limits », Swiss Journal of Economics and Statistics, vol. 127, n° 2.

– (1994a), « MARKAL-Macro, a linked model for energy-economy analysis », dans HAKE J.-F. et alii (dir.), Advances in Systems Analysis : Modelling Energy-Related Emissions on a National and Global Level, conférences du centre de recherche Jülich (with C.-O. Wene), p. 153-190.

– (1994b), « Energy-related emissions on a national and global level », conférences du centre de recherche Jülich ; repris dans Energy Policy, vol. 23, n° 1, 1995, p. 17-34 (avec R. Mendelsohn et R. Richels).

– (1995), « MERGE : a model for evaluating regional and global effects of GHG reduction policies », Energy Policy, vol. 23, n° 1, p. 17-34.

MANNE A. S. et MARKOWITZ Harry M. (1960), Studies in Process Analysis : Economy-Wide Production Capabilities, Wiley, New York, CM 19 (http://cowles.econ.yale.edu/P/cm/m18/index.htm).

MANNE A. S. et RICHELS Richard G. (1992), Buying Greenhouse Insurance – the Economic Costs of Carbon Dioxide Emission Limits, MIT Press, Cambridge, Mass.

MEADOWS Donella H., MEADOWS Dennis L., RANDERS J. et BEHRENS W. (1972), The Limits to Growth : A Report for the Club of Rome’s Project on the Predicament of Mankind, Universe Books, New York.

MENGER K. (1994), Reminiscences of the Vienna Circle and the Mathematical Colloquium, Kluwer, Dordrecht.

NORDHAUS W. D. (1973a), « World Dynamics : measurement without data », The Economic Journal, vol. 83, n° 332, décembre, CFP 399.

Page 61: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR62

– (1973b), « The allocation of energy resources », Brookings Papers on Economic Activity, n° 3, CFP 401.

– (1974), « Resources as a constraint on growth », American Economic Review, vol. 64, n° 2, CFP 406.

– (1975), « Can we control carbon dioxyde ? », IIASA working paper.– (1977), « Economic growth and climate : the case of carbon dioxide », The American

Economic Review, mai, CFP 443.– (1979), The Efficient Use of Energy Resources, Yale University Press, New Haven,

CM 26.– (1982), « How fast should we graze the global commons ? », American Economic Review,

vol. 72, n° 2, mai, CFP 547.– (1991a), « The cost of slowing climate change : a survey », The Energy Journal, vol. 12,

n° 1, printemps, p. 37-65, CFP 775.– (1991b), « A sketch of the economics of the greenhouse effect », American Economic

Review, mai.– (1991c), « To slow or not to slow : the economics of the greenhouse effect », The Economic

Journal, vol. 101, juillet, p. 920-937, CFP 791.– (1992a), « An optimal transition path for controlling greenhouse gases », Science, vol. 258,

20 novembre, p. 1315-1319, Optimal.science.1192.pdf, CFP 829.– (1992b), « Lethal model II : the limits to growth revisited », Brooking Papers on Economic

Activity, n° 2, CFP 831.– (1993), « Rolling the Dice : an optimal transition path for controlling greenhouses gases »,

Resource on Energy Economics, n° 15.– (1994), Managing the Global Commons : The Economics of Climate Change, MIT Press,

Cambridge, Mass.NORDHAUS W. D. et TOBIN J. (1972), « Is growth obsolete ? », Economic Growth, N.B.E.R.,

New York ; repris dans Income and Wealth, vol. 38, N.B.E.R., New York, 1973 ; CFP 398 et 398b.

RAMSEY F. P. (1927), « Facts and propositions », Aristotelian Society, supplément, vol. 7, p. 153-170.

– (1928), « A mathematical theory of saving », Economic Journal.– (1931), The Foundation of Mathematics and other Logical Essays, Routledge, Londres.SIMON H. (1973), « Technology and environment », Management Science, n° 19.SOULEZ A (1985), « Manifeste du cercle de Vienne et autres écrits », Philosophie d’aujourd’hui,

PUF, Paris.SRAFFA P. (1960), Production de marchandises par les marchandises, Dunod, Paris.TESSMER R. G., HOFFMAN K. C., MARCUSE W. et BELHING D. J. (1975), « Coupled energy

system-economic models and energy planning », Computer and Operation Research, vol. 2, p. 213-224.

VON NEUMANN J. (1937), « Über ein ökonomisches Gleichungssystem und eine Verallgemei-nerung des Brouwerschen Fixpunktsatzes », dans MENGER K. (dir.), Ergebnisse eines mathematischen Kolloquiums (1935-1936), Springer, Vienne.

– (1945), « A model of general economic equilibrium », Review of Economic Studies, vol. 13, n° 1 (1945-1946), p. 1-9.

WITTGENSTEIN L. (1961), Tractatus logico-philosophicus, Gallimard, Paris.

Page 62: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

63LES ÉCONOMISTES FACE AU LONG TERME…

L̓enrôlement des économistes dans le débat sur le changement climatique s̓ est fait de façon significative mais limitée après la crise de croissance issue du choc pétrolier de 1973, et en réaction à la provocation que représentait pour un économiste classique le brûlot du Club de Rome, Halte à la croissance ! [1972]. La participation des économistes à la question du changement climatique s̓ est intensifiée pour devenir massive dans le cadre du Groupe d e̓xperts inter-gouvernemental sur l̓ évolution du climat (GIEC ; IPCC en anglais) à partir du moment où celui-ci a instauré trois groupes de travail dont deux impliquaient directement les économistes : le groupe 2 sur les impacts du changement clima-tique, et le groupe 3 sur les stratégies de réponse et les politiques de réduction des émissions et d a̓daptation face au changement climatique. Mais le rôle des économistes est aussi apparu important en amont des travaux des climatologues, dans la modélisation des activités (économiques, énergétiques, industrielles et agro-pastorales) productrices de gaz à effet de serre. Or cette modélisation de la croissance sur des échelles de temps de l̓ ordre du demi-siècle ou davantage constituait un défi nouveau pour une discipline plus habituée à raisonner sur des durées qui sont celles dʼun cycle de production-consommation de biens et services sur un marché où offre et demande s̓ ajustent rapidement.

LES TEMPS DE LʼÉCONOMIE

La réflexion sur le temps est loin dʼêtre absente de la pensée économique. Elle en est même au centre si lʼon considère que la science économique de Jean-Baptiste Say vise à décrire « les moyens par lesquels les richesses se forment, se distribuent et se consomment ». Sauf lorsquʼil aborde les ques-tions dʼaccumulation du capital, le credo classique ne semble pas trouver de ressources pour penser le long terme avant la fin du XIXe siècle.

3

Les économistes face au long terme :

lʼascension de la notion de scénario

Michel Armatte

Page 63: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR64

Le temps de la conjoncture et du très court terme

Lʼirruption dʼune réflexion projective sur le temps peut être datée des grandes crises économiques de la fin du XIXe, qui sont aussi concomitantes de controverses méthodologiques importantes [Armatte et Desrosières, 2000]. La première grande crise des années 1880-1890, qui se traduit par de grands désordres sur les marchés de lʼemploi et de la finance, découvre ce nouveau thème, les business cycles, la grande affaire des quarante années suivantes. Cʼest une période de forte innovation dans les représentations mentales, puis techniques du mouvement économique, qui sʼincarne dans la vogue des baro-mètres et dans la naissance des principaux instituts de conjoncture européens et nord-américains [Armatte, 1992]. Ces baromètres qui visent à décrire les cycles économiques deviennent des instruments « magiques » de prévision. De cette période date la démarcation stricte entre le temps de la conjoncture, avec ses cycles saisonniers et ses projections à très court terme (1 à 6 mois), et le temps long des évolutions tendancielles ou des fluctuations économiques quʼillustrent les cycles de Kuznets et de Kondratiev (40 ans). La prévision conjoncturelle sʼappuie principalement sur des indicateurs statistiques et des enquêtes auprès des ménages et des chefs dʼentreprises ou encore des dires dʼexperts, et elle produit des notes de synthèse qui se vendent aussi bien aux entrepreneurs quʼaux politiques.

Le temps des comptes annuels et de la prévision à court terme

Les méthodologies de la conjoncture ont été fortement remises en cause après le choc de la crise des années 1930. Son intensité (chômage, lock-out, inflation à des niveaux jamais atteints) et ses conséquences sociales et économiques ont justifié lʼémergence de nouvelles politiques, mais aussi de nouveaux lieux de production de connaissances où lʼon a âprement débattu des méthodologies économiques : le groupe X-Crise en France, la Cowles Commission aux États-Unis et lʼInternational Econometric Society en sont trois exemples. Certaines, comme la Cowles, sortent de la guerre renforcées par la nouvelle alliance militaro-scientifico-industrielle et le nouvel ordre mondial dominé par les États-Unis [Armatte, 2004]. Entre 1930 et 1950, tout un ensemble de technologies se sont développées pour penser le court terme qui est celui de la prévision.

La première de ces technologies est celle des « budgets économiques » qui ont accompagné les politiques néokeynésiennes des gouvernements amé-ricains (New Deal) et européens dans leur intervention contre lʼinflation et le chômage. Liée à la construction des comptabilités nationales qui a fourni leur cadre [Fourquet, 1980 ; Vanoli, 2002], la méthode des budgets économiques sʼappuie sur les comptes du passé pour établir les budgets de lʼÉtat qui vont

Page 64: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

65LES ÉCONOMISTES FACE AU LONG TERME…

traduire à court terme (horizon 1 à 3 ans) à la fois les évolutions tendanciel-les et les impulsions dʼune politique volontariste dʼintervention étatique. Le budget est une pratique administrative encadrée par la loi de finances, mais calquée sur les pratiques des entreprises. En France, la confection du budget a été prise en charge dès lʼaprès-guerre par le Service des études économi-ques et financières du Trésor (SEEF) qui est éclaté en 1965 entre lʼINSEE et la Direction de la prévision (DP). Ces deux institutions se partagent la tâche – en gros les comptes du passé pour la première, les comptes du futur pour la seconde – mais collaborent. Le modèle implicite aux budgets est celui de lʼapproche keynésienne qui privilégie le rôle de la demande, et se focalise sur les équilibres de court terme – Keynes ayant eu la boutade célèbre « à long terme nous sommes tous morts ». La méthode dʼélaboration des comptes mise en place par lʼINSEE et la DP part dʼabord du Tableau dʼéchanges industriels entre branches, qui devient plus tard le Tableau des entrées-sorties (TES) en référence aux tableaux input-output de Leontief. Ces tableaux permettent à la fois des analyses de la structure de lʼappareil productif, des vérifications de concordance de sources statistiques hétérogènes et des prévisions ou des orientations politiques.

La méthode des tableaux a trouvé un relais, en partie substitutif, dans une seconde approche, celle de lʼéconométrie. Son invention programmée comme synthèse des approches mathématiques (déductives) et statistiques (inducti-ves), dans les cercles concentriques fort restreints de la Cowles Commission et de lʼInternational Econometric Society, a trouvé sa raison dʼêtre et son débouché dans la construction de modèles macroéconométriques. Leurs équations traduisent soit des égalités comptables de principe entre agrégats, soit des relations de comportement que lʼanalyse économique – keynésienne pour lʼessentiel – a mises en avant dans les années 1950.

Les comptes sʼappuient sur des découpages en branches et permettent une approche dʼemblée très désagrégée. Les modèles économétriques fonction-nent comme de véritables maquettes de simulation beaucoup plus maniables que les projections des comptes. Ces simulations servent non seulement à explorer les propriétés dynamiques du modèle pour une structure fixe et à faire des tests de sensibilité, mais in fine elles visent à évaluer les effets de politiques économiques ou de perturbations externes en observant des effets de chocs structurels.

Le temps de la planification et de la projection à moyen terme

Il faut maintenant aborder une troisième forme de projection dans le futur, née dans la même période 1930-1950, bien plus volontariste quʼune simple prévision car il sʼagit de choisir un avenir : la planification. Le principe général dʼune planification « à la française » est celui dʼune programmation indicative

Page 65: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR66

et stratégique de moyen terme (4 ou 5 ans) qui se veut une troisième voie entre libéralisme et dirigisme. Pierre Massé, commissaire au Plan entre 1959 et 1966 après une carrière dans lʼindustrie électrique, pense que le marché est incapable de produire seul une économie équilibrée et optimale, surtout dans une situation dʼaprès-guerre où lʼÉtat contrôle plus de 50 % des inves-tissements1. La planification autoritaire des objectifs « à la soviétique » est rejetée au profit dʼune économie concertée qui se traduit par des structures très originales : le Commissariat général du Plan, qui compte seulement une à deux centaines dʼexperts fonctionnaires (1960), est assisté du Conseil économique et social et de commissions de modernisation tripartites (25 commissions et 3 500 personnes en 1960) et relayé par des instances régionales. Les objec-tifs prioritaires du Plan ont fortement changé en fonction des urgences de la conjoncture : le Ier Plan Monnet (1948-1953) était centré sur la modernisa-tion de lʼappareil productif et lʼeffort dʼéquipement dans six domaines clés : charbon, électricité, acier, ciment, machines agricoles, transport ; le IIe Plan (1954-1957) sur lʼagriculture, les industries de transformation et le logement ; le IIIe Plan (1958-1961) sur la stabilisation monétaire (nouveau franc de 1958) et lʼinsertion dans le Marché commun ; le IVe Plan (1962-1965) sur une forte croissance (24 %), lʼéquilibre des paiements et le contrôle de lʼinflation, etc. Conçu dʼabord dans un contexte de pénurie, le Plan a dû sʼadapter à la crois-sance et à la société de consommation.

La méthodologie du Plan, elle aussi, a évolué. Son histoire sʼentremêle dʼabord avec celle de la comptabilité nationale qui lui a fourni ses premiers cadres comme elle lʼa fait pour la prévision budgétaire. À partir du IIe Plan et jusquʼau Ve, lʼélaboration par le Commissariat général du Plan, assisté par le travail des commissions, repose dʼabord sur une projection de la croissance du PIB, puis sur le choix des programmes dʼinvestissement et de transfert de lʼÉtat, et enfin dʼun bilan sectoriel. Le TES reste lʼoutil central commun à la prévision budgétaire et à la planification, mais on y greffe des hypothèses dʼévolution de la population active et de la productivité. Pour le IVe Plan, on mobilise lʼinversion du tableau dʼinput-output : partant des objectifs de satisfaction de la demande et des élasticités de revenu, on a pu remonter aux productions nécessaires. Le Ve Plan a produit des « esquisses » sur la base dʼun schéma itératif combinant modèles économétriques partiels et évaluations comptables. Le VIe Plan est le premier à mobiliser un modèle macroécono-métrique de simulation (FiFi = physico-financier) dʼenviron 1 000 équations et 7 secteurs. Les comptes centraux établis par FiFi ayant fourni des résultats inquiétants en termes de croissance, chômage et déséquilibre de la balance des paiements, ils ont été corrigés par des projections détaillées obtenues dans les groupes de travail, puis par des arbitrages politiques, jusques et y

1. Lesourne [2004] est du même avis.

Page 66: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

67LES ÉCONOMISTES FACE AU LONG TERME…

compris des « discussions nocturnes entre membres des cabinets ministériels au printemps 19712 ». Mais dès lors, les objectifs nʼétaient plus justifiés par les grands équilibres du modèle, sauf à le faire tourner à lʼenvers, ce qui ne sʼavérait pas possible3. On a donc utilisé le modèle pour produire des variantes, et explorer à la fois ses propriétés formelles, des futurs possi-bles, ou encore des politiques alternatives4. Dʼinstrument de prévision, il est devenu instrument de simulation. Mais cette irruption du modèle et lʼabus des variantes ont entraîné quelques biais politiques comme un renforcement des experts et des « groupes techniques » au détriment de la concertation dans les commissions et au Parlement, ou encore des manipulations, par exemple de la Direction du Budget en faveur dʼun désengagement de lʼÉtat, ou dʼun certain patronat en faveur dʼune croissante forte à la japonaise5. Il nʼest pas si facile de sélectionner une figure de lʼavenir qui soit à la fois souhaitable (politiquement et socialement), praticable (cʼest-à-dire réalisable) et probable (comme prolongement du présent) comme le voulait P. Massé. L̓ exécution du Plan est également assez problématique, le gouvernement ne disposant quand même pas de toutes les manettes.

Au terme de ce parcours sur les trois formes classiques de la projection dans le futur opérée en économie, on est frappé par le fait que leurs différen-ces fondamentales dʼhorizon (quelques mois pour la conjoncture, 1 à 2 ans pour les budgets et 4 ou 5 ans pour le Plan), mais aussi de finalité politique (de la conjoncture quasi déterministe pour laquelle le futur se lit comme une extrapolation du présent à la planification qui incite davantage à la fabrication des futurs quʼà leur prévision) nʼaboutissent pas complètement à les rendre méthodologiquement distinctes, ni même autonomes les unes des autres. On retrouve dans chacun des exercices le même cocktail de quatre méthodes de base – lʼextrapolation statistique tendancielle, la projection des comptes natio-

2. Bernard et Cossé [1974, p. 68]. La tension entre les approches comptables et économétriques dans les exercices de prévision budgétaire ou de planification a été décrite par Alain Desrosières [1999] sous la belle formule de « la commission et lʼéquation », et illustrée par des comparaisons éclairantes entre le Plan français et le Plan néerlandais.

3. « Il faut vous confier que le modèle physico-financier ne sait pas marcher à lʼenvers […]. Si vous remettez la chair à saucisse dans le hachoir à viande et faites tourner celui-ci à lʼenvers, il ne vous redonnera pas les morceaux de gras et de maigre. Alors, pour faire marcher Fifi à lʼenvers, il faut procéder par tâtonnements » [interview de R. Martin à Europe n° 1, 15 janvier 1970, cité par Bernard et Cossé, 1974].

4. En quelques mois, fin 1969, on a exploré 9 variantes dʼincertitude, 28 variantes de sensibilité, 14 variantes de politique économique et 21 variantes de politique budgétaire et fiscale. « Nous avions franchi la limite dʼune utilisation honnête du modèle », écrivent Bernard et Cossé, qui signalent les vives réactions des organisations syndicales qui se disent dépossédées.

5. Pour éviter la confusion entre prévision et objectifs, on a dʼailleurs séparé assez artificiellement le document littéraire livré aux débats parlementaires et les projections économiques pour 1975, publiées ultérieurement.

Page 67: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR68

naux, la modélisation structurelle et, enfin, la combinaison de dires dʼexperts et de représentants syndicaux –, à des doses évidemment variées.

Le temps (très) long de la nouvelle histoire économique

La « longue durée » nʼappartient pas tant à lʼéconomie quʼà lʼhistoire, et plus précisément à lʼémergence de lʼÉcole des Annales, en 1929. Dans la foulée dʼun Simiand sʼopposant aux « trois idoles de la tribu des historiens », les Annales de Lucien Febvre et Marc Bloch veulent en finir avec lʼhistoire événementielle, politique et individuelle des princes et des guerriers. À la place de tout ce fatras, elles prônent une « nouvelle histoire » dont la méthode est celle des sciences sociales. À côté dʼune histoire des mentalités (Halbwachs, Lévy-Bruhl, Ariès), on va trouver une histoire des mouvements économiques de longue durée, dont le récit est fondé sur la quantification, et que Simiand et Labrousse illustrent par deux ouvrages sur le mouvement des prix en 1932 et 1933. « La mesure est entrée en histoire par les prix… et par la crise de 29 », dira lʼun de leurs disciples, Pierre Chaunu. Cʼest Braudel, patron des Annales de la seconde génération, qui a fait de la longue durée le credo de la nouvelle histoire. Pour François Dosse [1987], cʼest un choix stratégique qui vise à résister à la poussée de lʼanthropologie structurelle de Lévi-Strauss et à celle des sociologues emmenés par Gurvitch. Pour Braudel [1999], la longue durée sʼarticule au court terme de lʼévénementiel ou du conjoncturel, et leur donne sens. Cette pluralité des temps, combinée avec de larges espaces comme la Méditerranée, ou les économies-mondes de Gènes, Venise ou Rotterdam, lui permet de pratiquer une histoire globale, descriptive, structurelle et parfois structuraliste, riche de découvertes, surtout dans le domaine de la circulation des marchandises et des hommes.

Cette longue durée de Braudel est cependant inessentielle pour la plupart des économistes – « rien nʼest dans la longue durée qui ne soit dʼabord dans la courte », disait Aftalion. Bien que tentée par quelques-uns comme Alain Minc, Jacques Attali et lʼÉcole de la régulation, la rencontre entre Braudel et les économistes a été un rendez-vous manqué. Dʼune part, parce que le temps long de Braudel sʼest construit contre le temps « court » des écono-mistes – « je soutiens que toute la pensée économique est coincée par cette restriction temporelle », écrit-il [Braudel, 1999, p. 57]. Dʼautre part, parce que lui-même sʼest cantonné dans une exploration des modes de marché alors que les économistes sʼintéressent davantage aux modes de production. Nous insisterons sur un point : le temps de lʼhistorien des Annales, comme celui des économistes « braudéliens-foucaldiens6 », se focalise sur la durée, sur les

6. Voir les Histoires du temps de J. Attali [1999] et lʼEssai d’analyse de mouvements économiques de longue durée de S. Walery [1987].

Page 68: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

69LES ÉCONOMISTES FACE AU LONG TERME…

rythmes de lʼactivité et les dispositifs de contrôle qui sʼy attachent et formatent les rapports de production et lʼencadrement des travailleurs tout au long de lʼhistoire du marché. Cʼest un temps immuable, comme la structure quʼil porte. Dʼoù son fatalisme, plusieurs fois souligné7. La flèche du temps conduit à un futur inéluctable, et pas à un avenir choisi parmi des possibles. Ce nʼest pas le temps de lʼhomme dʼaction – ingénieur, entrepreneur, politique – qui doit se projeter dans un avenir de moyen ou long terme. Contrairement aux philo-sophes qui, de Gaston Berger à Paul Ricœur, ont lié réflexion sur le temps et décision collective, les historiens nʼont pas cultivé la dimension praxéologique. Pour ces deux raisons, la longue durée nʼest pas le long terme.

LE TEMPS LONG DE LA PROSPECTIVE

La démarche prospective

L̓ origine de la prospective se perd dans un passé lointain [Cazes, 1986]. Elle a bénéficié des réflexions lumineuses de Condorcet sur le progrès. Mais sa pratique dans les sociétés modernes date de lʼimmédiat après-guerre, dans les think tanks américains associés à la réflexion stratégique, comme la Rand Corporation fondée en 1948 sur les restes dʼun groupe de travail de la Douglas Aircraft Company. On y travaille aussi bien sur la prévision technologique de long terme (les armes) que sur la stratégie et les possibilités de conflit. Hermann Kahn, qui travaille à la Rand dans les années 1960 sur des scénarios de guerre nucléaire, fondera ensuite le Hudson Institute. Dans cette même période où recherches militaires, industrielles et universitaires sont associées, se crée un autre centre de recherche situé à lʼintersection des domaines de la science, de lʼingénierie, de la gestion et de la politique, le Stanford Research Institute (SRI) qui rassemble plusieurs milliers dʼexperts à temps plein. Un troisième lieu, beaucoup plus modeste (20 chercheurs), est lʼInstitute for the Future, créé en 1968 par R. Amara, qui abrite les activités de Theodore Gordon, parfois désigné comme lʼinventeur de la méthode des scénarios.

Le deuxième moment fort de la prospective fait suite à la publication du fameux rapport du Club de Rome [Meadows et alii, 1972]. Lʼélectrochoc quʼil provoque chez les experts de la croissance est tout autant ravageur que le premier choc pétrolier qui lʼaccompagne. Une dizaine dʼinstituts de pros-pective voient le jour dans les dix années qui suivent8.

7. « Le cycle de Kondratiev, on le supporte comme on supporte la rotation de la terre », écrit-il en 1984 [Braudel, 1999, p. 131].

8. Ce sont soit des organismes officiels gouvernementaux comme le Secrétariat (devenu Institut) suèdois aux études sur le futur créé par Olaf Palme (1972), lʼInstitut de prospective et de planification (WRR) hollandais, ou lʼIFTF (Institute for the Technologies of the Future) du Japon ;

Page 69: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR70

Le troisième moment fort des études prospectives coïncide avec lʼémer-gence des questions dʼenvironnement et surtout du changement climatique sur la scène internationale. LʼInternational Institute for Applied Systems Analysis (IIASA), fondé à Vienne en 1982 pour permettre aux communau-tés scientifiques des blocs de lʼOuest et de lʼEst de collaborer, et le rapport Bruntland (Our Common Future) ont joué un rôle analogue au Club de Rome et son rapport pour relancer les études. L̓ IIASA assure une transition entre les approches du Club de Rome et une exploration des méthodes systémiques, et des modélisations associées au paradigme de lʼévaluation intégrée.

En France, la prospective sʼest construite autour de deux personnalités : Gaston Berger fonde le premier centre de prospective en 1957, qui fusionne un peu plus tard avec lʼassociation Futuribles créée en 1960 par Bertrand de Jouvenel. « Lʼattitude prospective » quʼils proposent dʼadopter repose pour lʼessentiel sur un petit nombre de caractéristiques que lʼon peut ainsi résumer9 :

— la globalité : on étudie de larges systèmes pour lesquels tous les aspects doivent être pris en compte dans une démarche interdisciplinaire ;

— la vision à long terme, nécessaire même pour une conduite immédiate : « Notre civilisation est comparable à une voiture qui roule de plus en plus vite sur une route inconnue lorsque la nuit est tombée. Il faut que ses phares portent de plus en plus loin si lʼon veut éviter la catastrophe » ;

— la prédominance dʼune analyse qualitative ; lʼexpertise doit lʼemporter sur le calcul : « Il faut que des hommes se rencontrent et non que des chiffres sʼadditionnent » ; dʼailleurs « la prospective ne cherche pas à prédire » ; pré-vision et prospective doivent néanmoins sʼassocier, car lʼavenir sera le résultat en partie de ce qui est et en partie de ce que nous voulons quʼil advienne ;

— la prétention à la rationalité : la prospective nʼest pas la divination, « elle sʼappuie à la fois sur un précédent, sur une analogie et sur une extrapo-lation » ; « la prospective est attentive aux causes » ; néanmoins, elle est plus un art quʼune science car elle intègre une imagination, une prise de risque ;

— le caractère volontariste de la projection dans le futur : « cʼest un regard et cʼest un projet » ; « lʼavenir nʼest ni un mystère absolu, ni une fatalité inexorable ».

On retrouve ces caractérisations de la prospective énoncées – avec beau-coup de panache – chez de nombreux auteurs de lʼécole française, comme Pierre Massé, Jérôme Monod, Thierry Gaudin, Jacques Lesourne ou Michel Godet, pour ne prendre que des responsables venus de cinq horizons différents

soit des organismes alternatifs comme le Congressional Clearinghouse for the Future aux États-Unis, la fondation Bariloche en Argentine, ou le GAMMA (Groupe associé Montréal, McGill pour lʼétude de lʼavenir) à lʼuniversité de Montréal. Voir les contributions dʼÉlodie Vieille Blanchard et de Pierre Matarasso dans cet ouvrage.

9. Citations extraites de Berger [1964].

Page 70: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

71LES ÉCONOMISTES FACE AU LONG TERME…

(le Plan, la DATAR – Délégation à lʼaménagement du territoire et à lʼaction régionale –, les ministères de lʼIndustrie et de la Recherche, la SEMA – la Société dʼéconomie et de mathématiques appliquées –, le CNAM) et ayant fortement pratiqué et commenté la méthode.

Les lieux français de la prospective

Le Plan est le premier cadre important du développement des recherches prospectives. Les premiers commissaires avaient été sensibles aux visées de long terme et à lʼidentification de tendances lourdes, en particulier Jean Fourastié, lʼinventeur des Trente Glorieuses et du « boom du secteur ter-tiaire ». Pierre Massé, commissaire au Plan entre 1959 et 1966, a défendu la prospective comme une méthode complémentaire de la prévision budgétaire ou macroéconométrique [Massé, 1965]. Dès 1961, il fonde des centres de recherche sʼy consacrant, et qui existent toujours (le CEPREMAP – le Centre pour la recherche économique et ses applications – et le CEPII – le Centre dʼétudes prospectives et dʼinformations internationales). Cette nébuleuse du Plan a contribué aux premières études de prospective, dont la plus célèbre, en 1965, est Réflexions pour 198510. La France, qui sortait alors de lʼépoque coloniale (fin de la guerre dʼAlgérie), de lʼisolement international (traité franco-allemand, relance de lʼEurope) et de la crise monétaire (nouveau franc de 1958), avait besoin « dʼextraire du champ des possibles quelques lignes de lʼavenir, intelligibles pour lʼesprit et utiles pour lʼaction », ce qui nécessitait de sortir du domaine des simples prévisions. La méthode semble sʼêtre réduite à une interprétation des tendances quantitatives de long terme. Le rapport prévoyait une forte croissance (triplement du PNB) permettant une amélioration des conditions de vie, des transports, de la communication, des loisirs, de la formation…, mais aussi quelques conséquences néfastes (conflits, gaspillages, embouteillages…). Un reproche fait encore aujourdʼhui à cet exercice est de sʼen être tenu à un scénario dʼévolution tendancielle et de nʼavoir pas suffisamment incorporé de points de vue hétérodoxes, voire utopiques [Commissariat général du Plan, 2004].

La prospective s e̓st développée dans les administrations centrales. Tous les ministères ou presque se sont dotés dʼune cellule de prospective. Les plus importantes sont celles du ministère de l̓ Industrie (l̓ OSI, l̓ Observatoire des stratégies industrielles) et du ministère de la Recherche (le CPE, le Centre de prospective et d é̓valuation) dans lesquelles Thierry Gaudin a œuvré successi-

10. Le groupe comprenait une équipe permanente – Pierre Guillaumat (président), Mme J. Krier, J. Bernard, E. Claudius-Petit, M. Demonque, L. Estrangin, J. Fourastié, Cl. Gruson, B. de Jouvenel, Ph. Lamour et G. Levard –, mais sʼest adjoint les collaborations de P. Delouvrier, Cl. Lévi-Strauss, J. Delors et R. Aron.

Page 71: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR72

vement au développement de la prospective technologique11. Mais la DATAR, créée en 1963 sous l̓ impulsion de Jérome Monod, est le cadre majeur des tra-vaux de prospective des années 1960-1970, via le SESAME (Système d é̓tudes du schéma d a̓ménagement de la France). Cette structure créée en 1968, que Hatem [1993] présente comme un « improbable mariage du marxisme et de l̓ administration française, de la rue dʼUlm et du Hudson Institute », compre-nait en fait quatre groupes de travail, centrés respectivement sur les scénarios d a̓ménagement, sur les analyses de systèmes, sur les prévisions technologiques et sur la modélisation, et un laboratoire – l̓ OTAM (l̓ Omnium technique d a̓mé-nagement) – mandaté pour construire des scénarios. Si, dans le cadre du Plan, il y avait continuité entre méthodes de la prévision et méthodes de la prospective, il y avait à la DATAR une volonté de rupture « épistémologique » manifeste. Le SESAME a importé en France les méthodes de la futurologie américaine, qui vont de la simple liste des bonnes pratiques à la confection de scénarios et au croisement d e̓xpertises. Le morceau de bravoure de ce groupe est resté la publication en 1971 des Scénarios de l’inacceptable. Ce titre en dit assez sur le rôle que vont jouer les scénarios dans la méthodologie de la DATAR.

La prospective, enfin, est la grande affaire des entreprises qui en usent pour leurs projections stratégiques. Ce qui fait dʼailleurs que les ouvrages de prospective de nos bibliothèques se rangent plus volontiers dans les sections de gestion quʼen économie. L̓ exemple célèbre reste la compagnie Shell dans laquelle Pierre Wack – qui se réclamait autant de Kahn que de Braudel – a développé la planification par scénario et imposé, dès 1969, que son système de modèles mathématiques soit remplacé par des exercices de prospective à 15 ans. Mais si lʼon revient en France, ce sont des entreprises nationalisées comme EDF, SNCF et ELF qui, après avoir utilisé les modèles économétri-ques, se sont tournées délibérément vers lʼutilisation de scénarios contrastés, surtout après le choc pétrolier.

La démarche prospective a trouvé un relais académique, principalement au CNAM, autour de la chaire de prospective industrielle (1982) et du labo-ratoire LIPSOR12 aujourdʼhui dirigé par Michel Godet, qui sʼest fait une réputation dans la mise au point dʼun ensemble dʼoutils opérationnels pour charpenter la méthodologie, assez lâche parfois, des expertises et des scéna-rios. Le laboratoire diffuse largement les logiciels correspondants, et forme à leur méthodologie pour éviter le risque assumé « de fournir un marteau à des gens qui nʼont pas de clou à enfoncer ». Mais, dans la France des années 1960, la haute administration, les capitaines dʼindustries et le monde acadé-mique ne sont pas des mondes séparés, comme le trajet de Jacques Lesourne

11. Voir sa prospective mondiale à 2100 [Gaudin, 1993].12. Laboratoire dʼinvestigation en prospective, stratégie et organisation. Ce laboratoire gère le

projet de recherche « Mémoire de la prospective » qui offre un accès à la littérature marquante de la discipline.

Page 72: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

73LES ÉCONOMISTES FACE AU LONG TERME…

(X-Mines) lʼillustre bien, de la SEMA – quʼil fonde en 1958 et qui travaille pour le Plan et la DATAR aussi bien que pour les grands industriels –, au CNAM où il obtient la chaire dʼéconomie industrielle en 1974 et introduit Michel Godet. « Cʼest bien les milieux dʼingénieurs qui, étant dans le calcul économique et la prévision, vont intégrer la prospective de manière natu-relle », confirme Lesourne [2004] ; le fait que la prospective soit née au Plan et à la DATAR est « une conséquence du fait que la France a été gérée par son Administration ».

Lesourne quitte la SEMA en 1976 pour prendre, pendant trois ans, la direc-tion dʼune étude prospective à lʼOCDE baptisée « Interfuturs » sur laquelle nous allons nous arrêter. Ce projet est une initiative qui vise à « savoir sʼil sera possible dʼassurer à lʼavenir la prospérité et un développement économique et social équilibré, en harmonie avec celui des pays en développement ». Il est initialisé par la problématique des limites de la croissance du Club de Rome, dont les économistes rejettent les méthodes et les prémisses (principalement parce quʼil nʼy a ni prix ni substitution de technologies) mais auquel ils reconnaissent un rôle dʼalerte important. Il se situe à lʼintersection de deux problématiques fortes, le développement durable et les rapports Nord-Sud. Présidé par un Japonais mais piloté par un Français, ce projet intergouverne-mental est également sensible à la coexistence avec les sociétés socialistes et aux « interdépendances à lʼéchelle mondiale » (on ne disait pas encore « mondialisation »), privilégiant une lecture principalement économique mais ouverte sur le politique et le social. La méthodologie affirmée se réclamait de la prospective globale à long terme (20-25 ans) : il fallait imaginer différents futurs et séparer « les évolutions dont la dynamique est invariante et prévi-sible de celles qui peuvent être altérées par des acteurs », dʼoù la méthode des scénarios qui a été privilégiée. Quant aux conclusions dʼInterfuturs, elles étaient données sous trois formes : des perspectives qualitatives, des alertes et des recommandations, beaucoup moins alarmistes que celles du Club de Rome, et parfois même diamétralement opposées : « les problèmes soulevés [par le Club de Rome] nʼempêcheront pas la croissance économique ».

Les méthodes de la démarche prospective

Pour les raisonnements de long terme, la méthodologie préférée des éco-nomistes consiste principalement en un recours aux modèles théoriques de croissance comme le modèle de Solow (1956), qui a inspiré le modèle DICE (Dynamic Integrated Model of Climate and Economy) de Nordhaus, ou encore les nouveaux modèles dits « à croissance endogène » qui intègrent explici-tement un secteur « recherche et développement », et font dériver le progrès technique du comportement des agents économiques. Cependant, « si lʼimage du progrès technique quʼoffrent les historiens a nourri nombre de modèles de

Page 73: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR74

croissance endogène, il est vrai que les économistes lʼont souvent réduite à lʼétat de squelette » [Guellec et Ralle, 1996, p. 86]. Ces modèles ont souvent achoppé sur la représentation du progrès technologique et de lʼinnovation, mais aussi sur celle des arbitrages intertemporels. Le choix dʼun taux dʼactualisation, fait pour les choix dʼinvestissement, a conduit à des aberrations dʼarbitrage coût-efficacité sur le plus long terme13 (50 ou 100 ans). La modification du contexte socio-économique sur ce long terme a invalidé la modélisation macro-économique dans la forme dominante, à savoir lʼéconométrie structurelle. Lʼimportance des boucles de rétroaction a réduit également les prétentions de la généralisation des modèles linéaires. Un petit nombre dʼéconomistes, soucieux de coller à la diversité des filières de production industrielles ou énergétiques, ont préféré sʼappuyer sur les deux traditions similaires mais concurrentes des modèles input-output de Leontief ou des modèles dʼanalyse dʼactivité de Koopmans, dont un lointain rejeton est le modèle de projection énergétique MARKAL14 (Market Allocation Model).

La démarche prospective représente une autre alternative, mais ses carac-téristiques principales – le long terme, la projection volontariste et la pluralité des futurs – donnent à la discipline une originalité, voire une odeur de soufre, qui en éloigne a priori les économistes, effrayés par son éclectisme. Compte tenu cependant des limites des autres méthodes, la prospective économique et sociale a trouvé sa place en affirmant sa spécificité.

Toute étude prospective commence par la construction dʼune base, c e̓st-à-dire l̓ élaboration du système de représentation qui s̓ appuie sur un recueil de données qualitatives et statistiques auprès des experts. Dans cette étape, il faut donc identifier les acteurs collectifs ou individuels, leurs objectifs et leurs contraintes, ainsi que le jeu d é̓léments et de leurs relations présumées qui défi-nit la structure du problème. Plutôt que de se saisir des modèles formalisés de l̓ économie qu i̓ls jugent trop fermés, les prospectivistes préfèrent se référer à l̓ analyse des systèmes. Forrester et sa dynamique des systèmes à base de liens entre flux et stocks et de boucles de rétroaction telle qu e̓lle s̓ est incarnée dans le modèle World 3 du Club de Rome est une première forme de cette analyse. Les prospectivistes français se référent aussi à Yves Barel [1971] qui a théorisé, pour la DATAR, cette filiation avec la systémique, dans une double approche cognitive et décisionnelle15, ou encore au groupe des chercheurs québécois de l̓ INRS (Institut national de la recherche scientifique) auteurs dʼun gros mémo-randum sur la méthode des scénarios [Julien, Lamonde et Latouche, 1975].

13. Voir le chapitre rédigé par Christian Azar dans le présent ouvrage.14. Voir ici même le chapitre rédigé par Pierre Matarasso.15. « La prospective pose globalement trois problèmes théoriques et méthodologiques majeurs :

celui du passage de la partie au tout, celui de la nature de la réalité constituant lʼobjet dʼétude et celui du traitement scientifique de la décision et de la normativité. Sur ces trois points, lʼapproche systémique semble pouvoir faire des apports à la prospective » [Barel, 1971].

Page 74: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

75LES ÉCONOMISTES FACE AU LONG TERME…

La deuxième étape est celle de lʼélaboration des scénarios. Définis parfois comme des « actes dʼimagination raisonnée » ou des « moyens de coordination et sélection des futurs possibles », ils sont les moyens par lesquels on peut tenir une ligne de crête entre les deux pièges de lʼextrapolation mécanique et de lʼimagination débridée. On part le plus souvent dʼune « liste de questions jugées cruciales » dont chacune a bien sûr plusieurs réponses. Un scénario est alors une combinaison de réponses. Mais le nombre accablant de scénarios que lʼon peut ainsi produire doit être réduit drastiquement, soit par des exclusions logiques, soit par des recours à des experts… dont, hélas, les conclusions divergent aussi. Dʼoù lʼusage de techniques conçues pour harmoniser ou faire converger ces expertises. Le résultat est un petit nombre de scénarios dont la diversité doit rendre compte de devenirs « contrastés ». On peut exagérer ce caractère en construisant des scénarios catastrophes limites peu vraisemblables dont le seul but est de choquer ou de réveiller les consciences, ou bien au contraire céder à la tentation de choisir les scénarios les plus « probables », voire le seul scénario de référence qui correspondrait à la non-intervention des acteurs sur le cours des choses.

Une fois choisi un scénario, la troisième étape consiste à caractériser les évolutions du système correspondant à ces valeurs cʼest-à-dire à dérouler le cheminement du scénario. Pour cela, le plus souvent, on utilise un modèle. Et lʼon peut privilégier soit le forecasting dans une démarche de prospective exploratoire qui part du présent, soit le backcasting dans une démarche plus volontaire et utopiste qui privilégie le point dʼarrivée souhaité. Les étapes du cheminement ne sont pas forcément décrites.

La quatrième et dernière étape consiste à réinjecter les résultats de lʼana-lyse des institutions et des acteurs pour élaborer des stratégies possibles et souhaitables pour lʼorganisation qui a commandité lʼétude et lui proposer un plan dʼaction.

Les variantes à cet exposé succinct inspiré de Lesourne [1990] et de Hatem [1993] sont peu nombreuses. En fait, la démarche sʼest codifiée et uniformisée depuis les années 1960. Et le fait de fournir des outils standard informatisés pour traiter certaines phases de la procédure nʼa fait que renforcer ce trait.

RETOUR SUR LA MÉTHODE DES SCÉNARIOS

On lʼaura compris : la méthode des scénarios est au centre de la démar-che prospective. Nous allons donc y revenir plus en détail en nous appuyant sur quatre exemples : les Scénarios de l’inacceptable de la DATAR [1971], Interfuturs [France, 1979], Scanning the Future [OCDE, 1992], et les scénarios SRES du GIEC [2000], ce qui nous offrira à la fois une comparaison spatiale et une variation temporelle.

Page 75: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR76

Scénario exploratoire ou d’anticipation : scénario de l’inacceptable (DATAR)

La méthode des scénarios a fait lʼobjet de nombreux commentaires à lʼintérieur et à lʼextérieur de la communauté des prospectivistes. Suivons le premier exemple des scénarios de l’inacceptable dont lʼhistoire est instructive. Les chercheurs du SESAME ont dʼabord choisi délibérément une perspective normative et cherché à construire des scénarios contrastés, cʼest-à-dire des scénarios dʼanticipation partant chacun dʼune image terminale constituée dʼun ensemble dʼobjectifs (modèle synoptique). Respectivement baptisés « la France de cent millions dʼhabitants », « lʼagriculture sans terre » et « la France côtière », les trois scénarios contrastés constituaient une sorte dʼenveloppe du cône des futurs possibles. Mais ce faisant, en lʼabsence dʼune prospective sociologique minimale, les auteurs ont eu de grandes difficultés à choisir les configurations de besoins, de goûts et de valeurs qui caractériseraient une société française possible et souhaitable à terme. Ils se sont alors repliés sur une démarche, beaucoup plus classique en planification : la construction dʼun scé-nario à partir des tendances actuelles inscrites dans la « base ». Sans être tout à fait un scénario du laisser-faire, lʼextrapolation supposait « la conservation du système politico-économique tel quʼil existe », et une intervention limitée à des corrections de trajectoire sans mesures politiques nouvelles. Ce scénario tendanciel tirait cependant son qualificatif dʼ« inacceptable » du fait que, loin dʼêtre privilégié, il servait plutôt de repoussoir à une politique du laisser-faire menée jusquʼà lʼabsurde. Il obligeait « à sʼinterroger sur ce quʼil fallait faire pour que la France de lʼan 2000 soit différente de celle décrite ».

Concrètement, la base du « scénario de lʼinacceptable » qui décrit le présent du système était constituée par une décomposition en quatre sous-systèmes – population, économie, société, espace aménagé – et quatre niveaux – natio-nal, régional, urbain, rural – qui en fournissait les éléments. Sur cette structure étaient identifiés les tendances et les germes de mutation. La cohérence du scénario SESAME était assurée par une double approche diachronique et synchronique, la première empruntant lʼessentiel de ses concepts à lʼanalyse systémique, la seconde, fondée sur les trois concepts de force, mode et rap-port de production, donnant la dynamique interne de la société industrielle. Lʼéconomie, réduite elle-même à sa sphère productive, est donc identifiée comme le moteur principal du changement. Mais son analyse ne se réduit pas à un jeu de relations quantitatives entre les agrégats macroéconomiques. L̓ approche du SESAME a privilégié la mise au jour, dans la société française à chaque étape de la projection, de contradictions et de tensions entre certains couples de forces comme formation et emploi, localisation et activité, temps de travail et temps de loisir, pour lesquels on pouvait chaque fois définir une politique volontariste.

Page 76: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

77LES ÉCONOMISTES FACE AU LONG TERME…

Si lʼanalyse structurelle, synchronique, est délicate, lʼanalyse historique lʼest encore plus car elle est soumise aux nombreux pièges de la philosophie de lʼhistoire, dont le matérialisme historique a fourni bien des exemples, Marx étant sans doute le plus doué des scénaristes. Mais on pourrait tout aussi bien stigmatiser Hermann Kahn, très inspiré par les philosophies de lʼhistoire de Spengler et Sorokin, dont les analogies historiques se sont transformées en stéréotypes ou propositions purement idéologiques (plutôt libérales cette fois) pour dessiner des avenirs « tout tracés ».

Méthodes de construction des scénarios : l’étude « Interfuturs »

Généralement, ce que les Canadiens appellent « le design » des systèmes complexes, cʼest-à-dire lʼinvention des éléments du système et de leur com-binaison, reste un acte majeur de la construction de scénarios dʼanticipation. Des méthodes maintenant classiques ont été inventées dans les années 1960 et testées dans les années 1970 pour mettre en œuvre ce design des systèmes. Dans lʼétude « Interfuturs », lʼéventail des scénarios prospectifs a été produit de manière systématique par exploration dʼun petit nombre de dimensions jugées pertinentes à lʼéchelle mondiale, et sensibles quant aux changements attendus. Et cʼest par croisement des quelques hypothèses retenues pour chaque dimension que lʼon génère les scénarios. En lʼoccurrence, quatre dimensions problématiques de lʼéconomie mondiale ont été retenues (colonne de gauche) pour lesquelles les réponses possibles (à droite) ont généré les scénarios suivants : A = forte croissance, B1 = nouvelle croissance, B2 = croissance modérée convergente, B3 = croissance modérée divergente, C = rupture Nord-Sud, D = protectionnisme.

TABLEAU 1. – CONSTRUCTION DES « SCÉNARIOS DU FUTUR »

Relations entre pays développés Interdépendance Fragmentation

Dynamique interne des pays développés

ConsensusCroissanceforte

Changementsde valeursCroissance faible

Conflits sociauxCroissance modérée

Évolution des productivités relatives Convergence Divergence

Relations entrepays en développement

Forts échangesNord-Sud

A B1 B2 B3

Divisions Nord-Sud

C

Fragmentation Sud

D

Source : Lesourne [1990].

Page 77: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR78

Fort heureusement, cette logique combinatoire n e̓st pas seule en jeu car le rapport Interfuturs développe une analyse qualitative et des récits en forme de storylines qui enrichissent considérablement cette typologie. Mais, dans d a̓utres cas, on n a̓ pas échappé à des systématisations de cette méthode de construction de scénarios. Pour réduire les divergences des experts sur un problème donné, la méthode Delphi, développée à la Rand à la fin des années 1950 par Olaf Helmer et Norman Dalkey, recense d a̓bord les réponses indépendantes des experts et dégage une médiane. Les faisant ensuite discuter sur leurs divergences autour de cette médiane, on les amène par itération à resserrer fortement leurs estimations. Si la méthode a eu quelques succès dans des exercices de prospective techno-logique, sur des questions quantitatives (dates, volumes, prix), elle est bien peu adaptée aux questions d é̓volution des sociétés à l̓ échelle mondiale.

Une seconde voie pour sélectionner des scénarios possibles et cohérents consiste à explorer la combinatoire des événements possibles. Mais les appro-ches combinatoires ne conviennent guère que pour des microscénarios, relatifs à des sous-sytèmes pour lesquels le nombre d é̓léments est suffisamment petit pour éviter une combinatoire explosive. Et il faut ensuite agréger ces micro-scénarios en un scénario global. L̓analyse morphologique, dont les scénarios dʼInterfuturs forment un cas typique, permet cette décomposition dʼun système en sous-systèmes et en composantes. Il est possible d a̓ppuyer cette analyse morphologique sur une quantification des événements par des variables prenant chacune en compte plusieurs modalités possibles : un scénario est alors une configuration (un vecteur) de modalités remarquables et compatibles. Dans cet espace des scénarios possibles, on peut définir des distances, des voisi-nages… [Ayres 1969], et même des probabilités. À la fin des années 1960, à l̓ Institute for the Future, T. Gordon a développé la méthode des « impacts croisés » sous la forme de matrices de co-occurrence d é̓vénements assorties de leurs probabilités de réalisation et d i̓nteraction, chiffrées par une simulation de Monte-Carlo, et cette table permet de tester la sensibilité des événements futurs aux politiques. En France Michel Godet a développé sur cette base la méthode SMIC et l̓ a implantée dans un logiciel « Prob-Expert » permettant de classer des scénarios par probabilité décroissante [Godet, 1985 ; Lesourne, 1990]. Mais beaucoup de prospectivistes rejettent ces probabilisations.

Les valeurs au fondement des scénarios

Pierre Massé [1965], ingénieur dʼÉtat attaché aux éthiques chrétienne et républicaine, donnait déjà une place importante à la notion de valeur dans son essai sur le Plan. « Le progrès dʼune civilisation est avant tout l̓ enrichissement de ses valeurs […]. Dans un exercice de planification, on tend vers des fins et on affirme des valeurs. Les unes ouvrent des voies, les autres proposent des limites […] Nous devons savoir ce que nous voulons préserver coûte que coûte. Les

Page 78: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

79LES ÉCONOMISTES FACE AU LONG TERME…

valeurs ne peuvent être qu a̓bsolues. » Dans une tradition voisine, J. Lesourne ne se contente pas, dans Interfuturs, de placer les phénomènes sociaux et politiques sur le même plan que les mécanismes économiques, il affirme que le choix des valeurs est un fondement du design des scénarios. « Il ne peut être question de postuler une quelconque constance des valeurs, car celles-ci se transformeront plus ou moins rapidement, avec plus ou moins de conflit, en liaison avec l̓ évolution et la composition des groupes sociaux significatifs » [OCDE, 1979, p. 5]. Les scénarios dʼInterfuturs reposent donc sur le choix simultané dʼune hypothèse de croissance et dʼune hypothèse d é̓volution des valeurs. Les valeurs jouent le rôle d i̓ntermédiaire entre l̓ expérience acquise dans le passé et les choix à faire dans le présent. Elles induisent des demandes et des comportements. Les changements de valeurs peuvent se produire en surface et orienter la demande de biens et services ou en profondeur et altérer des priorités (« par exemple entre sécurité et pouvoir »), voire des conceptions fondamentales de l̓ existence (religion, art, rapport à la nature, à l̓ autorité…). L̓équipe dʼInterfuturs a mobilisé des résultats d e̓nquêtes sociologiques pour prendre en compte ces changements de valeurs, et en particulier les attentes « post-matérialistes » qui diffusent dans les sociétés depuis 1968 mais qui sont en partie rejetées par « le centre majoritaire », ce qui conduit à des risques de fragmentation du consensus traduits dans les scénarios B2 et B3. Le rapport imagine, même dans le cas du scénario A de forte croissance, un freinage possible de la croissance provoqué par des facteurs sociaux et politiques. « La transformation des valeurs ne met pas seulement en cause la légitimité de la croissance, elle renforce les freins de sa réalisation » [OCDE, 1979, p. 139].

Dans les scénarios exploratoires – et ceux dʼInterfuturs sont encore de ce type – il est possible d i̓maginer des évolutions de valeurs, mais plus difficile d e̓nvisager des ruptures. Il y a donc un risque important de conservatisme dans la projection. Les scénarios de Kahn en sont un exemple flagrant pour les Canadiens. Dans les scénarios d a̓nticipation, c e̓st encore plus difficile d i̓ma-giner les systèmes de valeurs dominants et dominés des sociétés prises comme cibles. « Il faut se contenter de déterminer une configuration de valeurs qui soit cohérente avec le type de société qu o̓n veut construire », disent les chercheurs de l̓ INRS. Le scénario traduira alors les comportements associés à cette confi-guration, mais il servira aussi d i̓nstrument de simulation et d e̓xpérimentation des valeurs. Car celles-ci fondent le modèle de décision qui accompagne un plan d a̓ction. Elles déterminent des fins, des objectifs, des résultats et des conséquences. Mais ces résultats rétroagissent à leur tour sur les valeurs.

Scénario et modèle : Worldscan et Scanning the Future (CPB)

Lʼalternative entre utilisation de modèles et utilisation de scénarios est un poncif du débat sur la méthode prospective. Les Canadiens de lʼINRS,

Page 79: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR80

soulignent que « le modèle nʼa pas connu une grande faveur en prospective » parce que, disent-ils, « en lʼabsence de base théorique valable pour choisir le sous-ensemble de propriétés structurelles du système […] le modèle est inefficace et source dʼerreur ». Plus encore, le modèle mathématique est beau-coup trop lié à un usage de prévision rigide avec lequel il faut rompre, et il ne permet pas dʼintégrer les dimensions stratégiques et volontaires (valeurs, jeux dʼacteurs, objectifs) dʼune vision prospective. Des auteurs, reprenant une opposition classique entre approche « humaniste » et méthode scientifique, considèrent que la méthode des scénarios est un bon compromis entre le modèle et lʼimage, ou encore, comme on le dit aujourdʼhui, entre le modèle et le récit [Grenier, Grignon et Menger, 2001]. Cette opposition sʼest muée en une complémentarité dès lors quʼon sʼest convaincu que la modélisation macroéconomique se révélait incontournable dans la phase de déroulement des scénarios. Nous avons vu que le VIe Plan (1971-1976) a pour la première fois utilisé un modèle, Fifi, qui avait posé quelques problèmes. En 1979, Michel Albert, nouveau commissaire en charge du VIIIe Plan, est encore interpellé par les conclusions des simulations du modèle macroéconomique dynamique multisectoriel (DMS) qui conduisent toutes à une forte aggrava-tion du chômage dʼici 1985. Il décide dʼengager une étude complémentaire à base de scénarios pour illustrer le cheminement du marché de lʼemploi et des politiques à suivre en la matière. Le rôle du modèle est alors dʼexplorer des variantes analytiques du scénario de référence (on en a exploré plus de 90) en jouant sur une seule variable de commande à la fois (taux des cotisations sociales, barème de lʼimpôt, investissement des administrations publiques…). Les scénarios apparaissent alors comme des combinaisons de variantes. Ici lʼinterpénétration des deux méthodes est forte puisque les variantes du scénario de référence forment la matrice des scénarios contrastés.

En 1979, lʼéquipe de J. Lesourne a utilisé SARUM (System Analysis Research Unit Model), un modèle néoclassique mondial à 10 secteurs et 12 régions, élaboré au Royaume-Uni par le département de lʼEnvironnement, mais uniquement dans la seconde phase, cʼest-à-dire pour réaliser des projec-tions macroéconomiques quantitatives, à lʼintérieur de scénarios prédéterminés par une analyse qualitative, et fournir pour chacun dʼeux des images finales et des cheminements macroéconomiques plus précis.

Lʼexpérience plus récente du Central Planning Bureau (CPB) va nous permettre dʼexplorer une autre articulation possible entre modèle et scénarios. Scanning the Future [CPB, 1992] est une étude prospective à horizon 2015 (25 ans) de lʼéconomie mondiale qui a pour objectifs de stimuler le débat public et de fournir les éléments dʼétudes sectorielles ou régionales. L̓ étude sʼannonce comme une tentative de combiner lʼapproche orientée modèle avec la méthode des scénarios. Curieusement, la publication de cette étude ne fait

Page 80: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

81LES ÉCONOMISTES FACE AU LONG TERME…

aucune référence à lʼutilisation dʼun modèle. Mais le site du CPB16 donne accès cependant à lʼinformation complète sur Worldscan, le modèle développé pour cette étude. Cʼest un modèle dʼéquilibre général dynamique prévu pour construire des scénarios de long terme et produire des analyses politiques. Dans sa version de base, il permet dʼanalyser des changements structurels sur plusieurs décades, selon un découpage en 12 régions et 7 secteurs17. Timmer [1998], un de ses auteurs, reconnaît que lʼutilisation dʼun modèle pour la confection de scénarios offre quelques inconvénients comme une certaine rigidité et une tendance à lʼextrapolation abusive que renforce son calibrage sur une base de données commune à tous les modèles de ce type18. Mais on peut compenser ces inconvénients en rajoutant des caractéristiques externes aux scénarios, ou en les multipliant sur la base de différents paramètres. Dès lors lʼapproche par les modèles donne les moyens de construire des scénarios consistants dʼun point de vue comptable et théorique.

Scanning the Future sʼétait posé trois questions principales qui sont les suivantes : quelles sont 1° les driving forces qui mènent le monde, 2° la situation géopolitique présente des différentes régions, 3° les tendances de long terme ? Pour y répondre, lʼéquipe du CPB a construit quatre scénarios sur la base de « perspectives ». Ces perspectives sont des représentations de lʼéconomie mondiale selon trois configurations de facteurs – les driving forces, ou encore trois principes organisateurs, qui correspondent en gros à trois écoles de la pensée économique :

— « équilibre » (E) est une économie dʼhommes rationnels, basée sur un mécanisme de prix qui fonctionne ; lʼÉtat nʼa pas dʼautre fonction que régalienne ; cʼest le credo néoclassique, le règne de la raison ;

— « coordination » (C) est une économie dʼhommes coopératifs qui ont une information imparfaite et un avenir incertain ; cette économie est fortement régulée par un État-providence qui intervient sur le marché du travail, lʼéducation et la recherche, et qui coopère avec le patronat et les salariés pour contrer les cycles – Keynes nʼest pas loin ; cʼest le règne de lʼÉtat tout-puissant ;

16. Le CPB fut sous la direction de Tinbergen un bureau de planification, mais nʼest plus quʼun institut de recherche indépendant dont le nom complet est Netherland Bureau of Economic Analysis. « Le Bureau ne planifie pas lʼéconomie hollandaise. Ce serait naturellement déplacé dans une économie de marché telle que celle des Pays-Bas. »

17. Worldscan est construit à partir dʼune approche néoclassique de la croissance et du commerce international, sur la base dʼune fonction de production qui intègre deux facteurs travail (low and high-skilled), et dʼune spécification du commerce de type Armington pour le moyen terme et Heckscher-Ohlin pour le long terme.

18. En lʼoccurrence, il sʼagit de la base de comptabilité sociale du Global Trade Analysis Project de la Purdue University sur laquelle sʼappuient de nombreux modèles de type « équilibre général calculable » de la Banque mondiale.

Page 81: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR82

— free-market (M) est une économie dʼentrepreneurs en compétition ayant aussi une information imparfaite, mais qui dynamisent lʼéconomie de marché par leur créativité dans un cadre fixé par le système des droits de propriété ; on aura reconnu lʼinfluence de lʼécole autrichienne (Hayek, Schumpeter) et le règne du marché.

Chacune de ces perspectives est une sorte de forme pure de lʼéconomie quʼincarnent plus ou moins bien les différentes régions, les États-Unis relevant du modèle M, le Japon et lʼAsie dynamique dʼun mixte E-C et lʼEurope du modèle C.

FIGURE 1. – LES TROIS DÉMARCHES CONSTITUTIVES DES SCÉNARIOS

Source : CPB [1992].

Les scénarios résultent de lʼassemblage de trois démarches : à gauche sur le schéma, une analyse des forces de chaque région en 1990, qui se résume par une sorte de palmarès selon les 12 facteurs identifiés précédemment ; à droite, les challenges et tendances que lʼon peut identifier, grâce aux simulations du modèle, sur les 9 sous-systèmes qui se trouvent listés ; au centre, le jeu des 12 facteurs sur les trois grandes « perspectives » qui forme un « cercle de la prospérité ». Chacun de ces scénarios, donnés comme également plausibles, est alors lʼobjet dʼune dénomination et dʼun récit :

— Global Shift décrit un développement rapide et général tiré par lʼAmé-rique et le Japon grâce aux changements technologiques ; lʼEurope, « freinée

Page 82: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

83LES ÉCONOMISTES FACE AU LONG TERME…

par ses biais en faveur de la sécurité, de la stabilité, et lʼaversion du risque », reste à la traîne, moins que lʼAfrique et lʼEurope de lʼEst cependant ;

— European Renaissance est un scénario de réussite de la construction européenne et du modèle de coordination ; aux dépens de lʼAmérique qui sʼenfonce dans le déficit et le protectionnisme ;

— pour Global Crisis, le déclin atteint à la fois lʼEurope, le Japon et les États-Unis ; le monde dégénère en un conflit de blocs protectionnistes, voire nationalistes en Europe de lʼEst ; lʼAfrique et lʼAsie ne décollent pas, la famine gagne du terrain ;

— Balanced Growth est une success story dans laquelle le développement durable se combine avec une forte dynamique technologique pour offrir une croissance moyenne de plus de 3 % ; dominent à la fois la coordination et le marché ; les émissions de CO2 sont maîtrisées et descendent à 25 % de leur niveau de 1990.

La méthodologie de Scanning the Future et le modèle Worldscan qui en est le moteur caché ont servi de prototype à plusieurs études ultérieures, notam-ment une projection à 2020 de lʼOCDE pour lʼéconomie mondiale [OCDE, 1997], une projection de lʼEurope à 2040 [Lejour, 2003] et des études du GIEC, mobilisant de concert les équipes du CPB et celles du RIVM (lʼInstitut national de la santé publique et de lʼenvironnement, un autre laboratoire hollandais).

LES SCÉNARIOS SRES DU GIEC

Revenons maintenant au changement climatique. Le GIEC a utilisé des scénarios dʼémission à long terme peu de temps après sa fondation, dès 1990 et 1992 (IS92a devint le scénario de référence). Leur évaluation en 1995 conduisit à la mise en chantier dʼune batterie de nouveaux scénarios pour évaluer les conséquences des émissions de gaz à effet de serre, mais aussi les politiques alternatives de réduction ou dʼadaptation à leur opposer. Tout cela sʼinscrivant dans la préparation du IIIe Rapport du GIEC. La commande passée à une équipe de 50 membres provenant de 17 pays et diverses disciplines était de produire des scénarios à un horizon 2100, capables de prendre en charge plusieurs gaz à effet de serre, ayant une résolution spatiale suffisante, une couverture large des différents futurs possibles et des différentes politiques imaginables, un appui sur une grande variété de modèles, de données et dʼexpertises pluridisciplinai-res. Les scénarios devaient être transparents, cohérents et reproductibles. Dès 1998, les nouveaux scénarios sont diffusés aux chercheurs pour leur permettre de les implanter dans leurs modèles. Cependant ils ne seront validés quʼen mars 2000 par le Workgroup III et publiés la même année sous la forme dʼun Special Report on Emissions Scenarios (SRES) [GIEC, 2000].

Page 83: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR84

Les éditeurs et pilotes de cette étude sont Nebojsa Nakicenovic de lʼIIASA et Robert Swart, responsable du Workgroup III au GIEC. On y trouve aussi Tom Kram, de Vries, Alcamo… La filiation avec les travaux de lʼIIASA et des laboratoires néerlandais (CPB, RIVM) est forte. Un scénario représente « la variété des facteurs dʼémission et de leurs conséquences ». Concrètement, ces facteurs sont principalement la pression démographique, le développement économique et social, et le changement technologique. Les scénarios ont une double face : ils peuvent se traduire en spécifications particulières dʼun modèle, mais ils ont aussi une forme qualitative (narrative storyline) proche de lʼimage ou du récit, qui en restitue la cohérence et aide à sa diffusion, à sa compréhension et à son usage rhétorique.

Les rédacteurs du SRES ont produit une quarantaine de scénarios qu i̓ls ont agrégés en 4 familles, une famille étant l̓ ensemble de toutes les déclinaisons numériques ou interprétatives dʼune storyline. Ces 4 scénarios types ou familles correspondent aux cases du tableau ci-dessous, formé sur deux dimensions : la durabilité (sustainability) du développement et son intégration (ou conver-gence) plus ou moins forte. A1 et B1 sont des scénarios de croissance forte et de faible poussée démographique, mais se distinguent par leur consommation de ressources énergétiques (respectivement forte et faible), par l̓ évolution de l̓ utilisation des terres (respectivement faible croissance, forte décroissance) et par le degré de transition vers l̓ immatériel (respectivement faible et fort). A2 et B2 sont des scénarios de croissance modérée, hétérogène et d a̓ssez forte croissance démographique, mais se distinguent par leur consommation d é̓nergie (respectivement très forte et moyenne intensité énergétique) et la vitesse du changement technique (faible et moyen). A1 a été lui-même éclaté en 3 scénarios distincts par leurs choix de filières énergétiques.

TABLEAU 2. – LES QUATRE SCÉNARIOS TYPES DU SRES

La quantification de ces scénarios s̓ est appuyée sur des modèles dont la tradition est à rattacher aux travaux menés dans les années 1980 à l̓ IIASA sur la notion d é̓valuation intégrée [Matarasso, 2003 ; Kieken, 2003], qui ne concerne plus seulement un système nature-société, mais aussi des enjeux, des éléments de décision ou d e̓xpertise, des procédures de gestion. Six modèles intégrés différents19, déployés différemment sur quatre macrorégions, ont

19. Il sʼagit dʼAIM (Japon), ASF (USA), IMAGE (Pays-Bas), MARIA (Japon), MESSAGE (IIASA), MiniCAM (USA).

Ouverture et convergence

Durabilité du développementFaible

(régional)Forte

(global)

Faible (dominance économique) A2 A1

Forte (dominance social/environnement) B2 B1

Page 84: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

85LES ÉCONOMISTES FACE AU LONG TERME…

fourni le chiffrage des scénarios. Même après harmonisation et ajustement de leurs paramètres, les modélisateurs ont conservé une diversité dans leur interprétation des storylines qui s̓ est traduite par une variabilité de résultats pour la même storyline. C e̓st ce couplage des deux incertitudes, celle des différents scénarios et, pour chacun d e̓ux, celle des différents modèles, qui a produit la grande dispersion des émissions prévues pour 2100.

Les scénarios SRES sont fortement marqués par la culture du scénario issue des travaux de prospective, mais aussi par la modélisation intégrée qui les a accompagnés. Un modèle intégré est construit autour dʼun modèle économique et il intègre une version simplifiée du système physique, sous la forme de différents sous-modèles atmosphériques, océaniques, biologiques. Les rétroactions entre ces sous-systèmes donnent lieu à des couplages de modules assez délicats.

FIGURE 2. – ARCHITECTURE DU MODÈLE IMAGE 2.2

Le modèle IMAGE illustre parfaitement ces caractéristiques majeures des modèles intégrés. Cʼest une création du laboratoire hollandais RIVM dont la première version date de 1990. On y retrouve plusieurs des caractéristiques

Source : RIVM [2001].

Page 85: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR86

de World 3. Mais il a également reçu des apports de lʼIIASA de Vienne. Il sʼorganise autour dʼun module de croissance démographique (Phoenix) et dʼun module de croissance économique qui nʼest autre que Worldscan. Ces deux modules déterminent les entrées dʼun second ensemble de modules sur la couverture végétale, lʼagriculture et le secteur énergétique (TIMER) qui, à leur tour, déterminent les émissions de carbone dans les trois sous-systèmes que constituent lʼatmosphère, lʼocéan et la surface terrestre. Chacun de ces milieux voit ses concentrations en carbone changer et modifier le climat par le biais dʼun modèle à maillage géographique. Il en résulte des impacts sur les systèmes naturels terrestres et océaniques qui modifient en retour la couver-ture végétale et lʼéconomie agricole et énergétique. Des données historiques de long terme (1765-1995) ont permis dʼinitialiser le cycle du carbone et le système climatique.

IMAGE 2.2 a été reconfiguré pour lʼétude des scénarios du SRES. Pour chacun dʼeux, IMAGE 2.2 fournit un état des hypothèses qui ont été faites sur les facteurs dʼémission et les paramètres qui y sont associés. Les sorties du logiciel de simulation sont des écrans dʼindicateurs numériques orga-nisés en quatre groupes : facteurs économiques et écologiques de pression sur lʼenvironnement (Pressure), état de lʼatmosphère, de la biosphère et des ressources (State), impacts économiques et écologiques résultant des perturbations climatiques (Impact) et réponse du système (Response). IMAGE se veut un instrument de simulation flexible et rapide au service des décideurs et des négociateurs, comme en témoignent ses interfaces graphiques particulièrement soignées et directement utilisables dans des démonstrations, des opérations de communication et des négociations publiques [Alcamo, 1994 ; Rotmans et de Vries, 1997].

CONCLUSION

Nous sommes partis de la nécessité pour les économistes de se confronter à des raisonnements de long terme assez nouveaux dès lors quʼils abordaient les questions de changement climatique, et nous y revenons après un long détour pour constater quʼils ont maintenant pris toute leur place dans le concert de scientifiques au chevet de notre planète Terre. Leur rôle dans la construction des scénarios SRES a été déterminant dans le formatage des simulations dʼémissions qui ont alimenté les débats sur les politiques de réduction des gaz à effet de serre. Or la méthodologie de construction de ces scénarios est dans la droite ligne de celle que les économistes ont mobilisée dans les années 1970-1980 pour des projections économiques à long terme à lʼéchelle régionale ou mondiale.

Page 86: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

87LES ÉCONOMISTES FACE AU LONG TERME…

Tout au long de ce détour, nous avons souligné quelques résultats intéres-sants que lʼon peut récapituler en sept points.

1. Les historiens du temps long ont été dʼun faible recours pour aider les économistes à penser le long terme parce quʼil leur a manqué le besoin dʼinverser la flèche du temps et plus encore le souci praxéologique dʼagir sur le futur.

2. Bien davantage que lʼirruption de la conjoncture entre les deux guerres, et que celle de la prévision dans les années 1950 et 1960, quʼelle soit à base de comptes ou à base de modèles macroéconomiques, cʼest lʼexpérience de la planification indicatrice à moyen terme qui fut la plus riche dʼenseignements pour des exercices de plus long terme. On en a la preuve par le nombre de méthodes, de concepts et de personnes qui ont franchi la mince cloison entre planification et prospective.

3. La prospective est dans ses principes lʼapproche qui convient le mieux à une projection dans le futur, dès lors quʼon la caractérise au moins par les trois propriétés minimales suivantes : le long terme, le volontarisme et la pluralité des futurs à considérer.

4. Le corpus méthodologique de la méthode prospective sʼarticule autour de la notion de scénario. Il y a une vraie continuité de cette nécessité tout au long des expériences. La méthode des scénarios est la seule qui permette de se tenir à distance des deux erreurs symétriques du fatalisme et de lʼoptimisme technologiques. Elle combine nécessité et volonté. Elle assure une cohérence diachronique et synchronique aux différents éléments du système. Mais elle nʼest pas standardisée (on en a exploré bien des formules) et moins encore formalisée.

5. La modélisation éliminée dans un premier temps par le scénario comme trop rigide a fait un retour en force, non pas comme substitut mais comme complément du scénario. Lʼarticulation modèle-scénario est complexe et circulaire, puisque, dʼun côté, les scénarios comme storylines assemblant des hypothèses sont formulés sur la base des résultats de simulations de modèles économiques et, de lʼautre, ces scénarios servent de cadrage à toutes les nou-velles modélisations des émissions. L̓ un portant lʼautre et vice versa.

6. La question des valeurs, exclue a priori de la science « objective », reprend tous ses droits et son importance dans un exercice de prospective puisquʼon a vu combien les jugements de valeur étaient présents dans le découpage de la réalité opéré par les scénarios, selon des visions antagonistes de lʼéconomie comme le libéralisme et le protectionnisme, le marché et lʼÉtat, ou bien encore la croissance illimitée et le développement durable, lʼesprit dʼentreprise et la solidarité. Les valeurs fondent les comportements sociaux quotidiens, mais aussi des conceptions plus profondes sur la réalité des sociétés humaines. Certains des constructeurs de scénarios se réfèrent par exemple au culturalisme, pour asseoir les différents mondes que représentent leurs stories.

Page 87: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR88

De Vries [2001] interprète lʼincertitude du futur en termes de dominance de certaines configurations de valeurs dʼorigine culturelle. Les trois catégories dʼindividu quʼil décrit – individualist, hierarchist, egalitarian – induisent différentes visions des rapports homme-nature, individu-société, différentes approches des forces motrices du changement et différentes attitudes vis-à-vis des besoins, du risque, de la violence… Or les configurations de valeurs quʼils représentent et leurs rapports de forces seront tout aussi importants pour le débat qui sʼengage aujourdʼhui sur ce quʼil faut faire – réduction ou adaptation – que pour le succès des actions quʼil faudra engager demain.

7. Le rapport des études prospectives – supportées par le couple modèle-scénario – avec la décision politique est loin dʼavoir été envisagé dans toute sa complexité. Que doit-on transmettre comme information au politique ? Les auteurs de lʼétude du CPB rappellent par exemple quʼune étude prospective ne fait aucune prévision (et donc quʼelle ne peut pas se tromper sur les chiffres puisque ceux-ci nʼont quʼune valeur indicative et qualitative). Du coup les exercices de « rétroprospective » pour évaluer une étude perdent leur sens. Ils montrent que, loin dʼêtre toujours évidentes, les projections peuvent révéler un certain nombre de surprises. Ils mettent en garde les politiques contre le choix dʼun seul scénario, qui ne saurait fonder des décisions correctes. Ils rappellent que certaines de ces politiques dites « sans regret » sont valides dans tous les scénarios, tandis que dʼautres doivent être à coup sûr abandonnées. Mais la plupart des politiques restent dépendantes des scénarios, et relèvent dʼun choix stratégique y compris quant au moment de leur déclenchement. Une bonne étude prospective serait-elle donc simplement une étude qui donne à réfléchir ? Cʼest évidemment insuffisant. Fournir aux politiques les moyens dʼune réduction des incertitudes quant aux conséquences de la décision, cʼest déjà bien mieux. Le faire de manière conditionnelle, en se rapportant à un choix de valeurs, cʼest sans doute réhabiliter la politique.

RÉFÉRENCES BIBLIOGRAPHIQUES

ALCAMO J. (dir.) (1994), IMAGE 2.0 : Integrated Modeling of Global Climate Change, Kluwers Academic Publishers, Dordrecht.

ARMATTE M. (1992), « Conjonctions, conjoncture et conjecture. Les baromètres économiques », Histoire et mesure, vol. VII, n° 1-2, p. 99-149.

– (2004), « Les sciences économiques reconfigurées par la pax americana », dans DAHAN A. et PESTRE D. (dir.), Les Sciences pour la guerre, 1940-1960, Presses de lʼEHESS, Paris, p. 129-174.

– (2005a), « Economical models of climate change : the costs and advantages of integration », dans FREGUGLIA P. (dir.), The Sciences of Complexity : Chimera or Reality ?, Esculapuio, Bologne, p. 51-71.

– (2005b), « La notion de modèle dans les sciences sociales : anciennes et nouvelles significations », Mathématiques et sciences humaines, n° 172, p. 91-123.

Page 88: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

89LES ÉCONOMISTES FACE AU LONG TERME…

ARMATTE M. et DESROSIÈRES A. (2000), « Méthodes mathématiques et statistiques en économie : nouvelles questions sur dʼanciennes querelles », dans BEAUD J.-P. et PREVOST J. G. (dir.), L’Ère du chiffre. Systèmes statistiques et traditions nationales, Presses universitaires du Québec, Montréal, p. 431-481.

ARTUS P., DELEAU M. et MALGRANGE P. (1986), Modélisation macroéconomique, Economica, Paris.

ATTALI J. (1999), Histoires du temps, LGP, Paris.AYRES R. U. (1969), Technological Forecasting and Long-Range Planning, McGraw-Hill,

New York.BAREL Y. (1971), « Prospective et analyse des systèmes », Travaux et recherches de prospective,

n° 14, note bibliographique sur le site de lʼex-DATAR, devenue la DIACT (Délégation interministérielle à lʼaménagement et à la compétitivité des territoires) : www.diact.gouv.fr/datar_site/datar_prospective.nsf).

BERGER G. (1964), Phénoménologie du temps et prospective, PUF, Paris.BERNARD Y. et COSSÉ P.-Y. (1974), L’État et la prévision macroéconomique, Berger-Levrault,

Paris.BRAUDEL F. (1999), Les Ambitions de l’histoire, LGF, Paris.CAZES B. (1986), L’Histoire des futurs. Les figures de l’avenir de saint Augustin au XXIe siècle,

Seghers, Paris.CAZES B. et MIOCHE P. (1990), Modernisation ou décadence. Contribution à l’histoire du Plan

Monnet et de la planification, Presses universitaires de Provence, Aix-en-Provence.CENTRAL PLANNING BUREAU (CPB) (1992), Scanning the Future. A Long-Term Scenario Study

of the World Economy 1990-2015, Central Planning Bureau, La Haye.COMMISSARIAT GÉNÉRAL DU PLAN (2004), « La méthode des scénarios, outil dʼune démarche

prospective », Les Dossiers d’Aleph, n° 1, p. 1-16.– (1999), Worldscan – the Core Version, http://www.cpb.nl/eng/pub/cpbreeksen/

bijzonder/20/DE JOUVENEL B., 1964, L’Art de la conjecture, Sedeis, Paris.DE VRIES H. (2001), « Objective science ? The case of climate change models », dans GOUJON

P. H. et DUBREUIL B. H. (dir.), Technology and Ethics. A European Quest for Responsible Engineering, Peeters, Louvain.

DÉLÉGATION À LʼAMÉNAGEMENT DU TERRITOIRE (DATAR) (1971), « Scénario de lʼinacceptable. Une image de la France en lʼan 2000 », Travaux et recherches de prospective, n° 30, site de lʼex-DATAR.

DESROSIÈRES A. (1999), « La commission et lʼéquation : une comparaison entre les Plans français et néerlandais entre 1945 et 1980 », Genèses, n° 34, mars, p. 28-52.

DOSSE F. (1987), L’Histoire en miettes. Des Annales à la nouvelle histoire, La Découverte, Paris.

FOURQUET F. (1980), Les Comptes de la puissance. Histoire de la comptabilité nationale et du Plan, Éditions Encres Recherches, Paris.

GAUDIN T. (1993), 2100, Odyssée de l’espèce, http://2100.org/OdysseeEspece.pdfGODET M. (1985), Prospective et planification stratégique, Economica, Paris.GRENIER J.-Y. (1995), « L̓ analyse économique et le temps en histoire », Cahiers de l’ISMEA,

« Économie historique (1). La longue période ».GRENIER J.-Y., GRIGNON CL. et MENGER P.-M. (dir.) (2001), Le Modèle et le récit, Éditions de

la MSH, Paris.GROUPE DʼEXPERTS INTERGOUVERNEMENTAL SUR LʼÉVOLUTION DU CLIMAT (GIEC) (2001),

Changements climatiques 2001, rapport de synthèse.

Page 89: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR90

– (2000), Special Report on Emissions Scenarios (SRES), http://www.grida.no/climate/ipcc/emission/index.htm

GUELLEC D. et RALLE P. (1996), Les Nouvelles Théories de la croissance, La Découverte, Paris.

HATEM F. (1993), La Prospective. Pratiques et méthodes, Economica, Paris.JULIEN P-A., LAMONDE P. et LATOUCHE D. (1975), « La méthode des scénarios, une réflexion

sur la démarche et la théorie en prospective », Travaux et recherche en prospective, n° 59, La Documentation française (article et note de synthèse sur le site de lʼex-DATAR), Paris.

KIEKEN H. (2003), « Genèse et limites des modèles dʼévaluation intégrée », Annales des Ponts et Chaussées, Paris.

LEJOUR A. (2003), Quantifying Four Scenarios for Europe, CPB, document n° 38, octobre.LESOURNE J. (1990), « Prospective », dans GREFFE X., MAIRESSE J. et REIFFERS J.-L. (dir.),

Encyclopédie économique, tome 1, Economica, Paris, p. 178-213.– (2004), interview par Stéphane Cordobes et Philippe Durance, dans Les Entretiens de la

mémoire de la prospective, site du LIPSOR.MASSÉ P. (1965), Le Plan ou l’anti-hasard, Gallimard, Paris (réédité en 1991 chez

Hermann).MATARASSO P. (2003), « Integrated assessment models of global change », Encyclopedia of

Global Change, 5 volumes, John Wiley, New York.MEADOWS D. et alii (1972), Halte à la croissance ! (1. « Le Club de Rome » par Janine

Delaunay, 2. « Rapport sur les limites de la croissance »), trad. Jacques Delaunay, Fayard, Paris.

MERMET L. (2005), « Des récits pour raisonner lʼavenir. Quels fondements théoriques pour la méthode des scénarios ? », dans MERMET L. (dir.), Étudier les écologies futures. Un chantier ouvert pour les recherches prospectives environnementales, PIE-Peter Lang, Bruxelles.

OCDE (1979), Interfuturs. Face aux futurs, OCDE, Paris.– (1997), The World in 2020, towards a New Global Age, OCDE, Paris.POUX X. (2005), « Fonction, construction, évaluation des scénarios prospectifs », dans MERMET

L. (dir.), Étudier les écologies futures. Un chantier ouvert pour les recherches prospectives environnementales, PIE-Peter Lang, Bruxelles.

ROTMANS J. et DE VRIES B. (1997), Perspectives on Global Change, Cambridge University Press, Cambridge.

SERUZIER M. (1988), Construire les comptes de la nation, Éditions du ministère de la Coopération, Paris.

TIMMER H. (1998), Worldscan. A World Model for Long-Term Scenario Analysis, rapport CPB.

VANOLI A. (2002), Une histoire de la comptabilité nationale, La Découverte-Syros, Paris.VOVELLE M. (1978), « Lʼhistoire de la longue durée », dans LE GOFF J. (dir.), La Nouvelle

Histoire, éditions Complexes, Bruxelles.WACK P. (1986), « La planification par scénarios », Futuribles, n° 99, p. 3-26.WALERY S. (1987), Essai d’analyse de mouvements économiques de longue durée, thèse de

doctorat de sciences économiques soutenue à lʼuniversité Paris-Dauphine sous la direction de Mme Jeanne Mary Parly (jury : Jacques Attali, Jean-Hervé Lorenzi, Jean-Claude Coquet).

Page 90: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

INTRODUCTION 91

II.

L’alerte climatique, la gouvernance mondiale du régime climatique

Page 91: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

4

Les modèles numériques de climat

Hélène Guillemot

Seuls instruments capables de nous projeter vers lʼavenir du climat de notre planète, les modèles numériques sont au centre de la question du changement climatique. Cʼest en sʼappuyant sur leurs simulations quʼà la fin des années 1980, des climatologues ont alerté le public et les politiques sur le risque de réchauffement global. Depuis lors, les différents modèles numériques de cli-mat (il en existe aujourdʼhui une vingtaine à travers le monde, dont deux en France1) constituent la pièce maîtresse de lʼexpertise climatique et fournissent périodiquement, pour les volumineux rapports du Groupe dʼexperts intergou-vernemental sur lʼévolution du climat (GIEC), des projections de climats futurs sur la base de différents scénarios dʼémission de gaz à effet de serre.

Ces prévisions – ou plutôt les chiffres qui en constituent le résumé emblé-matique, cʼest-à-dire la fourchette des hausses de la température moyenne à la surface du globe prévues pour la fin du XXIe siècle – sont amplement diffusées par les médias. Ainsi, les modèles numériques de climat sont devenus des objets de controverse sur le changement climatique et sont soumis au feu des critiques, qui préfèrent souvent se porter sur les aspects scientifiques plutôt que sur les enjeux politiques du problème. Les modèles suscitent étonnement et méfiance. Peut-on prétendre calculer lʼavenir, fût-ce au moyen de programmes énormes, tournant sur les ordinateurs les plus puissants ? Peut-on vraiment fonder des décisions économiques et politiques majeures sur les projections à long terme de modèles numériques ?

Les modèles de climat sont apparus trente ans avant la question du chan-gement climatique, mais celle-ci leur a donné une importance et une visibilité nouvelles, et a contribué à leur évolution. Dans ce chapitre, nous chercherons à éclairer lʼhistoire des modèles ainsi que les pratiques de modélisation. Après

1. L̓ un est développé depuis le début des années 1970 au Laboratoire de météorologie dynamique (LMD), qui dépend du CNRS, et lʼautre à Météo France, en relation avec le modèle de prévision opérationnel.

Page 92: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR94

un retour sur les débuts de la modélisation climatique (étroitement liés à la prévision météorologique) et un rapide survol de lʼévolution des idées sur le climat, on évoquera quelques-unes des activités principales des modélisateurs, liées à la construction et à lʼutilisation de leurs modèles. Nous aborderons ensuite les mutations des années 1990 et 2000 qui voient les modèles de climat devenir ceux du « système Terre », cʼest-à-dire se coupler avec des modèles océaniques ou de sols, intégrer toujours plus de milieux et dʼinteractions pour répondre aux défis posés par lʼétude du réchauffement global. En dépit de certaines incertitudes parfois difficiles à réduire ou dʼautres qui surgissent en même temps que sʼaccroît la complexité des modèles, la modélisation fournit des résultats stables, cohérents et de plus en plus robustes sur les climats futurs. Depuis plusieurs années déjà, la communauté des climatolo-gues est ainsi parvenue à un consensus scientifique pratiquement général qui sʼexprime, incertitudes comprises, dans les rapports du GIEC. Pour elle, la réalité du changement climatique ne fait plus de doute et les modèles per-mettent dʼappréhender lʼampleur possible du bouleversement et certaines de ses manifestations.

LES DÉBUTS DE LA MODÉLISATION CLIMATIQUE

Les premiers modèles de circulation de l’atmosphère

La modélisation numérique du climat est née juste après la Seconde Guerre mondiale, comme la prévision numérique du temps et comme lʼordinateur. La climatologie, de même que la météorologie, compte parmi les sciences entièrement transformées par le calcul numérique – même si une grande part des concepts, des théories et des mécanismes de la météorologie ou de la physique atmosphérique ont été inventés ou décrits avant le recours à lʼordinateur. La prévision numérique du temps a, elle aussi, été conçue bien avant la construction des premiers calculateurs : au tout début du XXe siècle, le physicien norvégien Vilhelm Bjerknes ambitionne de fonder la prévision du temps sur la théorie physique et les observations, en calculant lʼévolution dʼune situation météorologique à partir des données dʼobservation de la situation antérieure grâce aux lois gouvernant la dynamique de lʼatmosphère. Poursuivant ce projet, le Britannique Lewis Fry Richardson formule en 1922 un système de sept équations décrivant les mouvements de lʼatmosphère, basées sur des lois et principes fondamentaux de la dynamique des fluides. Mais il montre aussi que si lʼon voulait, à partir de ses équations, calculer le temps quʼil fera à la même vitesse que lʼévolution atmosphérique, en suppo-sant un maillage du globe en carrés de 200 km de côté, un « orchestre » de 64 000 hommes entraînés au calcul et bien organisés serait nécessaire pour

Page 93: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

95LES MODÈLES NUMÉRIQUES DE CLIMAT

donner une prédiction toutes les trois heures ! Quelques décennies plus tard, le programme de Bjerknes sera réalisé, en utilisant les équations formulées par Richardson – grâce à un calculateur électronique.

Dès 1945, le grand mathématicien John von Neumann voit dans la météo-rologie un domaine dʼapplication idéal pour les tout nouveaux calculateurs : la météorologie pose des problèmes de dynamique des fluides non linéaires et insolubles analytiquement, elle exige une grande puissance de calcul – et son importance pratique et stratégique nʼest plus à démontrer. De plus, le développement rapide, durant la guerre, des réseaux dʼobservation en alti-tude et des moyens de télécommunication assure le flux de données néces-saire à lʼétablissement des prévisions. Sous lʼimpulsion de von Neumann, le Meteorological Project est lancé en 1946, à Princeton, en relation étroite avec la construction du nouvel ordinateur Johnniac. En sept ou huit ans, lʼéquipe dirigée par Jules Charney obtient une prévision opérationnelle pour tout le territoire des États-Unis.

Le calcul par ordinateur permet aussi dʼeffectuer aisément des « expé-riences numériques », autrement dit de tester des hypothèses sur les mécanis-mes climatiques en calculant des prévisions susceptibles dʼêtre confrontées aux données. Outre lʼintérêt scientifique de ces recherches, il est admis que lʼamélioration de la prévision du temps passe par une meilleure compréhen-sion des mécanismes généraux du climat. Dès le début des années 1950, les scientifiques de Princeton développent, à côté des modèles de prévision, des « modèles de circulation générale » (Global Circulation Models, en abrégé GCM), dont lʼobjectif est de reproduire les propriétés moyennes des mouve-ments de lʼatmosphère. Ces GCM sont les ancêtres directs des modèles de climat actuels.

Le premier modèle numérique de circulation générale de l̓ atmosphère fut achevé par Norman Phillips en 1955 à Princeton. À partir de formulations sim-plifiées des équations de la dynamique, il parvenait à reproduire les grands traits de la circulation à l̓ échelle du globe (courants jets2, dépressions…). Ce succès a institué la circulation de l̓ atmosphère comme thème de recherche majeur.

Modèles de prévision du temps et modèles de climat

Dans les années 1970 sʼeffectue la convergence entre les modélisations du climat et celles de la prévision du temps : les modèles météorologiques opérationnels, jusque-là régionaux puis hémisphériques, deviennent sphériques

2. Les courants jets sont des vents très forts de très haute altitude, souflant dʼouest en est à peu près horizontalement, sur plusieurs milliers de kilomètres, et font partie des structures météorologiques de grande échelle majeures en météorologie, bien identifiables à la fois dans les observations et les simulations.

Page 94: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR96

et donc capables de reproduire la circulation de lʼatmosphère sur tout le globe ; et les modèles de circulation générale deviennent de véritables modèles de climat, en intégrant des représentations des surfaces qui leur permettent de retrouver les températures et de faire des projections à long terme. Désormais, des modèles de circulation générale (GCM) seront utilisés à la fois pour prévoir le temps et pour étudier le climat.

Quʼils soient dévolus à la prévision à court terme ou à la modélisation du climat, les GCM ont des fondements similaires ; ils cherchent à simuler les mouvements de lʼatmosphère en se basant sur les lois de la physique. L̓ atmosphère est représentée par un maillage à trois dimensions, et lʼordinateur calcule, pour chaque maille et à chaque pas de temps, les variables caractérisant lʼétat atmosphérique (température, pression, vent, humidité…), à partir de leur valeur au pas de temps précédent, en résolvant les algorithmes constituant le modèle. Celui-ci comprend deux parties distinctes : une partie dynamique décrivant les mouvements des masses dʼair, dont les algorithmes sont tirés des équations de la mécanique des fluides ; une partie physique qui décrit les échanges verticaux entre lʼatmosphère et lʼespace, et entre lʼatmosphère et les surfaces océaniques et continentales. Ces phénomènes, qui se situent à une échelle bien inférieure à la taille de la maille, sont représentés par des paramètres par lesquels sont estimés statistiquement leurs effets climatiques. Sont ainsi « paramétrisés » des processus physiques (mais également des processus chimiques et biologiques) comme la convection, la turbulence près de la surface, les échanges radiatifs, lʼévaporation, lʼécoulement de lʼeau de pluie sur le sol, etc.

Le développement des deux parties du modèle relève donc de tâches assez différentes. Dans la partie dynamique, il sʼagit de formuler les algorithmes de telle manière quʼils puissent être intégrés par ordinateur et soient stables, exacts, maniables ; cʼest un travail mathématique et numérique, où le choix des algorithmes dépend des contraintes liées à lʼordinateur. Pour la partie physique, les « paramétrisations » (parametrizations) relèvent davantage dʼun travail de physicien – on y reviendra plus loin.

Sʼils reposent sur des fondements identiques, les modèles de prévision météorologique et les modèles de climat présentent cependant quelques dif-férences : leurs noyaux dynamiques sont très semblables, mais leurs paramé-trisations physiques diffèrent, car les processus les plus importants ne sont pas les mêmes à court et à long terme. Pour la prévision du temps, les conditions initiales, transmises par les réseaux dʼinstruments et les satellites, jouent un rôle essentiel. Cette extrême sensibilité aux conditions initiales (popularisée sous le nom « dʼeffet papillon ») confère à la dynamique atmosphérique son caractère chaotique et impose une limite inexorable à la prévision déterministe du temps. En revanche, dans les modèles de climat, les conditions initiales nʼinterviennent pas, car on ne cherche pas à obtenir une véritable prévision,

Page 95: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

97LES MODÈLES NUMÉRIQUES DE CLIMAT

mais seulement les caractéristiques statistiques du climat. Dʼautres facteurs, qui étaient négligés à très court terme, doivent alors être pris en compte : les transports de chaleur, la dynamique de la glace, lʼévaporation par la végétation, etc. En simplifiant exagérément, on peut dire que la partie dynamique et les conditions initiales sont plus importantes pour la météorologie, et la partie physique et les conditions aux limites pour la climatologie. Autre différence : les modèles de climat, qui simulent des périodes plus longues que les modè-les de prévision, tournent avec des pas de temps et des résolutions spatiales beaucoup plus larges.

Outre ces gros modèles reproduisant la circulation de lʼatmosphère terrestre à trois dimensions, il existe dʼautres modèles de climat, plus simples et plus conceptuels. Déjà, le chimiste suédois Arrhenius, à la fin du XIXe siècle, avait le premier calculé lʼaugmentation de la température du globe résultant dʼun effet de serre dʼorigine anthropique grâce à un tel « modèle simple ». Dans les années 1950 et 1960, des climatologues ont continué de développer des modèles à zéro ou une dimension, incluant les échanges radiatifs et convectifs, mais sans dynamique. Les modèles de circulation générale, plus complets et plus « réalistes », sont rapidement devenus les outils de référence, mais les chercheurs du climat font appel, aujourdʼhui encore, à des modèles simplifiés pour étudier un phénomène isolé ou réaliser des expériences numériques plus rapides.

Les dynamiques multiples de la modélisation

Jusquʼaux années 1980, lʼévolution de la modélisation du climat est com-mandée par de multiples dynamiques, scientifiques, techniques et sociales. La logique dominante est incontestablement celle des progrès instrumentaux : comme la prévision météorologique, la modélisation du climat a été tirée par deux technologies en plein essor : les ordinateurs, dont la puissance de calcul a augmenté exponentiellement, et lʼobservation par satellite, dotée de moyens considérables. Au début des années 1950, la prévision numérique se développe autour de trois pôles principaux : les États-Unis, la Suède et le Royaume-Uni. En France, le manque dʼordinateurs retarde le développement des premiers modèles de prévision comme de climat jusquʼau début des années 1970.

La climatologie est aussi entraînée par lʼévolution rapide des sciences de la Terre : océanographie, géophysique, géochimie, sismologie, paléoclima-tologie connaissent un essor considérable à partir de lʼinstitution de lʼAnnée géophysique internationale de 1957. Les géosciences bénéficient de nouvelles techniques dʼinvestigation (méthodes de datation isotopiques, tomographie sismique, résonance magnétique…) et de programmes dʼexploration impulsés par les États-Unis pour des motifs autant géostratégiques que scientifiques (cartographie magnétique des océans, installation de réseaux de mesures

Page 96: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR98

météorologiques). Les climatologues entretiennent des liens étroits avec la paléoclimatologie qui connaît, au cours des années 1970 et 1980, une série de découvertes importantes : mise en évidence des cycles glaciaires (à partir de carottes sédimentaires), confirmation des théories sur lʼorigine astronomique de ces cycles, révélation de la rapidité des variations climatiques (par des carot-tages dans les glaces)… Ces travaux fournissent aux modélisateurs du climat des thèmes de recherche et des références pour valider leurs modèles.

La connaissance du climat a également eu, dès lʼorigine, des objectifs sociaux. Durant la guerre froide, il fallait étudier le climat pour être capable de le contrôler, de le modifier – voire de lʼutiliser comme arme3. Les recher-ches théoriques et expérimentales de modification du temps (déclenchement de pluies, détournement dʼouragans) furent largement subventionnées aux États-Unis, en URSS et – dans une moindre mesure – dans dʼautres pays, dont la France. Mais au cours des années 1970, ces projets sont peu à peu abandonnés, et laissent place à des préoccupations bien différentes4 : ce sont les risques encourus par lʼenvironnement et le climat qui, désormais, mobilisent le public et les scientifiques.

La montée des préoccupations environnementales

L̓ effet de serre, toutefois, est encore loin de constituer le problème domi-nant. Lʼidée dʼun réchauffement planétaire dû aux émissions humaines de CO2, avancée dès 1896 par Arrhenius, a été contestée, puis concurrencée par dʼautres. Jusquʼà la Seconde Guerre mondiale, le climat était globalement considéré comme stable et peu susceptible dʼêtre influencé par les activités humaines5. Un tournant majeur sʼamorce dans les années 1960 et 1970, avec la sensibilité croissante aux pollutions de toutes sortes. Les représentations de la nature, des sciences et du progrès connaissent des mutations profondes ; en quelques années, la technologie est perçue non plus comme porteuse de bien-être et de savoir, mais comme une source de risques, tandis que lʼenvi-ronnement apparaît vulnérable et menacé par lʼhomme. Le climat nʼéchappe pas à ce bouleversement des mentalités, qui touche les scientifiques comme le reste de la population [Weart, 2003]. Mais la conscience de la fragilité du climat devance dʼune quinzaine dʼannées lʼémergence dʼun consensus sur la nature du changement : dans les années 1970, le réchauffement par effet de serre est concurrencé par un risque opposé, celui dʼun refroidissement dû aux

3. Dès 1945, en lançant le projet de développer la prévision du temps par ordinateur, John von Neumann mentionne le contrôle du climat comme lʼun des objectifs de la modélisation numérique [Nebecker, 1995].

4. Ce revirement a été décrit et analysé par C. Kwa dans Miller et Edwards [2001].5. Cependant, localement, certaines théories sur le rôle des hommes dans certains changements

climatiques ont eu un impact public dans le passé [Fleming, 1998].

Page 97: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

99LES MODÈLES NUMÉRIQUES DE CLIMAT

émissions humaines dʼaérosols soufrés. Dʼautres dangers menacent le climat, qui semblent plus graves et plus immédiats : la sécheresse au Sahel, les pluies acides, lʼhiver nucléaire, le trou dʼozone.

Les modèles de climat sont alors utilisés pour la réalisation « dʼexpérien-ces de sensibilité » à différents changements : désertification, conséquences dʼune disparition de la banquise, dernier maximum glaciaire. L̓ effet de serre du CO2 est introduit pour la première fois dans un modèle de circulation générale en 1974, pour simuler un climat correspondant à un doublement de la concentration de CO2. Progressivement, au cours de la décennie suivante, les modèles qui explorent les conséquences dʼune progression ininterrompue du taux de gaz à effet de serre montrent tous un réchauffement global ; lʼeffet refroidissant des aérosols est confirmé, mais il est plus faible que lʼeffet de serre, plus localisé et non cumulatif. À la même période, dʼautres dévelop-pements scientifiques contribuent à la prise de conscience de lʼimportance de lʼeffet de serre, en particulier la révélation par les paléoclimatologues des corrélations étroites, au long des millénaires, entre température de lʼair et taux de gaz à effet de serre.

LA CONSTRUCTION DES MODÈLES

Avant dʼaborder lʼévolution des modèles de climat consécutive à la mon-tée en puissance de la question du réchauffement climatique, nous voudrions donner une idée de la façon dont les climatologues développent et utilisent leurs modèles, à partir de quelques exemples. Expliciter ces pratiques permet de mieux apprécier les limites et les incertitudes des modèles, et aussi la confiance que leur accordent les scientifiques.

Il faut insister sur la diversité et la complexité des pratiques de modélisation – et sur leur intrication. Ainsi, on ne peut pas distinguer rigoureusement la construction des modèles de leur utilisation : un modélisateur développe et utilise son modèle, alternativement. Lʼélaboration des modèles et leur vali-dation par les données sont souvent mêlées. Modéliser le climat, cʼest tout à la fois – et pour les mêmes chercheurs – développer un modèle en le validant à lʼaide dʼobservations du climat réel, et chercher à comprendre le véritable climat à lʼaide du modèle.

Les paramétrisations au centre des recherches et des incertitudes

Développer des paramétrisations est une activité essentielle des modé-lisateurs du climat. Alors que la dynamique de lʼatmosphère est décrite à lʼéchelle de la maille (quelques centaines de kilomètres) par des algorithmes tirés de la dynamique des fluides, les processus physiques dʼéchange avec

Page 98: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR100

lʼatmosphère se déroulent à des échelles inférieures à la maille du modèle, et donc ne peuvent pas être calculés explicitement à partir de lois physiques. Par exemple, les différentes caractéristiques des nuages ont des dimensions très inférieures à la maille des modèles : la convection se déploie sur quelques kilomètres, la répartition des nuages dans lʼespace et leur morphologie de type fractale ont des dimensions de quelques centaines de mètres, la microphysique nuageuse (condensation en gouttes dʼeau) est de lʼordre du micron. Tous ces phénomènes doivent être représentés par des jeux de paramètres à lʼéchelle de la maille. Les paramétrisations sont à lʼorigine des principales incertitudes des modèles. Si lʼorganisation à grande échelle du climat est bien comprise et bien modélisée, les représentations des phénomènes de petite échelle recèlent des approximations et des imperfections qui sont responsables de la dispersion et des incertitudes des prévisions en matière de changement climatique [Le Treut, 2005].

Il nʼexiste pas de méthode universelle de paramétrisation : les pratiques diffèrent selon les mécanismes physiques à décrire, selon la connaissance quʼen ont les scientifiques et selon lʼobjectif recherché. Même quand le processus à paramétriser est bien connu, on doit en tirer une formulation simplifiée à lʼéchelle de la maille : par exemple, les absorptions et les émissions de rayon-nement par les gaz de lʼatmosphère sont décrites par la physique quantique et peuvent être calculées par des modèles théoriques très précis. Mais les calculs complets sont trop lourds pour être intégrés dans des modèles climatiques et on a élaboré une paramétrisation plus simple qui en retient lʼessentiel.

Le plus souvent, une paramétrisation part dʼun schéma conceptuel simple du phénomène à représenter, qui peut évoluer et se complexifier au cours du temps. Certaines paramétrisations sont issues de modèles physiques spécifi-ques à petite échelle : cʼest le cas de la paramétrisation de la « couche limite » (fine couche dʼair en contact avec le sol). Dʼautres sont effectuées à lʼaide de mesures de terrain ; ainsi, dans les modèles de Météo France (météoro-logiques et climatiques), la paramétrisation du sol exploite les résultats de vastes campagnes expérimentales qui ont eu lieu dans les années 1990 dans différentes régions de la planète pour mesurer les flux dʼénergie et dʼeau entre le sol et lʼatmosphère.

L̓ une des paramétrisations les plus complexes et les plus problématiques est celle des nuages. Ceux-ci sont le siège de processus climatiques variés, certains à court terme, comme la convection ou les précipitations, dʼautres à plus long terme, comme les interactions avec le rayonnement, qui diffèrent selon le type de nuages. Il existe plusieurs familles de paramétrisation des nuages, fondées sur différents mécanismes physiques à grande échelle. Depuis les années 1980, des modèles à aire limitée et à mailles fines, appelés Cloud Resolving Models, calculent explicitement la dynamique, la thermodynamique et la convection des nuages. Des collaborations scientifiques entre spécialistes

Page 99: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

101LES MODÈLES NUMÉRIQUES DE CLIMAT

du climat et spécialistes des nuages tentent dʼaméliorer la paramétrisation des nuages dans les GCM à partir de ces modèles à méso-échelle. Si les climatologues déploient tant dʼefforts dans ce domaine, cʼest parce que la paramétrisation des nuages est lʼun des facteurs qui influent le plus sur les prévisions de changement climatique. L̓ augmentation de lʼeffet de serre agit en effet à petite échelle (elle perturbe la stratification de lʼair, les mouvements convectifs et la microphysique des nuages) et se manifeste dans les modèles par lʼintermédiaire des paramétrisations, en premier lieu celles des nuages.

Les paradoxes des paramétrisations

En vingt ou trente ans dʼexistence, les grands modèles climatiques ont périodiquement renouvelé leurs paramétrisations. Celles-ci sont de plus en plus fondées sur une compréhension physique des phénomènes et de moins en moins ajustables empiriquement. Ainsi, dans le premier modèle du Laboratoire de météorologie dynamique (LMD), la couverture nuageuse et son épaisseur étaient fixées pour chaque latitude et saison. Puis la surface couverte par les nuages a été calculée, la quantité dʼeau aussi, enfin la microphysique ; mais on est encore loin de comprendre la totalité des processus se déroulant dans les nuages. Le besoin de prévisions à long terme renforce la nécessité de se rapprocher de la physique des phénomènes. Dans les modèles météorologi-ques, on peut se permettre de régler finement les paramètres de sorte que le climat calculé soit plus conforme au temps observé ; mais ces ajustements empiriques pourraient ne plus être valables dans des conditions climatiques très différentes. Des paramètres ad hoc risquent de conduire à des dérives, en manquant des rétroactions essentielles que lʼon a plus de chance de capturer avec des paramétrisations prenant en compte les processus sous-jacents.

L̓ amélioration des paramétrisations se heurte cependant à des difficultés. Dʼabord, elle conduit presque invariablement (dans un premier temps) à dégrader les performances du modèle. Alors quʼil simulait jusque-là un climat correct, le modèle, équipé dʼune nouvelle paramétrisation plus « réaliste », se met à produire des climatologies fantaisistes ! La faute en revient aux compen-sations dʼerreurs : en changeant un paramètre, on met en jeu des rétroactions nouvelles quʼon ne maîtrise pas, et pour lesquelles les autres paramétrisations ne sont pas bien réglées. Par exemple, lʼintroduction de lʼalternance jour/nuit dans un modèle où lʼinsolation était auparavant moyennée a dʼabord donné un climat catastrophique : la paramétrisation de la « couche limite » nʼétait pas conçue pour sʼadapter au réchauffement rapide de la matinée… Autre pro-blème : les paramétrisations devraient en principe être universelles ; or, il arrive souvent quʼune paramétrisation convienne pour une zone géographique et pas pour une autre. Les processus physiques sont certes les mêmes partout, mais les processus dominants diffèrent selon les circonstances ; ainsi, les facteurs

Page 100: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR102

essentiels de la convection ne sont pas identiques pour la mousson indienne et pour la mousson africaine. Pour rendre une paramétrisation plus universelle, on sera conduit à accroître son « réalisme » et finalement sa complexité.

Aller vers des paramétrisations plus compliquées, et plus proches des processus, constitue une tendance lourde de lʼévolution des modèles. Mais les scientifiques veulent aussi comprendre les mécanismes dominants, les princi-pales étapes qui vont des équations aux phénomènes. Paramétriser un processus suppose de le simplifier en extrayant les facteurs essentiels, de comprendre ses liens avec dʼautres mécanismes ou paramètres extérieurs. En ce sens, la paramétrisation, partie du modèle la plus entachée dʼincertitudes, constitue aussi la partie la plus « fondamentale » de lʼactivité des modélisateurs.

Expériences numériques

L̓ utilisation des modèles comme « laboratoires numériques » pour réaliser des expériences virtuelles remonte aux tout premiers modèles de circulation générale ; et la notion dʼ« expérience numérique » reste souvent utilisée par les modélisateurs, signalant lʼimportance de cette dimension expérimentale de leur travail. Tout comme une expérience permet de tester une théorie dans les conditions purifiées et bien définies du laboratoire, lʼordinateur permet dʼétudier le comportement dʼune atmosphère (numérisée) simplifiée dans des conditions choisies. Alors quʼil est impossible de commander au climat réel, la modélisation autorise la manipulation de climats virtuels. Elle permet, comme dans un laboratoire, de faire varier un paramètre pour évaluer lʼin-fluence de tel facteur sur le climat – cʼest ce quʼon appelle une « expérience de sensibilité ». En expérimentant par ordinateur, on peut tenter de discerner les principaux facteurs expliquant tel phénomène climatique. La modélisation autorise lʼexploration de climats extrêmes, passés ou futurs. Elle permet de calculer, et même de visualiser, des phénomènes que lʼon ne sait pas calculer directement à partir des théories disponibles. Les possibilités offertes par lʼinstrument numérique sont immenses et ouvrent un champ presque illimité dʼexpérimentations.

Un modèle de climat joue donc plusieurs rôles à la fois : il permet de formuler des hypothèses et de les tester, de chercher les causes des méca-nismes et dʼexpérimenter. Il réunit des caractéristiques des théories et des expériences, et pourrait donner lʼillusion de se suffire à lui-même. Dʼoù le risque, parfois évoqué par les scientifiques, de se replier sur « lʼunivers du modèle ». En effet, à mesure que les modèles se sont raffinés, quʼils ont pris en compte un nombre croissant de phénomènes dont les interactions ne sont pas toujours bien connues, ils sont devenus presque aussi difficiles à comprendre que le climat réel – tout en restant cependant plus manipulables et faciles à explorer. Le travail de modélisation a de plus en plus consisté à comprendre

Page 101: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

103LES MODÈLES NUMÉRIQUES DE CLIMAT

ce qui se passe dans ces modèles complexes. Pour cela, les modélisateurs ont fréquemment recours à des modèles simples, schématisés, du modèle complet – des « métamodèles » en quelque sorte. Alors que, dans un GCM (modèle de circulation générale) long et détaillé où interviennent de nombreuses rétroactions, il est difficile dʼattribuer telle caractéristique du climat simulé à telle paramétrisation, un modèle simple permet dʼisoler dans des conditions maîtrisées une composante climatique, sans avoir tous les couplages et les rétroactions.

Toutefois, il demeure essentiel de sortir de lʼunivers du modèle, de le confronter aux données dʼobservation. Il y a en effet une différence majeure entre expérience numérique et expérience de laboratoire : dans une expérience de laboratoire, lʼhypothèse à tester est mise à lʼépreuve du monde réel, alors que lʼexpérience numérique ne met en jeu quʼune représentation algorithmique du climat. La confrontation avec le véritable climat a lieu en comparant les simulations du modèle aux observations du climat réel. Aux yeux des cher-cheurs, cʼest la mise à lʼépreuve du modèle par les observations du climat, appelée « validation », qui confère au modèle sa valeur scientifique.

Données d’observation et validation

Les modélisateurs passent le plus clair de leur temps à tenter de valider leur modèle en comparant les simulations de climat quʼil produit aux données dʼobservation. Le terme de « valider » ne signifie pas quʼon vise un modèle rigoureusement juste, mais plutôt quʼon cherche à en évaluer les performances et à le rendre « suffisamment bon pour être utile ». Les validations peuvent se rapporter au modèle tout entier, à une paramétrisation, ou encore à une rétroaction entre processus. Il nʼy a pas de méthode ni de protocole standard : une validation répond souvent à un questionnement préalable, à une hypo-thèse scientifique, pour laquelle on doit imaginer une méthode adaptée de confrontation entre modèle et données. Ainsi, lʼéruption du volcan Pinatubo, en 1991, a constitué un « forçage » naturel du climat par lʼeffet des cendres du volcan, que des scientifiques ont mis à profit pour valider la représentation des aérosols dans le modèle.

Dans les premiers temps de la modélisation, les climatologues ont dʼabord validé leur modèle par rapport au climat moyen : ils comparaient une carte de climat simulé avec une carte de climat moyen issue de données dʼobservation, en regardant si les grandes caractéristiques climatiques étaient correctement reproduites. Puis ils ont cherché à valider non seulement la moyenne, mais aussi les écarts, la variabilité du climat, à différents niveaux : cycle saisonnier, variabilités interannuelles, fréquence des événements de type El Niño.

Les données dʼobservation servant à valider les modèles sont nombreuses et diversifiées. On peut en distinguer deux catégories : les données concernant

Page 102: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR104

les climats passés et les observations relatives aux climats dʼaujourdʼhui. Les données sur le climat présent sont fournies par les réseaux (terrestres ou maritimes) des stations météorologiques et par les satellites météorologiques, océanographiques et scientifiques. On sait quʼen science « les données ne sont jamais données », quʼil nʼexiste pas de données « pures » ; cʼest particu-lièrement vrai en météorologie et en climatologie, où les données subissent de nombreuses transformations et interprétations. Les signaux mesurés par les instruments embarqués dans les satellites sont très éloignés des gran-deurs utilisées dans les modèles, et leur interprétation requiert lʼutilisation de modèles intermédiaires [Edwards, 1999 ; Kandel, 2002]. La constitution des bases de données climatiques exige aussi un gros travail sur les don-nées dʼorigine. Pour que les climatologues puissent valider les modèles sur des périodes longues, ces bases doivent être fiables et homogènes ; or le changement des instruments de mesure, leur déplacement ou leur altération peuvent engendrer des ruptures, quʼil faut corriger pour retrouver une série de mesures utilisables.

Dʼautres validations ne portent pas sur lʼensemble du modèle, mais se limitent à la représentation dʼun processus climatique particulier. Les clima-tologues sʼappuient alors souvent sur des campagnes de mesures locales. Ces expériences, qui mobilisent des moyens humains et techniques considérables (réseaux dʼinstruments, avions, ballons, navires, satellites) et répondent à des besoins multiples (recherche, prévision météorologique, mais aussi gestion des ressources naturelles, etc.) sont toujours internationales. Consacrées à lʼétude dʼun processus climatique donné – mousson indienne, tempêtes de lʼAtlantique nord, influence du relief étudié dans les Pyrénées, par exemple –, les campagnes in situ permettent de valider, mais aussi dʼaméliorer ou de développer des paramétrisations dans les modèles.

Archives des paléoclimats

Le flux de données fourni par les réseaux terrestres, les satellites et les campagnes de mesure augmente exponentiellement, mais ces données instru-mentales sont récentes et nʼoffrent que peu de recul – quelques décennies tout au plus. Or on doit observer le climat sur de très longues durées si lʼon veut étudier la fréquence des événements extrêmes, ou le rôle des composantes lentes comme la végétation, les glaciers ou lʼocéan profond, particulièrement dans la perspective du changement climatique. Dʼoù la nécessité de valider les modèles sur les climats passés. Les modèles climatiques sont en effet capables de simuler les climats anciens comme ceux dʼaujourdʼhui, pourvu quʼon leur fournisse les conditions aux limites correspondant aux périodes concernées (constante solaire, albédo, taux de CO2 atmosphérique, températures de surfa-ces des océans). On a ainsi modélisé le climat du dernier maximum glaciaire

Page 103: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

105LES MODÈLES NUMÉRIQUES DE CLIMAT

(il y a 20 000 ans) et le climat dʼil y a 6 000 ans (quand le Sahara était humide et couvert de végétation), ce qui permet de valider les modèles en confrontant leurs simulations aux données paléoclimatiques.

On dispose dʼune grande variété dʼarchives climatiques : sédiments des fonds marins, glaces des calottes polaires ou du Groenland, tourbes ; et pour les climats plus récents, cernes dʼarbres, coraux, voire archives historiques. Ces données se prêtent à toutes sortes dʼanalyses : ainsi, le dosage isotopique de lʼoxygène des glaces polaires permet de remonter à la température de lʼair au moment de leur formation. La comparaison entre simulations numériques et données paléoclimatiques permet de valider le modèle par les données, mais aussi parfois les données par le modèle, car les mesures paléoclimatiques, elles aussi, passent par plusieurs étapes de traduction et dʼinterprétation. En réalité, la validation nʼest pas une relation à sens unique, mais un processus itératif complexe, qui comprend de multiples allers et retours entre simula-tions et données.

Les modélisateurs le soulignent souvent : on parvient à valider un modèle par rapport au climat actuel, mais il est plus difficile de valider la « sensibilité » de ce modèle au changement climatique, cʼest-à-dire la façon dont ses para-métrisations répondront à lʼaccroissement de lʼeffet de serre. De ce point de vue, il est intéressant de tester les modèles pour des paléoclimats, cʼest-à-dire dans des conditions très éloignées de celles du présent – comme le seront les climats futurs que les modèles doivent être capables de simuler.

MODÉLISER LE SYSTÈME TERRE

Depuis une quinzaine dʼannées, la modélisation du climat est profondément transformée par le couplage et lʼintégration dʼun nombre croissant de milieux, dʼinteractions et de phénomènes dans les modèles. Dès lʼorigine, les modè-les climatiques ont évolué en se complexifiant et en intégrant de nouveaux facteurs, grâce à lʼordinateur qui rend possible la rencontre de nombreux domaines différents [Galison, 1998]. Désormais, le problème du changement climatique oblige les climatologues à prendre en compte dans leurs modèles tous les éléments et toutes les rétroactions qui influencent le climat à long terme. Le couplage de modèles différents et lʼintégration de nouveaux milieux bouleversent en profondeur les pratiques mêmes de la modélisation.

Coupler océan et atmosphère

Le premier couplage a été celui de lʼocéan avec lʼatmosphère. Lʼocéan joue un rôle primordial dans la redistribution de la chaleur, et son évolution, beaucoup plus lente que celle de lʼatmosphère, a une influence essentielle

Page 104: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR106

sur le climat à moyen et long terme. Dès quʼon veut donner des prévisions météorologiques au-delà de quelques jours (pour la prévision saisonnière), étudier des phénomènes de grande ampleur comme les événements de type El Niño, et a fortiori prévoir lʼévolution du climat sur plusieurs décennies, on doit prendre en compte les interactions entre océan et atmosphère en modé-lisant simultanément les deux fluides et leurs échanges – ce quʼon appelle « coupler » les modèles. Des modèles globaux dʼocéan (à trois dimensions et fondés sur les équations de la dynamique des fluides, comme les modèles atmosphériques) ont été couplés aux modèles dʼatmosphère au début des années 1990 aux États-Unis – dix ans plus tard en France6.

Le couplage océan-atmosphère est une opération lourde qui exige à la fois une réflexion approfondie sur les échanges physiques entre les deux milieux et un important travail informatique. Dans un premier temps, les modèles couplés présentaient des « dérives » : ils nʼétaient pas capables de reproduire un climat stable, comme le faisaient les modèles atmosphérique ou océanique pris séparément. Pour corriger ces défauts, des équipes de modélisation ont eu recours à des techniques appelées « ajustements de flux », grâce auxquelles les échanges à la surface océanique sont ajustés en permanence pour retrouver des prédictions acceptables. Dʼautres modélisateurs ont préféré ne pas utiliser ces procédés empiriques quʼils jugeaient peu rigoureux7. Aujourdʼhui, lʼamé-lioration des couplages permet de calculer les échanges sans ajustement.

Simuler le changement climatique

À partir des années 1990, la question du changement climatique, deve-nue un enjeu géopolitique et scientifique majeur, a exercé une influence grandissante sur la modélisation du climat. Le GIEC, instance dʼexpertise internationale unique au monde, a joué un rôle clé sur les plans scientifique et politique, à travers ses épais rapports qui, tous les trois à cinq ans, synthé-tisent les connaissances sur le climat et son évolution. Depuis 1992, le GIEC propose plusieurs « scénarios8 » possibles dʼévolution de la concentration

6. En France, le LODYC (Laboratoire dʼocéanographie dynamique et de climatologie, université Paris-VI et CNRS) a développé un modèle océanique, qui est couplé depuis une dizaine dʼannées aux modèles atmosphériques du LMD et de Météo France, ainsi quʼà dʼautres modèles de prévision et de climat dans le monde, en particulier celui du Centre européen de prévision à moyen terme de Reading (Royaume-Uni).

7. Des sociologues des sciences ont montré [Shackley et alii, 1999] que lʼattitude vis-à-vis des ajustements de flux dépendait de lʼusage des modèles : les scientifiques utilisant leurs modèles dans le cadre de lʼexpertise sur le changement climatique avaient recours aux ajustements empiriques car ils avaient besoin de simulations crédibles. Ceux qui avaient un usage plus académique et cognitif des modèles préféraient se concentrer sur des recherches plus fondamentales.

8. Voir le chapitre de Michel Armatte sur les scénarios et celui dʼAmy Dahan sur le GIEC et lʼactivité dʼexpertise.

Page 105: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

107LES MODÈLES NUMÉRIQUES DE CLIMAT

des gaz à effet de serre dans lʼatmosphère pour le XXIe siècle et les suivants, qui sont utilisés comme « forçages » par les modèles de climat pour produire des simulations de climats futurs. Une quinzaine dʼéquipes de modélisateurs du climat dans le monde consacrent ainsi une part importante de leur temps et de leurs moyens de calcul à la réalisation de ces simulations9, et plusieurs centaines de climatologues travaillent aux rapports du GIEC comme contri-buteurs, auteurs ou « auteurs principaux », responsables dʼun chapitre. Ce travail de synthèse et de recherche de consensus de même que les thèmes mis en avant ne sont pas sans influencer la recherche sur le climat. L̓ emprise du changement climatique ne se limite pas aux travaux du GIEC ; elle se manifeste également au travers des projets de recherche européens ou mondiaux, dans les financements et les postes octroyés, ou par les initiatives des laboratoires et des équipes. Ainsi, la tendance à lʼintégration de milieux, de rétroactions et de cycles nouveaux dans les modèles participe dʼune volonté de mieux prendre en compte tous les facteurs influençant le climat à long terme.

Intégrer de nouveaux milieux et de nouvelles disciplines

Après lʼocéan, lʼobjectif essentiel de la modélisation climatique est dʼin-tégrer dʼautres éléments et dʼautres interactions qui jouent des rôles majeurs, mais souvent mal connus, dans lʼévolution du climat : la végétation, la chimie atmosphérique, les cycles biogéochimiques, la biologie océanique… Cette tâche nʼen est quʼà ses débuts.

Un apport important de ces dernières années a été lʼintroduction dans les modèles climatiques dʼun cycle du carbone interactif. Jusquʼalors, dans les simulations de changement climatique, les concentrations de CO2 dans lʼatmosphère étaient données en entrée des modèles, sous forme de différents scénarios. En 2001, deux laboratoires (lʼinstitut Pierre-Simon Laplace10 en France et le Hadley Centre au Royaume-Uni) ont réalisé des simulations dans lesquelles on entrait dans le modèle non pas les concentrations atmosphériques mais les émissions humaines de CO2 ; cʼest le modèle qui calculait ensuite la part de CO2 restant dans lʼatmosphère et les quantités absorbées par lʼocéan et

9. En France, les deux communautés de modélisateurs de climat nʼont pas réalisé de simulations pour les premiers rapports du GIEC (1990 et 1995) et très peu pour le troisième (en 2001), mais des chercheurs français figuraient parmi les auteurs et les travaux cités. En revanche, pour le 4e rapport, qui paraîtra en 2007, le modèle de lʼIPSL et celui de Météo France ont effectué un grand nombre de simulations de changement climatique.

10. Lʼinstitut Pierre-Simon Laplace (ou IPSL), créé en 1992, regroupe six laboratoires de la région parisienne étudiant différentes composantes de lʼenvironnement et du climat, dont le LMD pour lʼatmosphère et le LODYC pour lʼocéan. Cʼest au niveau de lʼIPSL quʼest pris en charge le modèle couplé océan-atmosphère, dont le modèle atmosphérique du LMD constitue le noyau et qui inclut de plus en plus de milieux et de domaines (végétation, chimie, etc.) modélisés dans ses différents laboratoires.

Page 106: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR108

la végétation, ce qui permet de prendre en compte la rétroaction de lʼévolution du climat sur ce cycle du carbone. Ce travail a montré que, dans un climat plus chaud, lʼocéan et la végétation absorberont une moindre proportion du CO2 émis, ce qui accroîtra dʼautant sa concentration atmosphérique – et donc lʼeffet de serre.

L̓ un des domaines où la modélisation du climat sʼest le plus développée récemment est la représentation des sols et de leurs échanges avec lʼatmos-phère. Des simulations de paléoclimats ont démontré que la végétation avait été, dans le passé, un acteur climatique de premier ordre, qui non seulement subissait les changements mais pouvait les accélérer ; les modèles doivent donc être capables de tenir compte des rétroactions de la végétation pour les prévisions du changement climatique. Dans les modèles de circulation atmosphérique, la représentation des sols était à lʼorigine très rudimentaire, puis elle a pris la forme de paramétrisations de plus en plus détaillées (avec plusieurs niveaux verticaux de sols, par exemple). À lʼinstitut Pierre-Simon Laplace, cette paramétrisation est devenue si lourde et complexe quʼon lʼa extraite du modèle climatique pour constituer un modèle de sol à part entière, couplé au modèle dʼatmosphère du LMD et en interaction constante avec lui. Baptisé « Orchidée », ce modèle des surfaces continentales comprend trois modules : un pour lʼhydrologie (écoulement des fleuves, cycle de lʼeau entre le sol et lʼatmosphère), le deuxième pour la végétation et les échanges de carbone (qui modélise la photosynthèse, la respiration des plantes, leur décomposition, etc.) et le dernier consacré à la dynamique de la végétation, qui traite de lʼapparition et de la disparition des espèces.

Sans faire lʼinventaire complet de tous les couplages et intégrations à lʼétude, mentionnons la chimie atmosphérique, dont lʼinfluence sur le climat est essentielle (quʼon pense par exemple au rôle refroidissant des aérosols). Des modèles chimiques reproduisant les réactions entre plusieurs dizaines de molécules (ozone, composés soufrés, oxydes dʼazote, poussières déserti-ques…) peuvent être couplés aux modèles atmosphériques – ces couplages étant utilisés dans des études de pollution comme dans des projections à plus long terme.

On assiste donc à une profonde mutation de la modélisation du climat, qui se traduit par un déplacement de son centre de gravité depuis lʼatmosphère vers les sols ou les cycles biogéochimiques, ou plus généralement vers ce quʼon nomme parfois le « système Terre ». Cette extension du domaine du climat entraîne des changements dans les pratiques des chercheurs. Modéliser ces nouveaux milieux ou interactions très hétérogènes ne relève plus de la dyna-mique des fluides, ni de paramétrisations fondées sur des bilans physiques. Cela requiert de nouvelles approches scientifiques, où les interactions entre milieux différents vont sans doute devenir aussi importantes que les dynami-ques internes à chaque milieu. Sur un autre plan, les scientifiques, qui – au

Page 107: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

109LES MODÈLES NUMÉRIQUES DE CLIMAT

CNRS en particulier – avaient lʼhabitude de travailler de façon autonome et peu hiérarchisée, sont désormais contraints à un travail beaucoup plus collectif et mieux organisé : la gestion du développement de modèles complexes, de couplages entre modèles ou de simulations longues sʼapparente parfois à celle dʼun projet industriel !

Surtout, les modèles font appel à une variété croissante de domaines scientifiques et sont de plus en plus le fruit dʼune recherche interdisciplinaire. Les premiers modèles de circulation atmosphérique, comportant des para-métrisations simples des échanges physiques avec les surfaces océaniques et continentales, nʼexigeaient pas lʼintervention de spécialistes des océans ou des sols. Mais, dans les modèles couplés, cʼest la dynamique même des océans, les réactions chimiques, la vie des espèces végétales qui sont modélisées, requérant la contribution de chercheurs de nouvelles disciplines, et définissant autant de visions différentes du climat, de ses rythmes et de ses rétroactions. La construction des modèles devient de plus en plus collective, et, même si chaque scientifique ne peut en connaître quʼune petite portion (et doit faire confiance à ses collègues pour le reste du modèle, qui lui apparaît en partie comme une boîte opaque), les chercheurs de disciplines différentes doivent souvent se comprendre, collaborer et se coordonner dans la construction de modèles de plus en plus modulaires et transdisciplinaires.

Du complexe au simple, allers et retours

L̓ évolution vers des modèles de plus en plus complexes, foisonnants et hétérogènes semble sʼinscrire dans une tendance irrésistible du domaine. Pourtant cette tendance, dont lʼhorizon serait de parvenir à un modèle ultra-détaillé et le plus possible exprimé à partir des lois physiques fondamentales, nʼest pas hégémonique. Les climatologues ont recours, à côté des modèles complexes, à des modèles simples pour mieux appréhender les phénomènes. Cette démarche dʼaller-retour entre modèles de complexité différente leur semble nécessaire pour comprendre les mécanismes climatiques en « dominant lʼenchaînement entre simple et compliqué ».

La modélisation du climat est ainsi fréquemment confrontée à des arbitra-ges entre le besoin de représenter la complexité du climat pour mieux prendre en compte les processus dans leur généralité et la nécessité de simplifier pour mieux en comprendre lʼessentiel. Cette tension est récurrente, que ce soit au niveau des paramétrisations ou à celui, plus global, du modèle entier. Il arrive que surgissent, dans la pratique, des confrontations entre complexité et sim-plicité, entre objectifs de prévision et objectifs cognitifs : des modélisateurs mettent en doute certains raffinements jugés superflus, sʼinterrogent sur une « fuite en avant vers toujours plus de détails ». Aux yeux de la plupart dʼentre eux, toutefois, prévision et compréhension ne devraient pas sʼopposer : rien

Page 108: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR110

ne sert dʼaccroître le nombre et la complexité des paramétrisations si lʼon ne contrôle pas la façon dont elles interagissent entre elles et dont leurs coo-pérations influent sur le climat simulé. Pour les prévisions de changement climatique, on ne peut valider les modèles et en évaluer les incertitudes que si lʼon comprend les rétroactions en jeu. Le plus souvent, les objectifs de pré-vision et de compréhension ne sont pas contradictoires, mais inséparables et complémentaires, tout comme le recours aux modèles simples et aux modèles de circulation générale.

NOUVEAUX DÉFIS, LE RETOUR AU LOCAL ?

Les modèles climatiques, désormais multicouplés et intégrant de nom-breuses composantes, sont confrontés à de nouveaux défis, quʼon ne peut quʼeffleurer ici.

L̓ une des interrogations les plus pressantes qui se manifeste déjà aujourdʼhui concerne la régionalisation des prévisions. Il existe une véritable demande sociale sur les conséquences du changement climatique au niveau régional ; lʼaccroissement de la puissance des ordinateurs, qui permet en principe une meilleure résolution des modèles, pousse à raffiner les prévisions du climat. L̓ introduction de modèles plus détaillés de sol et de végétation va aussi dans le sens de préoccupations plus locales. Mais les modèles climatiques sont mieux adaptés aux échelles synoptiques, et les prévisions ont tendance à être de moins en moins fiables quand elles concernent des régions plus petites – et à diverger dʼun modèle à lʼautre. Des recherches sont conduites sur les prévi-sions régionales, en particulier avec des méthodes statistiques concernant les relations entre échelles globale et locale. Les interactions dʼéchelles constituent de fait un domaine très actif. Le choc quʼont pu représenter certains événements extrêmes (à lʼexemple de Katrina) suscite aussi de nouvelles recherches et encourage des approches pluridisciplinaires où devront converger plusieurs niveaux de recherche et de modélisation – du local au global.

À des échelles de temps très lointaines, certaines « surprises catastro-phiques » sont aussi lʼobjet dʼun intérêt croissant : celles qui sont liées aux possibles variations brutales de composantes dites « lentes » du climat, comme lʼocéan profond, les glaces ou la végétation. Dans le cadre de lʼexpertise du GIEC, les modèles actuels ne prennent pas en compte ces ruptures dʼéquilibre catastrophiques. Cependant, il est probable quʼils devront tôt ou tard explorer la possibilité de non-linéarités fortes aux échelles climatiques : lʼarrêt de la circulation thermohaline et de la formation dʼeau profonde, la fonte dʼune partie de lʼAntarctique ou le dégazage du permafrost dans les régions sep-tentrionales comme la Sibérie – même si ce type dʼévénements est entouré

Page 109: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

111LES MODÈLES NUMÉRIQUES DE CLIMAT

dʼune grande incertitude, et que la modélisation nʼest pas encore en mesure de préciser les seuils à partir desquels ils se déclencheraient.

Au fur et à mesure que les connaissances sur le climat sʼaffinent, que les puissances de calcul continuent dʼaugmenter, et surtout que la menace clima-tique se précise, les modélisateurs risquent dʼêtre confrontés à des demandes sociales nouvelles, difficilement prévisibles aujourdʼhui – on peut penser déjà aux questions de responsabilité civile, dʼassurance, etc. Si leurs liens avec lʼexpertise politique sʼen trouvent renforcés, lʼexigence de crédibilité scientifique des modèles nʼen sera que plus forte.

RÉFÉRENCES BIBLIOGRAPHIQUES

ARMATTE M. et DAHAN A. (2004), « Modèles et modélisations (1950-2000) : nouvelles pratiques, nouveaux enjeux », Revue d’histoire des sciences, vol. 57, n° 2, p. 441-447.

BARD É. (dir.) (2006), L’Homme face au climat, Collège de France/Odile Jacob, Paris.COIFFIER J. (2000), « Un demi-siècle de prévision numérique du temps », La Météorologie,

8e série, n° 30, p. 11-31.DAHAN DALMEDICO A. (2001), « History and epistemology of models : meteorology as a case-

study (1946-1963) », Archive for History of Exact Sciences, n° 55, p. 395-422.– (2007), « Models and simulations in climate change. Historical, epistemological,

anthropological and political aspects », dans CREAGER A., LUNSBECK E. et WISE N. (dir.), Science without Laws : Model Systems, Cases and Exemplary Narratives, Duke University Press, Durham et Londres, p. 184-237.

DAHAN DALMEDICO A. et GUILLEMOT H. (2006), « Changement climatique : dynamiques scientifiques, expertise, enjeux géopolitiques », Sociologie du travail, vol. 48, n° 3, p. 412-432.

EDWARDS P. (1999), « Global climate science, uncertainty and politics : data-laden models, models-filtered data », Science as Culture, vol. 8, n° 4.

FLEMING J. (1998), Historical Perspectives on Climate Change, Oxford University Press, Oxford.

GALISON P. (1998), « Computer simulations and the trading zone », dans Disunity of Science : Boundaries, Context and Power, Harvard University Press, Cambridge, Mass.

HAUGLUSTAINE D., JOUZEL J. et LE TREUT H. (2004), Climat : chronique d’un bouleversement annoncé, Le Pommier, Paris.

KANDEL R. (2002), « Les modèles météorologiques et climatiques », dans NOUVEL P. (dir.), Enquête sur le concept de modèle, PUF, Paris.

LE TREUT H. (2005), Évolution climatique : les modèles et leurs limites, dossier du CNRS accessible en ligne : http://www.cnrs.fr/cw/dossiers/divers/pdfspm/IdP2005/05Letreut.pdf

LE TREUT H. et JANCOVICI J.-M. (2004), Effet de serre : allons-nous changer le climat ?, Champs Flammarion, Paris.

LE TREUT H., VAN YPERSELE J.-P., HALLEGATE S. et HOURCADE J.-C. (dir.) (2004), Science du changement climatique. Acquis et controverses, Éditions de lʼIDDRI, Paris.

MILLER C. A. et EDWARDS P. (dir.) (2001), Changing the Atmosphere. Expert Knowledge and Environmental Governance, MIT Press, Cambridge, Mass.

Page 110: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR112

MORGAN M. S. et MORRISON M. (dir.) (1999), Models as Mediators : Perspective on Natural and Social Science, Cambridge University Press, Cambridge.

NEBEKER J. (1995), Calculating the Weather : Meteorology in the 20th Century, International Geophysics Series, vol. 60, Academic Press, San Diego.

ROCHAS M. et JAVELLE J.-P. (1993), La Météorologie, Syros, Paris.ROQUEPLO P. (1993), Climats sous surveillance, Economica, Paris.SERRES M. (2006), « La simulation, technique nouvelle, ancienne tradition », La Recherche,

supplément « Le calcul haute performance », janvier.SHACKLEY S., RISBEY J., STONE P. et WYNNE B. (1999), Adjusting to Policy Expectations in

Climate Change Modeling : an Interdisciplinary Study of Flux Adjustments in Coupled Atmosphere-Ocean General Circulation Models, MIT Joint Program on the Science and Policy of Climate Change, rapport n° 48.

SISMONDO S. (1999), « Models, simulations and their objects », Science in Context, vol. 12, n° 2, p. 247-260.

WEART S. (2003), The Discovery of Global Warming, Harvard University Press, Cambridge, Mass.

Page 111: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

113LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

La modélisation numérique globale du climat de la planète Terre est un domaine de longue tradition qui sʼest développé depuis les années 1960, tiré par plusieurs dynamiques : instrumentales (ordinateurs, domaine spatial), opérationnelles (importance croissante de la prévision météorologique…) et dynamiques proprement scientifiques1. Vers la fin des années 1980, le problème de lʼeffet anthropique des gaz à effet de serre émerge sur la scène politique internationale. Une instance intergouvernementale dʼexpertise – le Groupe dʼexperts intergouvernemental sur lʼévolution du climat (le GIEC – en anglais, IPCC, pour International Panel for Climate Change) – est créée en 1988. La structuration du GIEC en trois groupes de travail, les études quʼil suscite, lʼagenda quʼil définit contribuent à reconfigurer lʼensemble du champ. Après le Sommet de la Terre de Rio en 1992, la Convention-cadre des Nations unies sur le changement climatique (United Nations Framework Convention on Climate Change, UNFCCC) réunit annuellement des conférences qui deviennent les arènes de négociations internationales sur le sujet en même temps que des forums hybrides où se croisent des groupes de plus en plus variés. Dʼautres institutions se créent. Progressivement, les préoccupations centrales de la recherche se modifient, de nouvelles pratiques apparaissent ; les enjeux géopolitiques croisent les questions scientifiques.

En moins de dix ans, le changement climatique est passé dʼun sujet scien-tifique complexe – le climat peut-il changer ? – à celui dʼun thème politique aux enjeux nationaux, économiques, sociaux et diplomatiques, mettant en compétition des intérêts économiques, des conceptions du droit et de lʼéquité, des visions du futur, et faisant diverger les choix politiques. Les commu-nautés de recherche (relevant des sciences dures, des sciences du vivant, de lʼétude des écosystèmes, de lʼéconomie, etc.), les partenaires et les acteurs (négociateurs politiques, ONG, groupes industriels, etc.) concernés par son développement ne cessent dʼaugmenter et de se diversifier. Reprenons ici

1. Voir le chapitre rédigé par Hélène Guillemot dans cet ouvrage.

5

Le régime climatique, entre science,

expertise et politique

Amy Dahan Dalmedico

Page 112: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR114

lʼexpression de régime – au sens non pas des sciences politiques mais des science studies – utilisée par de nombreux auteurs pour caractériser les modes de production du savoir scientifique contemporain, quand ils se déploient pour résoudre des problèmes en liens organiques avec des pratiques indus-trielles, des choix économiques, des régulations politiques et juridiques, des débats éthiques et sociaux2. Notre thèse est alors dʼaffirmer que le régime du changement climatique devient de plus en plus hétérogène et multiple, et se caractérise par une hybridation croissante et singulière des dynamiques proprement scientifiques et des dynamiques politiques.

L̓ objet principal de ce chapitre est de revenir sur cette évolution intervenue au cours des vingt dernières années, sur le rôle déterminant quʼy ont joué le GIEC et dʼautres institutions du régime. Afin de réfléchir à ce que cet exemple nous enseigne sur les liens, à lʼéchelle internationale, entre science et poli-tique ; sur les questions de construction et de fonctionnement à cette échelle de lʼexpertise, prise entre normes de scientificité et exigences de délibération démocratique. Nous interrogerons en particulier lʼidée selon laquelle ce serait par la convergence cognitive de tous les partenaires impliqués autour des questions scientifiques et, ensuite, par le consensus autour de leurs solutions quʼune politique pourrait être définie et acceptée. Comment cette idée rend-elle compte des relations complexes entre science, politique et expertise ?

LA MISE EN PLACE DU RÉGIME CLIMATIQUE

L̓ Organisation météorologique mondiale (lʼOMM – WMO en anglais) a joué un rôle déterminant dans les premières phases dʼascension de la ques-tion de lʼeffet de serre anthropique sur la scène internationale. Cʼest sous son égide que se sont déroulées plusieurs conférences sur le climat entre 1979 et 1987 (à Toronto, au Canada, et à Villach en Autriche), quʼun programme de recherche (le World Climate Program) a été lancé et, enfin, que lʼidée dʼune instance intergouvernementale dʼexpertise capable de conseiller les décideurs politiques sur ce sujet du changement climatique a pris forme.

Une tradition longue d’interactions entre le scientifique et le politique

Dans les années cinquante, lʼémergence de lʼOrganisation météorologique mondiale sʼétait inscrite dans le contexte politique de la guerre froide, et

2. Plusieurs auteurs ont utilisé le terme à propos de lʼInternational Weather Regime mis en place par les météorologistes après la Seconde Guerre mondiale. Voir Clark Miller [2001a] ou Daniel Bodansky [2001]. L̓ utilisation semble devenir ensuite courante à propos du changement climatique. Du côté des science studies, Dominique Pestre [2003], commentant les ouvrages de M. Gibbons et alii [1994] et H. Nowotny et alii [2001], a thématisé lʼexpression de « régime ».

Page 113: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

115LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

ce contexte a influencé la définition même de lʼinstitution, sa forme orga-nisationnelle et la détermination de ses politiques de recherche. En retour, ces dernières ont elles-mêmes influencé les questions de politique générale. LʼOMM, fondée en 1947 par la Convention météorologique mondiale, sʼest vu attribuer en 1951 la qualité dʼinstitution spécialisée des Nations unies, avec un statut intergouvernemental. De statut privé à lʼorigine, lʼinstitution gagne alors un poids plus important pour convaincre les gouvernements réticents de collaborer avec elle. Par exemple, lʼinstallation dʼun réseau mondial d’observations météorologiques, vieux rêve des météorologues, ne fut pas seulement le résultat dʼune meilleure coordination technique. Ce sont bien les conditions politiques du moment qui ont offert lʼopportunité de cette transformation. Lʼappui des États-Unis, pouvoir dominant sur la scène internationale à lʼissue de la guerre, a été essentiel. La création dʼinstitutions (scientifiques) internationales est à cette époque lʼun des moyens dʼaction de la politique américaine contre le communisme, une politique enracinée dans une conception des relations entre le politique et la science qui pos-tule un lien étroit entre progrès scientifique et croissance économique3 (et progrès social).

Les conceptions dominantes du rôle des sciences sur la scène internationale à un moment donné et les modes dʼinteraction entre scientifiques et politiques tendent à définir conjointement le domaine du politique et celui de la science4. Dans lʼaprès-guerre, ces modalités dʼinteraction sont déterminées par trois objectifs principaux :

— harmoniser les normes et les pratiques (nationales) par la coopération technique et scientifique internationale ;

— construire ou renforcer la capacité des États à faire leurs propres recher-ches et entretenir une infrastructure technologique propre ;

— mobiliser la communauté internationale pour des problèmes globaux par la promotion dʼune conception commune de ces problèmes.

La querelle qui sʼest développée pendant lʼAnnée géophysique interna-tionale (International Geophysical Year, IGY) de 1957-1958 autour du type de données à collecter et dʼinfrastructures à installer illustre bien ce propos. Devait-on utiliser les nouvelles ressources de lʼIGY (et de lʼOrganisation météorologique mondiale) pour obtenir enfin des données difficilement acces-sibles, comme les données météorologiques associées à des lieux situés en haute altitude, dans des zones désertiques ou sur les océans, ou bien fallait-il

3. Voir les travaux de John Krige [2006].4. Miller [2001a] les appelle des patterns of interaction et illustre son analyse à partir de deux

autres exemples : les activités de lʼOMM en Libye et la politique de lʼOMM vis-à-vis de la Chine (exclusion puis réintégration de ce pays dans lʼOMM).

Il nʼest pas dans lʼobjectif de ce texte de développer des analyses exhaustives sur ces questions.

Page 114: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR116

utiliser ces ressources pour installer des observatoires dans les zones peuplées (déjà couvertes) afin dʼaffiner les prédictions locales et directement utilisables par les pays ? Les réponses des scientifiques et des politiques étaient a priori fort éloignées ; néanmoins, les modes dʼinteraction des deux groupes ont permis dʼaboutir à la construction de solutions de compromis.

En 1988, lʼOrganisation météorologique mondiale et le Programme des Nations unies pour lʼenvironnement (PNUE) décident de créer une instance mondiale dʼexpertise, unique en son genre : le Groupe dʼexperts intergouver-nemental sur lʼévolution du climat (GIEC). Le GIEC, constitué de plusieurs centaines de scientifiques, est chargé non seulement dʼinformer les gouverne-ments de lʼétat des connaissances sur le sujet, mais aussi de passer en revue les politiques nationales ou internationales liées à la question des gaz à effet de serre. Ce nouvel organisme dʼexpertise doit faire lʼétat de lʼart (scientifi-que et technologique), susciter des recherches utiles aux politiques – ce que lʼon nomme la policy-relevant research. Cependant, il ne doit en aucune manière empiéter sur les prérogatives et la souveraineté des États nationaux, et sa mission sʼoppose à tout ce qui pourrait être perçu comme une démarche prescriptive (policy-prescriptive research).

La période nʼest plus celle de la guerre froide. La question climatique et ses dimensions environnementales vont se révéler dʼune telle ampleur quʼelles vont notamment contribuer au retour sur la scène internationale des pays en développement. Certes, le changement climatique nʼest pas le seul facteur de la reprise du dialogue Nord-Sud, en panne depuis la décolonisation des années 1960, et qui nʼavait pas débouché sur un rattrapage des écarts de développement. Certes, lʼémergence récente dʼun marché mondial, dominé par les concentrations industrielles et financières, a provoqué par le processus des délocalisations un transfert de richesses vers des pays émergents et recon-figuré la répartition du développement. Mais dʼautres modes dʼinteraction se mettent en place progressivement dans une co-construction du scientifique et du politique quʼil sʼagit dʼexplorer dʼici.

Le Groupe d’experts intergouvernemental sur l’évolution du climat

Les États-Unis ont joué un rôle déterminant pour faire pression sur le conseil exécutif de lʼorganisation météorologique mondiale et imposer le compromis dʼun tel mécanisme intergouvernemental. Pourtant, les points de vue américains étaient aussi variés que concurrents. LʼAdministration républicaine pensait en particulier quʼil nʼy avait aucune évidence scienti-fique quant au changement climatique qui puisse justifier une action poli-tique trop onéreuse. En revanche, lʼAgence américaine de protection de lʼenvironnement (lʼEnvironment Protection Agency, EPA) et le département dʼÉtat soutenaient lʼidée dʼune convention, mais pas celle dʼun mécanisme

Page 115: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

117LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

intergouvernemental. S. Agrawala [1998a, 1998b] a analysé avec précision le scénario paradoxal qui a conduit une multiplicité dʼacteurs politiques (le PNUE, lʼOMM et de nombreuses agences américaines) et de pays ayant des intérêts très divergents à se défausser sur les scientifiques et à leur abandon-ner le contrôle du processus dʼévaluation. Ils font présider le GIEC par Bert Bolin, célèbre climatologue suédois, vétéran de lʼOrganisation météorologi-que mondiale et des réunions internationales dʼévaluation sur le climat. De plus, les concepteurs du GIEC préconisent dʼemblée la transparence dans la conduite du processus et une participation « universelle » : tous les pays du monde devront y être autant que possible associés (en 2005, 192 représentants dʼÉtats y ont participé).

Selon le cadrage suggéré par Mostafa Tolba, directeur exécutif du PNUE, le GIEC sʼest très vite organisé en trois groupes de travail parallèles (working groups ou WG), qui devaient sʼoccuper respectivement :

— de la science du climat et de la biosphère,— de lʼimpact du changement climatique sur la biosphère et sur les sys-

tèmes socio-économiques (ce groupe sʼoccupe aujourdʼhui également des questions dʼadaptation et de vulnérabilité des écosystèmes),

— des réponses stratégiques au changement climatique (en anglais miti-gation, ou « atténuation du changement »).

Le choix des personnalités présidant les trois sous-groupes fut lʼobjet de négociations et répondait à des critères à la fois politiques et scientifiques. Les spécialistes des sciences de la nature jouaient naturellement le rôle prééminent dans le premier groupe, les économistes occupaient une place hégémonique dans le troisième groupe ; quant au deuxième groupe, il devait réunir des spécialistes de toutes les disciplines : hydrologues, biologistes, écologues, climatologues… ou encore économistes. Que le GIEC soit un organisme dʼexpertise qui, dès lʼorigine, a tenté de maintenir un équilibre fragile entre deux exigences également contraignantes – préserver sa crédibilité scientifique tout en ayant lʼoreille des politiques – mérite toute notre attention5 : comment fonctionne la fabrication des consensus pour le politique et, en retour, quel est lʼimpact de cette « fabrique » sur la vie scientifique ?

Le GIEC a déjà publié trois rapports : en 1990, en 1995 et en 2001 ; la publication du quatrième est prévue en 2007. Dans les premières années de fonctionnement du GIEC, alors que la réalité du changement climatique est encore lʼobjet de vives controverses, les scientifiques du premier groupe sont incontestablement très en pointe. Sʼappuyant sur une longue tradition de recherche, leurs modèles de circulation générale – seuls outils qui permettent de se projeter quantitativement dans le futur – jouent un rôle crucial. Dès le

5. Cette exigence a été constamment réaffirmée par ses présidents successifs (Bert Bolin, Robert Watson qui lʼa remplacé en 1997 et, depuis 2003, lʼIndien Rajendra K. Patchauri).

Page 116: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR118

premier rapport de 1990, à lʼaide de ces modèles auxquels ils intègrent les concentrations de gaz à effet de serre – concentrations croissantes selon lʼhypo-thèse du business as usual –, les climatologues prédisent un accroissement de la température moyenne du globe au cours du XXIe siècle de 0,3 °C par décennie. Ils insistent toutefois sur les incertitudes (concernant le rôle des nuages, les océans, les sols, et aussi les sources et les puits de gaz à effet de serre). Ce premier rapport, qui établissait une claire distinction entre le « chan-gement climatique » – dʼorigine anthropique – et la « variabilité climatique » (attribuable à des causes naturelles), a sensibilisé les politiques et entraîné la convocation par lʼassemblée générale des Nations unies de la conférence de Rio de Janeiro en juin 1992.

Les COP, forums hybrides du régime climatique

Le 21 mars 1994, la Convention-cadre des Nations unies sur les chan-gements climatiques (CCNUCC), décidée à la conférence de Rio, entre en fonction. Dès ce moment, les Conférences des Parties (Conferences of Parties, COP) convoquées, à la fin de chaque année, alternativement dans un pays du Nord ou du Sud, deviennent les forums de la négociation internationale sur le changement climatique. Le processus des COP est un processus avant tout politique dont les enjeux et les acteurs sont particulièrement nombreux et multiples. Lʼenchevêtrement des logiques politiques et des dynamiques dʼintérêt est si complexe quʼil nʼest pas simple de faire le bilan dʼune COP, car juger des résultats, des avancées (ou des stagnations) du processus de négociation dépend du point de vue de quels acteurs, de quelles coalitions dʼintérêts ou de pays on se place.

Outre les séances plénières de la convention (où seuls les délégués ont la parole) et les séances fermées, une COP est le siège de dizaines – voire de centaines – de rencontres, colloques et exposés organisés en parallèle par les divers acteurs. De nombreux États ou coalitions de pays (lʼUnion européenne, le Japon, le Brésil, la Chine, lʼAOSIS6…) rivalisent dʼefforts pour organiser des « événements ». Le GIEC et les divers groupes techniques dʼexpertise qui lui sont liés présentent également leurs rapports et leurs résultats. Les insti-tutions de recherche des différents pays trouvent là une vitrine pour se faire connaître et y exposent leurs publications7. Sans oublier les représentants de

6. L̓ Alliance of Small Island States (lʼAlliance des petits États insulaires).7. Quelques exemples parmi de nombreux autres : le World Ressource Institute (WRI) américain

dirigé par Jonathan Pershing, le Tyndall Center britannique ou le Postdam Institut für Klimat allemand… Jonathan Pershing était le chef de la délégation américaine au moment de Kyoto (COP 3) puis devint directeur à lʼAgence internationale de lʼénergie (non reconduit dans ses fonctions par le gouvernement Bush). Il ne travaille plus aujourdʼhui pour le gouvernement fédéral mais, à la tête

Page 117: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

119LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

lʼindustrie, ceux des agences internationales comme lʼAgence internationale de lʼénergie. Soit, au total, plusieurs milliers de participants8.

Les ONG, quʼelles soient environnementales (les ENGO en anglais) ou de business (BINGO), sont très présentes dans les COP : elles étaient déjà 165 à participer à la première en 1995 et ce nombre nʼa cessé de croître pour atteindre 340 en 2004. Parmi les ENGO, certaines jouissent dʼun crédit moral très important. Mentionnons en particulier le World Wildlife Fund (WWF), Greenpeace, les Amis de la Terre. Le bulletin de leur réseau (le Climate Action Network) édité quotidiennement en anglais et en français au moment des COP, est lu et commenté par tous les participants et constitue un événement. Plus généralement, les interventions des ONG environnementales, au sein ou en marge des COP, et leurs analyses théoriques et politiques sont toujours prises en compte par les délégués des gouvernements, qui en font état dans les discussions officielles9.

Les COP constituent les véritables forums hybrides, selon lʼexpression de Callon, Lascoumes et Barthe [2001], du changement climatique, dont le régime – entre science et gouvernance globale – nʼa cessé de se compliquer tant dans sa composition que dans son fonctionnement. Les communautés savantes et épistémiques sont projetées aux côtés des politiques, des négo-ciateurs, mais aussi des membres de la société civile sur une scène de plus en plus hétérogène.

Cartographie des pays suivant les intérêts en présence

La question climatique concerne tous les pays de la planète. Dès le début du processus dʼexpertise, la volonté politique initiale du PNUE dʼassocier le plus grand nombre de pays possible a été mise en œuvre, jusquʼà impliquer ces dernières années, comme on lʼa dit, 192 États et leur gouvernement. La classification des pays participants en sept familles, établie par Pierre Radanne [2004], rend bien compte des clivages principaux apparus au cours de ces dix années de négociation internationale :

— les pays pleins, dont la démographie présente une forte densité mais une faible croissance, et qui ont, pour la plupart, épuisé leurs ressources fos-siles ; ce groupe comprend lʼEurope au sens large (sans la Russie), le Japon, la Nouvelle-Zélande ; pour certains dʼentre eux, une rupture a déjà eu lieu en 1973, au moment du premier choc pétrolier qui a provoqué une réorientation

du WRI, il conseille divers États, notamment de la côte Est, dans leurs politiques et prospectives énergétiques. Il continue à être une personnalité importante lors des COP.

8. 6 000 personnes ont assisté à la COP 10 de Buenos Aires en 2004 : 2000 délégués, 3000 obser-vateurs ainsi que des membres dʼONG, des chercheurs, des représentants dʼinstitutions diverses.

9. Sur le rôle des ONG au sein du régime du changement climatique, on peut lire Kal Raustiala [2001].

Page 118: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR120

des politiques et des investissements énergétiques (nucléaire et économies dʼénergie) ;

— les pays vides, fortement industrialisés et à faible densité démogra-phique : USA, Canada, Australie ; lʼabondance de lʼespace se traduit par des modes de consommation et dʼurbanisme gaspilleurs dʼénergie, mais ces pays disposent dʼimportantes ressources énergétiques ; leur croissance démogra-phique (souvent liée à une forte immigration) et leur dynamisme économique leur font rejeter toute idée dʼentraves, mais, avec la question climatique, ils sont confrontés pour la première fois à une limite ;

— les pays en transition industrielle, plongés depuis 1990 dans le déclin : il sʼagit avant tout de la Russie – gratifiée dʼune simple stabilisation de ses émissions à Kyoto (en 1997), alors quʼil était clair quʼelle était en pleine régression ! La Russie pourrait à lʼavenir rejoindre les pays vides dont elle partage certaines caractéristiques, tandis que ses ex-pays satellites de lʼest de lʼEurope souffrent de leur pauvreté en ressources énergétiques.

Un groupe de 77 pays – auquel la Chine est souvent adjointe (et que lʼon appelle alors « G77 + Chine ») est divisé, lui, en quatre courants :

— l’OPEP et, plus largement, les pays producteurs de combustibles fos-siles, notamment les pays exportateurs de charbon (Colombie, Indonésie, Australie, Afrique du Sud) qui craignent une diminution de leurs ressources financières – le débat énergétique ayant longtemps favorisé, pour des raisons politiques, les pays producteurs de gaz naturel (Émirats arabes unis, Russie et États dʼAsie centrale issus de lʼex-URSS) ;

— les pays de l’AOSIS : il sʼagit des États-îles de lʼOcéan indien et du Pacifique, du Bangladesh et de quelques autres pays victimes dʼévénements climatiques. Menacés jusque dans leur existence même (risques dʼinondation, cyclones, montée du niveau de la mer…), ces pays pauvres et fragiles ont peu de capacités dʼadaptation, mais leurs élites jouent un rôle très actif, ce qui leur permet de peser davantage dans la négociation que ce que leur influence politique ou leur poids économique pouvaient laisser prévoir ;

— les pays les moins développés (Least-Industrialized Countries, LIC) : ce sont les pays les plus démunis, ayant peu de possibilités dʼanticipation technologique et peu de poids dans les négociations internationales (plusieurs pays dʼAfrique, le Népal…) ;

— enfin, les pays émergents ; ceux-là sortent de la spirale du sous-déve-loppement et commencent à maîtriser leur démographie ; ils manifestent leur crainte que la négociation nʼimpose des limites à leurs émissions et donc à leur essor. Le pôle leader de ce groupe est incontestablement formé de la Chine, de lʼInde, de lʼAfrique du Sud et du Brésil, quatre pays qui rassemblent la moitié de la population mondiale et expriment les intérêts de quatre continents.

Page 119: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

121LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

Cependant, cette classification fondée sur des critères fondamentaux de richesse et dʼintérêts énergétiques ne dit pas tout, et elle doit être croisée avec dʼautres classifications construites à partir de critères différents. Ainsi Robert Cooper10 [1999] classe les États en trois catégories :

— les « prémodernes » tels, par exemple, lʼAfghanistan, le Liberia ou la Somalie : des États très fragiles qui ont sombré dans le chaos, nʼont pas de politique étrangère et rien à négocier ;

— les « modernes » tels lʼInde, la Chine ou le Brésil, parties prenantes de ce grand moteur de la modernisation quʼest lʼÉtat-nation, qui peut prétendre détenir le monopole de la violence légitime ; la défense de la souveraineté nationale y joue un rôle important ;

— les « post-modernes » qui, tels les vieux États occidentaux, ont rejeté lʼusage de la force pour régler leurs différends.

Parmi les post-modernes, Samy Cohen [2003] distingue encore trois sous-catégories :

— les unilatéralistes, tels les USA, en particulier depuis le 11 septembre 2001 ;

— les partisans dʼune « diplomatie morale » : des États qui, comme le Canada, les pays scandinaves ou la Belgique, ont tendance à coopérer avec les instances multilatérales et les ONG internationales et font des valeurs universelles de la justice et des droits de lʼhomme lʼun des principaux axes de leur diplomatie ;

— entre les deux groupes, on peut identifier la catégorie des pays « pragma-tiques », puissances moyennes et anciennes puissances coloniales (la France, la Grande-Bretagne…), qui gardent un fort désir dʼinfluencer la diplomatie et la géopolitique internationales ; leur discours de politique étrangère est volontiers moral, tout en manifestant parfois un tropisme unilatéraliste et souverainiste (cas du président Jacques Chirac par exemple).

Croiser ou superposer les classifications, cʼest garder à lʼesprit la multipli-cité des logiques et des intérêts qui mobilisent chaque pays dans le domaine de la politique climatique. Par exemple, le Canada, soucieux de pratiquer une diplomatie morale, ne rompt pas pour autant avec les intérêts dʼun pays plein. Contrairement aux États-Unis, il a signé le protocole de Kyoto. Pourtant, sa mise en œuvre se heurte à des difficultés et à des inerties considérables que les ONG canadiennes ont vivement dénoncées lors de la COP 11 de Montréal en décembre 2005.

10. Robert Cooper est ancien vice-ministre britannique de la Défense et actuellement un collaborateur de Javier Solana (en charge des questions de politique étrangère et de sécurité commune en Europe).

Page 120: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR122

LE FONCTIONNEMENT DE LʼEXPERTISE

Comme lʼa écrit Ulrich Beck [2001], les risques écologiques se singu-larisent par leur statut ambigu, à la fois objectif et subjectif : objectif, car procédant dʼévolutions physiques aux effets concrets, et subjectif au sens où ils nʼaccèdent à la conscience (individuelle ou collective) quʼau terme dʼun long travail de construction. A fortiori, le risque climatique nʼest pas un donné mais un construit. Au moment de la création de cet organisme dʼexpertise et dʼévaluation des risques quʼest le GIEC, aucun consensus profond nʼexistait entre les gouvernements sur les instances qui garantiraient lʼexpertise, sur ce qui se verrait reconnaître le statut dʼévidence et, enfin, sur les moyens de remettre en question ou de critiquer cette expertise. De vives tensions sont apparues sur tous ces sujets, et elles ont pesé sur les formes quʼa revêtues cette expertise, sur son fonctionnement et sur le périmètre de ses compétences.

Premières tensions politiques

Entre 1990 et 1995, une vaste reconfiguration du régime climatique sʼest clairement jouée, à la suite des insatisfactions exprimées par les pays en déve-loppement à lʼégard du GIEC [Miller, 2001b]. En effet, en 1990, ce dernier (dont le bureau est alors dominé par les sciences dures) présente toujours le problème du changement climatique comme un problème global – posant la question de limites environnementales globales –, tandis que la plupart des pays du Sud le voient déjà comme un problème de surconsommation des pays du Nord. Le GIEC ne se prononce pas sur ce dernier point, qui sort de ses compétences, ce qui conduit les gouvernements des pays en développe-ment à voter dans un premier temps la création dʼun organisme séparé, le Comité international de négociation (le CIN, en anglais INC – International Negociation Committee) pour abriter les négociations politiques.

En 1991, les scientifiques du GIEC réorganisent lʼorganisme tel quʼil fonctionne aujourdʼhui, recentrant les activités du Groupe dʼexperts interna-tional sur lʼévaluation des risques du changement climatique, établissant des règles rigoureuses pour la sélection dʼexperts et pour le reviewing des résultats scientifiques par les pairs. Des unités de soutien technique sont aussi créées qui ont pour fonction autoproclamée de mettre les participants du GIEC à lʼabri des intérêts politiques qui chercheraient à influencer leurs résultats. Le GIEC tente donc de renforcer son image dʼorganisme exclusivement scientifique, ce qui ne désarme pas pour autant la méfiance des pays en développement. En 1992, la Convention-cadre des Nations unies sur les changements cli-matiques jette les bases dʼun « organe subsidiaire de conseil scientifique et technologique auxiliaire dʼévaluation scientifique et technique » (SBSTA :

Page 121: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

123LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

Subsidiary Body for Scientific and Technological Advice) dont la création sera effective en 1995. Ainsi, deux groupes, le Comité intergouvernemental de négociation et le SBSTA, vont servir de tampon entre les négociateurs politiques et le GIEC.

Quand on se penche sur les missions du SBSTA11, une partie dʼentre elles apparaissent relativement proches de celles du GIEC – fournir des évaluations scientifiques sur lʼétat des connaissances, sur lʼeffet des mesures, sur les technologies, bref faire le point de lʼétat de lʼart –, et lʼon pourrait y lire une évidence partagée par tous les négociateurs du rôle que la science doit jouer dans la politique internationale. Or, le constat nʼest pas si simple et même assez loin de ce qui sʼest effectivement passé. En fait, le SBSTA a une mission spécifique par rapport à celle du GIEC : fournir des avis aux gouvernements ; il sera lʼorganisme qui assume les clivages proprement politiques sur lʼexpertise scientifique et ouvre un espace de débat sur cette dernière. Quʼest-ce quʼune connaissance crédible, quʼest-ce quʼune politique légitime, comment la policy-relevant knowledge est-elle utilisée pour définir une politique globale ?

Avec la création du SBSTA, on assiste, au-delà des tensions, à une ouver-ture du spectre entre science et politique et à une répartition des rôles. Dans le dispositif institutionnel du régime, le ressort du GIEC est dʼêtre, pour parler en termes latouriens, une fabrique de purification de la science, même si lʼentreprise est sans cesse remise en chantier par la nature même de ce régime. En revanche, le SBSTA, organisme qui fait le lien entre les gouver-nements et le GIEC, assume lʼexpression politique des controverses apparues au sein des COP et des forums qui les accompagnent. Ce processus a tendance dʼailleurs à se répéter à des échelles inférieures. On peut noter que, chaque fois quʼune instance « se purifie » dʼun point de vue scientifique et cherche à mettre en « boîte noire » certaines questions scientifiques qui pourraient lui sembler tranchées, se crée à ses côtés une autre instance (un comité, un panel technique, un groupe) qui assume plus explicitement les contradictions avec le politique.

11. Le texte de lʼarticle 9 de la Convention qui porte sur le SBSTA stipule : « L̓ organe, agissant sous lʼautorité de la Conférence des Parties et sʼappuyant sur les travaux des organes internationaux compétents, a pour fonctions : a) de faire le point des connaissances scientifiques sur les changements climatiques et leurs effets ; b) de faire le point, sur le plan scientifique, des effets des mesures prises en application de la Convention ; c) de recenser les technologies et les savoir-faire de pointe, novateurs et performants, et dʼindiquer les moyens dʼen encourager le développement et dʼen assurer le transfert ; d) de fournir des avis sur les programmes scientifiques, sur la coopération internationale et la recherche-développement en matière de changements climatiques et sur les moyens dʼaider les pays en développement à se doter dʼune capacité propre ; e) de répondre aux questions scientifiques, technologiques et méthodologiques que la Conférence des Parties et ses organes subsidiaires pourront lui poser. »

Page 122: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR124

Le processus d’expertise GIEC : modèle linéaire classique ?

Du point de vue des relations avec la communauté scientifique, le GIEC est lʼinstance déterminante qui instaure des procédures très strictes chargées de garantir son caractère rigoureusement scientifique. Les rapports sont pré-parés par des équipes de rédacteurs, durement sélectionnés sur la base de leur compétence scientifique (réputation internationale, publications). Le processus de referees est très long et très lourd : la rédaction des chapitres doit passer par deux stades dʼexamen et de réécriture, dʼabord par des pairs scientifiques, ensuite par les pairs et les gouvernements. Les rapports finaux, eux, ont un statut encore différent. Ils sont adoptés en session plénière et sont accompagnés de résumés techniques et de « résumés pour décideurs » ; ceux-ci doivent être approuvés, ligne par ligne, par les représentants des gouvernements. Depuis la création du SBSTA, cʼest ce dernier (représentant, répétons-le, 192 pays) qui donne le feu vert à la recommandation des rapports du GIEC.

Le modèle du GIEC paraît à première vue sʼinscrire dans le mode tradition-nel des relations entre science et société, selon lequel la connaissance précède lʼapplication, le consensus scientifique précède lʼaction politique, mode quʼon a appelé le modèle linéaire12. Ce cadrage a pour corollaire la séparation radi-cale entre science et politique : à la science, les faits et les connaissances ; à la politique, les décisions, les valeurs et les croyances. Le cadrage du modèle linéaire est généralement bien accepté sinon revendiqué par les scientifiques pour des raisons que lʼon peut aisément imaginer : il les protège de la pres-sion des intérêts à court terme, dʼun pilotage trop étroit par les pouvoirs, les lobbies ou le marché, il semble préserver leur sphère dʼautonomie. De plus, la séparation – si elle était acquise – conférerait une légitimité à la science, comme support de lʼaction politique.

Philippe Roqueplo [1997] a distingué deux acceptions du terme dʼexpert : 1) comme adjectif, quand le scientifique expert est un scientifique compétent et familier dʼun domaine quʼil a exploré ; 2) comme substantif, quand l’expert est appelé pour produire, au nom de ses connaissances scientifiques, un avis fondé en vue dʼune décision et dʼune action politiques. Il nʼy a véritablement activité dʼexpertise scientifique que dans le second cas. Or, dans lʼénorme machine quʼest le GIEC, tous les scientifiques parties prenantes du processus ne se situent pas au même niveau de lʼactivité dʼexpertise. La très grande majorité des scientifiques, auteurs ou coauteurs des divers chapitres des grands rapports, fonctionnent comme des scientifiques experts (première acception) qui passent en revue des résultats ou en font la synthèse. En revanche, ceux qui doivent écrire le « résumé pour décideurs », le négocier mot par mot, sont clairement dans la seconde acception de lʼexpertise. Or, un scientifique intervenant comme

12. Voir par exemple Pielke [1997].

Page 123: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

125LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

« expert » fonctionne toujours, consciemment ou pas, comme lʼavocat dʼune certaine cause, et cela est dʼautant plus vrai quʼil considère comme cruciaux les enjeux de la décision à prendre. Comme le notent S. Jasanoff et B. Wynne [1998], la connaissance des experts comporte inévitablement des jugements de valeur tacites sur la nature et la société.

Au GIEC, le processus dʼapprobation ligne à ligne des résumés pour décideurs est bien un processus intensément politique, où sʼexprime toute une gamme dʼintérêts nationaux divergents. Les pays de lʼAOSIS plaident pour lʼintroduction dʼune rhétorique du risque, les pays producteurs de pétrole plaident pour la mention répétée des incertitudes scientifiques et celle de gaz autres que le CO2 ; les pays en développement veulent mentionner le poids des émissions passées, les pays du Nord insistent sur les émissions futures, etc.

La pratique d’une expertise réflexive

Si, aux yeux des scientifiques, les rapports complets du GIEC (plusieurs milliers de pages) constituent un état des lieux de la connaissance scientifi-que relativement fidèle et satisfaisant, faisant apparaître éventuellement les divergences, les incertitudes ou une dispersion dans les résultats, les résumés en revanche ont un statut bien différent. Ils effectuent inévitablement une sélection et une synthèse pour trouver un consensus entre les politiques – y compris sur la formulation des dissensus. Cette recherche dʼun accord sur la manière de formuler les désaccords et les alternatives a pu conduire parfois, dans les résumés, à un style lénifiant sans arêtes ni dramatisation.

Pourtant, est-ce la proximité du processus politique, la déconstruction des évidences scientifiques (en particulier au sein du SBSTA) ou le fait que les contestations politiques viennent de tous bords (pas seulement des pays du Sud, mais aussi de la part des États-Unis ou de lʼAustralie), toujours est-il que le GIEC a encouragé une pratique réflexive de lʼexpertise, notamment dans le cas des controverses scientifiques porteuses dʼenjeux politiques.

Citons le cas dʼun climatologue américain du MIT, Richard Lindzen, qui avait avancé plusieurs théories contestant la rétroaction positive de la vapeur dʼeau et des nuages sur lʼeffet de serre. Ses thèses, en mettant en cause tant lʼimportance du réchauffement global que la capacité des modèles à le simuler, ont vite débordé la sphère scientifique et fourni des arguments de poids aux « sceptiques » du changement climatique. Toutefois, ces désaccords, débattus en profondeur par le groupe de travail du GIEC chargé de rédiger lʼexpertise sur ce point, ont été en grande partie résolus. Une scientifique française [Bony, 2004], membre du groupe, en a fait le récit. Elle y voit un exemple de la façon dont la controverse scientifique rigoureuse peut faire progresser lʼexpertise. Nous pouvons, réciproquement, y trouver un exemple de la manière dont une polémique politique peut faire avancer la controverse scientifique : la

Page 124: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR126

nécessité dʼobtenir une réponse scientifiquement inattaquable au regard des enjeux politiques, la capacité du GIEC à réunir les meilleurs spécialistes du domaine, la rigueur des procédures de débat quʼil a instituées sont certainement pour beaucoup dans la construction dʼun accord scientifique satisfaisant. La fabrication dʼun consensus, y compris sur des questions hautement controver-sées et porteuses dʼenjeux politiques, paraît stimuler, au cours du processus dʼécriture de lʼexpertise, la réflexivité scientifique. Nous sommes fort loin du modèle linéaire dʼune expertise, où les scientifiques auraient la tentation de mettre en boîte noire le maximum de faits et de les présenter au politique comme une réalité « dure ».

L’élargissement du champ de l’expertise

La recomposition du régime climatique des années 1992-1995 et les critiques dont le GIEC a été lʼobjet nʼont pas laissé ce dernier indifférent. Dʼune part, lʼinstauration du processus politique conduit insensiblement à une modification des rapports dʼinfluence des trois groupes de travail. Le premier groupe continue à jouer un rôle important, avec à sa tête des figures charismatiques comme Bert Bolin ou John Houghton. Après le premier rapport de 1990 du GIEC, le groupe III, qui ne satisfait pas les États-Unis, est menacé de suppression, puis sauvé grâce à la pression conjointe du bureau du GIEC (dominé par les sciences dures) et des pays européens, avec la neutralité des pays du tiers monde. Ceux-ci obtiennent à cette occasion des garanties dʼéqui-libre dans la coordination des équipes de rédaction des rapports [Hourcade, 2006]. Il est décidé que, désormais, chaque groupe du GIEC sera coprésidé par deux personnalités, lʼune venant dʼun pays développé, lʼautre dʼun pays en développement.

Les économistes sʼefforcent alors dʼélaborer des mesures de mécanismes de marché concernant la réduction des émissions, dans un contexte assez confus de vives controverses, autour notamment de lʼexpression « droits à polluer », une bataille qui brouille en grande partie les enjeux économiques réels du dossier climat [Hourcade, 2000]. Les économistes sont en première ligne dans la phase de préparation du protocole de Kyoto et dans lʼinterface avec le politique. Le résumé de leur travail dans le deuxième rapport (1995) du GIEC est à la base du mandat de Berlin qui lui-même a précédé et préparé le protocole de Kyoto en 199713. Ce moment, quʼon ne peut dissocier de diverses difficultés et insatisfactions à propos du protocole de Kyoto qui ne manqueront pas de se développer, marque la montée en puissance du working group II,

13. Les trois principales mesures auxquelles ils ont abouti sont les suivantes :— les permis dʼémission internationalement négociables, cʼest-à-dire la possibilité pour un pays

soumis à des quotas dʼémission de les respecter en important des permis additionnels de pays où les coûts dʼabattement des émissions sont inférieurs ;

Page 125: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

127LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

celui qui sʼoccupe de lʼimpact du changement climatique, de la vulnérabilité et de lʼadaptation à cette nouvelle donne.

Dʼautre part, le GIEC ne réduit pas son rôle à la seule préparation des grands rapports dʼévaluation. Dès 1992, au moment où se profilait la création dʼun organisme auxiliaire dʼévaluation, la direction du GIEC, anticipant les besoins des négociateurs, a lancé la préparation de six rapports dits « spéciaux » ou « techniques ». Ces rapports portent sur lʼévaluation nationale des émissions de gaz à effet de serre, sur des questions énergétiques et industrielles, sur des questions agricoles, forestières et plus généralement lʼusage des sols, sur des scénarios dʼémissions, etc. Il faut souligner la diversité de ces questions, leur ampleur, leur dimension prospective. La publication de ces rapports dans la seconde moitié des années 1990 a correspondu dʼailleurs à la volonté du GIEC de répondre de façon plus réactive aux demandes des politiques et dʼalimenter directement le processus de décision. Elle sʼest inscrite finalement dans une répartition des tâches entre le SBSTA et le GIEC sur laquelle nous reviendrons.

La méthodologie du GIEC entre science et politique, les scénarios

Mais revenons dʼabord à la structuration même du GIEC, avec les trois groupes de travail déjà évoqués. La compréhension de lʼinterdépendance de leurs résultats constitue un trait fondamental de la reconfiguration du champ de la recherche comme de lʼensemble du régime climatique. Cette reconfigu-ration, due au GIEC lui-même, rend très délicate toute appréhension séparée des questions relevant de la seule base scientifique et construit lʼhybridation étroite entre science et politique.

Le troisième rapport du GIEC (2001) présente de manière assez détaillée les résultats des projections climatiques jusquʼà la fin du XXIe siècle, qui concluent à une augmentation de la température moyenne à la surface du globe allant de 2,5 °C à 6 °C. En fait, cette fourchette de réponses climatiques, pratiquement constante depuis quinze ans, agrège deux types dʼincertitudes : les incertitudes provenant de la pluralité des modèles et des insuffisances de la connaissance des mécanismes climatiques, et celles qui sont issues des différents scénarios ou trajectoires de la concentration de CO2 intervenant en inputs des modèles – et qui reflètent nos comportements futurs.

— lʼapplication conjointe (AC) : possibilité pour un pays de lʼannexe B (ceux qui se sont engagés à limiter ou à réduire leurs émissions) de mener des projets dʼabattement des émissions dans un pays tiers (lui aussi de lʼannexe B) et dʼen retirer des crédits dʼémission ;

— le mécanisme de développement propre (MDP) : même principe que lʼapplication conjointe, sous contrainte que les projets contribuent réellement au développement durable du pays hôte, classé dans des pays hors annexe B.

Page 126: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR128

Introduits dès 1992 dans un Rapport supplémentaire qui en distinguait six, les scénarios ont fait lʼobjet dʼun rapport spécifique du GIEC en 2000 (le SRES14) et apparaissent comme une composante significative de la méthodolo-gie de lʼorganisme dʼexpertise. De quoi sʼagit-il exactement ? Les socio-écono-mistes élaborent une série dʼimages de lʼavenir agrégeant démographie, modes de développement économique, choix sociaux et technologiques15. Ces images peuvent être des clichés statiques de moments futurs (2050, 2070, 2100…), ou tenir compte des évolutions possibles des modes de développement, dʼoù le terme plus dynamique de scénarios. Toutes ces images sont ensuite retra-duites principalement à lʼaide dʼune seule variable, la concentration de gaz carbonique dans lʼatmosphère16.

La méthodologie du GIEC pour évaluer le changement climatique à venir consiste donc à définir des images du futur, traduites en scénarios économiques, qui produiront (souvent à lʼaide de modèles intégrés) des scénarios d’émission de CO2. Ces émissions seront alors transformées (à lʼaide de modèles du cycle du carbone) en scénarios de concentration atmosphérique de CO2. Enfin, ce sont ces scénarios de concentration qui serviront de « forçage » dʼentrée aux modèles de climat, lesquels produiront, après des mois de calcul sur ordinateur, des simulations climatiques. Concrètement, le GIEC a défini quatre classes de scénarios économiques : A1, B1, A2, B2 (avec près de quarante variantes), qui se distinguent à la fois par leur « soutenabilité » (productivisme versus développement durable) et par leur « ouverture » (marché global versus développement national ou régional protectionniste).

Lʼorigine de la notion de scénario se situe dans les travaux issus de la dynamique des systèmes de Forrester et du Club de Rome des années 1970, et dans une réflexion récurrente et controversée sur les limites de la crois-sance17. Elle a été reprise dans les années 1980 et 1990 dans des modèles dits d’évaluation intégrée, qui couplaient des modèles physiques très simplifiés avec des modèles économiques pour constituer des instruments de simula-tion au service des décideurs et des négociateurs. À bien des égards, il est remarquable que lʼinstance du GIEC ait renoué avec les termes dʼun choix fondamental, relatif aux modes de développement (durable ? de croissance ?) et aux conceptions des rapports dʼéchange entre les diverses parties du globe, tout particulièrement entre le Nord et le Sud.

14. Special Report on Emissions Scenarios [2000]. Voir le texte de Michel Armatte ici même (chapitre III).

15. Ces scénarios ont été élaborés sans postuler lʼintervention explicite de politiques générales en matière de climat et ne prennent pas en compte les objectifs dʼémissions fixés par le protocole de Kyoto, même sʼils postulent à des degrés divers lʼeffet de préoccupations gouvernementales, par exemple le développement de technologies peu consommatrices dʼénergie.

16. Dans le troisième rapport de 2001, quatre autres variables ont été introduites : les concentrations de gaz à effet de serre autres que le gaz carbonique ; et on parle « dʼéquivalent carbone ».

17. Voir le texte dʼÉlodie Vieille Blanchard (chapitre I du présent ouvrage).

Page 127: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

129LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

Certes, le GIEC nʼa ni les moyens ni la vocation de lancer de véritables programmes de recherche ou dʼorienter les politiques scientifiques, que ce soit à lʼéchelon national ou international. Pourtant, en soulignant les incertitudes et les questions ouvertes, il a contribué à orienter le champ de la recherche. Inciter aux couplages dans les modèles climatiques, susciter des recherches sur la question du cycle du carbone, développer le thème de lʼintégration et les modèles intégrés, introduire la question des scénarios, demander des simula-tions sur ces derniers : autant dʼefforts qui ont participé à la recomposition du champ. Plus synthétiquement, par son organisation même en trois groupes et lʼidée que, en droit, les résultats de chacun des groupes rétroagissent par des effets de bouclage sur les résultats des deux autres, le GIEC a été un acteur majeur dans la structuration de la recherche sur le changement climatique.

LES ENJEUX GÉOPOLITIQUES DU CADRAGE DU RÉGIME DU CHANGEMENT CLIMATIQUE

Il nous faut évoquer maintenant lʼascension du thème de l’adaptation dans les conférences annuelles de négociations climatiques (les COP) et expliciter ses enjeux pour les pays en développement. En effet, cette question porte en germe une contestation politique du paradigme fondamental des sciences du climat : la modélisation numérique globale.

Adaptation et pays en développement

Historiquement, on lʼa dit, le changement climatique a été vu comme un phénomène graduel dont les impacts se feraient sentir à long terme, dans les 50 ou 100 ans à venir. La priorité a été accordée à la réduction à court et moyen terme des émissions de CO2 dans les dix ou vingt prochaines années. L̓ objectif ultime de la Convention des Nations unies est explicite : « stabiliser » les émissions pour ne pas dépasser un certain seuil de « dangerosité » (article 2). L̓ adaptation au changement climatique est mentionnée de façon secondaire et peu précise, bien que le niveau de dangerosité dépende beaucoup de la capacité dʼadaptation des écosystèmes et des anthroposystèmes au changement. Le processus de négociation politique, qui a culminé dans le protocole de Kyoto (puis dans les accords de Marrakech pour sa mise en œuvre), sʼest focalisé également sur la réduction des émissions avec une discussion des outils de flexibilité économique.

Or, pour les pays du Sud, lʼenjeu principal est leur développement. La question climatique (celle de lʼémission des gaz à effet de serre) est secondaire dans leur hiérarchie des urgences. Des personnalités importantes, comme lʼArgentin Raul Estrada Oyela (aujourdʼhui président du SBSTA), ont même

Page 128: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR130

accusé le GIEC de souffrir du syndrome de Frankenstein et de dramatiser à lʼextrême la menace climatique. Certains pays, notamment la coalition de lʼAOSIS ou les LIC, sont très concernés par le changement climatique, mais il leur paraît plus urgent de discuter dʼadaptation (construire en dur, se préparer à modifier lʼusage des sols, traiter la question de lʼeau potable, résoudre le problème de la distribution de lʼélectricité…) plutôt que de parler du taux de CO2 dans lʼatmosphère. Quant aux pays émergents comme la Chine, lʼInde ou le Brésil, dont lʼimportance politique ne cesse de croître au sein du forum climatique, ils ont longtemps apprécié dʼaborder aussi les choses par le biais de lʼadaptation, quʼils envisagent comme un moyen de transferts financiers sans engagements de leur part.

Cʼest à Delhi, en 2002 – première COP (après lʼélection de George W. Bush) où les États-Unis ont annoncé quʼils ne signeraient pas le protocole de Kyoto –, que les Américains avancent le thème de la « réduction de la vulné-rabilité des pays du Sud à la variabilité climatique » comme thème central du processus de négociation, et clairement alternatif à celui de la réduction des émissions. Une convergence sʼest alors cristallisée entre les États-Unis qui voulaient retarder le temps de lʼaction et les pays du Sud qui voyaient dans cette thématique une source de financements supplémentaires sans contraindre leur développement et sans évoquer ce qui se passerait au-delà de 2012. Le thème de lʼadaptation nʼa cessé ensuite de monter en puissance jusquʼà la COP 10 de Buenos Aires en 2004, où lʼadaptation a été reconnue comme une nouvelle priorité, au moins à égalité avec la réduction des émissions. L̓ Europe sʼy est ralliée, en affirmant néanmoins – contrairement aux États-Unis – quʼelle ne séparait pas adaptation et réduction.

La modélisation numérique globale, un « langage du Nord » ?

Le thème de lʼadaptation sʼaccompagne en filigrane dʼune contestation importante de toute la méthodologie qui a constitué le cadre du régime du changement climatique depuis quinze ans. « Le langage de la modélisation numérique est un “langage du Nord” qui a eu ses mérites, mais ne peut plus suffire aujourdʼhui », avons-nous entendu à plusieurs reprises de la part de personnalités scientifiques du Sud, peu ou prou impliquées dans le GIEC et proches du SBSTA, et occupant des postes importants18. Lʼexpression surprend et pourrait inquiéter. En fait, ce que ces personnalités dénoncent, cʼest le cadrage politique du régime du changement climatique dans lequel la méthodologie de la modélisation numérique globale a occupé une place trop

18. Enquête effectuée lors des COP 10 et 11 – Buenos Aires (2004) et Montréal (2005). Une douzaine dʼentretiens y ont été réalisés par lʼauteur et Venance Journé. Je remercie vivement cette dernière de sa collaboration et de ses suggestions. Dʼautres chercheurs du domaine font état dʼéchos similaires. Voir Myanna Lahsen [2004] ou Clark Miller [2004].

Page 129: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

131LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

longtemps exclusive. La méthode des modèles consiste principalement en la résolution numérique dʼun problème mathématique dʼévolution (formulé sous la forme dʼéquations aux dérivées partielles) dont on fixe lʼétat initial. Or transférée et utilisée dans le cadre politique, la méthode efface le passé. La notion dʼun état initial – lʼannée 1990 dans le protocole de Kyoto – est particulièrement difficile à accepter pour le Sud puisque, depuis deux siè-cles, le Nord sʼest développé, industrialisé, équipé, et il a pollué. Or tout le processus de négociation se construit sur la prise en considération de ce moment initial, jusquʼà la définition des mécanismes de développement pro-pre prévus par le protocole qui ne pourront être comptabilisés quʼen rapport à un niveau « additionnel » très difficile à évaluer. La méthode naturalise aussi le présent qui devient un acquis donné, nʼayant plus à être interrogé, en dépit des hétérogénéités et des inégalités quʼil embrasse. Enfin, la méthode globalise le futur. Une molécule de CO2 émise nʼimporte où sur la planète est comptabilisée de la même façon ; les modèles intégrés sʼemparent de processus globalisés, homogénéisent des variables, annulent les disparités locales. Le choix de la température moyenne comme variable privilégiée accentue encore ce biais de globalisation.

En dʼautres termes, nos interlocuteurs critiquent une vision « physiciste » qui nʼenvisage le CO2 que par son effet radiatif et ramène les autres gaz à effet de serre à leur seul pouvoir de réchauffement global – le méthane de survivance des rizières dʼAsie étant ainsi assimilé avec le CO2 des voitures du Nord ! Quand il sʼagit de définir un futur socio-économique de la planète, la méthodologie ne saurait être, pensent-ils, celle de la météorologie, et lʼinstant initial englobe forcément un ensemble de conditions politiques, économiques et sociales héritées de lʼhistoire.

Le discours sur le changement climatique de lʼélite scientifique, qui manque dʼexpériences rurales, est dénoncé aussi comme rendant les communautés locales et les peuples indigènes totalement invisibles : par exemple, les vastes étendues forestières de lʼAmazonie seraient considérées du seul point de vue du bilan carbone, sans prise en compte des conséquences sociales et politi-ques des mesures préconisées pour limiter les déforestations [Fogel, 2004]. En résumé, les représentants des pays en développement revendiquent la possibilité dʼune autre perception de la question du changement climatique, à laquelle le thème de lʼadaptation leur semble laisser plus de place. La critique du cadrage politique de tout le régime a culminé à la COP 10 de Buenos Aires, officieusement nommée « COP de lʼadaptation19 », et plusieurs décisions ont été adoptées à ce sujet.

19. Parmi plusieurs auteurs, voir Ott et alii [2005].

Page 130: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR132

Validité universelle des énoncés scientifiques versus confiance morale

Le SBSTA a la qualification, comme le GIEC, dʼ« organisme dʼexpertise », ce qui confirme que le terme dʼexpertise peut englober des réalités très variées. En fait, cʼest un organisme politique, censé fournir directement des avis aux politiques. Il joue, on lʼa dit, un rôle dʼintermédiaire – et de tampon – entre lʼorganisme dʼexpertise scientifique quʼest le GIEC et lʼensemble des délégués des 192 gouvernements des États membres de la Convention qui participent au processus des négociations internationales. Suivant les questions et leur proximité au politique, le SBSTA a dʼailleurs adopté des méthodes ou des agendas différents.

Sur lʼévaluation des risques climatiques, question ô combien fondatrice, des discussions très longues ont eu lieu au sein de lʼorganisme sur les relations à établir avec le GIEC. Au départ, certains délégués au SBSTA récusaient totalement lʼexpertise du GIEC et exigeaient leur propre instance dʼévaluation. Mais ne disposant pas de moyens pour financer une recherche autonome, le SBSTA sʼest orienté vers lʼorganisation de réunions en petits groupes entre ses membres et des experts ad hoc, recourant pour sʼinformer à lʼexpertise du GIEC mais invitant éventuellement dʼautres chercheurs. In fine, il a décidé de se situer à lʼinterface entre le GIEC et la Convention. Il a réussi à imposer que le GIEC lui présente dʼabord ses rapports dʼévaluation ; cʼest lui qui décide sʼil peut ou non les recommander – et sous quelle forme – aux autres insti-tutions internationales, et sʼil demande des rapports additionnels. Un groupe de liaison (composé de représentants du secrétariat du GIEC, de son bureau, du secrétariat de la Convention et de celui du SBSTA) a été constitué pour établir les modalités de coopération entre les deux institutions.

À propos des méthodologies standard permettant de dresser les inventaires nationaux dʼémissions anthropiques20, les participants du SBSTA étaient en désaccord sur leurs contenus, sur les moyens de les établir, sur les institutions chargées de cette tâche, sur la priorité donnée au développement de standards pour les inventaires, sur le statut de ces standards… Seraient-ils élaborés à titre dʼinformation, constitueraient-ils des recours en lʼabsence dʼautres choix ou des impératifs ? En bref : les membres divergeaient sur tout. Les discussions furent très vives, notamment sur la question de la responsabilité des émissions, tout particulièrement en ce qui concerne la déforestation en Amazonie21. À la longue, des compromis ont pu être négociés sur plusieurs fronts. Le SBSTA a ainsi accepté 1° que le GIEC soit responsable de la construction de méthodes ratifiées par la COP (et continuellement remises à jour), 2° que les inventai-

20. Il sʼagit des inventaires concernant les sources dʼémission dans chaque pays desquels sont ensuite soustraits les puits de gaz à effet de serre, non contrôlés par le protocole de Montréal.

21. Voir le texte dʼEmilio Lèbre La Rovere et alii dans cet ouvrage (chapitre VII). Voir aussi Fogel [2004].

Page 131: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

133LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

res nationaux soient soumis à une évaluation internationale, bien que cette « révision » demeure non contraignante pour les gouvernements nationaux. Au final, ce sont ces derniers, et non le GIEC ou tout autre organisme, qui restent responsables de ces bilans. L̓ Inde, le Brésil et même, en 2005, la Chine ont commencé à présenter leurs bilans nationaux dʼémissions. Que les méthodolo-gies standard pour les bilans nationaux dʼémission de CO2 soient développées par les pays eux-mêmes revêt sans doute une importance stratégique, car cette décision assure une meilleure acceptation que celle de standards fournis et une prise de conscience directe de la responsabilité des divers secteurs. Quant à la question des transferts de technologies du Nord vers le Sud, en particulier les technologies friendly-climate permettant aux pays du Nord de gagner des crédits dʼémission en implantant des technologies moins émettrices, elle a été lʼobjet de conflits très vifs, les pays du Nord étant soupçonnés de défendre une stratégie ayant pour eux tous les avantages.

Les débats à lʼintérieur du SBSTA illustrent les défis inhérents à tout effort de mobilisation de la science pour soutenir une politique publique. Ils se sont cristallisés, dit Miller, principalement sur trois ordres de questions22 :

— questions de contingence : le recours à lʼargument de contingence (des événements climatiques) sʼopposant fréquemment à lʼassertion de validité universelle des énoncés scientifiques ou de leurs conséquences ;

— des questions de confiance ou de crédibilité : comment garantir la validité de certaines assertions, avoir confiance dans les résultats des experts scientifiques ?

— des questions dʼordre moral, la science privilégiant toujours certaines voies de connaissance et certaines interprétations de la nature, qui ne vont pas de soi et ne sont pas partagées spontanément par tous les pays.

La déconstruction de lʼévidence scientifique au sein du SBSTA offre beaucoup dʼanalogies avec le processus fastidieux de négociation décrit par Sheila Jasanoff [1995] autour des questions de contentieux lors de procès, aux États-Unis, mettant en cause des résultats scientifiques. Cette déconstruction systématique, associée à la règle du consensus unanime, cʼest-à-dire « un vote, un veto », est à lʼorigine de la lenteur extrême du processus. À plusieurs repri-ses, des scientifiques des trois groupes du GIEC ont préféré ne pas soumettre de nouvelles méthodologies (par exemple relatives aux guidelines) de crainte de voir le processus sʼenliser à nouveau, les méthodologies en compétition pouvant avoir des implications directes sur lʼattribution des responsabilités en matière dʼémissions.

Le SBSTA a fourni un forum dans lequel des pays qui nʼauraient en son absence jamais été impliqués dans des processus dʼorganisation de conseil

22. Nous reprenons ici lʼanalyse de Clark Miller, qui a pu suivre les débats dans le détail durant les premières années de fonctionnement de lʼorganisme.

Page 132: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR134

scientifique ont pu exprimer publiquement leurs craintes et leurs oppositions. Trois répertoires différents de ressources (rhétoriques et pratiques) pour garantir les connaissances et faire avancer les discussions ont joué : 1° les normes politiques de participation démocratique, 2° la règle du consensus pour renforcer la crédibilité de lʼexpertise scientifique – et, ici, lʼouverture à tous les gouvernements est essentielle –, enfin, 3° la participation de toutes les ONG qui confèrent un crédit moral aux divers diagnostics.

Non seulement les systèmes de fiabilité des connaissances scientifiques ne paraissent pas strictement internes à la science, mais on constate même que, au contraire, ils sont fortement liés aux institutions et aux normes politiques. Il ne sʼagit pas tant de dire le vrai de la science aux gouvernements que de faire avancer une compréhension partagée des risques environnementaux glo-baux. On est bien engagé là dans un processus profondément politique, et une compréhension plus précise du processus de gouvernance environnementale globale exigera dʼexplorer davantage comment certaines idées acquièrent un statut consensuel et gagnent crédibilité et autorité.

Le GIEC confronté à ces enjeux géopolitiques

La direction du GIEC a constamment cherché à avoir une représentativité géographique très large, conformément aux missions qui lui ont été assignées dès lʼorigine. Le principe de coresponsabilité des chapitres du rapport (un auteur du Sud et un auteur du Nord) et de la présidence des groupes23 a revêtu une importance considérable : avoir œuvré pour que les pays soient représentés le plus largement possible au sein même du GIEC, sans sʼattacher au fait que les scientifiques des pays en développement pourraient y être de moindre niveau, a contribué à améliorer lʼimage du GIEC dans les pays du Sud sans entamer sa crédibilité scientifique au Nord.

Une perméabilité certaine est également intervenue entre ces diverses institutions. De nombreux scientifiques, ingénieurs et économistes du Sud, dont certains vivaient en Occident, ont pris des responsabilités croissantes dans le régime climatique, ont regagné leurs pays et y dirigent des centres de recherche. Certains sont devenus des experts, voire des négociateurs pour le compte de leurs gouvernements, ils participent éventuellement au SBSTA. Les fonctions et les « casquettes » ont évolué ou se sont superposées.

Comment le GIEC se situe-t-il par rapport aux enjeux nouveaux de lʼadap-tation ? Initialement, la question de lʼadaptation devait être abordée dans le

23. Aujourdʼhui, les présidences des trois groupes de travail sont ainsi partagées : Suzan Solomon (USA) et Qin Dahe (Chine) pour le groupe I, Osvaldo Canziani (Argentine) et Martin Parry (Royaume-Uni) pour le groupe II, Bert Metz (Pays-Bas) et Ogunlade Davidson (Sierra Leone) pour le groupe III, la présidence du GIEC revenant à lʼIndien Rajendra Patchauri qui a succédé en 2003 à la figure très charismatique de Robert Watson (USA).

Page 133: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

135LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

groupe II, mais celui-ci sʼest surtout concentré sur lʼévaluation des impacts du changement climatique, et lʼadaptation a été longtemps négligée. Aujourdʼhui, les dirigeants du GIEC affirment fortement leur engagement dans cette nou-velle priorité de lʼadaptation, et les responsables des groupes II et III pour le 4e rapport (2007) affirment que ce dernier va mieux intégrer lʼanalyse des vulnérabilités et de lʼadaptation, multiplier les études de cas concrets. L̓ objectif est de montrer que prendre des mesures dʼadaptation – entendue ici comme associée à la réduction des émissions – nʼest pas forcément ruineux pour une économie et pourrait même être stimulant. Mettre lʼadaptation en avant, cʼest bouleverser un peu plus la hiérarchie dʼinfluence entre les trois groupes du GIEC, souligner le rôle du deuxième groupe et, surtout, permettre que les pays moins développés et industrialisés sʼintègrent toujours davantage au processus dʼévaluation. En conséquence de ce « tournant de lʼadaptation », le GIEC a décidé dʼélargir lʼévaluation des recherches existantes à lʼanalyse de case-studies et à lʼétude de la littérature grise des pays en développement car, disent les responsables, les savoirs locaux relatifs à lʼadaptation ne sont pas des savoirs codifiés et académiques, ils font peu lʼobjet de publications dans des revues scientifiques internationales. Décision politiquement très significative !

QUELLES LEÇONS TIRER DU FONCTIONNEMENT DU RÉGIME CLIMATIQUE ?

Le régime du changement climatique est marqué par un jeu complexe entre plusieurs institutions et a vu sʼinstaurer de fait une alliance durable entre scientifiques et ONG environnementales. Cette alliance se situe à fronts renversés eu égard aux rapports ayant opposé les experts et les représentants de la société civile dans dʼautres situations de risques24 (OGM, vache folle, sang contaminé…).

Une hypothèse importante à lʼorigine de la constitution du GIEC et de la conception de ses liens au processus de négociation politique était que les pays nʼaccepteraient jamais lʼapplication de mesures ou dʼanalyses qui seraient préconisées au cours dʼun processus dont ils seraient exclus. Cette hypothèse sʼest vérifiée, elle a même nécessité la création dʼune autre insti-tution, le SBSTA.

Dʼune part, en servant de tampon entre le GIEC et les gouvernements, en promouvant une déconstruction des assertions scientifiques par le pouvoir de veto de chaque pays et le conflit sur les questions ouvertes, le SBSTA a tempéré les critiques dont le GIEC était initialement lʼobjet. Il a permis que les pays en développement expriment leurs désaccords sur les solutions préconisées par le

24. Voir à ce sujet Callon, Lascoumes et Barthe [2001], Bonneuil et alii [2005].

Page 134: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR136

GIEC et sur ses priorités, sans que la déconstruction du processus scientifique de conseil nʼaille trop loin – au point par exemple de considérer la science comme intrinsèquement politique. Alors quʼune ONG indienne avait déclaré en 1991 que la science du Nord était une nouvelle forme de colonialisme environnemental, le SBSTA nʼa jamais repris une telle affirmation et exprime toujours son soutien à une « expertise neutre ».

Dʼautre part, la manière dont le GIEC a négocié de fait avec le SBSTA un partage des responsabilités et sa prise en main des rapports techniques, lʼattention quʼil a accepté de porter aux préoccupations des pays du Sud, lʼexpertise réflexive quʼil a réussi à promouvoir lui ont valu la sauvegarde de sa légitimité scientifique et le respect des politiques. Bien que son credo officiel – constamment réaffirmé par ses présidents successifs, Robert Bolin, Robert Watson et Rajendra Patchauri – soit que lʼorganisation a seulement les moyens et la mission dʼévaluer les recherches existantes, et bien quʼil revendique un modèle dʼexpertise classique, le GIEC a contribué incontes-tablement à reconfigurer la recherche sur le changement climatique, jouant le rôle de véritable fer de lance de lʼensemble du régime climatique.

Lʼapprentissage et la création de la confiance au sein des réunions de délégués non experts, la garantie de crédibilité par la délibération démo-cratique, la délégation de tâches aux gouvernements nationaux, ces trois modalités de fonctionnement mises en avant par le SBSTA nʼont pas pure-ment et simplement remplacé les modalités du régime de la guerre froide évoquées en introduction. Elles se sont en partie superposées et combinées avec les précédentes, les scientifiques continuant à mieux se reconnaître dans les modalités antérieures et les dirigeants du GIEC se référant sans cesse à la construction de capacités propres (capacity-building) dans les États en développement, et à la promotion dʼune conception commune des problèmes et des solutions.

En résumé, on peut dire quʼau cours du régime climatique, scientifiques et politiques ont avancé conjointement depuis 1988. Chacun des grands rapports du GIEC a préparé des grands moments de décision politique. Réciproquement, chaque COP, chaque étape nouvelle de la négociation, chaque perspective de prise de décision a été lʼoccasion dʼun temps de conflit, dʼune demande dʼex-pertise supplémentaire ou de lʼimpulsion par le GIEC de nouvelles recherches. Le couple GIEC-SBSTA cristallise cette coproduction du scientifique et du politique, où les deux voies, a priori antagoniques, du conflit politique et du consensus scientifique sʼentremêlent dans un jeu complexe de va-et-vient et de compétitions. L̓ idée parfois exprimée quʼon gagnerait du temps si on pouvait obtenir un consensus des experts, avant que la politisation extrême nʼobscurcisse les enjeux, semble une utopie attribuant une importance déme-surée à lʼexpertise scientifique dans des pays où dʼautres valeurs et dʼautres hiérarchies sont à lʼœuvre – une utopie positiviste qui ne fait rien avancer.

Page 135: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

137LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

L̓ enlisement actuel du processus de Kyoto et surtout lʼabsence de perspec-tives au-delà de 2012 procèdent dʼune bataille culturelle qui doit être menée sur une autre scène que celle des seules négociations, la bataille du débat et de lʼopinion publics.

RÉFÉRENCES BIBLIOGRAPHIQUES

AGRAWALA S. (1998a), « Context and early origins of the Intergovernmental Panel on Climate Change », Climate Change, n° 39, p. 605-620.

– (1998b), « Structural and process history of the Intergovernmental Panel of Climate Change », Climate Change, n° 39, p. 621-642.

BECK U. (2001), La Société du risque, Champs Flammarion, Paris (1re édition 1986).BODANSKY D. (2001), « The history of the global climate change regime », dans LUTERBACHER U.

et SPRINZ D. (dir.), International Relations and Global Climate Change, MIT Press, Cambridge, Mass., p. 23-40.

BONNEUIL C., GAUDILLIÈRE J.-P. ET TESTARD J. (2005), Quelle politique scientifique pour entrer dans le XXIe siècle ? Vers un nouveau contrat entre recherche et société, contribution de la fondation Sciences citoyennes aux états généraux sur lʼavenir de la recherche, octobre, note 2 (http://sciences citoyennes.org/img/pdf/note-recherche-v28.10.04.pdf).

BONY S. (2004), « Comment le débat scientifique a fait progresser lʼexpertise sur les rétroactions atmosphériques », dans LE TREUT H. et alii (dir.), Science du changement climatique. Acquis et controverses, Éditions de lʼIDDRI, Paris, p. 38-42.

CALLON M., LASCOUMES P. et BARTHE Y. (2001), Agir dans un monde incertain. Essai sur la démocratie technique, Le Seuil, Paris.

COHEN S. (2003), La Résistance des États. Les démocraties face aux défis de la mondialisation, Le Seuil, Paris.

COOPER R. (1999), The Postmodern State and the World Order (1996), Demos, Londres.DAHAN DALMEDICO A. (2007), « Models and simulations in climate change. Historical,

epistemological, anthropological and political aspects », dans CREAGER A., LUMBECK E. et WISE N. (dir.), Science without Laws : Model Systems, Cases and Exemplary Narratives, Duke University Press, Durham et Londres, p. 184-237.

DAHAN DALMEDICO A. et GUILLEMOT H. (2006), « Changement climatique : dynamiques scientifiques, expertise, enjeux géopolitiques », Sociologie du travail, juillet-septembre, vol. 48, n° 3, p. 412-432.

DENIS B. (2006), La politique internationale du climat. Analyse du processus de construction du cadre international de lutte contre le réchauffement global, thèse en sciences politiques, Université libre de Bruxelles, 2 volumes.

EDWARDS P. N. et SCHNEIDER S. H. (2001), « Self-governance and peer-review in science-for-policy : the case of the IPCC second assessment report », dans MILLER C. A. et EDWARDS P. N. (dir.), Changing the Atmosphere, Expert Knowledge and Environmental Governance, MIT Press, Cambridge, Mass., p. 219- 246.

FOGEL C. (2004), « The local, the global and the Kyoto protocol », dans JASANOFF S. et MARTELLO M. L. (dir.), Earthly Politics. Local and Global in Environmental Governance, MIT Press, Cambridge, Mass., p. 103-126.

GIBBONS M., LIMOGES C., NOWOTNY H., SCHWARTZMAN S., SCOTT P. et TROW M. (1994), The New Production of Knowledge : The Dynamics of Science and Research in Contemporary Societies, Sage Publications, Londres.

Page 136: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR138

HAAS P. M. (1992) « Introduction ; epistemic communities and international policy coordination », International Organization, n° 46, p. 1-35.

HOURCADE J.-C. (2000), « Le climat est-il une marchandise ? », Études, n° 3933.– (2006), « L̓ expertise face à la crise : leçons de quinze ans de négociations sur la gestion du

climat », en ligne (rubrique Publications, notes et arguments) à lʼadresse : http://www.centre-cired.fr/forum/IMG/pdf/CIREDPN-200601.pdf

JASANOFF S. (1995), Science at the Bar, Harvard University Press, Cambridge, Mass.– (2005), Designs on Nature. Science and Democracy in Europe and the United States,

Princeton University Press, Princeton.JASANOFF S. et MARTELLO M. L. (dir.) (2004), Earthly Politics. Local and Global in Environmental

Governance, MIT Press, Cambridge, Mass.JASANOFF S. et WYNNE B. (1998), « Science and decision-making », dans RAYNER S. et

MALONE E. (dir.), Human Choice and Climate Change, vol. 1, The Societal Framework, Battelle Press, Colombus, Ohio, p. 1-87.

KRIGE J. (2006), American Hegemony and the Post-War Reconstruction of Science in Europe, MIT Press, Cambridge, Mass.

LAHSEN M. (2004), « Transnational locals : Brazilian experiences of the climate regime », dans JASANOFF S. et MARTELLO M. L. (dir.) (2004), Earthly Politics. Local and Global in Environmental Governance, MIT Press, Cambridge, Mass., p. 151-172.

– (2005), « Technocracy, democracy, and US climate politics : the need of demarcations », Science, Technology and Human Values, vol. 30, n° 1, p. 137-169.

LATOUR B. (1999), Politiques de la nature. Comment faire entrer les sciences en démocratie, La Découverte, Paris.

– (2001), L’Espoir de Pandore, La Découverte, Paris.LUTERBACHER U. et SPRINZ D. F. (2001), International Relations and Global Climate Change,

MIT Press, Cambridge, Mass.MILLER C. A. (2001a), « Scientific internationalism in American foreign policy : the case

of meteorology, 1947-1958 », dans MILLER C. A. et EDWARDS P. N. (dir.), Changing the Atmosphere, Expert Knowledge and Environmental Governance, MIT Press, Cambridge, Mass., p. 167-218.

– (2001b), « Challenges in the application of science to global affairs : contingency, trust and moral order », dans MILLER C. A. et EDWARDS P. N. (dir.), Changing the Atmosphere, Expert Knowledge and Environmental Governance, MIT Press, Cambridge, Mass., p. 247-285.

– (2004), « Resisting empire : globalism, relocalization, and the politics of knowledge », dans JASANOFF S. et MARTELLO M. L. (dir.), Earthly Politics. Local and Global in Environmental Governance, MIT Press, Cambridge, Mass., p. 81-102.

MILLER C. A. et EDWARDS P. N. (dir.), Changing the Atmosphere, Expert Knowledge and Environmental Governance, MIT Press, Cambridge, Mass.

NOWOTNY H., SCOTT P. et GIBBONS M. (2001), Re-thinking Science, Knowledge and Public in an Age of Uncertainty, Polity Press, Cambridge.

OTT H. E., BROUNS B., STERK W. et WITTNEBEN B. (2005), « It takes two to tango – climate policy at COP 10 in Buenos Aires and beyond », Journal European Environmental and Planning Law (JEEPL), n° 2.

PESTRE D. (2003), Science, argent et politique, Éditions de lʼINRA, Paris.PIELKE R. (1997), « Asking the right questions : atmospheric sciences research and societal

needs », Bulletin of the American Meteorological Society, vol. 78, n° 2, p. 255-264.RADANNE P. (2004), « Les négociations à venir sur les changements climatiques », Études

prospectives, n° 1.

Page 137: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

139LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE

RAUSTIALA K. (2001), « Nonstates actors in the global climate regime », dans LUTERBACHER U. et SPRINZ D. F., International Relations and Global Climate Change, MIT Press, Cambridge, Mass., p. 95-117.

ROQUEPLO P. (1993), Climats sous surveillance, Economica, Paris.– (1997), Entre savoir et décision, l’expertise scientifique, Éditions de lʼINRA, Paris.THEYS J. et KALAORA B. (1992), La Terre outragée. Les experts sont formels !, Éditions

Autrement, Paris.YAMIN F. et DEPLEDGE J. (2004), The International Climate Change Regime, A Guide to Rules,

Institutions and Procedures, Cambridge University Press, Cambridge.YEARLEY S. (1996), Sociology, Environmentalism, Globalization, Sage Publications,

Londres.

Page 138: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR140

Dès que la question climatique émergea sur lʼagenda international en 1988, les modélisateurs furent submergés de commandes pour répondre à deux questions : faut-il agir maintenant ou attendre des preuves évidentes des risques encourus ? Comment coordonner des politiques touchant à lʼensemble des secteurs dʼactivité dans les 192 pays membres des Nations unies ?

L̓ économiste est mis ici au défi de lʼambition quʼil se donne, soit, pour reprendre lʼexpression dʼAlan Manne, to put some rationale into discus-sions, fournir un langage commun à des parties prenantes séparées par des divergences dʼintérêts et par des vues contrastées des enjeux. Son utopie mobilisatrice est celle dʼun dialogue serein entre, dʼune part, les partisans de lʼaction, convaincus de la gravité des risques climatiques et de la possibilité de « décarboniser » nos économies à coûts faibles et, dʼautre part, les tenants de lʼinaction, optimistes sur lʼampleur des risques et pessimistes sur les coûts dʼune décarbonisation significative.

Quel bilan tirer un quart de siècle plus tard ? On partira ici de lʼidée que, au-delà dʼun flux de « chiffres » fournis de façon continue, la contribution la plus cruciale de la modélisation sʼest faite au niveau de la problématisation même des enjeux. Le fait que le protocole de Kyoto soit un unfinished business (retrait des USA, pas dʼengagement quantifié des pays en développement) est certes dû à plusieurs facteurs dont des paramètres géopolitiques puissants. Mais on ne peut faire comme si la structuration intellectuelle du processus nʼétait pour rien dans ce semi-échec, alors même quʼun accord était loin dʼêtre impossible entre « intérêts économiques bien compris » [Hourcade et Ghersi, 2002]. Nous essayerons de montrer que, parmi les obstacles à un compromis, il y a les difficultés des modélisateurs à maîtriser les visions du monde (donc les malentendus) qui se créent autour de leurs exercices et les tensions entre les règles de la syntaxe des modèles (imposée par les mathématiques et par les contraintes calculatoires), celles de leur sémantique (imposée par le corpus

6

Les modèles dans les débats de politique climatique :

entre le Capitole et la Roche tarpéienne ?

Jean-Charles Hourcade

Page 139: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

141LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

théorique sur lequel ils sʼadossent) et les glissements de sens provoqués par lʼutilisation dans le langage « naturel » des débats publics de notions sorties de leur contexte sémantique.

Nous le ferons par un itinéraire passant par trois lieux importants de contro-verse sur les politiques climatiques. À chaque étape, nous demanderons au lecteur un peu de patience et nous lʼarrêterons sur des « détails » apparemment techniques. Dans ces détails se jouent en effet les tensions entre les modèles comme langage de vérité sur le monde réel et les modèles comme langage de négociation entre des acteurs.

Les modèles dont on parle ici sont des artefacts utiles pour « penser » les enjeux des mondes futurs. Mais on va voir comment ceux-ci sont interprétés en fonction de croyances préétablies (changeantes en fonction des périodes et des nécessités rhétoriques) et comment, sans élucidation de ces interprétations, les risques sont grands que les exercices modélisés ne participent à des jeux de masque qui amoindrissent leur capacité à révéler des mécanismes méconnus et pourtant essentiels pour les débats publics.

ÉVALUATION DES POLITIQUES : ET SI ON REGARDAIT LE SCÉNARIO DE RÉFÉRENCE ?

Toute évaluation des politiques publiques repose sur un principe simple : projeter un scénario de référence, puis y injecter des mesures qui le déforment. Il est alors frappant de constater que les discussions se polarisent sur ces mesures sans trop prêter attention au scénario de référence, comme si celui-ci nʼétait quʼun simple détour du raisonnement. Or comme on va le constater, lʼécriture de ce scénario prédétermine bien des conclusions.

Les enjeux d’un dialogue récurrent entre deux modeling tribes

Une part importante des scénarios énergie-croissance utilisés dans le dossier climat est produite par des modèles dits bottom-up (BU). Riches en information technologique, ils utilisent un langage proche de celui de lʼingé-nieur (expression en quantités physiques des besoins de confort thermique, dʼéclairage, de mobilité ou de force motrice) et leur composante économique se réduit à la projection dʼun scénario de croissance économique simple (le PIB, sa répartition sectorielle et le revenu des ménages) et à la formulation dʼhypothèses sur le coût des techniques et des énergies fossiles. Même si cela nʼest pas systématique, ces modèles conduisent assez aisément à des résultats plutôt optimistes. Les ingénieurs en effet sont habiles à détecter des potentiels « à coûts négatifs », en particulier en matière dʼefficacité des équipements utilisateurs dʼénergie ; ces potentiels sont dus à lʼécart entre les techniques en

Page 140: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR142

place et la meilleure technologie disponible. De même, ils savent dessiner des systèmes futurs de production dʼénergie très peu émetteurs de carbone, chacun bien sûr en fonction dʼune expertise difficilement séparable de ses propres croyances ; tel fera un scénario « doux » mobilisant les énergies nouvelles et renouvelables, tel autre mettra en scène la nouvelle corne dʼabondance que constituerait une « société de lʼhydrogène » adossée au nucléaire civil.

L̓ autre « tribu » est celle des modèles top-down, qui privilégient lʼétude des interdépendances économiques entre groupes sociaux, secteurs et pays. Mobilisant la boîte à outils de lʼéconomiste, elle sʼintéresse aux flux de valeur, mais dessinent de façon beaucoup plus fruste le contenu technique des scéna-rios. Sauf à représenter, on y reviendra, le double dividende à attendre dʼune articulation entre politiques climatiques et réformes fiscales, ces modèles conduisent à des résultats généralement plus pessimistes. En effet, ils mettent en scène des arguments solides qui tempèrent lʼoptimisme des approches dʼingénieur : impacts de la transformation des prix provoquée par les outils dʼincitation (taxes, permis négociables, normes) à mettre en place1, contrain-tes de financement venant du fait que les technologies « sans carbone » sont en général bien plus chères que les énergies fossiles, hausse de la demande provoquée par les gains dʼefficacité énergétique2.

L̓ enjeu du dialogue entre économistes et ingénieurs paraît donc évident : ce ne sont pas des quantités de dollars ou dʼeuros qui émettent des gaz à effet de serre et il faut bien représenter les systèmes techniques ; mais penser ces systèmes indépendamment de leur contexte économique et social, cʼest construire des chimères. Or ce dialogue achoppe sur plusieurs « détails » tech-niques ; si on les regarde de près, on sʼapercevra quʼils sont en fait révélateurs de postures intellectuelles renvoyant à des enjeux plus fondamentaux que la simple question du dialogue entre ingénieurs et économistes.

D’une astuce technique à une vision du fonctionnement du monde

Partons des modèles dʼéquilibre général calculable (MEGC) mobilisés par les économistes pour pallier le caractère partiel des modèles bottom-up. Ces modèles sont apparus dans un contexte précis à la fin des années 1980 : repli des modèles keynésiens critiqués pour leur manque de fondements microéconomiques, mise au point dʼalgorithmes pour la résolution de modèles

1. Il nʼest pas inutile de noter que lʼargument vaut pour lʼexploitation des potentiels à coûts négatifs : si les meilleures techniques ne sont pas adoptées aujourdʼhui, cʼest bien quʼil y a quelque part une défaillance des structures dʼincitation.

2. Si, par des normes ou accords volontaires, on diffuse des moteurs consommant 2 L/100km de carburant ex-fossile, cela fera baisser le coût de la mobilité automobile et rendra le transport routier de marchandises plus compétitif par rapport au rail en lʼabsence dʼune hausse des taxes sur les carburants.

Page 141: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

143LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

dʼéquilibre général de taille respectable tournant sur des micro-ordinateurs. Bientôt, la diffusion de logiciels comme GAMS permet, avec une bonne for-mation mathématique et quelque ténacité, dʼécrire rapidement des maquettes de nʼimporte quelle économie. Les MEGC vont bénéficier dʼun important effet dʼautorité et des modèles empiriques assez riches pourront être adossés à la théorie de lʼéquilibre général, alors que celle-ci était surtout utilisée jusquʼici dans des analyses en statique comparative sur la base de maquettes très compactes de lʼéconomie et ne pouvant fournir que des enseignements qualitatifs sur la nature des mécanismes en jeu. Mais ce succès se fait au prix dʼun tour de force méthodologique dont on méconnaît généralement les implications.

Nous avons vu lʼimportance du traitement de la demande dʼénergie : cʼest là que certains voient une source de coûts négatifs, mais cʼest aussi la variable clé qui contrebalance la hausse du coût en capital des techniques économes en carbone et lʼimpact sur le pouvoir dʼachat des consommateurs dʼune hausse des prix unitaires des énergies. Or, les MEGC vont employer, pour lʼanalyse de la demande, une méthodologie qui va rendre difficile la discussion des marges de manœuvre réelles à ce niveau.

La grande force des modèles dʼéquilibre général calculable est de saisir les interdépendances, et le concept dʼéquilibre est ici central mais dans un sens très précis qui est en fait une contrainte de conservation des flux de valeur. Agents et secteurs interagissent, mais les flux qui les lient doivent être équilibrés dans un sens strictement comptable : si un ménage ou un État est endetté, il y aura simplement un signe moins devant le chiffre donnant son solde. Pour le dire crûment : lʼéquilibre comptable peut renvoyer à des économies très déséquilibrées. Les premiers modèles empiriques utilisant cette approche dans les années 1980 traitaient dʼailleurs dʼéconomies sous-développées fort loin de lʼéquilibre optimal.

Un premier glissement sémantique autour de la notion dʼéquilibre vient de ce que, par opposition aux modèles keynésiens, les MEGC vont chercher un fondement microéconomique en représentant des acteurs économiques rationnels : observant les prix en vigueur, les ménages composent leurs achats de façon à maximiser lʼutilité quʼils tirent dʼun revenu donné et les entreprises sélectionnent la technique qui minimise leurs coûts de production. Quʼil me soit permis de demander ici au chercheur en sciences sociales sceptique sur la notion de rationalité optimisatrice de « jouer le jeu » et dʼadmettre que, après tout, la formalisation dont nous parlons nʼimplique pas nécessairement une adhésion à lʼanthropologie de lʼHomo œconomicus. On peut penser que lʼévo-lution des techniques et des préférences nʼest pas réductible à des mécanismes économiques et, en même temps, admettre quʼune entreprise ne peut prendre durablement le risque dʼune technique plus chère sans raisons stratégiques. De même, la rationalité dʼun consommateur est limitée par lʼinformation dont

Page 142: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR144

il dispose et le système symbolique qui formate ses goûts, mais il ne fera pas durablement exprès dʼacheter très cher un bien peu utile.

Ce qui nous intéresse ici est le nœud de malentendus autour du traitement de la composante physique dans un tel dispositif. Concentrons-nous, pour des raisons de simplicité, sur la fonction de production (le raisonnement vaut, mutatis mutandis, pour la demande des ménages). Lʼinformation de base utilisée par un MEGC est un tableau de flux en valeurs dont on peut tirer une structure de coût (part de dépenses allouées au travail, aux équipements, à lʼénergie et aux autres consommations intermédiaires). Lʼéconomiste ne connaît pas la fonction de production « physique » (au sens de lʼingénieur) qui sous-tend ce tableau, fonction dʼailleurs trop complexe pour être écrite en termes tractables. Mais lʼéconomiste la révèle à un niveau agrégé, grâce à une technique précise3 qui est la reprise dʼun « truc » (wrinkle) employé par Solow [1956] pour écrire son modèle de croissance devenu un modèle canonique de la discipline.

Ce « truc » repose sur lʼhypothèse dʼégalité du rapport des prix des facteurs et de leur productivité marginale (par exemple les salaires avec la productivité du travail). On montre en effet4 que, autour dʼun point dʼéquilibre optimal, on peut faire correspondre à une fonction de production « physique » une fonction coût (en valeur). Concrètement, la première fonction dit que, pour produire 100 unités dʼun produit donné, il faudra 100 000 heures de travail, 300 tonnes dʼénergie (en équivalent pétrole), 20 tonnes dʼacier et 100 unités dʼune machine fictive (lʼamortissement du parc) ; la deuxième dira que les salaires, le pétrole, lʼacier et les machines représentent 30 %, 10 %, 5 % et 15 % du coût de production. Dans les faits, les structures de coût seules sont données par les statistiques ; on peut donc calculer ses coefficients puis révéler ceux de la fonction « réelle » en connaissant les prix des facteurs5.

On peut bien sûr sʼinterroger sur le domaine de validité de ce « truc » dont Solow lui-même avertissait dès 1988 quʼil était acceptable à un niveau agrégé seulement (pour des buts spécifiques), ce qui implique d’être prudent6… [Solow, 1988]. Mais du point de vue des représentations du monde en jeu dans les joutes publiques, la caractéristique majeure de ce truc apparemment anodin est de présupposer quʼà chaque point du temps les choix de techniques sont optimaux pour un vecteur prix donné. Dans un tel dispositif, calibré sur les

3. Voir Berndt et Wood [1975] et Jorgenson et alii [1981].4. Pour les mathématiciens, signalons quʼil sʼagit du lemme dit « de Shephard », soit une

modalité dʼapplication du théorème de lʼenveloppe.5. Il suffit pour cela de choisir une forme fonctionnelle (Cobb-Douglas, CES) et de se munir

dʼun compendium mathématique [Berck et Sydsaeter, 1992] donnant les formules nécessaires.6. Quatorze années plus tard, cet avertissement est confirmé par Frondel et alii [2002] ; après

avoir analysé un millier dʼétudes économétriques, ils concluent « que les déductions faites à partir de ces travaux apparaissent largement comme un artefact et nʼont plus à voir avec une inférence statistique sur les relations techniques ».

Page 143: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

145LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

dépenses dʼénergie (donc lʼénergie finale), toute possibilité de « coût négatif » disparaît ; il ignore par construction les gains dʼefficacité potentiels dans la conversion énergie finale-service énergétique rendu. Il nʼest nul besoin dʼin-sister ici sur lʼimportance politique de cette ignorance. Certains économistes la justifient en considérant que, dans les faits, les potentiels « à coûts négatifs » sont marginaux car, si des technologies étaient réellement supérieures, elles seraient automatiquement adoptées modulo lʼinertie des équipements existants. Les ingénieurs, par leur réductionnisme technique, ignorent dʼimportants coûts cachés qui expliquent le comportement des consommateurs ; ce peut-être des questions dʼergonomie et de difficulté de maintenance pour des techniques de production, ou des questions dʼesthétique et de qualité de service pour les produits finaux. Le temps passant, je crois disposer dʼun échantillon suf-fisamment grand dʼinterventions de collègues pour assurer que « lʼépouse représentative » dʼun économiste américain ne supporte pas le type dʼéclairage que donnent les lampes à très basse consommation. Les économistes peuvent certes reconnaître quʼil existe un résidu de « coûts négatifs » dû aux imper-fections de marché (problèmes dʼinformation, de réseaux de distribution, de structures contractuelles inadaptées comme le partage des responsabilités entre locataires et propriétaires), mais ils font alors valoir que les corriger comporte des coûts de transaction économiques et politiques, ce qui réduit dʼautant le potentiel réellement récupérable [Jaffe et Stavins, 1994].

Or ce débat apparemment simple sur lʼadoption des technologies nʼest quʼun symptôme dʼun autre enjeu plus fondamental quoique moins directe-ment tangible. Constater avec Stiglitz [1998] les difficultés de faire passer des réformes Pareto-improving nʼest pas la même chose que représenter des économies toujours situées sur leur frontière de production efficace réellement atteignable. Un deuxième glissement sémantique sʼintroduit alors : on passe de lʼéquilibre comptable à lʼéquilibre de marché instantané, puis à lʼoptimalité dʼun sentier de croissance équilibré.

Interrogeons-nous en effet sur la vision du fonctionnement de lʼéconomie où il est légitime de penser, moyennant des écarts conjoncturels vite résorbés, que les facteurs de production sont toujours rémunérés à leur productivité marginale. Tout observateur fera observer la réalité du sous-emploi des fac-teurs (périodes de chômage structurel), la volatilité de la valeur des capitaux et la difficulté que représente, dans un contexte de grande incertitude (sur les performances des techniques et sur les demandes finales), lʼinertie des systèmes technico-économiques. Or il existe une hypothèse « raisonnable » et logique où tout cela tient ; cʼest celle des anticipations parfaites où les acteurs sont assez doués pour anticiper, apprendre en fonction des informations reçues et, progressivement, converger vers le sentier de croissance optimal.

À nouveau, je préfère demander au chercheur en sciences sociales de ne pas « sʼénerver » trop vite. Tout économiste tant soit peu soucieux de prise sur le

Page 144: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR146

réel reconnaîtra quʼil sʼagit ici dʼune hypothèse « héroïque ». Le débat de fond est le suivant, résumé par cette phrase bien connue (dans le milieu concerné) dʼAlan Manne et Rutherford : « Si lʼhypothèse dʼanticipation parfaite est peu plausible, lʼhypothèse de comportements myopes est pire encore. » En dʼautres termes, si on ne peut supposer que les agents anticipent correctement à chaque point du temps, il est encore plus faux de supposer quʼils ne sont pas instruits par lʼexpérience. De plus, si on veut représenter des scénarios avec erreur dʼanticipation et correction lente des croyances, on doit multiplier les hypothèses ad hoc sur ces erreurs ; cela débouche sur la genèse ad infinitum de scenarios multiples avec, au total, un « plat de spaghettis » de courbes dont on ne sait que faire. En cas dʼanticipation parfaite au moins, on dispose dʼun cadre analytique clair et univoque, dʼun point de référence dont on connaît les propriétés et quʼon peut comparer à lʼétat actuel des économies.

Ces arguments ne sont pas infondés même sʼils caricaturent un peu les approches sans anticipation parfaite. L̓ écriture de scénarios contrastés permet en effet dʼéviter le piège du « plat de spaghettis » et on peut modéliser les structures dʼanticipation à retenir non pas à partir dʼhypothèses ad hoc, mais sur la base de comportements observables (par exemple les pratiques dʼinves-tissement des secteurs). Les scénarios en anticipation parfaite sont sûrement utiles dʼun point de vue strictement analytique, mais le prix à payer est quʼils ne peuvent représenter que des scénarios « en âge dʼor » situés sur un sentier de croissance régulier. On sʼinterdit alors de représenter ce qui est lʼenjeu majeur du point de vue de la décision publique, à savoir celui de la réaction à un choc exogène (prix du pétrole par exemple) ou à des politiques publiques dʼéconomies en déséquilibre ou en équilibre sub-optimal (chômage structurel par exemple). Communiquer des résultats dans le débat public sans signaler cette limite, cʼest faire comme si, vues sur le très long terme, les imperfections étaient de simples « bruits » autour de tendances régulières. Cʼest une vision possible de la croissance, mais une parmi dʼautres.

Or, représenter les trajectoires de croissance sous forme de trend régulier plus ou moins pentu est loin dʼêtre anodin pour lʼévaluation du coût des poli-tiques climatiques et pour la conduite du débat public.

Les conséquences d’un débat à demi entamé

Un point de pure nécessité logique est le plus souvent ignoré : si le scéna-rio de référence utilise de façon optimale les ressources, toute limite sur les émissions de carbone ne peut que se traduire par une moindre croissance et une baisse du bien-être. Ce nʼest quʼen partant de scénarios comportant des imperfections quʼil y a une place pour des politiques win-win, « sans regret », à coût négatif, peu importe ici le vocable.

Page 145: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

147LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

Le problème est que, historiquement, les discussions se sont polarisées sur une seule facette de cet enjeu : la question du choix des techniques « à coût négatif ». Cette polarisation a été dʼautant plus aisée quʼelle structurait la confrontation entre des tribus bien définies : ingénieurs versus économistes, militants de lʼefficacité énergétique versus tenants des réponses par lʼoffre, partisans versus adversaires du nucléaire. Elle a occulté dʼautres potentiels majeurs de stratégies « sans regret » : prévention des chocs pétroliers (et des coûts militaires et non militaires de la sécurité dʼapprovisionnement), préven-tion des risques de rupture de financement des infrastructures dans les pays en développement, financement des systèmes sociaux, chômage structurel ; autant de dossiers où existent des lieux de complémentarité souvent indirects mais bien réels entre politiques climatiques et politiques économiques.

Cette occultation a été facilitée par le fait quʼorganiser une mobilisation politique et intellectuelle autour de lʼenveloppe macroéconomique des scéna-rios de référence ne va pas de soi. Il y a dʼabord le simple fait quʼune notion comme le double dividende de réformes fiscales renvoie à une réalité moins tangible que les performances des chaudières ou des éoliennes. Mais, plus fondamentalement, joue lʼeffet dʼhypnose qui résulte de la visualisation de courbes croissant de façon monotone et aisément identifiables à ces scénarios sans crises. Ces courbes sont communément adoptées pour des raisons de simplicité mais aussi de political correctness. La croissance est une donnée « naturelle » et lʼon ne saurait admettre aisément des scénarios de moindre croissance ou de crise. Or, cʼest en visualisant des scénarios macroéconomi-ques non optimaux, avec des hauts et des bas, des accidents et des ruptures de trajectoire, quʼon songerait à chercher où sont les lieux de conciliation entre croissance et environnement.

Le déficit dʼanalyse et de perception devient encore plus criant lorsque lʼon parle des pays en développement : comment en effet briser le nœud gordien environnement-développement si on ne part pas de scénarios de base qui incor-porent les caractéristiques de base dʼune situation de sous-développement : économie informelle, forte imperfection des marchés, instabilité des institu-tions ? À ne pas le faire, on sʼenferme dans une problématique sans issue : celle du partage de lʼeffort. Même accompagnée de considérations généreuses sur la beauté du geste, elle est simplement inacceptable pour des pays qui ne peuvent lʼaccepter vu les écarts de niveau de revenu par tête7. Des argumen-tations « à la Lomborg » pour qui, dans lʼarbitrage climat-développement, il faut choisir le développement et la lutte contre la pauvreté deviennent alors légitimes. Avec des scénarios de base, moins esthétiques, moins politiquement

7. Faire remarquer que le riche Chinois ou le riche Brésilien – sans parler des couches aisées de la population en Arabie saoudite ou dans les Émirats – émet plus de gaz à effet de serre que lʼEuropéen moyen est ici diplomatiquement inefficace vis-à-vis dʼun « G77 + Chine » qui négocie pour lʼinstant « en bloc ».

Page 146: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR148

GRAPHIQUES 1 ET 2 – DEUX FAÇONS DE COMPARER DES SENTIERS DE CROISSANCE

Source : CIRED et Zmarak Shalizi [chap. 5].

Page 147: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

149LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

corrects, on sʼapercevrait que, certes, il y a des arbitrages à faire (si des stra-tégies climatiques peuvent être « sans regret », elles ne sauraient être « sans douleur ») mais que ce nʼest pas entre climat et développement.

À titre illustratif de cet effet dʼhypnose, vous trouverez ci-contre deux graphiques qui donnent un scénario de référence concernant la Chine, calculé pour la Banque mondiale à partir dʼun modèle avec déséquilibre et dʼun scé-nario avec tensions énergétiques. Dans le premier, le format de présentation est classique ; on en tire lʼidée rassurante que les tensions énergétiques ne sont pas un problème majeur. Dans le second graphique, on représente les mêmes résultats en variations entre la courbe « sans heurt » et la courbe « avec fric-tion ». Ce qui saute aux yeux alors est la soudaine perte de croissance dans un premier temps, puis un choc vers 2025, comme si la Chine avait alors une fragilité spécifique ; cʼest en fait celle du début dʼinversion de sa pyramide dʼâge, donc de sa capacité dʼépargne. Immédiatement, on se dit alors quʼat-ténuer ces tensions par des politiques dʼefficacité énergétique pourrait être un double dividende significatif des politiques climatiques.

SÉLECTION DES OUTILS DʼINCITATION ; DE LA DIFFICULTÉ DE DISSIPER DES MIRAGES

On connaît le principe du protocole de Kyoto : les pays de lʼannexe B (pays développés) sʼengagent sur des limites quantitatives de leurs émissions de gaz à effet de serre (GES) ; pour les atteindre au moindre coût, ils peuvent importer des permis dʼémission négociables (PEN) dʼautres pays de la même annexe B ou acquérir des crédits dʼémission via des projets dans les pays en développement dans le cadre du mécanisme de développement propre (MDP). Ce principe résulte dʼune histoire complexe, faite de compromis diplomati-ques successifs plus que de volonté expresse de tel ou tel acteur. Ce nʼétait en particulier pas, contrairement à la légende, le premier choix des USA – dont la délégation à la Conférence des Parties de Berlin (COP 1) avait pour mandat de refuser des engagements quantitatifs [Hourcade, 2002]. Les PEN ne sont en fait quʼun moyen de parer les inconvénients de lʼincertitude sur les coûts associés à tout engagement de ce type.

Pour comprendre le rôle des modèles économiques dans ce débat, il faut revenir au constat quʼil nʼy a que deux façons réalistes de coordonner des poli-tiques climatiques à lʼéchelle internationale : des taxes carbone (levées dans chaque pays et recyclées en interne) et des engagements quantitatifs. Or, il en est une autre qui a de fervents partisans, celle dʼengagements sur des « politi-ques et mesures » (P & M). Le problème de cette approche, utile à une échelle locale et sur des dossiers particuliers, est quʼelle ne peut fonctionner comme

Page 148: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR150

système global : comment en effet harmoniser les normes de climatisation entre Reykjavik, Sao Paulo et Boston, comparer les politiques de transport au Japon où les trois quarts de la population sont concentrés dans une énorme mégalopole et dans le Far West américain ? Le risque est de ne sʼaccorder que sur des formules floues. Si on veut des critères plus tangibles, il ne reste donc bien que deux options ; celles-ci ont en commun de faire émerger un prix du carbone. Or, les modèles vont être ici pris entre deux postures – négation absolue de lʼanalyse économique versus hypnose acritique – qui vont obérer gravement la réussite de la négociation.

Tout se joue sur la question du signal prix. Rendre les choses plus chères nʼest en effet pas très populaire et il serait politiquement plus commode dʼéviter lʼalternative taxe versus « droit à polluer ». Dans un pamphlet contre ces derniers, une députée de gauche, dont le nom importe peu, écrivait à peu près : « Et quʼon ne me parle pas des taxes, cʼest un moyen de faire payer les pauvres en permettant aux riches de polluer à leur aise » ; une position de droite dirait : « pas de contraintes sur les entreprises et pas de nouvel impôt qui alimenterait une bureaucratie peu efficace ». Cʼest cette position de refus de faire payer qui explique la permanence de lʼidée dʼune coordination par les P & M : normes techniques, labels, campagnes dʼinformation qui incitent à choisir des technologies peu émettrices de carbone, recherche-développe-ment. Or, en dehors de sa non-négociabilité, elle repose sur un vrai mirage économique, la gratuité.

Quand les modèles montrent que la gratuité est tellement chère qu’on ne saurait l’accepter

Convenons d a̓bord que, pour diviser par quatre les émissions de carbone, il faudra aller au-delà des potentiels d a̓mélioration à très bas coût des appareils utilisateurs d é̓nergie et se doter de techniques plus sophistiquées et plus chères au moins dans un premier temps (sinon le problème serait spontanément résolu). Supposons quʼune norme impose une baisse de 20 % des émissions unitaires moyennes pour produire un bien donné. En fait les entreprises ne sont pas tou-chées de la même façon par cette contrainte : pour certaines, une baisse de 5 % des émissions suffira, qu e̓lles obtiendront à coût nul en organisant simplement un peu mieux l̓ entretien et le réglage de leurs appareils de production ; d a̓utres se situent à la moyenne et il leur faudra augmenter leur coût unitaire de 100 à 120 par exemple ; d a̓utres enfin, parce qu̓ elles ont un vieil équipement, devront débourser 40 par tonne. Si l̓ offre n e̓st pas excédentaire, ces entreprises vont vendre leur produit à 140 par tonne (ou si le marché est élastique à 130 en rognant sur leurs marges), et le résultat sera une rente nouvelle pour les deux autres catégories d e̓ntreprises. En d a̓utres termes, la gratuité dʼune norme n e̓st qu a̓pparente : on croit imposer une contrainte aux industriels, mais ceux-ci en

Page 149: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

151LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

transmettent le coût aux consommateurs et empochent un profit additionnel. Le très libéral Stigler faisait naguère remarquer que les industriels plaident pour les instruments de marché, mais font tout ce qu i̓ls peuvent pour les éviter : les normes constituent en effet, pour les lobbies, les sources de rente les plus habiles. Les taxes (comme des permis d é̓mission vendus aux enchères) permettent de récupérer ces rentes et d e̓n faire bénéficier l̓ ensemble du corps social (baisse d a̓utres prélèvements, soutien aux couches sociales les plus durement touchées par la hausse des prix de l̓ énergie). On a donc, dʼun côté, un effet redistributif négatif caché derrière l̓ apparente gratuité et, de l̓ autre, une vérité des coûts impopulaire mais qui donne les moyens de réduire ces mêmes effets négatifs.

L̓ insistance des économistes sur la nécessité de signaux prix se comprend encore mieux quand on en vient au noyau dur de l a̓ffaire : les transports. Supposons que, par des normes ou des accords volontaires, on diffuse des moteurs consommant 2 L/100km de carburants ex-fossiles ; la conséquence immédiate sera de baisser le coût du kilomètre parcouru, donc d i̓nciter encore plus à la mobilité automobile. De même, des moteurs de camions plus effi-caces accentueraient le recul du rail dans le transport des marchandises. Ces mécanismes pervers ne peuvent être bloqués que par l̓ augmentation du prix des carburants.

Le fait de devoir recourir à des taxes carbone (ou à des permis vendus aux enchères) n e̓st d a̓illeurs pas une mauvaise nouvelle ; les modèles montrent que, si leur produit est correctement recyclé, elles sont (légèrement) favorables à la majorité des secteurs et à l̓ emploi8, car elles permettent de baisser les prélève-ments obligatoires retombant sur les coûts de production (mécanisme de double dividende). Mais les écotaxes, après un long soutien de l̓ Union européenne, vont être bloquées par une coalition hétéroclite où les réflexes antifiscaux et l̓ opposition des industriels se combinent avec la méfiance dʼune partie de la gauche vis-à-vis dʼun outil qui « fait payer les pauvres » ; la mouvance éco-logiste s̓ avère, elle, prise en squeeze entre un discours « pollueur-payeur » et une volonté ne pas paraître « antipopulaire ». On a donc ici, pour le moins, un déficit de capacité de conviction de l̓ analyse économique.

De quelques bonnes raisons d’un déficit de conviction sur une thèse juste

Il est banal de constater lʼexistence de filtres idéologiques qui interdisent dʼaccepter les informations qui déplaisent, dʼoù quʼelles viennent. Mais, dans

8. Ce nʼest pas le cas pour les secteurs très énergivores (sidérurgie, ciment, non-ferreux, produits pétroliers) pour lesquels la solution est a) dʼadmettre quʼune part seulement des permis est acquise aux enchères, lʼautre étant obtenue gratuitement, b) de négocier des garanties auprès de lʼOMC sur la possibilité de mesures protectionnistes contre les pays qui appliqueraient à leur industrie des dispositifs plus laxistes que la règle commune (cf. la position de Stiglitz sur ce point).

Page 150: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR152

le cas présent, il serait par trop commode de sʼen tenir là sans se poser des questions sur la responsabilité propre des modélisateurs. Il existe en effet des faiblesses techniques réelles dans les modèles existants et, lorsque des plaidoyers pour les signaux prix sont construits sans précaution et en forme dʼarguments dʼautorité, le risque est de ne convaincre que ceux qui sont prêts à en accepter dʼentrée de jeu le contenu.

On revient ici, par un autre biais, aux querelles bottom-up versus top-down. Dans leur version la plus pure en effet, les modèles top-down ne peuvent repré-senter aisément que des réactions aux prix ; on peut certes essayer dʼy intégrer des informations bottom-up sur lʼimpact dʼune norme, mais cela se fait via des hypothèses exogènes sans quʼon ait en général assez dʼinformations sur les coûts réels de la norme. Cʼest pourquoi les modélisateurs top-down sont assez réticents sur ce type de manipulation, certains dʼentre eux dʼailleurs par conviction a priori de la supériorité des signaux prix sur les normes (en fait celle-ci dépend des domaines concernés en termes dʼefficacité incitative sur le changement technique). Nier cette faiblesse de lʼétat de lʼart renforce les postures de refus des signaux prix tant il est aisé de donner des exemples de lʼintérêt des mesures « non-prix » comme les normes (qualité, sécurité) ou les politiques dʼinfrastructures. De plus, la quasi-totalité des modèles nʼintègrent que les prix du carbone par rapport aux autres biens et ignorent les prix du foncier et de lʼimmobilier qui sont si importants pour lʼavenir des biocarbu-rants (prix de la terre et compétition bioénergie-production alimentaire) ou pour la dynamique des besoins de mobilité. Ces faiblesses nʼinvalident ni les arguments qui font des prix du carbone un vecteur supérieur de coordination internationale, ni le mécanisme du double dividende ; mais, en présentant le signal prix comme lʼalpha et lʼoméga des politiques climatiques, alors quʼil nʼen est quʼune précondition, tout sera prêt pour un blocage rhétorique tant il est évident que cʼest sur une panoplie plus large de paramètres quʼil faut jouer ; prétendre infléchir les tendances dans les transports via le seul prix du carbone sans toucher à lʼimmobilier et aux infrastructures relève aussi du mirage puisquʼil faudrait atteindre des niveaux de taxe inacceptables politiquement.

La structure de ce blocage rhétorique va se retrouver mutatis mutandis dans lʼaffaire des permis dʼémission négociables. Ceux-ci, parce quʼils introduisent une contrainte sur le commerce extérieur (importation de permis) ont lʼavan-tage, par rapport à des taxes, de pousser les gouvernements à mettre en jeu lʼensemble des variables autres que le prix du carbone. Mais ce système a fait lʼobjet de fortes résistances idéologiques et a été dénoncé comme conduisant à la marchandisation de lʼenvironnement et à la possibilité pour les « riches » dʼacheter des PEN aux « pauvres » sans pour autant transformer leurs modes de consommation. Les modélisateurs vont bien sûr être conviés dans cette querelle, mais ils seront pris au piège de la surinterprétation des résultats par

Page 151: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

153LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

des visions du monde antagonistes et ils participeront souvent eux-mêmes à la mise en place du piège.

Coûts politiques d’effets d’hypnose persistants

L̓ archétype de ce piège est celui de la querelle de la « supplémentarité ». Pour sʼassurer que les permis dʼémission négociables (PEN) ne deviennent pas un instrument à disposition des USA pour éviter tout effort réel, lʼEurope demanda pendant trois ans, sous la pression principalement de lʼAllemagne, quʼil y ait un plafond (concrete ceiling) sur les importations de PEN. Aux USA en revanche, il était nécessaire de démontrer à des sénateurs réticents que le protocole de Kyoto ne conduirait pas à la ruine du pays. Ainsi, Jae Edmonds, un des plus connus des modélisateurs américains, convoqué dans une audi-tion du Sénat, fournit des simulations où le prix du carbone était autour de 20 $/tC, mais cela en important 85 % de la différence entre les objectifs et les émissions du scénario de base. Pour parvenir à ce résultat, il lui suffisait de faire tourner son modèle (SGM) sur lʼensemble du monde, tiers monde compris. Un tel chiffre utilisé pédagogiquement pour montrer que Kyoto ne conduirait pas nécessairement les USA à un désastre économique donnait aux « antidroits-à-polluer » en Europe la preuve que les USA utiliseraient les marchés de permis comme un moyen de contourner les efforts à mener dans leurs propres frontières. En fait, ces simulations supposaient que la totalité du potentiel dʼabattement dans les pays en développement pourrait réellement être exploitée. Or ce potentiel ne peut lʼêtre que via des projets de « développement propre », ce qui en restreint bien sûr lʼampleur (difficultés de définition de projets clairement identifiables, coûts de transaction, difficultés de mesure de la réalité des réductions). Un numéro spécial de lʼEnergy Journal de 1999 (auquel participa J. Edmonds9) le chiffra à 15 %. En introduisant de tels éléments de réalisme, la querelle de la supplémentarité devient vite sans objet : les USA font la majeure partie de leurs réductions chez eux, davantage dʼailleurs que le Japon et lʼEurope qui, dans les modèles, ont des courbes de coût dʼabattement plus pentues que les USA et sont plus intéressés à importer. Mais cette querelle aura décalé de trois ans un accord possible, assez pour quʼune nouvelle administration vienne se retirer du processus.

En fait sʼest créé un jeu de miroirs déformants où chacun des camps en présence interprète les résultats en fonction de sa propre visée argumentative et de sa propre perception du monde, puis une sorte dʼeffet dʼhypnose autour des résultats des modèles qui va toucher les pro et antimarché. Quel est en effet le monde que décrit un modèle mondial ? Cʼest un monde où de grands pays ou grandes régions, face à une contrainte carbone, arbitrent entre une

9. Voir MacCraken et alii [1999].

Page 152: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR154

action domestique ou bien lʼimportation de permis dʼémettre pour y satisfaire. Implicitement, ce sont des acteurs rationnels qui gèrent leurs économies de façon à compenser les effets redistributifs inévitables dʼune politique. Ainsi, la main-dʼœuvre « libérée » dʼun secteur intensif en énergie dans une région se déversera sans heurt dans de nouvelles activités ; de même la différencia-tion des impacts dʼun prix donné du carbone selon les niveaux de revenus sera neutralisée par des politiques appropriées. Enfin, cʼest un monde où les États ne sʼinquiètent absolument pas des conséquences géopolitiques de la structure de leurs échanges – par exemple pour les USA, devoir importer 10 à 15 gigadollars de PEN en majeure partie de la Russie. Le monde décrit par un modèle mondial en équilibre général est donc une sorte de « table rase » qui suppose que les hétérogénéités et aspérités du monde réel sont aisément surmontées grâce à des gouvernements bénévoles et éclairés.

Un tel artefact, il faut y insister, est fort utile pour le raisonnement dans la mesure où il fournit un point de repère solide pour mettre en lumière des mécanismes importants qui restent valides dans des économies plus réalistes. Il nʼest dʼailleurs pas impossible, quand cela est faisable techniquement, de réinjecter dans les mêmes modèles telle ou telle aspérité du monde réel pour en examiner les conséquences. Nous lʼavons vu pour les coûts de transaction du MDP, mais cʼest aussi ce que fait Jae Edmonds lorsquʼil est convié par une administration Clinton, accusée par Bush junior de mener le pays à la ruine, à bien évaluer les coûts potentiels de Kyoto pour lʼéconomie américaine. Il écrit alors un scénario où, en raison dʼun temps de retard dans lʼadoption des mesures appropriées et de non-coordination avec la politique monétaire (taux de change fixe), le coût de Kyoto pour les USA serait de 4 % du PIB sur 15 ans au lieu de 1 % dans son scénario central.

En fait, lʼessentiel des dérives viennent du moment où lʼartefact est pris pour la réalité. Certes, chacun proteste de ne jamais tomber dans un tel piège, mais lʼhypnose sur lʼartefact commence lorsque toutes les rhétoriques sʼorganisent autour de lui. Ainsi, lors de la querelle de la supplémentarité, les antiPEN rejettent lʼidée dʼun marché généralisé du carbone à lʼéchelle mondiale et lʼabsence de régulation publique pour pallier les dysfonction-nements du système (pouvoir de monopole, utilisation stratégique des quo-tas, effets redistributifs). Mais ce quʼils rejettent ainsi, cʼest le système de PEN tel que décrit par les modèles. Or Kyoto nʼinstaure pas un marché généralisé du carbone. Il ne fait que permettre aux États dʼalléger le coût de leurs engagements : stricto sensu, les échanges se font entre États. Ainsi, un pays qui maîtriserait son urbanisme, favoriserait les transports collectifs et les modes doux de déplacement et relèverait la fiscalité des carburants au fur et à mesure des gains dʼefficacité des moteurs, pourrait ne pas avoir de marché du carbone mais intervenir comme exportateur sur les marchés internationaux et être ainsi récompensé de sa bonne conduite. Les tenants

Page 153: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

155LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

de Kyoto, symétriquement, vont faire comme si lʼhorizon du système Kyoto était lʼextension du mécanisme des PEN à tous les secteurs, y compris les transports, et à tous les pays en développement. Ils vont défendre leurs positions sans se rendre compte que cet horizon différait notablement de la lettre et de lʼesprit de Kyoto.

Un point important ici est la rapidité avec laquelle les positions rhétoriques se figent en figures irréversibles. Ainsi, après que, de façon répétée, quinze ministres de lʼEnvironnement eurent fait de la supplémentarité lʼemblème de la position européenne, il devenait quelque peu déplacé dʼexpliquer quʼelle nʼavait pas dʼobjet et desservait même la position économique de lʼEurope. Toute argumentation économique était aisément décrédibilisée au nom même du simplisme des modèles.

Au-delà de lʼépisode de Kyoto, un autre exemple dʼeffet dʼhypnose est celui qui se crée quand la discussion se polarise sur des projections de croissances « en âge dʼor ». Outre le fait dʼinterdire de représenter des stratégies « sans regret », ces projections ont une autre conséquence, à savoir de conduire à des coûts systématiquement modérés des politiques climatiques (sauf quelques modèles dont il est aisé de voir les biais) : Kyoto représenterait de 0,1 à 1 % de perte du PIB pour lʼannexe B sur vingt ans si on recourt aux échanges de permis, soit, dans le pire des cas, un taux de croissance annuel diminué de 0,0049 %. Ce résultat nʼest pas surprenant : dans lʼéconomie flexible des modèles, où les agents prennent à temps les bonnes décisions, le coût des politiques climatiques ne peut quʼêtre faible vu le faible poids de lʼénergie dans la richesse totale.

Ce résultat arrange bien les administrations qui peuvent sʼy caler pour soutenir la possibilité de politiques climatiques ambitieuses sans pour autant adopter les arguments bottom-up qui pourraient paraître trop militants. Il nʼest pas faux de dire que la plupart des ministères des Finances ou de lʼIndustrie légitiment leur réserve vis-à-vis de politiques climatiques agressives en se référant aux modèles top-down alors que ceux de lʼEnvironnement privilégient les modèles bottom-up.

Le problème est que, lorsque lʼon veut convaincre les industriels du bien-fondé des politiques, ceux-ci ont de la peine à accepter des résultats fondés sur des modèles donnant une vision des marchés qui ne correspond pas à leurs propres pratiques (rôle des surprises, de la volatilité des prix, des inerties, des captures de rente). En fait, en partant de modèles simulant des économies plus réalistes (avec déséquilibre, imperfections de marché), on ferait certes apparaître de plus grands risques de dérapage des coûts en cas de politiques mal ajustées, mais aussi des potentiels plus importants de stratégies « sans regret ». Mais, dans ce cas, on changerait les lignes dʼune discussion aujourdʼhui conduite à partir de « camps » bien établis et dont on a pris lʼhabitude.

Page 154: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR156

ÉVALUER LES DOMMAGES : DE LA GESTION DE CROYANCES CONTRADICTOIRES

Un dernier exemple important de la mobilisation des modèles est le débat sur le tempo de lʼaction à partir de 1995 ; lʼenjeu était celui des cibles à retenir à Kyoto pour 2012. La convention Climat (1992) est un chef-dʼœuvre de langage diplomatique puisquʼelle affiche une volonté de stabiliser les concentrations de GES dans lʼatmosphère à un niveau garantissant lʼabsence dʼinterférences dangereuses avec le système climatique sans définir ce niveau. Or, stabiliser à 750 ppm nʼimplique aucune contrainte notable sur les scénarios dʼémission tendanciels alors que 450 ppm exige des efforts sérieux.

Ce que révèle la négligence d’un raisonnement pourtant simple

Sans raison autre que la publication par le deuxième rapport du GIEC dʼun jeu de trajectoires dʼémissions compatible avec des niveaux de stabili-sation, compris entre 350 ppm et 750 ppm (avec un scénario non plausible à 1 000 ppm), lʼattention sʼest focalisée sur le chiffre médian de 550 ppm. Comme, dʼaprès la moyenne des sorties de modèle, ce chiffre correspondait à une hausse de température de 2 °C par rapport à 1990, lʼUnion européenne a ensuite retenu ce chiffre comme plafond de hausse de température à ne pas dépasser. Il sʼagissait dʼun jugement purement politique ; en lʼabsence dʼinfor-mation scientifique sur le coût des dommages, 550 ppm devenait lʼindicateur dʼun seuil de risques inacceptable.

Le débat fut conduit à partir de modèles dit « intégrés » comportant un module de croissance économique compact et des formes réduites de cycle du carbone et de la réponse climatique. Wigley, Richels et Edmonds publièrent dans Nature [1996] un article très utile pour soutenir les positions américai-nes. Ils montraient que, pour stabiliser à 550 ppm, nul nʼétait besoin sur les vingt prochaines années de décrocher de façon significative des tendances en cours : mieux valait attendre que les équipements existants soient obsolètes, les remplacer par des technologies peu émettrices au fur et à mesure des baisses de coût permises par le progrès technique et ne pas ralentir la croissance en investissant trop précocement en projets dʼabattement. Grubb et alii [1997] ont répondu à cet argument dans la même revue en faisant remarquer que nous ne savons pas aujourdʼhui la bonne cible à retenir, cela pour deux raisons : a) on ne sait si une augmentation moyenne de + 2 °C ne provoquera pas dʼimportants chocs locaux susceptibles de se propager sur toute lʼéconomie ; b) 30 % des simulations existantes retiennent un coefficient de sensibilité climatique qui fait quʼil faut rester sous 450 ppm pour ne pas dépasser 2 °C de réchauffement. Il suffit alors de prendre lʼobjectif de 550 ppm comme une moyenne entre 450 ppm et 650 ppm, puis de considérer que nous aurons à

Page 155: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

157LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

choisir la trajectoire définitive dans vingt ans (quand nous en saurons plus) pour conclure quʼil faut un décrochage immédiat significatif (autour de celui exigé par Kyoto) (cf. graphique n° 3 et 4) si on veut se garder la possibilité de bifurquer vers un objectif de 450 ppm.

GRAPHIQUE 3. – STRATÉGIE OPTIMALE DES ÉMISSIONS DE CO2 DANS LE CADRE DʼUNE APPROCHE COÛT-EFFICACITÉ

Source : IPCC (GIEC) [WGIII/TS, p. 67].

GRAPHIQUE 4. – STRAGÉGIE OPTIMALE DANS UNE APPROCHE COÛT-BÉNÉFICE POUR UN SCÉNARIO DE FAIBLE PROBABILITÉ, MAIS DE « CATASTROPHE »

Source : IPCC (GIEC) [WGIII/TS, p. 67].

Page 156: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR158

La signification de lʼexercice est la suivante : soit une population partagée par tiers entre des optimistes qui pensent que les dommages climatiques ne seront pas un problème, des raisonnables pour qui 550 ppm représente une bonne assurance et des craintifs qui veulent rester au-dessous de 450 ppm ; supposons que cette population, plutôt que de se lancer dans des batailles argumentatives qui ne peuvent surmonter les désaccords en temps et en heure, décide de mandater un « planificateur bienveillant » pour quʼil calcule la trajectoire qui maximiserait le « bien-être » collectif sur la base « un homme – une voix ». Cette trajectoire est celle qui permet de ne pas avoir trop dépensé sur deux décennies sʼil sʼavère quʼen fait M. Lomborg, lʼécologiste sceptique [2001], ou M. Allègre avaient raison et de ne pas se trouver dans un lock-in interdisant de pivoter, sʼil le fallait, vers 450 ppm.

Le paramètre central qui explique que lʼargument de lʼaction retardée soit réfuté dans ce type dʼapproche est le jeu entre lʼinertie des systèmes technico-économiques et lʼirréversibilité de lʼaccumulation du GES : si on ne procède à aucune inflexion des tendances sur vingt ans, il devient très coûteux dʼaccélérer la décarbonisation de lʼéconomie pour respecter un plafond de 450 ppm parce que cela implique une accélération du renouvellement des infrastructures. L̓ affaire est scientifiquement tranchée, mais il est intéressant de noter que les critiques de Kyoto évitent de mentionner la structure même du raisonnement. Cet oubli permet dʼaccréditer lʼidée que Kyoto ne sert à rien puisquʼil ne permet que de gagner 0,3 °C de température sur un siècle alors quʼil nʼest quʼun premier coup de frein « en attendant dʼen savoir plus ». Le raisonnement de Lomborg [2001] (repris par C. Allègre) suppose une humanité se comportant comme un conducteur qui, ayant tapoté la pédale de frein dans la perspective dʼun freinage plus sérieux en cas de verglas dans un virage, sʼarrêterait de donner dʼautres coups de frein pour contrôler la vitesse du véhicule au cas où il faudrait sʼarrêter.

Les vrais enjeux de l’analyse coût-bénéfice

Les sceptiques sérieux peuvent ici rétorquer que la structure précédente de raisonnement comporte le risque dʼune dictature de la minorité. On aura compris que le coût de lʼaction retardée vient de lʼaccélération des efforts pour rester dans un « budget carbone » donné. Or, si 5 % de la population votent pour un écologisme intégral prônant un objectif de 400 ppm, alors ils pèseront dʼun poids disproportionné dans le calcul du planificateur ; celui-ci nʼa beau compter que pour 5 % le fait de devoir bifurquer vers 400 ppm, ces 5 % vont dominer le calcul car les coûts de lʼaction retardée pour respecter cette cible tendent vers lʼinfini.

La conclusion est donc quʼil faut rendre raison des plafonds retenus dans le calcul, et quʼon ne peut le faire sans une analyse coût-bénéfice qui mette

Page 157: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

159LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

en balance en termes monétaires les coûts de lʼaction et les dommages évités. Il faut alors comparer des coûts qui se produisent à des périodes de temps différentes, donc utiliser un taux dʼactualisation ; et lʼon bute immédiatement sur le fait que, les coûts dʼabattement et les dommages évités étant séparés par plusieurs décennies, ces derniers comptent vite très peu dans le calcul. Dans une approche de décision séquentielle similaire à celle expliquée plus haut (et où lʼon introduit la possibilité de dommages catastrophiques), il nʼest pas éco-nomiquement rationnel de lancer dès aujourdʼhui des politiques significatives de décarbonisation (cf. graphique n° 4, p. 157). Le GIEC, dans son résumé pour décideurs, met ce graphique en regard du précédent pour bien marquer quʼil y a un choix à faire sur la structure même de la décision.

Un tel résultat nourrit le procès récurrent contre deux pratiques des éco-nomistes : lʼusage dʼun taux dʼactualisation et lʼagrégation monétaire des impacts. Pour la troisième et dernière fois, je demanderai au lecteur de mettre ses doutes entre parenthèses. Je ne le fais pas par manie dʼéconomiste mais par souci de prendre en compte le monde « tel quʼil est ». Il est frappant que ce soit un philosophe, Luc Ferry, qui fasse remarquer dans son attaque contre lʼécologisme que « tout franc dépensé au nom de lʼenvironnement ne le sera pas ailleurs » [Ferry, 1992]. Cʼest Lomborg, un statisticien, qui, pour démontrer quʼil vaut mieux investir sur le développement que sur la prévention climatique, sʼappuie sur le fait que lʼefficacité marginale du capital investi en Inde est de 15 % si lʼon en croit les taux dʼintérêt en vigueur.

À ne pas accepter de débattre sur ce terrain, ce qui est le réflexe courant, on se prive de faire remarquer que, si lʼefficacité marginale des investissements en Inde était vraiment de 15 % pendant cinquante ans, elle permettrait un taux de croissance indien si élevé (de 13 à 14 % par an) que lʼIndien moyen serait alors quatre fois plus riche que lʼAméricain moyen de cette époque. L̓ erreur vient ici de ce que lʼon confond les taux dʼintérêt de court terme (qui incorporent une prime de risque) et le taux dʼactualisation, qui est dicté par le taux de croissance économique de long terme. Si on retient un tel taux et, en toute rigueur, de lʼincertitude sur la croissance, alors les taux acceptables sont plutôt compris entre 2 et 3 % à lʼéchelle mondiale. Un argumentaire « à la Lomborg » montre les dangers du maniement dʼune vulgate économique non encadrée par un modèle dʼensemble cohérent.

À fuir le débat, on se prive aussi de comprendre pourquoi, avec des taux dʼactualisation faibles, même lʼhypothèse de dommages très élevés sur le long terme ne conduit pas à des actions significatives de précaution. À nouveau on retrouve ici lʼimportance dʼun truc de modélisation. Les courbes de dommages couramment utilisées sont des fonctions « régulières » des concentrations (ou de la température) sous forme de paraboles ou dʼexponentielles calées sur des valeurs estimées autour de + 2 °C dʼaugmentation, valeur qui, selon les auteurs, tourne autour de 1 % à 3 % du PIB sur le long terme. Dès lors, si on

Page 158: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR160

veut représenter des dérives catastrophiques pour des hausses de température plus élevées avec des courbes à concavité constante et passant par un point donné pour deux degrés, il faut que les dommages se déploient lentement pendant cinquante ans et nʼexplosent vraiment que vers la fin du siècle. Le graphique n° 3 suffit à sʼen convaincre. Si en revanche on admet, avec la même hypothèse pour + 2 °C, que la courbe des dommages croît de façon moins régulière, présente ici ou là des seuils et des non-linéarités, alors, même en actualisant, on peut montrer la rationalité économique dʼune action plus précoce surtout si on tient compte de lʼincertitude sur la variabilité climatique. Lʼhistoire racontée ici (plus conforme à la succession des événements dits extrêmes ces dernières années) est celle de lʼoccurrence de petits chocs à court terme et dʼune accélération des dommages à partir de 2035-2040 ; vu lʼinertie des systèmes technico-économiques (50 ans pour un système électrique), alors, cʼest bien dès aujourdʼhui quʼil convient dʼagir.

GRAPHIQUE 5. – CONSÉQUENCES CACHÉES DʼUNE TECHNIQUE DE CALIBRAGE

Source : CIRED.

En fait, la joute toujours recommencée entre partisans et adversaires du taux dʼactualisation en ces affaires masque le véritable enjeu : celui des « croyances » sur le rythme de déploiement des dommages climatiques et des raisons pour lesquelles certains voient des dangers que dʼautres nient. Cʼest ici quʼil faut en venir au chiffrage monétaire lui-même et aux causes possibles de non-linéarités dans les dommages. Les évaluations existantes sont très rares et pourront paraître extraordinairement basses. Elles viennent de quelques auteurs : Nordhaus, Fankhauser, Mendelsohn et Tol. En dehors de leur caractère incomplet, elles sʼexpliquent très bien, à nouveau, par la croyance dans les anticipations parfaites ; elles racontent en effet un monde où, face aux transformations du climat, les hommes vont très vite apprendre à sʼadapter et prendre systématiquement les mesures quʼil faut en temps et en

Page 159: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

161LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

heure. On comprend intuitivement pourquoi : si on suppose que nous savons dès aujourdʼhui que le climat de la Riviera va se déplacer vers celui de la Normandie dʼici à la fin du siècle, alors, on peut prévoir en conséquence la migration des infrastructures hôtelières et celle des populations fuyant un cli-mat devenu trop chaud, et organiser les solidarités nécessaires. Sous hypothèse dʼanticipation parfaite et dʼapprentissage rapide sur les évolutions du climat, même une difficulté comme celle de la durée de vie des équipements (les centrales électriques) allant au-delà de cinquante ans est vite résolue : si on connaît les marchés futurs, on peut planifier les investissements lourds avec autant de facilité quʼun investissement récupérable en deux ans.

Le débat sur les dommages est certes une affaire dʼinvestigation scien-tifique sur les impacts du changement climatique : il faut en savoir plus sur le cycle de lʼeau, les réponses des écosystèmes, lʼévolution des biotopes, lʼadaptation des espèces ou la migration des bactéries et des virus. Mais in fine la façon dont ces impacts vont se traduire en des montants de dommages plus ou moins élevés va dépendre de la vision que lʼon a du fonctionnement des sociétés et de leurs capacités à anticiper et à sʼadapter aux imprévus. Comme le montrent des expériences aussi diverses que lʼexplosion dʼAZF à Toulouse, le tremblement de terre dʼIstanbul, les tornades répétées dues à El Niño en Amérique latine, les contraintes ne sont pas ici que financières ; elles viennent aussi du délai technique et organisationnel pour transformer un effort financier en travaux concrets (déficit de compétences, contraintes logistiques, controverses sur les travaux à mener). Or, dans une économie avec déséquilibre, de telles contraintes se transforment en « amplificateurs de coûts » qui portent les dommages à des niveaux nettement supérieurs à ceux que lʼon obtient avec des économies suivant des sentiers de croissance stabilisés sur lesquels on revient aisément après tout écart.

On retrouve ici, par un autre biais, lʼargument selon lequel il faudrait investir sur le développement pour rendre les économies capables de se payer lʼadaptation. Cet argument est légitime à condition quʼon le tienne pour ce quʼil est : une croyance parmi dʼautres, à savoir que les investissements en développement seront toujours désormais bien placés et bien conduits. En toute rigueur, on devrait affecter un degré de probabilité à cette vision du monde par rapport à une vision moins optimiste que jʼincline à penser plus réaliste.

Sinon les arguments ne manquent pas pour montrer les risques de non-linéarités dans les dommages climatiques. Le Premier ministre du Honduras déplora ainsi que le cyclone Michèle en 2001 ait « ramené le développe-ment économique du pays vingt ans en arrière ». De même, lʼexemple de la Nouvelle-Orléans, où le différé des travaux dʼentretien et de renforcement des digues nʼest pas pour rien dans la catastrophe, est très révélateur de la façon dont une négation ex ante dʼun risque peut sʼavérer un facteur dʼamplification du risque.

Page 160: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR162

In fine donc, acceptation ou pas de lʼanalyse coût-bénéfice, la modélisation nʼest quʼun détour pour nous renvoyer aux vrais enjeux que sont notre rapport au risque et les croyances que nous formons concernant la force des impacts et les capacités de réponse de nos sociétés.

CONCLUSION

Le titre de cet article suggère que, convoqués pour éclairer les futurs, les modélisateurs se retrouvent un peu comme les invités au Capitole : bien trop proches de la Roche tarpéienne qui est ici celle du dédain de leurs travaux. Le risque est alors de se priver de ce que, malgré leurs fragilités, les « expériences numériques » quʼils mènent peuvent apporter : forcer chacun à rendre compte de ses conjectures, de ses visions du monde et de ses choix normatifs, en des termes tels quʼon peut en cerner la cohérence et les implications, et cela grâce à ce juge de paix quʼest un modèle numérique.

Jʼespère avoir convaincu le lecteur que beaucoup se joue sur des détails a priori sans intérêt. À chacune des étapes du parcours suivi, jʼai essayé de montrer comment des astuces commodes (interpolation entre 0 °C et 2 °C des courbes de dommages) ou des habitudes méthodologiques (fonctions de production) peuvent sʼavérer dʼune importance inattendue. Cʼest parce que de tels détails ne sont pas discutés quʼil est difficile de contrôler la surinter-prétation des résultats au prisme de visions du monde soit préexistantes, soit provoquées par la présentation même des travaux. Les modélisateurs portent ici une part de responsabilité lorsque, pour protéger lʼélément de vérité contenu dans leurs simulations, par peur de complexifier le message mais aussi par enfermement dans leur propre langage, ils évitent dʼouvrir la boîte à outils et ne se hâtent pas de signaler les glissements sémantiques effectués à partir de leurs travaux.

Mais on ne peut faire comme si les « utilisateurs » eux-mêmes nʼavaient pas leur part de responsabilité : attraction dʼune tangibilité parfois illusoire, manque dʼéducation à lʼincertitude qui fait quʼon va chercher le best guess, le « raisonnable », commodité que représente la polarisation des débats autour de camps bien établis. Tout cela empêche de faire lʼeffort de percevoir la nature des enjeux réels derrière les querelles de modèles.

Or ces querelles sont loin dʼêtre purement techniques ; que ce soit dans lʼécriture des scénarios de base et la recherche de stratégies « sans regret », dans la discussion des mécanismes de marché ou dans celle du coût des dommages, on a vu lʼimportance des notions dʼéquilibre, dʼoptimum et dʼan-ticipation parfaite. Se contenter de dénoncer lʼirréalisme de ces notions, cʼest enfoncer une porte ouverte (encore que des phénomènes dʼhypnose peuvent expliquer que beaucoup les tiennent pour vraies) et ne pas comprendre la raison

Page 161: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

163LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE…

profonde de leur persistance, une sorte dʼhayékisme tacite. La vraie bataille dʼHayek est contre le constructivisme, la prétention de rationaliser le monde et de formater le futur ; il y voit le début de la fin des libertés et fait du marché le seul contre-feu possible. On le faisait de son temps « au nom des lendemains qui chantent » et, implicitement, beaucoup redoutent quʼon puisse le faire au nom des grandes peurs en imposant un volontarisme technologique quelcon-que ; dʼoù dʼailleurs la réticence à expliciter les variables de développement (styles de consommation, technologies, formes urbaines) qui sous-tendent les projections de PIB et à envisager des « futurs alternatifs ».

Certes, la nature des défis actuels empêche de croire que les marchés produiront nécessairement les bons signaux qui viendront en temps et heure ; mais la structure de raisonnement à la Hayek est suffisamment prégnante (et pose un problème suffisamment sérieux) pour quʼon la discute en tant que telle et quʼon ne la laisse pas se lover, à lʼinsu de tous, dans quelque équation plus ou moins sophistiquée.

RÉFÉRENCES BIBLIOGRAPHIQUES

BABIKER M. H., REILLY J. M., MAYER M., ECKAUS R. S., SUE WING I. et HYMAN R. C. (2001), The MIT Emissions Prediction and Policy Analysis, EPPA Model : Emissions, Sensitivities and Comparison of Results, Massachusetts Institute of Technology, Joint Program on the Science and Policy of Global Change, rapport n° 71.

BERCK P. et SYDSAETER K. (1992), Economists’ Mathematical Manual, Springer-Verlag, Berlin.

BERNDT E. R. et WOOD D. O. (1975), « Technology, prices and the derived demand for energy », Review of Economics and Statistics, vol. 57, n° 3, p. 259-268.

FANKHAUSER S. (1995), Valuing Climate Change : the Economics of Greenhouse, Earthscan, Londres.

FERRY L. (1992), Le Nouvel Ordre écologique, Grasset, Paris.FRONDEL M. et SCHMIDT C. M. (2002), « The capital-energy controversy : an artifact of cost

shares? », The Energy Journal, vol. 23, n° 3, p. 53-79.GRUBB M. J., HA DUONG M. et HOURCADE J.-C. (1997), « Influence socioeconomic inertia and

uncertainty on optimal CO2-emission abatement », Nature, n° 390, p. 270-274.HARRISON G. W. et RUTHERFORD T. (1999), « Burden sharing, joint implementation and carbon

coalitions », dans CARRARO C. (dir.), International Agreements on Climate Change, Kluwer Academic Publishers, Dordrecht.

HOURCADE J.-C. (1998a), « Débat autour du principe de précaution », Natures, sciences, sociétés, vol. 6, n° 1, p. 41-45.

– (1998b), « Analyse économique, modélisation prospective et développement durable ou comment faire remonter des informations du futur ? », Économies et sociétés, série F. 36, n° 1, p. 175-192.

– (2002), « Dans le labyrinthe de verre. La négociation sur lʼeffet de serre », Critique internationale, Fondation nationale des sciences politiques, avril, p. 143-159.

HOURCADE J.-C. et GHERSI F. (2002), « The economics of a lost deal : Kyoto-The Hague-Marrakesh », The Energy Journal, vol. 23, n° 3.

Page 162: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR164

IPCC (GIEC) (2001), « Technical summary », Working Group III.JAFFE A. B. et STAVINS R. (1994), « The energy-efficiency gap : what does it mean ? », Energy

Policy, n° 22, p. 804-810.JORGENSON D. W. et FRAUMENI B. M. (1981), « Relative prices and technical change », dans

BERNDT E. R. et FIELD B. C. (dir.), Modeling and Measuring Natural Resource Substitution, MIT Press, Cambridge, Mass.

LOMBORG B. (2001), The Skeptical Environmentalist. Measuring the Real State of the World, Cambridge University Press, Cambridge.

MACCRACKEN C. N., EDMONDS J. A. et KIM S. H. (1999), « The economics of the Kyoto protocol », The Energy Journal, n° 20 (numéro spécial).

MENDELSOHN R., MORRISON W., SCHLESINGER M. et ANDRONOVA N. (2000), « Country-specific market impacts of climate change », Climatic Change, n° 45, p. 553-569.

MENDELSOHN R. et WILLIAMS L. (2004), « Comparing forecasts of the global impacts of climate change », Mitigation and Adaptation Strategies for Global Change, vol. 9, n° 4, p. 315-333.

NORDHAUS W. (2006), « Geography and macroeconomics : new data and new findings », Proceedings of the National Academy of Sciences, mai.

NORDHAUS W. et BOYER R. (2000), Warming the World : Economics Models of Climate Change, MIT Press, Cambridge, Mass.

SHALIZI Z., Energy and Emissions : Local and Global Effects of the Rise of China and India, rapport à la Banque mondiale.

SOLOW R. M. (1956), « A contribution to the theory of economic growth », Quarterly Journal of Economics, n° 65, p. 65-94.

– (1988), « Growth theory and after », American Economic Review, vol. 78, n° 3, p. 307-317.

STAVINS R. (1995), The Costs of Carbon Sequestration, A Revealed Preference Approach, J. F. Kennedy School of Government, Harvard University and Resources for the Future, Harvard, Californie.

STIGLITZ J. (1998), « The private uses of public interests : incentives and institutions », Journal of Economic Perspectives, vol. 12, n° 2, printemps, p. 36-22.

TOL R. S. J. (2002a), « New estimates of the damage costs of climate change, part I : Benchmark estimates », Environmental and Resource Economics, vol. 21, n° 1, p. 47-73.

– (2002b), « New estimates of the damage costs of climate change, Part II : dynamic estimates », Environmental and Resource Economics, vol. 21, n° 2, p. 135-160.

WIGLEY T. M. L, RICHELS R. et EDMONDS J. (1996), « Economic and environmental choices in the stabilisation of atmospheric CO2 concentration », Nature, vol. 379, 18 janvier.

Page 163: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

INTRODUCTION 165

III.

Fabrication des futurs : batailles de représentation

et délibération publique

Page 164: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

7

Les émissions optimales de CO2 le sont-elles vraiment1 ?

Christian Azar

1L̓ ouvrage sur la théorie microéconomique de Layard et Walters [1978] sʼouvre sur lʼaffirmation suivante : « lʼéconomie fait les choses au mieux ». Pourtant, notent les auteurs, David Hume avait déjà remarqué il y a deux siè-cles quʼ« un devoir-être ne peut jamais être dérivé dʼun être ». Dʼune façon ou dʼune autre, tout « devoir-être » est intrinsèquement lié à un jugement de valeur. Cʼest ce qui explique lʼexistence dʼune composante normative forte en économie du bien-être.

Pour déterminer si lʼon doit ou non sʼengager dans un projet, il faut faire un certain nombre dʼhypothèses ; plusieurs dʼentre elles peuvent être discuta-bles dʼun point de vue éthique. Cela est particulièrement vrai dans le contexte des problèmes environnementaux à long terme. Il est important dʼen être parfaitement conscient car nos résultats sont souvent perçus comme affran-chis de tout jugement de valeur. De plus, notre vocabulaire économique, et notamment le concept dʼoptimalité, véhicule une conception platonicienne du monde, selon laquelle il existe – au sens ontologique du terme – un « meilleur choix » possible, que lʼavancée des recherches doit révéler. Cela contribue à accentuer la perception dʼune certaine neutralité vis-à-vis des valeurs. Considérons ci-dessous la littérature économique traitant de la réponse au changement climatique.

On se préoccupe beaucoup des changements climatiques graves quʼocca-sionneront les émissions de gaz à effet de serre, et des menaces qui en résul-teront sur la préservation de lʼéquilibre environnemental et social. Pourtant, plusieurs études économiques – la plus célèbre a conduit au modèle nova-teur DICE de Nordhaus [1994] – ont conclu que des mesures drastiques de contrôle des émissions de CO2 se révéleraient très coûteuses, même si on tient

1. Ce texte est une version remaniée et simplifiée (par Amy Dahan) dʼun article de Christian Azar, paru en anglais dans la revue Environmental and Resource Economics en 1998 [cf. Azar, 1998a]. La traduction est de J. Koskas.

Page 165: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR168

compte des bénéfices engendrés par la baisse des émissions (à savoir éviter les dégâts causés par les changements climatiques). Ainsi, Nordhaus aboutit à la conclusion quʼil serait optimal de laisser les émissions de gaz à effet de serre être multipliées par trois au cours du siècle à venir. Plusieurs autres études parviennent à des résultats similaires, par exemple Manne et alii [1995] et Peck et Teiseberg [1995].

Néanmoins, ces résultats ont été remis en question par un nombre croissant dʼétudes, comme celles de Cline [1992], Azar et Sterner [1996] et dʼautres. Pour Cline, par exemple, une stabilisation des émissions mondiales à 4 GtC/an (soit 30 % en dessous du taux actuel dʼémission de carbone fossile) se justifie-rait « uniquement par des motifs économiques ». Et ce taux dʼémission suffirait à stabiliser, au cours du siècle prochain, les concentrations atmosphériques à des niveaux proches des niveaux actuels2.

Il y a donc de sérieuses raisons pour essayer de mieux comprendre les causes sous-jacentes de ces divergences. On peut clairement attribuer une partie de ces écarts à la détermination des valeurs quantifiées des paramètres, qui pourrait être améliorée avec les progrès de la recherche (aussi bien dans le domaine économique qu é̓cologique ou climatique). Cependant, de telles améliorations ne suffiront pas à concilier ces résultats discordants : ils émanent en fait – et c e̓st là le point fondamental – de désaccords profonds sur certains paramètres clés et sur les choix de modélisation liés à des systèmes de valeurs.

Grubb [1993] écrit que lʼon devra « prendre conscience du fait que des jugements de valeur contestables interviennent, de façon inhérente, dans les études sur les coûts dʼimpact mondiaux. Des hypothèses différentes sur ces jugements de valeur pourraient inverser complètement les conclusions obtenues ». Pour Schneider [1997], il faut impérativement attirer lʼattention sur ces hypothèses, empreintes de valeurs, pour sʼassurer que les modèles intégrés dʼévaluation du changement climatique (et de tout autre problème environnemental) « éclairent plus quʼils ne dissimulent ».

Pour cerner les raisons de ces divergences, notre article identifie quatre questions fondamentales dans lʼanalyse coût-bénéfice du changement climati-que : le traitement des événements à faible probabilité mais à impact catastro-phique (encore appelés « surprises catastrophiques »), lʼévaluation des biens non marchands, la question du taux dʼactualisation et le choix des critères de décision. Nous les aborderons successivement et nous montrerons :

— quʼil faut faire des hypothèses controversées sur le plan éthique pour traiter chacun de ces aspects ;

— que les conclusions politiques obtenues à partir des modèles dʼoptimi-sation sont très sensibles à ces choix ;

2. On passe des taux dʼémission aux taux de concentration dans lʼatmosphère à lʼaide des modèles du cycle du carbone.

Page 166: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

169LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ?

— et que les études ayant abouti à la conclusion que des réductions minima-les sont suffisantes ont toujours fait des choix qui tendent à réduire lʼimportance des arguments les plus courants en faveur des réductions dʼémissions.

Nous présenterons enfin quelques remarques conclusives.

LES ÉVÉNEMENTS À FAIBLE PROBABILITÉ MAIS AUX IMPACTS CATASTROPHIQUES

Bien que plusieurs caractéristiques du changement climatique soient vir-tuellement certaines3 – on sait par exemple que lʼeffet de serre naturel sʼinten-sifiera avec lʼaugmentation des concentrations de CO2 –, les conséquences en sont encore très incertaines, en particulier au niveau régional. Pour lʼanalyse économique coût-bénéfice, on peut traiter ce problème dans le cadre dʼune analyse prédictive dʼutilité. Cette approche nécessite des connaissances sur les probabilités associées aux différentes issues possibles. Cependant, ces probabilités sont inconnues, et il faut alors se baser sur des évaluations de probabilités subjectives.

La sensibilité

Plusieurs études coûts-dommages sur les incertitudes entourant le change-ment climatique ont été menées4. Certaines montrent quʼil faut tenir compte des coûts liés aux incertitudes, mais elles ne sʼaccordent pas sur lʼimportance de ces coûts supplémentaires dans les conclusions politiques générales. Dʼautres concluent que les incertitudes jouent un rôle mineur pour lʼanalyse globale ; mais cela provient en grande partie du fait que ces études ont considéré des distributions de probabilité centrées sur un intervalle relativement restreint autour des dommages prévus. Manne [1996] sʼest intéressé aux événements catastrophiques à faible probabilité, et a compilé les résultats de travaux

3. Il est important de garder cela à lʼesprit, car les partisans du laisser-faire mettent souvent lʼaccent sur les incertitudes qui entourent le changement climatique, à un point tel quʼils font (délibérément ?) douter de lʼexistence de lʼeffet de serre lui-même. Le lecteur pourra, sʼil le souhaite, consulter Mahlman [1997] à ce sujet. Il donne un aperçu concis et une classification des « faits » virtuellement avérés, des projections virtuellement certaines, des projections probables et des projections erronées, dans le cadre du changement climatique.

4. Citons, parmi de nombreux autres : Parry [1993], Peck et Teisberg [1993], Nordhaus [1994], Fankhauser [1995], Tol [1995], Azar et Johansson [1996], Manne [1996], Gjerde et alii [1997], Roughgarden et Schneider [1999]. L̓ incertitude joue aussi un rôle important dans dʼautres domaines de lʼéconomie du changement climatique. Par exemple dans le débat sur la réduction efficiente des émissions menant à une stabilisation du CO2 atmosphérique, Wigley et alii [1996] soutiennent quʼà court terme un faible niveau de dépollution est justifié. Mais Ha-Duong et alii [1997] ont remis en cause ces conclusions, en se fondant principalement sur lʼhypothèse quʼil existe une certaine probabilité que lʼon doive également envisager un objectif de réduction ambitieux (400 ppm).

Page 167: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR170

effectués pour lʼEnergy Modeling Forum (EMF). Il en déduit quʼun petit nombre dʼefforts de dépollution à court terme seraient nécessaires pour se prémunir de ces surprises catastrophiques5. En revanche, dʼautres auteurs6 montrent quʼelles pourraient se révéler très importantes et modifier consi-dérablement les conclusions politiques obtenues précédemment (même si la probabilité de la surprise est faible).

Les résultats des études prenant en considération les événements catas-trophiques dépendent sensiblement des hypothèses sur les probabilités et les dommages associés, ainsi que des hypothèses sur lʼinertie du système énergétique mondial, cʼest-à-dire la vitesse à laquelle nous pourrions rétablir notre équilibre énergétique si le changement climatique se révélait plus grave que ne lʼavaient prévu la plupart des décideurs.

Les jugements de valeur

Toutes les études mentionnées ci-dessus sont basées sur une approche pré-dictive des coûts. Mais cette approche présente deux points délicats : comment traiter les questions pour lesquelles la distribution de probabilité est inconnue ? Comment calculer les coûts de conséquences catastrophiques à lʼéchelle plané-taire, et quel est le coût maximal que pourrait supporter lʼéconomie mondiale ? Ce problème dʼindétermination limite lʼintérêt de lʼanalyse coût-bénéfice dans le contexte du réchauffement climatique. Puisquʼil nʼexiste pas dʼestimateurs fiables de la probabilité des surprises catastrophiques, lʼapproche prédictive des coûts dépend en grande partie de la distribution choisie par lʼanalyste, et lʼon peut ainsi défendre presque tous les niveaux dʼémissions.

La question de la gravité des risques auxquels nous pouvons nous permettre dʼexposer notre planète se pose fondamentalement en termes éthiques. Il nʼest pas possible de trancher à lʼaide dʼapproches prédictives des coûts ou dʼautres méthodes économiques apparentées ; ces méthodes ont été développées pour traiter les incertitudes à une échelle complètement différente. La stratégie dite de « maximin » représente une alternative à lʼanalyse coût-bénéfice. Elle consiste à considérer la pire issue possible et à maximiser le bien-être dans cette situation. Appliquée à lʼeffet de serre, cette stratégie implique de fortes baisses dʼémissions afin de réduire la probabilité dʼoccurrence des événements catastrophiques. Cependant, comme toute autre, cette conclusion va dépendre largement de la perception subjective quʼaura lʼanalyste de « la pire issue possible ».

5. Dans cette étude, on suppose que lʼincertitude est levée dʼici 2020. Si la surprise catastrophique se produit réellement, alors des réductions considérables sont justifiées au-delà de 2020.

6. Voir Tol [1995], Azar et Johansson [1996], Gjerde et alii [1997] et Roughgarden et Schneider [1999].

Page 168: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

171LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ?

Conclusion

À lʼéchelle planétaire, le risque environnemental lié aux surprises catas-trophiques constitue un argument courant en faveur des réductions dʼémis-sions. Toutefois, quantifier la probabilité de tels événements est impossible. Il serait tout aussi difficile de quantifier les coûts associés. Cʼest pourquoi ces « surprises » sont souvent écartées des modèles dʼoptimisation du CO2. Malheureusement, on a aussi tendance à les oublier lors de la présentation des résultats de ces modèles : des scénarios dʼémissions particuliers sont pré-sentés comme optimaux, alors quʼun des arguments en faveur des réductions dʼémissions nʼest jamais intervenu dans lʼanalyse.

LES MÉTHODES DʼÉVALUATION DES COÛTS

Plusieurs auteurs7 ont publié des estimations complètes des coûts économi-ques engendrés par les changements climatiques. On peut trouver un aperçu de cette littérature commentée dans le rapport du Groupe dʼexperts intergou-vernemental sur lʼévolution du climat (GIEC) [Pearce et alii, 1996]. Bien que des progrès soient intervenus au cours des dernières années, la conclusion de Nordhaus [1994], qui qualifiait dʼ« extrêmement balbutiantes » et « dans leur petite enfance » les études de coût existantes, reste encore largement valable. Premièrement, presque toutes les études menées jusquʼà présent se sont concentrées sur les coûts associés à un doublement des émissions (en équivalent CO2). Les dommages à dʼautres niveaux sont intégrés à lʼanalyse à lʼaide dʼune fonction non linéaire (choisie arbitrairement) par rapport au changement de température. De plus, toutes les études, à lʼexception de celles de Tol [1995, 1996], supposent les fonctions de dommages indépendantes du rythme des changements climatiques, alors que lʼon sʼattend à ce que cet aspect prenne autant dʼimportance que lʼélévation de la température. Enfin, les estimations concernant les pays en développement sont encore plus vagues que les études portant sur ces pays. Ainsi, Nordhaus et Cline évaluent les coûts à lʼéchelle planétaire, en extrapolant simplement lʼestimation obtenue pour les États-Unis.

En général, les impacts sur le marché sont simples à déterminer. Mais pour estimer les impacts hors marché, il faut appliquer des méthodes alter-natives, très controversées8. Cʼest important car la préoccupation principale,

7. Parmi lesquels : Ayres et Walter [1991], Nordhaus [1991, 1994], Cline [1992], Fankhauser [1995], Tol [1995].

8. Ces techniques peuvent se baser sur les préférences révélées (comme les méthodes dʼévaluation hédonistiques ou celles des coûts de voyage) ou sur les marchés hypothétiques (comme la méthode contingente dʼévaluation).

Page 169: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR172

au cœur du débat sur le changement climatique, est liée aux impacts hors marché (dans certaines estimations des coûts, ces effets dominent dʼailleurs lʼanalyse, comme dans Pearce et alii, 1996). En particulier, ces méthodes ne permettent pas de reconnaître des droits aux espèces autres que lʼespèce humaine (au sens où elles ne se soucient que de la valeur accordée par les hommes à ces espèces), ou refusent de le faire. Elles ne prennent pas en compte les souffrances dʼun animal exposé à des produits chimiques toxiques, à moins quʼun humain ne soit prêt à payer pour y mettre fin. Par ailleurs, Jacobs [1991] soutient que ces méthodes ne traduisent pas non plus la valeur que les humains accordent à ces souffrances (et aux impacts sur lʼenvironnement en général), car elles ne donnent pas la possibilité aux gens dʼémettre un jugement collectif, en tant que citoyens, par opposition à un jugement individuel, en tant que consommateurs. Il conviendrait également de se pencher de plus près sur une autre facette intéressante du problème des coûts, à savoir : dans quelle mesure dʼautres hypothèses portant sur lʼal-truisme des hommes pourraient-elles modifier lʼinterprétation des études et des méthodes dʼévaluation ?

Dans cette brève analyse, nous ne développerons quʼune question concer-nant les coûts : celle de lʼévaluation des dommages dans les pays en dévelop-pement. Seuls quelques auteurs, comme Ayres et Walter [1991], Fankhauser [1995] et Tol [1995], ont essayé dʼexpliciter ces coûts (en incluant à la fois les impacts marchands et les impacts non marchands). Fankhauser et Tol ont basé leurs calculs sur lʼestimation du consentement à payer, face à divers impacts, comme, par exemple, lʼaugmentation des risques de mortalité. Puisque les pays en développement sont plus pauvres, les sommes quʼils sont prêts à verser en échange de plus de sécurité sont moins importantes que dans les pays riches. Cʼest pourquoi lʼétude de Fankhauser estimait statistiquement la valeur dʼune vie assignée à un décès dans un pays riche à environ quinze fois celle qui correspond à un décès dans un pays pauvre (et Tol conclut à des valeurs similaires). Ces estimations furent à lʼorigine de nombreux débats et controverses à travers le monde, en particulier lorsquʼil est apparu clairement quʼelles serviraient de base au chapitre sur les coûts liés aux dommages dans le deuxième rapport dʼévaluation du GIEC [Pearce et alii, 1996]. La critique venait dʼun malaise par rapport à lʼattribution dʼune valeur moins importante à la vie (par opposition à la mort) dans les pays en développement et/ou au fait que cette façon dʼévaluer les coûts ne tenait pas compte de lʼidée que lʼutilité marginale dʼun dollar dans un pays pauvre est supérieure à celle dʼun dollar dans un pays riche. L̓ introduction de coefficients de pondération des coûts affectant les pays pauvres pourrait sʼappuyer sur ce dernier point, ce qui « rétablirait » dans certains cas une évaluation équitable de tous les pays [Azar, 1998b].

Page 170: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

173LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ?

La sensibilité

L̓ introduction de coefficients de pondération pourrait affecter substantiel-lement lʼanalyse coût-bénéfice. L̓ étude dʼAyres et Walter [1991], par exemple, constitue une critique dʼun brouillon de Nordhaus sur lʼestimation des coûts. Mais elle tient compte de la plus grande utilité marginale des revenus dans les pays en développement pour estimer les coûts planétaires liés à lʼéléva-tion du niveau de la mer. Les auteurs chiffrent ces coûts entre 2,1 et 2,4 % du PIB mondial, soit neuf fois plus que ceux quantifiés par Nordhaus [1991]. L̓ estimation par Nordhaus des coûts quantifiés est de 0,25 % du PIB, et atteint 1,3 % du PIB lorsque lʼon y ajoute les éléments non directement quantifiés. De façon analogue, Azar et Sterner [1996] évaluent les coûts marginaux mondiaux des émissions de CO2 en faisant lʼhypothèse que, dans les pays pauvres, il faut introduire une pondération traduisant la perte de bien-être effectivement ressentie. Tenir compte de cet aspect engendre une multiplication des coûts par trois et pourrait conduire à des estimations de coût encore supérieures si lʼon adoptait une fonction de bien-être utilitariste9.

Il convient également de noter que lʼintroduction de coefficients de pon-dération implique une diminution des niveaux de réduction requis pour les pays en développement. De plus, bien que ces coefficients puissent modifier substantiellement les réductions globales dʼémissions requises pour le moment, ils ne joueront quʼun rôle mineur vis-à-vis des émissions « optimisées », cʼest-à-dire une fois que les pays en développement seront devenus plus riches, en revenus et en émissions.

Les jugements de valeur

Lʼintroduction de coefficients de pondération pourrait affecter radicale-ment lʼestimation des coûts et donc la réponse « optimale » au changement climatique. Néanmoins, le choix de ces coefficients nécessite au final celui dʼune fonction de bien-être social, une notion dont les contenus sont bien sûr hautement influencés par les systèmes de valeurs. Pour autant, lʼutilisation de coefficients de pondération nʼest pas plus chargée de valeurs que leur exclu-sion : les écarter de la théorie constitue en soi un choix éthique.

Conclusion

S a̓ttendre à ce que les gens pauvres dans les pays pauvres subissent les effets les plus sévères du changement climatique alors qu i̓ls émettent neuf fois

9. Dans la perspective de lʼutilitarisme, doctrine morale élargie à lʼéconomie, ce qui est « utile » est bon et lʼutilité peut être calculée de manière rationnelle. En particulier, ce qui contribue à maximiser le bien-être des humains est forcément bon.

Page 171: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR174

moins de CO2 fossile par habitant que les pays industrialisés constitue un double argument fréquemment invoqué en faveur de la réduction des émissions dans les pays riches. Pourtant, dans la plupart des analyses économiques, c e̓st justement parce que les gens sont pauvres – selon la logique du consentement à payer – que l̓ on attribue moins d i̓mportance aux souffrances qui les attendent.

LE CHOIX DU TAUX DʼACTUALISATION

Dans toutes les analyses réalisées en vue dʼinvestissements, le taux dʼac-tualisation joue un rôle majeur pour lʼestimation de la rentabilité. En parti-culier, le taux choisi pour certains projets publics, comme la construction de barrages hydroélectriques aux États-Unis dans les années 1960, a fait lʼobjet de nombreuses controverses. L̓ étude du taux dʼactualisation pertinent, ajusté en fonction des coins fiscaux10 et des risques, est donc quasiment devenue une discipline en soi11.

La sensibilité

Les coûts de réduction des émissions sont supportés immédiatement alors que les bénéfices attendus se feront sentir seulement au cours des décennies, voire des siècles, à venir. En raison de cette asymétrie temporelle et des grandes échelles de temps mises en jeu, le choix du taux dʼactualisation est probablement le paramètre le plus important dʼune analyse coût-bénéfice du changement climatique. Cʼest lui qui explique en grande partie pourquoi des auteurs comme Nordhaus [1994] et Manne et alii [1995] jugent que la multiplication des émissions par trois mènerait à une situation optimale, alors que, en revanche, Cline [1992], Azar et Sterner [1996] et dʼautres pensent que lʼon peut défendre des niveaux de réduction considérables.

Les jugements de valeur

Une question se pose alors : quelle valeur choisir pour le taux dʼactuali-sation ? On peut adopter principalement deux positions :

— la première, généralement appelée descriptive, se fonde sur lʼobservation des taux dʼintérêt du marché pour assurer que les investissements financent les projets les plus rentables ;

10. Concept choisi par lʼOCDE pour les comparaisons, qui sert à mesurer la différence entre ce que les employeurs payent sous forme de salaires et de charges sociales, et ce dont les salariés disposent après impôts et déduction des cotisations de sécurité sociale, en tenant compte aussi des transferts en espèces accordés dans le cadre des programmes publics dʼaide sociale (ndt).

11. Voir par exemple Lind [1992].

Page 172: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

175LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ?

— la seconde, couramment désignée comme prescriptive, insiste sur lʼimportance des questions normatives quʼimpliquent les compromis entre consommations présente et future. Ceux qui adoptent cette méthode partent souvent du taux social de préférence temporelle (TSPT) donné par la formule de Ramsey12 pour déterminer le taux dʼactualisation.

L̓ approche descriptive pourrait aussi utiliser la formule de Ramsey (comme Nordhaus le fait) ; mais, dans ce cas, le taux dʼactualisation de lʼutilité serait choisi de telle sorte que le taux social de préférence temporelle et le taux dʼintérêt observé sur le marché soient égaux. Les partisans de lʼapproche prescriptive plaident souvent que devrait prendre une valeur faible, voire nulle, pour des raisons dʼéquité intergénérationnelle13. Dʼun point de vue éthique, il semble difficile de justifier que la génération actuelle accorde une valeur moins importante aux impacts qui affecteront les générations futures, simplement parce quʼelles sont futures. (Toutefois, il faut noter quʼun taux dʼescompte positif pourrait tout de même se justifier, si lʼon suppose que les revenus augmenteront avec le temps.)

Les deux approches rencontrent des difficultés. Mais, en ce qui concerne lʼapproche descriptive, qui prétend choisir un taux dʼactualisation tel quʼil coïncide avec les compromis intertemporels réels, il faut reconnaître que ce nʼest pas aussi facile que cela en a lʼair à première vue. Lind [1995] fait la remarque suivante : « On observe des gens emprunter avec des cartes de crédit à 15-25 % et, simultanément, investir à des taux de rentabilité, nets dʼimpôt, situés entre 1 et 3 %. Lequel de ces taux, sʼil sʼagit bien de lʼun dʼeux, reflète-t-il leur taux de préférence temporelle ? » On peut remarquer quʼun taux dʼac-tualisation fixé à une valeur aussi faible que 1 % par an serait incompatible notamment avec lʼinquiétude que suscitent les déchets radioactifs. En effet, avec un tel taux, un dégagement radioactif qui détruirait à jamais la civilisation humaine – exemple extrême – aurait, aujourdʼhui et si lʼévénement devait se produire dans 10 000 ans, une valeur de 7,10-6 dollars. On peut conclure que lʼapproche descriptive ne permet pas de rendre compte de lʼinquiétude que beaucoup de gens expriment au sujet des impacts à long terme.

Les facteurs externes, comme les problèmes environnementaux, sont la source dʼune troisième difficulté dans lʼestimation du taux dʼactualisation à partir des variables observables sur le marché. Si ces facteurs sont importants, le taux social de rentabilité sur le capital sera déformé, et non pas réfléchi, dans les taux dʼintérêt basés sur le marché. En fait, le qualificatif de « descriptive »

12. Le taux social de préférence temporelle (TSPT, en anglais Social Rate of Time Preference, SRTP) vaut g + (formule de Ramsey), où est lʼopposé de lʼélasticité de lʼutilité marginale, g est le taux de croissance relative par habitant et est le taux dʼactualisation de lʼutilité (le taux de préférence temporelle pur).

13. Voir, parmi dʼautres : Ramsey [1928], Rawls [1972], Cline [1992], Solow [1992], Price [1993], Azar et Sterner [1996], Schultz et Kastings [1997].

Page 173: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR176

perd en grande partie sa signification pour des horizons temporels qui sʼéten-dent au-delà dʼune vingtaine dʼannées. Sur quoi porte la description ? peut-on même se demander. Pour des horizons temporels encore plus lointains, le taux dʼactualisation déterminé par la méthode descriptive sʼapparente carrément à un jeu de devinettes.

Ce point pourrait dʼailleurs sauver lʼapproche descriptive de quelques dif-ficultés mentionnées ci-dessus. On pourrait postuler que le taux dʼactualisation soit fixé à 5 % aujourdʼhui, mais décroisse avec le temps pour tendre lente-ment vers zéro ; ainsi, le futur lointain serait estimé à des niveaux encore non négligeables. Parmi les études adoptant un tel taux dʼactualisation décroissant, on compte celles de Sterner [1994], Ayres et Axtell [1996] et Azar et Sterner [1996]. Quant à Nordhaus [1994], il fait également lʼhypothèse que le taux de croissance – et par conséquent le taux dʼactualisation – diminue avec le temps ; mais comme le taux dʼactualisation de lʼutilité est fixé chez lui à 3 % par an, la valeur quʼil accorde au futur reste une exponentielle décroissante dans son modèle.

Il ne faut pas perdre de vue que lʼapproche descriptive garantit une effi-cience intertemporelle qui est seulement potentielle. Supposons, par exemple, que le taux dʼactualisation soit de 10 % par an. Il ne serait pas alors efficient, dʼun point de vue intertemporel, de réduire les émissions pour nous préserver dʼun dommage chiffré à 1 050 dollars lʼannée suivante si le coût de cette dépollution est de 1 000 dollars ; la raison en étant quʼinvestir ailleurs pourrait permettre de gagner 1 100 dollars. Cependant, lʼefficience intertemporelle nʼest que potentielle, car il nʼexiste aucune garantie que lʼinvestissement alternatif aura effectivement lieu. Pour le changement climatique et les pro-blèmes environnementaux intergénérationnels, nous devrions faire en sorte que lʼinvestissement initial soit réinvesti à intérêts capitalisés pendant des décennies, voire pendant des siècles ; ce qui ne sera probablement pas le cas. Cʼest pourquoi lʼargument principal en faveur de la méthode descriptive faiblit encore davantage si lʼon considère des horizons temporels à très long terme.

On peut aussi critiquer la baisse du taux dʼactualisation pour les pro-blèmes environnementaux à long terme. Pour un budget dʼinvestissement donné, lʼapproche descriptive permet de départager différents projets et de sélectionner les plus rentables. Wallace [1993] écrit à ce sujet quʼ« un taux dʼactualisation particulièrement bas conduirait en réalité à diminuer la richesse transmise aux générations suivantes, car il conduirait à financer des projets dont les taux de rentabilité sont moins importants que ceux dʼautres inves-tissements possibles ». Nordhaus [1994] et Manne [1995] soulignent de plus quʼun taux dʼactualisation très faible entraîne (dans les modèles de croissance optimale) un bond des taux dʼépargne, incompatible avec les comportements dʼépargne actuels. Remarquons toutefois que ces deux critiques ne tiennent

Page 174: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

177LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ?

pas simultanément. La seconde objection implique notamment que le budget dʼinvestissement ne soit pas fixe. En conséquence, tous les investissements dont le taux de rentabilité serait supérieur à celui du projet environnemental seraient également réalisés.

À notre avis, lʼapproche descriptive devrait fournir une estimation grossière du taux dʼactualisation pour lʼanalyse des compromis intra-générationnels ; mais le taux dʼactualisation retenu devrait être égal au taux social de préférence temporelle (TSPT), avec un taux dʼactualisation de lʼutilité égal à zéro, pour lʼanalyse des projets inter-générationnels. En pratique, il nʼest pas simple de distinguer les questions intra des questions inter-générationnelles, ce qui ouvre la voie à un domaine de recherche potentiellement important14. Cependant, même si les recherches progressent pour résoudre toutes ces difficultés, cela ne changera pas le fait que le choix du taux dʼactualisation est, fondamen-talement, un jugement de valeur. Il ne peut exister de « taux dʼactualisation objectivement correct ». Il sʼagit là dʼun point décisif dans la mesure où le choix du taux dʼactualisation joue un rôle déterminant dans la définition dʼun objectif du niveau « optimal » des émissions.

Conclusion

Dans le débat sur la politique relative aux émissions de gaz à effet de serre, la préoccupation intergénérationnelle constitue lʼun des arguments clés en faveur des réductions. Pourtant, dans lʼutilisation de la méthode descriptive – ce qui est couramment le cas dans la littérature économique –, lʼanalyse ne reflète pas cette inquiétude au sujet des générations futures.

LE CHOIX DES CRITÈRES DE DÉCISION

L̓analyse coût-bénéfice est basée sur le critère dit « de Kaldor » selon lequel, si les bénéfices totaux excèdent les coûts totaux, alors le projet mérite dʼêtre conduit. Nous avons défendu plus haut l̓ idée que les concepts de coût (et de bénéfice) n é̓taient pas définis aussi clairement que l̓ on aurait pu le croire. Au-delà de ces objections, le critère de Kaldor lui-même reste controversé. Il s̓ agit dʼun critère nécessaire, mais non suffisant, pour une amélioration de Pareto. Si un projet répond au critère de Kaldor, il est potentiellement susceptible de faire l̓ objet dʼune amélioration de Pareto, ce qui signifie que l̓ on pourrait amé-liorer le sort dʼun individu au moins sans en léser aucun autre ; cela sans qu o̓n puisse garantir la compensation. Toutefois, si les perdants ne reçoivent jamais

14. On pourrait par exemple se placer dans le cadre des modèles de générations imbriquées [Howarth, 1997 ; Manne, 1997].

Page 175: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR178

de compensation, la base éthique sur laquelle est fondé le critère de Kaldor est discutable. Par exemple, une amélioration de Kaldor pourrait conduire à une diminution du bien-être social, si « l̓ amélioration » impliquait simultanément un transfert de richesses suffisamment important des pauvres vers les riches.

La sensibilité

On pourrait traiter ce problème en introduisant des coefficients de pon-dération (comme on lʼa suggéré précédemment). Pourtant, une meilleure évaluation des coûts du changement climatique ne résoudra pas les dilemmes éthiques, qui sont au cœur du débat politique. Ce qui conduit la plupart dʼen-tre nous à considérer le changement climatique comme lʼun des problèmes environnementaux les plus graves nʼest probablement pas la peur de voir nos petits-enfants perdre un faible pourcentage de leurs revenus (dont on prévoit quʼils seront de très loin supérieurs aux nôtres). Ce sont dʼautres aspects du changement climatique qui inquiètent : le risque de sécheresses de plus en plus fréquentes dans certaines régions pauvres du globe, lʼélévation du niveau de la mer provoquant lʼinondation de petites îles, la propagation des mala-dies tropicales, les impacts spécifiques sur lʼenvironnement, lʼérosion de la biodiversité… Beaucoup de gens jugent ces conséquences inacceptables. Les risques dʼévénements catastrophiques, à lʼéchelle planétaire, ne font quʼag-graver ces craintes. Lind [1995] affirme que « le problème coût-bénéfice est posé de façon telle quʼil obscurcit les choix fondamentaux que nous devrions nous efforcer dʼévaluer ».

Certes, le problème du réchauffement climatique peut justifier lʼutilisation de contraintes, cʼest-à-dire que lʼon peut chercher à en optimiser les coûts et les bénéfices. Mais on ne peut lui appliquer que certaines dʼentre elles, qui concernent le niveau absolu et le rythme du changement de température [Azar et Rodhe, 1997]. Le même raisonnement est sous-jacent à la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC) qui appelle à une stabilisation des gaz à effet de serre à une concentration qui devrait empê-cher toute perturbation anthropique dangereuse du système climatique. Si lʼon suggère un objectif de stabilisation bas, alors le niveau dʼémission optimal est complètement différent des résultats obtenus avec la plupart des analyses coût-bénéfice. Le niveau « optimal » des émissions dépend très sensiblement du choix des critères de décision.

Les jugements de valeur

Des auteurs, comme Markandya et Pearce [1989] ou encore Jacobs [1991], ont proposé le recours à des contraintes de durabilité dans le cadre des

Page 176: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

179LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ?

problèmes environnementaux. Pour Jacobs, « on sauvegarde directement les intérêts des générations futures en les définissant en termes environne-mentaux et en faisant de leur protection la première étape du processus déci-sionnel ». On peut contester le recours à des contraintes qui ne seraient pas exclusivement fondées sur des motifs économiques. Pourtant, on admet assez fréquemment les limites de lʼintérêt de la théorie économique [Spash, 1994 ; Bingham et alii, 1995]. Ces auteurs soutiennent que, dans de nombreuses circonstances, « il faut faire des choix collectifs avant de pouvoir procéder à une estimation chiffrée ». Prenons lʼexemple du travail des enfants aux États-Unis : la question de son optimisation ne sʼest même pas posée puisque, par décision collective – et sans que les bénéfices économiques potentiels nʼentrent en jeu –, le travail des enfants est considéré comme inacceptable dʼun point de vue moral.

Malgré tout, lʼutilisation de telles contraintes reste rare dans la plupart des analyses économiques. Sen [1987] lʼexplique en ces termes : « La tradition utilitariste qui domine toute la pensée économique néoclassique nʼaccorde aucune importance au respect ou même à lʼexistence de droits. » Selon une argumentation courante, on ne devrait pas utiliser de contraintes dans les ana-lyses économiques parce quʼelles trouvent leur origine dans des jugements de valeur. Cʼest vrai au sens où le fait dʼimposer des contraintes doit être fondé sur des valeurs ; mais la conclusion est erronée, car lʼexclusion de ces contraintes ne rend pas lʼanalyse plus neutre pour autant. Exclure les contraintes constitue en soi un jugement de valeur !

Conclusion

La santé humaine et les impacts environnementaux sont les principaux sujets de préoccupation de la majorité de la population face au changement climatique. Or, lʼanalyse coût-bénéfice accorde plus dʼimportance notamment aux coûts supplémentaires auxquels seraient confrontés les automobilistes en cas de réduction drastique des émissions de carbone. A-t-on réellement le droit de brader des besoins humains fondamentaux en échange dʼun peu plus de confort de consommation ? Lʼanalyse coût-bénéfice répond affirma-tivement à cette question, il sʼagit là dʼune hypothèse forte. Avec une telle hypothèse résultant dʼune logique économique implacable – et dʼun jugement de valeur ! –, on balaie un argument central en faveur de la réduction des émissions. Spash [1994] conclut que, « si lʼon accepte lʼexistence de droits, protégeant les individus des conséquences de nos émissions de gaz à effet de serre, la marge allouée aux compromis usuels que suppose lʼéconomie est alors considérablement réduite ».

Page 177: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR180

REMARQUES POUR CONCLURE

Nous avons passé en revue quatre points critiques (qui se recouvrent par-tiellement) auxquels on se trouve confronté lors dʼune analyse économique du changement climatique. La façon dont on traite ces quatre questions – le risque de catastrophes environnementales à lʼéchelle planétaire, les méthodes dʼévaluation des coûts, le taux dʼactualisation et les critères de décision – déter-mine en grande partie les résultats obtenus à partir des diverses analyses coût-bénéfice du réchauffement planétaire. De surcroît, nous avons montré que des jugements de valeur sont nécessaires pour aborder chacun de ces quatre aspects. Il faut en avoir pleinement conscience, car lʼéconomie est souvent perçue comme un outil capable de fournir un conseil neutre aux décideurs.

Il faut souligner également que plusieurs hypothèses économiques stan-dard, tout à fait acceptables dans des circonstances normales, tendent à porter préjudice aux arguments les plus courants en faveur de la réduction des émis-sions. Cela ne veut pas dire que les modèles dʼoptimisation coût-bénéfice ne peuvent (ni ne doivent) jouer aucun rôle dans les politiques de lutte contre le changement climatique. Ils ne deviennent problématiques quʼà partir du moment où ils sont utilisés comme des « machines à dire la vérité » [Schneider, 1997]. On devrait les mettre à profit plutôt pour analyser les répercussions de différents choix de paramètres, fortement influencés par des jugements de valeur.

En conclusion, nous devrions pouvoir nous accorder sur deux propositions fondamentales :

— lʼanalyse coût-bénéfice ne constitue pas un outil exempt de références à un système de valeurs, en mesure de fournir aux décideurs politiques des propositions objectives sur différentes alternatives politiques ;

— cela signifie que nous devons prendre position explicitement vis-à-vis des jugements de valeur intervenant dans les hypothèses. Nous devons les mettre en évidence, et ne pas chercher à les masquer derrière un langage mathématique et économique apparemment neutre.

Ces conclusions ont des conséquences importantes pour les recherches économiques futures sur le changement climatique. Au lieu de chercher à définir « un niveau optimal de changement climatique », nous devrions plutôt nous efforcer dʼaffiner notre compréhension dʼun certain nombre de questions liées à la mise en œuvre de lʼobjectif principal de la CCNUCC. En particulier, nous devrions chercher à en savoir plus sur les réponses de nos sociétés et de nos économies face à des politiques de baisse dʼutilisation du carbone et à lʼévolution technologique. Et chercher à en savoir plus aussi sur lʼadaptation aux technologies de « basse consommation », sur lʼamélioration et le déve-loppement des énergies renouvelables ; sur lʼinertie du système énergétique

Page 178: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

181LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ?

mondial et des infrastructures associées ; sur la part des options « aucun regret » et des politiques nécessaires à leur contrôle ; enfin, sur les mesures incitatives qui permettraient de mettre en piste les pays en développement…

RÉFÉRENCES BIBLIOGRAPHIQUES

ARROW K. J., CLINE W., MÄLER K. G., MUNASINGHE M., SQUITIERI R. et STIGLITZ J. (1996), « Intertemporal equity, discounting and economic efficiency », dans BRUCE J. P., LEE H. et HAITES E. F. (dir.), Climate Change 1995 : Economic and Social Dimensions of Climate Change, 2e rapport du Groupe dʼexperts intergouvernemental sur lʼévolution du climat (GIEC), Cambridge University Press, Cambridge.

AYRES R. U et AXTELL R. (1996), « Foresight as a survival characteristic : when if ever does the long view pay », Technological Forecasting and Social Change, n° 51, p. 209-235.

AYRES R. U. et WALTER J. (1991), « The greenhouse effect : damages, costs and abatement », Environmental and Resource Economics, n° 1, p. 237-270.

AZAR C. (1998a), « Are optimal emissions really optimal ? », Environmental and Resource Economics, vol. 11, n° 3-4, p. 301-315.

– (1998b), « Weight factors in cost-benefit analysis of climate change », Environmental and Resource Economics, n° 13, p. 249-268.

AZAR C. et JOHANSSON O. (1996), « Uncertainty and climate change or the economics of twin peaks », texte présenté à la conférence annuelle des European Environmental and Resource Economists, juin, Lisbonne.

AZAR C. et RODHE H. (1997), « Targets for stabilisation of atmospheric CO2 », Science, n° 276, p. 1818-1819.

AZAR C. et STERNER T. (1996), « Discounting and distributional considerations in the context of climate change », Ecological Economics, n° 19, p. 169-185.

BINGHAM G., BISHOP R., BRODY M., BROMLEY D., CLARK E., COOPER W., COSTANZA R., HALE T., HAYDEN G., KELLERT S., NORGAARD R., NORTON B., PAYNE J., RUSSEL C. et SUTER G. (1995), « Issues in ecosystem valuation : improving information for decision-making », Ecological Economics, n° 14, p. 73-90.

CLINE W. R. (1992), The Economics of Global Warming, Institute of International Economics, Washington, D. C.

FANKHAUSER S. (1995), Valuing Climate Change : The Economics of the Greenhouse. Earthscan, Londres.

GJERDE J., GREPPERUD S. et KVERNDOKK S. (1997), « Optimal climate policy under the possibility of a catastrophe », document présenté à la rencontre annuelle de lʼEuropean Association of Energy and Resource Economists (EAERE), juin, Tilburg, Pays-Bas.

GRUBB M. (1993), « The costs of climate change. Critical elements », dans KAYA Y., NAKICENOVIC N., NORDHAUS W. D. et TOTH F. L. (dir.), Costs, Impacts, and Benefits of CO2 Mitigation, comptes rendus dʼun séminaire de lʼIIASA, septembre, Laxenburg, Autriche, p. 153-166.

HA-DUONG M., GRUBB M. et HOURCADE J.-C. (1997), « Influence of socioeconomic inertia and uncertainty on optimal CO2-emission abatement », Nature, n° 390, p. 270-273.

HASSELMAN K., HASSELMAN S., GIERING R., OCANA V. et STORCH H. V. (1997), « Sensitivity study of optimal CO2 emission paths using a simplified structural integrated assessment model », Climatic Change, n° 37, p. 345-386.

Page 179: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR182

HOWARTH R. B. (1997), « Discount rates and overlapping generations : an application to climate change », Contemporary Economic Policy, vol. 14, n° 4, p. 100-111.

JACOBS M. (1991), The Green Economy, Pluto Press, Londres.LAYARD P. R. G. et WALTERS A. A. (1978), Microeconomic Theory, McGraw-Hill,

Royaume-Uni.LIND R. C. et alii (1992), Discounting for Time and Risk in Energy Policy, John Hopkins

University Press, Baltimore.– (1995), « Intergenerational equity, discounting, and the role of cost-benefit analysis in

evaluating global climate policy », Energy Policy, n° 23, p. 379-390.LIND R. C. et alii (dir.) (1982), Discounting for Time and Risk in Energy Policy, John Hopkins

University Press, Baltimore.MAHLMAN J. D. (1997), « Uncertainties in projections of human-caused climate warming »,

Science, n° 278, p. 1416-1417.MANNE A. S. (1995), « The rate of time preference. Implications for the greenhouse debate »,

Energy Policy, n° 23, p. 391-394.– (1996), « Hedging strategies for global carbon dioxide abatement : a summary of poll

results EMF 14 subgroup – analysis for decision making under uncertainty », dans NAKICENOVIC N. et alii (dir.), Climate Change : Integrating Science, Economic and Policy, comptes rendus dʼun séminaire de lʼIIASA, 19 juin-20 mars, Laxenburg, Autriche, p. 207-228.

– (1997), « Intergenerational altruism, discounting and the greenhouse debate », projet, Stanford University, Palo Alto.

MANNE A. S., MENDELSOHN R. et RICHELS R. G. (1995), « MERGE. A model for evaluating regional and global effects of GHG reduction policies », Energy Policy, n° 23, p. 17-34.

MARKANDYA A. et PEARCE D. W. (1989), « Development, the environment and the social rate of discount », The World Bank Research Observer, n° 6, p. 137-152.

MENDELSOHN R. et NEUMANN J. (dir.) (1998), « The economic impacts of climate change on the US economy », Cambridge University Press, Cambridge.

NORDHAUS W. D. (1991), « To slow or not to slow : the economics of the greenhouse effect », Economic Journal, n° 101, p. 920-937.

– (1994), Managing the Global Commons : the Economics of Climate Change, MIT Press, Cambridge, Mass.

PARRY I. W. H. (1993), « Some estimates of the insurance value against climate change from reducing greenhouse gas emissions », Resource and Energy Economics, n° 15, p. 99-106.

PEARCE D. W., CLINE W. R., ACHANTA A. N., FANKHAUSER S., PACHAURI R. K., TOL R. S. J. et VELLINGA P. (1996), « The social costs of climate change : greenhouse damage and the benefit of control », dans BRUCE J. P., LEE H. et HAITES E. F. (dir.), Climate Change 1995 : Economic and Social Dimensions of Climate Change, 2e rapport du Groupe dʼexperts intergouvernemental sur lʼévolution du climat (GIEC), Cambridge University Press, Cambridge.

PECK S. C. et TEISBERG T. J. (1995), « Global warming uncertainties and the value of information : an analysis using CETA », Resource and Energy Economics, n° 15, p. 71-97.

PRICE C. (1993), Time Discounting and Value, Blackwell, Oxford.RAMSEY F. P. (1928), « A mathematical theory of saving », The Economic Journal, n° 138,

p. 543-549.RAWLS J. (1972), A Theory of Justice, Oxford University Press, Oxford.READ P. (1994), Responding to Global Warming, Zed Book Press, Londres.

Page 180: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

183LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ?

ROUGHGARDEN T. et SCHNEIDER S. H. (1999), « Quantifying uncertainties for damage and carbon taxes », Energy Policy, vol. 27, n° 7, p. 415-426.

SCHELLING T. C. (1995), « Intergenerational discounting », Energy Policy, n° 23, p. 395-402.

SCHNEIDER S. H. (1997), « Integrated assessment modelling of global climate change : transparent rational tool for policy making or opaque screen hiding value-laden assumptions », Environmental Modelling and Assessment, n° 2, p. 229-248.

SCHULTZ P. A. et KASTINGS J. F. (1997), « Optimal reductions in CO2 emissions », Energy Policy, n° 25, p. 491-500.

SEN A. K. (1987), On Ethics and Economics, Blackwell, Cambridge, Mass.SOLOW R. (1992), An Almost Pratical Step towards Sustainability, conférence donnée à

lʼoccasion du IVe anniversaire de Research for the Future, 8 octobre, Washington.SPASH C. L. (1994), « Double CO2 and beyond : benefits, costs and compensation », Ecological

Economics, n° 10, p. 27-36.STERNER T. (1994), « Discounting in a world of limited growth », Environmental and Resource

Economics, n° 10, p. 27-36.TITUS J. G. (1992), « The costs of climate change to the United States », dans MAJMUDAR S. K.,

KALKSTEIN L. S., YARNAL B. et MILLER E. W. (dir.), Global Climate Change : Implications Challenges and Mitigation Measures, Pensylvania Academy of Science, Easton, p. 384-409.

TOL R. S. J. (1995), « The damage cost of climate change toward more comprehensive calculations », Environmental and Resource Economics, n° 5, p. 353-374.

– (1996), « The damage costs of climate change. Towards a dynamic representation », Ecological Economics, n° 19, p. 67-90.

WALLACE L. (1993), « Discounting our descendants », Finance and Development, vol. 30, n° 2.

WIGLEY T., RICHELS R. et EDMONDS J. (1996), « Economics and environmental choices in the stabilisation of atmospheric CO2 concentrations », Nature, n° 379, p. 240-243.

Page 181: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR184

Du fait de lʼimmensité des incertitudes sur le changement climatique et de ses conséquences, il est utile dʼévaluer les décisions politiques variées qui souhaitent y répondre par des approches globales et scénarisées. Le recours aux modèles mathématiques est constant pour atteindre cet objectif.

Une représentation précise des pays en développement dans les modè-les globaux utilisés au cours dʼexercices de construction de scénarios du changement climatique est de la plus haute importance dès lors que ces pays jouent un rôle clé dans ce domaine. Jusquʼà présent, le réchauffement global est majoritairement produit par les émissions de gaz à effet de serre (GES) provenant de la combustion des énergies fossiles des pays développés depuis le XIXe siècle. Cependant, on sʼattend à ce que, au cours du XXIe siècle, les émissions annuelles de GES dans les pays en développement – les pays absents de l’annexe I de la Convention-cadre des Nations unies sur les chan-gements climatiques (CCNUCC) – dépassent bientôt le volume dʼémissions annuelles de lʼensemble des pays développés (les pays de lʼannexe I de la CCNUCC).

Dʼénormes difficultés surgissent dans lʼélaboration dʼune représentation appropriée des pays en développement au sein des modèles globaux. Le premier défi réside dans le choix dʼun niveau raisonnable de désagrégation dans la représentation de plus dʼune centaine de pays aux caractéristiques démographiques, économiques, technologiques, sociales et culturelles très différentes. Dans les travaux du Groupe dʼexperts intergouvernemental sur lʼévolution du climat (le GIEC), dont les scénarios de référence globaux res-tent, pour des raisons historiques, les plus couramment utilisés dans lʼanalyse du changement climatique [GIEC, 2000], les pays en développement sont de manière caractéristique scindés entre dʼun côté lʼAsie et de lʼautre le reste des pays en développement – pays dʼAfrique, du Moyen-Orient et dʼAmérique latine réunis en un même ensemble. Ce mode de traitement fortement agrégé

8

Modèles mondiaux et représentation

des pays en développement

Emilio Lèbre La Rovere, Vincent Gitz, André Santos Pereira

Page 182: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

185MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT

des pays en développement rend très délicate lʼévaluation de la validité des hypothèses et des résultats de ces scénarios globaux, et à plus forte raison leur utilisation éventuelle par des décideurs. La formule « dernier cri » la plus courante de ces modèles globaux utilise une description plus désagrégée – ordinairement de 10 à 20 régions sur le plan mondial.

Cependant, dans sa réflexion, le GIEC a besoin de différents scénarios mondiaux futurs développés par différents modèles mathématiques globaux. En effet, il lui faut rendre compte des incertitudes propres à lʼestimation quantitative des scénarios dans les différents modèles disponibles. Du fait que ces modèles ont choisi des divisions régionales du monde différentes, le GIEC a jusquʼà présent préféré le niveau habituel de désagrégation tel que réalisé par les deux ensembles de pays en développement déjà men-tionnés (lʼAsie dʼun côté et les autres pays en développement de lʼautre). On sʼattend à des progrès de la part des équipes de modélisation qui sont issues davantage du tiers monde et désormais activement impliquées dans la mise au point dʼune désagrégation plus avancée des modèles globaux, afin dʼexpliquer en priorité le rôle de quelques régions clés des pays en développement (en particulier les économies de pays émergents tels que la Chine, lʼInde ou le Brésil).

Au-delà des problèmes de désagrégation, de nombreuses difficultés techni-ques subsistent pour une représentation judicieuse des pays en développement dans les modèles globaux. Dʼun côté, elles tiennent à la disponibilité et à la validation des données et, de lʼautre, à la nature des problèmes méthodolo-giques posés par la représentation de systèmes économiques, énergétiques et dʼusage des sols au travers dʼun ensemble dʼéquations et de variables mathé-matiques. L̓ approche de ces problèmes dans les modèles globaux existants est identique à celle des pays développés, alors que les hypothèses théoriques retenues ne sont pas toujours appropriées pour décrire la réalité des pays en développement.

Nous examinerons ici les principaux déterminants des émissions de CO2 – puisquʼil sʼagit du gaz à effet de serre (GES) le plus important et qui a la plus longue durée de vie. Sa concentration dans lʼatmosphère est actuellement responsable de plus de la moitié du réchauffement climatique et sa part est appelée à sʼaccroître dans lʼavenir. À côté des déterminants sociaux et éco-nomiques des émissions de GES (tels que la croissance démographique et économique), la combustion des énergies fossiles et les transformations qui interviennent dans lʼusage des sols sont les déterminants clés des émissions de CO2 dans les pays en développement.

Nous traiterons successivement de ces grandes difficultés de représen-tation des systèmes économiques, des systèmes énergétiques et des chan-gements dʼusage des sols. Et en conclusion, nous ferons un certain nombre de propositions et recommandations pour travailler à lʼavenir à donner une

Page 183: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR186

représentation plus précise des pays en développement dans les modèles glo-baux. À lʼévidence, du fait de la forte hétérogénéité des pays en développement – et même des différentes régions au sein dʼun même pays –, la nature des problèmes rencontrés variera selon les cas envisagés.

PROBLÈMES ET LIMITES LIÉS À LA MODÉLISATION ÉCONOMIQUE DES PAYS EN DÉVELOPPEMENT

La représentation dʼune économie à travers un modèle est une tâche aussi utile que difficile. En effet, une bonne représentation peut aider à prévoir le niveau dʼactivité économique ainsi que des variables liées à ce dernier, comme le taux de chômage par exemple. Les modèles économiques peuvent ainsi aider à la formulation de politiques gouvernementales et permettre à la société dʼévaluer ces politiques. Ces modèles servent aussi très souvent à justifier et à influencer les décisions stratégiques des entreprises concernant le lieu, le moment et le montant de leurs investissements.

Néanmoins, représenter correctement lʼinteraction entre les agents et les secteurs dʼune économie est un exercice complexe qui fait appel à la fois à la théorie économique, aux mathématiques et à lʼinformatique. Les modèles en question ont lʼambition de représenter, de façon simplifiée, lʼéconomie dʼun ou de plusieurs pays, et la complexité de lʼexercice est proportionnelle au nombre de pays représentés. Pour plusieurs raisons, cette évaluation se montre beaucoup plus délicate dès quʼil sʼagit des pays en développement.

Le premier problème du modélisateur est celui du choix de lʼécole de pensée économique à laquelle il va adosser son travail, dans un contexte où des confrontations importantes existent quant à la théorie du développe-ment. Ensuite, la théorie économique choisie fournira une série dʼéquations mathématiques représentant le fonctionnement de lʼéconomie et lʼensemble des transactions entre les agents qui la composent. Par ailleurs, les modèles ont besoin dʼune quantité importante de statistiques économiques, sociales et démographiques. Les modèles économétriques, par exemple, font appel à des séries temporelles très longues. La portée de ce type de modèles est réduite si les séries de données sont incomplètes, ou lorsque les changements dans ces séries sont trop abrupts. À lʼévidence, ces situations se manifestent fréquemment dans le cas des pays en développement.

Les modèles dʼéquilibre général calculable sont des modèles déterministes qui permettent une évaluation endogène de certains paramètres et qui sʼap-puient largement sur les statistiques provenant de la comptabilité nationale des pays modélisés.

Le système de comptabilité nationale (SCN) et ses matrices de comptabilité sociale (MCS) se proposent de représenter de façon quantitative lʼensemble des

Page 184: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

187MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT

transactions dʼune économie [OCDE, 1959]. Les MCS mettent en évidence les relations entre les structures de production et la distribution des revenus ainsi que les flux de capitaux et les transactions financières, tant au niveau domestique que dans le reste du monde. La structure du tableau obtenu dépend de limitations empiriques telles que les données disponibles et les moyens de traitement de ces données [Sand-Zantman, 1995].

À partir dʼune MCS représentant une économie en situation dʼéquilibre, les modèles dʼéquilibre général calculable peuvent estimer les changements causés par certaines modifications de lʼenvironnement économique – comme lʼaugmentation ou la baisse des taux dʼintérêt, du niveau de la demande, des taxes, etc. Pourtant, lʼefficacité de ces modèles est directement liée à la consistance et à la disponibilité de données statistiques, notamment celles qui proviennent du système de comptabilité nationale.

Fréquemment, dans le cas des pays en développement, ces modèles ne sont pas capables de répondre de façon satisfaisante aux besoins des politiques économiques à long terme. En effet, les modèles, les concepts et les référents employés ne correspondent pas exactement à ce qui se passe dans ces pays, car des aspects importants de leur réalité ne sont pas révélés ou pas inclus dans leur système de comptabilité nationale. Pour cette raison, les modèles économiques perdent beaucoup de leur capacité opérationnelle pour lʼanalyse de long terme dans les pays en développement. Par conséquent, dans ces pays, la formulation de la politique économique est plus un instrument de gestion conjoncturel, basé sur une analyse de court terme.

Une autre limitation des SCN est liée aux problèmes dʼordre conceptuel, méthodologique et statistique. Dans le cas des pays en développement, ce type dʼinconsistance intrinsèque au SCN est plus fort pour deux raisons principales. Tout dʼabord, les activités traditionnelles et dans leur sillage toute lʼéconomie informelle – par exemple lʼéconomie de subsistance – ne font pas partie du circuit des transactions économiques monétarisées et elles nʼexistent donc pas pour le SCN. Or, ces activités ont une importance relative beaucoup plus grande dans les pays en développement, ce qui rend dʼautant plus difficile une représentation fidèle de leurs économies par les modèles. La deuxième raison tient à lʼincohérence des statistiques économiques de base et du défi-cit dʼinformations sur plusieurs phénomènes économiques importants pour lʼélaboration des agrégats. De ce fait, les économistes et les statisticiens qui travaillent sur le SCN sont parfois obligés dʼutiliser des procédés dʼestima-tion des données qui ne sont pas toujours capables de reproduire toutes les transactions économiques manquantes.

Une représentation statistique chère aux économistes et aux modélisateurs est constituée par le tableau qui décrit les relations intersectorielles : quels biens, en quelle quantité sont utilisés dans la production dʼun autre bien ? (Combien dʼacier, dʼénergie, etc., pour produire un véhicule automobile par

Page 185: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR188

exemple ?) Tous les biens dʼune économie se trouvent ainsi représentés dans ce tableau.

La construction de ces tableaux demande énormément de travail et est très coûteuse. En général, les pays en développement nʼont pas la même facilité que les pays développés pour les construire périodiquement. Le caractère incomplet de statistiques économiques importantes comme celles des consommations intermédiaires, plus accentué chez les pays en développement, limite aussi lʼutilisation des modèles dans ces pays.

Les agrégats du SCN sont exprimés en unités monétaires. La monétarisa-tion des statistiques est indispensable pour lʼagrégation macroéconomique. Imaginons, par exemple, la production dʼun pays et la manière dont il est possible dʼexprimer cette production en un seul agrégat, avec un seul chif-fre. Puisque nous ne pouvons pas additionner des quantités physiques de nature différente pour agréger la production, il est nécessaire de convertir la production physique en valeur monétaire. Cette procédure est réalisée par la multiplication des quantités des divers biens produits dans une économie par leurs prix respectifs.

Les économistes sʼintéressent beaucoup à la variation des prix, mais aussi à la variation des quantités physiques. Pour annuler lʼeffet de la variation de prix sur la valeur nominale dʼun agrégat macroéconomique1, ils font appel à un indice statistique qui mesure la variation des prix pendant une certaine période. Plus lʼamplitude de la variation des prix est grande, plus la transfor-mation des variables nominales en variables réelles devient approximative. Pourtant, ces dernières sont très importantes pour lʼexercice de modélisation. Or, du fait des problèmes dʼhyperinflation, les statistiques réelles des pays en développement sont moins exactes et moins consistantes que celles des pays développés ; et lʼapplication des modèles économiques au cas des pays en développement devient encore plus compliquée et limitée.

PROBLÈMES DE REPRÉSENTATION DU SYSTÈME ÉNERGÉTIQUE

Production d’énergie et niveaux de consommation

Les systèmes énergétiques dans les pays en développement sont, en règle générale, très différents des systèmes existants dans les pays développés tant au plan de la production et de la conversion quʼau plan du transport et de lʼusage final. L̓ offre et la demande se présentent très différemment en termes quantitatifs comme en termes qualitatifs. La consommation dʼénergie par tête

1. La valeur nominale dʼun agrégat macroéconomique ne comprend pas seulement les variations des quantités physiques, mais aussi celles des prix.

Page 186: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

189MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT

est beaucoup plus élevée dans les pays développés, au point que, pour à peine 20 % de la population mondiale, ces pays considérés dans leur ensemble sont responsables de la plus grande part de la consommation mondiale dʼénergie [AIE, 2006]. Sur le plan de lʼoffre, de nombreux pays en développement font reposer la plus grande partie de leur production dʼénergie sur les sour-ces traditionnelles de biomasse, alors que les pays développés comblent la majeure partie de leurs besoins énergétiques à lʼaide des énergies fossiles dont une part croissante est transformée en électricité pour une consommation en usage final.

Les populations rurales des pays en développement utilisent encore une grande quantité de bois de chauffage, de charbon de bois et de déchets agricoles et/ou animaux pour assurer leurs besoins énergétiques domestiques tels que chauffage et cuisson. Alors que la plupart des pays dʼAmérique latine sont devenus dès à présent majoritairement des sociétés urbaines, en Afrique et en Asie les populations rurales sont au contraire et resteront vraisemblablement encore longtemps dominantes. Les données sur les sources traditionnelles de biomasse sont rarement disponibles par le seul fait que lʼessentiel de leur production et de leur usage sʼeffectue par lʼintermédiaire de circuits non commerciaux. L̓ information disponible recouvre le plus souvent de simples estimations fondées sur la structure des populations et sur des moyennes de consommation des ménages. Les incertitudes qui pèsent alors sur les chiffres de la consommation énergétique sont de ce fait beaucoup plus fortes que pour les énergies qui passent par les circuits commerciaux. L̓ estimation de la dynamique et des tendances futures de ces niveaux de consommation dʼénergie peut ainsi se révéler particulièrement délicate.

Une question importante consiste à estimer les parts renouvelables et non renouvelables de lʼusage total de biomasse. La déforestation provoquée par lʼusage de la biomasse comme source énergétique peut être considérable dans les pays en développement, surtout en Afrique et en Asie, alors que, dans le contexte plus large de lʼAmérique latine, des facteurs tels que lʼexpansion de la frontière agricole sont plus pertinents comme facteurs déterminants de la déforestation. À première vue, il peut ne pas sembler particulièrement crucial de savoir si la déforestation a été induite par les besoins de consommation dʼénergie ou non, puisque les émissions de CO2 qui en résultent peuvent être estimées à partir de lʼétendue des surfaces défrichées (donnée disponible à partir de lʼimagerie satellitaire) et dʼindications sur la densité de la biomasse (voir la section suivante). En réalité, les inventaires dʼémissions de GES rendent compte séparément des émissions dues à la combustion dʼénergies fossiles et de celles dont lʼorigine réside dans les changements dʼusage des sols, phénomènes qui incluent pourtant des émissions qui rélèvent à la fois dʼusages énergétiques et dʼusages non énergétiques. Cependant, la compré-hension des tendances récentes et des modifications structurelles du niveau

Page 187: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR190

de consommation de biomasse traditionnelle est nécessaire pour forger des scénarios concernant les niveaux futurs de la demande énergétique, car elles constituent un déterminant de poids de la combustion croissante des énergies fossiles dans les pays en développement.

À côté des ménages ruraux et des activités agricoles, la biomasse tradi-tionnelle est également utilisée dans des secteurs industriels spécifiques de certains pays en développement tels que les céramiques, le saumon de fonte2 et les procédés agroalimentaires, entre autres. On la retrouve également dans les zones périurbaines où lʼon recourt au charbon de bois pour assurer les besoins énergétiques des ménages. La déforestation induite peut alors être beaucoup plus importante que celle qui tient au seul usage de bois de chauffage, dès lors que lʼusage du charbon de bois rend possible un accroisssement de la dis-tance de transport acceptable entre les zones forestières et la localisation des consommateurs. Une partie de lʼoffre de charbon de bois à usage énergétique industriel est ordinairement assurée par les circuits dʼéconomie informelle de la déforestation illégale, qui sʼexplique elle-même par la faible application des lois et des règlements sur lʼenvironnement fréquemment constatée dans les pays en développement.

La migration de la population rurale vers les villes est une tendance conti-nue dans la plupart des pays en développement. Elle est à lʼorigine dʼune pression accrue tendant à la croissance de lʼoffre dʼénergie commerciale (électricité, produits pétroliers, bioénergies modernes), avec les exigences dʼinvestissement correspondantes qui représentent un lourd fardeau pour les économies des pays en développement. La carence en investissements aboutit à un déficit dʼaccès à des sources dʼénergie modernes telles que lʼélectricité, même dans les zones urbaines. En dehors des rythmes de croissance éco-nomique globale, lʼévolution des niveaux de distribution des revenus sera déterminante pour évaluer les parts sectorielles futures du PIB et les niveaux de consommation dʼénergie. Une possible amélioration de la distribution des revenus – actuellement marquée par de profondes distorsions – est à même de provoquer le déclenchement dʼune forte consommation dʼélectricité et de produits pétroliers (en particulier dʼessence lorsque les ménages auront accès à lʼautomobile). Lʼinteraction entre ces questions sociales, économiques et énergétiques dans les pays en développement est actuellement très faiblement représentée dans les modèles globaux et nécessite dʼêtre améliorée dans son traitement.

2. Produit dans le cadre de techniques traditionnelles à partir du minerai de fer, le saumon de fonte (ou gueuse de fonte) est un alliage qui fond à une température plus basse que lʼacier ou le fer forgé.

Page 188: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

191MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT

La dotation en ressources énergétiques

De nombreux pays en développement disposent dʼimportantes ressources naturelles telles que la surface des terres, lʼeau et des conditions climatiques favorables. Ces caractéristiques sont synonymes de potentiels dʼénergie renouvelable souvent plus élevés que dans les pays développés. Dans les pays en développement, en effet, on trouve de considérables ressources dʼénergie solaire, éolienne, hydroélectrique ou encore bioénergétique prêtes à être mobilisées dans le futur, comme lʼillustre lʼencadré suivant dans le cas du Brésil.

ENCADRÉ 1. – ARGUMENTS EN FAVEUR DʼUN DÉVELOPPEMENT DE LA BIOMASSE AU BRÉSIL

* Part de la biomasse dans lʼoffre totale dʼénergie : 30 % (en 2004).* Principales ressources dʼénergie en biomasse : bois, charbon de bois, bagasse

de canne à sucre, bale du riz, éthanol provenant de la canne à sucre, huiles végétales, biodiesel.

* Forte disponibilité en terres agricoles :– surface des terres utilisées par le secteur agricole : 50 millions dʼhectares ;– surface des terres utilisées par les cultures de canne à sucre : 5 millions

dʼhectares ;– surface estimée des terres destinées à la production dʼéthanol : 2,5 millions

dʼhectares ;– surface totale des terres agricoles du Brésil : 140 millions dʼhectares (à

lʼexclusion des terres propices à la plantation forestière) ;– surface des terres encore disponibles pour lʼagriculture : 90 millions

dʼhectares.

Source : La Rovere et alii [2006].

Cette dotation en ressources énergétiques présente un certain nombre de difficultés pour sa représentation appropriée dans les modèles énergétiques, généralement conçus sur la base des systèmes énergétiques des pays dévelop-pés. En particulier, un réel effort est nécessaire pour opérer une désagrégation judicieuse des ressources de biomasse primaire telles que le bois issu de différents types de couverture végétale, les déchets organiques de différentes sources (déchets urbains, animaux, agro-industriels), des combustibles secon-daires tels que le bois de chauffage traditionnel et le charbon de bois, et des bioénergies modernes liquides (éthanol, huiles végétales, biodiesel), gazeuses (biogaz) et solides (bagasse de canne à sucre, bale du riz).

Parallèlement aux difficultés de la collecte des données pour une cali-bration convenable des modèles, une représentation exacte de la bioénergie implique dʼintégrer la modélisation dʼautres aspects tels que lʼusage des sols et celui des produits de base. Les exigences en surface disponible pour de grands programmes de bioénergie peuvent avoir des conséquences sur

Page 189: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR192

dʼautres activités liées aux usages du sol, et en particulier sur la production alimentaire. Les liens entre la production de biocarburants liquides modernes et le marché des produits de base internationaux doivent être examinés pour évaluer les coûts dʼopportunité de la bioénergie en regard dʼautres usages des ressources en biomasse (par exemple lʼéthanol face au sucre, le biodiesel face à lʼhuile de ricin, lʼhuile de palme, le soja). Des facteurs pertinents non négligeables tels que lʼeffet des subventions à la production domestique de bioénergie, les tarifs douaniers sur les importations de bioénergie adoptés par les pays développés, le résultat des négociations de lʼOMC ou encore lʼimpact des programmes de bioénergie à grande échelle sur les prix internationaux des feedstocks, réclament une forte extension des modèles existants.

Dans les pays à potentiel hydroélectrique substantiel, la représentation du secteur électrique dans les modèles énergétiques nécessite également des ajustements importants, alors quʼils sont construits encore actuellement sur la base dʼun système dominant de production thermique de lʼélectricité dans les pays développés. La courbe de charge est en effet très différente puisque la succession des saisons sèches et humides devient plus pertinente que les variations quotidiennes pour décrire, comme potentiel énergétique, des systèmes de production dʼélectricité basés sur des centrales hydroélectriques dotées de vastes réservoirs permettant le stockage de lʼeau. Le dispatching (échelonnement séquentiel dʼactivation des centrales de production électri-que pour remplir la courbe de charge) change aussi avec lʼhydroélectricité utilisée pour assurer la courbe de charge en base (coûts fixes élevés et faibles coûts dʼexploitation) et une électricité thermique (à lʼexception du nucléaire) mobilisée comme complément pour assurer les pics de la courbe de charge (coûts fixes faibles et coûts en combustible élevés).

Le développement de la production dʼélectricité est un problème clé dans le contexte dʼune croissance de la demande souvent rapide dans les pays en développement. Les potentiels hydroélectriques doivent être recensés pour une représentation modélisée adéquate des ressources énergétiques en hié-rarchisant les coûts. Les contraintes en capital sont en outre exacerbées par la longueur du temps de construction des grands barrages et par lʼindivisibilité des investissements qui implique des coûts élevés payables dʼavance (la construction dʼune centrale hydroélectrique réalisée à un niveau inférieur à la capacité de production électrique dʼun site donné peut conduire à un gaspillage de lʼénergie potentielle alors que la construction modulaire nʼest pas toujours possible). Les hypothèses sur le taux dʼescompte deviennent ainsi un facteur crucial dʼoptimisation de lʼoffre dʼénergie. Des agents économiques différents ayant des attentes variées en matière de retour sur investissements, le cadre institutionnel du système énergétique doit être correctement représenté dans les modèles.

Page 190: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

193MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT

Influence du cadre institutionnel sur le système énergétique

Le secteur énergétique présente un problème de fond : les investissements y sont très lourds et tout dépend plus quʼailleurs des logiques de décision. Dans les pays en développement, on note une nette prédominance des entreprises publiques, et cette caractéristique va déterminer très fortement les critères dʼinvestissement dès lors quʼun programme de réformes sera envisagé. Le retour sur investissements attendu pourra être long ou court, mais dʼautant plus court que le marché de court terme devra sʼadosser sur des financements publics longs. Les modèles existants font lʼhypothèse que les imperfections de marché sont temporaires ; mais sʼil nʼest déjà pas certain que cette hypothèse se vérifie pour les pays développés, cela ne peut être que plus aléatoire encore pour les pays en développement. Dʼautre part, lʼaccès aux ressources financiè-res est totalement différent dans les pays en développement. Par conséquent, lʼadoption de modèles de décision optimale pose problème.

PROBLÈMES DANS LA REPRÉSENTATION DE LʼUSAGE DES SOLS

La question des usages du sol concerne un ensemble de secteurs signi-ficatifs de lʼéconomie des pays en développement pour plusieurs raisons : 1) les activités agricoles (et dans une moindre mesure les activités forestières) représentent un poids élevé dans les économies en phase moins avancée de leur développement ; 2) les usages du sol touchent potentiellement un nombre très important de secteurs traditionnels (agriculture, élevage, forêt, bois de feu), modernes comme la bioénergie, ou encore les services environnementaux aux écosystèmes ; 3) certains des plus importants parmi les pays en développement sont aussi ceux qui disposent de très grandes surfaces, avec des potentiels agricoles élevés (Brésil, Inde, Chine) ; 4) enfin les phases de développement sʼaccompagnent dʼune modification profonde de lʼutilisation des sols, avec de nombreuses conséquences économiques et environnementales sur site et hors site.

Alors que, dans les pays du Nord, les grandes catégories dʼusage des sols sont en général fixées (en Europe, de nombreuses barrières légales existent qui empêchent la libre conversion des terres entre agriculture et forêt par exemple), dans les pays du Sud au contraire, des tensions multiples et hété-rogènes (économiques, sociales, culturelles, technologiques, agronomiques, alimentaires, énergétiques, environnementales) sʼexpriment et conditionnent lʼintensité et la localisation des changements dans lʼusage des sols que les garde-fous légaux, peu nombreux, peinent à maîtriser.

Cette multiplicité des déterminants en cause et des acteurs concernés com-plique grandement le problème de la prospective en matière dʼusage des sols

Page 191: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR194

dans le Sud. Il faut tout dʼabord sʼassurer de prendre en compte les principaux arbitrages sur les usages, puis contourner les obstacles méthodologiques de la modélisation.

Arbitrages et enjeux

Le premier niveau dʼarbitrage concerne le choix entre usages traditionnels et usages modernes issus de la transformation des produits de la terre sous la contrainte de la technologie et des espaces disponibles. Cʼest le cas, par exemple, de la question du passage des formes traditionnelles de biomasse – énergie (le bois de feu est la première source dʼénergie des ménages en Inde, en Chine, en Afrique subsaharienne et en Asie du Sud-Est) vers des formes plus modernes (biocarburants, gazéification de la biomasse). Si les 200 Mha de forêt tropicale défrichés entre 1980 et 1995 avaient été utilisés pour des cultures énergétiques « modernes » au rendement de 300 GJ/ha/an, alors 60 EJ/an dʼénergie auraient pu être produits par ce biais, soit plus que lʼensemble de toutes les sources non fossiles actuelles. La question de la soutenabilité (alimentaire et environnementale) de la production agricole sʼétend donc à celle des nouveaux débouchés énergétiques, avec comme conséquence la nécessité dʼun couplage avec les approches des systèmes énergétiques qui prévoient lʼorientation de lʼensemble du « portefeuille » des sources dʼénergie.

Un deuxième niveau dʼarbitrage concerne lʼensemble des usages « com-merciaux » et les contraintes et objectifs environnementaux : services procu-rés par les écosystèmes, gestion du carbone, conservation ou réhabilitation dʼécosystèmes protégés des activités humaines pour maintenir la biodiversité, maîtrise de la progression urbaine, lutte contre la déforestation. Par exemple, la future demande européenne de bioéthanol doit pouvoir sʼanalyser en termes de capacité dʼexportation brésilienne, et donc soulève la question de la locali-sation des terres utilisées pour produire la biomasse avec, comme conséquence éventuelle, la disparition de zones contenant des espèces végétales ou animales uniques (écosystèmes du cerrado notamment).

De même, la question de la sécurité alimentaire aboutit à un dilemme envi-ronnemental, car elle devra se faire soit par lʼintensification de l’agriculture, avec comme conséquences lʼappauvrissement des sols, la dégradation du cycle de lʼeau par excès de pesticides et dʼengrais ou des problèmes dʼérosion, le surpâturage, la désertification et lʼaugmentation de lʼémission de gaz à effet de serre, soit par le développement d’une agriculture extensive aboutissant à la disparition de surfaces forestières ou de savanes, et donc à des problèmes de biodiversité et de stabilité des écosystèmes. Ces nouveaux problèmes militent pour une révolution « doublement verte » [Griffon, 2006] : à la fois agronomique et écologique.

Page 192: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

195MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT

Enfin, le problème de la stabilisation du climat et de la maîtrise des émis-sions de gaz à effet de serre crée un lien indirect entre les politiques dʼusage des sols et les politiques énergétiques au niveau global [Gitz et alii, 2006]. L̓ usage des sols aura un impact significatif sur le niveau de lʼeffort de réduc-tion des émissions fossiles requis pour stabiliser le climat [Gitz et Ciais, 2003]. Cela sʼexplique autant par le fait que la déforestation est une source importante dʼémissions de carbone (34 % des émissions cumulées entre 1850 et 1998 – Watson, 2000) que du fait que les écosystèmes primaires se com-portent à lʼheure actuelle comme un important puits de carbone. Or ce dernier disparaîtrait en même temps que la substitution à ces écosystèmes de terres agricoles : les terres vierges de lʼAmazonie (non touchées par la déforestation) absorbent annuellement autant de carbone que lʼEurope occidentale en émet par combustion dʼénergies fossiles.

Cette nécessité de maintenir les « stocks » continentaux de carbone (ou de les augmenter) crée une opportunité pour le renforcement des politiques multilatérales de conservation forestière qui, jusquʼà présent, ont échoué de manière continue.

Les implications redistributives des politiques d’usage des terres

Les terres relèvent de la propriété foncière et, par conséquent, un troisième niveau de lecture concerne les implications en termes de distribution de la rente et dʼéquité des politiques. La maximisation des rentes foncières est un déterminant essentiel des choix dʼusage des sols. En effet, au Brésil par exemple, la déforestation est principalement liée à la captation des profits issus dʼactivités productrices dérivées (récolte de bois, élevage bovin, puis éventuellement cultures dʼexportation comme celle du soja). Cette captation est favorisée par le faible coût de la terre et du travail, et elle est contrainte par les coûts dʼaccès aux marchés [Andersen et alii, 2002]. Parmi les facteurs dʼexpansion de cultures telles que le soja, il faut noter le rôle central de la recherche agronomique dans la maîtrise des technologies et celui des politiques dʼinfrastructure routière [Cattaneo, 2001].

Cela nʼest pas sans poser des problèmes dʼéquité dès lors que la distribution de la propriété foncière est inégale : plutôt que dʼentraîner un développement des activités productives localement, la déforestation débouche davantage sur une concentration des revenus et, à un degré moindre, sur une augmen-tation de lʼemploi urbain à travers lʼorganisation du soutien à lʼagriculture mécanisée.

La description du partage de la rente entre producteurs, secteurs de trans-formation et consommateurs, à lʼintérieur des pays du Sud mais aussi entre le Nord et le Sud, est un sujet peu abordé jusquʼici par la modélisation. Mais il est appelé à devenir incontournable à lʼheure de la création de nouveaux

Page 193: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR196

marchés (ceux de la bioénergie par exemple), du lancement de programmes biodiesel, du renforcement du programme éthanol au Brésil, ou encore de la réforme de lʼorganisation du commerce des produits agricoles.

Enfin, si la sécurité alimentaire nʼest plus un problème au niveau global, des problèmes dʼautosuffisance alimentaire régionale subsistent. Le retard agronomique de lʼAfrique, par exemple, présente dʼimportantes implications géopolitiques (notion dʼarme alimentaire) et économiques (vente dʼautres produits en échange de lʼimportation des produits alimentaires). Ces phé-nomènes appellent un traitement associé des questions spécifiques dʼécono-mie et de technologie agricole et des questions dʼordre macroéconomique [Coxhead et Jayasuriya, 1994]. Lʼintégration de lʼensemble de ces enjeux au niveau des outils dʼévaluation nʼest pas sans poser de nombreux défis méthodologiques.

Questions méthodologiques concernant la prospective des usages du sol dans les pays en développement

À la différence de secteurs comme les services et lʼindustrie pour lesquels des approches en moyenne régionale sont souvent suffisantes, le traitement de la question de lʼusage des sols fait apparaître une difficulté supplémentaire, celle qui est « constitutive » de lʼanalyse au niveau spatial. En effet, la loca-lisation des changements est souvent aussi importante que leur amplitude, et les contraintes naturelles (configuration des lieux, nature des sols, climat) sʼexercent de manière différente selon les zones affectées.

Ce traitement « spatial » du problème est aussi réclamé par la dimension le plus souvent locale des instruments politiques et économiques de gestion, de régulation ou de planification des usages du sol. Or, lʼintroduction de la spatialisation complique grandement le travail de modélisation sous trois aspects principaux : 1) elle augmente la dimension du problème dans le champ économique [Nelson, 2002] ; 2) elle requiert la mise en place de procédures coordonnées entre des approches de modélisation différentes pour rendre pos-sible lʼéchange dʼinformations [Bockstael, 1996], notamment entre les bases de données économiques dont le découpage est essentiellement administratif et les bases de données environnementales par nature spatialisées ; 3) dès lors que les modèles ont une dimension globale, des problèmes dʼintégration dʼéchelles se posent.

Cette nécessité dʼun traitement spatial pose immédiatement le problème du choix de lʼéchelle du modèle. Et la question de lʼéchelon de décision surgit aussitôt puisquʼune large variété dʼéchelles existe du local au global. Le fait que les premiers déterminants de lʼusage des sols soient issus de la sphère économique nʼest pas sans poser, dès le départ, des difficultés techniques liées à la caractéristique régionalisée des modèles économiques alors que les modèles

Page 194: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

197MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT

dʼusage des sols reposent sur une description spatiale. Ces difficultés peuvent être de différentes natures : faible disponibilité des données économiques géographiquement référencées (ou problème de confidentialité, comme dans le cas de lʼUnion européenne où la base de données existante sur lʼéconomie des exploitations agricoles ne peut révéler la localisation précise des fermes, mais seulement leur appartenance à une grande région agricole) ; risque dʼun manque de capacité dʼadaptation des modèles uniquement économiques ; problèmes de compatibilité de lʼanalyse économique fondamentale avec des approches par modèles multiagents ou à automates cellulaires ; difficulté du calibrage des approches multiagents ou à automates.

Enfin, une dernière difficulté émerge du fait que les données économiques sont fondées sur le découpage administratif des territoires, alors que les don-nées biophysiques ou environnementales le sont le plus souvent sur la base dʼun découpage géoréférencé.

Dans les pays en développement, les analyses de lʼusage des sols sont souvent fortement affaiblies par lʼabsence de données statistiques issues de recensements agricoles et forestiers [Nelson et Geoghegan, 2002]. Cette caractéristique est dʼautant plus dommageable que lʼhétérogénéité au niveau des écosystèmes et agrosystèmes est importante [Grainger, 1999]. Cela limite beaucoup les outils utilisables, avec comme conséquence majeure le fait que des causalités peuvent être sous-estimées du seul fait que les données manquent [Veldkamp, 2001]. Selon certains [Tinker, 1997], « des auteurs ont même perdu de leur crédibilité par lʼexpression de conclusions excessives fondées à lʼévidence sur des données statistiquement pauvres ». L̓ utilisation de données satellitaires peut combler une carence en données biologiques ou écosystémiques [Vance et Geoghegan, 2002], mais le problème persiste souvent pour les données économiques.

Conflit entre les méthodologies en présence

Du fait de la complexité des questions posées et des problèmes dʼéchelle et de données, de nombreuses approches ont émergé. Nous citerons : les modèles stochastiques (décrivant des probabilités de transition), les modèles empiri-ques ou statistiques (basés sur des formes réduites), les modèles à automates cellulaires, les modèles mécanistes ou basés sur des processus, les modèles multiagents, ou encore les modèles économiques utilisés à différents niveaux3 (micro, méso ou macro). Ces approches diffèrent par leur base théorique propre à une discipline déterminée, par les unités et échelles dʼobservation considé-rées, par les méthodes analytiques utilisées, par la nature des données quʼelles

3. Une discussion des forces et des faiblesses respectives de ces approches sort du cadre de cette étude, mais le lecteur pourra consulter à ce sujet Geist et Lambin [2002].

Page 195: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR198

exigent en amont, par les déterminants et contraintes quʼelles permettent de prendre en compte et, finalement, par leur capacité à être utilisées avec dʼautres outils et approches hors du champ strict de lʼusage des sols.

Aucune équipe de recherche nʼa réussi, à lʼheure actuelle, à coupler des modèles économiques, énergétiques et dʼusage des sols à lʼéchelle globale et de manière spatialisée4. Certaines équipes, comme celle du modèle IMAGE [Alcamo et alii, 2002], traitent la spatialisation mais pas lʼéconomie, dʼautres rendent compte de lʼéconomie et de lʼénergie, mais ne font pas intervenir la spatialisation [Sands et Leimbach, 2003].

À ces difficultés sʼajoutent la question des effets du changement climati-que lui-même sur les systèmes agricoles et forestiers, et celle des stratégies dʼadaptation. Pour être étendues aux pays en développement, ces analyses butent encore sur plusieurs obstacles. Il sʼagira par exemple de lʼabsence de validité des projections climatiques dans certaines zones (notamment les zones de mousson), ou du peu de données économiques et agronomiques disponibles sur le progrès technique concernant les principales cultures tropicales.

L̓ intégration des composantes économiques, énergétiques et climatiques de manière spatialisée en tenant compte des spécificités des pays en déve-loppement est le nouveau défi posé à la modélisation intégrée de lʼusage des sols. Les enjeux de la construction de tels modèles sont nombreux, au premier rang desquels la conservation des forêts tropicales, le soutien de lʼagriculture, lʼorganisation des futurs marchés de puits de carbone et de bioénergie ainsi que la gestion de la biodiversité. Il sʼagit aussi de doter les différents niveaux de décision, nationaux et internationaux, dʼoutils dʼévaluation qui permettent de sortir des impasses récurrentes sur la question stratégique de la régulation des usages du sol envisagée du point de vue de lʼautorité et de la souveraineté nationales.

CONCLUSION

La problématique liée à la limitation des émissions de gaz à effet de serre face au défi du changement climatique est très représentative de la question posée par ce chapitre, qui est celle de lʼidentification des limites de lʼexercice de modélisation économique, énergétique et dʼusage des sols dans le cas des pays en développement.

4. Une des voies de recherche les plus prometteuses réside dans le couplage des deux grandes catégories dʼapproche existantes : les approches à dominante « automates cellulaires » locales [par exemple Soares-Filho, 2006] ou globales [par exemple Alcamo et alii, 2002] dʼune part, et les approches à dominante économique locales, régionales [par exemple Adams et alii, 1996] ou globales [par exemple Sands et Leimbach, 2003] dʼautre part.

Page 196: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

199MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT

Les émissions de gaz à effet de serre ont un lien direct avec le niveau dʼactivité économique dʼun pays, avec sa façon de produire et de consommer lʼénergie, mais aussi avec sa manière dʼutiliser les sols. Les secteurs tradi-tionnels et informels de lʼéconomie sont de bons exemples de lʼintersection entre ces trois axes dʼanalyse. En effet, les activités intégrées par ces secteurs correspondent à une partie importante de la production économique, de la consommation énergétique, de lʼusage des sols et des émissions de gaz à effet de serre.

Or, dans les pays en développement en général, les secteurs traditionnels et informels représentent la plus grande partie de la production agricole, de lʼusage des sols, de lʼemploi et de la consommation énergétique des ménages. En même temps quʼils contribuent fortement aux émissions de gaz à effet de serre, leur représentation par des modèles mathématiques est plus complexe et limitée.

La dynamique de transition des pays en développement est essentielle-ment un processus de transformation des activités dites traditionnelles en activités modernes, à travers une myriade de processus simultanés tels que la monétarisation, le développement du marché, la pénétration technologique, le renforcement des institutions et de lʼéducation [Shukla, 1995].

La représentation de cette dynamique exige des changements importants dans les modèles conçus le plus souvent pour et par les pays développés. Selon Shukla [1995], la représentation des pays en développement par les modèles peut être améliorée, entre autres, par : 1) une meilleure représentation des secteurs traditionnels et informels ; 2) lʼidentification plus efficace des barrières à lʼintroduction des technologies ; 3) lʼanalyse des politiques de bifurcation concernant différents modes de transport, dʼirrigation, ainsi que la production et la consommation des différents carburants ; 4) une analyse approfondie des politiques relatives à lʼusage des sols, y compris la production de biomasse moderne et le reboisement ; 5) le traitement autonome du secteur traditionnel, notamment dans ses besoins dʼinvestissement ; 6) le développement de bases de données sur les activités économiques liées aux émissions des GES.

En ce qui concerne la modélisation du secteur énergétique, la longue durée de vie de la plupart des technologies comme lʼimpact à long terme des décisions dʼinvestissement sur lʼéconomie, sur les ressources naturelles et sur lʼenvironnement rendent nécessaire une planification de long terme qui doit forcément prendre en compte les interactions entre ces trois axes dʼanalyse. Les politiques gouvernementales changeantes et les incertitudes macroécono-miques augmentent la complexité de la planification et de la prise de décision dans le secteur en question.

Dans la littérature scientifique, nous pouvons trouver un vaste éventail de modèles traitant, dʼune manière assez complète, les problèmes concernant la planification et la politique énergétique dans le contexte des pays développés.

Page 197: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR200

La portée et les caractéristiques méthodologiques dʼun modèle particulier dépendent des problèmes spécifiques de politique ou de planification que les modèles veulent exposer. Bien que la plupart des modèles disponibles le fassent dans le contexte des pays développés, ils sont aussi utiles pour ana-lyser certains problèmes propres aux pays en développement. Des questions telles que lʼamélioration de lʼexécution opérationnelle, lʼimpact du « mix » technologique et les effets de certains aspects de la privatisation du secteur peuvent, par exemple, être étudiés dans le contexte dʼun pays en développe-ment à lʼaide dʼun modèle créé pour et par un pays développé.

Cependant, les pays en développement diffèrent de manière significative des pays développés : une répartition des revenus plus inégale, une pauvreté plus accentuée, la prédominance des styles de vie et des marchés traditionnels propres aux secteurs ruraux, une pression sur la demande énergétique souvent fortement réprimée, une tendance au changement du type de consommation de lʼénergie passant de la biomasse traditionnelle à la biomasse moderne en raison de lʼaugmentation de la population urbaine, des changements soudains de politique énergétique et lʼexistence de multiples barrières aux flux de capitaux et à la diffusion technologique [Pandey, 2002].

Ces caractéristiques sont essentielles pour la planification et la politique énergétique dans les pays en développement. Or, les modèles mondiaux, construits à partir du profil du système énergétique des pays industriels, ne sont pas réellement adaptés pour traiter la problématique spécifique aux pays en développement. Pour cette raison, une très grande incertitude règne quant aux résultats de ces modèles appliqués aux pays en développement. Les éléments qui caractérisent la dynamique du marché de lʼénergie spécifique des pays en développement doivent donc être incorporés dans les modèles mondiaux.

Lʼintégration des composantes économiques, énergétiques, climatiques et spatiales propres aux pays en développement est le nouveau défi posé à la modélisation intégrée. Son élaboration révèle avec toujours plus dʼintensité les nombreux enjeux liés aux pays en développement : poids des secteurs traditionnels et informels, passage de la biomasse traditionnelle à la biomasse moderne, demande réprimée dʼénergie, besoins de développement, conser-vation des forêts tropicales, soutiens unilatéraux à lʼagriculture, bioénergie, biotechnologie et biodiversité.

RÉFÉRENCES BIBLIOGRAPHIQUES

ADAMS D. M., ALIG R. J., CALLAWAY J. M., MCCARL B. A. et WINNETT S. M. (1996), « The forest and agricultural sector optimization model (FASOM) : model structure and policy applications », Res. Pap. PNW-RP-495, Department of Agriculture, Forest Service, Pacific Northwest Research Station, Portland, Oregon.

Page 198: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

201MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT

AIE (Agence internationale de lʼénergie) (2006), World Energy Outlook.ALCAMO J. (dir.) (1994), IMAGE 2.0 : Integrated Modeling of Global Climate Change, Kluwer

Academic Publishers, Dordrecht.ALCAMO J. et HEINRICH T. (2002), « Critical regions : a model-based estimation of world water

resources sensitive to global change », Aquatic Sciences, n° 64, p. 352-362.ANDERSEN L. et alii (2002), The Dynamics of Deforestation and Economic Growth in the

Brazilian Amazon, Cambridge University Press, Cambridge.BOCKSTAEL N. E (1996), « Modeling economics and ecology : the importance of spatial

perspective », American Journal of Agricultural Economics, n° 78, p. 1168-1180.CATTANEO A. (2001), « Deforestation in the Brazilian Amazon : comparing the impacts of

macroeconomic shocks, land tenure and technological change », Land Economics, vol. 77, n° 2, mai, p. 219-240.

COXHEAD I. et JAYASURIYA S. (1994), « Technical change in agriculture and land degradation in developing countries : a general equilibrium analysis », Land Economics, vol. 70, n° 1, p. 20-37.

– (2001), « Technical change in agriculture and land degradation in developing countries : a general equilibrium analysis », Land Economics, vol. 70, n° 1, p. 20-37.

GEIST H. J. et LAMBIN E. F. (2002), « Proximate causes and underlying forces of tropical deforestation », Bioscience.

GIEC (2000), Special Report on Emission Scenarios.GITZ V. et CIAIS P. (2003), « Amplifying effects of land-use change on atmospheric CO2

levels », Global Biogeochemical Cycles, vol. 17, n° 2.GITZ V., HOURCADE J.-C. et CIAIS P. (2006), « The timing of biological carbon sequestration

and carbon abatement in the energy sector under optimal strategies against climate risks », The Energy Journal, vol. 27, n° 3, p. 113-133.

GRAINGER A. (1999), « Constraints on modeling the deforestation and degradation of tropical open woodlands », Global Ecology and Biogeography, n° 8, p. 179-190.

GRIFFON M. (2006), Nourrir la planète, Odile Jacob, Paris.LA ROVERE E. L., PEREIRA A. S. et SIMÕES A. F. (2006), « Biofuels and sustainable energy

development in Brazil », World Development (à paraître).NELSON R. R. (2002), « Bringing institutions into evolutionary growth theory », Journal of

Evolutionary Economics, n° 12, p. 17-28.NELSON G. C. et GEOGHEGAN J. (2002), « Deforestation and land-use change : sparse data

environments », Agricultural Economics, n° 27, p. 201-216.OCDE (1959), Comptes nationaux, vol. 1. Principaux agrégats, éditions de lʼOCDE, Paris.PANDEY R. (2002), « Energy policy modelling : agenda for developing countries », Energy

Policy, n° 30, p. 97-106.SAND-ZANTMAN A. (1995), « Modèles dʼéquilibre général calculable et répartition des revenus

dans les pays en voie de développement : quelques éléments dʼévaluation », Revue du Tiers-Monde, vol. 36, n° 142, avril-juin, p. 441-442.

SANDS R. D. et LEIMBACH M. (2003), « Modeling agriculture and land-use in an integrated assessment framework », Climatic Change, n° 56, p. 185-210.

SHUKLA P. R. (1995), « Greenhouse gas models and abatement costs for developing nations : a critical assessment », Energy Policy, vol. 23, n° 8, p. 677-687.

SOARES-FILHO B. S. et alii (2006), « Modeling conservation in the Amazon basin », Nature, n° 440, p. 520-523.

TINKER P. B. (1997), « The environmental implications of intensified land-use in developing countries », Phil. Trans. R. Soc., Lond. B 352, p. 1023-1033.

Page 199: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR202

VANCE C. et GEOGHEGAN J. (2002), « Temporal and spatial modeling of tropical deforestation : a survival analysis linking satellite and household survey data », Agricultural Economics, vol. 27, n° 3, p. 317-332.

VELDKAMP A. et LAMBIN E. F. (2001), « Predicting land-use change », Agriculture, Ecosystems and Environment, n° 85, p. 1-6.

WATSON R. T. et alii (2000), « Land-use, land-use change, and forestry », A Special Report of the IPCC, Cambridge University Press, Cambridge.

Page 200: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

203POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

Une combinaison nouvelle de certitude et d i̓ncertitude se dégage de la question énergétique en cette première décennie du nouveau siècle. L̓ une et l̓ autre déstabilisent les anticipations et les repères et concourent à donner à l̓ avenir un visage inquiétant. La déstabilisation est multiforme, à la fois interne et externe. Elle est d a̓bord interne en Europe, avec l̓ ouverture à la concur-rence des grandes entreprises du secteur, voire leur privatisation. Introduite au nom des effets bénéfiques de la concurrence pour les consommateurs, cette réforme a rapidement provoqué une forte hausse des prix et rend incertaine la disponibilité de capacités suffisantes d a̓pprovisionnement et de production à l̓ avenir. Par ailleurs l̓ énergie est de nouveau associée à la peur de manquer (que se passera-t-il une fois le pic pétrolier franchi ?). La déstabilisation se fait externe lorsque les périls géopolitiques débouchent sur une menace terroriste de grande ampleur ou sur le risque dʼune conflagration majeure avec le monde musulman, là où se trouve la plus grande part des réserves dʼhydrocarbures. Elle est externe, encore, lorsque l̓ avenir énergétique voit sa donne radicalement reconfigurée par les perspectives de bouleversement du climat de la planète sous l̓ effet des émissions massives et croissantes de gaz à effet de serre depuis le XIXe siècle. L̓ usage de l̓ énergie fossile est, on le sait, le grand coupable dans cette affaire.

LES PRÉVISIONS ÉCLAIRENT-ELLES ?

Une certitude est désormais acquise : les systèmes et les usages énergéti-ques qui ont soutenu le développement économique depuis plusieurs décennies devront se transformer en profondeur d i̓ci 2050. C e̓st là que la certitude cède la place à l̓ incertitude. Comment reconfigurer les systèmes énergétiques pour tenir compte simultanément de toutes les contraintes et de toutes les menaces

9

Pour une morale de la modélisation économique

des enjeux climatiques en contexte dʼexpertise

Olivier Godard

Page 201: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR204

dʼun monde profondément inégal et lancé plus que jamais dans la course à la croissance matérielle ?

Les inerties liées aux capacités de production installées, aux infrastructures et à lʼaménagement du territoire laissent peu dʼinconnues à court et moyen terme (15 ans) quant aux besoins et aux moyens de les satisfaire. De plus, sʼil est un domaine qui a été lʼobjet constant de lʼattention des prévisionnistes et prospectivistes, cʼest bien celui de lʼénergie. Notre avenir nʼest-il pas éclairé de mille lumières grâce aux efforts de lʼAgence internationale de lʼénergie, de la Commission européenne, de la Conférence mondiale de lʼénergie, des centres universitaires, des commissions gouvernementales et des bureaux dʼétude spécialisés ?

Toutefois, éclairés, le sommes-nous totalement et sans trompe-lʼœil par ces exercices ? Au-delà des intentions diverses des modélisateurs, la modélisation est-elle si innocente lorsque, sʼappuyant sur la formalisation la plus sophisti-quée, elle livre ses chiffres sur la scène publique ? Cʼest en effet à lʼusage public de la modélisation dans un contexte de délibération sur lʼaction à conduire que ce texte est consacré, en prenant appui sur le traitement des enjeux du climat. On se réfère parfois, dans le monde de la critique de cinéma ou de la photographie, à lʼidée dʼune morale du regard. Je propose ici de réfléchir à ce quʼon pourrait appeler une morale du cadrage de la modélisation économique des enjeux climatiques en situation dʼexpertise, en considérant successivement le moyen terme (10 à 20 ans) et la longue durée.

Le propos sera introduit par quelques questions sur la pratique de la modé-lisation, en ayant particulièrement en vue l̓ évolution récente vers des modèles intégrés climat-économie. Puis le questionnement abordera le moyen terme en décortiquant deux exemples dʼusage de la modélisation économique dans le domaine énergie-climat. Le premier, international, remonte à 1992 et touche à l̓ accueil fait aux États-Unis aux propositions de la Commission européenne d a̓lors en matière de politique de l e̓ffet de serre. Le second, français, est plus récent. Il concerne les travaux du groupe Énergie 2010-2020 animé par le Commissariat général du Plan en 1996-1998 à la demande du ministre de l̓ Industrie.

Sur ce fond dʼexpériences, la réflexion sʼélargira à la manière dont il est tenu compte des générations futures éloignées dans la modélisation à long terme. L̓ un des traits notables des modèles traitant du changement climati-que est en effet leur longue portée temporelle. Présenter des trajectoires et des bilans sur un siècle ou deux – voire bien au-delà1 – nʼeffrayant pas les climatologues, certains économistes se sont enhardis à faire de même. Par

1. Par exemple, le géophysicien David Archer [2005] modélise le devenir du CO2 dʼorigine fossile sur plusieurs dizaines de milliers dʼannées et conclut que la durée de vie moyenne du CO2 dans lʼatmosphère est dʼenviron 30 000 ans, du fait que 15 à 20 % des émissions anthropiques doivent être considérées comme demeurant dans lʼatmosphère « pour lʼéternité ». L̓ auteur le souligne lui-même,

Page 202: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

205POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

exemple certains font valoir les bénéfices nets que des pays comme la Chine ou la Russie retireraient durablement, à partir de 2100 jusquʼen 2200, du changement climatique annoncé…

DES QUESTIONS SUR LA MODÉLISATION

Susciter des réflexes ou éveiller la réflexion ?

Le recours à la modélisation en contexte dʼexpertise soulève nombre de questions. Que penser, par exemple, de lʼeffet de réalité imposé par la forme dans laquelle les résultats sont présentés ? La confusion du modèle et de la réalité, du présent effectif et de lʼavenir possible, menace là où on recourt aux mêmes indicateurs, aux mêmes supports de communication des résultats pour rendre compte de situations ou de phénomènes réels ou bien de possibles imaginés. Ne peut-on pas discerner ici ou là des pratiques visant à façonner les représentations et les anticipations, voire à susciter adhésions ou répulsions en jouant sur des réflexes politiques et culturels plus que sur la réflexion ?

Dans les affaires humaines où la parole émise fait partie de la réalité quʼelle prend pour objet, lʼexpertise prend un statut particulier : lʼénoncé de lʼexpert, quʼil soit conçu dans ce but ou que cela se fasse à son corps défendant, interagit avec la réalité dont il trace le tableau, et contribue à faire quʼelle advienne ou quʼelle nʼadvienne pas, selon les cas. Comme lʼobserve Jean-Pierre Dupuy [2002, chap. 10 et 11] à propos des prophéties de catastro-phes, lʼexpertise économique et la prévision sociale font surgir un problème particulier dʼéquilibre entre avenir projeté, anticipations, comportements et réalisation de lʼavenir.

La modélisation intégrée, ennemie du pluralisme ?

La gageure, lʼaccomplissement ultime ou la visée tendancielle, comme on voudra, que porte lʼidée de modèle intégré à la fois climatique et économique est de parvenir à un point fixe – Dupuy [2000] parle dʼéquilibre projeté. Les anticipations et les comportements des acteurs humains suscités par les ima-ges de lʼavenir économique et climatique que les modèles créent doivent être intégrés par ces modèles pour faire advenir un des avenirs possibles quʼils décrivent. Après de multiples itérations, la pluralité des avenirs possibles ne se réduit-elle pas immanquablement comme peau de chagrin pour laisser la place à un avenir prévu unique et inéluctable ? Cela signifierait que la prospective

ces résultats sʼécartent de la vulgate scientifique qui a diffusé lʼidée dʼun pas de temps dʼenviron une centaine dʼannées.

Page 203: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR206

assistée par modélisation intégrée ne pourrait éviter in fine de verser dans le registre de la prophétie autoréalisatrice, ce qui manifesterait son incompatibi-lité avec un principe de pluralité assumée des représentations de lʼavenir.

Cʼest ainsi que prévisions et scénarios donnent à voir des doublements ou triplements inéluctables des consommations énergétiques et enserrent les parts respectives futures des énergies dans des marges assez étroites. Sʼagirait-il donc pour nos contemporains de lire les prévisions énergétiques comme le grand-livre déjà écrit de lʼavenir de lʼhumanité, de se faire spectateurs de lʼavenir sans jamais pouvoir basculer collectivement de lʼautre côté, celui des auteurs du livre ? Plus sʼaffirment les démarches de prévision de lʼavenir collectif, plus les acteurs sont implicitement cantonnés à des comportements dʼadaptation aux contraintes perçues. Or lʼavenir dépend des choix des hom-mes dʼaujourdʼhui. Sous quelle forme le modéliser de façon à mettre en valeur leur liberté et leur pouvoir dʼinitiative ?

Comment éviter les catastrophes prévues ?

Sʼagissant de la crainte commune dʼun avenir catastrophique, lʼidée dʼéqui-libre projeté résultant dʼune modélisation totalement intégrée soulève une difficulté majeure. Pour ne pas être catastrophique, lʼavenir réalisé sous lʼeffet de lʼaction humaine devrait paradoxalement se maintenir à lʼécart de lʼavenir que les hommes auraient anticipé. Le livre de Dupuy sur le Catastrophisme éclairé se conclut en effet sur cette maxime étrange, dérivée de celle de Hans Jonas [1990] : « Obtenir une image de lʼavenir suffisamment catastrophiste pour être repoussante et suffisamment crédible pour déclencher les actions qui empêcheraient sa réalisation, à un accident près2. »

Or, face au problème du changement climatique, le risque existe sérieu-sement de voir opinions et gouvernants passer dʼun seul coup du scepti-cisme quant à une menace jugée théorique et lointaine au sentiment que nous sommes déjà inéluctablement engagés dans une aventure à lʼissue peut-être catastrophique, tel un destin. Dans les deux cas, bien que pour des raisons opposées, il nʼy a pas de place pour une action collective capable de mordre sur le problème, au-delà des gesticulations dʼusage.

Les risques de manipulation de l’expertise par les décideurs

On pourrait lire les interrogations précédentes comme une suspicion envers une catégorie dʼexperts – ces économistes qui proposent les résultats de leurs modèles pour aider les décideurs à choisir les politiques à conduire à long terme. Avouons-le, la suspicion doit aussi sʼexercer envers le bord des

2. Dupuy [2002, p. 214 – souligné par O. G].

Page 204: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

207POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

décideurs. Ne voit-on pas assez couramment responsables politiques et éco-nomiques mobiliser telle ou telle expertise à lʼappui de leurs projets ou de leurs thèses sans être trop regardants sur les conditions dans lesquelles ladite expertise est rendue, sur ce quʼelle dit vraiment ou sur les conditions, vite oubliées quand cela arrange, de validité des conclusions ? Nʼarrive-t-il pas que des experts soient enjoints de parvenir à certains résultats définis dʼavance, ou soient plongés dans la sidération à la découverte de ce que les décideurs leur font dire ou tirent de leurs travaux ?

La relation entre modélisation et décision, entre expertise et action, doit certainement être revisitée des deux côtés si lʼon veut éviter les conclusions par trop naïves [Godard, 2001].

1992 : LES IMPACTS DʼUNE TAXE CARBONE AUX ÉTATS-UNIS ET EN EUROPE

Les faits

En 1991, la Commission européenne avait proposé que les États-Unis et le Japon rejoignent lʼUnion dans lʼinstauration, sur leurs territoires respec-tifs, dʼune taxe sur les émissions de CO2 du secteur industriel. Dʼun niveau initial équivalant à 3 dollars le baril, la taxe était conçue pour augmenter dʼun dollar par an jusquʼen 2000, ce qui aurait alors représenté un doublement du prix du pétrole de lʼépoque. En juin 1992 devait se tenir à Rio de Janeiro le Sommet de la Terre, à lʼoccasion duquel devait être solennellement adoptée la Convention-cadre des Nations unies sur les changements climatiques, en négociation depuis deux ans.

Deux économistes réputés, Alan Manne (Stanford University) et Richard Richels (Electric Power Research Institute), spécialistes de la modélisation économique des politiques de lʼénergie, avaient utilisé leur modèle Global 2100 pour évaluer les conséquences de lʼapplication aux États-Unis de cette pro-position européenne. Leurs travaux antérieurs avaient contribué à convaincre dès 1990 lʼentourage du président Bush que lʼintérêt des États-Unis était de ne pas sʼengager dans une politique active de réduction des émissions de gaz à effet de serre. Ces deux auteurs ont rendu publics en février 1992 les résultats provisoires de leur étude sous la forme dʼun draft diffusé hors des cercles scientifiques et notamment auprès de la presse de référence. Le docu-ment comprenait en particulier un graphique comparant le coût économique de cette taxe en pourcentage du PIB (produit intérieur brut) pour lʼEurope et pour les États-Unis (voir la figure 1, p. 209). Le contenu énergétique de la croissance américaine étant à peu près le double de celui de lʼEurope, il en ressortait que les Américains auraient à supporter un coût beaucoup plus élevé que les Européens sʼils appliquaient le schéma de taxation proposé. Dès lʼan

Page 205: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR208

2000, le coût de cette taxe pour les Américains aurait été de lʼordre de 0,4 % de leur PIB, tandis que lʼEurope nʼaurait eu à supporter quʼun coût de 0,2 %. Les auteurs évoquaient, dans leurs commentaires, les effets possibles dʼun tel déséquilibre des coûts sur la compétitivité relative des deux régions. Ces commentaires ont été repris par certains journaux américains, dont le New York Times. Moquant la Commission européenne, cette presse souligna combien peu vraisemblable et peu souhaitable aurait été le ralliement des États-Unis, où lʼon nʼaime guère les taxes, à une mesure qui aurait si nettement avantagé lʼEurope et si nettement pénalisé les États-Unis dans la compétition interna-tionale ! On ne peut naturellement pas imputer les choix politiques américains à une seule étude ni à quelques articles de presse. Néanmoins la diffusion de ces résultats dans une période clé des négociations a renforcé le camp de ceux qui étaient hostiles à la fois à toute taxe sur le carbone et à toute action significative de limitation des émissions de gaz à effet de serre. Finalement, ni les États-Unis ni le Japon nʼont voulu de cette proposition de taxe et la Commission, qui lʼavait avancée de manière conditionnelle, y a finalement renoncé avant le Sommet de Rio.

Lʼhistoire de ce travail dʼexpertise ne sʼest pas arrêtée là. Lʼarticle en question a été soumis à la revue Energy Policy, revue académique de réfé-rence pour les spécialistes du domaine, et publié en janvier 1993 [Manne et Richels, 1993], six mois après le Sommet de Rio. Il sʼagissait du même article présentant les mêmes résultats, à une exception notable près, celle de la figure comparant le coût respectif de la taxe en Europe et aux États-Unis (voir la figure 2 ci-contre). La situation était désormais complètement inversée ! Les États-Unis apparaissaient comme les grands gagnants – relatifs – de lʼintro-duction coordonnée dʼune taxe sur le CO2. Pour lʼEurope, lʼordre de grandeur du coût était considérablement modifié, puisque ce dernier était multiplié par quatre : à lʼhorizon 2010, ce coût passait, entre les deux versions de lʼarticle, de 0,3 à 1,2 point de PIB. Les auteurs ne mentionnaient pas quʼils avaient modifié leurs résultats initiaux sur ce point, mais en donnaient indirectement lʼexplication.

Une comparaison des pertes de PIB dues à la taxe carbone

La différence entre le draft et lʼarticle publié tenait aux hypothèses utilisées concernant le traitement de la fiscalité de lʼénergie dans la situation de base. Dans la première simulation rendue publique en 1992, ils nʼavaient pris en compte aucune notion de distorsion économique imputable aux impôts sur lʼénergie, alors que cette fiscalité était alors – et demeure – beaucoup plus élevée en Europe quʼaux États-Unis. Or, selon la théorie économique de la fiscalité, plus on taxe un bien déjà taxé, plus les pertes de bien-être entraînées par la distorsion des choix des contribuables sont fortes, étant multiplicatives et

Page 206: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

209POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

non pas additives3. Ce point avait été soulevé par plusieurs collègues, notam-ment de lʼOCDE, lors du processus de relecture de lʼarticle avant publication. Les auteurs avaient donc modifié leur modélisation sur ce point pour prendre en compte les coûts économiques des distorsions supplémentaires imputables à la nouvelle taxe projetée, surtout en Europe. Considérant lʼimpôt comme distorsif dès le premier dollar versé, le coût de distorsion dʼune taxe carbone devenait considérablement plus élevé en Europe quʼaux États-Unis.

La publication finale nʼa soulevé à ma connaissance aucun commentaire dans la presse américaine sur les avantages considérables que les États-Unis auraient pu retirer dʼune taxe sur le carbone dans sa compétition avec lʼEurope. Le Sommet de Rio était déjà loin.

3. Cette théorie ne voit dans la fiscalité en place que le moyen de collecter les ressources financières nécessaires au financement de dépenses publiques. Les marchés sont supposés être tous parfaitement concurrentiels et répondre au mieux aux préférences des consommateurs.

FIGURE 1. – LE GRAPHE PRÉSENTÉ DANS LE DRAFT DE LʼARTICLE DE FÉVRIER 1992

FIGURE 2. – LE GRAPHE DANS LʼARTICLE DʼENERGY POLICY DE JANVIER 1993

% du PIB

% du PIB

Page 207: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR210

Des jeux d’influence

L̓ épisode est instructif sur les enjeux dʼune expertise économique inter-nationale. Il éclaire aussi en creux certains éléments dʼune morale de la modélisation en situation dʼexpertise. Commençons par une observation factuelle : lorsque des négociations internationales sʼaccélèrent ou approchent dʼune échéance convenue, différents groupes dʼintérêts mettent en circulation toutes sortes dʼétudes encore sous la forme de drafts, dans le but de peser sur le résultat final. Ces documents prétendent souvent apporter des révélations sur une réalité jusquʼalors ignorée, mais nʼont pas fait lʼobjet dʼune revue critique par des pairs.

Ces jeux dʼinfluence ne concernent pas seulement des experts de troi-sième catégorie, membres douteux dʼofficines prêtes à démontrer tout ce que veulent leurs clients. Les économistes impliqués dans le cas cité comptent parmi les plus réputés et influents sur la scène du changement climatique. Ils ont depuis régulièrement contribué au travail du GIEC (Groupe dʼexperts intergouvernemental sur lʼévolution du climat4). Le besoin dʼune réflexion sur lʼusage de la modélisation économique en contexte dʼexpertise concerne bien le cœur de la profession.

Le choix des indicateurs

Une question politiquement sensible concerne les indicateurs choisis pour présenter les résultats. Ici, comme souvent, les auteurs utilisent une représentation agrégée, celle dʼun pourcentage du PIB. Cette solution a lʼavantage de la simplicité. Est-ce une raison suffisante ? Les composantes et hypothèses retenues pour faire de cet indicateur le reflet de lʼobjectif poursuivi par une société ont en effet des fondements fragiles ou contestables mis en évidence de longue date. Ainsi le PIB nʼest pas un indicateur de bien-être mais dʼactivité. De plus, en tant quʼindicateur de flux, il ne fait pas la distinction entre vraie création de richesses et diminution des stocks et des capacités. Toutefois il entre en résonance immédiate avec les préoccupations courantes de la plupart des gouvernants et des dirigeants dʼentreprise des pays occidentaux, peu sensibles aux enjeux de long terme. Cela a pour effet que lʼindicateur choisi mobilise des croyances réflexes, des préjugés et de fausses intuitions.

4. Ce groupe dʼexperts a été constitué sous lʼégide de lʼOrganisation météorologique mondiale et du Programme des Nations unies pour lʼenvironnement à la fin de 1988. Il implique plusieurs centaines de chercheurs à travers le monde. Ses principaux rapports ont été remis en 1990, 1995 et 2001. Le quatrième sera publié en 2007. Voir les chapitres V et VI de cet ouvrage.

Page 208: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

211POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

Dans dʼautres cas, comme lorsque certains travaux économiques donnent à voir des coûts négatifs5, les mêmes réflexes et fausses intuitions alimentent un sentiment profond dʼincrédulité. Si le résultat faux du draft de mars 1992 nʼa soulevé aucune objection manifeste de la part du public destinataire, cʼest quʼil donnait une expression précise à une croyance commune, convention partagée par un monde dʼexperts, de représentants dʼintérêts économiques et de dirigeants formant une communauté de croyances.

Dans ce contexte, les modélisateurs devraient sʼinterdire de manier des indicateurs aussi saturés dʼeffets de fascination et de croyance6, si du moins leur but est de susciter la réflexion, quitte à ce que leurs résultats soient moins immédiatement lisibles. Il y a certainement là une limite à mettre à la recherche de la pertinence pratique et à la satisfaction la plus complaisante des demandes directes que les décideurs font aux modélisateurs.

Un sens différent selon le contexte

L̓ épisode rapporté attire également lʼattention sur les différences de signi-fication prise par un résultat donné selon que lʼon se trouve dans un contexte scientifique ou dans un contexte dʼexpertise [Roqueplo, 1997]. Dans un contexte scientifique, cʼest à juste titre que des économistes ne perçoivent pas un changement de résultats provoqué par un changement dʼhypothèses ou une modification des équations du modèle comme un échec portant atteinte à leur crédit. Ces essais-erreurs concourent à lʼexploration scientifique normale dʼun problème. Les problèmes commencent lorsque les résultats contingents ainsi obtenus sont utilisés pour éclairer des choix de politique.

Lorsque les chercheurs se font experts, on attend dʼeux quʼils parlent au nom de la réalité, et non pas selon le jeu de leurs hypothèses et de leurs modèles. Les divers utilisateurs (responsables politiques, presse, lobbies, etc.) tendent à se focaliser sur les résultats, pour les prendre ou pour les rejeter, en délaissant leur dépendance vis-à-vis de toute la construction scientifique qui leur donne sens. Des énoncés hypothétiques à valeur relative sont pris pour des énoncés positifs de valeur absolue.

Ce changement de signification, les chercheurs qui se prêtent à lʼexpertise devraient en être conscients. Cela impliquerait de leur part une réserve dans la diffusion de leurs travaux tant que ces derniers nʼont pas encore été soumis

5. De tels coûts négatifs se présentent lorsque les actions de réduction des émissions de gaz à effet de serre contribuent à dʼautres objectifs comme la réduction de la pollution locale ou la pénétration de techniques éco-efficaces rentables dans les conditions économiques courantes mais insuffisamment connues.

6. Par exemple, les modélisateurs pourraient être invités à utiliser lʼIDH (lʼindicateur du développement humain) du Programme des Nations unies pour le développement ou dʼautres indicateurs cherchant à cerner le caractère durable du développement.

Page 209: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR212

à la discussion critique par des pairs. De plus, le recours à lʼexpertise devrait éviter dʼêtre ponctuel et sʼinscrire dans un processus de dialogue en profondeur mené entre les différentes équipes de modélisation, les experts de différentes provenances et les différents usagers de ces travaux.

1996-1998 : LE GROUPE ÉNERGIE 2010-2020 EN FRANCE

Depuis trente ans, lʼambition de prévoir lʼavenir a laissé assez largement la place à une approche plus ouverte qui est celle de scénarios construits à partir dʼensembles cohérents dʼhypothèses agencées autour dʼune idée principale. Les visages de lʼavenir possible sont devenus multiples, dans certaines limi-tes. Cette évolution est a priori davantage en phase avec une reconnaissance explicite de la liberté de chaque pays de sʼengager dans telle ou telle voie. Ce nʼest pas une mince avancée intellectuelle. Elle ne sʼest pas faite sans rencontrer des résistances qui, toutes, nʼont pas encore cédé aujourdʼhui, comme cela va être montré à présent.

De façon régulière, dans les années 1980-1990, le gouvernement français faisait réaliser des prévisions énergétiques pour le pays afin dʼasseoir ses pro-pres choix, notamment pour lʼinvestissement. En 1996-1998, ce fut un groupe présidé par Pierre Boisson qui le fit. De ce travail animé par une commission plénière sʼappuyant sur les travaux de quatre ateliers spécialisés dʼexperts, il est résulté un rapport de synthèse, Énergie 2010-2020. Les chemins d’une croissance sobre [Commissariat général du Plan, 1998b].

La construction de trois scénarios énergétiques pour la France

Les réflexions et propositions du groupe Énergie 2010-2020 se sont appuyées sur les travaux de quatre ateliers dʼexperts. Au nombre de ces derniers, lʼatelier A27 a reçu le mandat dʼélaborer des bilans énergétiques prospectifs pour la France aux horizons 2010 et 2020 [Commissariat général du Plan, 1998a ; Godard, 1998]. L̓ avenir énergétique à lʼhorizon 2020 était perçu comme assez incertain pour différentes raisons. On peut citer lʼimpré-visibilité de la scène énergétique mondiale, les changements de lʼorganisation économique du secteur énergétique, lʼamorce éventuelle du remplacement du parc électronucléaire français, le devenir de la convention-cadre sur le climat8 adoptée dans le cadre des Nations unies en 1992, ou encore les transformations

7. Président de lʼatelier : François Moisan (ADEME) ; rapporteur général : Olivier Godard (CNRS).

8. Au moment où les travaux ont été engagés, le protocole de Kyoto (décembre 1997) nʼavait pas encore été adopté.

Page 210: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

213POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

envisageables dans le secteur des transports (progrès technique, modification en profondeur de lʼaction publique et mutation des comportements).

Parmi les nouveaux facteurs affectant la scène énergétique française, une place particulière revenait à la démultiplication des pôles dʼimpulsion stratégique. L̓ action gouvernementale nationale devait désormais trouver sa place au sein dʼun ensemble plus large dʼactions et de décisions concourant à transformer le paysage énergétique. Autorités communautaires européennes, grands opérateurs publics et privés, collectivités locales étaient devenus des acteurs à part entière dʼune politique énergétique. Ces éléments convergeaient pour appeler les pouvoirs publics à exercer différemment leur rôle et à choisir de nouvelles priorités.

Cette situation nouvelle devait trouver son expression dans les orientations méthodologiques des travaux de lʼatelier A2 ; il convenait en particulier de faire ressortir la dimension sociopolitique des choix techniques et économiques que la France devait faire dʼici 2020.

L’approche : des scénarios incarnant le devenir possible de la société française

Les responsables de lʼatelier ont voulu une méthode dʼexploration de lʼavenir qui reconnaisse explicitement le caractère ouvert et incertain de ce dernier. À leurs yeux, cela disqualifiait une approche reposant sur la seule projection de tendances passées estimées par des méthodes économétriques. De même, la méthode consistant à établir une unique projection de référence assortie de différentes variantes sur des questions précises ne leur avait pas semblé apporter lʼouverture suffisante. En 1996-1998, le sentiment prévalait chez les experts que des changements importants allaient affecter la société française et le monde autour dʼelle, pas seulement le secteur énergétique. Il convenait donc de donner une représentation des perspectives énergétiques du pays qui les inscrivent dans différentes évolutions économiques et sociales possibles de la société française et de son contexte international.

Cʼest ainsi que fut adoptée lʼidée de construire trois scénarios de référence se différenciant sur des hypothèses dʼévolution de la société française et de lʼEurope. Ces scénarios plantaient différents contextes plausibles dʼici 2020 en fonction desquels les différents acteurs de la scène énergétique, et parmi eux les pouvoirs publics français, auraient à concevoir leurs stratégies. À ces évo-lutions de société diverses correspondaient en particulier des changements du regard porté sur le rôle de lʼÉtat, sʼagissant à la fois du contour de ses domaines dʼintervention légitime et du choix des modalités de son action.

Les trois scénarios construits reposaient ainsi sur des hypothèses socio-politiques contrastées. Le premier scénario, dénommé « société de marché », sʼorganisait autour dʼune réduction du niveau dʼintervention économique de

Page 211: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR214

lʼÉtat et dʼune redéfinition de ses modes dʼaction allant dans le sens dʼune plus large confiance dans les mécanismes régulateurs de marché. Il sʼaccompagnait également de la contraction de lʼhorizon temporel des différents acteurs sous lʼeffet des pressions et sanctions concurrentielles. Dans ce scénario lʼénergie, y compris la production électrique, était un bien ordinaire laissé à la régulation du marché. Le deuxième scénario, appelé « État industriel », correspondait au retour dʼun État interventionniste dans le domaine économique et industriel au nom dʼune identification des intérêts à long terme de la nation avec la force et la compétitivité de son industrie. La conception des différentes politiques publiques, par exemple les politiques dʼenvironnement (effet de serre), y était systématiquement utilisée pour favoriser la compétitivité et lʼessor de lʼindustrie française, dans les limites autorisées par les règles européennes et celles de lʼOrganisation mondiale du commerce. Lʼénergie demeurait un bien stratégique pour la souveraineté nationale, dérogeant de ce fait aux lois ordinaires du marché. Le troisième scénario, désigné comme « État protec-teur de lʼenvironnement », faisait prioritairement de lʼÉtat le gardien des valeurs de protection de la santé de la population, de prévention des risques technologiques et de préservation de lʼenvironnement aussi bien à lʼéchelle locale que planétaire. Il laissait davantage aux entreprises, aux organisations professionnelles et aux partenaires sociaux le soin de piloter les mutations économiques compatibles avec le cadre fixé. En résumé, S1 était un scéna-rio de plus grand laisser-faire des marchés, S2 un scénario dʼune politique volontariste de lʼoffre, et S3 un scénario de maîtrise conjointe de lʼoffre et de la demande pour les rendre compatibles avec les objectifs sociaux et envi-ronnementaux du pays.

Ces trois scénarios ont été traduits sous la forme dʼhypothèses technico-économiques9 de façon à être aussi plausibles, complets et cohérents les uns que les autres. Aucun de ces scénarios nʼétait considéré comme tendanciel. Aucun ne constituait le scénario de référence qui aurait renvoyé les autres au statut de variantes.

La priorité ayant été donnée à lʼexploration des conséquences de trois évolutions sociopolitiques, un jeu unique dʼhypothèses a été retenu concer-nant la croissance économique (un taux annuel moyen de 2,3 % sur toute la période), la croissance démographique et les prix internationaux de lʼénergie (un pétrole à 24 dollars95

10 le baril de 2005 à 2020). Le taux dʼactualisation utilisé pour les choix dʼinvestissement énergétique et le calcul des coûts a été

9. Ces hypothèses technico-économiques ont été introduites dans deux cadres de modélisation économique permettant de déterminer des équilibres offre/demande pour les divers secteurs productifs et pour les différents marchés de lʼénergie. Lʼun était un modèle technico-économique du secteur énergétique et lʼautre un modèle dʼéquilibre général calculable.

10. Ce chiffre de 95 en indice exprime le « millésime » de la valeur du dollar pris comme référence : ici, des dollars de 1995.

Page 212: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

215POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

fixé à 8 % pour S2 et S3, et à 12 % pour S1. Cette approche contrastait avec les exercices antérieurs qui proposaient des scénarios ne se différenciant que par la combinaison taux de croissance/prix de lʼénergie.

Nucléaire ou gaz ?

Du côté de l̓ offre, l̓ une des variables de changement les plus spectaculaires selon les scénarios était le parc de production électrique, dans le cas où les cen-trales nucléaires devraient être déclassées après trente ans de service. Dans ce cas, le renouvellement du parc devait commencer à être engagé à partir de 2007. Cependant, l̓ expertise technique alors disponible considérait quʼune extension à 40 ans était envisageable sans affecter la sûreté nucléaire. Avec cette extension, le problème du renouvellement du parc nucléaire français ne devait alors qu e̓ffleu-rer la fin de la période considérée, l̓ essentiel du renouvellement du parc devant intervenir postérieurement à 2020. Chaque scénario a donc été décliné selon deux variantes : 30 ans et 40 ans de durée de vie des centrales nucléaires.

Deux facteurs sont apparus décisifs : le niveau de la demande et le fait quʼavec un taux dʼactualisation de 12 %, tel quʼutilisé dans S1, le gaz devenait plus rentable que le nucléaire : dans ce scénario, le remplacement des centrales nucléaires déclassées devait en conséquence se faire avec des turbines à gaz à cycle combiné.

Si en 2010 le nucléaire devait fournir environ 74 % des besoins d é̓lectricité quel que soit le scénario, cette contribution devait relativement s̓ abaisser d i̓ci 2020 pour se situer dans une fourchette de 61 à 69 % pour une durée de vie des centrales de 40 ans. Pour une durée de vie de 30 ans, la situation du parc électri-que devait se modifier plus rapidement et de façon plus forte. En 2020, 85 % du parc nucléaire existant devait être déclassé et remplacé, selon les scénarios, par de nouveaux équipements nucléaires ou par des cycles combinés à gaz. Si, dans S2, le nucléaire devait continuer à se tailler la part du lion, dans S1 la totalité des besoins de base et semi-base devaient être couverts par des cycles combinés à gaz. Enfin, dans S3, les nouveaux moyens de base devaient encore faire appel au nucléaire11, mais la capacité nécessaire devait être inférieure de 50 % à celle de S2. Au total, en 2020, la contribution du nucléaire au bilan électrique devait s̓ élever à 68 % dans S2, à 60 % dans S3, mais seulement à 13 % dans S1.

De la croissance… pour les émissions de CO2

Du point de vue de lʼémission de gaz à effet de serre, les trois scénarios étudiés définissaient des contextes très contrastés, même si les différences

11. On notera donc que S3, le scénario « environnement », nʼétait pas du tout un scénario de sortie ou de gel du nucléaire.

Page 213: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR216

les plus importantes ne devaient pas se manifester à lʼhorizon 2010, celui du protocole de Kyoto, mais à lʼhorizon 2020. Dans S1, les émissions de CO2 devaient sʼaccroître dans une proportion comprise entre 54 et 73 % de 1990 à 2020 selon les variantes, loin de toute idée de stabilisation au niveau de 1990. Dans S2, elles devaient moins augmenter mais ne se stabilisaient pas : lʼaccroissement des émissions totales dʼorigine énergétique étaient dʼenviron 26 % dans les deux variantes. Seul le scénario S3 parvenait à se rapprocher, sans lʼatteindre, dʼune stabilisation des émissions de CO2 dʼorigine énergétique au niveau de 1990. Un chiffre retenait particulièrement lʼattention : selon que les centrales nucléaires en déclassement étaient remplacées par des turbines à gaz ou par dʼautres centrales nucléaires, les émissions de CO2 sʼaccroissaient de 30 MtC, soit environ 30 % des émissions liées à lʼénergie de 1990, année de référence de la convention Climat et du protocole de Kyoto !

Quel que soit le scénario, les transports devaient représenter, selon les scénarios et les variantes, autour de 46 % des émissions totales, directes et indirectes, de CO2 dʼorigine énergétique du pays en 2020 pour la variante V40, et entre 38 et 47 % pour la variante V30.

Le diagnostic était ainsi posé : du point de vue dʼune politique de lʼeffet de serre, les responsables politiques et économiques français avaient trois défis principaux à relever. Le premier concernait le renouvellement du parc électri-que, entre nucléaire et gaz. Le deuxième était la maîtrise des consommations du secteur habitat-tertiaire, avec en particulier lʼenjeu de la réhabilitation thermique du parc immobilier ancien. Le troisième était lʼinfléchissement nécessaire de la croissance des transports recourant aux carburants fossiles et celui du déploiement territorial des activités. La maîtrise des émissions de CO2 pour la période 2000-2020 nʼallait pas pouvoir être acquise au « fil de lʼeau » sans dispositifs nouveaux ni changements dans la nature et lʼintensité des politiques menées jusquʼalors.

L̓ affaire était jugée dʼautant moins simple que les transformations sociopo-litiques favorables à une maîtrise des consommations énergétiques (S3) étaient aussi celles qui devaient rendre politiquement moins aisé le remplacement des centrales nucléaires existantes par de nouvelles centrales nucléaires. Les combi-naisons crédibles entre hypothèses techniques et hypothèses sociopolitiques ne conduisaient donc pas à dégager une perspective forte dans laquelle la France pourrait réduire de façon importante ses émissions de CO2 à lʼhorizon 2020.

L’accueil réservé aux scénarios par les experts et les gestionnaires

Sur le fond, que la France, sous lʼemprise dʼun vent libéral, puisse préférer se détourner du nucléaire pour le gaz était une perspective nouvelle venant dʼun rapport officiel préparé au sein de la sphère publique ! Elle a suscité quelques levées de boucliers dans lʼadministration et chez les partisans du nucléaire.

Page 214: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

217POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

Concernant lʼapproche retenue pour élaborer les scénarios, je retiendrai trois réactions suscitées par leur diffusion. La première met en jeu des prati-ciens des modèles, la deuxième une administration ministérielle, la troisième une ministre du gouvernement de lʼépoque.

Lors dʼune présentation des scénarios dʼÉnergie 2010-2020 devant un groupe dʼexperts émanant du Conseil dʼanalyse économique12, cʼest le scep-ticisme qui fut exprimé par plusieurs collègues goûtant peu la novation méthodologique apportée. Cela ne correspondait pas, à leurs yeux, à lʼétat de lʼart et conduisait à des résultats manquant de lisibilité. Il aurait fallu sʼen tenir à la solution robuste consistant à construire une projection centrale déterminée par les hypothèses de croissance et de prix, puis à étudier à la marge différentes variantes permettant dʼétudier certains points de façon plus précise ! L̓ approche retenue, poursuivaient-ils, avait obligé les experts de lʼatelier à introduire de nombreuses hypothèses ad hoc ou discutables sur les changements sociaux dʼensemble au lieu de se caler sur une connaissance scientifiquement éprouvée des données énergétiques et des relations quʼelles entretiennent avec les grands déterminants économiques. Elle ne permettait pas non plus dʼévaluer clairement des politiques alternatives – qui auraient dû être testées sous forme de variantes –, puisque les principales différences prises en compte portaient sur des variables de société et non sur des variables dʼaction sous contrôle des autorités publiques. Cʼétait donc lʼutilité de la démarche adoptée qui était également contestée. Il en résultait, au total, quʼouvrir les représentations de lʼavenir énergétique en considérant les transformations économiques et sociales possibles nʼétait méthodologiquement pas bienvenu. Cela portait atteinte à la fois au caractère scientifique de lʼexercice et à son utilisation pratique par des décideurs gouvernementaux.

Cette ligne de critique fut implicitement confirmée par la manière dont les administrations en charge du dossier de lʼeffet de serre se sont saisies des résultats. Constatant que seul le scénario S3 permettait approximativement à la France de stabiliser ses émissions de CO2 dʼorigine énergétique sur son territoire, ces administrations ont « décidé » dʼadopter ce scénario comme référence pour concevoir le premier Plan-climat du pays.

Sʼil pouvait se comprendre dʼun point de vue quantitatif, un tel choix contrevenait frontalement à la conception qui avait présidé à la construction des trois scénarios de lʼexercice Énergie 2010-2020. Ces derniers ne formaient pas un menu offert aux responsables gouvernementaux : les évolutions globales possibles de la société à partir desquelles les scénarios étaient construits ne dépendaient que de façon partielle des choix de politiques des gouvernements et bien davantage des comportements et attitudes dʼun grand nombre dʼacteurs sociaux. Il aurait fallu que les pouvoirs publics recherchent des politiques

12. Placé auprès du Premier ministre, ce conseil a été créé par Lionel Jospin en 1997.

Page 215: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR218

énergétiques suffisamment robustes pour sauvegarder lʼessentiel de leur validité quelles que soient les évolutions effectives de la société. L̓ approche pluraliste de lʼavenir de la société que les scénarios exprimaient supposait que le pouvoir de construire lʼavenir était distribué dans la société, sans être le monopole du gouvernement. Cʼest pourtant à la représentation dʼun gouvernement maître de la société comme dʼun engin à laquelle les acteurs de lʼadministration ont alors manifesté leur attachement. Une modélisation déterministe présentant un avenir tendanciel unique, mais construit autour de variables de pilotage gouvernemental sʼajustait bien mieux à leur représenta-tion politique dualiste du couple « engin-pilote » !

De façon paradoxale, le fait de travailler avec des représentations multi-ples de lʼavenir nʼa fait ainsi lʼaffaire ni des décideurs ni des praticiens de la modélisation. Il y a là matière à sʼinterroger sur le rapport quʼentretient lʼart de gouverner avec la liberté collective.

Le politique, ou comment faire dire à une expertise ce qu’elle ne dit pas

Durant lʼautomne 1998, la décision de principe du gouvernement allemand de sortir son pays du nucléaire a relancé le débat en France. Mme Voynet, chef de file des Verts et ministre de lʼAménagement du territoire et de lʼEnvironnement, a alors estimé que la France avait, elle aussi, à envisager la perspective dʼun retrait du nucléaire pour la production électrique. Dans une interview au jour-nal Libération du 23 octobre 1998, la ministre affirmait : « Un rapport récent du Commissariat général du plan montre quʼil existe des voies permettant de concilier la diversification énergétique, la sortie du nucléaire et le respect de nos engagements en matière de lutte contre lʼeffet de serre. »

Par « respect des engagements en matière de lutte contre lʼeffet de serre », elle signifiait la stabilisation des émissions provenant du territoire français, en écartant le recours aux possibilités dʼéchange international des quotas prévues par le protocole de Kyoto. Elle sʼétait élevée à plusieurs reprises contre ces mécanismes dʼéchange. Dʼailleurs, en vue de la Conférence des Parties à la convention Climat qui devait se tenir à Buenos Aires deux semaines plus tard, la France avait rejoint lʼAllemagne et lʼAutriche pour réaffirmer la nécessité dʼimposer des plafonds stricts sur ce type dʼéchanges, de façon à contraindre chaque État à réaliser sur son territoire lʼessentiel des réductions dʼémission que lui imposaient les quotas acceptés à Kyoto13.

13. La proposition soumise pendant lʼété 1998 par la présidence autrichienne du Conseil des ministres européen aboutissait à un potentiel maximal dʼéchanges pour chaque pays dʼenviron 2,5 % de ses émissions de 1990. En novembre 2000, à la conférence de La Haye, les Européens se sont encore présentés en exigeant la fixation de plafonds stricts sur les échanges, ne renonçant à cette exigence quʼaux tout derniers moments de la négociation.

Page 216: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

219POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

Cette intervention publique mobilisant la légitimité de lʼexpertise du Commissariat général du Plan à lʼappui dʼune thèse et dʼun programme politique illustre lʼambiguïté des rapports entre lʼexpertise et le décideur politique14. Dʼune façon générale les décideurs recherchent le concours des experts soit pour éclairer ex ante, soit pour légitimer ex post leurs prises de position ou leurs décisions. Il leur arrive parfois de ne pas souhaiter que les experts présentent de façon trop nette les contraintes imposées par la réalité et rendent visibles les contradictions de leur propre discours.

La ministre avait formellement raison grâce à une pirouette : les engage-ments de Kyoto arrivaient à échéance en 2012 et personne ne proposait que la France soit sortie du nucléaire à cet horizon. Sur le fond, sa déclaration sʼopposait frontalement aux conclusions des travaux du groupe Énergie 2010-2020. Si, conformément aux exigences dʼune démocratisation des choix technologiques majeurs, la France entendait préserver la possibilité de choisir, le moment venu – vers 2020 –, un mode différent de production électrique, symbolisé par la fameuse « sortie du nucléaire », elle ne pouvait pas éviter de choisir entre les deux options suivantes15 :

— œuvrer pour que les « instruments de flexibilité » prévus à Kyoto (lʼéchange international de quotas) continuent de prévaloir de façon ample comme composante centrale de lʼaction internationale dans la période post-Kyoto, et donc renoncer aux idées de restriction forte des échanges interna-tionaux de quotas ;

— se retirer de la convention Climat ou, plus subtilement, contribuer activement à faire échouer les négociations sur le régime qui doit prendre le relais du protocole de Kyoto après 2012.

L̓ exercice Énergie 2010-2020 était porteur dʼun message clair : dans un régime de type Kyoto, la récupération dʼune liberté de choix des Français sur les filières de production dʼélectricité avait pour condition absolue la possibilité juridique dʼacquérir des quotas de CO2 sur le marché internatio-nal pour des montants pouvant atteindre plusieurs dizaines de pour-cent des émissions de 1990. Il était étrange dʼobserver que, du fait de son hostilité idéologique au marché, la ministre chef de file des Verts soutenait une position internationale qui, lʼemportant, aurait condamné la France à ne pas pouvoir sortir du nucléaire au moment où elle en aurait eu la possibilité technique.

14. Dʼoù lʼimportance des enjeux attachés, dʼun côté, à la définition conjointe par les décideurs et par les experts dʼun cadrage précis des questions posées aux experts et, de lʼautre côté, à la publicité des travaux des experts, y compris des avis minoritaires. Sur ces points, voir Godard [2003].

15. Une troisième option aurait été de miser sur la bonne volonté des autres États en supposant quʼils accorderaient à la France le surcroît de quotas supplémentaires nécessaires (30 %) au moment de négocier les objectifs à lʼhorizon 2020, alors quʼeux-mêmes devraient consentir des réductions significatives. Peu crédible, cette dernière option aurait de toute façon placé la liberté de choix des Français sous la tutelle des autres pays.

Page 217: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR220

Il était troublant de constater quʼune expertise qui avait cherché à mettre en évidence les problèmes de choix et à révéler les tensions entre objectifs était présentée par le politique devant lʼopinion publique comme la justification dʼune position opposée.

LA REPRÉSENTATION DE LʼAVENIR LOINTAIN

Nous nous sommes intéressés jusquʼà présent à des travaux de modéli-sation portant sur un horizon dʼune vingtaine dʼannées. Franchissons cette limite, portons le regard sur le traitement du temps long intergénérationnel et soulevons quelques points dʼinterrogation.

L’utilitarisme et le sacrifice des droits

La plupart des économistes qui contribuent aux recherches sur le change-ment climatique abordent les effets à long terme du changement climatique ou ceux des politiques de prévention et dʼadaptation en utilisant les catégories de coût et de bénéfice et en recourant à des fonctions agrégées dʼutilité collective. Ils supposent ainsi que le but poursuivi est de maximiser le niveau de cette utilité à travers le temps. Ils appliquent ces catégories à des entités politico-territoriales qui sont soit des pays, soit des entités régionales présentant une certaine unité politique, comme lʼUnion européenne, lʼAmérique du Nord, la Chine, lʼInde.

Ce faisant, une continuité est formellement établie entre la manière de représenter les effets sur le bien-être des générations présentes et celle qui concerne des hommes qui vivront peut-être à différents horizons temporels, mais qui nʼexistent pas présentement (générations futures). Cette façon de faire est facilitée par le cadre normatif de lʼutilitarisme qui identifie une substance, lʼutilité ou le bien-être, en la détachant des hommes qui en sont en quelque sorte les dépositaires.

On a reproché à bon droit à lʼutilitarisme dʼêtre une éthique du sacrifice [Rawls, 1987 ; Dupuy, 1992] en étant indifférent aux droits en tant que tels : le bien-être de tous vaut bien le sacrifice de quelques-uns. Une forme atténuée de cette idée sous-tend le critère standard de lʼanalyse coûts-avantages [Pearce et alii, 2006] quʼest le critère de compensation potentielle de Hicks-Kaldor : une décision est bonne si les avantages lʼemportent sur les coûts, car il serait possible aux bénéficiaires des avantages de verser des compensations à ceux qui supportent surtout les coûts, tout en restant bénéficiaires. Ce critère nʼoblige pas au sacrifice, mais il nʼélève aucune barrière conceptuelle et méthodologi-que à son règne. Toute approche reconnaissant la primauté du juste sur le bien [Forsé et Parodi, 2004] ne saurait se satisfaire de tels exercices économiques

Page 218: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

221POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

sur le bilan intertemporel des coûts et des avantages comme manière de définir lʼaction qui convient.

Cependant, tant lʼutilitarisme que les critiques qui lui sont adressées au nom de lʼéquité et dʼune théorie des droits rencontrent des problèmes redou-tables lorsquʼil sʼagit dʼaborder les relations avec les générations futures éloignées. Jʼen retiendrai trois : celui du postulat de permanence, à travers le temps historique, des entités politiques pertinentes (les États…) ; celui de la non-existence des générations futures ; celui de leur non-identité.

Entretenir la croyance dans la permanence des identités collectives

Tout travail de prospective à long terme propose un cadrage sur lʼorga-nisation du monde dans un avenir lointain. La façon de le faire ne saurait être innocente. Constatons que la projection à long terme des découpages politiques actuels en États-nations (la France, lʼAllemagne, les États-Unis, etc.) est une pratique courante. Elle est contestable et arbitraire en ce quʼelle postule une permanence à travers le temps, soit de formes politiques historiques – les États-nations – soit dʼun découpage territorial particulier. Un regard sur le XXe siècle passé a certes montré des stabilités politiques, mais également des bouleversements significatifs, par exemple lʼeffondrement des empires coloniaux, lʼéclatement de lʼURSS et la réunification de lʼAllemagne, sans parler de la formation de lʼUnion européenne.

Passé la durée du demi-siècle, le postulat de stabilité politique prend une signification latente : celle de donner aux identités politiques actuelles un semblant dʼéternité. Le message subliminal est donc de donner à croire quʼen dépit des dangers, menaces et transformations de toutes sortes, rien ne changera fondamentalement dans le cadre actuel dʼorganisation politique des sociétés : les Français peuvent compter sur une France éternelle…

Lorsquʼelle prend cette forme, la prospective à long terme sert-elle la réflexion ? En confortant lʼidée de permanence des États, ne réaffirme-t-elle pas lʼintangibilité et la primauté du principe de leur souveraineté ? Or on est fondé à voir dans ce principe lʼobstacle principal au développement de lʼaction collective de lʼhumanité et à lʼémergence de nouvelles formes de régulation planétaire. De même que la prescription efface du système juridique actif la plupart des crimes et délits commis entre contemporains, il y aurait lieu, par pédagogie éthique et pour éduquer lʼimagination, dʼeffacer progressivement de la représentation des enjeux à long terme tout ce qui perpétue lʼorganisation politique actuelle du monde, avec les identifications et les oppositions identi-taires entre « eux » et « nous » qui vont avec. Pour ces échéances lointaines, la priorité serait dʼapprendre aux générations présentes à sʼidentifier aux intérêts de lʼhumanité en général.

Page 219: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR222

Cette proposition semble aller paradoxalement dans le sens de lʼabstraction utilitariste, indifférente aux identités particulières et aux droits des personnes. Il nʼy a là rien de mécanique puisque, sur ce chemin de la décentration vis-à-vis des identités politiques particulières, on trouve aussi le Hans Jonas du Principe responsabilité [1990] qui fait de lʼidée dʼhumanité le centre de sa réflexion éthique.

Le problème de la non-existence des générations éloignées

Les générations éloignées nʼexistent pas, cʼest une lapalissade. Pourtant ce constat soulève des difficultés considérables pour tout raisonnement accor-dant à lʼidée de droits un statut éthique premier, supérieur à celui reconnu à la recherche du bien-être. Comment les générations futures pourraient-elles, en tant que telles, avoir des droits ? La justice a pour objet lʼinstitution de droits dévolus à des personnes et pour aboutissement pratique des procédures impartiales dʼarbitrage entre des revendications conflictuelles formulées par les titulaires de tels droits. Or plusieurs auteurs ont fait remarquer que, nʼayant pas encore dʼexistence, les générations futures éloignées ne sauraient avoir de droits [Beckerman et Pasek, 2001] : lʼexistence est une précondition de la faculté dʼune personne de se voir reconnaître des droits. Il suffit de remplacer le terme « droits » par « obligations » pour sʼen convaincre. Dira-t-on sans sourciller que les générations futures ont, en tant que telles, des obligations envers les générations actuelles ?

Certes, le système juridique sait distinguer entre lʼattribution de la person-nalité juridique et la reconnaissance du statut de sujet de droit. Par exemple, les enfants à naître ou les mineurs ont la personnalité juridique, mais ne sont pas en état de faire valoir leurs droits par eux-mêmes. Sʼagissant des générations futures, lʼincapacité de faire valoir ses droits par soi-même nʼest donc pas un obstacle insurmontable. La difficulté est autre : lʼattribut dʼun être présuppose logiquement lʼexistence de cet être. Faute dʼexister… Les personnes qui viendront au monde à une date future disposeront alors de droits, mais ces droits ne pourront jamais sʼexercer que vis-à-vis de leurs contemporains, ceux avec lesquels elles auront à nouer des coopérations et à surmonter des désaccords.

Cʼest ainsi la pertinence des supputations sur le droit au bien-être des générations éloignées qui est ici mise en cause par cette ligne dʼargumentation. L̓ utilitarisme nʼa pas cette difficulté à affronter [Birnbacher, 1994].

Le problème de la non-identité

Abordons à présent le problème de la non-identité soulevé initialement par Thomas Schwartz [1978] et Derek Parfit [1984]. Il se présente lorsque

Page 220: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

223POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

lʼidée de justice est construite à partir des plaintes ou reproches que pourraient formuler, si elles en avaient la possibilité, les personnes futures à lʼencontre des générations présentes. La question posée est la suivante : comment des personnes vivant dans un avenir lointain pourraient-elles être en position de reprocher quoi que ce soit aux générations antérieures quant à lʼétat du monde reçu en héritage ? Admettons que cela soit possible et que ce reproche putatif soit anticipé par les générations antérieures. Admettons que, soucieuses de justice, ces dernières changent leurs comportements en conséquence. Cʼest alors toute lʼhorlogerie des relations de procréation qui se trouverait éga-lement modifiée. Les personnes hypothétiques futures qui auraient adressé des reproches à leurs ancêtres ne seraient jamais venues à lʼexistence et les reproches nʼauraient pas pu être formulés. Dʼautres personnes seraient nées à la suite dʼautres choix des générations antérieures. La théorie du reproche est frappée dʼincohérence logique. Un double lien doit être élucidé : le lien entre dommage et droit, et entre dommage et identité.

Remarquons que la notion de dommage est elle-même dépendante de celle de droits, comme lʼavait montré Ronald Coase [1960] : tant que les droits respectifs nʼont pas été définis par une institution, il est impossible de qualifier une situation en termes de dommages occasionnés par lʼun et subis par lʼautre, sauf à recourir à lʼidée hasardeuse dʼun droit naturel hors de lʼhistoire et de lʼinstitution. Or lʼusage, pour les générations futures, de lʼidée de droits est problématique, cela a été montré plus haut. On ne saurait, par exemple, faire état du droit à la vie des générations futures.

Ensuite, comme Axel Gosseries [2004] lʼa démontré à propos de lʼaffaire Perruche en France, lʼidée de dommages subis par une personne devient impropre lorsque lʼattribut quʼon serait tenté de qualifier ainsi est insépa-rable de lʼidentité des personnes concernées. Les personnes souffrant dʼun handicap congénital ne peuvent pas faire reproche à leurs parents de leur avoir occasionné un dommage. En effet, si les parents avaient pris certaines dispositions pour éviter la naissance dʼun enfant handicapé, les personnes nées sans ce handicap auraient été des personnes différentes de celles qui sont handicapées. L̓ expression « mettre au monde » signifie bien cette solidarité la plus intime entre les humains et le monde qui leur est donné et qui résulte de toute une histoire à la fois naturelle et humaine. Quel que soit lʼétat du monde transmis, lʼidentité des personnes futures qui habiteront ce monde-là nʼen est pas détachable.

En conséquence, si lʼon assoit lʼidée de justice sur celle de légitime repro-che, il nʼest pas valide de spéculer sur les bénéfices et les dommages que pour-raient retirer les générations futures de telle ou telle évolution qui résulterait des décisions de leurs ancêtres. En effet, pour entrer dans la comptabilité des dommages et des avantages attribuables aux actions des générations antérieu-res, lʼanalyse devrait se rapporter à des personnes futures à lʼidentité définie

Page 221: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR224

et invariante dans le cadre de comparaison retenu. Seule la situation de ces personnes devrait pouvoir être affectée, dans des proportions variables, par les actions incriminées16. En réalité, choisir un profil intertemporel différent de coûts et dʼavantages, cʼest également choisir de faire advenir au monde dʼautres personnes. La comparaison ne tient plus.

Récapitulons. Des personnes sans existence ne sauraient subir de domma-ges puisque la notion de droits ne leur est pas applicable. Une fois venues à lʼexistence, la condition dans laquelle certaines personnes se trouvent placées peut certes être caractérisée en termes de handicap par rapport à la condition moyenne de leurs contemporains, mais pas de dommages imputables aux générations antérieures, puisquʼil nʼexiste aucun sens dans lequel les généra-tions postérieures vivantes auraient des droits sur les générations antérieures qui ne seraient déjà plus de leur monde.

Nous voilà avec deux voies bouchées : celle qui envisage les bénéfices et les dommages affectant les générations éloignées ; celle qui envisage de reconnaître des droits à ces générations futures. Trois voies de solution à explorer demeurent néanmoins. La première consisterait à élaborer un concept de justice coupé de toute idée de reproche formulé par des personnes victimes dʼune injustice, ce qui est à première vue assez problématique. La deuxième est celle de la recherche dʼune dépersonnalisation des termes du jugement. L̓ utilitarisme nʼest pas la seule pensée à le faire. La réflexion proposée par Hans Jonas, préoccupée par la survie de lʼhumanité et par celle de lʼhumain dans lʼhumanité, en est une autre, qui récuse les calculs de coûts et dʼavantages mâtinés de probabilités. Le mal suprême étant, aux yeux de Jonas, la fin de lʼhumanité, lʼimpératif kantien est reformulé par lui en ces termes : « Agis de façon que les effets de ton action ne soient pas destructeurs pour la possibilité future dʼune telle vie » [Jonas, 1990, p. 30-31]. Sans adhérer aux maximes dʼaction que Jonas en tire, frappées de contradiction interne [Godard et alii, 2002], retenons lʼidée dʼexplorer une modélisation prospective dégagée des calculs de bénéfices et de dommages, mais considérant les dangers et risques dʼatteinte fondamentale à lʼhumanité.

Une troisième piste ouverte à lʼexploration future sʼappuie sur les diffé-rentes formes de promesses que les générations présentes veulent faire aux générations futures. Il nʼest plus question ici de droits des générations futures, mais de désir des vivants de transmettre à ceux qui les suivront tout ou partie de la richesse patrimoniale dont ils ont hérité et usé, augmentée de ce quʼils jugent être leur contribution à lʼexpérience humaine, celle en laquelle ils souhaitent être reconnus.

16. Dans les modèles, cela se traduit par le fait que la fonction dʼutilité collective prise en compte reste la même dans les différents cas de figure examinés.

Page 222: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

225POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

Du point de vue de la modélisation, cette troisième approche sʼexprime-rait à travers une approche séquentielle des choix intertemporels [Hourcade, 1997]. Lʼétude des choix possibles combinerait alors deux éléments. Dʼun côté, lʼhorizon du calcul et de lʼoptimisation se limiterait au monde qui est bien connu et appréhendé empiriquement par ceux qui sont en position de faire des choix pour la collectivité. De lʼautre côté, lʼexercice serait encadré par une attention soutenue portée aux conditions terminales léguées aux générations suivantes, sans vouloir préjuger de ce que seront les meilleurs choix pour ces dernières. Pour paraphraser une formule célèbre du Rapport Brundtland [Commission mondiale sur lʼenvironnement et le développement, 1988], il sʼagit pour les vivants dʼaujourdʼhui de préserver les capacités de vie humaine des générations futures et dʼétablir indirectement un lien avec elles en leur léguant les biens constituant le patrimoine de lʼhumanité, progressivement enrichi des apports des générations successives. Pour les choix touchant un avenir lointain, lʼaccent doit être mis sur une modélisation de la transmission intergénérationnelle des patrimoines.

RÉFÉRENCES BIBLIOGRAPHIQUES

ARCHER D. E. (2005), « The fate of fossil fuel CO2 in geological time », Journal of Geophysical Research, vol. 110, septembre.

BECKERMAN W. et PASEK J. (2001), Justice, Posterity and the Environment, Oxford University Press, Oxford.

BIRNBACHER D. (1994), La Responsabilité envers les générations futures, PUF, « Philosophie morale », Paris.

COASE R. H. (1960), « The problem of social cost », Journal of Law and Economics, vol. 3, octobre, p. 1-44.

COMMISSARIAT GÉNÉRAL DU PLAN (1998a), Énergie 2010-2020 – Rapport de l’atelier « Trois scénarios énergétiques pour la France », Paris, septembre.

– (1998b), Énergie 2010-2020. Les chemins d’une croissance sobre, rapport du groupe présidé par Pierre Boisson, La Documentation française, Paris.

COMMISSION MONDIALE SUR LʼENVIRONNEMENT ET LE DÉVELOPPEMENT (1988), Notre avenir à tous, Éditions du Fleuve, Montréal.

DUPUY J.-P. (1992), Le Sacrifice et l’envie. Le libéralisme aux prises avec la justice sociale, Calmann-Lévy, Paris.

– (2000), « Philosophical foundations of a new concept of equilibrium in the social sciences : projected equilibrium », Philosophical Studies, vol. 100, n° 3, p. 323-345.

– (2002), Pour un catastrophisme éclairé. Quand l’impossible est certain, Le Seuil, Paris.FORSÉ M. et PARODI M. (2004), La Priorité du juste. Éléments pour une sociologie des choix

moraux, PUF, « Sociologies », Paris.GODARD O. (1998), « Annexe 1. Les scénarios énergétiques de la France 2010-2020 », dans

COMMISSARIAT GÉNÉRAL DU PLAN, Énergie 2010-2020. Les chemins d’une croissance sobre, rapport du groupe présidé par Pierre Boisson, La Documentation française, Paris, p. 317-404.

Page 223: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR226

– (2001), « Lʼexpertise économique du changement climatique planétaire – 1. Modèles dʼorganisation de lʼexpertise. – 2. Sur la scène internationale, le GIEC. – 3. Sur la scène française, autour du Commissariat général du Plan », Annales des Mines, série « Responsabilité et environnement », n° 21, p. 23-65.

– (2003), « Comment organiser lʼexpertise scientifique sous lʼégide du principe de précaution ? », Revue de l’électricité et de l’électronique, n° 11, p. 38-47.

GODARD O., HENRY C., LAGADEC P. et MICHEL-KERJAN E. (2002), Traité des nouveaux risques. Précaution, crise, assurance, Gallimard, « Folio-Actuel », Paris.

GOSSERIES A. (2004), Penser la justice entre les générations : de l’affaire Perruche à la réforme des retraites, Aubier, « Alto », Paris.

HOURCADE J.-C. (1997), « Précaution et approche séquentielle de la décision face aux risques climatiques de lʼeffet de serre », dans GODARD O. (dir.), Le Principe de précaution dans la conduite des affaires humaines, Éditions de la MSH et INRA-Éditions, Paris, p. 259-294.

JONAS H. (1990), Le Principe responsabilité. Une éthique pour la civilisation technologique, Le Cerf, Paris.

MANNE A. et RICHELS R. (1992), « The E. C. proposal for combining carbon and energy taxes – the implications for future CO2 emissions », draft, EPRI et Stanford University, 24 février.

– (1993), « The E. C. proposal for combining carbon and energy taxes – the implications for future CO2 emissions », Energy Policy, janvier, p. 5-12.

PARFIT D. (1984), Reasons and Persons, Clarendon Press, Oxford.PEARCE D., ATKINSON G. et MOURATO S. (2006), Cost-Benefit Analysis and the Environment

– Recent Developments, publications de lʼOCDE, Paris.RAWLS J. (1987), Théorie de la justice, Le Seuil, « Empreintes », Paris.ROQUEPLO P. (1997), Entre savoir et décision, l’expertise scientifique, INRA-Éditions,

« Sciences en questions », Paris.SCHWARTZ T. (1978), « Obligations to posterity », dans SIKORA R. I. et BARRY B. (dir.),

Obligations to Future Generations, Temple University Press, Philadelphie, p. 3-13.

Page 224: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

203POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

Une combinaison nouvelle de certitude et d i̓ncertitude se dégage de la question énergétique en cette première décennie du nouveau siècle. L̓ une et l̓ autre déstabilisent les anticipations et les repères et concourent à donner à l̓ avenir un visage inquiétant. La déstabilisation est multiforme, à la fois interne et externe. Elle est d a̓bord interne en Europe, avec l̓ ouverture à la concur-rence des grandes entreprises du secteur, voire leur privatisation. Introduite au nom des effets bénéfiques de la concurrence pour les consommateurs, cette réforme a rapidement provoqué une forte hausse des prix et rend incertaine la disponibilité de capacités suffisantes d a̓pprovisionnement et de production à l̓ avenir. Par ailleurs l̓ énergie est de nouveau associée à la peur de manquer (que se passera-t-il une fois le pic pétrolier franchi ?). La déstabilisation se fait externe lorsque les périls géopolitiques débouchent sur une menace terroriste de grande ampleur ou sur le risque dʼune conflagration majeure avec le monde musulman, là où se trouve la plus grande part des réserves dʼhydrocarbures. Elle est externe, encore, lorsque l̓ avenir énergétique voit sa donne radicalement reconfigurée par les perspectives de bouleversement du climat de la planète sous l̓ effet des émissions massives et croissantes de gaz à effet de serre depuis le XIXe siècle. L̓ usage de l̓ énergie fossile est, on le sait, le grand coupable dans cette affaire.

LES PRÉVISIONS ÉCLAIRENT-ELLES ?

Une certitude est désormais acquise : les systèmes et les usages énergéti-ques qui ont soutenu le développement économique depuis plusieurs décennies devront se transformer en profondeur d i̓ci 2050. C e̓st là que la certitude cède la place à l̓ incertitude. Comment reconfigurer les systèmes énergétiques pour tenir compte simultanément de toutes les contraintes et de toutes les menaces

9

Pour une morale de la modélisation économique

des enjeux climatiques en contexte dʼexpertise

Olivier Godard

Page 225: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR204

dʼun monde profondément inégal et lancé plus que jamais dans la course à la croissance matérielle ?

Les inerties liées aux capacités de production installées, aux infrastructures et à lʼaménagement du territoire laissent peu dʼinconnues à court et moyen terme (15 ans) quant aux besoins et aux moyens de les satisfaire. De plus, sʼil est un domaine qui a été lʼobjet constant de lʼattention des prévisionnistes et prospectivistes, cʼest bien celui de lʼénergie. Notre avenir nʼest-il pas éclairé de mille lumières grâce aux efforts de lʼAgence internationale de lʼénergie, de la Commission européenne, de la Conférence mondiale de lʼénergie, des centres universitaires, des commissions gouvernementales et des bureaux dʼétude spécialisés ?

Toutefois, éclairés, le sommes-nous totalement et sans trompe-lʼœil par ces exercices ? Au-delà des intentions diverses des modélisateurs, la modélisation est-elle si innocente lorsque, sʼappuyant sur la formalisation la plus sophisti-quée, elle livre ses chiffres sur la scène publique ? Cʼest en effet à lʼusage public de la modélisation dans un contexte de délibération sur lʼaction à conduire que ce texte est consacré, en prenant appui sur le traitement des enjeux du climat. On se réfère parfois, dans le monde de la critique de cinéma ou de la photographie, à lʼidée dʼune morale du regard. Je propose ici de réfléchir à ce quʼon pourrait appeler une morale du cadrage de la modélisation économique des enjeux climatiques en situation dʼexpertise, en considérant successivement le moyen terme (10 à 20 ans) et la longue durée.

Le propos sera introduit par quelques questions sur la pratique de la modé-lisation, en ayant particulièrement en vue l̓ évolution récente vers des modèles intégrés climat-économie. Puis le questionnement abordera le moyen terme en décortiquant deux exemples dʼusage de la modélisation économique dans le domaine énergie-climat. Le premier, international, remonte à 1992 et touche à l̓ accueil fait aux États-Unis aux propositions de la Commission européenne d a̓lors en matière de politique de l e̓ffet de serre. Le second, français, est plus récent. Il concerne les travaux du groupe Énergie 2010-2020 animé par le Commissariat général du Plan en 1996-1998 à la demande du ministre de l̓ Industrie.

Sur ce fond dʼexpériences, la réflexion sʼélargira à la manière dont il est tenu compte des générations futures éloignées dans la modélisation à long terme. L̓ un des traits notables des modèles traitant du changement climati-que est en effet leur longue portée temporelle. Présenter des trajectoires et des bilans sur un siècle ou deux – voire bien au-delà1 – nʼeffrayant pas les climatologues, certains économistes se sont enhardis à faire de même. Par

1. Par exemple, le géophysicien David Archer [2005] modélise le devenir du CO2 dʼorigine fossile sur plusieurs dizaines de milliers dʼannées et conclut que la durée de vie moyenne du CO2 dans lʼatmosphère est dʼenviron 30 000 ans, du fait que 15 à 20 % des émissions anthropiques doivent être considérées comme demeurant dans lʼatmosphère « pour lʼéternité ». L̓ auteur le souligne lui-même,

Page 226: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

205POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

exemple certains font valoir les bénéfices nets que des pays comme la Chine ou la Russie retireraient durablement, à partir de 2100 jusquʼen 2200, du changement climatique annoncé…

DES QUESTIONS SUR LA MODÉLISATION

Susciter des réflexes ou éveiller la réflexion ?

Le recours à la modélisation en contexte dʼexpertise soulève nombre de questions. Que penser, par exemple, de lʼeffet de réalité imposé par la forme dans laquelle les résultats sont présentés ? La confusion du modèle et de la réalité, du présent effectif et de lʼavenir possible, menace là où on recourt aux mêmes indicateurs, aux mêmes supports de communication des résultats pour rendre compte de situations ou de phénomènes réels ou bien de possibles imaginés. Ne peut-on pas discerner ici ou là des pratiques visant à façonner les représentations et les anticipations, voire à susciter adhésions ou répulsions en jouant sur des réflexes politiques et culturels plus que sur la réflexion ?

Dans les affaires humaines où la parole émise fait partie de la réalité quʼelle prend pour objet, lʼexpertise prend un statut particulier : lʼénoncé de lʼexpert, quʼil soit conçu dans ce but ou que cela se fasse à son corps défendant, interagit avec la réalité dont il trace le tableau, et contribue à faire quʼelle advienne ou quʼelle nʼadvienne pas, selon les cas. Comme lʼobserve Jean-Pierre Dupuy [2002, chap. 10 et 11] à propos des prophéties de catastro-phes, lʼexpertise économique et la prévision sociale font surgir un problème particulier dʼéquilibre entre avenir projeté, anticipations, comportements et réalisation de lʼavenir.

La modélisation intégrée, ennemie du pluralisme ?

La gageure, lʼaccomplissement ultime ou la visée tendancielle, comme on voudra, que porte lʼidée de modèle intégré à la fois climatique et économique est de parvenir à un point fixe – Dupuy [2000] parle dʼéquilibre projeté. Les anticipations et les comportements des acteurs humains suscités par les ima-ges de lʼavenir économique et climatique que les modèles créent doivent être intégrés par ces modèles pour faire advenir un des avenirs possibles quʼils décrivent. Après de multiples itérations, la pluralité des avenirs possibles ne se réduit-elle pas immanquablement comme peau de chagrin pour laisser la place à un avenir prévu unique et inéluctable ? Cela signifierait que la prospective

ces résultats sʼécartent de la vulgate scientifique qui a diffusé lʼidée dʼun pas de temps dʼenviron une centaine dʼannées.

Page 227: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR206

assistée par modélisation intégrée ne pourrait éviter in fine de verser dans le registre de la prophétie autoréalisatrice, ce qui manifesterait son incompatibi-lité avec un principe de pluralité assumée des représentations de lʼavenir.

Cʼest ainsi que prévisions et scénarios donnent à voir des doublements ou triplements inéluctables des consommations énergétiques et enserrent les parts respectives futures des énergies dans des marges assez étroites. Sʼagirait-il donc pour nos contemporains de lire les prévisions énergétiques comme le grand-livre déjà écrit de lʼavenir de lʼhumanité, de se faire spectateurs de lʼavenir sans jamais pouvoir basculer collectivement de lʼautre côté, celui des auteurs du livre ? Plus sʼaffirment les démarches de prévision de lʼavenir collectif, plus les acteurs sont implicitement cantonnés à des comportements dʼadaptation aux contraintes perçues. Or lʼavenir dépend des choix des hom-mes dʼaujourdʼhui. Sous quelle forme le modéliser de façon à mettre en valeur leur liberté et leur pouvoir dʼinitiative ?

Comment éviter les catastrophes prévues ?

Sʼagissant de la crainte commune dʼun avenir catastrophique, lʼidée dʼéqui-libre projeté résultant dʼune modélisation totalement intégrée soulève une difficulté majeure. Pour ne pas être catastrophique, lʼavenir réalisé sous lʼeffet de lʼaction humaine devrait paradoxalement se maintenir à lʼécart de lʼavenir que les hommes auraient anticipé. Le livre de Dupuy sur le Catastrophisme éclairé se conclut en effet sur cette maxime étrange, dérivée de celle de Hans Jonas [1990] : « Obtenir une image de lʼavenir suffisamment catastrophiste pour être repoussante et suffisamment crédible pour déclencher les actions qui empêcheraient sa réalisation, à un accident près2. »

Or, face au problème du changement climatique, le risque existe sérieu-sement de voir opinions et gouvernants passer dʼun seul coup du scepti-cisme quant à une menace jugée théorique et lointaine au sentiment que nous sommes déjà inéluctablement engagés dans une aventure à lʼissue peut-être catastrophique, tel un destin. Dans les deux cas, bien que pour des raisons opposées, il nʼy a pas de place pour une action collective capable de mordre sur le problème, au-delà des gesticulations dʼusage.

Les risques de manipulation de l’expertise par les décideurs

On pourrait lire les interrogations précédentes comme une suspicion envers une catégorie dʼexperts – ces économistes qui proposent les résultats de leurs modèles pour aider les décideurs à choisir les politiques à conduire à long terme. Avouons-le, la suspicion doit aussi sʼexercer envers le bord des

2. Dupuy [2002, p. 214 – souligné par O. G].

Page 228: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

207POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

décideurs. Ne voit-on pas assez couramment responsables politiques et éco-nomiques mobiliser telle ou telle expertise à lʼappui de leurs projets ou de leurs thèses sans être trop regardants sur les conditions dans lesquelles ladite expertise est rendue, sur ce quʼelle dit vraiment ou sur les conditions, vite oubliées quand cela arrange, de validité des conclusions ? Nʼarrive-t-il pas que des experts soient enjoints de parvenir à certains résultats définis dʼavance, ou soient plongés dans la sidération à la découverte de ce que les décideurs leur font dire ou tirent de leurs travaux ?

La relation entre modélisation et décision, entre expertise et action, doit certainement être revisitée des deux côtés si lʼon veut éviter les conclusions par trop naïves [Godard, 2001].

1992 : LES IMPACTS DʼUNE TAXE CARBONE AUX ÉTATS-UNIS ET EN EUROPE

Les faits

En 1991, la Commission européenne avait proposé que les États-Unis et le Japon rejoignent lʼUnion dans lʼinstauration, sur leurs territoires respec-tifs, dʼune taxe sur les émissions de CO2 du secteur industriel. Dʼun niveau initial équivalant à 3 dollars le baril, la taxe était conçue pour augmenter dʼun dollar par an jusquʼen 2000, ce qui aurait alors représenté un doublement du prix du pétrole de lʼépoque. En juin 1992 devait se tenir à Rio de Janeiro le Sommet de la Terre, à lʼoccasion duquel devait être solennellement adoptée la Convention-cadre des Nations unies sur les changements climatiques, en négociation depuis deux ans.

Deux économistes réputés, Alan Manne (Stanford University) et Richard Richels (Electric Power Research Institute), spécialistes de la modélisation économique des politiques de lʼénergie, avaient utilisé leur modèle Global 2100 pour évaluer les conséquences de lʼapplication aux États-Unis de cette pro-position européenne. Leurs travaux antérieurs avaient contribué à convaincre dès 1990 lʼentourage du président Bush que lʼintérêt des États-Unis était de ne pas sʼengager dans une politique active de réduction des émissions de gaz à effet de serre. Ces deux auteurs ont rendu publics en février 1992 les résultats provisoires de leur étude sous la forme dʼun draft diffusé hors des cercles scientifiques et notamment auprès de la presse de référence. Le docu-ment comprenait en particulier un graphique comparant le coût économique de cette taxe en pourcentage du PIB (produit intérieur brut) pour lʼEurope et pour les États-Unis (voir la figure 1, p. 209). Le contenu énergétique de la croissance américaine étant à peu près le double de celui de lʼEurope, il en ressortait que les Américains auraient à supporter un coût beaucoup plus élevé que les Européens sʼils appliquaient le schéma de taxation proposé. Dès lʼan

Page 229: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR208

2000, le coût de cette taxe pour les Américains aurait été de lʼordre de 0,4 % de leur PIB, tandis que lʼEurope nʼaurait eu à supporter quʼun coût de 0,2 %. Les auteurs évoquaient, dans leurs commentaires, les effets possibles dʼun tel déséquilibre des coûts sur la compétitivité relative des deux régions. Ces commentaires ont été repris par certains journaux américains, dont le New York Times. Moquant la Commission européenne, cette presse souligna combien peu vraisemblable et peu souhaitable aurait été le ralliement des États-Unis, où lʼon nʼaime guère les taxes, à une mesure qui aurait si nettement avantagé lʼEurope et si nettement pénalisé les États-Unis dans la compétition interna-tionale ! On ne peut naturellement pas imputer les choix politiques américains à une seule étude ni à quelques articles de presse. Néanmoins la diffusion de ces résultats dans une période clé des négociations a renforcé le camp de ceux qui étaient hostiles à la fois à toute taxe sur le carbone et à toute action significative de limitation des émissions de gaz à effet de serre. Finalement, ni les États-Unis ni le Japon nʼont voulu de cette proposition de taxe et la Commission, qui lʼavait avancée de manière conditionnelle, y a finalement renoncé avant le Sommet de Rio.

Lʼhistoire de ce travail dʼexpertise ne sʼest pas arrêtée là. Lʼarticle en question a été soumis à la revue Energy Policy, revue académique de réfé-rence pour les spécialistes du domaine, et publié en janvier 1993 [Manne et Richels, 1993], six mois après le Sommet de Rio. Il sʼagissait du même article présentant les mêmes résultats, à une exception notable près, celle de la figure comparant le coût respectif de la taxe en Europe et aux États-Unis (voir la figure 2 ci-contre). La situation était désormais complètement inversée ! Les États-Unis apparaissaient comme les grands gagnants – relatifs – de lʼintro-duction coordonnée dʼune taxe sur le CO2. Pour lʼEurope, lʼordre de grandeur du coût était considérablement modifié, puisque ce dernier était multiplié par quatre : à lʼhorizon 2010, ce coût passait, entre les deux versions de lʼarticle, de 0,3 à 1,2 point de PIB. Les auteurs ne mentionnaient pas quʼils avaient modifié leurs résultats initiaux sur ce point, mais en donnaient indirectement lʼexplication.

Une comparaison des pertes de PIB dues à la taxe carbone

La différence entre le draft et lʼarticle publié tenait aux hypothèses utilisées concernant le traitement de la fiscalité de lʼénergie dans la situation de base. Dans la première simulation rendue publique en 1992, ils nʼavaient pris en compte aucune notion de distorsion économique imputable aux impôts sur lʼénergie, alors que cette fiscalité était alors – et demeure – beaucoup plus élevée en Europe quʼaux États-Unis. Or, selon la théorie économique de la fiscalité, plus on taxe un bien déjà taxé, plus les pertes de bien-être entraînées par la distorsion des choix des contribuables sont fortes, étant multiplicatives et

Page 230: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

209POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

non pas additives3. Ce point avait été soulevé par plusieurs collègues, notam-ment de lʼOCDE, lors du processus de relecture de lʼarticle avant publication. Les auteurs avaient donc modifié leur modélisation sur ce point pour prendre en compte les coûts économiques des distorsions supplémentaires imputables à la nouvelle taxe projetée, surtout en Europe. Considérant lʼimpôt comme distorsif dès le premier dollar versé, le coût de distorsion dʼune taxe carbone devenait considérablement plus élevé en Europe quʼaux États-Unis.

La publication finale nʼa soulevé à ma connaissance aucun commentaire dans la presse américaine sur les avantages considérables que les États-Unis auraient pu retirer dʼune taxe sur le carbone dans sa compétition avec lʼEurope. Le Sommet de Rio était déjà loin.

3. Cette théorie ne voit dans la fiscalité en place que le moyen de collecter les ressources financières nécessaires au financement de dépenses publiques. Les marchés sont supposés être tous parfaitement concurrentiels et répondre au mieux aux préférences des consommateurs.

FIGURE 1. – LE GRAPHE PRÉSENTÉ DANS LE DRAFT DE LʼARTICLE DE FÉVRIER 1992

FIGURE 2. – LE GRAPHE DANS LʼARTICLE DʼENERGY POLICY DE JANVIER 1993

% du PIB

% du PIB

Page 231: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR210

Des jeux d’influence

L̓ épisode est instructif sur les enjeux dʼune expertise économique inter-nationale. Il éclaire aussi en creux certains éléments dʼune morale de la modélisation en situation dʼexpertise. Commençons par une observation factuelle : lorsque des négociations internationales sʼaccélèrent ou approchent dʼune échéance convenue, différents groupes dʼintérêts mettent en circulation toutes sortes dʼétudes encore sous la forme de drafts, dans le but de peser sur le résultat final. Ces documents prétendent souvent apporter des révélations sur une réalité jusquʼalors ignorée, mais nʼont pas fait lʼobjet dʼune revue critique par des pairs.

Ces jeux dʼinfluence ne concernent pas seulement des experts de troi-sième catégorie, membres douteux dʼofficines prêtes à démontrer tout ce que veulent leurs clients. Les économistes impliqués dans le cas cité comptent parmi les plus réputés et influents sur la scène du changement climatique. Ils ont depuis régulièrement contribué au travail du GIEC (Groupe dʼexperts intergouvernemental sur lʼévolution du climat4). Le besoin dʼune réflexion sur lʼusage de la modélisation économique en contexte dʼexpertise concerne bien le cœur de la profession.

Le choix des indicateurs

Une question politiquement sensible concerne les indicateurs choisis pour présenter les résultats. Ici, comme souvent, les auteurs utilisent une représentation agrégée, celle dʼun pourcentage du PIB. Cette solution a lʼavantage de la simplicité. Est-ce une raison suffisante ? Les composantes et hypothèses retenues pour faire de cet indicateur le reflet de lʼobjectif poursuivi par une société ont en effet des fondements fragiles ou contestables mis en évidence de longue date. Ainsi le PIB nʼest pas un indicateur de bien-être mais dʼactivité. De plus, en tant quʼindicateur de flux, il ne fait pas la distinction entre vraie création de richesses et diminution des stocks et des capacités. Toutefois il entre en résonance immédiate avec les préoccupations courantes de la plupart des gouvernants et des dirigeants dʼentreprise des pays occidentaux, peu sensibles aux enjeux de long terme. Cela a pour effet que lʼindicateur choisi mobilise des croyances réflexes, des préjugés et de fausses intuitions.

4. Ce groupe dʼexperts a été constitué sous lʼégide de lʼOrganisation météorologique mondiale et du Programme des Nations unies pour lʼenvironnement à la fin de 1988. Il implique plusieurs centaines de chercheurs à travers le monde. Ses principaux rapports ont été remis en 1990, 1995 et 2001. Le quatrième sera publié en 2007. Voir les chapitres V et VI de cet ouvrage.

Page 232: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

211POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

Dans dʼautres cas, comme lorsque certains travaux économiques donnent à voir des coûts négatifs5, les mêmes réflexes et fausses intuitions alimentent un sentiment profond dʼincrédulité. Si le résultat faux du draft de mars 1992 nʼa soulevé aucune objection manifeste de la part du public destinataire, cʼest quʼil donnait une expression précise à une croyance commune, convention partagée par un monde dʼexperts, de représentants dʼintérêts économiques et de dirigeants formant une communauté de croyances.

Dans ce contexte, les modélisateurs devraient sʼinterdire de manier des indicateurs aussi saturés dʼeffets de fascination et de croyance6, si du moins leur but est de susciter la réflexion, quitte à ce que leurs résultats soient moins immédiatement lisibles. Il y a certainement là une limite à mettre à la recherche de la pertinence pratique et à la satisfaction la plus complaisante des demandes directes que les décideurs font aux modélisateurs.

Un sens différent selon le contexte

L̓ épisode rapporté attire également lʼattention sur les différences de signi-fication prise par un résultat donné selon que lʼon se trouve dans un contexte scientifique ou dans un contexte dʼexpertise [Roqueplo, 1997]. Dans un contexte scientifique, cʼest à juste titre que des économistes ne perçoivent pas un changement de résultats provoqué par un changement dʼhypothèses ou une modification des équations du modèle comme un échec portant atteinte à leur crédit. Ces essais-erreurs concourent à lʼexploration scientifique normale dʼun problème. Les problèmes commencent lorsque les résultats contingents ainsi obtenus sont utilisés pour éclairer des choix de politique.

Lorsque les chercheurs se font experts, on attend dʼeux quʼils parlent au nom de la réalité, et non pas selon le jeu de leurs hypothèses et de leurs modèles. Les divers utilisateurs (responsables politiques, presse, lobbies, etc.) tendent à se focaliser sur les résultats, pour les prendre ou pour les rejeter, en délaissant leur dépendance vis-à-vis de toute la construction scientifique qui leur donne sens. Des énoncés hypothétiques à valeur relative sont pris pour des énoncés positifs de valeur absolue.

Ce changement de signification, les chercheurs qui se prêtent à lʼexpertise devraient en être conscients. Cela impliquerait de leur part une réserve dans la diffusion de leurs travaux tant que ces derniers nʼont pas encore été soumis

5. De tels coûts négatifs se présentent lorsque les actions de réduction des émissions de gaz à effet de serre contribuent à dʼautres objectifs comme la réduction de la pollution locale ou la pénétration de techniques éco-efficaces rentables dans les conditions économiques courantes mais insuffisamment connues.

6. Par exemple, les modélisateurs pourraient être invités à utiliser lʼIDH (lʼindicateur du développement humain) du Programme des Nations unies pour le développement ou dʼautres indicateurs cherchant à cerner le caractère durable du développement.

Page 233: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR212

à la discussion critique par des pairs. De plus, le recours à lʼexpertise devrait éviter dʼêtre ponctuel et sʼinscrire dans un processus de dialogue en profondeur mené entre les différentes équipes de modélisation, les experts de différentes provenances et les différents usagers de ces travaux.

1996-1998 : LE GROUPE ÉNERGIE 2010-2020 EN FRANCE

Depuis trente ans, lʼambition de prévoir lʼavenir a laissé assez largement la place à une approche plus ouverte qui est celle de scénarios construits à partir dʼensembles cohérents dʼhypothèses agencées autour dʼune idée principale. Les visages de lʼavenir possible sont devenus multiples, dans certaines limi-tes. Cette évolution est a priori davantage en phase avec une reconnaissance explicite de la liberté de chaque pays de sʼengager dans telle ou telle voie. Ce nʼest pas une mince avancée intellectuelle. Elle ne sʼest pas faite sans rencontrer des résistances qui, toutes, nʼont pas encore cédé aujourdʼhui, comme cela va être montré à présent.

De façon régulière, dans les années 1980-1990, le gouvernement français faisait réaliser des prévisions énergétiques pour le pays afin dʼasseoir ses pro-pres choix, notamment pour lʼinvestissement. En 1996-1998, ce fut un groupe présidé par Pierre Boisson qui le fit. De ce travail animé par une commission plénière sʼappuyant sur les travaux de quatre ateliers spécialisés dʼexperts, il est résulté un rapport de synthèse, Énergie 2010-2020. Les chemins d’une croissance sobre [Commissariat général du Plan, 1998b].

La construction de trois scénarios énergétiques pour la France

Les réflexions et propositions du groupe Énergie 2010-2020 se sont appuyées sur les travaux de quatre ateliers dʼexperts. Au nombre de ces derniers, lʼatelier A27 a reçu le mandat dʼélaborer des bilans énergétiques prospectifs pour la France aux horizons 2010 et 2020 [Commissariat général du Plan, 1998a ; Godard, 1998]. L̓ avenir énergétique à lʼhorizon 2020 était perçu comme assez incertain pour différentes raisons. On peut citer lʼimpré-visibilité de la scène énergétique mondiale, les changements de lʼorganisation économique du secteur énergétique, lʼamorce éventuelle du remplacement du parc électronucléaire français, le devenir de la convention-cadre sur le climat8 adoptée dans le cadre des Nations unies en 1992, ou encore les transformations

7. Président de lʼatelier : François Moisan (ADEME) ; rapporteur général : Olivier Godard (CNRS).

8. Au moment où les travaux ont été engagés, le protocole de Kyoto (décembre 1997) nʼavait pas encore été adopté.

Page 234: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

213POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

envisageables dans le secteur des transports (progrès technique, modification en profondeur de lʼaction publique et mutation des comportements).

Parmi les nouveaux facteurs affectant la scène énergétique française, une place particulière revenait à la démultiplication des pôles dʼimpulsion stratégique. L̓ action gouvernementale nationale devait désormais trouver sa place au sein dʼun ensemble plus large dʼactions et de décisions concourant à transformer le paysage énergétique. Autorités communautaires européennes, grands opérateurs publics et privés, collectivités locales étaient devenus des acteurs à part entière dʼune politique énergétique. Ces éléments convergeaient pour appeler les pouvoirs publics à exercer différemment leur rôle et à choisir de nouvelles priorités.

Cette situation nouvelle devait trouver son expression dans les orientations méthodologiques des travaux de lʼatelier A2 ; il convenait en particulier de faire ressortir la dimension sociopolitique des choix techniques et économiques que la France devait faire dʼici 2020.

L’approche : des scénarios incarnant le devenir possible de la société française

Les responsables de lʼatelier ont voulu une méthode dʼexploration de lʼavenir qui reconnaisse explicitement le caractère ouvert et incertain de ce dernier. À leurs yeux, cela disqualifiait une approche reposant sur la seule projection de tendances passées estimées par des méthodes économétriques. De même, la méthode consistant à établir une unique projection de référence assortie de différentes variantes sur des questions précises ne leur avait pas semblé apporter lʼouverture suffisante. En 1996-1998, le sentiment prévalait chez les experts que des changements importants allaient affecter la société française et le monde autour dʼelle, pas seulement le secteur énergétique. Il convenait donc de donner une représentation des perspectives énergétiques du pays qui les inscrivent dans différentes évolutions économiques et sociales possibles de la société française et de son contexte international.

Cʼest ainsi que fut adoptée lʼidée de construire trois scénarios de référence se différenciant sur des hypothèses dʼévolution de la société française et de lʼEurope. Ces scénarios plantaient différents contextes plausibles dʼici 2020 en fonction desquels les différents acteurs de la scène énergétique, et parmi eux les pouvoirs publics français, auraient à concevoir leurs stratégies. À ces évo-lutions de société diverses correspondaient en particulier des changements du regard porté sur le rôle de lʼÉtat, sʼagissant à la fois du contour de ses domaines dʼintervention légitime et du choix des modalités de son action.

Les trois scénarios construits reposaient ainsi sur des hypothèses socio-politiques contrastées. Le premier scénario, dénommé « société de marché », sʼorganisait autour dʼune réduction du niveau dʼintervention économique de

Page 235: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR214

lʼÉtat et dʼune redéfinition de ses modes dʼaction allant dans le sens dʼune plus large confiance dans les mécanismes régulateurs de marché. Il sʼaccompagnait également de la contraction de lʼhorizon temporel des différents acteurs sous lʼeffet des pressions et sanctions concurrentielles. Dans ce scénario lʼénergie, y compris la production électrique, était un bien ordinaire laissé à la régulation du marché. Le deuxième scénario, appelé « État industriel », correspondait au retour dʼun État interventionniste dans le domaine économique et industriel au nom dʼune identification des intérêts à long terme de la nation avec la force et la compétitivité de son industrie. La conception des différentes politiques publiques, par exemple les politiques dʼenvironnement (effet de serre), y était systématiquement utilisée pour favoriser la compétitivité et lʼessor de lʼindustrie française, dans les limites autorisées par les règles européennes et celles de lʼOrganisation mondiale du commerce. Lʼénergie demeurait un bien stratégique pour la souveraineté nationale, dérogeant de ce fait aux lois ordinaires du marché. Le troisième scénario, désigné comme « État protec-teur de lʼenvironnement », faisait prioritairement de lʼÉtat le gardien des valeurs de protection de la santé de la population, de prévention des risques technologiques et de préservation de lʼenvironnement aussi bien à lʼéchelle locale que planétaire. Il laissait davantage aux entreprises, aux organisations professionnelles et aux partenaires sociaux le soin de piloter les mutations économiques compatibles avec le cadre fixé. En résumé, S1 était un scéna-rio de plus grand laisser-faire des marchés, S2 un scénario dʼune politique volontariste de lʼoffre, et S3 un scénario de maîtrise conjointe de lʼoffre et de la demande pour les rendre compatibles avec les objectifs sociaux et envi-ronnementaux du pays.

Ces trois scénarios ont été traduits sous la forme dʼhypothèses technico-économiques9 de façon à être aussi plausibles, complets et cohérents les uns que les autres. Aucun de ces scénarios nʼétait considéré comme tendanciel. Aucun ne constituait le scénario de référence qui aurait renvoyé les autres au statut de variantes.

La priorité ayant été donnée à lʼexploration des conséquences de trois évolutions sociopolitiques, un jeu unique dʼhypothèses a été retenu concer-nant la croissance économique (un taux annuel moyen de 2,3 % sur toute la période), la croissance démographique et les prix internationaux de lʼénergie (un pétrole à 24 dollars95

10 le baril de 2005 à 2020). Le taux dʼactualisation utilisé pour les choix dʼinvestissement énergétique et le calcul des coûts a été

9. Ces hypothèses technico-économiques ont été introduites dans deux cadres de modélisation économique permettant de déterminer des équilibres offre/demande pour les divers secteurs productifs et pour les différents marchés de lʼénergie. Lʼun était un modèle technico-économique du secteur énergétique et lʼautre un modèle dʼéquilibre général calculable.

10. Ce chiffre de 95 en indice exprime le « millésime » de la valeur du dollar pris comme référence : ici, des dollars de 1995.

Page 236: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

215POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

fixé à 8 % pour S2 et S3, et à 12 % pour S1. Cette approche contrastait avec les exercices antérieurs qui proposaient des scénarios ne se différenciant que par la combinaison taux de croissance/prix de lʼénergie.

Nucléaire ou gaz ?

Du côté de l̓ offre, l̓ une des variables de changement les plus spectaculaires selon les scénarios était le parc de production électrique, dans le cas où les cen-trales nucléaires devraient être déclassées après trente ans de service. Dans ce cas, le renouvellement du parc devait commencer à être engagé à partir de 2007. Cependant, l̓ expertise technique alors disponible considérait quʼune extension à 40 ans était envisageable sans affecter la sûreté nucléaire. Avec cette extension, le problème du renouvellement du parc nucléaire français ne devait alors qu e̓ffleu-rer la fin de la période considérée, l̓ essentiel du renouvellement du parc devant intervenir postérieurement à 2020. Chaque scénario a donc été décliné selon deux variantes : 30 ans et 40 ans de durée de vie des centrales nucléaires.

Deux facteurs sont apparus décisifs : le niveau de la demande et le fait quʼavec un taux dʼactualisation de 12 %, tel quʼutilisé dans S1, le gaz devenait plus rentable que le nucléaire : dans ce scénario, le remplacement des centrales nucléaires déclassées devait en conséquence se faire avec des turbines à gaz à cycle combiné.

Si en 2010 le nucléaire devait fournir environ 74 % des besoins d é̓lectricité quel que soit le scénario, cette contribution devait relativement s̓ abaisser d i̓ci 2020 pour se situer dans une fourchette de 61 à 69 % pour une durée de vie des centrales de 40 ans. Pour une durée de vie de 30 ans, la situation du parc électri-que devait se modifier plus rapidement et de façon plus forte. En 2020, 85 % du parc nucléaire existant devait être déclassé et remplacé, selon les scénarios, par de nouveaux équipements nucléaires ou par des cycles combinés à gaz. Si, dans S2, le nucléaire devait continuer à se tailler la part du lion, dans S1 la totalité des besoins de base et semi-base devaient être couverts par des cycles combinés à gaz. Enfin, dans S3, les nouveaux moyens de base devaient encore faire appel au nucléaire11, mais la capacité nécessaire devait être inférieure de 50 % à celle de S2. Au total, en 2020, la contribution du nucléaire au bilan électrique devait s̓ élever à 68 % dans S2, à 60 % dans S3, mais seulement à 13 % dans S1.

De la croissance… pour les émissions de CO2

Du point de vue de lʼémission de gaz à effet de serre, les trois scénarios étudiés définissaient des contextes très contrastés, même si les différences

11. On notera donc que S3, le scénario « environnement », nʼétait pas du tout un scénario de sortie ou de gel du nucléaire.

Page 237: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR216

les plus importantes ne devaient pas se manifester à lʼhorizon 2010, celui du protocole de Kyoto, mais à lʼhorizon 2020. Dans S1, les émissions de CO2 devaient sʼaccroître dans une proportion comprise entre 54 et 73 % de 1990 à 2020 selon les variantes, loin de toute idée de stabilisation au niveau de 1990. Dans S2, elles devaient moins augmenter mais ne se stabilisaient pas : lʼaccroissement des émissions totales dʼorigine énergétique étaient dʼenviron 26 % dans les deux variantes. Seul le scénario S3 parvenait à se rapprocher, sans lʼatteindre, dʼune stabilisation des émissions de CO2 dʼorigine énergétique au niveau de 1990. Un chiffre retenait particulièrement lʼattention : selon que les centrales nucléaires en déclassement étaient remplacées par des turbines à gaz ou par dʼautres centrales nucléaires, les émissions de CO2 sʼaccroissaient de 30 MtC, soit environ 30 % des émissions liées à lʼénergie de 1990, année de référence de la convention Climat et du protocole de Kyoto !

Quel que soit le scénario, les transports devaient représenter, selon les scénarios et les variantes, autour de 46 % des émissions totales, directes et indirectes, de CO2 dʼorigine énergétique du pays en 2020 pour la variante V40, et entre 38 et 47 % pour la variante V30.

Le diagnostic était ainsi posé : du point de vue dʼune politique de lʼeffet de serre, les responsables politiques et économiques français avaient trois défis principaux à relever. Le premier concernait le renouvellement du parc électri-que, entre nucléaire et gaz. Le deuxième était la maîtrise des consommations du secteur habitat-tertiaire, avec en particulier lʼenjeu de la réhabilitation thermique du parc immobilier ancien. Le troisième était lʼinfléchissement nécessaire de la croissance des transports recourant aux carburants fossiles et celui du déploiement territorial des activités. La maîtrise des émissions de CO2 pour la période 2000-2020 nʼallait pas pouvoir être acquise au « fil de lʼeau » sans dispositifs nouveaux ni changements dans la nature et lʼintensité des politiques menées jusquʼalors.

L̓ affaire était jugée dʼautant moins simple que les transformations sociopo-litiques favorables à une maîtrise des consommations énergétiques (S3) étaient aussi celles qui devaient rendre politiquement moins aisé le remplacement des centrales nucléaires existantes par de nouvelles centrales nucléaires. Les combi-naisons crédibles entre hypothèses techniques et hypothèses sociopolitiques ne conduisaient donc pas à dégager une perspective forte dans laquelle la France pourrait réduire de façon importante ses émissions de CO2 à lʼhorizon 2020.

L’accueil réservé aux scénarios par les experts et les gestionnaires

Sur le fond, que la France, sous lʼemprise dʼun vent libéral, puisse préférer se détourner du nucléaire pour le gaz était une perspective nouvelle venant dʼun rapport officiel préparé au sein de la sphère publique ! Elle a suscité quelques levées de boucliers dans lʼadministration et chez les partisans du nucléaire.

Page 238: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

217POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

Concernant lʼapproche retenue pour élaborer les scénarios, je retiendrai trois réactions suscitées par leur diffusion. La première met en jeu des prati-ciens des modèles, la deuxième une administration ministérielle, la troisième une ministre du gouvernement de lʼépoque.

Lors dʼune présentation des scénarios dʼÉnergie 2010-2020 devant un groupe dʼexperts émanant du Conseil dʼanalyse économique12, cʼest le scep-ticisme qui fut exprimé par plusieurs collègues goûtant peu la novation méthodologique apportée. Cela ne correspondait pas, à leurs yeux, à lʼétat de lʼart et conduisait à des résultats manquant de lisibilité. Il aurait fallu sʼen tenir à la solution robuste consistant à construire une projection centrale déterminée par les hypothèses de croissance et de prix, puis à étudier à la marge différentes variantes permettant dʼétudier certains points de façon plus précise ! L̓ approche retenue, poursuivaient-ils, avait obligé les experts de lʼatelier à introduire de nombreuses hypothèses ad hoc ou discutables sur les changements sociaux dʼensemble au lieu de se caler sur une connaissance scientifiquement éprouvée des données énergétiques et des relations quʼelles entretiennent avec les grands déterminants économiques. Elle ne permettait pas non plus dʼévaluer clairement des politiques alternatives – qui auraient dû être testées sous forme de variantes –, puisque les principales différences prises en compte portaient sur des variables de société et non sur des variables dʼaction sous contrôle des autorités publiques. Cʼétait donc lʼutilité de la démarche adoptée qui était également contestée. Il en résultait, au total, quʼouvrir les représentations de lʼavenir énergétique en considérant les transformations économiques et sociales possibles nʼétait méthodologiquement pas bienvenu. Cela portait atteinte à la fois au caractère scientifique de lʼexercice et à son utilisation pratique par des décideurs gouvernementaux.

Cette ligne de critique fut implicitement confirmée par la manière dont les administrations en charge du dossier de lʼeffet de serre se sont saisies des résultats. Constatant que seul le scénario S3 permettait approximativement à la France de stabiliser ses émissions de CO2 dʼorigine énergétique sur son territoire, ces administrations ont « décidé » dʼadopter ce scénario comme référence pour concevoir le premier Plan-climat du pays.

Sʼil pouvait se comprendre dʼun point de vue quantitatif, un tel choix contrevenait frontalement à la conception qui avait présidé à la construction des trois scénarios de lʼexercice Énergie 2010-2020. Ces derniers ne formaient pas un menu offert aux responsables gouvernementaux : les évolutions globales possibles de la société à partir desquelles les scénarios étaient construits ne dépendaient que de façon partielle des choix de politiques des gouvernements et bien davantage des comportements et attitudes dʼun grand nombre dʼacteurs sociaux. Il aurait fallu que les pouvoirs publics recherchent des politiques

12. Placé auprès du Premier ministre, ce conseil a été créé par Lionel Jospin en 1997.

Page 239: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR218

énergétiques suffisamment robustes pour sauvegarder lʼessentiel de leur validité quelles que soient les évolutions effectives de la société. L̓ approche pluraliste de lʼavenir de la société que les scénarios exprimaient supposait que le pouvoir de construire lʼavenir était distribué dans la société, sans être le monopole du gouvernement. Cʼest pourtant à la représentation dʼun gouvernement maître de la société comme dʼun engin à laquelle les acteurs de lʼadministration ont alors manifesté leur attachement. Une modélisation déterministe présentant un avenir tendanciel unique, mais construit autour de variables de pilotage gouvernemental sʼajustait bien mieux à leur représenta-tion politique dualiste du couple « engin-pilote » !

De façon paradoxale, le fait de travailler avec des représentations multi-ples de lʼavenir nʼa fait ainsi lʼaffaire ni des décideurs ni des praticiens de la modélisation. Il y a là matière à sʼinterroger sur le rapport quʼentretient lʼart de gouverner avec la liberté collective.

Le politique, ou comment faire dire à une expertise ce qu’elle ne dit pas

Durant lʼautomne 1998, la décision de principe du gouvernement allemand de sortir son pays du nucléaire a relancé le débat en France. Mme Voynet, chef de file des Verts et ministre de lʼAménagement du territoire et de lʼEnvironnement, a alors estimé que la France avait, elle aussi, à envisager la perspective dʼun retrait du nucléaire pour la production électrique. Dans une interview au jour-nal Libération du 23 octobre 1998, la ministre affirmait : « Un rapport récent du Commissariat général du plan montre quʼil existe des voies permettant de concilier la diversification énergétique, la sortie du nucléaire et le respect de nos engagements en matière de lutte contre lʼeffet de serre. »

Par « respect des engagements en matière de lutte contre lʼeffet de serre », elle signifiait la stabilisation des émissions provenant du territoire français, en écartant le recours aux possibilités dʼéchange international des quotas prévues par le protocole de Kyoto. Elle sʼétait élevée à plusieurs reprises contre ces mécanismes dʼéchange. Dʼailleurs, en vue de la Conférence des Parties à la convention Climat qui devait se tenir à Buenos Aires deux semaines plus tard, la France avait rejoint lʼAllemagne et lʼAutriche pour réaffirmer la nécessité dʼimposer des plafonds stricts sur ce type dʼéchanges, de façon à contraindre chaque État à réaliser sur son territoire lʼessentiel des réductions dʼémission que lui imposaient les quotas acceptés à Kyoto13.

13. La proposition soumise pendant lʼété 1998 par la présidence autrichienne du Conseil des ministres européen aboutissait à un potentiel maximal dʼéchanges pour chaque pays dʼenviron 2,5 % de ses émissions de 1990. En novembre 2000, à la conférence de La Haye, les Européens se sont encore présentés en exigeant la fixation de plafonds stricts sur les échanges, ne renonçant à cette exigence quʼaux tout derniers moments de la négociation.

Page 240: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

219POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

Cette intervention publique mobilisant la légitimité de lʼexpertise du Commissariat général du Plan à lʼappui dʼune thèse et dʼun programme politique illustre lʼambiguïté des rapports entre lʼexpertise et le décideur politique14. Dʼune façon générale les décideurs recherchent le concours des experts soit pour éclairer ex ante, soit pour légitimer ex post leurs prises de position ou leurs décisions. Il leur arrive parfois de ne pas souhaiter que les experts présentent de façon trop nette les contraintes imposées par la réalité et rendent visibles les contradictions de leur propre discours.

La ministre avait formellement raison grâce à une pirouette : les engage-ments de Kyoto arrivaient à échéance en 2012 et personne ne proposait que la France soit sortie du nucléaire à cet horizon. Sur le fond, sa déclaration sʼopposait frontalement aux conclusions des travaux du groupe Énergie 2010-2020. Si, conformément aux exigences dʼune démocratisation des choix technologiques majeurs, la France entendait préserver la possibilité de choisir, le moment venu – vers 2020 –, un mode différent de production électrique, symbolisé par la fameuse « sortie du nucléaire », elle ne pouvait pas éviter de choisir entre les deux options suivantes15 :

— œuvrer pour que les « instruments de flexibilité » prévus à Kyoto (lʼéchange international de quotas) continuent de prévaloir de façon ample comme composante centrale de lʼaction internationale dans la période post-Kyoto, et donc renoncer aux idées de restriction forte des échanges interna-tionaux de quotas ;

— se retirer de la convention Climat ou, plus subtilement, contribuer activement à faire échouer les négociations sur le régime qui doit prendre le relais du protocole de Kyoto après 2012.

L̓ exercice Énergie 2010-2020 était porteur dʼun message clair : dans un régime de type Kyoto, la récupération dʼune liberté de choix des Français sur les filières de production dʼélectricité avait pour condition absolue la possibilité juridique dʼacquérir des quotas de CO2 sur le marché internatio-nal pour des montants pouvant atteindre plusieurs dizaines de pour-cent des émissions de 1990. Il était étrange dʼobserver que, du fait de son hostilité idéologique au marché, la ministre chef de file des Verts soutenait une position internationale qui, lʼemportant, aurait condamné la France à ne pas pouvoir sortir du nucléaire au moment où elle en aurait eu la possibilité technique.

14. Dʼoù lʼimportance des enjeux attachés, dʼun côté, à la définition conjointe par les décideurs et par les experts dʼun cadrage précis des questions posées aux experts et, de lʼautre côté, à la publicité des travaux des experts, y compris des avis minoritaires. Sur ces points, voir Godard [2003].

15. Une troisième option aurait été de miser sur la bonne volonté des autres États en supposant quʼils accorderaient à la France le surcroît de quotas supplémentaires nécessaires (30 %) au moment de négocier les objectifs à lʼhorizon 2020, alors quʼeux-mêmes devraient consentir des réductions significatives. Peu crédible, cette dernière option aurait de toute façon placé la liberté de choix des Français sous la tutelle des autres pays.

Page 241: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR220

Il était troublant de constater quʼune expertise qui avait cherché à mettre en évidence les problèmes de choix et à révéler les tensions entre objectifs était présentée par le politique devant lʼopinion publique comme la justification dʼune position opposée.

LA REPRÉSENTATION DE LʼAVENIR LOINTAIN

Nous nous sommes intéressés jusquʼà présent à des travaux de modéli-sation portant sur un horizon dʼune vingtaine dʼannées. Franchissons cette limite, portons le regard sur le traitement du temps long intergénérationnel et soulevons quelques points dʼinterrogation.

L’utilitarisme et le sacrifice des droits

La plupart des économistes qui contribuent aux recherches sur le change-ment climatique abordent les effets à long terme du changement climatique ou ceux des politiques de prévention et dʼadaptation en utilisant les catégories de coût et de bénéfice et en recourant à des fonctions agrégées dʼutilité collective. Ils supposent ainsi que le but poursuivi est de maximiser le niveau de cette utilité à travers le temps. Ils appliquent ces catégories à des entités politico-territoriales qui sont soit des pays, soit des entités régionales présentant une certaine unité politique, comme lʼUnion européenne, lʼAmérique du Nord, la Chine, lʼInde.

Ce faisant, une continuité est formellement établie entre la manière de représenter les effets sur le bien-être des générations présentes et celle qui concerne des hommes qui vivront peut-être à différents horizons temporels, mais qui nʼexistent pas présentement (générations futures). Cette façon de faire est facilitée par le cadre normatif de lʼutilitarisme qui identifie une substance, lʼutilité ou le bien-être, en la détachant des hommes qui en sont en quelque sorte les dépositaires.

On a reproché à bon droit à lʼutilitarisme dʼêtre une éthique du sacrifice [Rawls, 1987 ; Dupuy, 1992] en étant indifférent aux droits en tant que tels : le bien-être de tous vaut bien le sacrifice de quelques-uns. Une forme atténuée de cette idée sous-tend le critère standard de lʼanalyse coûts-avantages [Pearce et alii, 2006] quʼest le critère de compensation potentielle de Hicks-Kaldor : une décision est bonne si les avantages lʼemportent sur les coûts, car il serait possible aux bénéficiaires des avantages de verser des compensations à ceux qui supportent surtout les coûts, tout en restant bénéficiaires. Ce critère nʼoblige pas au sacrifice, mais il nʼélève aucune barrière conceptuelle et méthodologi-que à son règne. Toute approche reconnaissant la primauté du juste sur le bien [Forsé et Parodi, 2004] ne saurait se satisfaire de tels exercices économiques

Page 242: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

221POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

sur le bilan intertemporel des coûts et des avantages comme manière de définir lʼaction qui convient.

Cependant, tant lʼutilitarisme que les critiques qui lui sont adressées au nom de lʼéquité et dʼune théorie des droits rencontrent des problèmes redou-tables lorsquʼil sʼagit dʼaborder les relations avec les générations futures éloignées. Jʼen retiendrai trois : celui du postulat de permanence, à travers le temps historique, des entités politiques pertinentes (les États…) ; celui de la non-existence des générations futures ; celui de leur non-identité.

Entretenir la croyance dans la permanence des identités collectives

Tout travail de prospective à long terme propose un cadrage sur lʼorga-nisation du monde dans un avenir lointain. La façon de le faire ne saurait être innocente. Constatons que la projection à long terme des découpages politiques actuels en États-nations (la France, lʼAllemagne, les États-Unis, etc.) est une pratique courante. Elle est contestable et arbitraire en ce quʼelle postule une permanence à travers le temps, soit de formes politiques historiques – les États-nations – soit dʼun découpage territorial particulier. Un regard sur le XXe siècle passé a certes montré des stabilités politiques, mais également des bouleversements significatifs, par exemple lʼeffondrement des empires coloniaux, lʼéclatement de lʼURSS et la réunification de lʼAllemagne, sans parler de la formation de lʼUnion européenne.

Passé la durée du demi-siècle, le postulat de stabilité politique prend une signification latente : celle de donner aux identités politiques actuelles un semblant dʼéternité. Le message subliminal est donc de donner à croire quʼen dépit des dangers, menaces et transformations de toutes sortes, rien ne changera fondamentalement dans le cadre actuel dʼorganisation politique des sociétés : les Français peuvent compter sur une France éternelle…

Lorsquʼelle prend cette forme, la prospective à long terme sert-elle la réflexion ? En confortant lʼidée de permanence des États, ne réaffirme-t-elle pas lʼintangibilité et la primauté du principe de leur souveraineté ? Or on est fondé à voir dans ce principe lʼobstacle principal au développement de lʼaction collective de lʼhumanité et à lʼémergence de nouvelles formes de régulation planétaire. De même que la prescription efface du système juridique actif la plupart des crimes et délits commis entre contemporains, il y aurait lieu, par pédagogie éthique et pour éduquer lʼimagination, dʼeffacer progressivement de la représentation des enjeux à long terme tout ce qui perpétue lʼorganisation politique actuelle du monde, avec les identifications et les oppositions identi-taires entre « eux » et « nous » qui vont avec. Pour ces échéances lointaines, la priorité serait dʼapprendre aux générations présentes à sʼidentifier aux intérêts de lʼhumanité en général.

Page 243: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR222

Cette proposition semble aller paradoxalement dans le sens de lʼabstraction utilitariste, indifférente aux identités particulières et aux droits des personnes. Il nʼy a là rien de mécanique puisque, sur ce chemin de la décentration vis-à-vis des identités politiques particulières, on trouve aussi le Hans Jonas du Principe responsabilité [1990] qui fait de lʼidée dʼhumanité le centre de sa réflexion éthique.

Le problème de la non-existence des générations éloignées

Les générations éloignées nʼexistent pas, cʼest une lapalissade. Pourtant ce constat soulève des difficultés considérables pour tout raisonnement accor-dant à lʼidée de droits un statut éthique premier, supérieur à celui reconnu à la recherche du bien-être. Comment les générations futures pourraient-elles, en tant que telles, avoir des droits ? La justice a pour objet lʼinstitution de droits dévolus à des personnes et pour aboutissement pratique des procédures impartiales dʼarbitrage entre des revendications conflictuelles formulées par les titulaires de tels droits. Or plusieurs auteurs ont fait remarquer que, nʼayant pas encore dʼexistence, les générations futures éloignées ne sauraient avoir de droits [Beckerman et Pasek, 2001] : lʼexistence est une précondition de la faculté dʼune personne de se voir reconnaître des droits. Il suffit de remplacer le terme « droits » par « obligations » pour sʼen convaincre. Dira-t-on sans sourciller que les générations futures ont, en tant que telles, des obligations envers les générations actuelles ?

Certes, le système juridique sait distinguer entre lʼattribution de la person-nalité juridique et la reconnaissance du statut de sujet de droit. Par exemple, les enfants à naître ou les mineurs ont la personnalité juridique, mais ne sont pas en état de faire valoir leurs droits par eux-mêmes. Sʼagissant des générations futures, lʼincapacité de faire valoir ses droits par soi-même nʼest donc pas un obstacle insurmontable. La difficulté est autre : lʼattribut dʼun être présuppose logiquement lʼexistence de cet être. Faute dʼexister… Les personnes qui viendront au monde à une date future disposeront alors de droits, mais ces droits ne pourront jamais sʼexercer que vis-à-vis de leurs contemporains, ceux avec lesquels elles auront à nouer des coopérations et à surmonter des désaccords.

Cʼest ainsi la pertinence des supputations sur le droit au bien-être des générations éloignées qui est ici mise en cause par cette ligne dʼargumentation. L̓ utilitarisme nʼa pas cette difficulté à affronter [Birnbacher, 1994].

Le problème de la non-identité

Abordons à présent le problème de la non-identité soulevé initialement par Thomas Schwartz [1978] et Derek Parfit [1984]. Il se présente lorsque

Page 244: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

223POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

lʼidée de justice est construite à partir des plaintes ou reproches que pourraient formuler, si elles en avaient la possibilité, les personnes futures à lʼencontre des générations présentes. La question posée est la suivante : comment des personnes vivant dans un avenir lointain pourraient-elles être en position de reprocher quoi que ce soit aux générations antérieures quant à lʼétat du monde reçu en héritage ? Admettons que cela soit possible et que ce reproche putatif soit anticipé par les générations antérieures. Admettons que, soucieuses de justice, ces dernières changent leurs comportements en conséquence. Cʼest alors toute lʼhorlogerie des relations de procréation qui se trouverait éga-lement modifiée. Les personnes hypothétiques futures qui auraient adressé des reproches à leurs ancêtres ne seraient jamais venues à lʼexistence et les reproches nʼauraient pas pu être formulés. Dʼautres personnes seraient nées à la suite dʼautres choix des générations antérieures. La théorie du reproche est frappée dʼincohérence logique. Un double lien doit être élucidé : le lien entre dommage et droit, et entre dommage et identité.

Remarquons que la notion de dommage est elle-même dépendante de celle de droits, comme lʼavait montré Ronald Coase [1960] : tant que les droits respectifs nʼont pas été définis par une institution, il est impossible de qualifier une situation en termes de dommages occasionnés par lʼun et subis par lʼautre, sauf à recourir à lʼidée hasardeuse dʼun droit naturel hors de lʼhistoire et de lʼinstitution. Or lʼusage, pour les générations futures, de lʼidée de droits est problématique, cela a été montré plus haut. On ne saurait, par exemple, faire état du droit à la vie des générations futures.

Ensuite, comme Axel Gosseries [2004] lʼa démontré à propos de lʼaffaire Perruche en France, lʼidée de dommages subis par une personne devient impropre lorsque lʼattribut quʼon serait tenté de qualifier ainsi est insépa-rable de lʼidentité des personnes concernées. Les personnes souffrant dʼun handicap congénital ne peuvent pas faire reproche à leurs parents de leur avoir occasionné un dommage. En effet, si les parents avaient pris certaines dispositions pour éviter la naissance dʼun enfant handicapé, les personnes nées sans ce handicap auraient été des personnes différentes de celles qui sont handicapées. L̓ expression « mettre au monde » signifie bien cette solidarité la plus intime entre les humains et le monde qui leur est donné et qui résulte de toute une histoire à la fois naturelle et humaine. Quel que soit lʼétat du monde transmis, lʼidentité des personnes futures qui habiteront ce monde-là nʼen est pas détachable.

En conséquence, si lʼon assoit lʼidée de justice sur celle de légitime repro-che, il nʼest pas valide de spéculer sur les bénéfices et les dommages que pour-raient retirer les générations futures de telle ou telle évolution qui résulterait des décisions de leurs ancêtres. En effet, pour entrer dans la comptabilité des dommages et des avantages attribuables aux actions des générations antérieu-res, lʼanalyse devrait se rapporter à des personnes futures à lʼidentité définie

Page 245: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR224

et invariante dans le cadre de comparaison retenu. Seule la situation de ces personnes devrait pouvoir être affectée, dans des proportions variables, par les actions incriminées16. En réalité, choisir un profil intertemporel différent de coûts et dʼavantages, cʼest également choisir de faire advenir au monde dʼautres personnes. La comparaison ne tient plus.

Récapitulons. Des personnes sans existence ne sauraient subir de domma-ges puisque la notion de droits ne leur est pas applicable. Une fois venues à lʼexistence, la condition dans laquelle certaines personnes se trouvent placées peut certes être caractérisée en termes de handicap par rapport à la condition moyenne de leurs contemporains, mais pas de dommages imputables aux générations antérieures, puisquʼil nʼexiste aucun sens dans lequel les généra-tions postérieures vivantes auraient des droits sur les générations antérieures qui ne seraient déjà plus de leur monde.

Nous voilà avec deux voies bouchées : celle qui envisage les bénéfices et les dommages affectant les générations éloignées ; celle qui envisage de reconnaître des droits à ces générations futures. Trois voies de solution à explorer demeurent néanmoins. La première consisterait à élaborer un concept de justice coupé de toute idée de reproche formulé par des personnes victimes dʼune injustice, ce qui est à première vue assez problématique. La deuxième est celle de la recherche dʼune dépersonnalisation des termes du jugement. L̓ utilitarisme nʼest pas la seule pensée à le faire. La réflexion proposée par Hans Jonas, préoccupée par la survie de lʼhumanité et par celle de lʼhumain dans lʼhumanité, en est une autre, qui récuse les calculs de coûts et dʼavantages mâtinés de probabilités. Le mal suprême étant, aux yeux de Jonas, la fin de lʼhumanité, lʼimpératif kantien est reformulé par lui en ces termes : « Agis de façon que les effets de ton action ne soient pas destructeurs pour la possibilité future dʼune telle vie » [Jonas, 1990, p. 30-31]. Sans adhérer aux maximes dʼaction que Jonas en tire, frappées de contradiction interne [Godard et alii, 2002], retenons lʼidée dʼexplorer une modélisation prospective dégagée des calculs de bénéfices et de dommages, mais considérant les dangers et risques dʼatteinte fondamentale à lʼhumanité.

Une troisième piste ouverte à lʼexploration future sʼappuie sur les diffé-rentes formes de promesses que les générations présentes veulent faire aux générations futures. Il nʼest plus question ici de droits des générations futures, mais de désir des vivants de transmettre à ceux qui les suivront tout ou partie de la richesse patrimoniale dont ils ont hérité et usé, augmentée de ce quʼils jugent être leur contribution à lʼexpérience humaine, celle en laquelle ils souhaitent être reconnus.

16. Dans les modèles, cela se traduit par le fait que la fonction dʼutilité collective prise en compte reste la même dans les différents cas de figure examinés.

Page 246: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

225POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE…

Du point de vue de la modélisation, cette troisième approche sʼexprime-rait à travers une approche séquentielle des choix intertemporels [Hourcade, 1997]. Lʼétude des choix possibles combinerait alors deux éléments. Dʼun côté, lʼhorizon du calcul et de lʼoptimisation se limiterait au monde qui est bien connu et appréhendé empiriquement par ceux qui sont en position de faire des choix pour la collectivité. De lʼautre côté, lʼexercice serait encadré par une attention soutenue portée aux conditions terminales léguées aux générations suivantes, sans vouloir préjuger de ce que seront les meilleurs choix pour ces dernières. Pour paraphraser une formule célèbre du Rapport Brundtland [Commission mondiale sur lʼenvironnement et le développement, 1988], il sʼagit pour les vivants dʼaujourdʼhui de préserver les capacités de vie humaine des générations futures et dʼétablir indirectement un lien avec elles en leur léguant les biens constituant le patrimoine de lʼhumanité, progressivement enrichi des apports des générations successives. Pour les choix touchant un avenir lointain, lʼaccent doit être mis sur une modélisation de la transmission intergénérationnelle des patrimoines.

RÉFÉRENCES BIBLIOGRAPHIQUES

ARCHER D. E. (2005), « The fate of fossil fuel CO2 in geological time », Journal of Geophysical Research, vol. 110, septembre.

BECKERMAN W. et PASEK J. (2001), Justice, Posterity and the Environment, Oxford University Press, Oxford.

BIRNBACHER D. (1994), La Responsabilité envers les générations futures, PUF, « Philosophie morale », Paris.

COASE R. H. (1960), « The problem of social cost », Journal of Law and Economics, vol. 3, octobre, p. 1-44.

COMMISSARIAT GÉNÉRAL DU PLAN (1998a), Énergie 2010-2020 – Rapport de l’atelier « Trois scénarios énergétiques pour la France », Paris, septembre.

– (1998b), Énergie 2010-2020. Les chemins d’une croissance sobre, rapport du groupe présidé par Pierre Boisson, La Documentation française, Paris.

COMMISSION MONDIALE SUR LʼENVIRONNEMENT ET LE DÉVELOPPEMENT (1988), Notre avenir à tous, Éditions du Fleuve, Montréal.

DUPUY J.-P. (1992), Le Sacrifice et l’envie. Le libéralisme aux prises avec la justice sociale, Calmann-Lévy, Paris.

– (2000), « Philosophical foundations of a new concept of equilibrium in the social sciences : projected equilibrium », Philosophical Studies, vol. 100, n° 3, p. 323-345.

– (2002), Pour un catastrophisme éclairé. Quand l’impossible est certain, Le Seuil, Paris.FORSÉ M. et PARODI M. (2004), La Priorité du juste. Éléments pour une sociologie des choix

moraux, PUF, « Sociologies », Paris.GODARD O. (1998), « Annexe 1. Les scénarios énergétiques de la France 2010-2020 », dans

COMMISSARIAT GÉNÉRAL DU PLAN, Énergie 2010-2020. Les chemins d’une croissance sobre, rapport du groupe présidé par Pierre Boisson, La Documentation française, Paris, p. 317-404.

Page 247: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR226

– (2001), « Lʼexpertise économique du changement climatique planétaire – 1. Modèles dʼorganisation de lʼexpertise. – 2. Sur la scène internationale, le GIEC. – 3. Sur la scène française, autour du Commissariat général du Plan », Annales des Mines, série « Responsabilité et environnement », n° 21, p. 23-65.

– (2003), « Comment organiser lʼexpertise scientifique sous lʼégide du principe de précaution ? », Revue de l’électricité et de l’électronique, n° 11, p. 38-47.

GODARD O., HENRY C., LAGADEC P. et MICHEL-KERJAN E. (2002), Traité des nouveaux risques. Précaution, crise, assurance, Gallimard, « Folio-Actuel », Paris.

GOSSERIES A. (2004), Penser la justice entre les générations : de l’affaire Perruche à la réforme des retraites, Aubier, « Alto », Paris.

HOURCADE J.-C. (1997), « Précaution et approche séquentielle de la décision face aux risques climatiques de lʼeffet de serre », dans GODARD O. (dir.), Le Principe de précaution dans la conduite des affaires humaines, Éditions de la MSH et INRA-Éditions, Paris, p. 259-294.

JONAS H. (1990), Le Principe responsabilité. Une éthique pour la civilisation technologique, Le Cerf, Paris.

MANNE A. et RICHELS R. (1992), « The E. C. proposal for combining carbon and energy taxes – the implications for future CO2 emissions », draft, EPRI et Stanford University, 24 février.

– (1993), « The E. C. proposal for combining carbon and energy taxes – the implications for future CO2 emissions », Energy Policy, janvier, p. 5-12.

PARFIT D. (1984), Reasons and Persons, Clarendon Press, Oxford.PEARCE D., ATKINSON G. et MOURATO S. (2006), Cost-Benefit Analysis and the Environment

– Recent Developments, publications de lʼOCDE, Paris.RAWLS J. (1987), Théorie de la justice, Le Seuil, « Empreintes », Paris.ROQUEPLO P. (1997), Entre savoir et décision, l’expertise scientifique, INRA-Éditions,

« Sciences en questions », Paris.SCHWARTZ T. (1978), « Obligations to posterity », dans SIKORA R. I. et BARRY B. (dir.),

Obligations to Future Generations, Temple University Press, Philadelphie, p. 3-13.

Page 248: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

227LES COULOIRS DE LA PERSUASION

Les moyens de communication sont devenus à lʼère électronique par-ticulièrement nombreux, puissants et disponibles. Une telle abondance de capteurs et de diffuseurs dʼinformation, et avec eux dʼusagers – enquêteurs, interprétants –, réunit les conditions matérielles et intellectuelles pour à la fois encadrer et déborder les visions du futur. Nous proposons dans ce texte dʼanalyser la communication du futur en termes de « cadrages interprétatifs », de concurrence des visions entre des récits à visée consensuelle principalement diffusés par les médias et des analyses critiques formulées à leur propos en divers endroits de la société [Miller, 2000].

La médiatisation du changement climatique et du développement durable constitue notre objet dʼétude pour trois raisons. Dʼabord, ces deux phénomènes présentent la caractéristique commune de faire venir à eux toutes sortes de projections dans lʼavenir – du droit de chacun à prétendre à une qualité de vie à la fraternité entre les peuples, en passant par lʼinstauration dʼune relation harmonieuse entre lʼhumanité et la nature [Watson et alii, 2001]. Deuxième raison : la communication médiatique, entendue comme la distribution dʼune même information à un nombre étendu de personnes, offre lʼavantage de mon-trer qui dit quoi à qui, avec quels effets, à des niveaux dépassant dʼemblée la relation dʼindividu à individu [Wolton, 1998]. La médiatisation, parce quʼelle informe massivement, semble être le lien social le plus approprié pour traiter de thèmes immenses tels le réchauffement climatique et le changement géné-ralisé de mode de vie. Troisième et dernière raison : changement climatique et développement durable apparaissent indissociables dans lʼespace médiatique français, et cette spécificité est suffisamment remarquable pour que nous essayions de comprendre un tel entrelacement.

Le titre de ce chapitre, « Les couloirs de la persuasion », constitue une métaphore commode pour traiter ces différents points. Cadres de perception médiatique, lieux de négociation, configuration de parcours dʼexposition,

10

Les couloirs de la persuasion. Usages de la communication,

tissu associatif et lobbies du changement climatique

Emmanuel Paris

Page 249: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR228

ces couloirs seront en quelque sorte notre fil directeur : une fois spécifiés les liens entre changement climatique et développement durable dans lʼespace médiatique français, nous analyserons la façon dont les médias produisent une représentation principalement menaçante du changement climatique et rassurante du développement durable ; nous examinerons ensuite les lobbies et les associations comme lieux de production de conformismes estampillés « changement climatique » et « développement durable » ; enfin, nous trai-terons des parcours de deux expositions traitant du changement climatique et du développement durable et les réactions critiques quʼils ont suscitées auprès de leurs visiteurs.

GENÈSE DʼUN ENTRELACEMENT MÉDIATIQUE

L̓ intrication du changement climatique et du développement durable dans les médias français a connu plusieurs phases, des années 1970 à ce jour, et il semble quʼun tel phénomène soit propre au contexte médiatique hexagonal. De la problématique de la « couche dʼozone » à celle de lʼ« effet de serre » en passant par celle des « pluies acides », du « réchauffement climatique » au « changement climatique », le sociologue Philippe Roqueplo [1993] a donné quelques exemples historiques du rôle joué par les médias pour relier anomalies atmosphériques, dégradation de lʼenvironnement, modes de vie voués à lʼaccélération des échanges et à la consommation de masse, et plus récemment, responsabilité vis-à-vis des générations futures.

Dès le début des années 1970, la presse française stigmatisait déjà le pro-tectionnisme du gouvernement américain sous couvert dʼétudes publiées par quelques-uns de leurs scientifiques sur les modifications non naturelles de la chimie de lʼatmosphère. Le Concorde sʼétait vu alors interdit de survol du territoire américain. Il était supposé contribuer à la destruction de la couche dʼozone et, ce faisant, modifier dangereusement la protection naturelle contre les rayonnements ultraviolets, cause, entre autres effets, de cancers de la peau. Au milieu des années 1970, lʼusage massif de chlorofluorocarbones (CFC) dans les aérosols des ménagères était à son tour dénoncé dans les médias hexagonaux pour ses conséquences néfastes sur la couche dʼozone, avec en perspective les mêmes conséquences épidémiologiques désastreuses.

Dans la première moitié des années 1980, lʼaffaire des pluies acides faisait lʼobjet dʼune couverture conséquente de la part des médias français, relayant une vive polémique issue dʼoutre-Rhin. Constatant le dépérissement rapide des forêts dʼépineux de lʼest de la France, les journaux français reprenaient à leur compte les conférences scientifiques pointant le rôle joué par les gaz dʼéchappement des industries pétrochimiques et des automobiles dans lʼacidi-fication des pluies. À la fin des années 1980, la création par les Nations unies

Page 250: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

229LES COULOIRS DE LA PERSUASION

du Groupe dʼexperts intergouvernemental sur lʼévolution du climat (le GIEC) et la publication de ses premiers rapports ont généré dans la presse française des « unes » alarmistes sur lʼévolution du climat : « La Terre perd la boule » (Libération, 22 juin 1989). À lʼépoque, la fonte anormalement élevée des glaces polaires mentionnée dans les premiers rapports scientifiques de cette instance inspirait aux médias français des considérations sur une élévation dramatique du niveau de la mer imputable au phénomène appelé « effet de serre » : « La Camargue sous les flots ? » (Le Parisien, 19 avril 1990). Si ce sujet était encore controversé dans la communauté scientifique, il apparais-sait aux médias suffisamment alarmant pour permettre toutes sortes dʼalertes sur la vulnérabilité dʼîles et de zones côtières de plus en plus aménagées en France et dans le monde.

Le tournant du Sommet de Rio

Le premier Sommet de la Terre, à Rio en 1992, parce quʼil rassemblait des gouvernants du monde entier autour de questions environnementales, a encouragé les médias français à traiter lʼeffet de serre comme un enjeu déter-minant du développement de la planète au XXIe siècle. Les années 1990 ont donné lieu à toutes sortes de controverses, à propos du changement climatique, dans les médias français : depuis la validité réelle ou infondée dʼun effet de serre, alimenté par les activités humaines, jusquʼau lien entre événements naturels catastrophiques et changement climatique (cyclones très meurtriers en 1998 en Amérique centrale, tempêtes de 1999 en France, canicule de 2003 en Europe de lʼOuest, ouragan Katrina en 2005), en passant par lʼincertitude dʼune adaptation de lʼhumanité à une planète profondément modifiée. « Le réchauffement planétaire va remodeler le paysage français » (Le Monde, 27 novembre 1998). Depuis la conférence de Kyoto en 1997 jusquʼà ce jour, les sujets consacrés au changement climatique dans les médias français se sont notablement accrus, et ils alternent bien souvent avec dʼautres reportages qui soit critiquent la politique du laisser-faire ultralibéral incarnée par les gouvernements américains de Bush père et fils – « Laisser faire le marché ou réguler, enjeu de la nouvelle conférence sur le climat » (Le Monde, 1er et 2 novembre 1998) –, soit décrivent des modes de vie économes, tenant compte dʼimpératifs environnementaux : « Objecteur de croissance » (Libération, 27 juin 2005).

En quête de récits consensuels

Ces présentations bicéphales du problème, à la fois ancré dans la nature (le climat) et dans la culture (le mode de vie), ne sont pas particulières à la médiatisation du changement climatique. Les historiens ont montré combien

Page 251: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR230

les sociétés dʼavant lʼère de la communication avaient fréquemment lié les aléas du temps avec des croyances collectives [Le Roy Ladurie, 1967]. On pourrait dire par conséquent que, en entrelaçant depuis plus de trente ans et aussi systématiquement des phénomènes naturels anormaux à des activités humaines, à des modes de vie, les médias français ont perpétué une doxa, une « parole dominante » à laquelle tout le monde est appelé à se conformer, basée sur la peur et la culpabilité (« nous avons mal agi et nous devons en assumer les conséquences, la plupart difficilement prévisibles et dangereuses »). Sans doute une telle intrication de la problématique du changement climatique avec celle du développement durable tient-elle pour partie aux grands récits mythologiques [Bonnefoy et alii, 1999]. Le changement climatique serait la version la plus récente de ces punitions divines sanctionnant les humains pour leurs mauvais agissements, et le développement durable symboliserait le moyen de racheter ces fautes. Sans doute aussi, les prises de parole répétées du président de la République sur le lien entre réchauffement climatique et responsabilité vis-à-vis des générations futures ont incité les médias français à perpétuer et à renouveler cette intrication [Chirac, 2002]. Mythologies anciennes toujours valables dans lʼimaginaire collectif contemporain, huma-nisme affiché au sommet de lʼÉtat : ce sont là autant dʼéléments constitutifs dʼun « ordre culturel dominant » particulièrement prisé de médias toujours à la recherche de communication consensuelle [Hall, 1994]. Ajuster son point de vue en fonction de ce qui fonde lʼordre établi selon lʼopinion publique, cʼest en effet pour un média le moyen le plus efficace de sʼattirer une audience maximale. Cette quête perpétuelle de synchronisme avec ce que déclare penser le plus grand nombre, notamment en matière de changement climatique et de développement durable, nous conduit à traiter des cadrages interprétatifs des médias à propos de ces deux phénomènes. En effet, les médias ne font pas que concevoir leurs messages en fonction des sondages qui témoignent jour après jour de lʼétat de lʼopinion publique : ils diffusent en retour aux Français des visions particulières de la nature du risque climatique, des réponses à y apporter, et se donnent ainsi les moyens dʼorienter leurs perceptions.

AMBIVALENCE DE LA COMMUNICATION PERSUASIVE DES MÉDIAS

La communication des médias français au sujet du changement climati-que et du développement durable sʼinscrit dans une actualité consacrée plus largement à la médiatisation de lʼinsécurité [Macé, 2002]. En quoi doit-on avoir peur ? Les médias veulent nous persuader de ce qui est préoccupant, de ce qui doit nous inquiéter, notamment quand ils nous indiquent ce qui fait événement dans lʼactualité. Ils ne se font pas la simple caisse de résonance du monde tel quʼil va. Ils construisent aussi un monde représenté, ils mettent en

Page 252: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

231LES COULOIRS DE LA PERSUASION

« récit » le monde [Ricœur, 1991], et, de ce point de vue, la communication faite à propos du changement climatique est très significative.

Violence climatique

Les journalistes privilégient certains régimes de preuve quand il sʼagit dʼénoncer la nature de la violence climatique et les cadres de sa perception. Pour quʼune situation attire lʼattention des journalistes, il faut quʼelle soit « événementialisable », quʼelle réponde dʼemblée à la définition sociale, commercialement rentable, de lʼévénement digne de faire la une des médias [Champagne, 1991]. La « catastrophe », la « crise » constituent pour eux un matériau particulièrement rentable dʼun point de vue commercial [Véron, 1981]. Les médias français traitent le changement climatique en termes essen-tiellement catastrophistes, relevant dʼune violence, exprimant un sentiment dʼurgence, et cela relève dʼun choix de leur part. Tour à tour anomalie naturelle identifiée par les scientifiques, problème révélateur dʼune économie globalisée, catastrophe qui révèle lʼimprévoyance de lʼappareil politique dʼun pays, les significations données à lʼévénement par les médias peuvent être variées et le glissement de lʼune à lʼautre rapide, notamment grâce au choix des illustrations [Paris, 2003]. Pourraient-ils médiatiser le changement climatique autrement ? On peut penser quʼils pourraient plus souvent se faire lʼécho dʼeffets directs du changement climatique positifs, par exemple lʼémergence dʼun « tourisme de la fraîcheur » dans des régions profitant peu jusque-là de ce type de déve-loppement économique.

Confiance en un monde devenu raisonnable

Il serait cependant inexact de résumer les couloirs de la persuasion média-tique à la seule construction dʼun changement climatique violent, insécurisant. Si les médias français traitent du changement climatique essentiellement en termes catastrophistes, ils le relient par ailleurs bien souvent au développement durable dans leurs comptes rendus, ce qui les conduit à produire aussi une autre symbolique, basée sur la confiance en un monde devenu plus raisonnable grâce au développement durable. Cette deuxième facette de la communication persuasive des médias repose sur la description de technologies et de com-portements présentés comme « exemplaires ».

Énergies alternatives, éco-conception de lʼhabitat, tri sélectif, covoitu-rage et vélo citoyen : les reportages traitant de la vie quotidienne à lʼère du développement durable sont désormais nombreux dans les journaux télévisés des chaînes généralistes publiques et privées. L̓ analyse de la couverture du sujet « environnement » dans les journaux télévisés français montre que cette façon de privilégier des sciences, des technologies et des comportements au

Page 253: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR232

détriment dʼautres parce quʼils sont considérés comme écologiquement ver-tueux, est une pratique qui nʼa pas attendu la médiatisation du changement climatique pour exister [de Cheveigné, 2000]. Selon les périodes, de 1950 à nos jours, les exemples de personnes ou de situations concrètes présentés à la télévision pour parler du respect de lʼenvironnement et le montrer ont varié. Paysans, campagnards, citadins, là pour transformer le paysage en lieu de richesses matérielles, là pour embellir le paysage, là pour préserver le paysage des dégradations : les figures médiatiques des comportements écologistes exemplaires ont évolué selon les contextes historiques, mais elles ont pour point commun dʼassurer à la collectivité que la relation entre environnement et population est saine. Cette évolution des figures « écologiquement correc-tes » semble atteindre un paroxysme aujourdʼhui. Nicolas Hulot, personnalité particulièrement médiatisée, dont la cote dʼaffection auprès des Français nʼa dʼégale que celle dʼun Zidane ou dʼun abbé Pierre, met en scène, par exemple dans ses émissions mensuelles Ushuaïa, une sacralisation totalement assumée du milieu naturel [Hulot et alii, 2005].

Du poids des stéréotypes

Bien souvent les médias français, tout à leurs efforts pour construire un couloir de la persuasion qui à la fois fasse peur et rassure, qui insiste sur la violence climatique pour mieux la relativiser, oublient – ou choisissent de ne pas traiter – des questions pourtant fondamentales en matière de changement climatique et de développement durable : ils ne rendent tout simplement pas compte des injustices sociales engendrées par ces deux phénomènes. Les relations Nord-Sud sont ainsi peu traitées, alors que nombre de travaux mon-trent lʼinégalité face au risque climatique selon que lʼon vit dans lʼhémisphère Nord ou lʼhémisphère Sud [Van Ypersele, 2006]. Il en va de même quant au développement durable : les exemples de « bonne conduite » montrés par les médias mettent souvent en scène des Français appartenant aux classes aisées, capables dʼen assumer le coût financier. Ces représentations médiatiques font fi de la difficulté des populations pauvres à mettre en œuvre les préceptes dʼun mode de vie écologique, quand les études de lʼInstitut français de lʼen-vironnement (lʼIFEN) et de lʼAgence de lʼenvironnement et de la maîtrise de lʼénergie (lʼADEME) pointent régulièrement lʼinégale prise de conscience de la nécessité de changer son mode de vie selon que lʼon habite dans des quartiers défavorisés ou dans les centres-villes [Dobré et Caraire, 2000].

Ce que nous avons appelé « couloirs de la persuasion médiatique » – que nous aurions pu aussi désigner comme « vision conformiste » ou « ordre culturel dominant » – est tel que les médias peuvent donc en venir à nier les réalités sociales du changement climatique et du développement durable dans la mesure où elles ne cadrent pas avec leur perception de ce qui fait consensus.

Page 254: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

233LES COULOIRS DE LA PERSUASION

Cʼest vrai quand nos médias traitent de ces sujets dans lʼhexagone, mais cʼest encore plus flagrant quand ils traitent de ces phénomènes à lʼétranger. La couverture médiatique française du premier anniversaire de lʼinondation de la Nouvelle-Orléans par lʼouragan Katrina est à cet égard édifiante. Tout en continuant à propager la vision dʼune violence climatique synonyme dʼinsé-curité, les médias ont privilégié les reportages aux côtés de représentants des forces de lʼordre chargées de réprimer les comportements inciviques. Ils ont insisté sur un supposé « chacun pour soi » – affirmation après tout normale au pays de lʼargent roi et des self-made men – et ont passé sous silence les actes individuels et collectifs de résilience, les multiples solidarités qui se sont mises en place spontanément pour reconstruire les quartiers et palier les déficiences de lʼÉtat fédéral [Bordreuil et Lovell, 2006].

EN COULISSE : COMMUNICATION DES LOBBIES ET DES ASSOCIATIONS

Cette fabrication du consensus médiatique à propos du changement climati-que et du développement durable ne relève pas exclusivement des médias : les associations et les lobbies y jouent aussi un rôle prépondérant. Communiquant sur le changement climatique, ils poursuivent un même double objectif :

— sensibiliser lʼopinion publique de telle manière quʼelle adhère à leur perception du changement climatique et que la politique quʼils prônent en matière de développement durable soit considérée comme nécessaire ;

— établir un « dialogue constructif » avec les décideurs pour que ces solutions soient mises en œuvre.

En France, ils sont particulièrement actifs pour persuader – ou dissua-der – lʼopinion publique que lʼénergie nucléaire est une « énergie propre », capable dʼoffrir un développement économique qui ne soit plus basé sur des énergies fossiles massivement émettrices de gaz à effet de serre [Mons, 2006]. Nous proposons par conséquent dʼétudier quelques-unes de leurs stratégies communicationnelles.

Les lobbies

À la racine de la politique de persuasion menée par les lobbies du change-ment climatique, il y a lʼorganisation pour leur compte par des grandes agences de communication spécialisées (par exemple, Euro RSCG Corporate) dʼune myriade de colloques, principalement sur Paris où se trouvent les centres de décision [Grossman et Saurugger, 2004]. Ces nombreuses manifestations ont dʼabord pour fonction de réunir des scientifiques, des industriels et des hom-mes politiques autour de débats extrêmement sélectionnés. Si lʼon considère la filière nucléaire, des scientifiques – qui sont parfois des prix Nobel –, des

Page 255: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR234

membres du Commissariat à lʼénergie atomique (CEA) interviennent dans des tables rondes aux côtés dʼélus et de membres des directions de grandes entreprises telles quʼEDF ou le groupe AREVA pour traiter des problèmes liés aux déchets, à lʼavenir de la politique énergétique en France, des problèmes technologiques posés par les centrales de quatrième génération. Outre la reproduction dʼun microcosme, ces nombreux colloques ont pour utilité de déboucher sur la production de documents de synthèse qui sont envoyés ensuite aux journalistes scientifiques de la presse quotidienne nationale (Le Monde, Libération, Le Figaro…) et/ou de grand poids régional (Ouest-France – le plus gros tirage de la presse écrite française) pour signaler le renouvellement incessant du consensus. La même méthode – haute fréquence des conféren-ces et colloques près des centres de décision, puis envoi de documents aux parlementaires et aux journalistes spécialisés – est employée par les lobbies pétroliers et céréaliers des biocarburants.

Le cercle traditionnel des experts de la politique énergétique sʼélargit cependant ces dernières années, et cet élargissement doit beaucoup à la com-munication. Pendant longtemps, un petit cercle de 200-300 personnes sys-tématisait les allers-retours entre les services ministériels de lʼIndustrie, des Finances, les instances internationales, les cabinets des directions du CEA civil et militaire, les multiples filiales dʼAREVA ou de Total, lʼÉcole des mines, Polytechnique, les laboratoires CNRS de recherche en physique des particules (Grenoble, Saclay, CERN). Ce club si fermé à lʼorigine est en train de muer, et suscite désormais dans lʼespace médiatique de nouvelles capillarités. Face à un Jean-Marc Jancovici, consultant en politique énergétique, pro-nucléaire et dont le site est fréquemment cité dans les blogs des internautes intéressés par les questions climatiques, un Benjamin Dessus, président et fondateur de lʼassociation Global Chance, est tout aussi présent sur les sites Internet antinucléaires – à propos notamment du rapport affirmant lʼobsolescence du générateur EPR, dont il est coauteur. À la différence du cercle traditionnel, ces experts sont marginaux, à lʼinterface des filières industrielles, du monde politique et des associations de la « société civile ». Ainsi, Global Chance est prestataire dʼétudes pour Greenpeace, tout comme peut lʼêtre le Réseau Action Climat-France (RAC-France) ou Négawatt, dont Greenpeace publie les rapports sur son site et les diffuse auprès de la presse.

Les associations

Les associations procèdent symétriquement, en organisant la contre-exper-tise et en misant sur des experts « communicants » pour mieux solliciter ensuite lʼinfrastructure médiatique. Un travail dʼinvestigation est mené, sʼappuyant la plupart du temps sur des documents dʼentreprise envoyés par des « lanceurs dʼalarme », employés de la filière industrielle [Bernstein et Jasper, 1998].

Page 256: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

235LES COULOIRS DE LA PERSUASION

Ces documents peuvent être rendus publics par les associations – la plupart animées par quelques bénévoles dont ce nʼest pas le métier principal – alors même que les journalistes ne le feraient pas dʼeux-mêmes, notamment en raison des investissements lourds du groupe Total-Elf-Fina ou EDF auprès des centrales dʼachat dʼespaces publicitaires. Le réseau « Sortir du nucléaire » a par exemple récemment dévoilé un rapport dʼétudes EDF sur lʼEPR indiquant quʼil nʼest pas dimensionné pour supporter un scénario 11-Septembre ; ce rapport a été repris par nombre de titres de la presse écrite dans des articles consacrés aux débats publics organisés pour discuter des enjeux de ce nouveau réacteur. En 1999 déjà – soit deux ans après sa création –, le réseau avait rendu public lʼincident du Blayais sur la base dʼinformations émanant dʼemployés de la centrale (les terrains contigus au bâtiment abritant le réacteur avaient été inondés durant la tempête de décembre 1999 par des vagues qui étaient passées par-dessus la digue).

Il sʼagit ici dʼun second type dʼélargissement du cercle des experts habilités (par les médias, par le sérail lui-même) à accéder à lʼespace médiatique où se forgent les représentations collectives du changement climatique et du rôle que doit y jouer le nucléaire. Il concerne surtout des ONG, en particulier anglo-saxonnes, qui jouent un rôle central dans la communication des associations au sujet du changement climatique. Cette place dominante peut sʼexpliquer par la culture du lobbying de ces organisations ; Greenpeace définit son management par « secteurs à couvrir », et il sʼagit pour chaque responsable dʼinfluer sur tout acteur public – décideur, relais dʼopinion – concerné par la thématique environnementale quʼil a en charge. À la fois très populaire (lʼONG revendi-que 85 000 adhérents payants, à comparer aux 15 000 adhérents de « Sortir du nucléaire ») et élitiste (seuls quelques militants employés à plein temps interviennent au nom de lʼassociation), Greenpeace fait donc le lien entre les petites organisations à la vie associative peu fournie, très parisiennes, bénéficiant de facilités dʼentrée dans lʼespace médiatique, tel RAC-France, et une nébuleuse dʼassociations en province. Ces dernières sont souvent constituées de riverains des sites environnementaux ou industriels affectés par le changement climatique ou qui constituent un risque environnemental. On peut y voir un héritage de lʼengagement des Français dans les structures collectives de proximité, particulièrement puissant durant les années 1970. Si les adhérents de ces associations à lʼancrage local nʼont pas le même capital socioculturel que ceux des petites structures proches des centres de décision à Paris, ils utilisent tout comme eux les ressources offertes par les nouvelles technologies de lʼinformation et de la communication (les NTIC) pour inter-venir dans lʼespace médiatique dédié à la mise en signification du changement climatique [Ollitrault, 1999]. L̓ expérience vécue y est une forme dʼexpertise revendiquée comme équivalente, voire supérieure, à lʼanalyse logique des travaux des contre-experts.

Page 257: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR236

Supériorité des lobbies industriels

Il reste que les politiques menées au sujet du changement climatique et du développement durable doivent encore peu aux opérations de persuasion des associations, et beaucoup à celles des lobbies industriels. Cela ne signifie pas que lʼintervention des groupements dʼintérêts privés dans les couloirs des lieux de pouvoir débouche mécaniquement sur des décisions favorables aux intérêts économiques quʼils représentent. Aux dires des décideurs que nous avons pu rencontrer lors de nos enquêtes, les lobbies industriels rencontrent des succès très inégaux. Ces variations sʼexpliquent par la grande diversité des intérêts en présence à lʼintérieur même des filières industrielles. Elles se justifient aussi par les différentes configurations des lieux de pouvoir : leur concentration diffère à Paris et à Bruxelles, et les professionnels de la persuasion sʼorganisent en conséquence. Ces efforts pour sʼadapter aux formes sans cesse renouvelées des événements et à la topographie variée des lieux de pouvoir coûtent cher et avantagent par conséquent les groupements dʼintérêts privés. La puissance de frappe communicationnelle des grands groupes industriels est par ailleurs sans commune mesure avec celle des services publics. À titre dʼexemple : lʼADEME a vu son budget rogné de 30 % depuis trois ans quand, durant la même période, le budget publicitaire dʼEDF dans la presse quotidienne nationale a augmenté de 73 %, passant de 2,6 à 4,5 millions dʼeuros – et le nombre de pages de publicité consacrées à cette entreprise sʼest accru de 91,4 % (source : TNS Media Intelligence). Si lʼélargissement des cercles dʼexperts participant dans lʼespace médiatique à des opérations de persuasion concernant le changement climatique et le développement durable relève sans doute dʼun renouvellement plus général des « réservoirs à idées » français [Desmoulins, 2002], la prédominance des groupements dʼintérêts privés dans le cours des décisions de politique publi-que environnementale reste, pour cette raison au moins, incontestée. Cette supériorité de la politique de persuasion menée par les lobbies industriels peut se mesurer dans les médias par la prédominance du discours producti-viste, présentant lʼénergie comme une source quasi inépuisable, au détriment dʼargumentaires démontrant le contraire et concluant à la nécessité de mieux maîtriser la demande.

Lobbies et, dans une moindre mesure, associations parviennent à persuader les décideurs, les relais dʼopinion et les médias des choix à faire en matière de changement climatique et de développement durable. Des décisions sont prises au nom de la collectivité à la suite de campagnes de communication et de relations publiques dont cette dernière nʼa bien souvent pas connaissance. Une nouvelle question, sans doute la plus importante, doit être posée : quels usages sont faits de la communication pour expliquer directement aux Français ce que sont le changement climatique et le développement durable ? Et comment

Page 258: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

237LES COULOIRS DE LA PERSUASION

réagissent-ils aux visions du changement climatique et du développement durable que les professionnels de la communication leur proposent ?

EXPOSITIONS ENVIRONNEMENTALISTES ET CITOYENNETÉ

Pour traiter la question de lʼéducation civique au changement climatique et au développement durable dans le cadre dʼopérations de communication, nous avons analysé les expositions « Climax » et « Nouveaux paris, la ville et ses possibles », qui se sont tenues ces dernières années à la Cité des scien-ces et de lʼindustrie et au Pavillon de lʼArsenal1. « Climax » avait pour sujet les politiques dʼaménagement du territoire possibles à lʼère du changement climatique, et « Nouveaux paris… » se proposait de traiter du renouvellement de lʼurbanisme parisien dans les prochaines décennies ; toutes deux avaient pour point commun de publiciser des discours faisant autorité et, dans une moindre mesure, les rationalités qui les sous-tendent. La Cité des sciences, Gaz de France, lʼADEME et des climatologues dʼune part ; le Pavillon de lʼArsenal, la Mairie de Paris, des architectes-urbanistes et des démographes dʼautre part : un collège mixte de communicants, de scientifiques, dʼexperts et de décideurs présentait, dans les deux cas, des visions de lʼécosystème global en général et du développement des villes en particulier. Les citoyens, pour lʼoccasion visiteurs dʼun dispositif scénographié, étaient appelés à sʼy référer pour envisager leur conduite future. Par leur dimension éthique, sociale et collective, ces expositions voulaient illustrer la question du vivre-ensemble et mettaient à lʼépreuve le musée dans sa vocation revendiquée de faire de ses murs un lieu dʼincitation à la citoyenneté.

Ces prospectives du futur, dans la mesure où elles étaient exposées pour engager une réflexion politique, pour initier un mode de vivre-ensemble « convenable », méritent que nous nous demandions si les deux musées sont parvenus à susciter un débat, et si tel est le cas, si les visiteurs y ont occupé une place centrale. Autrement dit, est-ce que le fait pour lʼinstitution muséale de programmer des expositions à vocation citoyenne initie réellement en ses murs un espace public de citoyenneté ?

Des visiteurs perplexes

La plupart des visiteurs rencontrés lors de notre enquête se sont dépla-cés jusquʼaux musées parce quʼils étaient soucieux du devenir des sociétés

1. « Climax, changement climatique » du 28 octobre 2003 au 3 juillet 2005, « Nouveaux paris, la ville et ses possibles » du 17 mars 2005 au 31 août 2005. Étude des publics réalisée auprès dʼune trentaine de visiteurs des deux expositions, à base dʼentretiens semi-directifs et dʼobservations de comportements de visite.

Page 259: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR238

industrialisées, et préoccupés en premier lieu par lʼévolution des rapports quʼel-les entretiennent à la nature. Sensibilisés aux problèmes environnementaux, mais ne sʼestimant cependant pas suffisamment informés, ils voulaient saisir cette double opportunité offerte par « Climax » et « Nouveaux paris… ». Le succès de « Climax » en termes de fréquentation (plus de 450 000 visiteurs : une des expositions de la Cité des sciences les plus visitées depuis la création du musée) indique que, au lieu dʼêtre discrédité a priori parce que trop peu informatif, le discours institutionnel suscitait au contraire de lʼintérêt. De fait, au sortir des deux parcours dʼexposition, les personnes interrogées se référaient systématiquement à lʼavis des experts pour donner ensuite leur sentiment. Ils avouaient cependant après coup quʼils nʼavaient pas compris le sens profond de ces expositions. Était-ce une manifestation artistique, la présentation dʼactions publiques déjà en cours, ou la publicisation de projets de cabinets dʼurbanistes répondant à une commande ? Leur perplexité sʼexprimait dʼautant plus quʼils ne parvenaient plus incidemment à croire dans les recom-mandations des experts. Cette déception sur la forme prise par lʼexposition se doublait dʼune frustration : celle de ne pas pouvoir repartir du musée avec, en tête, des gestes à faire qui pouvaient limiter voire faire cesser les dégra-dations de lʼenvironnement. Ce nʼest quʼaprès cinq mois dʼexposition que la Cité des sciences et de lʼindustrie, alertée par des études de public, a décidé dʼajouter au parcours de « Climax » un mur sur lequel lʼADEME donnait des suppléments dʼinformation et dressait une liste de « gestes écologiques » à accomplir au quotidien.

« Climax » et « Nouveaux paris… » traitaient de lʼhumanité confrontée à un avenir essentiellement problématique, et de la manière dont elle pourrait éventuellement sʼen sortir. Les solutions proposées ne montraient jamais des collectifs en train dʼœuvrer pour le changement – ce qui est pourtant le registre normal de lʼaction publique –, mais des artefacts dʼhumains déambulant dans des espaces déjà réaménagés. Cette déshumanisation de lʼaction publique, au profit de la gestion du futur par une prolifération dʼobjets, a contribué à faire des visions proposées par les experts des utopies inconvenantes pour les visiteurs. Le choix de sous-traiter à des experts de la numérisation la pro-duction de « Climax » avait été, entre autres raisons, motivé par la volonté de rendre « spectaculaire le risque climatique » [Lahalle, 2005]. Celui de confier une exposition sur les possibilités dʼun aménagement écologique de Paris à un artiste japonais et à un architecte-urbaniste français sʼétait fondé notamment sur leur capacité à « dépayser » les habitués dʼun lieu [Michelin, 2005]. Le choix de montrer des lieux réaménagés, plutôt que les collectifs qui ont œuvré à leur réforme – décision commune aux deux récits –, a eu pour principal effet de décrédibiliser ces scénarisations. Les visions proposées par ces experts, dont lʼune des compétences reconnues est de performer le réel, ont été régulièrement taxées dʼirréalistes par les visiteurs que nous avons

Page 260: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

239LES COULOIRS DE LA PERSUASION

rencontrés durant notre enquête : « Il faudrait indiquer plus concrètement quelles sont les solutions pour améliorer la question du territoire. Quʼest-ce qui va se passer ? On montre plutôt ce quʼil faut faire, mais pas ce quʼon va faire » ; « ce quʼils montrent dans lʼexposition, jʼai lʼimpression que ça ne va pas se faire » ; « le changement climatique est bien présenté, mais les solutions sont trop utopiques » ; « la souris nʼest pas maniable et lʼinterface austère. Il faudrait des images concrètes et qui marquent les esprits ».

Débattre sans se parler

La défiance éprouvée par les visiteurs à lʼégard des récits proposés par les deux expositions sʼexplique par ailleurs par la condition dʼisolement dans laquelle ils se sont vite trouvés une fois sur le parcours, alors que précisément ils étaient venus à lʼexposition pour en sortir. De plus de quatre-vingts à regar-der passivement mais ensemble le film quelques mètres plus tôt, les visiteurs de « Climax » pouvaient devenir actifs mais discriminés puisque répartis en tout petits groupes de nombre insuffisant, à raison de cinq tables pouvant accueillir chacune deux ou trois personnes, dans la salle du « simulateur ». Quant à « Nouveaux paris… », la ventilation des sous-thèmes sur trois étages avec, pour chacun, une scénographie alvéolaire des contenus séparait de fait les visiteurs.

Cette conception nʼétait pas celle du forum, puisquʼil sʼagissait en lʼoccur-rence dʼune communication décidée unilatéralement et à laquelle une foule pouvait sʼexposer, mais en silence. Lʼoral ne primait pas dans les parcours de « Climax » et de « Nouveaux paris… », lʼune préférant à la discussion la visualisation dʼimages numérisées animées et lʼinteractivité avec des interfaces complexes, lʼautre la lecture de cartes, de maquettes et de graphiques. Cette observation soulève un problème de fond : peut-on débattre de lʼinquiétude quʼinspire le changement climatique et de la confiance qui émane de la mul-tiplication dʼactions labellisées « développement durable » sans se parler (au-delà des relations interpersonnelles) des raisons pour lesquelles chacun se sent inquiet et/ou confiant ?

Notre enquête a permis dʼavoir accès à certains écrits envoyés a posteriori par des visiteurs de « Climax » aux acteurs du processus de conception-réalisa-tion de lʼexposition : « Très convaincu de lʼimportance de la sensibilisation du grand public au changement de climat, […] je suis allé à lʼexposition “Climax” une première fois, pour préparer une visite avec mes petits-enfants. Jʼai été si étonné, pour ne pas dire effaré, par le contenu de lʼexposition, que jʼy suis retourné une deuxième fois pour prendre des notes en vue de faire part de mes réactions aux organisateurs ; nʼayant eu le temps de transcrire ces notes manuscrites que quinze jours après cette seconde visite, jʼai eu des scrupules devant leur sévérité et suis allé une troisième fois à la Villette. Voici mes

Page 261: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR240

commentaires » ; « je suis bouleversé de ma visite à lʼexposition “Climax” à la conception de laquelle vous avez, je crois, participé. Bouleversé et en colère, car lʼinsuffisance des données présentées et lʼorientation qui lui est donnée font de ce travail un outil à désinformer. Vu la dimension et la gravité du problème traité, cʼest vraiment très grave » ; « on ronronne également que “depuis plusieurs années, Gaz de France est impliqué dans une démarche de développement durable. […] Le principal enjeu pour le groupe Gaz de France consiste à maîtriser tout au long de la chaîne gazière ses propres émissions de gaz à effet de serre, mais surtout à encourager et permettre à ses clients de limiter leurs émissions en les accompagnant dans leur consommation éner-gétique”. Ce qui revient à dire que, puisque Gaz de France sʼinscrit dans un engagement volontaire dans la réduction de gaz à effet de serre, lʼindividu est coupable de ne rien faire. Ce qui revient à dire que lʼindividu, dans son quotidien, dans le simple fait quʼil soit vivant et quʼil respire, est considéra-blement nuisible à la planète ».

OPINIONS ET/OU SAVOIRS

Communiquer au sujet du changement climatique et du développement durable, cʼest organiser son récit de telle façon que ce récit manifeste osten-siblement les signes du pouvoir – pouvoir conféré au savant qui sait ce quʼil est raisonnable de dire et penser, pouvoir conféré à lʼindustriel qui sait ce quʼil est raisonnable de faire pour une société du plein emploi, pouvoir conféré à lʼhomme politique qui sait ce quʼil est raisonnable de décider pour le bien-être de la collectivité – et quʼil discrédite tous les récits du futur jugés « déraisonna-bles » [Bourdieu, 1982]. Aux cadrages interprétatifs à prétention consensuelle diffusés dans les médias répondent des débordements, des analyses critiques, qui portent moins sur les définitions de ce que sont le changement climatique et le développement durable que sur les incohérences dans la façon dʼen par-ler. Les exemples foisonnent et concernent aussi bien les climatologues, les journalistes, les publicitaires que les internautes lambda.

Que dire du film Le jour dʼaprès ?

Le cas de la diffusion en France, à partir de mai 2004, du film Le jour d’après, récit dʼune catastrophe glaciaire sʼabattant en quelques jours sur la moitié nord des États-Unis, consécutive au ralentissement puis à lʼarrêt brutal de la circulation du Gulf Stream, est exemplaire dʼun cadrage interprétatif qui se veut consensuel et génère finalement des désaccords. Précédant de quelques jours sa sortie en salle, des entretiens publiés dans la presse écrite française avec Jean Jouzel, climatologue de renom, tendaient à discréditer

Page 262: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

241LES COULOIRS DE LA PERSUASION

un tel scénario, car « ce que le film décrit est très peu probable » et « cet événement cinématographique risque de jeter le trouble dans une opinion publique encore peu avertie », concluant que « la science cède vite le pas à la science-fiction » (L’Express, 24 mai 2004). Discréditer la science-fiction, « impure » parce quʼelle jetterait le discrédit sur la science climatologique en optant pour la déraison (en lʼoccurrence, mettre en scène une glaciation alors quʼun réchauffement est plus probable) : cette prise de parole de Jean Jouzel dans lʼespace public médiatique cherchait effectivement à faire autorité. Or ce point de vue nʼest pas partagé par toute la communauté scientifique : Myles Allen, un climatologue anglais tout aussi renommé au Royaume-Uni, prenait quelques jours après lʼexact contre-pied à propos des effets supposés de ce film de science-fiction sur sa discipline, les qualifiant de « vertueux » dans la mesure où ce film pouvait être un très bon support pédagogique (Nature, n° 429, mai 2004). Deux années plus tard, le parti pris du film Le Jour d’après ne semble dʼailleurs plus si déraisonnable aux climatologues français, lʼhypo-thèse dʼun arrêt brutal du Gulf Stream redevenant pertinente après la parution de travaux sur lʼécoulement anormalement rapide des glaciers arctiques dans lʼocéan Atlantique (Le Monde 2, 12 août 2006).

Le fait pour un climatologue de renom comme Jean Jouzel de rejeter dʼemblée un film traitant du changement climatique parce quʼil ne montre pas ce qui est considéré par la discipline, à ce moment-là, comme le futur probable illustre une caractéristique forte de la communication du change-ment climatique et du développement durable dans les médias français. Ce scientifique est invité par le système médiatique à sʼexprimer non pas pour sa compétence de savant, mais comme personne susceptible dʼavoir une opinion à propos dʼun produit de communication, quand bien même il ne serait pas rôdé à la critique des médias. Ainsi, producteur premier dʼinformations au sujet du changement climatique, le scientifique occupe pourtant une position précaire dans lʼespace public tant il est contraint dʼemprunter des cadres de perception qui ne sont pas les siens.

Une exemplarité problématique

La régression est sans fin, puisque les médias eux-mêmes sʼavèrent occuper une position précaire dans lʼespace public. Communiquant au sujet du change-ment climatique et/ou du développement durable, ils produisent des cadrages interprétatifs à visée consensuelle absolument contradictoires, susceptibles par conséquent de donner lieu à des contestations radicales. Le groupe TF1, première chaîne de télévision en termes dʼaudience, peut ainsi tout à la fois programmer des émissions environnementalistes prescrivant des comporte-ments respectueux, telles Ushuaïa ou Terre mère (sur LCI), et la retransmission de courses de Formule 1, véhicules extrêmement énergétivores.

Page 263: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR242

À lʼintérieur même des rédactions, les journalistes « spécialisés » dans le changement climatique et le développement durable peuvent tenir un discours à visée conformiste, qui porte en lui cependant les germes de son déborde-ment. Ainsi, pour répondre à Michel Field, présentateur du 18-20 heures sur LCI, lui demandant fin août 2006 si lʼété écoulé avait été anormal, Jean-Louis Caffier sʼest référé aux communiqués de Météo France annonçant dès le mois de juin que lʼété 2006 serait « anormalement froid » et il a conclu que les « prévisions à long terme sont désormais fiables », notamment parce quʼelles sʼappuient sur des « données chiffrées, donc objectives ». Quelques jours plus tard cependant, Météo France a publié un nouveau communiqué indiquant que lʼété 2006 était statistiquement le deuxième été le plus chaud de lʼhistoire de la météorologie, juste après lʼété caniculaire de 2003.

L̓ emploi dʼun discours consensuel dans les encarts publicitaires peut aussi discréditer dʼemblée lʼannonceur en révélant sa partialité dans la définition de la cause commune. Les concepteurs-rédacteurs de lʼagence de publicité Euro RSCG C&O ont par exemple choisi en juillet 2005 pour une campagne publicitaire le slogan « Vous êtes lʼénergie de ce monde. Nous sommes fiers dʼêtre la vôtre », et dʼajouter : « Le plus important dans lʼénergie, cʼest ce que vous en faites. » Deux phrases qui tentaient de jouer sur les fibres citoyenne et environnementaliste, mais qui disaient lʼexact contraire puisquʼil sʼagis-sait, par cette campagne de presse, de valoriser une entreprise publique sur le point dʼêtre privatisée, cʼest-à-dire déliée de la collectivité pour appartenir à un cercle plus restreint dʼactionnaires, motivés par des considérations avant tout financières.

Sur des forums de discussion Internet, il est tout aussi possible de voir cette articulation entre consensus et dissensus, exemplarité et discrédit. Citons par exemple le fait dʼêtre propriétaire dʼune Toyota Prius, voiture à motorisation hybride popularisée par les stars dʼHollywood. Produit symbolisant la réussite du développement durable ? Pis-aller qui exempte trop facilement son conduc-teur dʼun engagement plus profond en faveur du respect de lʼenvironnement ? En tout cas, les propriétaires de Prius qui témoignent sur la toile à propos de lʼexemplarité de leur acte dʼachat sont très souvent confrontés à des réactions virulentes de la part dʼautres internautes.

CONCLUSION

Nombreux sont les défis auxquels devraient se confronter les professionnels de la communication. L̓ injonction formulée par les institutions et la société civile de mettre en débat le changement climatique, le développement dura-ble et leurs interprétations, se heurte bien souvent, lors de la mise en œuvre dʼopérations de communication, à des choix organisationnels bridant la mise

Page 264: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

243LES COULOIRS DE LA PERSUASION

en relation des interlocuteurs potentiels. À lʼagora, lʼespace public qui organise sans filtre les échanges de points de vue, ont succédé désormais toutes sortes de couloirs de la persuasion, de dispositifs qui étouffent la discussion à trop vouloir la « rationaliser » et marginalisent toute position dissonante.

Organiser le dissensus nʼest pas polémiquer. La difficulté dʼannoncer au grand public des phénomènes démesurés nécessite que ne soit plus remis en question le point de vue très majoritairement partagé par la communauté cli-matologique sur le rôle néfaste des gaz à effet de serre produits par les activités humaines dans lʼévolution du climat depuis cinquante ans. Entretenant des polémiques parfois teintées de mauvaise foi, les médias brouillent lʼinitiative extraordinairement rare que tentent les climatologues depuis la création du GIEC : celle de sʼadresser directement aux décideurs, aux relais dʼopinion et à lʼopinion publique malgré leur réticence coutumière à se confier aux journalistes.

Plutôt que dʼénoncés disant ce que le futur sera – selon une description rigoureuse des faits et en confrontant les diverses interprétations possibles –, lʼinfrastructure médiatique est demandeuse dʼopinions : de considérations personnelles sur le ressenti que chacun éprouve face à des produits de com-munication. Ce mode de fonctionnement se montre contre-productif pour la diffusion et lʼappropriation collective des connaissances. En optant pour lʼopinion plutôt que pour le savoir, pour le sensationnel plutôt que pour la vie comme elle va, la présentation de documents plutôt que le partage des savoirs par des échanges oraux, la publicité et la polémique plutôt que la pédagogie, la communication du changement climatique et du développement durable instaure des couloirs de la persuasion : des visions conformistes, un ordre culturel dominant et des analyses critiques qui, loin de la favoriser, perturbent la décision collective portant sur ce que demain devra être et sur la manière de sʼy prendre.

RÉFÉRENCES BIBLIOGRAPHIQUES

BERNSTEIN M. et JASPER J. M. (1998), « Les tireurs dʼalarme dans les conflits sur les risques technologiques. Entre intérêts particuliers et crédibilité » (1996), Politix, n° 44, 4e trimestre, p. 109-134.

BONNEFOY Y. (dir.) (1999), Dictionnaire des mythologies et des religions des sociétés traditionnelles et du monde antique, Flammarion, Paris.

BOURDIEU P. (1982), Ce que parler veut dire. L’économie des échanges linguistiques, Fayard, Paris.

BORDREUIL S. et LOVELL A. (2006), « La Nouvelle-Orléans, un nouvel élan », Libération, 22 septembre, p. 28-29.

CHIRAC J. (2002), Discours de M. Jacques Chirac, Président de la République devant l’Assemblée plénière du Sommet mondial du développement durable, service de communication de lʼÉlysée, Paris.

Page 265: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

LES MODÈLES DU FUTUR244

DESMOULINS L. (2002), « French public policy research institutes and their political impact as another illustration of the French exception », dans MCGANN J. et WEAVER R. (dir.), Think Tanks and Civil Societies. Catalysts for Ideas and Action, Transaction Publishers, New York, p. 139-167.

CHAMPAGNE P. (1991), « La construction médiatique des malaises sociaux », Actes de la recherche en sciences sociales, n° 90, p. 64-75.

DE CHEVEIGNÉ S. (2000), L’Environnement dans les journaux télévisés. Médiateurs et visions du monde, CNRS Éditions, Paris.

DOBRE M. et CARAIRE C. (2000), La Sensibilité écologique des Français à travers l’opinion publique, Institut français de lʼenvironnement, Paris.

GROSSMAN E. et SAURUGGER S. (2004), « Les groupes dʼintérêt français : entre exception française, lʼEurope et le monde », Revue internationale de politique comparée, vol. 11, n° 4, p. 523-532.

HALL S. (1994), « Codage/décodage », Réseaux, n° 68, novembre-décembre, p. 29-39.HULOT N., RAHBI P. et ZARACHOWICZ W. (2005), Graines de possibles : regards croisés sur

l’écologie, Calmann-Lévy, Paris.LAHALLE M.-P. (2005), « Climax / expo simulation / changement climatique », présentation de

lʼexposition le 18 mai 2005 lors du séminaire de lʼIDDRI sur les risques climatiques, en ligne sur http://www.iddri.org/iddri/telecharge/climat/risques_climatiques/s05-2_lahalle.pdf

LE ROY LADURIE E. (1967), Histoire du climat depuis l’an mil, Flammarion, Paris.MACÉ E. (2002), « Le traitement médiatique de la sécurité », dans MUCCHIELLI L. et ROBERT

Ph. (dir.), Crime et sécurité. L’état des savoirs, La Découverte, Paris, p. 33-41.MICHELIN N. (dir.) (2005), Nouveaux Paris. La ville et ses possibles, Éditions du Pavillon de

lʼArsenal et A. & J. Picard, Paris.MILLER C. A. (2000), « The dynamics of framing environmental values and policy : four

models of societal processes », Environmental Values, n° 9, p. 211-233.MONS L. (2006), Les Enjeux de l’énergie. Pétrole, nucléaire, et après ?, Larousse, Paris.OLLITRAULT S. (1999), « De la caméra à la pétition Web. Le répertoire médiatique des

écologistes », Réseaux, n° 98, p. 153-185.PARIS E. (2003), « Décrire, illustrer, convaincre. Les usages médiatiques contradictoires des

images de la modélisation climatique », Annales des Ponts et Chaussées, n° 107-108, juillet-décembre, p. 63-72.

RICŒUR P. (1991), Temps et récit, tome 1. L’intrigue et le récit historique, Le Seuil, « Points-essais », Paris (1re édition 1983).

ROQUEPLO P. (1993), Climats sous surveillance. Limites et conditions de l’expertise scientifique, Economica, Paris.

VAN YPERSELE J.-P. (dir.) (2006), Changements climatiques. Impasses et perspectives, Syllepse, Paris.

VÉRON E. (1981), Construire l’événement : les médias et l’accident de Three Miles Island, Éditions de Minuit, Paris.

WATSON R. T. et THE CORE WRITING TEAM (dir.) (2001), Climate Change 2001 : Synthesis Report. Contribution of Working Groups I, II, and III to the Third Assessment Report of the Intergovernmental Panel on Climate Change, Cambridge University Press, Cambridge.

WOLTON D. (1998), Penser la communication, Flammarion, Paris.

Page 266: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

IntroductIon 245

Amy dahan

daLmedIco

est directeur de recherche au CNRS et directrice adjointe du Centre Alexandre Koyré, où elle dirige le master « Histoire des sciences, technologies, sociétés » de l’EHESS. Spécialiste de l’histoire des sciences et des milieux mathématiques dans leur contexte politique et culturel, ses travaux ont porté dernièrement sur la seconde moitié du xxe siècle : mathématiques appliquées, interactions des mathématiques avec d’autres disciplines, théorie du chaos, modèles et pratiques de modélisation, changement climatique... Elle a écrit ou assuré la direction de plusieurs ouvrages dont les plus récents sont Les sciences pour la guerre, 1940-1960, en collaboration avec D. Pestre (Éditions de l’EHESS, Paris, 2004), et Jacques-Louis Lions, un mathématicien d’exception entre recherche, industrie et politique (La Découverte, Paris, 2005). ([email protected])

Michel armatte

est maître de conférences à l’université de Paris-IX Dauphine et chercheur associé au Centre Alexandre Koyré, coresponsable du séminaire de l’EHESS intitulé « Histoire du calcul des probabilités et de la statistique ». Sa thèse soutenue en 1995 a pour sujet « l’histoire du modèle linéaire en statistique et économétrie ». Il a publié de très nombreux articles sur l’histoire de la statis-tique (xIxe et xxe siècle) et de l’économétrie. Ses thèmes actuels de recherche englobent la modélisation des systèmes complexes (climat et modèles intégrés). Il conduit également plusieurs dispositifs nationaux d’enseignement numérique en économie et gestion. ([email protected])

Christian azar

est professeur à l’Institute of Physical Resource Theory de la Chalmers University of Technology (Göteborg, Suède), où il est titulaire de la chaire « Énergie et environnement ». Physicien de formation, ses recherches portent sur les stratégies d’atténuation du changement climatique (modélisation des systèmes, évaluation des technologies, analyse des politiques). Il siège dans les comités éditoriaux de plusieurs journaux scientifiques et a été auteur principal au sein du GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat). Il a été conseiller du Premier commissaire européen sur l’environnement et est actuellement conseiller du ministre suédois de l’Environnement, membre de la commission Pétrole auprès du Premier ministre suédois. ([email protected])

Les auteurs

Page 267: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

Vincent gItz

est ingénieur du corps du GREF, chercheur du CIRAD, affecté au CIRED. Il est spécialiste de la modélisation intégrée du lien entre occupation des sols et cycle du carbone. ([email protected])

Olivier godard

est docteur d’État en sciences économiques, directeur de recherche au CNRS et professeur à l’École polytechnique (Paris). Ses recherches concernent prin-cipalement l’environnement et le développement durable. Ses travaux récents portent sur le principe de précaution et la décision en univers controversé, les systèmes de permis négociables pour la pollution acide et le changement climatique, l’organisation de l’expertise scientifique. Ses derniers ouvra-ges sont : Permis transférables nationaux et politiques environnementales. Conception et application (Éditions de l’OCDE, Paris, 2001), et, avec C. Henry, P. Lagadec et E. Michel-Kerjan, Traité des nouveaux risques. Précaution, crise, assurance (Gallimard, « Folio-Actuel », Paris, 2002). ([email protected])

Hélène guILLemot

est docteur en physique. Après plusieurs années passées dans le journalisme scientifique, elle achève une thèse en histoire des sciences à l’EHESS (Centre Alexandre Koyré) sur l’histoire de la modélisation du climat en France à l’heure du changement climatique. ([email protected])

Jean-Charles

hourcade

est directeur du Centre international de recherche sur l’environnement et le développement (CIRED) depuis 1987, directeur de recherche au CNRS et directeur d’études à l’EHESS depuis 1999. De 1995 à 2002, il a été membre de la délégation française officielle aux négociations de la convention Climat (COP 4 à COP 8). Au plan international, il a été co-coordinateur du groupe de rédaction de divers chapitres du volume III (en charge des questions d’économie) dans le deuxième (1995-1996) et le troisième (1998-2001) rapport d’évaluation du GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat), et il est auteur principal dans le IVe rapport. ([email protected])

Emilio Lèbre

La rovere

est professeur au département PPE (programme de planification énergétique) au Centre d`études intégrées sur les changements climatiques et l’environnement (institut de recherche et 3e cycle en génie) de l’Université fédérale de Rio de Janeiro au Brésil (Centro Clima/COPPE/UFRJ). Il est membre du GIEC et a participé à plusieurs COP comme membre de la délégation brésilienne. ([email protected])

Pierre matarasso

est ingénieur de recherche CNRS au Centre international de recherche sur l’environnement et le développement (CIRED). À la confluence de l’économie et de la géophysique, ses recherches portent sur la modélisation intégrée de l’économie et du climat, et sur la modélisation des systèmes énergétiques. Il a publié plusieurs articles sur la structure des modèles apparus dans le cadre des controverses concernant les réponses à apporter à l’effet de serre anthropique. Il enseigne aussi à l’École nationale des ponts et chaussées et anime le groupe d’analyse thématique « Socio-économie de l’énergie » dans le cadre du pro-gramme Énergie du CNRS. ([email protected])

Page 268: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

Emmanuel parIs

est enseignant-chercheur à l’université Paris XIII et membre du LABSIC (Laboratoire des sciences de l’information et de la commu-nication). Ses recherches portent sur la communication scientifique et concernent aussi bien la communication entre chercheurs que la diffu-sion des connaissances auprès du grand public. Il a notamment étudié la médiatisation du phénomène climatique El Niño (sur laquelle portait sa thèse), les visiteurs d’expositions consacrées à l’environnement et la collaboration des internautes à des programmes de modélisation climatique. ([email protected])

André santos pereIra

est doctorant au CIRED et chercheur à la COPPE (Brésil), où il collabore aux recherches d’Emilio La Rovere.

Élodie vIeILLe

bLanchard

est ancienne élève de l’ENS-Cachan, agrégée de mathématiques, et prépare un doctorat en histoire des sciences à l’EHESS (Centre Alexandre Koyré) sur le débat des années 1970 autour de la crois-sance économique et les modèles mathématiques globaux qui y ont participé. ([email protected])

Page 269: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

Introduction : Modèles et fabrications du futur : du débat sur la croissance au débat climatique et retour par Amy Dahan Dalmedico ……………………………………………………… 7

I. Le débat sur la croissance des années 1970 et ses outils

1. Croissance ou stabilité ? L̓ entreprise du Club de Rome et le débat autour des modèles par Élodie Vieille Blanchard …………………………………………………… 21

Des modèles pour appréhender le futur 22Le Club de Rome et la modélisation 22L’événement des Limits to Growth 27L’IIASA et la modélisation globale 28L’économiste William Nordhaus 31

Des modèles qui « fabriquent le futur » 32Méthodologie versus idéologie : une dichotomie à dépasser 33Modèles et « cosmologies » 34Technologie versus nature 35Le point de vue des pays en développement 38Le futur de Herman Kahn 39Relations internationales et rapport au futur 39

Postérité des modèles et éléments de conclusion 40

2. La construction historique des paradigmes de modélisation intégrée : William Nordhaus, Alan Manne et lʼapport de la Cowles Commission par Pierre Matarasso ………………………………………………………… 44

L̓ émergence dʼune nouvelle conception de « lʼéconomie-monde » 44Modèles et communautés épistémiques 47Une tradition intellectuelle forte et ancienne 50

Les cercles de Cambridge et de Vienne 51Von Neumann, le formalisme de l’analyse d’activités 53La Cowles et le rôle de Koopmans 55

L̓ émergence des modèles intégrés du climat 56

Table

Page 270: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

Alan Manne : de la logistique aux politiques climatiques 56William Nordhaus : de la critique du modèle du Club de Rome au modèle DICE 57Science et politique dans le changement climatique 59

Conclusion 59

3. Les économistes face au long terme : lʼascension de la notion de scénario par Michel Armatte …………………………………………………………… 63

Les temps de lʼéconomie 63Le temps de la conjoncture et du très court terme 64Le temps des comptes annuels et de la prévision à court terme 64Le temps de la planification et de la projection à moyen terme 65Le temps (très) long de la nouvelle histoire économique 68

Le temps long de la prospective 69La démarche prospective 69Les lieux français de la prospective 71Les méthodes de la démarche prospective 73

Retour sur la méthode des scénarios 75Scénario exploratoire ou d’anticipation : scénario de l’inacceptable (DATAR) 76Méthodes de construction des scénarios : l’étude « Interfuturs » 77Les valeurs au fondement des scénarios 78Scénario et modèle : Worldscan et Scanning the Future (CPB) 79

Les scénarios SRES du GIEC 83Conclusion 86

II. L’alerte climatique, la gouvernance mondiale du régime climatique

4. Les modèles numériques de climat par Hélène Guillemot ………………………………………………………… 93

Les débuts de la modélisation climatique 94Les premiers modèles de circulation de l’atmosphère 94Modèles de prévision du temps et modèles de climat 95Les dynamiques multiples de la modélisation 97La montée des préoccupations environnementales 98

La construction des modèles 99Les paramétrisations au centre des recherches et des incertitudes 99Les paradoxes des paramétrisations 101Expériences numériques 102Données d’observation et validation 103Archives des paléoclimats 104

Modéliser le système Terre 105Coupler océan et atmosphère 105Simuler le changement climatique 106Intégrer de nouveaux milieux et de nouvelles disciplines 107Du complexe au simple, allers et retours 109

Nouveaux défis, le retour au local ? 110

Page 271: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

5. Le régime climatique, entre science, expertise et politique par Amy Dahan Dalmedico …………………………………………………… 113

La mise en place du régime climatique 114Une tradition longue d’interactions entre le scientifique et le politique 114Le Groupe d’experts intergouvernemental sur l’évolution du climat 116Les COP, forums hybrides du régime climatique 118Cartographie des pays suivant les intérêts en présence 119

Le fonctionnement de lʼexpertise 122Premières tensions politiques 122Le processus d’expertise GIEC : modèle linéaire classique ? 124La pratique d’une expertise réflexive 125L’élargissement du champ de l’expertise 126La méthodologie du GIEC entre science et politique, les scénarios 127

Les enjeux géopolitiques du cadrage du régime du changement climatique 129Adaptation et pays en développement 129La modélisation numérique globale, un « langage du Nord » ? 130Validité universelle des énoncés scientifiques versus confiance morale 132Le GIEC confronté à ces enjeux géopolitiques 134

Quelles leçons tirer du fonctionnement du régime climatique ? 135

6. Les modèles dans les débats de politique climatique : entre le Capitole et la Roche tarpéienne ? par Jean-Charles Hourcade …………………………………………………… 140

Évaluation des politiques : et si on regardait le scénario de référence ? 141Les enjeux d’un dialogue récurrent entre deux modeling tribes 141D’une astuce technique à une vision du fonctionnement du monde 142Les conséquences d’un débat à demi entamé 146

Sélection des outils dʼincitation ; de la difficulté de dissiper des mirages 149Quand les modèles montrent que la gratuité est tellement chère qu’on ne saurait l’accepter 150De quelques bonnes raisons d’un déficit de conviction sur une thèse juste 151Coûts politiques d’effets d’hypnose persistants 153

Évaluer les dommages : de la gestion de croyances contradictoires 156Ce que révèle la négligence d’un raisonnement pourtant simple 156Les vrais enjeux de l’analyse coût-bénéfice 158

Conclusion 162

III. Fabrication des futurs : batailles de représentation et délibération publique

7. Les émissions optimales de CO2 le sont-elles vraiment ? par Christian Azar …………………………………………………………… 167

Les événements à faible probabilité mais aux impacts catastrophiques 169La sensibilité 169Les jugements de valeur 170

Page 272: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

Conclusion 171Les méthodes dʼévaluation des coûts 171

La sensibilité 173Les jugements de valeur 173Conclusion 173

Le choix du taux dʼactualisation 174La sensibilité 174Les jugements de valeur 174Conclusion 177

Le choix des critères de décision 177La sensibilité 178Les jugements de valeur 178Conclusion 179

Remarques pour conclure 180

8. Modèles mondiaux et représentation des pays en développement par Emilio Lèbre La Rovère, Vincent Gitz, André Santos Pereira …………… 184

Problèmes et limites liés à la modélisation économique des pays en développement 186Problèmes de représentation du système énergétique 188

Production d’énergie et niveaux de consommation 188La dotation en ressources énergétiques 191Influence du cadre institutionnel sur le système énergétique 193

Problèmes dans la représentation de lʼusage des sols 193Arbitrages et enjeux 194Les implications redistributives des politiques d’usage des terres 195Questions méthodologiques concernant la prospective des usages du sol dans les pays en développement 196Conflit entre les méthodologies en présence 197

Conclusion 198

9. Pour une morale de la modélisation économique des enjeux climatiques en contexte dʼexpertise par Olivier Godard …………………………………………………………… 203

Les prévisions éclairent-elles ? 203Des questions sur la modélisation 205

Susciter des réflexes ou éveiller la réflexion ? 205La modélisation intégrée, ennemie du pluralisme ? 205Comment éviter les catastrophes prévues ? 206Les risques de manipulation de l’expertise par les décideurs 206

1992 : les impacts dʼune taxe carbone aux États-Unis et en Europe 207Les faits 207Une comparaison des pertes de PIB dues à la taxe carbone 208Des jeux d’influence 210Le choix des indicateurs 210Un sens différent selon le contexte 211

1996-1998 : le groupe énergie 2010-2020 en France 212La construction de trois scénarios énergétiques pour la France 212L’approche : des scénarios incarnant le devenir possible de la société française 213Nucléaire ou gaz ? 215

Page 273: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

De la croissance… pour les émissions de CO2 215L’accueil réservé aux scénarios par les experts et les gestionnaires 216Le politique, ou comment faire dire à une expertise ce qu’elle ne dit pas 218

La représentation de lʼavenir lointain 220L’utilitarisme et le sacrifice des droits 220Entretenir la croyance dans la permanence des identités collectives 221Le problème de la non-existence des générations éloignées 222Le problème de la non-identité 222

10. Les couloirs de la persuasion. Usages de la communication, tissu associatif et lobbies du changement climatique par Emmanuel Paris ………………………………………………………… 227

Genèse dʼun entrelacement médiatique 228Le tournant du Sommet de Rio 229En quête de récits consensuels 229

Ambivalence de la communication persuasive des médias 230Violence climatique 231Confiance en un monde devenu raisonnable 231Du poids des stéréotypes 232

En coulisse : communication des lobbies et des associations 233Les lobbies 233Les associations 234Supériorité des lobbies industriels 236

Expositions environnementalistes et citoyenneté 237Des visiteurs perplexes 237Débattre sans se parler 239

Opinions et/ou savoirs 240Que dire du film Le jour dʼaprès ? 240Une exemplarité problématique 241

Conclusion 242

Les auteurs .……………………………………………………………………… 245

Page 274: DAHAN Amy (dir.)__Les modèles du futur_La Découverte_2007

Achevé dʼimprimer sur les presses de lʼimprimerie France-Quercy à Cahors en janvier 2007. Dépôt légal février 2007.

Imprimé en France

Composition :