23
Chapitre 12. Synthèse et contre-révolutions en macroéconomie La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un élément central de la macroéconomie, ce champ de la science économique qui se développe sous sa forme moderne à partir de la fin des années 1930. Mais ce n’est pas le seul. Keynes assemble les concepts fondamentaux qui vont être repris par toute une génération d’économistes. Mais il est sceptique concernant deux pratiques qui sont au cœur de la macroéconomie : le recours aux modèles mathématiques et l’économétrie. En ce sens, l’essor de la macroéconomie représente un mouvement de synthèse entre les idées de Keynes et des pratiques inspirées par des économistes comme Ragnar Frisch et Ian Tinbergen. Ce processus de synthèse est tout sauf l’histoire d’un long fleuve tranquille. La nature du message de Keynes est l’objet d’un débat intense, débat au cours duquel le modèle de base de la macroéconomie, le modèle IS-LM, est progressivement codifié. Un autre enjeu des débats qui anime la révolution keynésienne est celle des fondements de la macroéconomie. Comment justifier les relations agrégées exprimées par les modèles de la macroéconomie à partir du comportement des individus qui peuplent l’économie ? Pour répondre à cette question, d’autres références vont être mobilisés par les macroéconomistes comme le modèle walrassien ou la théorie des choix intertemporels d’Irving Fisher. Au-delà de ces questions théoriques, le projet des macroéconomistes qui tiennent le haut du pavé à partir des années 1950 est de produire une version appliquée du modèle IS-LM ou ce que l’on a appelé les modèles macroéconométriques. Ces modèles devaient permettre de guider la politique macroéconomique et de trancher les débats qui se poursuivaient sur la nature de la meilleure politique face à l’inflation et au chômage. Cette entreprise, qui suscite de grands espoirs au début des années 1960 va produire des résultats mitigés. Sa critique est un des aspects de la contre-révolution entamée par Milton Friedman et poursuivi par Robert Lucas qui provoque une profonde remise en cause de la macroéconomie keynésienne dans les années 1970. A l’issue de cette décennie de crise, une nouvelle macroéconomie émerge progressivement avant de s’imposer dans les années 1990. 1. Les origines du modèle IS-LM Le modèle IS-LM est certainement le modèle emblématique de la macroéconomie née de la révolution keynésienne. Il a progressivement envahi les manuels et sert encore à initier les étudiants aux concepts de la base de la macroéconomie, même s’il a cessé d’être une référence pour les chercheurs au cours des années 1980. L’invention du modèle IS-LM est fréquemment attribué à John R. Hicks. On ajoute parfois qu’il s’agit d’une distorsion évidente de la théorie de Keynes. En réalité, si quelqu’un a inventé ce modèle, c’est Keynes. Ce qui n’empêche pas que son invention, comme il arrive presque toujours, lui ait échappé. Le modèle IS-LM désigne un petit système d’équations qui résume comment l’interaction entre la préférence pour la liquidité, l’offre de monnaie, l’épargne et l’investissement d’une économie, déterminent son revenu agrégé et son taux d’intérêt. Ainsi défini, il est possible d’affirmer que la première version du modèle a été présentée par Keynes lors d’un cours donné le 4 décembre 1933 à l’Université de Cambridge. Dans les notes de Robert Bryce, un de ses étudiants, on voit apparaître les équations suivantes : 1 M = A(W, ρ) C = ϕ1(W, Y) I = ϕ2(W, ρ) 1 Les notes de cours des étudiants de Keynes ont été publié par l’un d’eux, Thomas K. Rymes, en 1989.

Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

Chapitre 12. Synthèse et contre-révolutions en macroéconomie

La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un élément central de la macroéconomie, ce champ de la science économique qui se développe sous sa forme moderne à partir de la fin des années 1930. Mais ce n’est pas le seul. Keynes assemble les concepts fondamentaux qui vont être repris par toute une génération d’économistes. Mais il est sceptique concernant deux pratiques qui sont au cœur de la macroéconomie : le recours aux modèles mathématiques et l’économétrie. En ce sens, l’essor de la macroéconomie représente un mouvement de synthèse entre les idées de Keynes et des pratiques inspirées par des économistes comme Ragnar Frisch et Ian Tinbergen.

Ce processus de synthèse est tout sauf l’histoire d’un long fleuve tranquille. La nature du message de Keynes est l’objet d’un débat intense, débat au cours duquel le modèle de base de la macroéconomie, le modèle IS-LM, est progressivement codifié. Un autre enjeu des débats qui anime la révolution keynésienne est celle des fondements de la macroéconomie. Comment justifier les relations agrégées exprimées par les modèles de la macroéconomie à partir du comportement des individus qui peuplent l’économie ? Pour répondre à cette question, d’autres références vont être mobilisés par les macroéconomistes comme le modèle walrassien ou la théorie des choix intertemporels d’Irving Fisher. Au-delà de ces questions théoriques, le projet des macroéconomistes qui tiennent le haut du pavé à partir des années 1950 est de produire une version appliquée du modèle IS-LM ou ce que l’on a appelé les modèles macroéconométriques. Ces modèles devaient permettre de guider la politique macroéconomique et de trancher les débats qui se poursuivaient sur la nature de la meilleure politique face à l’inflation et au chômage. Cette entreprise, qui suscite de grands espoirs au début des années 1960 va produire des résultats mitigés. Sa critique est un des aspects de la contre-révolution entamée par Milton Friedman et poursuivi par Robert Lucas qui provoque une profonde remise en cause de la macroéconomie keynésienne dans les années 1970. A l’issue de cette décennie de crise, une nouvelle macroéconomie émerge progressivement avant de s’imposer dans les années 1990.

1. Les origines du modèle IS-LM

Le modèle IS-LM est certainement le modèle emblématique de la macroéconomie née de la révolution keynésienne. Il a progressivement envahi les manuels et sert encore à initier les étudiants aux concepts de la base de la macroéconomie, même s’il a cessé d’être une référence pour les chercheurs au cours des années 1980. L’invention du modèle IS-LM est fréquemment attribué à John R. Hicks. On ajoute parfois qu’il s’agit d’une distorsion évidente de la théorie de Keynes. En réalité, si quelqu’un a inventé ce modèle, c’est Keynes. Ce qui n’empêche pas que son invention, comme il arrive presque toujours, lui ait échappé.

Le modèle IS-LM désigne un petit système d’équations qui résume comment l’interaction entre la préférence pour la liquidité, l’offre de monnaie, l’épargne et l’investissement d’une économie, déterminent son revenu agrégé et son taux d’intérêt. Ainsi défini, il est possible d’affirmer que la première version du modèle a été présentée par Keynes lors d’un cours donné le 4 décembre 1933 à l’Université de Cambridge. Dans les notes de Robert Bryce, un de ses étudiants, on voit apparaître les équations suivantes :1

M = A(W, ρ)

C = ϕ1(W, Y)

I = ϕ2(W, ρ)

1 Les notes de cours des étudiants de Keynes ont été publié par l’un d’eux, Thomas K. Rymes, en 1989.

Page 2: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

Y = C + I

La première équation désigne l’équilibre du marché de la monnaie ou l’égalité entre l’offre de monnaie et la préférence pour la liquidité qui dépend à ce stade du taux d’intérêt ρ et de « l’état de l’information» (de l’information ? des nouvelles ?) (« state of the news »). Les équations précédentes définissent la consommation, l’investissement et la condition d’équilibre sur le marché des biens. L’ensemble détermine le revenu monétaire et le taux d’intérêt en fonction de l’état des anticipations des agents. Dans la Théorie générale, parue en 1936, on retrouve tous les ingrédients du futur modèle IS-LM. Mais du fait de ses convictions méthodologiques, Keynes semble avoir pris soin de ne pas assembler en un modèle unique les équations dont il a parsemé son ouvrage. Les notations changent de chapitre en chapitre et lorsqu’il récapitule sa théorie, dans le chapitre 18, il se contente d’un raisonnement en prose. Dans le chapitre 21, enfin, il met en garde le lecteur contre l’usage aveugle des modèles mathématiques :

« Trop de récentes ‘économies mathématiques’ ne sont que pures spéculations ; aussi imprécises que les hypothèses initiales, elles permettent aux auteurs d’oublier dans le dédale des symboles vains et prétentieux les complexités et les interdépendances du monde réel » (Keynes, 1936 : 301)

Pour Keynes, un modèle mathématique est utile pour résumer les relations économiques les plus importantes dans la détermination du niveau d’emploi. Mais un modèle suppose fixes des variables qui peuvent changer et ignore des interdépendances qui peuvent devenir cruciales dans certaines circonstances. En d’autres termes, la manipulation des modèles mathématiques fait courir à l’économiste le danger de devenir aveugle à la complexité du monde réel.

Lorsque les économistes ont cherché comprendre la théorie de Keynes, après 1936, la tentation d’assembler les équations éparpillées dans l’ouvrage s’est révélée irrésistible. L’enjeu principal était de comprendre la distinction établie par Keynes lui-même entre le point de vue des classiques et le point de vue keynésien. Les premiers à s’être livré à l’exercice et à produire des modèles mathématiques de type IS-LM sont des proches de Keynes. David Champernowne (1936) et Brian Reddaway (1936) étaient des étudiants de l’Université de Cambridge supervisés par Keynes lui-même. James Meade (1937) et Roy Harrod (1937) étaient de jeunes économistes ayant participé à l’élaboration de la Théorie générale, l’un en tant que membre d’un petit groupe d’économistes de Cambridge qui relisait les versions préliminaires de l’ouvrage (le « Cambridge Circus »), l’autre en correspondant directement avec Keynes. Mais l’économiste dont le nom est resté associé au modèle IS-LM est John R. Hicks, l’inventeur du graphique qui représente l’équilibre du modèle à l’intersection des courbes IS et LM.

2. Hicks et le message de la Théorie générale

Hicks (1904-1989) est encore un jeune économiste en 1936. Il est arrivé à Cambridge en 1935 après plusieurs années passées à enseigner à la London School of Economics, une institution animée par deux grands adversaire de Keynes, Lionel Robbins et Friedrich Hayek. Lorsque la Théorie générale parait, Hicks (1904-1989) est engagé dans la rédaction de Valeur et capital (1939). Dans cet ouvrage majeur, il développe une version dynamique de la théorie de l’équilibre général de Léon Walras et de Vilfredo Pareto en s’inspirant des travaux de l’école suédoise. Pour cette raison, on a souvent présenté le modèle IS-LM comme une traduction de Keynes dans le langage de la théorie walrassienne. Ce n’est pas ce que dit Hicks dans « M. Keynes et les classiques », l’article qui paraît en 1937. L’objectif du texte est de dégager l’originalité de la théorie de Keynes en la comparant à la théorie classique. Pour Hicks, la théorie classique dont Keynes veut se démarquer est la théorie inspirée par Alfred Marshall et développé par les économistes de l’Université de Cambridge en suivant une approche

Page 3: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

étrangère à celle de Walras et de Pareto. Cette théorie, Hicks propose de la résumer sous une « forme similaire » à celle que Keynes lui-même a donné à sa théorie. Il commence donc par présenter une version « classique » du modèle IS-LM avant d’examiner en quoi la version de Keynes s’en différencie.

Le modèle classique de Hicks

� = ��� (1)

��� = �(�) (2)

��� = �(�, ��) (3)

�� = ��� + ��� (4)

� = ��(��) (5)

� = ��(��) (6)

�� = �(���/��) (7)

�� = �(���/��) (8)

� = �� (9)

Le modèle classique de Hicks représente une économie à salaire rigide et prix flexibles qui comporte deux secteurs de production.2 L’équation LM correspond à l’équation quantitative typique de la tradition de Cambridge. La demande de monnaie est une fraction constante du revenu monétaire. Cette équation détermine le revenu monétaire de l’économie en fonction de l’offre de monnaie. L’équation IS décrit un marché des fonds prêtables. Sur ce marché, le taux d’intérêt est déterminé par la confrontation de l’épargne et de l’investissement. Une fois connu le taux d’intérêt et le revenu global de l’économie, il est possible de déterminer la demande de biens de consommation et de biens d’investissement et, par conséquent, les niveaux d’emplois dans ces deux secteurs de l’économie. Pour dégager les propriétés de ce modèle, Hicks se livre à trois expériences. Il montre d’abord qu’une augmentation de l’investissement fait monter le taux d’intérêt et a des conséquences ambiguës sur le niveau d’emploi de l’économie. L’emploi augmente dans le secteur des biens d’investissement mais, comme l’épargne augmente au détriment de la consommation, l’emploi baisse dans le secteur des biens de consommation. Il montre ensuite qu’une augmentation de l’offre de monnaie fait baisser le taux d’intérêt et a des conséquences positives sur l’emploi. Il montre aussi qu’une hausse des salaires a des effets négatifs.

Le modèle spécial de Keynes

� = �(�) (1’)

�(�) = �(��) (2’)

Le modèle de la Théorie générale

� = �(�, �) (1’’)

Hicks présente le point de vue de Keynes en deux temps. Il commence par présenter la « théorie spéciale de M. Keynes » dans laquelle la demande de monnaie dépend uniquement du taux d’intérêt. Le modèle qui en résulte possède des propriétés opposées à celle du modèle classique. L’équation LM détermine le taux d’intérêt alors que l’équation IS représente désormais le marché des biens et détermine le revenu monétaire. Un accroissement de

2 Sa version du modèle IS-LM est donc plus sophistiquée que la version à prix fixes que l’on trouve habituellement dans les manuels.

Page 4: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

l’investissement n’a pas d’effet sur le taux d’intérêt mais accroit le niveau d’emploi du fait d’un effet multiplicateur sous-jacent. La politique monétaire reste par contre efficace. Mais, ajoute alors Hicks, ceci n’est pas le modèle de la Théorie générale. Ce dernier admet le revenu parmi les déterminants de la demande de monnaie. Avec cette modification, insiste Hicks, « M. Keynes fait un grand pas en arrière vers l’orthodoxie marshallienne et sa théorie devient difficile à distinguer de la théorie marshallienne révisée et précisée » (1937, page 153). En effet, un accroissement de l’investissement fait toujours augmenter le niveau d’emploi mais il accroit aussi le taux d’intérêt. Ce point est illustré grâce au fameux graphique IS-LM.

Hicks, 1937, page 153.

Sur cette base, Hicks réduit l’innovation de Keynes à l’introduction de ce qui a été appelé par la suite la trappe à liquidité, c’est-à-dire l’existence d’un niveau minimum de taux d’intérêt à partir duquel la courbe LM devient horizontale. C’est uniquement lorsque la courbe IS coupe la courbe LM sur sa partie horizontale, et lorsque le taux d’intérêt a atteint sa valeur plancher qu’un accroissement de l’investissement augmente l’emploi sans effet sur le taux d’intérêt. Dans ces conditions, la politique monétaire est inefficace et l’accroissement des dépenses publiques est le seul moyen pour réduire le taux de chômage. Hicks conclut alors que la « Théorie générale de l’emploi est l’économie de la dépression » (1937 : 138). De façon ironique, cette article, qui va jouer un rôle crucial dans la révolution keynésienne, minimise la portée de la contribution de Keynes.

Nous disposons de la lettre que Keynes a écrit à Hicks en réaction à la parution de son article (Keynes, 1973b : 79-83). Keynes commence par écrire au sujet de l’article qu’il « l’a trouvé très intéressant et n’a presqu’aucune critique à lui adresser ». Il ne critique pas le modèle IS-LM utilisé par Hicks et ne mentionne pas, en particulier, le fait qu’il s’agisse d’un système d’équations simultanées. Mais il rejette clairement la réduction de son message à l’idée qu’une hausse de l’investissement n’accroitrait pas le taux d’intérêt. Keynes a certainement été irrité par la façon dont Hicks minorait son apport. Dans son ouvrage de 1936, il discute bien la possibilité d’une trappe à liquidité mais pour écrire à son sujet : « Peut-être ce cas limite prendra-t-il une importance pratique dans l’avenir, mais nous n’en connaissons pas d’exemple dans le passé. » (1936 : 217) Dans ces conditions, il était curieux de présenter la trappe à liquidité comme son explication de la Grande Dépression.

Page 5: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

3. Les développements du modèle IS-LM après 1937

En 1947, Paul Samuelson, la figure de proue du keynésianisme au Etats-Unis après la seconde guerre mondiale, écrit :

« Et je crois que je ne révèlerais aucun secret en disant (d’après mes souvenirs personnels) que personne à Cambridge, Massachusetts, ne comprenait de quoi [la Théorie générale] parlait pendant douze ou dix-huit mois après sa publication. A l’évidence, jusqu’à l’apparition des modèles mathématiques de Meade, Lange, Hicks, et Harrod, il y a des raisons de penser que Keynes lui-même ne comprenait pas vraiment sa propre analyse. » (1947 : 146)

Cette citation illustre le succès du modèle IS-LM auprès d’une génération de jeunes économistes qui l’ont utilisé comme une clé pour accéder aux idées de Keynes. De la fin des années 1930 au milieu des années 1950, le débat concernant le message de Keynes s’est poursuivi. Il est en résulté deux interprétations dominantes du keynésianisme. La première, celle de Franco Modigliani (1944) présente l’hypothèse de rigidité des salaires comme la clé de la théorie du chômage de Keynes. La seconde, développée par Don Patinkin (1956), fait de la théorie keynésienne une théorie du déséquilibre. La politique économique est un autre sujet de discussion entre ces auteurs keynésiens. Quelle est l’importance relative des politiques monétaire et budgétaire ? Dans quelle mesure est-il possible de recourir à l’endettement publique pour soutenir l’économie ?

Franco Modigliani (1918-2003) est un économiste d’origine italienne qui arrive aux Etats-Unis en 1939. Il rédige alors une thèse de doctorat sous la direction de Jacob Marschak, autre émigré d’origine russe et futur directeur de la Cowles Commission. Cette thèse est publiée en 1944 sous le titre « La préférence pour la liquidité et la théorie de l’intérêt et de la monnaie ». Modigliani y développe sa version du modèle IS-LM. Un de ses objectifs est de montrer, à l’opposé de Hicks, que la théorie keynésienne est bien une théorie générale. Dans ce but, il présente l’hypothèse de rigidité à la baisse des salaires comme la clé de la théorie de Keynes :

« On considère habituellement que la plus grande réussite de la théorie keynésienne est d’expliquer la cohérence d’un équilibre avec chômage involontaire. On n’admet pas suffisamment, cependant, qu’à l’exception d’un cas limite que nous aborderons plus loin, ce résultat est entièrement dû à l’hypothèse de salaires rigides et non à la préférence pour la liquidité keynésienne. » (1944 : 65)

Pour Modigliani, la rigidité des salaires est ce qui permet l’obtention d’un résultat d’équilibre avec chômage involontaire. Cette idée s’est répandue dans le courant dominant du keynésianisme jusqu’à aujourd’hui. Mais la rigidité dont il est question est une rigidité à la baisse. Si la demande de biens est suffisamment forte pour conduire l’économie au plein emploi, rien n’empêche les salaires, et les prix, de monter. Le modèle IS-LM de Modigliani peut ainsi décrire une économie qui se trouve dans le cas « classique ». Dans ce cas, les politiques keynésiennes sont inefficaces (et inutiles). Cependant, si la demande de biens chute, les prix des biens baissent. Comme les salaires ne baissent pas en deçà d’un certain seuil, il vient un moment où le salaire réel monte. Les entreprises vont alors licencier des salariés et réduire leur production. Le chômage apparaît. Dans ce cas général, les politiques monétaire et budgétaire deviennent efficaces. Pour Modigliani, la politique privilégiée est la politique monétaire. Une politique de dépense publique financée par emprunt fait monter les taux d’intérêt et réduit l’accumulation du capital. Elle fait donc peser un fardeau sur les générations futures (Modigliani, 1961). Si la demande de biens recule trop fortement, l’économie peut se retrouver dans la trappe à liquidité ou ce que Modigliani appelle le « cas keynésien ». Lorsque l’économie atteint ce point le danger devient celui d’une déflation sans limite. La rigidité des salaires seule empêche l’économie de s’effondrer. Bien sûr, la politique monétaire devient inefficace, comme Hicks l’avait déjà montré. Si cette reformulation de

Page 6: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

l’argument du chapitre 19 de la Théorie générale pointe un danger réel, il s’agit seulement d’un cas extrême pour Modigliani et l’une des situations que le modèle général keynésien permet d’analyser.

L’article de Modigliani marque aussi le retour d’un concept absent de la présentation de Hicks, le concept de chômage involontaire. A la suite d’Oskar Lange (1938), Modigliani (1944) présente le chômage involontaire comme la conséquence d’une offre de travail horizontale jusqu’à un certain niveau d’emploi. En d’autres termes, il confond rigidité du salaire nominal et offre de travail horizontale. Patinkin (1947) pointe rapidement le caractère problématique de cette approche abandonnée par Modigliani dans ses travaux ultérieurs.

Don Patinkin (1923-1995) est formé à l’Université de Chicago avant de rédiger une thèse de doctorat dans le cadre de la Cowles Commission. Cette thèse, soutenue en 1947, est le point de départ d’une réflexion qui culmine avec la publication de La Monnaie, l’intérêt et les prix en 1956. Cet ouvrage peut être considéré comme l’apogée du processus d’assimilation des idées de Keynes par le courant dominant de l’après-guerre. Dans de nombreuses universités, il a servi de manuel de macroéconomie avancée jusqu’au début des années 1970 (une seconde édition parait en 1965). La première partie de ce livre de théorie propose une solution au problème posé par l’intégration de la monnaie dans la théorie walrassienne de l’équilibre générale. La seconde partie en tire les conséquences pour reformuler le modèle IS-LM et pour analyser ses propriétés. L’essentielle de la partie macroéconomique de l’ouvrage étudie une économie en situation de plein emploi. La théorie du chômage est abordée dans les chapitres 13 et 14. Patinkin y présente sa version de la théorie keynésienne. Pour lui, si cette théorie montrait que le chômage résulte de la rigidité des salaires, comme Modigliani l’affirme, elle serait parfaitement triviale. Keynes cherche à montrer la possibilité que le chômage involontaire persiste même lorsque les prix et les salaires sont flexibles. Par ailleurs, le chômage involontaire est une situation de déséquilibre sur le marché du travail. Le nombre de travailleurs souhaitant un emploi au salaire du marché dépasse le nombre de travailleurs que les entreprises souhaitent employer. Dans cette situation, la concurrence que se livrent les travailleurs doit faire baisser les salaires. Cette baisse se répercute sur les autres marchés provoquant des ajustements dans toute l’économie. Comme ces ajustements se poursuivent tant que le chômage persiste, Patinkin conclut que la théorie keynésienne est une théorie du déséquilibre. Son objet est l’étude des processus d’ajustement qui font apparaître et disparaître le chômage. Patinkin suppose, à l’opposé de Keynes, que l’ajustement des prix et des salaires permet le retour de l’économie au plein emploi. La chute des prix déclenche un effet d’encaisse réelle. Le pouvoir d’achat de la monnaie entre les mains des ménages s’accroit, ce qui les poussent à consommer davantage. La chute des prix modifie aussi la situation sur le marché de la monnaie et fait baisser le taux d’intérêt, ce qui stimule l’investissement. D’après lui, supposer que l’équilibre de plein emploi est instable, comme le fait Keynes dans le chapitre 19 de la Théorie générale, affaiblit le propos des keynésiens. Il n’est pas nécessaire d’en venir à de telles extrémités. Pour Patinkin l’ajustement des prix et des salaires prend toujours du temps. Les classiques et les keynésiens ne s’opposent pas sur ce point. La différence est ailleurs. Pour les classiques, la demande globale de biens est très « élastique ». Une petite chute des prix suffit à ramener le plein emploi. Pour les keynésiens, la demande de bien est peu « élastique ». Le retour au plein emploi requiert généralement une large baisse des prix et des salaires. Un tel ajustement peut prendre un temps très long. Ceci suffit à justifier l’intervention de l’Etat pour raccourcir le délais d’ajustement. Concernant le mode d’intervention de l’Etat, le point de vue de Patinkin dans La monnaie, l’intérêt et les prix reflète le consensus des années 1940. L’investissement étant peu sensible aux variations du taux d’intérêt, la politique monétaire (qui est le remède des classiques) est généralement peu efficace pour résoudre le chômage. La solution keynésienne est la politique budgétaire. Ce

Page 7: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

point de vue dit « fiscaliste », se retrouve chez d’autres keynésiens influents à cette époque tels que Lawrence Klein ou Paul Samuelson. Il explique le remède prescrit par les conseillers de Kennedy au début des années 1960 et consistant à réduire les impôts pour relancer l’économie américaine. Il faut attendre la fin des années 1970 pour que la réhabilitation de la politique monétaire, promue par Modigliani, s’impose dans le camp keynésien.

4. La question des fondements microéconomique de la macroéconomie

L’évolution de la macroéconomie a été influencée depuis ses origines, dans les années 1930, par la volonté de justifier les relations agrégées en partant d’une analyse des choix des individus et du contexte dans lequel ces choix étaient opérés. Ce problème est a été appelé celui des fondements microéconomiques de la macroéconomie. L’expression microfondation devient courante dans les années 1970 mais elle est déjà utilisée par Sidney Weintraub en 1956 (Hoover, 2012 : 23). Il est possible de dire que la question des fondements microéconomiques est présente dans la Théorie générale de Keynes. En effet, Keynes fait un effort constant pour justifier les relations macroéconomiques qu’il développe en partant d’une discussion concernant les choix des individus. Son approche est cependant singulière et sera peu suivie.

L’approche des fondements microéconomiques de la macroéconomie emprunte différentes voies après Keynes. Elle est cependant marquée par une confusion qui intervient dès 1938 dans un article d’Oskar Lange. Ce dernier introduit l’idée que le modèle IS-LM est une version simplifiée du modèle de Walras et de Pareto : « C’est un fait d’un grand intérêt historique que l’essentiel de cette théorie générale est déjà contenu dans l’œuvre de Walras. » (1938 : 20) L’enjeu est important dans l’article de Lange. La référence à Walras et à Pareto lui sert à préciser la définition des agrégats mobilisés dans le modèle IS-LM. Ces derniers pourraient être obtenus en partant d’un modèle d’équilibre général désagrégé. Mais Lange lui-même ne montre pas comment une telle opération serait possible et se contente de l’affirmer comme une évidence. L’idée que les fondements du modèle IS-LM seraient à chercher dans un modèle Walrassien a été reprise par les économistes américains qui le développent à partir des années 1940, notamment Modigliani (1944), Klein (1947) et Patinkin (1956). A nouveau, aucun de ces économistes ne montre comment le modèle IS-LM peut être obtenu en partant d’un modèle Walrassien plus complexe. Cette conviction partagée influence cependant leurs travaux. Le cas de Patinkin est particulièrement intéressant à cet égard. Dans son ouvrage de 1956, il traite le modèle IS-LM comme un modèle Walrassien. Ceci l’aide à clarifier sa structure, à fournir une méthode pour analyser ses propriétés et à résoudre plusieurs difficultés soulevées par ses prédécesseurs (Rubin, 2004 : 198-205). En 1944, Modigliani présentait curieusement IS et LM comme les équations du seul marché de la monnaie à court et à long terme. Patinkin présente le modèle comme un modèle à quatre marchés dont l’un est ignoré grâce à la loi de Walras. Il explicite l’équation du marché des titres. Il clarifie l’analyse des mécanismes d’ajustement au sein du modèle en s’inspirant de la méthode walrassienne du tâtonnement. Mais lorsqu’il en arrive à sa théorie du chômage involontaire, Patinkin bute sur une difficulté. La théorie du déséquilibre qu’il défend prête aux entreprises un comportement incompatible avec la théorie walrassienne. Le chômage résulte en effet d’une chute de la demande de biens. Patinkin suppose pour commencer que ce déséquilibre fait baisser les prix et les salaires dans les mêmes proportions de telle sorte que le salaire réel reste constant et à son niveau de plein emploi. L’ajustement des prix et des salaires étant lent, les entreprises se trouvent dans l’incapacité de vendre leur production. Elles vont alors réduire leur demande de travail effective en dessous de la demande de travail dictée par la maximisation des profits au salaire réel existant. Dans une note de bas de page, Patinkin avoue son impuissance face au problème posé par sa théorie du déséquilibre. Il ne voit pas comment formaliser de façon acceptable le comportement qu’il prête lui-même aux entreprises. Le problème est repris par

Page 8: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

Robert Clower dans un article qui paraît en anglais en 1965. Clower adhère à l’idée que la théorie keynésienne est une théorie du déséquilibre. Mais il affirme que cette approche suppose une rupture par rapport au cadre walrassien. Pour lui, Keynes est un hétérodoxe car son approche invalide la loi de Walras. En réalité, la démarche de Clower est symétrique de celle de Patinkin. Clower attire l’attention sur l’incohérence qui existe entre la fonction de consommation keynésienne et le comportement que la théorie walrassienne prête aux individus. Dans un modèle walrassien, les individus sont libres de choisir la quantité de travail qu’ils offrent, et par conséquent leurs revenus, en fonction de l’ensemble des prix du système économique. Ceci implique que leur fonction de consommation ne dépend pas de leur revenu mais de l’ensemble desprix de l’économie. Or, la fonction de consommation keynésienne traite le revenu des ménages comme une donnée de leur choix, une variable indépendante. Clower montre comment une telle fonction peut être obtenue en modifiant la théorie standard du consommateur. Il suppose une situation de chômage. Dans cette situation, les travailleurs doivent accepter un niveau d’emploi fixé par les entreprises et inférieur au niveau qu’ils désirent. La demande de travail exprimée par les entreprises agit comme une contrainte additionnelle dans leur programme de maximisation. Il en résulte une demande de bien effective inférieure à la demande de bien que les ménages auraient exprimée dans un contexte walrassien. En formalisant mathématiquement son analyse, Clower inspire une nouvelle génération de chercheurs qui s’emploie à construire des modèles keynésiens en modifiant le modèle walrassien.

Ce renouveau de la théorie keynésienne standard se produit au début des années 1970. La première contribution marquante est celle de Robert Barro et Herschel Grossman (1971). En combinant les idées de Clower et de Patinkin, ils construisent un modèle à trois marchés (travail, bien et monnaie) dans lequel les ménages et les firmes prennent leurs décisions dans un contexte de déséquilibre et en tenant compte de contraintes de quantités qui viennent s’ajouter à la contrainte budgétaire habituelle. Pour boucler ce modèle très simple, Barro et Grossman introduisent une hypothèse rejetée par Clower et Patinkin : ils supposent que les prix et les salaires sont fixes. Ainsi leur théorie du déséquilibre n’est pas la théorie dynamique rêvée par leurs inspirateurs. Leur modèle conduit cependant à un résultat important. Il montre que selon les valeurs des prix et des salaires, l’économie peut se trouver dans différentes configurations de déséquilibre.

Cette approche est reprise et développée par Jean-Pascal Bénassy (1973) et Edmond Malinvaud (1977). Ces économistes français clarifient les différents régimes dans lesquels l’économie à trois marchandises peut se trouver. Ils distinguent en particulier deux types de chômage. Le chômage est keynésien si la demande de biens est inférieure à l’offre mais il est classique s’il coïncide avec un excès de demande de biens. Cette distinction est importante car les remèdes au chômage varient selon la situation. Le chômage keynésien peut-être réduit par la politique budgétaire traditionnelle. Par contre, une baisse des salaires ne peut pas le résoudre. Le contraire est vrai en cas de chômage classique. Ce chômage résulte d’un salaire réel trop élevé et requiert une politique de contrôle des revenus. Ce type d’approche sert à analyser la crise des années 1970 marquée par une montée simultanée du chômage et de l’inflation. Pour Malinvaud, il s’agit d’une situation de chômage classique. Les salaires sont trop élevés et les profits insuffisants. La solution n’est donc pas keynésienne. Le diagnostic est cependant compliqué par la possibilité que l’économie ne revienne pas vers l’équilibre walrassien (ou de plein emploi) au cœur du modèle mais passe d’un régime de chômage classique à un régime de chômage keynésien. En d’autres termes, le modèle à prix fixes appelle une analyse dynamique.

Cette théorie du déséquilibre a été développée dans de nombreuses directions et a mobilisé une communauté de chercheurs à l’échelle internationale du début des années 1970 jusqu’au

Page 9: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

milieu des années 1980. Mais l’engouement cesse dès la fin des années 1970 aux Etats-Unis et dans les années 1990 en Europe. Le motif généralement invoqué pour expliquer le déclin de ce programme de recherche est le caractère contraignant et trop arbitraire de l’hypothèse de rigidité des prix et des salaires. Comment justifier qu’une entreprise confrontée à une demande supérieure à son offre n’en profite pas pour élever ses prix ? C’est l’objection qui conduit Robert Barro à rallier un autre camp dans la seconde moitié des années 1970, le camp des nouveaux classiques (cf. infra). Le chef de file des nouveaux classiques, Robert Lucas, invoque un autre argument. Il souligne le caractère artificiel d’une théorie qui part d’un modèle, le modèle walrassien, dans lequel un agent fictif, le commissaire-priseur, est supposé modifier les prix tant qu’il existe des écarts entre les offre et les demande et qui décide de lui lier les mains. Une autre macroéconomie va s’imposer à partir des années 1980. De façon ironique, elle aussi prétend s’appuyer sur la théorie walrassienne mais elle rejette en bloc l’héritage de Keynes.

5. La macroéconométrie

Avant d’en venir à la contre-révolution qui marque les années 1970, il est nécessaire de parler d’un aspect trop souvent négligé de la macroéconomie keynésienne de l’après-guerre. Je veux parler de l’élaboration des modèles macroéconométriques.

La macroéconométrie est un pilier de la macroéconomie qui remonte aux années 1930 et aux travaux de Jan Tinbergen (1903-1994). L’approche de Tinbergen s’inscrit dans le projet de la Société d’économétrie, fondée en 1933, d’unir les mathématiques, l’économie et la statistique. A cette époque, plusieurs économistes envisagent de reproduire les cycles d’affaires observés à partir d’équations dynamiques. Ragnar Frisch propose un modèle de ce type en 1933 avec lequel il génère des oscillations amorties de la consommation et de la production de biens capitaux. Pour expliquer le cycle, Frisch suppose que l’économie représentée par son modèle est soumise à des chocs répétés. On parle à ce sujet du modèle de cheval à bascule. Mais Frisch n’estime pas statistiquement les coefficients de son équation. C’est pourtant bien le projet qu’il nourrit avec d’autres économistes et qu’il baptise la « macrodynamique ». L’objectif est de fournir à l’Etat un outil qui lui permettrait d’intervenir sur l’économie pour réduire l’ampleur des cycles. En 1936, Tinbergen construit un modèle de seize équations représentant l’économie hollandaise et en estime les coefficients. Il est ensuite chargé par la Ligue des Nations de produire une étude qui testerait les nombreuses théories du cycle ayant cours dans les années 1930. L’exercice se révèle impraticable compte tenu du flou de certaines théories ou du caractère non mesurable de certaines de leurs variables. Le résultat, Statistical Testing of Business-Cycle Theories, est un ouvrage en deux volumes qui parait en 1939. Le premier volume définit la méthode de Tinbergen et le second propose un modèle macroéconométrique de l’économie américaine. Ce travail génère une discussion nourrie. Keynes (1939) critique vivement la méthode économétrique de Tinbergen. Cette dernière a notamment le défaut de supposer que l’état futur de l’économie peut être considéré comme la résultante des statistiques passées (Dostaler, 2005 : 132). Pour Keynes, cette hypothèse est absurde car elle revient à évacuer l’incertitude fondamentale qui caractérise les phénomènes sociaux. L’approche de Tinbergen n’est rien d’autre qu’une forme d’alchimie. En dépit de cette critique3, le projet de Tinbergen est poursuivi à la Cowles Commission, sous la direction de Jacob Marschak, durant l’essentiel des années 1940. C’est là que Lawrence Klein entre en scène.

Lawrence Klein (1920-2013) est la figure clé du programme de recherche macroéconométrique aux Etats-Unis à partir de la fin des années 1940. Après avoir rédigé une

3 Notons que la position de Keynes n’est pas dépourvue d’ambiguïté. Ce dernier était en effet un membre important de la Société d’économétrie.

Page 10: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

thèse de doctorat au Massachusetts Institute of Technology sous la direction de Samuelson, publiée sous le titre La Révolution Keynésienne (1947), il rejoint la Cowles Commission. Marschak le charge alors d’élaborer un modèle économétrique de l’économie américaine, un nouveau modèle Tinbergen. Klein a poursuivi cette entreprise pendant l’essentiel de sa carrière. Ses premiers résultats apparaissent dans une monographie de la Cowles Commission publiée en 1950 sous le titre Economic Fluctuations in the United States 1921-1941. L’objectif de l’entreprise est affiché dans la préface de l’ouvrage :

« Nous voulons découvrir la meilleure théorie possible ou des théories qui expliquent les fluctuations que nous observons. Si nous connaissons les caractéristiques quantitatives du système économique, nous pourrons prévoir avec un certain degré de probabilité le cours de certaines grandeurs économiques telles que l’emploi, la production ou le revenu ; et nous pourrons prévoir avec un certain degré de probabilité les effets sur le système de différentes politiques économiques. » (1950 : 1)

Dans un ouvrage postérieur, Klein écrit que la théorie keynésienne étudiée dans sa thèse « exigeait (‘cried out for’) une vérification empirique ». Le modèle IS-LM organise certainement la vision de l’économie de Klein. Mais le rapport entre théorie et modèle macroéconométrique est une affaire complexe. Klein croit que le modèle théorique de référence est un modèle walrassien et que les agrégats du modèle IS-LM doivent en être dérivés. Dans la pratique, son approche implique un programme de microfondement de la macroéconomie alternatif à celui que les théoriciens du déséquilibre ont développé (Hoover, 2012). Son approche est plus empirique. L’enjeu est de progresser dans l’analyse des comportements et la collecte de données afin de désagréger progressivement et au maximum les modèles macroéconométriques. En 1950, Klein passe ainsi d’un premier modèle à trois équations à un modèle à seize équations. Dans les années 1960, il supervise un projet qui conduit à l’élaboration du modèle de la Brookings. Ce dernier atteindra les quatre cent équations.

La macroéconomie keynésienne est trop souvent réduite au modèle IS-LM. Les modèles macroéconométriques sont les outils grâce auquels les macroéconomistes de l’ère keynésienne approchent la réalité économique qu’ils étudient dans toute sa complexité. Ces modèles incorporent des détails institutionnels totalement absent du modèle IS-LM. Le système bancaire, le marché immobilier ou les marchés d’actions sont par exemple absents dans les premiers modèles IS-LM. Par contraste, ces aspects de l’économie, parmi bien d’autres, sont l’objet d’une très grande attention dans le cadre du modèle FRB-MIT dont la construction est supervisée par Modigliani et Albert Ando à la fin des années 1960. La construction de ces modèles mobilise de nombreux doctorants qui se spécialisent dans un secteur particulier du modèle. Leur travail mélange alors élaboration théorique et analyse des données empiriques. Les modèles sont construits par morceaux sur la base d’une foule de modèles partiels. Il s’agit ensuite d’assembler le tout et de le traduire en langage informatique pour se livrer à des simulations sur les ordinateurs de l’époque. Le résultat n’est pas toujours concluant (Cherrier et Backhouse, 2018). Les simulations « explosent » souvent, les variables suivant des trajectoires extrêmes et peu réalistes. Ces outils servent néanmoins à tester les effets de différentes politiques macroéconomiques et ils jouent un rôle important dans les discussions de l’époque. Les premiers modèles macroéconomiques incorporaient la conviction que la politique monétaire était peu efficace. Le secteur financier de ces modèles restait sous-développé.

L’équipe menée par Modigliani et Ando entreprend alors de construire un modèle contenant un secteur financier très détaillé pour prouver l’efficacité de la politique monétaire. Les premiers résultats sont contraires aux attentes. La politique monétaire se révèle plus lente à produire ses effets que la politique fiscale (De Leuwe et Gramlich, 1968). Elle est néanmoins

Page 11: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

un outil de stabilisation puissant. Dans les années 1970, les prédictions de ces modèles sont utilisées pour défendre le point de vue keynésien et l’importance de l’intervention de l’Etat fortement contestée par les monétaristes. Dans un manuel publié en 1978, Robert Gordon affirme à partir d’un ensemble représentatif de modèles macroéconométriques, que le retour de l’économie à son niveau de plein emploi est suffisamment lent pour qu’une politique monétaire active soit souhaitable (Gordon, 1978 : 359). Enfin, l’élaboration des composantes de ces modèles empiriques a sans doute motivé des développements théorique nouveaux. Leur construction ne peut donc pas être réduite à l’estimation empirique du modèle IS-LM. L’étude du rationnement du crédit est un exemple de cette relation à double sens entre théorie et empirie (Acosta et Rubin, 2019). Les concepteurs du modèle FRB-MIT étaient persuadés de l’importance du rationnement du crédit. Les banques commerciales maintenaient des taux d’intérêt rigides et limitaient leurs prêts aux clients les plus solvables. Dans ce contexte, une politique monétaire qui accroissait la liquidité des banques pouvait stimuler l’investissement sans modifier le taux d’intérêt. Ce canal de transmission de la politique monétaire se révéla cependant difficile à détecter sur le plan empirique. Ceci conduisit Modigliani et Dwight Jaffee (1969), un de ses doctorants, à inventer un nouveau modèle théorique pour justifier un test empirique qui se révéla concluant.

L’histoire des modèles macroéconométriques a connu des hauts et des bas. A la fin des années 1940, les travaux de la Cowles Commission se révélèrent décevants au point que ses membres abandonnèrent presque entièrement l’économétrie pour se tourner vers la théorie des jeux. La capacité de prédiction du modèle le plus élaboré de Klein était particulièrement faible (Eptsein, 1987 : 111). Ceci n’empêcha pas Klein de continuer à tracer son sillon. Après une traversée du désert dans les années 1950, la modélisation macroéconométrique connait son âge d’or dans les années 1960. De nombreux modèles sont alors construits. Des équipes de plusieurs dizaines de chercheurs sont mobilisées pour développer le modèle de la Brookings puis le modèle FRB-MIT. Ces modèles arrivent à maturité dans les années 1970 lorsque l’instance centrale de la banque centrale américaine, le Federal Reserve Board, commence à utiliser sa version du modèle FRB-MIT pour obtenir des prévisions. Aux Etats-Unis, plusieurs firmes privées développent de tels modèles et ceux-ci essaiment dans les administrations des pays développés. Au même moment, les modèles macroéconométriques sont l’objet d’une charge féroce. Robert Lucas4 (1976) développe une critique qui est devenue un principe directeur de la macroéconomie. Pour Lucas, lorsque le gouvernement adopte un nouveau type de politique économique, les ménages et les entreprises en tiennent compte en prenant leurs décisions. En d’autres termes, dans la réalité, les règles de décisions utilisées par les agents économiques sont dépendantes de la politique suivie par le gouvernement et ceci affecte l’efficacité de la politique. Comme les modèles macroéconométriques ignorent la capacité d’adaptation des agents économiques, ils sont incapables de prévoir les effets d’un changement de politique. Dit autrement, les coefficients estimés par les modèles et supposés indépendants des variables contrôlées par le gouvernement et la banque centrale sont en réalité variables. Ce problème conduit à Lucas à rejeter en bloc l’approche développée par la Cowles Commission et à proposer une approche alternative recourant à des modèles plus petits et dotés de microfondements jugés plus rigoureux. L’argument de Lucas voit sa portée accrue par les performances médiocres des modèles macroéconométriques qui échouent à prévoir la montée simultanée de l’inflation et du chômage qui suivent les chocs pétroliers des années 1970. En dépit de la résistance de certains économistes keynésiens (Goutsmedt et al, 2017), ces modèles sont abandonnés par la recherche académique dans les années 1980. Leur développement s’est néanmoins poursuivi hors des universités.

4 cf. infra, section 8.

Page 12: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

7. Milton Friedman, la courbe de Phillips et la contre-révolution des années 1970

La macroéconomie keynésienne qui triomphe dans les années 1960, n’est pas sans adversaires. Dès la fin des années 1940, Milton Friedman (1912-2006) entame une croisade pour la renverser à la fois sur le plan de la théorie et de la politique. Friedman est formé l’Université de Chicago dans les années 1930. Ses premiers travaux relèvent essentiellement de la statistique appliquée. En 1946, il obtient un poste de Professeur à l’Université de Chicago ou il va croiser le fer avec les membres de la Cowles Commission. Il affirme en 1951 que les modèles comme ceux de Klein seront « jugés comme des échecs le moment venu ». Friedman appartient alors à un petit groupe d’économistes qui fonde l’école de Chicago. Il participe au « Free Market Project » mis sur pieds par Aaron Director en collaboration avec Friedrich Hayek et dont l’objectif officiel est de conduire à la rédaction d’une version grand public du pamphlet d’Hayek, La route de la servitude (1944), qui expliquait que le keynésianisme et le socialisme conduisaient nécessairement à la dictature (Mirowki et Van Horn, 2009). Capitalisme et Liberté, un plaidoyer ultra-libéral publié par Friedman en 1962, peut être vu comme la réalisation de ce projet. Si les travaux de Friedman suscitent de nombreuses discussions avec les principaux économistes keynésiens, il reste néanmoins un outsider jusqu’aux années 1960. Le débat au sujet de la courbe de Phillips, déclenché par un discours qu’il prononce fin 1967, change cela dans les années 1970 et marque l’apogée du courant monétariste qui se réclame de ses travaux.

Deux contributions majeures de Friedman à la macroéconomie de l’après-guerre peuvent être mises en avant. La première est sa théorie du revenu permanent. Au cours des années 1940, les économistes américains ont accumulé des données empiriques sur les comportements de consommation et sur les revenus des ménages. Ces données conduisent aux premiers tests de la fonction de consommation keynésienne. Le résultat est problématique. Les données sur un durée courte (quatre à cinq ans) ou pour différents ménages en un point du temps confortent l’hypothèse de Keynes. Mais sur une durée plus longue, la propension marginale à consommer est proche de un et non inférieure à un comme le supposent les keynésiens. Dans Une théorie de la fonction de consommation (1957), Friedman réconcilie la théorie avec les données empiriques en s’appuyant sur la théorie des choix intertemporels. Il soutient que la consommation des ménages ne dépend pas de leur revenu courant mais du revenu moyen qu’ils s’attendent à recevoir sur l’ensemble de leur vie. Dans ces conditions, une hausse transitoire du revenu a peu d’effets sur la consommation. Cette analyse remet en cause l’importance que les keynésiens attribuent aux effets multiplicateurs. La seconde grande contribution de Friedman naît de sa collaboration avec leNational Bureau of Economic Research. Cette institution est fondée par Wesley Clair Mitchell, un économiste institutionnaliste qui étudie les caractéristiques empiriques des cycles d’affaires. En 1948, Arthur Burns, qui a pris la tête du NBER, charge Milton Friedman de rédiger avec Anna Schwartz, une experte des données monétaires, ce qui devient Une Histoire monétaire des Etats-Unis 1867-1960 (1963a). Cet ouvrage représente d’abord une compilation de données concernant les agrégats monétaires et le niveau des prix devenu une référence incontournable. Mais le livre devient surtout célèbre pour son chapitre consacré à Grande dépression. Friedman et Schwartz offrent un récit qui prend le contrepied de l’explication keynésienne. La dépression n’est pas la conséquence d’un effondrement de l’investissement qui révèlerait un échec de marché à grande échelle. Elle est d’abord le fruit d’une politique monétaire trop restrictive au début des années 1930. Pour Friedman (1968 : 166), « La Grande Dépression est le témoignage tragique du pouvoir de la politique monétaire ». Affleure ici un thème qui est l’idée principale de Friedman à partir du début des années 1950 et le fondement de ce qu’on a appelé le « monétarisme ».

Page 13: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

Dans une série d’articles étalés de 1956 à 1969, Friedman défend l’importance de la politique monétaire et cherche à réhabiliter la théorie quantitative. Michel De Vroey (2016) résume ce monétarisme à quatre idées : (a) la théorie quantitative est une théorie de la demande de monnaie, (b) les variations du niveau des prix ou du PIB nominal sont presque toujours le résultat de variations de l’offre de monnaie, (c) l’économie de marché est stable et (d) la création monétaire devrait être encadrée par une règle. L’équation quantitative développée par l’américain Irving Fisher (1911) peut s’écrire ainsi :

��� = ��

Posé en ces termes, le débat qui oppose Friedman et les keynésiens porte sur V, la vitesse de circulation de la monnaie. Friedman soutient qu’elle est stable alors que les keynésiens soutiennent qu’elle est instable. Dans les termes du modèle IS-LM, ceci revient à dire que la demande de monnaie est stable. Pour Friedman, le revenu Y est le revenu de plein emploi déterminé par l’économie de marché. Si V est constant, la seule cause possible de l’inflation, c’est-à-dire d’une augmentation de P, est un accroissement de l’offre de monnaie. Pour cette raison, Friedman et Schwartz (1963b) affirment que les fluctuations de l’offre de monnaie sont la cause essentielle des fluctuations de l’économie. Pour limiter ces fluctuations, il faut contrôle l’offre de monnaie en contraignant la banque centrale à respecter une règle fixant la croissance de l’offre de monnaie à 4 ou 5% par an.

Nous en venons maintenant au débat concernant la courbe de Phillips. Pour comprendre la contribution réelle de Friedman il faut présenter les racines de la discussion.5 Aux Etats-Unis, la fin des années 1950 est marquée par la montée d’une « nouvelle inflation ». (Norikazu Takami, 2015). En 1958, les prix et le chômage enflent en parallèle. Ce phénomène déclenche un débat public et mobilise les économistes. Deux types de théories se font face, les théories de l’inflation par la demande et les théories de l’inflation par les coûts. Les théories classiques et keynésiennes interprètent l’inflation comme le résultat d’un excès de la demande globale de biens. Mais ceci implique un contexte de plein emploi. Cette approche semble inadaptée en 1958. D’autres théories voient le jour qui mettent l’accent sur le rôle des syndicats ou le pouvoir de marché des d’entreprises pour expliquer le fait que les prix continuent de monter alors que l’économie ralentit. C’est dans ce contexte et alors que la course à la présidentielle est lancée entre Nixon et Kennedy, que Samuelson et Solow (1960) publient un article intitulé « Aspects analytiques des politiques anti-inflationnistes ». Comment expliquer l’inflation de la fin des années 1950 ? Comment obtenir le plein emploi sans provoquer un dérapage des prix ? A partir d’une batterie d’arguments, Samuelson et Solow expliquent que les théories de l’inflation par la demande et par les coûts ne peuvent pas être départagées. Ils proposent alors de recourir à une approche initiée par Alban William Phillips dans un article paru deux ans plus tôt. Dans cet article, Phillips montre l’existence d’une relation décroissante entre le taux de variation des salaires et le taux de chômage en utilisant les données de l’économie britannique de 1861 à 1957. Il utilise ensuite cette relation de long terme pour montrer qu’un taux de chômage de 2,5% est compatible avec la stabilité des prix (taux d’inflation nul) dans le cas de la Grande Bretagne. Samuelson et Solow construisent un équivalent de la courbe de Phillips pour les Etats-Unis sur la période allant de 1946 à 1960 et en remplaçant le taux de variation des salaires par le taux d’inflation.6

5 Un ensemble de travaux récents, notamment ceux de James Forder, montrent que le récit habituel de cet épisode est en grande partie faux. Nous avons essayé d’en tenir compte. 6 Voir Hoover (2014) pour comprendre la méthode employée par Samuelson et Solow.

Page 14: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

La légende de leur graphique fait référence à la courbe de Phillips comme à un « menu de choix ». Dans l’article, ils notent que deux options s’opposent que nous pouvons associer, rétrospectivement, aux deux camps politiques qui s’affrontent, les républicains et les démocrates. L’option A est celle de la stabilité des prix mais suppose un taux de chômage de 5,5%, très élevé pour l’époque. L’option B est celle du plein emploi, avec un taux de chômage réduit à 3%, mais elle suppose d’accepter un taux d’inflation élevé de 4,5%. L’introduction de cet « arbitrage entre inflation et chômage » est tout ce qui a été retenu de ce texte. Son message central est pourtant différent : la courbe de Phillips est instable. Cette courbe s’est déplacée vers le haut durant les années 1940. Et la politique choisie aura une influence sur sa position future : « La politique qui sera mise en œuvre durant les prochaines années pourrait déplacer [la courbe de Phillips] dans un sens donné » (1960 : 193). Samuelson et Solow ne disposent pas d’une théorie capable de prédire les mouvements de la courbe de Phillips. Ils se contentent donc d’évoquer les différents scénarios imaginables. Ce faisant, ils défendent clairement une politique keynésienne. En effet, ils prennent soin de souligner le danger d’une politique de stabilisation des prix qui provoquerait une récession et pourrait faire glisser la courbe vers le haut. Il faudrait alors accepter un taux de chômage terriblement élevé à long terme pour maintenir le taux d’inflation à zéro. Leur politique favorite consiste à stimuler la demande pour réduire le taux de chômage à 4%. Mais il faut réformer en parallèle le marché du travail pour réduire le taux de chômage structurel à partir duquel l’inflation risque de déraper (déplacer la courbe de Phillips vers le bas). Le but est d’obtenir le plein emploi sans l’inflation. Cette option est précisément celle qui sera retenue par l’administration Kennedy à partir de 1961.7

7 Robert Solow fait partie du conseil économique de Kennedy avec Walter Heller et James Tobin.

Page 15: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

En décembre 1967, alors qu’il préside l’American Economic Association, Friedman prononce un discours resté célèbre (Friedman, 1968). « Le rôle de la politique monétaire » reprend les idées qu’il a défendu depuis la fin des années 1950. Le cœur du texte explique pourquoi la politique monétaire ne peut fixer ni le taux d’intérêt ni le taux de chômage. Le second point peut se lire comme une réponse directe à Samuelson et Solow. Friedman explore en effet un scénario négligé par les économistes du MIT : la possibilité qu’une politique monétaire visant à réduire le chômage à 3% (option B) déplace la courbe de Phillips vers le haut et provoque à long terme une augmentation simultanée du chômage et de l’inflation. Pour Friedman, une politique monétaire expansionniste accroît les prix. Cette inflation n’est pas anticipée par les employés. Ces derniers ne demandent donc aucune augmentation des salaires pour compenser leur perte de pouvoir d’achat. Par contre, les employeurs constatent une baisse du salaire réel (le salaire divisé par l’indice des prix) et décident d’embaucher. La politique monétaire fait ainsi chuter le taux de chômage à court terme. A plus long terme les salariés prennent conscience de leur perte de pouvoir d’achat et demandent des hausses de salaires jusqu’à ce qu’ils aient restauré leur salaire réel initial. Le taux de chômage revient alors à son niveau de départ que Friedman appelle le taux de chômage naturel :

« Pour formuler différemment la conclusion, il existe toujours un arbitrage temporaire entre l’inflation et le chômage ; il n’y a pas d’arbitrage permanent. Le trade-off temporaire ne vient pas de l’inflation elle-même mais d’une inflation non-anticipée, ce qui signifie en général un taux d’inflation croissant. » (1968 : 11)

Friedman affirme que l’économie revient toujours automatiquement au taux de chômage naturel, le taux qui reflète les imperfections du marché du travail. Une politique qui viserait à ramener le taux de chômage au niveau du taux naturel n’est pas praticable non plus car le taux naturel change en permanence. Une telle politique serait source d’instabilité. Friedman conclut l’article en rappelant la nécessité d’une règle fixant le taux de croissance de la masse monétaire. Dans sa conférence de réception du prix Nobel, Friedman (1977) revient sur son texte de 1968 et explique que les keynésiens ont commis l’erreur de croire que la courbe de Phillips était stable et qu’il était possible d’exploiter librement l’arbitrage entre inflation et chômage. C’est ainsi qu’ils auraient déclenché la montée de l’inflation caractéristique des années 1970. Ce qui précède montre qu’il s’agit là d’un terrible raccourci. Mais cette réécriture de l’histoire s’est imposée durablement signant la victoire de Friedman. L’impact de l’argument de Friedman sur la profession peut être mesuré à l’aune des réactions qu’il a suscité. Dès 1969, Solow lui répond en entreprenant de tester ce qu’il appelle l’hypothèse accélérationniste. L’enjeu consiste à estimer empiriquement la forme de la courbe de Phillips à long terme. L’analyse de Friedman implique qu’elle doit être verticale puisque l’économie finit toujours par revenir au taux de chômage naturel. Solow montre que cela revient à estimer le paramètre d’une équation reliant le niveau des salaires au niveau des prix anticipés. Si ce paramètre est égal à un la courbe est verticale. Les premiers tests trouvent des valeurs proches de 0,5. Ceci revient à affirmer que la courbe de Phillips à long terme est décroissante. Mais en 1970, le chômage et l’inflation montent de concert et les tests qui se succèdent au début des années 1970 révèlent une hausse du paramètre sur les prix anticipés. Cette expérience pousse trois jeunes économistes formés au MIT, chez Samuelson et Solow, a admettre une partie des thèses de Friedman. En 1978, Robert Gordon, d’une part, et la paire formée par Rudiger Dornbusch et Stanley, d’autre part, publient deux manuels de macroéconomie qui présentent une version du modèle IS-LM enrichie d’une analyse de la courbe de Phillips à la Friedman. L’économie est supposée revenir automatiquement au taux de chômage naturel. Seule une inflation non-anticipée peut l’en écarter. Ces économistes considèrent néanmoins que le retour au chômage naturel est lent. Ceci justifie l’intervention de l’Etat pour limiter le problème du chômage. Mais cette intervention doit prendre en priorité la forme d’une politique monétaire.

Page 16: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

La politique fiscale des années 1960 est jugée inefficace en invoquant des arguments typiquement friedmaniens : elle implique des délais importants et imprévisibles et a peu d’effet sur le revenu permanent qui détermine le niveau de consommation. L’inflation des années 1970 est en partie attribuée aux politiques keynésiennes des années 1960 qui auraient sous-évalué le taux de chômage naturel. Ces économistes soulignent néanmoins que d’autres facteurs expliquent la stagflation comme la hausse du prix du pétrole ou la mutation du marché du travail. Ce keynésianisme atténué se retrouve dans les principaux manuels jusqu’aux années 2000.8

James Forder (2016) a montré que la présentation des faits de Friedman, accusant les keynésiens de s’appuyer sur la courbe de Phillips pour réduire le chômage en créant de l’inflation, était un mythe. En réalité, jusqu’aux années 1960, les macroéconomistes sont sceptiques à l’égard du travail de Phillips. Les chercheurs qui étudient les variations des salaires ne croit pas que le taux de chômage soit une bonne variable explicative. Le pouvoir de négociation des syndicats ou le prix des biens importés sont jugés plus importants. Et nous avons vu que Samuelson et Solow eux-mêmes ne croyaient pas à la stabilité de la courbe de Phillips. En réalité, en 1966, les macroéconomistes keynésiens considèrent que la dépense publique est trop importante et réclament une hausse des impôts pour compenser la hausse de la dépense publique associée à la guerre du Vietnam. En dépit de tout cela, les arguments de Friedman sont parvenus à capturer l’imagination d’une nouvelle génération d’économistes. Mais ceci n’est qu’un aspect de la transformation que la macroéconomie a connu à partir des années 1970.

8. Robert Lucas et les nouveaux classiques

Sur le plan méthodologique, Friedman s’est toujours présenté comme un disciple de Marshall. Il a constamment défendu le recours à des modèles théoriques minimalistes et accordé la plus grande importance aux travaux empiriques. En 1974, il accepte de présenter ses idées sous la forme d’un modèle théorique qui se révèle être une version classique du modèle IS-LM. Au fond, malgré certains désaccords sur la méthode, keynésiens et monétaristes sont en mesure de débattre à l’intérieur d’un cadre commun. C’est ce cadre commun que va remettre en question Robert Lucas et, après lui, tout un groupe d’économistes auquel a été attaché le label de « nouveaux classiques ».

Lucas a été un élève de Friedman à l’Université de Chicago. Il adhère à son agenda politique anti-interventionniste et à l’idée que les fluctuations économiques sont la conséquence d’une mauvaise politique monétaire. Mais il a aussi été impressionné par La monnaie, l’intérêt et les prix de Patinkin et considère que la macroéconomie doit être reconstruite sur des bases walrassiennes : « Patinkin et moi sommes tous les deux des walrassiens, quoi que cela signifie. Je ne vois pas comment on ne peut pas l’être. » (2004, 16) Lucas cherche à fonder de façon rigoureuse l’argument de Friedman concernant la courbe de Phillips. Dans son premier article important, rédigé avec Leonard Rapping en 1969, Lucas cherche à définir une fonction d’offre de biens susceptible d’expliquer la détermination des prix et des salaires et d’être intégrée à un des modèles macroéconométriques alors en vogue. Mais leur approche rompt avec la pratique dominante. Ils mettent l’accent sur les choix intertemporels des travailleurs et supposent que le marché du travail est toujours à l’équilibre. Un nouveau pas est franchi par Lucas dans un article qui paraît en 1972 intitulé « Anticipations et neutralité de la monnaie ». Lucas développe un modèle d’équilibre général comportement deux générations d’agents, jeunes et vieux, vivants sur deux îles séparées (une idée inspirée par Edmund Phelps). L’enjeu du modèle est d’obtenir une relation entre niveau d’emploi et taux d’inflation sans supposer, comme Friedman, que certains agents (les employés) sont moins bien informés que d’autres

8 Voir Goutsmedt et Rubin (2018).

Page 17: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

(les employeurs). Les agents jeunes produisent un bien périssable consommé par eux-mêmes et par les agents âgés. Les agents âgés ne peuvent pas produire mais achètent le bien aux jeunes grâce à la monnaie qu’ils ont épargnée étant jeunes. Les jeunes doivent décider du niveau de leur production (emploi) et de leur épargne. Il s’agit d’un choix intertemporel qui dépend du rapport entre le prix présent du bien et le prix futur qu’ils anticipent. La difficulté vient du fait que l’économie est soumise à deux types de perturbations. La première vient du fait que les agents jeunes sont répartis de façon aléatoires sur les deux îles. Si le nombre de jeunes est faible relativement au nombre de personnes âgé, le prix du bien est élevé sur l’île et il est intéressant de produire plus. La seconde perturbation vient du fait que la génération âgée reçoit une dotation en monnaie aléatoire et proportionnelle à la quantité de monnaie épargnée dans la période précédente. Une dotation en monnaie élevée fait monter le prix sur les deux îles et n’a pas de raison d’affecter le niveau de la production. Elle n’affecte pas le rapport entre prix présent et prix futur du bien. Comme les jeunes ne parviennent pas à dissocier les deux types de perturbations, il en résulte une relation de Phillips. Ils ont tendance à accroître leur production alors même que la hausse des prix est due à une augmentation de l’offre de monnaie. Une originalité majeure de l’article est le recours à l’hypothèse d’anticipations rationnelles inventée par John Muth (1961). Lucas suppose que les agents qui peuplent son modèle connaissent toutes les caractéristiques de l’économie dans laquelle ils vivent. Sur le plan technique, c’est un tour de force. Sur le plan théorique, cela signifie que les agents ne peuvent pas se tromper de façon systématique. La relation de Phillips obtenu par Lucas ne peut pas être utilisée par un pouvoir politique. Si la croissance de l’offre de monnaie dans le modèle était accrue de façon durable, les agents s’en rendraient immédiatement compte et la production moyenne ne serait pas modifiée. L’hypothèse d’anticipations rationnelles conduirait à la conclusion selon laquelle la politique monétaire serait sans effet sur l’économie. En 1975, Lucas reprend son modèle de 1972 pour en faire un modèle de cycle. Pour cela, il introduit dans l’analyse une fonction de production qui fait intervenir un certain stock de capital. La source des fluctuations est toujours la difficulté à distinguer les perturbations réelles et les perturbations monétaires. Mais cette fois, l’erreur de perception conduit à accroître le stock de capital, ce qui a un effet durable sur l’économie.

Le message politique de ces travaux est clair. La politique monétaire est la source des fluctuations économiques et la meilleure chose à faire est de la contraindre à respecter une règle comme celle envisagée par Friedman. Mais cette thèse, développée par économistes séduits par les travaux de Lucas, Thomas Sargent et Neil Wallace (1975) ou Finn Kydland et Edward Prescott (1977), est rapidement invalidée. Plusieurs études empiriques (Sims, 1980 et Delong et Plosser 1982 notamment) montrent que les effets cycliques des chocs monétaires sont trop faibles pour expliquer l’ampleur des variations de la production et de l’emploi. Pour cette raison, les modèles de Lucas n’ont pas fait école. Mais sa contribution a eu un très grand impact sur le plan méthodologique. Lucas contribue à la remise en question de la macroéconomie keynésienne qui marque les années 1970. En 1979, lors d’une conférence donnée à Chicago, il explique : « L’évolution principale dont je vais parler a déjà eu lieu : l’économie keynésienne est morte » (cité dans De Vroey, 2016 : 210). Lucas transforme la question centrale de la macroéconomie. Pour lui le problème n’est plus l’explication du chômage involontaire mais l’explication des fluctuations de l’économie. Pour comprendre ce phénomène, les modèles macroéconométriques keynésiens sont inadaptés car leurs fondements microéconomiques sont défectueux (Lucas, 1976). Ils sont incapables de rendre compte de la façon dont les agents s’adaptent en fonction de l’information dont ils disposent sur l’évolution future de l’économie. Il existe différentes façons de traiter ce problème (Goutsmedt et al. 2017) mais Lucas défend une solution particulière : la discipline de l’équilibre. La seule méthode opérationnelle dont les économistes disposent pour expliciter les problèmes de choix des agents consisterait à les traiter comme des problèmes d’optimisation

Page 18: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

sous-contrainte. Et la seule façon d’analyser l’interaction entre les agents consisterait à supposer que les marchés sont tous à l’équilibre au sens le plus fort de ce terme. Pour Lucas, il faut supposer que les agents économiques parviennent toujours à réaliser leurs objectifs. On parle à ce sujet d’« apurement des marchés » car aucune opportunité d’échange ne reste inexploitée. Le cadre de référence doit être le modèle d’équilibre général de Arrow et Debreu (1954). Il écarte ainsi de la macroéconomie un phénomène comme le chômage involontaire, associé à la fois à un déséquilibre du marché du travail et à la possibilité qu’un travailleur n’obtienne pas l’emploi qu’il désire. Pour rendre compte de la capacité des agents à s’adapter aux politiques économiques, il faut recourir à l’hypothèse d’anticipations rationnelles. Un autre aspect de la méthodologie de Lucas peut être souligné. Pour lui, une théorie scientifique doit prendre la forme d’un modèle mathématique. Tout ce qui ne s’intègre pas au modèle est de l’ordre du discours préscientifique. Le recours systématique aux modèles mathématiques est déjà amorcé à partir de la fin des années 1930 mais pour les keynésiens de l’après-guerre, si l’on est incapable de formaliser des idées que l’on juge importantes, il est légitime et nécessaire de les exprimer en prose.

9. La nouvelle synthèse

Au cours des années 1990, une « nouvelle synthèse néoclassique » voit le jour (Goodfriend et King, 1997). Elle s’appuie sur des modèles de cycles qui descendent de ceux de Robert Lucas et respectent son credo concernant les fondements microéconomiques de la macroéconomie. A l’opposé de Lucas cependant, les économistes qui développent ces modèles supposent que les prix nominaux souffrent de certaines rigidités et considère que l’intervention de la banque centrale peut améliorer la situation de l’économie. Pour cette raison, le label « nouveau keynésien » a fini par s’imposer pour désigner ce courant. Cette macroéconomie n’émerge qu’après une phase de bouillonnement intellectuel qui voit s’affronter plusieurs courants de recherche de la fin des années 1970 aux années 1980.

Au début des années 1980, dans le camp des nouveaux classiques, Kydland et Prescott (1982) fondent un nouveau programme de recherche en poursuivant l’effort d’élaboration du modèle de cycle proposé par Lucas en 1975. Leur modèle, dit modèle de cycles réels, est une version modifiée du modèle de croissance optimal de Cass (1965) et Koopmans (1965) fondé sur l’hypothèse d’un agent représentatif. Ce ménage a durée de vie infinie doit décider de la répartition de ses revenus présents et futures entre consommation et investissement ainsi que le niveau de l’effort productif qu’il consent. L’agent représentatif est doté d’anticipations rationnelles qui lui permettent d’anticiper correctement, en moyenne, les données futures de l’économie. Dans ce cadre les fluctuations sont générées non par des variations imprévues de l’offre de monnaie mais par des variations aléatoires de la productivité totale des facteurs ou ce qu’on appelle depuis des chocs technologiques. Un choc technologique positif signifie que la productivité marginale du travail augmente. Le salaire réel s’accroit, ce qui incite l’agent économique à travailler plus. Kydland et Prescott (1982) développent ensuite une stratégie nouvelle, la calibration, pour confronter leur modèle aux données existantes sur les fluctuations de l’économie de 1950 à 1975. Ils tirent parti des performances nouvelles des ordinateurs pour se livrer à des simulations. De façon étonnante, compte tenu du caractère très simplifié de leur modèle, le résultat est plutôt favorable. Ils parviennent ainsi à faire redémarrer le programme de recherche défendu par Lucas au moment où ses modèles sont abandonnés. Kydland et Prescott proposent de concevoir les fluctuations de l’économie comme l’adaptation optimale des agents à un contexte mouvant. L’économie est toujours à l’équilibre au sens walrassien du terme, le chômage est absent et il n’y a aucune place pour une intervention de l’Etat. Le modèle est dépourvu de monnaie de sorte qu’il n’a rien à dire au sujet de la politique monétaire. Cette approche fait rapidement face à de nombreuses critiques. Lawrence Summers (1986), par exemple, note que dans un tel modèle, la Grande Dépression

Page 19: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

se transforme en grandes vacances car l’effondrement de l’emploi observé est expliqué par le choix des agents de réduire leur offre de travail. L’hypothèse de l’agent représentatif suppose que les individus qui peuplent l’économie sont identiques et ont des préférences qui respectent une structure particulière. Enfin, les chocs technologiques invoqués ne génèrent des variations persistantes de la production que s’ils sont eux-mêmes persistants. Mais la méthodologie proposée et la stratégie de formation de jeunes chercheurs de Kydland et Prescott conduisent toute une génération de doctorants à développer leur approche.

Le programme des cycles réels (« Real Business Cycles »), n’est pas le seul à se développer sur la période. La théorie du déséquilibre est toujours vivante en Europe, principalement en France et en Belgique, mais elle est rapidement désertée aux Etats-Unis. Les héritiers du projet radical de Keynes, dont il a été trop peu question dans ce chapitre, sont aussi au travail. Ils viennent de fonder un journal qui popularise le terme du Post-Keynésianisme : le Journal of Post-Keynesian Economics. Mais leur influence reste limitée. Aux Etats-Unis, des économistes cherchent à répondre aux arguments des nouveaux classiques tout en acceptant la discipline de l’équilibre prônée par Lucas. Plusieurs approches peuvent être distinguées.

Un ensemble de chercheurs issus de la théorie de l’équilibre général et de la macroéconomie, développent des modèles à générations d’agents, comme celui déjà utilisé par Lucas en 1972, en montrant qu’ils possèdent généralement des équilibres multiples (Cherrier et Saidi, 2018 ; Assous et Duarte, 2017). Ces modèles peuvent alors expliquer le cycle comme l’oscillation de l’économie entre deux ou plusieurs équilibres. Jean-Michel Grandmont (1985) critique explicitement le modèle de Lucas (1972) en montrant qu’une économie concurrentielle peut connaître des fluctuations même en l’absence de chocs exogènes. A l’opposé de Lucas ou de Kydland et Prescott, il présente ainsi les fluctuations comme un problème inhérent (ou endogène) à l’économie de marché. Ces chercheurs explorent ensuite les règles ou interventions qui permettraient de limiter la multiplicité des équilibres ou d’amener l’économie à un équilibre favorable.

Suivant une approche différente, en 1977, Stanley Fischer montre que la politique monétaire peut être efficace dans un modèle à anticipations rationnelles du type de ceux utilisés par les nouveaux classiques dès lors que les salaires sont fixés pour plusieurs périodes et révisés de façon intermittente. Un ensemble de travaux, notamment publiés par John Taylor, explorent les conséquences du fait que les prix et les salaires sont révisés de façon échelonnée et non instantanée, et ce dans le cadre de modèle dynamiques.

Un autre ensemble de modèles cherchent à sauver le concept de chômage involontaire en fondant microéconomiquement les rigidités de prix et de salaires. L’exemple le plus frappant est le modèle du salaire d’efficience de Shapiro et Stiglitz (1984). Les deux économistes supposent que les travailleurs ont la possibilité de tirer au flanc, ou de faire semblant de travailler, sans se faire licencier immédiatement car la détection des tricheurs est coûteuse pour l’employeur. Pour inciter les salariés à travailler, les employeurs décident de les payer plus cher. La hausse des salaires contraint les employeurs à moins embaucher et crée du chômage. Ce dernier phénomène est précisément ce qui discipline les salariés en les incitant à éviter de tricher pour ne pas perdre durablement un salaire élevé. Le chômage est involontaire car les travailleurs exclus de l’emploi souhaiteraient travailler compte tenu du salaire du marché. Avec recul, on peut considérer que ce modèle n’est pas keynésien car le chômage qu’il contient est le fruit d’une imperfection du marché du travail et ne peut pas être réduit par une politique keynésienne traditionnelle. On note par ailleurs que la mauvaise volonté des travailleurs est la racine du problème. Ce modèle est exemplaire d’un ensemble de contributions qui examinent les conséquences d’imperfections de l’économie dans le contexte de modèles statiques et d’équilibre partiel.

Page 20: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

En 1991, les presses du MIT publient un ouvrage en deux tomes édité par Gregory Mankiw et David Romer sous le titre New Keynesian Economics. Les deux économistes regroupent l’ensemble hétérogène des travaux précédemment évoqués sous un label qui va avoir un grand succès. Face aux nouveaux classiques, l’enjeu est de réhabiliter, une vision de l’économie qui considère que la politique monétaire n’est pas neutre compte tenu des rigidités de prix. L’introduction de l’ouvrage note que le titre aurait pu être « nouvelle économie monétariste ». Monétaristes et keynésiens se rejoignent en effet dans leur opposition aux nouveaux classiques et ont en commun la conviction que la monnaie n’est pas neutre à court terme. Cette publication est l’acmé d’une période de bouillonnement et d’affrontement qui va s’achever dans les années 1990.

Au cours des années 1990, un ensemble de chercheurs incorporent dans le modèle de cycle réel originel de Kydland et Prescott des hypothèses considérées comme « nouvelles keynésiennes ». La concurrence est supposée monopolistique et les entreprises ne révisent pas leurs prix en continue, en d’autres termes, l’économie est marquée par des rigidités nominales. Une banque centrale est introduite dans les modèles. Elle fournit de la monnaie à la demande mais fixe le taux d’intérêt en appliquant une règle dont la nature est un des principaux objets d’investigation. On parle alors de « nouvelle synthèse néoclassique » ou de macroéconomie « nouvelle keynésienne » pour désigner l’émergence d’une forme de consensus concernant le modèle de base et la méthodologie dominante en macroéconomie. Le modèle de base est appelé modèle d’équilibre général dynamique et stochastique (DSGE en anglais). L’œuvre la plus représentative de cette phase de l’histoire de la macroéconomie est Interest and Prices publié par Michael Woodford en 2003. Selon cette approche, qui domine jusqu’en 2008, la tâche principale de la banque centrale est de stabiliser le taux d’inflation. Cette politique a en effet pour conséquence de réduire la distance entre l’équilibre effectif de l’économie et l’équilibre qui prévaudrait en l’absence de toute rigidité nominale. Un effet secondaire est la réduction de la variabilité de la production et de l’emploi, ce que Jordi Gali et Olivier Blanchard (2010) nomment la « divine coïncidence ». La politique monétaire est l’outil privilégié pour stabiliser l’économie et la politique budgétaire est réduite aux stabilisateurs automatiques, c’est-à-dire aux variations des recettes fiscales et de la dépense publique induites de façon automatique par les variations de la production et de l’emploi. Une version appliquée de ce type de modèle est développée par Frank Smets et Ralph Wouters (2003) qui permet son utilisation dans les banques centrales. Les modèles DSGE viennent concurrencer voire supplanter les modèles macroéconométriques hérités des années 1960 et toujours utilisés dans ces institutions. C’est le triomphe de la nouvelle macroéconomie.

Conclusion

En 2007 et 2008, une crise financière majeure secoue la planète. Cette crise part du marché interbancaire. Les grandes banques privées de la planète cessent de se prêter des liquidités, menaçant l’économie d’effondrement et forçant les banques centrales à intervenir de façon massive et innovante. Cet évènement remet profondément en cause la macroéconomie. En effet, les modèles DSGE réduisent le système financier à la banque centrale. Les travaux élaborés des macroéconomistes des années 1960 sur le système bancaire ont été oubliés, tout comme les avertissements d’économistes post-keynésiens, tel Hyman Minsky, concernant l’instabilité financière de l’économie de marché. Les outils dominants la recherche sont incapables d’offrir le moindre éclairage sur la crise en cours. Pour Paul Krugman, prix Nobel d’économie 2008, les économistes ont « confondus la beauté, drapée dans les mathématiques, et la vérité » (2009). Cette crise génère un sursaut de la macroéconomie DSGE qui explore en tous sens le moyen d’intégrer la sphère financière à ses modèles. L’hypothèse d’anticipation rationnelle est remise en cause. De nouveau type de modèles macroéconomiques, comme les modèles à agents multiples, commencent à être utilisés dans les banques centrales. Une

Page 21: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

nouvelle phase de bouillonnement de la macroéconomie est en cours. La discipline a parcouru un long chemin depuis Keynes. Elle recourt à des modèles dont les fondements microéconomiques ont immensément gagné en rigueur mais sa pertinence empirique est toujours problématique. La macroéconomie est toujours écartelée entre sa volonté de rigueur théorique, l’usage de modèles mathématiques simplifiés, et la nécessité de rendre compte de la réalité de l’économie pour fournir des outils pertinents aux concepteurs des politiques économiques.

Bibliographie

Acosta, J. Rubin, G. 2019. Bank behavior in large-scale macroeconometric models of the 1960s, History of Political Economy, 51 (3): 471-491.

Assous, M. Duarte, P. 2017. Challenging Lucas : from overlapping generations to infinite lived agents models. CHOPE Working Paper No. 2017-05. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2910531

Backhouse, R. Cherrier, B. 2018. The Ordinary Business of Macroeconometric Modeling: Working on the Fed-MIT-Penn Model (1964–1974), https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3266559

Barens , Ingo . 1999 . “From Keynes to Money, Markets and Method.” In Essays in Honour of Robert W. Clower Cheltenham: Edward Elgar , pp. 85– 120.

Barro, R. J. Grossman, H. I. 1971. A General Disequilibrium Model of Income and Employment. American Economic Review 61:82-93.

Blanchard, O. Gali, J. 2010. Labor markets and monetary policy: a new-keynesian model with unemployment. American Economic Journal-Macro 2: 1-33.

Cherrier, B. Saïdi, A. 2018. The Indeterminate Fate of Sunspots in Economics. Available at SSRN: https://ssrn.com/abstract=2684756

Clower, R. 1965. The Keynesian Counter-Revolution: a Theoretical Appraisal. In The Theory of Interest Rates edited by F. H. Hahn. F. P. R. Bretchling. London: Macmillan. 103-25.

De Vroey, M. 2016. A History of Macroeconomics from Keynes to Lucas and Beyond. New York: Cambridge University Press.

Dimand, R. 2007. Keynes, IS-LM, and the Marshallian Tradition. History of Political Economy. 39 (1): 81-95.

Dostaler, G. 2005. Keynes et ses combats, Paris: Albin Michel.

Hicks, J. 1937. Mr Keynes and the Classics: a suggested interpretation. Econometrica 5:147-59.

Hoover, K. 2012. “Microfoundational Programs.” In P. Garcia Duarte and G. Tadeu Lima , eds., Microfoundations Reconsidered: The Relationship of Micro and Macroeconomics in Historical Perspective . Cheltenham :Edward Elgar , pp. 19– 61.

Keynes, J-M. (1936)[1969] La Théorie générale de l’emploi, de l’intérêt et de la monnaie, Paris : Payot.

Klein, L. [1947a] 1966. The Keynesian Revolution. Second edition, New York, London: Macmillan.

Lange, O. 1938. The Rate of Interest and the Optimum Propensity to Consume. Economica V:12-32

Goodfriend, M. King, R. 1997. The New Neoclassical Synthesis and the Role of Monetary Policy. In Bernanke and J. Rotenberg (eds). NBER Macroeconomics Annual. Cambridge MA: MIT Press: 231-83.

Gordon, R. 1978. Macroeconomics. Boston: Little, Brown and Compagny.

Goutsmedt A., Pinzon-Fuchs E., Renault M. and Sergi F. (2017) “Reacting to the Lucas Critique: The Keynesians’ Pragmatic Replies”. Documents de travail du Centre d'Economie de la Sorbonne 2017.https://centredeconomiesorbonne.univ-paris1.fr/documents-de-travail-du-ces/

Grandmont, J-M. 1985. On Endogenous Competitive Business Cycles. Econometrica, 53 (5): 995-1046.

Malinvaud, E. 1977. The Theory of Unemployment Reconsidered. Oxford: Basil Blackwell.

Modigliani, F. 1963. The Monetary Mechanism and its Interaction with Real Phenomena. Review of Economics and Statistics 45 (1):79-107.

Modigliani, F. 1944. Liquidity Preference and the Theory of Interest and Money. Econometrica XII:45-88.

Page 22: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

Patinkin, D. [1965] 1972. La monnaie, l’intérêt et les prix. Traduction française de la seconde édition de Money, Interest, and Prices. Paris: Presses Universitaires de France.

Patinkin, D. 1947a. On the Consistency of Economic Models: A Theory of Involuntary Unemployment. Doctoral dissertion. University of Chicago, August.

Shapiro, C. Stiglitz, J. 1984. Equilibrium Unemployment as a Worker Discipline Device. American Economic Review. 74: 433-444.

Smets, F. Wouters, R. 2003. An Estimated Dynamic Stochastic General Equilibrium of the Euro Area. Journal of European Economic Association. 5: 1123-1175;

Woodford, M. 2003. Interest and Prices: Foundations of a Theory of Monetary Policy. Princeton, Princeton University Press.

Forder, J. 2014. Macroeconomics and the Phillips Curve Myth. Oxford, Oxford University Press.

Fischer, S. 1977. Long-term contracts, rational expectations, and the optimal money supply rule. Journal of Political Economy 85: 191-205.

Keynes, J-M. 1936. [1988] Théorie générale, de l’emploi, de l’intérêt et de la monnaie. Paris : Payot.

Kydland, F. Prescott, E. 1982. Time to Build and Aggregate Flucutations. Econometrica 50: 1345-70.

Koopmans, T. 1965. On the Concept of Optimal Economic Growth, Cowles Foundation Discussion Papers 163, Cowles Foundation for Research in Economics, Yale University.

Cass. D. 1965. Optimal growth in an aggregate model of capital accumulation. Review of Economic Studies. 32: 233-240.

Summers, L. 1986. Some skeptical observations on real business cycle theory. Federal Reserve Bank of Minneapolis Quarterly Review, Vol. 10, No. 4 , (Fall 1986), pp. 23-27.

Krugman, P. 2009. How Did Economists Get It So Wrong? New York Times. September 6.

Sargent, T. Wallace, N. 1975. Rational expectations, the optimal monetary instrument, and the optimal money supplyrule. Journal of Political Economy 83: 241-254.

Kydland, F. Prescott, E.1977. Rules rather than discretion: the inconsistency of optimal plans. Journal of Political Economy 85: 473-91;

Sims, C. 1980. Macroeconomics and reality. Econometrica. 48: 1-48.

Muth, J. 1961. Rational Expectations and the theory of price movements. Econometrica. 29: 315-335.

Lucas, Robert E., Jr. (1972). Expectations and the Neutrality of Money. Journal of Economic Theory, 4 (2): 103-124.

Lucas, Robert E., Jr. (1975). An Equilibrium Model of the Business Cycle. Journal of Political Economy, 83 (6): 1113-1144.

Lucas Robert E. Jr. (1976), Evaluation économétrique de la politique: une critique, trad. fr., Abraham-Frois Gilbert, Larbre Françoise, La macroéconomie après Lucas, Paris, Economica, 1998.

Lucas Robert E. Jr. 2004. Keynote Address to the 2003 HOPE conference: My Keynesian Education. History of Political Economy, annual supplement to volume 36: 12-24.

Mankiw Gregory N., Romer David, New Keynesian Economics, Cambridge (Mass), Londre, The MIT Press, 1991.

Friedman Milton, A theory of the consumption function, Princeton, Princeton University Press, 1957.

Friedman Milton, Schwartz Anna, A Monetary History of the United States, 1867-1960, Cambridge, NBER, 1963.

Friedman Milton, “The role of monetary policy”, American Economic Review, 1968, vol. 58, .

Friedman, M. 1974. A theoretical framework for monetary analysis. In R. J. Gordon (ed) Milton Friedman’s Monetary Framework. Chicago: Chicago University Press: 1-62.

Friedman Milton, “Nobel lecture: inflation and unemployment”, Journal of Political Economy, 1977, vol. 85.

Page 23: Chapitre 12. Synthèse et contre-révolutions en ... · La Théorie générale (1936), l’ouvrage de John Maynard Keynes présentée dans le chapitre précédent, représente un

Goutsmedt, A. Rubin, G. 2018. « Robert J. Gordon and the introduction of the natural rate hypothesis in the Keynesian framework », History of Economic Ideas, 26 (3) : 157-187.