83
Chapitre 5 – Les transformations des structures économiques et financières 1. La facteur économique déterminant de croissance de long terme : la hausse de la productivité globale des facteurs 1.1 Approche empirique Document 1 Sur l’ensemble de la période 1890-2012, le PIB par habitant a connu une très forte progression, correspondant par exemple en France à une multiplication par un facteur neuf. Cette progression n’a pas été régulière : elle connait de fortes irrégularités liées à des chocs globaux, comme les guerres, les innovations techno‐ logiques et les chocs pétroliers, ou propres à chaque pays ou zone comme la mise en œuvre de programmes de réformes ambitieux. Les deux facteurs qui ont principalement contribué à cette forte progression du PIB par habitant sont la productivité globale des facteurs (PGF) et l’intensité capitalistique. Source : Cette et alii ÉCONOMIE ET STATISTIQUE N° 474, 2014 Document 2 : PGF + intensité capitalistique = productivité horaire du travail Document 3 : décomposition de la croissance depuis 1890 ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018 1

Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

  • Upload
    hadan

  • View
    214

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Chapitre 5 – Les transformations des structures économiques et financières

1. La facteur économique déterminant de croissance de long terme : la hausse de la productivité globale des facteurs

1.1 Approche empirique

Document 1Sur l’ensemble de la période 1890-2012, le PIB par habitant a connu une très forte progression, correspondant par exemple en France à une multiplication par un facteur neuf. Cette progression n’a pas été régulière : elle connait de fortes irrégularités liées à des chocs globaux, comme les guerres, les innovations techno‐ logiques et les chocs pétroliers, ou propres à chaque pays ou zone comme la mise en œuvre de programmes de réformes ambitieux. Les deux facteurs qui ont principalement contribué à cette forte progression du PIB par habitant sont la productivité globale des facteurs (PGF) et l’intensité capitalistique.

Source : Cette et alii ÉCONOMIE ET STATISTIQUE N° 474, 2014

Document 2 : PGF + intensité capitalistique = productivité horaire du travail

Document 3 : décomposition de la croissance depuis 1890

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

1

Page 2: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 4Paul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que « la productivité n’est pas tout, sauf à long terme ». Pourquoi ? Parce que la « capacité d’un pays à améliorer son niveau de vie au cours du temps dépend presque entièrement de sa capacité à augmenter sa production par actif », c’est-à-dire le nombre d’heures de travail nécessaires pour produire tout ce que nous produisons (…). La plupart des pays ne disposent pas de larges réserves pétrolières ou minières, et ils ne peuvent donc pas s’enrichir en les exportant. Le seul moyen pour eux de le faire, et donc d’améliorer le niveau de vie de leur population, est que les entreprises et les travailleurs continuent à obtenir davantage d’outputs pour une même quantité d’inputs – autrement dit, davantage de biens et services pour le même nombre de personnes. L’innovation sert à augmenter la productivité. Les économistes (…) s’accordent tous sur le rôle fondamental de l’innovation dans la croissance et la prospérité. La plupart serait d’accord avec Joseph Schumpeter pour dire que « l’innovation est le fait le plus remarquable de l’histoire économique des sociétés capitalistes ». (…) C’est ici que prend fin le consensus et que commencent les désaccords : quelle est la part de ce « fait remarquable » aujourd’hui ? Et sa trajectoire est-elle à la hausse ou à la baisse ?

Source : Erik Brynjolfsson et Andrew McAffe « Le deuxième âge de la machine. Travail et prospérité à l’heure de la révolution technologique », O.Jacob, 2015, p. 84

Document 5: comparaison évolution variation de la productivité horaire du travail Etats-Unis / France

Source : Gilbert Cette « Croissance de la productivité : quelles perspectives pour la France ? » 2013

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

2

Page 3: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 6

Source : Cette et alii ÉCONOMIE ET STATISTIQUE N° 474, 2014

Document 7 : la désynchronisation des vagues de croissance En France, deux vagues apparaissent entre 1890 et 2012, dans les années vingt, puis de manière beaucoup plus marquée pendant la période des « Trente Glorieuses » au cours de laquelle la France bénéficie d’un taux de croissance annuel moyen de 4,2 % par an du PIB par habitant. Cette seconde vague peut être attribuée aux reconstructions d’après guerre ainsi qu’au rattrapage technologique vis à vis des‐ ‐ ‐ États Unis. Le profil observé pour la zone euro est assez proche de celui de la France.‐Les États Unis présentent un profil très différent, avec une grande vague, la « ‐ one big wave » de Gordon (1999), s’amorçant dans les années vingt et culminant dans les années quarante, qui correspond à un choc d’innovation ayant permis une forte accélération de la productivité (Fields, 2012). Une autre vague plus modeste apparaît à partir du début des années quatre vingt dix, correspondant à la révolution‐ ‐ technologique portée par les TIC. À chaque fois, les chocs d’innovation semblent atteindre les États Unis‐ avant la zone euro. Cette avance est généralement attribuée à des facteurs institutionnels (Ferguson et Washer, 2004) tels la concurrence sur le marché des biens, la flexibilité du marché du travail ou encore le niveau d’éducation de la population en âge de travailler.

Source : Antonin Bergeaud, Gilbert Cette, Rémy Lecat«  Le produit intérieur brut par habitant en France et dans les pays avancés : le rôle de la productivité et

de l’emploi » Banque de France, rue de la Banque Octobre 2015 n°11

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

3

Page 4: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

1.2 Les conséquences de la hausse de la productivité sur la structure de l’économie et l’emploi

1.2.1 Le lien entre gains de productivité et emploi

Document 8 : effet négatif direct des gains de productivité sur l’emploiL’argument essentiel pour comprendre les conséquences négatives du progrès technique sur l’emploi se situe au niveau microéconomique, celui des unités de production. Puisque le progrès technique fait augmenter la productivité du travail, à niveau de production stable, une entreprise peut réduire le temps de travail nécessaire pour produire. Il est donc possible d’économiser du travail. Cette augmentation de la productivité peut provenir d’une innovation de procédés (le travail à la chaine) ou d’une innovation organisationnelle (le taylorisme ou le toyotisme). Les innovations de produit, ou de commercialisation, quant à elles, conduisent à l’obsolescence de biens ou services concurrents, à la disparition des entreprises qui les produisent, mais aussi aux métiers qui leur sont associés. Par exemple dans les métiers liés à la photographie, avec le recul des technologies argentiques et l’essor des formats numériques, le tirage papier des photos ne nécessite plus des compétences de chimiste mais celles de graphiste sur ordinateur.

Source : M.Sarzier et N.Danglade

Document 9 : effet positif direct des gains de productivité sur l’emploiLe progrès technique fait aussi apparaître de nouveaux métiers et de nouvelles activités. Par exemple, le nombre d’ingénieurs et de cadres de l’informatique et des télécom est passé en France de 50 000 en 1983 à 350 000 en 2013 (source France Stratégie « L’effet de l’automatisation sur l’emploi : ce qu’on sait et ce qu’on ignore », Juillet 2016). Soit une hausse de 600% en 30 ans. En renforçant la compétitivité des entreprises, il stimule la demande qui leur est adressée, et permet ainsi la création d’emplois. Du point de vue « microéconomique », celui de l’unité de production, il n’est donc pas possible de conclure à une disparition mécanique de l’emploi provoqué par le progrès technique. Par exemple, l’industrie automobile allemande est l’une des plus robotisée du monde. Pourtant l’emploi industriel automobile est encore de 800 000 salariés en 2015, c’est-à-dire 100 000 de plus qu’il y a 20 ans (source France Stratégie « L’effet de l’automatisation sur l’emploi : ce qu’on sait et ce qu’on ignore », Juillet 2016).

Source : M.Sarzier et N.Danglade

Document 10 : effets indirects (macroéconomiques) sur l’emploiLe progrès technique peut aussi avoir des conséquences positives plus « macroéconomiques » sur la quantité de travail qu’utilise une économie.En effet, les gains de productivité permettent de faire baisser les prix et d’augmenter de salaires, ce qui a un impact positif sur le pouvoir d’achat des ménages. Ils permettent aussi d’augmenter les profits qui assurent le financement des investissements et donc la progression des capacités de production. Le progrès technique se diffuse donc à l’ensemble de l’économie à travers le canal de la demande et celui de l’offre. Il a alors un effet « indirect » positif sur l’emploi, son influence est de dimension « macroéconomique ».

Source : M.Sarzier et N.Danglade

Document 11 : en résuméPour comprendre les conséquences du progrès technique sur la quantité de travail utilisée, il faut se demander comme les gains de productivité sont utilisés. Cette utilisation est à la fois « microéconomique » et « macroéconomique ». Au niveau microéconomique, les gains de productivité permettent effectivement d’économiser du travail, mais ils ouvrent aussi de nouvelles opportunités commerciales aux entreprises et font apparaître de nouveaux métiers. Au niveau macroéconomique, ils enclenchent dans toute l’économie une dynamique de hausse de la demande et de l’offre, qui stimule le travail et l’emploi. C’est bien parce que la demande globale augmente grâce au progrès technique que les effets directs négatifs sur l’emploi sont compensés. Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21ième siècle. L’ubérisation de l’économie ? 2017) écrivent « Pour certains, la contraction du travail nécessaire à la production des biens et services aboutirait à une baisse considérable de la durée travaillée. Ainsi, Keynes écrivait en 1930 que cent ans plus tard, c’est-à-dire maintenant dans moins de quinze ans, la semaine de 15 heures de travail devrait suffire à produire les

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

4

Page 5: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

richesses alors nécessaires à l’homme. Et cela grâce aux évolutions technologiques, c’est-à-dire aux gains de productivité. (…) Keynes avait en partie raison : dans les pays les plus développés, les gains de productivité prodigieux réalisés durant le XXième siècle ont bien permis de financer à la fois une extraordinaire augmentation du niveau de vie économique moyen et une réduction de la durée moyenne du travail, cette dernière a été divisée par un facteur supérieur à deux depuis la fin du XIXième siècle. Mais (…) les craintes d’une évaporation (de l’emploi) ont à chaque fois été démenties par les évolutions constatées ».Si les gains de productivité avaient été intégralement utilisés pour économiser du travail, nous aurions du assister, toutes choses égales par ailleurs, à une baisse équivalente de la durée annuelle du travail par actif. Or, cette dernière n’a été divisée que par 2, passant de 3000 heures par an à 1500 heures, tandis que la productivité horaire a été multipliée par 20 sur la même période. Cela signifie que l’utilisation des gains de productivité a bien servi à autres choses qu’à économiser du travail. Elle a servi à développer l’activité économique, et par la-même à stimuler la demande de travail.

Source : M.Sarzier et N.Danglade

1.2.2 La dynamique de destruction créatrice : Joseph Schumpeter

Document 12L’idée selon laquelle les destructions d’emplois sont inférieures aux créations est au cœur des travaux de l’économiste Joseph Schumpeter (1883-1950). Pour Schumpeter, les grandes innovations ont la capacité d’entraîner l’ensemble de l’économie. Elles ont biens sur la production et l’emploi des effets directs négatifs, des effets directs positifs, mais surtout des effets « macroéconomiques » qui tirent le niveau de production de l’ensemble de l’économie. Adoptant une approche historique, il explique les cycles longs de l’économie (qui durent environ 50 ans), par l’émergence et la diffusion des grappes d’innovations majeures. Il s’oppose à l’idée selon laquelle l’introduction des innovations raréfie le travail sur le long terme. Par contre, il met l’accent sur les transformations du travail induites par la dynamique de creativ destruction provoquée par les innovations.

Source : M.Sarzier et N.Danglade

1.2.3 Le déversement des empois et l’évolution de la place relative de chaque secteur dans l’économie

Document 13 : la théorie du déversementAlfred Sauvy (1898-1990) s’appuie également sur le rôle du progrès technique et de la productivité pour expliquer l’évolution de la structure de la population active sur le long terme. En partant d’une lecture de l’économie en trois secteurs d’activité : l’agriculture, l’industrie et les services, il explique l’évolution de l’emploi dans chaque secteur en fonction du rapport entre la production (c’est-à-dire la demande) et la productivité. On sait en effet que la productivité s’obtient en divisant la production (la demande) par la quantité de travail utilisée. Donc, la quantité de travail utilisée est obtenue en divisant la production (la demande) par la productivité. Dit autrement, lorsque, dans un secteur, la productivité augmente plus que proportionnellement à la demande, la production va utiliser moins de travail et ce travail va se déverser

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

Productivité horaire du travail

Effets directs négatifs sur l’emploi

- Economie facteur L- Disparition entreprises moins compétitives et

emplois obsolètes

Effets directs positifs sur l’emploi

Nouveaux produits et nouveaux marchés

Hausse compétitivité entreprises

Effets macroéconomiques positifs sur l’emploi

Hausse demande ménages (baisse prix et hausse salaire

réel)Hausse investissement

= hausse Dg

5

Page 6: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

dans le secteur où la demande augmente plus vite que la productivité. Alfred Sauvy constate ainsi que la révolution agricole fait augmenter la productivité davantage que la demande en biens agricoles produisant un déversement de l’emploi dans l’industrie. Puis la révolution industrielle provoque un effet similaire conduisant l’emploi à se déverser dans le secteur tertiaire. L’intérêt de l’approche de Sauvy consiste à montrer que les gains de productivité et la demande n’évoluent pas dans les mêmes proportions, et en même temps, dans chaque secteur. Il existe un écart qui fait, soit baisser la quantité de travail utilisée, soit augmenter la quantité de travail utilisée. Si cet écart apparaît c’est bien parce que les gains de productivité ont un effet macroéconomique et stimulent une hausse de la demande dans l’ensemble de l’économie.

Source : M.Sarzier et N.Danglade

Document 14 : Colin Clark et la catégorisation du secteur productif en trois secteurs d’activitéOn doit à l’économiste américain Colin Clark la catégorisation du système productif en trois secteurs d’activité en 1947, dans son ouvrage Les Conditions du progrès économique. Le secteur primaire regroupe l’ensemble des activités dont la finalité consiste en une exploitation des ressources naturelles. Le secteur secondaire comprend l’ensemble des activités consistant en une transformation plus ou moins poussée de matières premières en un produit manufacturé, mais aussi la construction. Enfin, le secteur tertiaire est un secteur résiduel qui comprend toutes les activités non liées à des produits physiques.

Manuel ESH ECE1, Studyrama, 2017

Document 15 : L’évolution du poids des trois grands secteurs dans l’emploiDans les pays développés, la baisse de la part du secteur primaire dans l’emploi commence dès le 19 ème

siècle. À partir de 1920, il n’est plus le premier secteur puis son poids décline très fortement après la Seconde Guerre mondiale. Le secteur secondaire, quant à lui, voit sa part dans l’emploi fortement augmenter du 19ème siècle jusqu’aux années 1970. Après cette date, on assiste à une importante diminution du poids du secteur secondaire dans l’emploi. Le secteur tertiaire se singularise par une croissance ininterrompue de son poids dans l’emploi : son développement accompagne au début du 20ème

siècle la croissance de l’industrie puis, après la Seconde Guerre mondiale, son expansion absolue et relative s’accélère pour représenter aujourd’hui plus des trois quarts des emplois.

Manuel ESH ECE1, Studyrama, 2017

Document 16 : La loi des trois secteurs pour expliquer les modifications sectorielles du système productif

La « loi des trois secteurs » permet de comprendre le mouvement sectoriel de l’emploi précédemment présenté. Cette loi repose, d’une part, sur les changements dans la consommation des ménages et, d’autre

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

6

Page 7: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

part, sur les différences de gains de productivité selon les secteurs d’activité.Depuis les travaux menés par Ernst Engel au XIXe siècle, on sait que l’augmentation du niveau de vie se traduit par une croissance moins que proportionnelle des dépenses visant à satisfaire des besoins primaires, correspondant à des besoins physiologiques tels que manger, se vêtir ou se loger. À l’inverse, la hausse du niveau de vie se traduit par une croissance plus que proportionnelle des dépenses destinées à satisfaire des besoins moins physiologiques et plus secondaires tels que les communications, le transport ou les loisirs. Dans une société qui s’enrichit, la demande de services est par conséquent beaucoup plus dynamique que la demande de biens.L’agriculture est un secteur caractérisé par de forts gains de productivité mais la demande de produits agricoles est peu dynamique. Le surcroît de productivité détruit donc des emplois dans le secteur agricole mais améliore dans le même temps le pouvoir d’achat de la population à travers les hausses de revenu et les baisses de prix que permettent les gains de productivité. Une demande solvable peut donc s’adresser au secteur secondaire qui, pour y répondre, embauche la main-d'œuvre libérée par le secteur primaire. Ce mécanisme de déversement, présenté par Alfred Sauvy dans La Machine et le Chômage (1980), se reproduit entre le secteur secondaire et le secteur tertiaire. Le secteur des services, se caractérisant à la fois par une demande dynamique et par de faibles gains de productivité, accueille une partie de plus en plus importante des emplois. Le tableau qui suit résume les enchaînements de la loi des trois secteurs.

Manuel ESH ECE1, Studyrama, 2017

Document 17 : Le déversement de l’emploi entre les trois secteurs

Manuel ESH ECE1, Studyrama, 2017

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

7

Page 8: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

2. Les conséquences de la transition numérique

2.1 Comment interpréter la baisse des gains de productivité ?

2.1.1 Un constat empirique : la baisse tendancielle des gains de productivité

Document 18

2.1.2 Les techno-pessimistes et la thèse de la stagnation séculaire

Document 19 : source de la productivité horaire aux Etats-Unis depuis 1890

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

8

Page 9: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 20 : baisse de la productivité horaire aux Etats-Unis depuis 1890

Robert J. Gordon, « La fin de l’âge d’or Les Etats-Unis entrent-ils dans une phase durable de croissance molle ? » in FMI, Finances et développement, Juin 2016

Document 21 : Pour les techno-pessimistes, les gains de productivité s’épuisent faute d’innovation majeure

En 1987, dans « We’d better watch out », Robert Solow énonçait son célèbre paradoxe : « You can see the computer age anywhere except in the productivity statistics » (« Les ordinateurs se voient partout sauf dans les statistiques de la productivité »). R. Solow veut signifier que les TIC, qui sont au coeur de la troisième révolution industrielle, n’ont pas autant d’impact sur l’économie que les précédentes révolutions industrielles qui, elles, ont dégagé de très importants gisements de productivité à l’origine de longues et fortes périodes de croissance économique. À partir du milieu des années 1990, le paradoxe de Solow semble résolu puisque les TIC donnent naissance à une nouvelle vague de productivité qui dopera la croissance économique américaine jusqu’au milieu des années 2000.Toujours est-il que vers le milieu des années 2000, la croissance de la productivité s’érode aux États-Unis tout comme dans la plupart des pays développés. Un certain nombre d’économistes, qualifiés de techno-pessimistes, postulent que les TIC ne sont pas porteuses d’une grande révolution industrielle et donc d’une forte stimulation de la productivité. Robert J. Gordon est de ceux-ci. Il fait remarquer dans un article de la revue Finances et Développement intitulé « La fin de l’âge d’or » (2016) que la vague de productivité induite par les TIC est sans commune mesure avec la « grande vague » induite par la deuxième révolution industrielle, que ce soit en termes d’intensité ou de durée. Il considère que les gains de productivité associés au TIC ont été en grande partie réalisés dans la plupart des secteurs d’activité sur la période 1995-2004. R.J. Gordon aime mobiliser la parabole de l’arbre fruitier, selon laquelle « les meilleurs fruits sont ceux que l’on cueille le plus facilement, ensuite la cueillette devient plus difficile et moins juteuse » : les innovations majeures sont derrière nous et que l’économie est désormais condamnée à de faibles gains de productivité, et donc à une faible croissance économique.

Manuel ESH ECE1, Studyrama, 2017

Document 22 : Robert Gordon« Il semble clair aujourd’hui que les bénéfices des grandes inventions et de leurs retombées sont derrière nous et ne pourront pas se reproduire »

Document 23 : Le paradoxe de GordonTout le monde connaît le « paradoxe de Solow », du nom du célébrissime Américain, prix Nobel d’économie, qui en 1987 se désolait de constater que l’« on trouve de l’informatique de partout, sauf dans les statistiques de la productivité ». Robert Gordon (…) a pris le relais à propos d’Internet et formulé à son tour une sorte de « paradoxe de Gordon ». Ainsi, dans ses nombreuses interventions publiques, il adore proposer une petite expérience à l’assistance qui vient l’écouter un peu partout à travers les Etats-

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

9

Page 10: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Unis : « Imaginez que vous devez choisir entre l’option A et l’option B. Option A : vous gardez tout ce que l’on a inventé jusqu’à dix ans en arrière. Donc vous avez Google, Amazon, Wikipedia, mais aussi l’eau courante et les toilettes à l’intérieur. Option B : vous conservez tout ce que l’on a inventé jusqu’à hier, c’est-à-dire y compris facebook, Twitter et votre Iphone, mais vous devez renoncer par exemple à avoir l’eau courante ou les toilettes à la maison » C’est alors qu’il se délecte de constater qu’il déclenche immanquablement les rires dans l’assistance tant la réponse paraît évidente… L’alternative proposée par le professeur américain vaut ce qu’elle veut, mais elle a au moins le mérite de poser clairement les données du problème qui nous occupe ici : le progrès associé aux NTIC est-il de nature à ouvrir une nouvelle période de croissance soutenue de l’économie mondiale ? (…)Pour Gordon, comme pour le clan des techno-pessimistes, la tendance sur laquelle évolue la productivité des économies avancées a commencé à ralentir depuis plusieurs décennies déjà, avec ou sans Internet. Et il en veut pour preuve le ralentissement de la productivité aux Etats-Unis et dans les grands pays développés, ralentissement qui a commencé à se manifester dès 1972. Certes, avec la diffusion de nouvelles technologies, la productivité a connu un regain au cours de la dernière décennie du 20ème siècle, mais nos techno-pessimistes considèrent que le potentiel de croissance attaché à la révolution numérique a été concentré sur quelques années, un grosse décennie tout au plus, et sont convaincus qu’il est désormais derrière nous. Nous avons déjà évoqué leurs arguments : par sa richesse, sa diversité et sa puissance, la deuxième révolution industrielle a fait bien plus que booster la productivité, elle a transformé l’existence des Américains, des Européens puis des Japonais. Des décennies de pur éblouissement ! En comparaison, cette révolution de l’information – et les huit petites années dont ils la créditent – leur paraît bien pâle (…). Pour eux, le regain de croissance de la productivité enregistré au cours des années 1990 a déjà fait long feu, et les progrès attendus dans le domaine médical, les robots, l’impression 3D, l’intelligence artificielle et le big data ne peuvent espérer avoir le même impact sur la productivité que ceux générés par les inventions de nos illustres prédécesseurs. (…) Contrairement aux apparences, il n’y a pas eu de progrès technique majeur depuis des décennies. (…) Commençons par le commencement. C’est-à-dire par ce que l’on voit. Jusqu’à preuve du contraire, le « paradoxe de Gordon » vaut bien celui de Solow : les smartphones, tablettes et autres merveilles numériques sont en train de changer en profondeur notre vie quotidienne et même l’évolution de la société, mais on n’en voit pas la trace dans les statistiques de la productivité. D’où le désappointement partagé par les techno-pessimistes et résumé dans la fameuse formule de Peter Thiel, le fondateur de Paypal : « Nous rêvions de voitures volantes, nous avons eu les 140 caractères ! » Thiel est comme (…) Saint Thomas, il a beau scruter l’horizon, celui-ci lui paraît désespérément vide : « Si vous regardez ailleurs que dans l’ordinateur et Internet, vous voyez quarante années de stagnation.  » Manière de dire que l’innovation n’a pas diffusé dans l’ensemble de l’économie. L’examen attentif des courbes montre que, si la diffusion des ordinateurs dans les années 1980 a fini par doper la productivité par tête comme la productivité horaire, l’une et l’autre ralentissent à partir des années 2000, autrement dit même après la diffusion d’Internet, que ce soit dans l’ensemble de l’économie ou dans le secteur des nouvelles technologies lui-même.Ainsi, aux Etats-Unis, la croissance annuelle moyenne de la productivité par tête atteint 2,7 % sur la période 2000-2006 dans l’ensemble de l’économie et 2,5 % pour l’économie hors secteur des NTIC (…). Une tendance qui fléchit nettement à partir de 2007, quel que soit le secteur observé (les chiffres plafonnent à +1,5% de croissance annuelle). Même le secteur qui produit les nouvelles technologies affiche des gains de productivité faibles. Leur rythme de croissance est passé de 15,2 % sur la période 1990-1999 à 5,1 % (2000-2006) puis 1,6 % (2007-2013) en ce qui concerne la productivité par tête alors que la productivité horaire prend le même chemin : avec respectivement 16, 10 et enfin 3,8 % par an en moyenne sur les trois périodes de référence. A partir de là, la conclusion ne peut être que provocatrice : si, en son temps, le développement des ordinateurs avait fini par correspondre à une accélération de la productivité dans l’ensemble de l’économie, la diffusion d’Internet dans les années 2000 va plutôt de pair avec un coup de frein, aussi bien dans le secteur des nouvelles technologies de l’information que dans le reste de l’économie. Et cela est vrai y compris aux Etats-Unis, c’est-à-dire jusque dans le berceau des NTIC. Sur la période 2000-2013, la PGF n’a progressé en moyenne que de 0,7 % l’an outre-Atlantique, deux fois moins que lors de la décennie précédente (1,4 %). En zone euro, les chiffres sont encore plus cruels, puisqu’elle est carrément tombée à zéro (0,8 % l’an sur la décennie 1990)

Patrick Artus, Marie-Paule Virard, Croissance zéro, Fayard, 2015 P.109-117

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

10

Page 11: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 24 : La loi de Moore et son épuisementLes gains d’efficacité des TIC dépendent essentiellement des gains de performance des microprocesseurs qui équipent les ordinateurs et les autres équipements de communication. La performance d’un microprocesseur dépend du nombre de transistors qu’il peut accueillir. La miniaturisation croissante des transistors se traduit donc en gains de performance. Gordon Moore, cofondateur d’Intel, prédit en 1975 que le nombre de transistors intégrés dans un microprocesseur doublera tous les deux ans. Cette prédiction est nommée loi de Moore.Unni Pillai (« A model of technological progress in microprocessor industry », 2013) a analysé les gains de performance des microprocesseurs Intel et AMD de 1974 à 2013. Il constate que la croissance de la performance des microprocesseurs a été extrêmement forte dans les années 1990 mais qu’elle a considérablement ralenti à partir des années 2000. Un tel constat semble remettre en cause la loi de Moore et constitue un élément explicatif du ralentissement des gains de productivité constaté depuis le milieu des années 2000.

Tableau : la contribution des semi-conducteurs à la croissance de la PGF (en TCAM)

Manuel ESH ECE1, Studyrama, 2017

Document 25 : Pour les techno-pessimistes, la révolution technologique des TIC est anti-schumpétérienne (P. Artus)

A ce constat précis et chiffré, il faut ajouter un élément de réflexion supplémentaire qui éclaire peut-être la déception ressentie à propos de l’impact d’Internet sur les gains de productivité. On s’attendait en effet à ce que le développement des NTIC détruise des emplois peu qualifiés, mais crée des emplois qualifiés en raison de la complémentarité entre le capital technologique et l’emploi qualifié. Grâce à cette substitution, le processus était censé accoucher d’une augmentation des gains de productivité et de la croissance potentielle. Or, ce n’est pas du tout ce que l’on observe depuis la fin des années 1990. On assiste plutôt à une bipolarisation de la structure des emplois qui a tendance à éliminer les emplois de qualification intermédiaire. Le développement des nouvelles technologies n’a donc évité ni le freinage de la productivité dans les secteurs dits « sophistiqués », ni la diminution du poids relatif de ces secteurs dans l’économie, ouvrant – à la surprise générale – la voie à un phénomène plutôt « antischumpétérien » en apportant sa pierre au développement des emplois peu qualifiés.

2.1.3 Les techno-optimistes

Document 26 : le second âge de la machineLa révolution industrielle a fait rentrer l’humanité dans le premier âge de la machine : pour la première fois de l’histoire, le progrès humain était principalement alimenté par l’innovation technique, et cette transformation était la plus profonde que le monde eût jamais connue. Notre capacité à produire des quantités énormes d’énergie mécanique était si importante qu’en comparaison « tous les drames antérieurs de l’histoire avaient l’air d’une aimable plaisanterie. (…) On peut préciser laquelle de ces avancées techniques a été la plus déterminante : il s’agit de la machine à vapeur, et même, pour être plus précis encore de la machine mise au point et perfectionné par James Watt et par ses confrères dans la seconde moitié du 18ième siècle. (…) Nous vivons aujourd’hui le deuxième âge de la machine. L’ordinateur et les diverses technologies numériques font pour ce que j’appellerai la puissance intellectuelle – la ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

11

Page 12: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

capacité à utiliser notre cerveau pour comprendre et façonner notre environnement – ce que la machine à vapeur et ses rejetons ont fait pour la force musculaire. Ils nous permettent de franchir allègrement les frontières d’hier et d’entrer dans de nouveaux territoires. (…) Qu’en conclure ? (…) Tout comme il a fallu plusieurs décennies pour faire de la machine à vapeur le moteur de la révolution industrielle, il a fallu du temps pour perfectionner les machines numériques (c’est en 1982 que le Time a fait du PC sa «  machine de l’année », il y a plus de trente ans). (…) L’ordinateur est loin d’avoir fini de se perfectionner et il va continuer à faire des choses sans précédent. (…) Nous entrons dans un âge qui ne sera pas seulement différent : il sera meilleur, car nous serons capables d’accroître à la fois le volume et la diversité de notre consommation. (…) La technologie peut nous donner encore plus de choix et encore plus de liberté. Source : Erik Brynjolfsson et Andrew McAffe « Le deuxième âge de la machine. Travail et prospérité à l’heure de la révolution technologique », O.Jacob, 2015

Document 27 : différents aspects de la loi de Moore

Source : Erik Brynjolfsson et Andrew McAffe « Le deuxième âge de la machine. Travail et prospérité à l’heure de la révolution technologique », O.Jacob, 2015, p.60

Document 28 : le rôle des méta-idéesLe véritable travail d’innovation n’est pas de créer quelque chose de nouveau mais de recombiner des éléments déjà existants. Et plus on se penche sur les grandes étapes qui ont fait avancer nos connaissances et notre capacité d’agir, de fabriquer et de produire, plus cette idée de recombinaison apparaît pertinente. (…) Après avoir étudié de nombreux exemples d’inventions, d’innovations et de progrès technologiques, le spécialiste de la complexité Brian Arthur (…) écrit « inventer, c’est trouver quelque chose de nouveau dans ce qui est déjà là ». L’économiste Paul Romer a puissamment défendu cette thèse. (…) Cette théorie optimiste souligne le rôle de l’innovation par recombinaison. Romer souligne l’importance d’une catégorie particulière d’idées, qu’il appelle les « méta-idées ». (…) La nouvelle méta-idée a déjà été trouvée : elle réside dans les nouvelles communautés de cerveaux et de machines rendues possibles par les appareils numériques en réseau et leurs multiples logiciels. Technologies à usage multiples, les TIC ont donné naissance à une manière radicalement neuve de combinaison et de recombiner les idées. Comme le langage, l’imprimerie, la bibliothèque ou l’éducation universelle, le réseau numérique mondial stimule l’innovation par recombinaison. Nous sommes en capacité de mélanger et de remélanger des idées, anciennes et récentes, comme cela n’a jamais été fait auparavant. (…) La recombinaison est l’essence de l’innovation numérique. (…) Chaque nouveau développement devient un élément d’une future innovation. (…) la numérisation rend disponibles des quantités énormes de données, dans presque tous les domaines ; et ces informations, parce qu’elles sont non rivales, peuvent être reproduites et réutilisées indéfiniment. En vertu de ces deux facteurs, le nombre de composantes potentiellement utiles explose et les possibilités se multiplient plus que jamais.

Source : Erik Brynjolfsson et Andrew McAffe « Le deuxième âge de la machine. Travail et prospérité à l’heure de la révolution technologique », O.Jacob, 2015, p.94

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

12

Page 13: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 29 : Les TIC sont une révolution technologique majeure dont la comptabilité nationale mesure mal les effets sur la productivité

Le clan des techno-optimistes n’est cependant pas d’accord avec cette conclusion. Philippe Aghion, dans Repenser la croissance économique (2016), affirme que les TIC ont radicalement et durablement amélioré la technologie de production des idées. L’innovation est très dynamique aussi bien sur le plan qualitatif que quantitatif. Cependant, comment expliquer que ces innovations ne se traduisent pas statistiquement en gains de productivité ? Certains techno-optimistes, comme Philippe Aghion, avancent la thèse de la mauvaise mesure. Le système de comptabilité nationale serait incapable de mesurer les gains de productivité permis par les NTIC, gains qui sont essentiellement qualitatifs.

Manuel ESH ECE1, Studyrama, 2017

Document 30 : La qualité, grande oubliée des mesuresNos mesures laissent complètement échapper un élément essentiel qui est l’effet « qualité ». On ne sait pas tenir compte du fait qu’une automobile de 2016 est en réalité un autre produit qu’une automobile de 2000 ou de 1990, même lorsqu’elle est vendue au même prix et porte le même nom. Elle démarre dans le froid, consomme deux à trois fois moins, tombe rarement en panne, inclut de plus en plus d’électronique… La production de masse traditionnelle était axée sur la production en volume (faire plus avec moins). Or, depuis une trentaine d’années, des critères de « qualité » (au sens large) sont devenus déterminants, et non plus secondaires, dans la concurrence : la fiabilité des produits, la diversification des variantes (ce qu’on a appelé le « sur-mesure de masse »), la réactivité temporelle par rapport aux demandes. Au centre du jeu économique, il y a désormais une « productivité des qualités » (faire mieux avec moins) que nos outils de mesure, qu’ils soient microéconomiques (le contrôle de gestion des firmes) ou macro-économiques, saisissent très mal. De plus chacun voit que ce qui est vrai des automobiles ou des machines à laver est encore plus vrai des services où ces dimensions de qualité sont à la fois centrales et plus difficiles à estimer. Enfin, les nouveaux services du monde numérique achèvent de brouiller les cartes, ou plutôt les comptes. Car, bien souvent, ils n’entrent même pas dans le produit marchand. Wikipédia n’existe pas dans le PIB. Blablacar le fait baisser, de même qu’Airbnb et tous les services de l’« économie de partage » qui mobilisent des ressources dormantes ou sous-utilisées ! On peut multiplier ce type d’exemples. Dira-t-on que leur apport à la création de valeur dans la société est nul ou négatif ?Ce point est crucial, car il jette un doute sérieux sur les chiffres de la croissance exprimés à partir du PIB marchand, et sur le ralentissement supposé de la productivité globale, telle qu’elle semble s’exprimer, à un niveau très agrégé dans nos pays industrialisés.

Pierre Veltz, La société hyperindustrielle, La République des Idées, Seuil, 2017, p.30-31

Document 31 : un article de Philippe Aghion à propos des difficultés de prise en compte statistique de l’innovation

https://www.telos-eu.com/fr/economie/la-croissance-manquante.html

Document 32 : Les TIC sont une révolution technologique majeure mais ses effets sur la productivité mettent du temps à se manifester

D’autres avancent la thèse du délai. Il faut du temps pour que les innovations se diffusent dans le tissu économique et se convertissent en gains de productivité. L’histoire de l’électricité relatée par Paul David et Gavin Wright dans « Early twentieth century productivity growth dynamics: an inquiry into the economic history of “our ignorance” » (1999) le rappelle : si elle est apparue à la suite des travaux de Thomas Edison dans les années 1870-1880, il faudra attendre les années 1910 pour que l’électricité, devenue moins chère, se diffuse dans l’ensemble de l’économie américaine, et les années 1920 pour qu’elle engendre de forts gains de productivité. Dans cette perspective, les innovations actuelles requièrent seulement du temps pour générer des gains de productivité significatifs. Dans « Croissance de la productivité : quelles perspectives pour la France ? » (2013), Gilbert Cette défend une variante de cette thèse. Pour lui, les gains de productivité associés aux TIC diminuent parce que les progrès de la puissance de calcul des microprocesseurs ralentissent du fait de contraintes d’ordre physique. Cependant, il considère qu’« une nouvelle vague de gains de performance des TIC devrait émerger dans les prochaines années, associée tout d’abord à la fabrication et à la diffusion des puces 3D puis des bio-chips et, enfin dans un avenir beaucoup plus lointain, à l’électronique quantique. Dans cette hypothèse réaliste, la révolution technologique associée aux TIC induirait une nouvelle vague de croissance de la productivité, qui pourrait

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

13

Page 14: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

même être plus importante que la première vague, et qui s’amorcerait dans quelques années. »Manuel ESH ECE1, Studyrama, 2017

2.2 Les conséquences observées sur l’emploi et les inégalités 

2.2.1 L’impact de la transition numérique aux Etats-Unis

Document 33 : le progrès technique polarise l’emploiObservons les évolutions de la structure des emplois aux Etats-Unis depuis 30 ans :

- d’un côté, le nombre d’ouvriers qualifiés dans l’industrie, d’employés d’administration, de postes d’encadrement intermédiaire a baissé ;

- de l’autre côté, les emplois de services à la personne peu qualifiés et les emplois qualifiés et très qualifiés ont augmenté.

Cette transformation est le fruit de la diffusion du progrès technique dont nous avons vu qu’il fragilise, et fait disparaître, les métiers automatisables et les tâches réalisées par l’action d’une «  multitude d’utilisateurs amateurs ». Le progrès technique fait également apparaître de nouvelles professions : celles qui s’appuient sur des tâches complexes et celles qui s’appuient sur des compétences relationnelles.

Source : M.Sarzier et N.Danglade

Document 34 : cette polarisation est accentuée par la dynamique de mondialisationL’effet du progrès technique a été accentué par l’insertion de l’économie américaine dans la mondialisation. Les travaux de Robert Feenstra et Gordon Hanson (1999) montrent ainsi que l’intégration commerciale et financière a pour conséquence de stimuler la stratégie de découpage de la chaîne de valeur des entreprises industrielles. Les entreprises américaines, dont la culture des relations contractuelles est plus développée qu’en Europe (Suzanne Berger, Made in Monde, 2006), ont ainsi externalisé chez des fournisseurs étrangers les étapes de fabrication de leurs produits, c’est-à-dire les étapes à faible valeur ajoutée. Ce faisant, ces entreprises n’ont conservé sur le territoire américain que les étapes en amont et en aval de la fabrication, notamment la R&D, le marketing, la communication. Les métiers associés aux tâches de fabrication ont donc disparu (les ouvriers qualifiés et les personnels d’encadrement intermédiaires), tandis que ceux liés à des activités qualifiées (R&D, marketing, finance, audit) ont progressé. La mondialisation a donc accentué les effets du progrès technique sur l’emploi. Pour Dorn et Hansen (2013) cités par David Thesmar, Augustin Landier et Sylvain Catherine dans Le Marché du travail : la grande fracture (2015), la technologie explique 75% des emplois industriels détruits aux Etats-Unis. Les 25% restants sont la conséquence de la concurrence internationale des pays à bas salaires.

Source : M.Sarzier et N.Danglade

Document 35 : l’écrasement des classes moyennesSi l’on adopte comme frontière basse des « classes moyennes salariées » les ouvriers et les employés qualifiés et comme frontière haute les cadres, on constate un écrasement des classes moyennes américaines. Ce phénomène est qualifié de shrinking middle class. En contrepartie, les deux extrêmes, les classes populaires et les classes supérieures ont vu leur poids dans la structure sociale américaine augmenter. Le progrès technique est donc le facteur explicatif essentiel de la polarisation de l’emploi et de la structure sociale américaine. Cela a bien évidemment des conséquences sur les inégalités de revenus : les ouvriers de l’industrie qui perdent leur emploi n’en retrouvent que dans les services non qualifiés qui sont moins bien payés, tandis que les actifs très diplômés profitent des nouvelles opportunités que leur offrent la technologie et la mondialisation pour voir leurs salaires augmenter plus vite que les autres.

Source : M.Sarzier et N.Danglade

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

14

Page 15: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

2.2.2 La polarisation à la française

Document 36 : la dynamique des emplois en France Observe-t-on une tendance similaire en France ? Si la transition numérique a commencé plus tôt aux Etats-Unis, faut-il craindre dans les années à venir en France une polarisation de l’emploi et une dynamique de shrinking middle class ? Une première méthode pour répondre à cette question est proposée par David Thesmar, Augustin Landier et Sylvain Catherine (Le Marché du travail : la grande fracture (2015)). Ils ont classé les PCS par niveau de revenu et ils ont fait apparaître les variations de leur poids relatif dans la population active sur la période 1990-2012. A partir du graphique suivant, ils mettent à jour deux évolutions :

- La première est celle d’une transformation des catégories inférieures : parmi celles-ci, les PCS les moins biens rémunérées voient leur poids augmenter dans la population active, tandis que les PCS les mieux rémunérées voient leur poids décliner (par exemple, ouvrier non qualifiés du BTP). Ce qui les amène à un premier constat : le progrès technique ne fait pas disparaître les emplois peu qualifiés mais il remplace les emplois peu qualifiés automatisables par des emplois peu qualifiés non-automatisables. Au sein des emplois automatisables qui disparaissent progressivement, on retrouve beaucoup d’emplois d’ouvriers qualifiés et non qualifiés présents dans l’industrie, mais également des métiers comme celui de secrétaire, dont le nombre baisse de 600 000 à 400 000 entre 1983 et 2013. Parmi les emplois non automatisables peu qualifiés, on retrouve les métiers de services directs aux particuliers, de logistique et de transport. Par exemple, le nombre d’assistantes maternelles, gardiennes d’enfants et travailleurs familiales a augmenté d’environ 176 000 en 1990 à 664 000 en 2012, soit une hausse de 277%.

- La seconde est celle d’une augmentation plus que proportionnelle des emplois les mieux rémunérés. Le graphique fait apparaître un poids relatif croissant des professions les 30% les mieux payées en 1990. On retrouve là l’expression d’un phénomène de progrès technique biaisé : le progrès technique profite aux métiers les plus qualifiés. Au final, nous assisterions selon David Thesmar, Augustin Landier et Sylvain Catherine à une dynamique de polarisation identique en France à celle des Etats-Unis puisque que les métiers en déclin sont situés entre les 10% les moins payés et les 30% les mieux payés, et les PCS les plus concernées par le déclin sont celles situées juste au dessous du salaire médian.

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

15

Page 16: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 37: attention au biais visuel du graphique utilisé par Thesmar, Landier et CatherineLe graphique de David Thesmar, Augustin Landier et Sylvain Catherine a cependant un inconvénient : il raisonne comme si la distribution des PCS par rapport à la médiane des revenus était la même entre 1990 et aujourd’hui. Il ne permet pas de voir que les PCS les plus qualifiés représentent aujourd’hui près de 43% de la population active contre 31% en 1990. En conséquence, le graphique proposé par ces auteurs souffre d’un « biais visuel » puisqu’il montre un trou au milieu de l’axe de distribution des revenus. Or, les professions qui occupent ce trou ne se sont plus aujourd’hui celles des années 1990 : les professions d’employés et ouvriers qualifiés se sont décalées vers la gauche pour laisser la place aux PCS professions intermédiaires et cadres qui occupent désormais près de la moitié droite de la distribution des revenus. Ce graphique laisse donc laisse donc penser que la France connaîtrait un écrasement des professions intermédiaires à l’instar des Etats-Unis.

Source : M.Sarzier et N.Danglade

Document 38 : en France, seule les catégories « ouvriers » (qualifiés et non qualifiés) et « employés qualifiés » déclinent

Dans le cas de la France, on assiste à une croissance à la fois des emplois les plus bas dans l’échelle des qualifications et des revenus, mais également des professions intermédiaires et des cadres et professions intellectuelles supérieures. Ce sont les catégories « employés qualifiés » et « ouvriers qualifiés » qui sont concernées par un écrasement, pas les professions intermédiaires comme aux Etats-Unis. La polarisation « à la française » correspond au déclin des groupes ouvriers non qualifiés et qualifiés et employés qualifiés, et elle ne déborde pas sur les professions intermédiaires comme aux Etats-Unis.

Document 39 : peut-on alors parler d’écrasement des classes moyennes, de « shrinking middle class » ?

La réponse dépend de la manière définir la frontière des classes moyennes. Par exemple, chez Eric Maurin et Dominique Goux (Les nouvelles classes moyennes, 2012), les classes moyennes (salariées) sont constituées uniquement de la PCS « Professions intermédiaires ». Or, comme nous l’avons vu, cette PCS voit son poids relatif augmenter dans une population active : les classes moyennes se renforcent donc en France. Chez Louis Chauvel (La spirale du déclassement, 2016 et Les classes moyennes à la dérive, 2006), par contre, la définition des classes moyennes est plus large. Il y intègre les « ouvriers qualifiés » et les « employés qualifiés » : leurs niveaux de qualification, leurs salaires, leurs accès à l’emploi stable les

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

16

Page 17: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

distinguent en effet des ouvriers et employés non qualifiés. Il les place donc dans le « bas » des classes moyennes. Or, nous avons vu que ces groupes étaient en déclin depuis 25 ans. Pour Louis Chauvel, ce déclin alimente une scission des classes moyennes entre un bas qui se paupérise et un haut qui s’enrichit. L’approche de Louis Maurel fait donc davantage écho à la situation américaine que celle d’Eric Maurin.

Source : M.Sarzier et N.Danglade

2.2.3 Le creusement des inégalités : inégalités de revenu et inégalités territoriales

Document 40 : le creusement des inégalités de revenus aux Etats-Unis

Source : Erik Brynjolfsson et Andrew McAffe « Le deuxième âge de la machine. Travail et prospérité à l’heure de la révolution technologique », O.Jacob, 2015, p.153

Document 41 : la baisse de la part des salaires dans la valeur ajoutée aux Etats-Unis

Source : Erik Brynjolfsson et Andrew McAffe « Le deuxième âge de la machine. Travail et prospérité à l’heure de la révolution technologique », O.Jacob, 2015, p.166

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

17

Page 18: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 42 : les conséquences du progrès technique biaisé sur les inégalités de salaires des diplômés

Source : Erik Brynjolfsson et Andrew McAffe « Le deuxième âge de la machine. Travail et prospérité à l’heure de la révolution technologique », O.Jacob, 2015, p.156

Document 43 : polarisation de l’emploi et réformes fiscales = plus d’inégalités La dynamique de polarisation de l’emploi illustre une dynamique de croissance des emplois situés tout en haut et tout en bas de l’échelle des qualifications et des rémunérations.Chez les salariés les plus qualifiés, la dynamique de croissance de l’emploi se traduit par une accélération de la hausse des salaires, en particulier dans les métiers qui peuvent être exercés dans un marché du travail devenu mondial » : c’est le cas de certains sportifs ou artistes, on parle les concernant de star economy. Thomas Piketty montre que ce marché mondial du travail profite surtout à «  super-cadres » qui travaillent dans les métiers de la finance et aux cadres dirigeants d’entreprises. Ainsi, Olivier Godechot montre qu’entre 1996 et 2009, l’augmentation de la masse salariale des 0,01% français les plus riches est due à 48% aux métiers de la finance, 23% à ceux des services aux entreprises, et 8% à ceux du divertissement. Du côté des moins qualifiés, la dynamique de l’emploi vide les emplois industriels et les emplois de services qualifiés qui se déversent vers des emplois de services de non qualifiés. Cela a plusieurs conséquences : d’une part, la baisse de la rémunération moyenne puisque l’industrie est un secteur où les gains de productivité et, donc les salaires, sont plus élevés. La tertiarisation de l’emploi fait donc structurellement baisser les salaires moyens des actifs situés en bas de l’échelle des qualifications. D’autre part, le déversement des emplois provoque une hausse de l’offre de travail qui va se traduire soit par une baisse du salaire relatif sur les marchés du travail lorsqu’ils sont flexibles (comme aux Etats-Unis), soit par du chômage sur les marchés du travail lorsqu’ils sont rigides (comme en France). En résumé, alors que des tensions à la baisse apparaissent sur les salaires des actifs les moins qualifiés, les salaires des actifs les mieux payés, eux, augmentent de plus en plus vite. Les inégalités de revenus, tirés du travail, se creusent donc. Camille Landais (2007) montre que si en France les revenus des 90% les plus pauvres ont augmenté de 10% entre 1998 et 2007, ceux des 0,01% les plus riches ont augmenté de 45% sur la même période. En outre, la transformation des emplois provoquée par le progrès technique, s’est accompagnée, dans un contexte de mondialisation, de grandes réformes fiscales à partir du début des années 1980. Les réformes successives de l’impôt sur le revenu et de l’impôt sur le patrimoine ont eu pour conséquence de renforcer cette dynamique de hausse des inégalités de revenus en particulier dans les pays anglo-saxons.

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

18

Page 19: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

En France, la moindre ampleur du creusement des inégalités peut s’expliquer par le maintien d’un niveau élevé de redistribution des revenus mais aussi par le maintien d’un montant relatif élevé du salaire minimum. Le montant du SMIC équivaut à environ 66% du salaire médian, ce qui se répercute sur le coût du travail des emplois les moins qualifiés, sur la demande de travail des entreprises pour ce type d’emplois, et au final sur le chômage des actifs les moins qualifiés. Si les inégalités se creusent peu par le bas en France grâce au montant du SMIC, la contrepartie en est un chômage plus élevé, et une dégradation de la situation des actifs « outsiders ».

Document 44Une étude récente de France Stratégie Dynamique de l’emploi et des métiers ? Quelle fracture territoriale ? (2017) montre que l’emploi se concentre de plus en plus dans les métropoles du territoire français. Le progrès technique est favorable à certains métiers, défavorables à d’autres. Or, les emplois en essor sont relativement plus présents dans les métropoles, tandis que les emplois en déclin sont relativement plus présents dans les villes de moins de 100 000 habitants. Par exemple, dans l’aire de Paris, les métiers à fort potentiel de création représentent près de 60% de l’emploi total contre moins de 40% hors aires urbaines. Inversement, les métiers fragiles représentent 45% des emplois hors aires urbaines, contre 27% dans l’aire de Paris. Les conséquences du progrès technique sur le travail portent aussi sur la dimension géographique. Le creusement des inégalités provoqué par la transition numérique ne concerne pas seulement les revenus, mais il concerne aussi la géographie de l’emploi. Les mécanismes de redistribution ne sont donc pas sollicités uniquement pour répondre à l’enjeu des inégalités de revenus, mais aussi pour répondre à celui des inégalités territoriales.

Source : Frédéric Lainé, France StratégieDynamique de l’emploi et des métiers : quelle fracture territoriale ? février 2017

2.3 L’évolution future des emplois : des prédictions difficiles

Document 45 : la destruction des emploisCette destruction peut s’expliquer en raison de :

- l’automatisation de certaines tâches et du développement de l’intelligence artificielle qui permettent de remplacer des tâches routinières effectués par une personne par un robot ou un logiciel ;

- du report sur l’utilisateur de certaines tâches jusqu’alors réaliser par des professionnelles. Par exemple, les vendeurs en magasin sont concurrencés par l’achat en ligne ;

- du report sur la « multitude » des utilisateurs pour obtenir des informations jusque-là fournie par des professionnelles. Par exemple, les éditeurs d’encyclopédie sont concurrencés par wikipedia ;

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

19

Page 20: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

- la fourniture de services par des « amateurs », par exemple les sites de location entre particuliers concurrencent les secteurs professionnels de l’hôtellerie.

Source : M.Sarzier et N.Danglade

Document 46 : les difficultés pour prédire les destructions d’emploisLe rapport de France stratégie L’effet de l’automatisation sur l’emploi : ce qu’on sait et ce qu’on ignore (2016) permet de faire le point sur l’impact direct de l’automatisation sur l’emploi et il montre qu’il est extrêmement difficile de prédire ces effets à terme. La première difficulté consiste à déterminer les emplois fragilisés par le progrès technique et qui sont donc susceptibles de disparaître. Certaines études anglo-saxonnes (les travaux de Carl Benedikt Frey et Michael A. Osborne) utilisent comme critère pour les déterminer, celui de la répétitivité des tâches. Comme environ 40% des salariés déclarent réaliser des tâches répétitives, elles en concluent que 40% des emplois sont menacés. Mais ce critère de répétitivité ne prend pas en compte les nombreuses situations où la réalisation d’une tâche dite « répétitive » requiert une prise de responsabilité, une adaptabilité, une flexibilité du travailleur, c’est-à-dire un ensemble de compétences qui l’éloignent du strict respect des consignes. Par ailleurs, nombreuses sont les tâches répétitives qui s’appuient sur des d’interactions sociales avec d’autres collègues de travail ou des clients. C’est pourquoi le rapport de France Stratégie retient le chiffre de 15% des salariés (soit 3,4 millions de personnes en France) qui occupe un poste potentiellement automatisable. Derrière cette moyenne se cache des différences entre secteurs : 25% des emplois industriels seraient automatisables contre 13% des métiers de services. Cette fourchette entre 15% et 40% des emplois montre qu’il est ardu de pouvoir prédire la destruction directe des emplois provoquée par la transition numérique. La seconde difficulté soulevée par le rapport de France Stratégie vient de ce que le contenu des emplois change au cours du temps : des emplois classés parmi les emplois fragiles ne le sont plus quelques années plus tard, ce qui rend les exercices de projection difficiles. Entre 2005 et 2013, le nombre d’emplois salariés non automatisables a ainsi augmenté de 1,13 million. Dans 60% des cas, il s’agit d’emplois qui voient leurs tâches devenir plus complexes, analytiques et relationnelles. Il existe un phénomène d’adaptation continuelle des emplois qui peut être illustré par le cas des métiers de la banque. L’introduction des distributeurs automatiques s’est accompagnée d’une augmentation de 35% à 61% des employés de la banque et des assurances dont le profil est d’emploi est peu automatisable. La troisième difficulté rencontrée pour évaluer les destructions futures d’emplois permet de comprendre qu’il n’y a pas de « déterminisme » dans la diffusion des technologies. Par exemple, une même technologie ne se diffuse de la même façon dans deux pays différents. Prenons, le cas du nombre de robots par actifs. La France possède cinq fois moins de robots par salarié que l’Allemagne, mais on sait que la structure productive (et notamment la place de l’industrie) diffère entre les deux pays. Cependant en éliminant cet effet de structure, le nombre de robots par personne en Allemagne reste encore deux fois supérieur à celui de la France. Pour France Stratégie, ce sont les modes d’organisation du travail, l’acceptabilité sociale et la rentabilité économique qui permettent d’expliquer les écarts de robotisation entre la France et l’Allemagne plus que la présence d’une technologie qui se diffuserait «  naturellement » d’elle-même. Le facteur d’acceptabilité sociale peut être illustré par le faible développement des caisses automatiques dans les grandes surfaces en France. Alors que le métier de caissier est désormais totalement automatisable, le nombre de caissiers n’a baissé que de 10% en dix ans car cette technologie se heurte encore à une réticence de la part des clients.

Source : M.Sarzier et N.Danglade

Document 47 : les difficultés pour prédire les créations d’emploisEnfin, si la prédictibilité en matière de destructions d’emplois est incertaine, c’est également le cas en matière de création directe d’emplois. Certains métiers apparaissent avec les nouvelles technologies. Par exemple, le nombre d’ingénieurs et de cadres de l’informatique et des télécoms passe de 50 000 en 1983 à 300 000 en 2013. L’économie numérique permet l’apparition de nouveaux produits (l’informatique ; les logiciels) et le développement de certains marchés (la vente par correspondance est un marché ancien qui connaît un nouvel essor avec internet) mais il est difficile d’en mesurer l’ampleur à l’avance.

Source : M.Sarzier et N.Danglade

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

20

Page 21: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 48 : les effets macroéconomiques dépendent de l’importance des gains de productivitéLà aussi, le débat est intense entre techno-pessimistes et techno-optimistes. Le première considèrent qu’il n’y a rien à attendre de la révolution numérique en termes de croissance et donc que les effets macroéconomiques positifs sur l’emploi seront mineurs. Les seconds considèrent, au contraire, que la révolution numérique est loin d’avoir sa pleine mesure et que ses effets sur l’emploi seront identiques à ceux des révolutions industrielles précédentes. Pour Robert Gordon, les innovations passées (la machine à vapeur, l’électricité, le moteur à explosion, la chimie, …) ont eu des effets macroéconomiques bien plus importants que la révolution numérique actuelle. La croissance économique est condamnée à stagner autour de 1,5 à 2%, retrouvant des valeurs du 19ième siècle.  Pour les techno-pessimistes, il ne faut donc pas s’attendre à des effets macroéconomiques positifs importants sur l’emploi. D’autres économistes, comme Erik Brynjolfsson et Andrew McAfee, chercheurs au MIT et auteurs du livre Le deuxième âge de la machine (2015), estiment, au contraire, que le potentiel de la révolution numérique n’a pas été encore exploité et que les gains sur la productivité globale des facteurs vont apparaître dans un avenir proche.

Source : M.Sarzier et N.Danglade

2.4 Le retard français : comment rattraper les Etats-Unis ?

2.4.1 Le paradoxe français : malgré une productivité horaire du travail proche des Etats-Unis, le PIB/tête est nettement inférieur

Document 49 : une baisse continue de la productivité horaire depuis 1950

France Stratégie, « Comprendre le ralentissement de la productivité en France », Note d’analyse n°38, Janvier 2016

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

21

Page 22: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 50  : une productivité horaire du travail en France proche de celle des Etats-Unis

Source : France Stratégie « Comprendre le ralentissement de la productivité en France », janvier 2016

Document 51 : pourtant le PIB/tête est nettement inférieur (2002) ?En % du niveau des Etats-Unis

PIB par heure travaillée

Pib par emploi PIB par habitant

Allemagne 98,6 78,2 71,4Grande-Bretagne 88,9 79,2 78,4France 106,7 88,7 76,2Corée du Sud 40,2 52,9 52,0

Gilbert Cette, Productivité et croissance en Europe et aux Etats-Unis, collection Repères, La Découverte, 2007, p.37-48

Document 52 : la productivité horaire n’est qu’un facteur de l’évolution du PIB / têteCroissance du PIB par habitant =

évolution de la productivité horaire + évolution de la durée du travail +

évolution du taux d’emploi + évolution de la part de la population en âge de travailler dans la population totale

Document 53Les Etats-Unis sont, et de loin, le pays industrialisé où le PIB par habitant est le plus élevé. (…) Le niveau de PIB par habitant des différents ensembles européens (zone euro, UE à 15 ou à 25), comme d’ailleurs de chacun des principaux pays participants à l’UE, ainsi que du Japon, serait très nettement inférieur (d’environ 25 à 30 points) au niveau atteint par les Etats-Unis. Les pays dans lesquels le niveau de productivité horaire du travail est le plus élevé font partie de l’Europe continentale. Dans plusieurs pays, la productivité est proche voire supérieure au niveau des Etats-Unis. (…) la France apparaît d’ailleurs particulièrement performante. Ce constat suggère au premier regard que « la frontière technologique » ne serait pas sur la période actuelle, définie par les Etats-Unis mais plutôt par certains pays européens. (…) Comptablement cet écart peut s’expliquer par :

- une durée du travail et/ou- un taux d’emploi et/ou - une part de la population en âge de travailler dans la population totale plus faible qu’aux Etats-

Unis . ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

22

Page 23: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Schreyer et Pilat (2001) ou l’OCDE (2003) montrent que l’impact du troisième terme (la part de la population en âge de travailler dans la population totale) est négligeable sur la période récente, même s’il peut être important sur des périodes antérieures. Le contraste entre la forte productivité horaire et le faible niveau de PIB par habitant de certains pays européens vis-à-vis des Etats-Unis s’explique essentiellement par une durée du travail et/ou un taux d’emploi plus faibles. (…) Une durée du travail plus courte peut résulter d’une durée collective elle-même plus courte ou d’un développement plus important du travail à temps partiel, voire parfois conjointement de ces deux facteurs, comme aux Pays-Bas. Le taux d’emploi plus faible peut provenir (comptablement) lui-même d’un taux de participation plus faible ou d’un taux de chômage plus élevé.

Gilbert Cette, Productivité et croissance en Europe et aux Etats-Unis, collection Repères, La Découverte, 2007, p.37-48

Document 54 : mesurer la productivité horaire structurelle du travail Productivité horaire « observée » (a)

Effets sur la productivité des écarts sur le taux d’emploi (b)

Effets sur la productivité des écarts sur la durée du travail (c)

Productivité horaire structurelle (d)

Etats-Unis 100 0 0 100Allemagne 98,6 2,70 8,18 87,7Grande-Bretagne

88,9 -0,49 2,93 86,5

France 106,7 4,14 5,96 96,6Pays-Bas 100,5 -0,23 9,69 91

Gilbert Cette, Productivité et croissance en Europe et aux Etats-Unis, collection Repères, La Découverte, 2007, p.37-48

Document 55 : les facteurs explicatifs de l’écart de croissance / aux Etats-Unis

Source : Antonin Bergeaud, Gilbert Cette, Rémy Lecat«  Le produit intérieur brut par habitant en France et dans les pays avancés :

le rôle de la productivité et de l’emploi » Banque de France, rue de la Banque Octobre 2015 n°11ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

23

Page 24: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 56 La vague de productivité associée aux innovations de la troisième révolution industrielle a été plus courte et moins intense que la grande vague associée à la deuxième révolution industrielle. Toujours est-il que les États-Unis, pays dans lequel les TIC se sont massivement diffusés, ont creusé l’écart avec les autres nations. Alors que la productivité horaire française augmentait en moyenne de 2 % par an sur la période 1995-2004, la productivité horaire américaine augmentait en moyenne de 2,8 % par an sur la même période. Le résultat, c’est que la productivité horaire française qui représentait 90 % de la productivité horaire américaine en 1995 n’en représente plus que 75 % en 2014.

Manuel ESH ECE1, Studyrama, 2017

2.4.2 L’impact plus faible des nouvelles technologies dans la croissance française

Document 57 : l’impact des TIC est plus faible en France Le décrochage français à partir du milieu des années 1990 vient d’une moindre croissance de la productivité dans les secteurs utilisateurs de TIC, c’est-à-dire les services aux entreprises, la distribution et le commerce, les transports et certaines industries manufacturières. Pourquoi la France n’a-t-elle pas connu de gains de productivité comparables à ceux des États-Unis dans ces secteurs ? Outre le moindre investissement dans les TIC, les études empiriques ont mis en avant la moindre intensité du processus de destruction créatrice en France.

Source : France Stratégie « Comprendre le ralentissement de la productivité en France », janvier 2016

Document 58 : moins d’effort d’investissement en TIC et une PGF plus faible La décomposition de la productivité horaire du travail entre approfondissement du stock de capital et productivité globale des facteurs (PGF) montre que le décrochage français à partir de la fin des années 1990 s’explique autant par une faiblesse de l’investissement des entreprises dans les nouvelles technologies de l’information et de la communication que par une moindre croissance de la PGF

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

24

Page 25: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Source : France Stratégie « Comprendre le ralentissement de la productivité en France », janvier 2016

Document 59 : les écarts d’effort d’investissement en TIC

Source : https://blocnotesdeleco.banque-france.fr/billet-de-blog/niveau-de-vie-et-risque-de-stagnation-seculaire

Document 60 : un retard dans la diffusion des TICCe décrochage s’explique par un important retard dans la diffusion des TIC, c’est-à-dire le matériel informatique, le matériel de communication et les logiciels. Gilbert Cette estime qu’en France en 2012, le stock de capital TIC est inférieur d’environ un quart au stock des États-Unis ; il correspondrait même au stock TIC américain de la fin des années 1980. Pour illustrer ce retard, on peut mentionner que seulement 63 % des entreprises françaises disposent d’un site web alors que la moyenne de l’OCDE est de 75 %. De même, seulement 17 % des entreprises françaises utilisent les réseaux sociaux pour leurs relations clients, contre 25 % en moyenne dans l’OCDE. Or les TIC contribuent à stimuler la productivité par l’intensification capitalistique mais aussi par des gains d’efficience.

Manuel ESH ECE1, Studyrama, 2017

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

25

Page 26: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

2.4.3 Expliquer le retard dans la diffusion des TIC dans l’économie française

Document 61 : la faiblesse du processus de destruction créatrice de l’économie françaisePourquoi la France n’a-t-elle pas connu de gains de productivité comparables à ceux des États-Unis dans ces secteurs ? Outre le moindre investissement dans les TIC, les études empiriques ont mis en avant la moindre intensité du processus de destruction créatrice en France. En effet, aux États- Unis, une partie importante des gains de productivité réalisés dans le secteur utilisateur de TIC s’est faite via la disparition d’entreprises de petite taille et peu productives, au profit de grandes entreprises productives. C’est l’effet Wallmart du nom de la chaîne de distribution américaine qui a connu une forte croissance dans les années 1990. Ce phénomène dit d’efficience allocative, qui consiste en ce que les entreprises les plus productives grossissent en attirant capitaux et travailleurs, tandis que les moins productives voient leur poids relatif diminuer ou même disparaissent, est en effet une source de productivité agrégée majeure. Foster, Haltiwanger et Krizan (2006) montrent qu’aux États-Unis, la réallocation du facteur travail des entreprises faiblement productives vers les plus productives a été responsable de 50 % de la croissance de la productivité du secteur manufacturier des années 1990 et de 90 % dans le commerce de détail.Quel est le degré d’efficience allocative de l’économie française et comment a-t-il évolué ces dernières années ? Selon des travaux récents conduits par l’OCDE, cette efficience est au-dessus de la moyenne mais assez largement en dessous de celle des États-Unis, de l’Allemagne, de la Suède ou de la Finlande. En dynamique, Fontagné et Santoni indiquent que l’allocation du facteur travail entre les entreprises du secteur manufacturier serait même moins efficiente en 2008 qu’elle ne l’était au début des années 2000. Les entreprises les plus productives n’auraient pas suffisamment grandi alors que les moins productives auraient une taille excessive. Par ailleurs, Ben Hassine (2016) montre que la baisse de la productivité des entreprises françaises sur la période post-crise (2008-2012) relativement à la période antérieure à la crise (2004-2008) s’explique principalement par une baisse de la productivité moyenne des entreprises mais aussi par de moindres effets de réallocation.

Source : France Stratégie « Comprendre le ralentissement de la productivité en France », janvier 2016

Document 62 : les rigidités sur les marchés des biens freinent l’entreprenariatLa France se singularise par un taux de rotation de ses entreprises (somme des créations et destructions d’entreprises) particulièrement faible, symptomatique d’une économie où le processus de destruction créatrice est peu intense. Par ailleurs, elle a une démographie d’entreprises atypique faite de beaucoup de petites entreprises âgées et de peu d’entreprises de taille moyenne dynamiques. Les travaux récents sur la productivité montrent que c’est bien le croisement entre la taille et l’âge des entreprises qui est le facteur explicatif déterminant : les jeunes entreprises, soit sont productives et grandissent, soit ne le sont pas et disparaissent (« up-or-out »).Or certaines rigidités légales et réglementaires limitent le développement des entreprises les plus productives. La complexité administrative et fiscale ainsi que le manque de concurrence dans certains secteurs sont autant d’obstacles à la croissance des nouveaux entrants. Le dynamisme entrepreneurial d’une économie dépend également des barrières à la sortie qui peuvent protéger de manière excessive les entreprises en place. Le droit des faillites français, en protégeant de manière disproportionnée les actionnaires de l’entreprise ou en donnant un poids démesuré à la préservation de l’emploi à court terme lors des décisions de reprise, rend moins efficace la restructuration des entreprises en difficulté. Cela nuit à long terme à la productivité et à l’emploi global.

Source : France Stratégie « Comprendre le ralentissement de la productivité en France », janvier 2016

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

26

Page 27: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 63 : un niveau de compétence inférieur aux autres pays de l’OCDE

Source : France Stratégie « Comprendre le ralentissement de la productivité en France », janvier 2016

Document 64 : rigidités sur les marchés des biens et du travailDe nombreux travaux montrent que les réglementations importantes des marchés des biens et du travail dans de nombreux pays industrialisés et en particulier dans les pays européens ont actuellement un coût parfois élevé en termes de gains de productivité et donc de croissance. Pour autant, les réglementations et rigidités importantes en Europe ont pu avoir un faible effet défavorable, voire un effet favorable, sur les gains de productivité et la croissance des pays concernés quand ces derniers étaient éloignés de la frontière technologique. Mais ces pays s’étant rapprochés de la frontière technologique, ces réglementations et rigidités ont désormais un effet défavorable important qui appelle avec force la nécessité des réformes visant à la réduire (Aghion et Howitt, 2006). (…) Par ailleurs, Blanchard et Wolfers (2000) montrent que certaines formes de rigidités, qui pouvaient ne pas brider la croissance durant les trente glorieuses, peuvent être plus pénalisantes dans l’ère actuelle bousculée par des chocs technologiques nouveaux et de grandes ampleurs qui appellent certaines formes spécifiques de flexibilité.

Gilbert Cette, Productivité et croissance en Europe et aux Etats-Unis, collection Repères, La Découverte, 2007, p.27

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

27

Page 28: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 65 : ancienneté et rotation des emplois

Source : France Stratégie « Comprendre le ralentissement de la productivité en France », janvier 2016

Document 66 : la mobilité du travail se concentre sur les « outsiders »Le marché du travail a connu en France un fort développe- ment de la flexibilité « à la marge », avec la croissance des formes atypiques d’emploi (CDD, de plus en plus courts, et intérim). Ceci résulte en une segmentation croissante avec d’un côté des personnes dans des emplois précaires (multiplication des CDD, de l’intérim et d’allers-retours entre emploi et chômage) et de l’autre une faible mobilité des personnes en CDI42. Cette dualisation du marché du travail génère, à rebours de ce qui serait désirable, une instabilité excessive au niveau des emplois peu qualifiés (au détriment de la formation et de l’investissement dans le capital humain) et une mobilité insuffisante au niveau des emplois les plus productifs (dont l’allocation plus dynamique assurerait des gains de productivité).

Source : France Stratégie « Comprendre le ralentissement de la productivité en France », janvier 2016

Document 67 : des institutions qui ralentissent le processus de destruction créatriceOn doit à Joseph Schumpeter, dans Capitalisme, socialisme et démocratie (1942), le concept de destruction créatrice : les nouvelles innovations et les entreprises qui les mettent en oeuvre rendent obsolètes les anciennes innovations, ce qui fait disparaître les entreprises établies qui les avaient introduites. Ce conflit permanent entre l’ancien et le nouveau est facteur de forts gains de productivité puisque des entreprises à la faible productivité sont remplacées par des entreprises plus efficaces. Aux États-Unis, la réallocation du capital et du travail au profit des entreprises les plus efficaces explique 50 % de la croissance de la productivité constatée au cours des années 1990 dans le secteur manufacturier, et même 90 % sur la même période dans le commerce de détail. Une étude de 2015 (« Firm level allocative inefficiency: evidence from France ») réalisée par Lionel Fontagné et Ginaluca Santoni sur les ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

28

Page 29: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

entreprises manufacturières françaises souligne la faiblesse relative de la destruction créatrice : l’allocation du facteur travail entre les entreprises du secteur manufacturier serait moins efficiente en 2008 qu’elle ne l’était en 2000 ; les entreprises les plus productives n’auraient pas assez grandi alors que les moins productives auraient une taille excessive, ce qui réduit la croissance de la productivité.

Manuel ESH ECE1, Studyrama, 2017

Document 68 : expliquer la faiblesse de la destruction créatrice Les économistes mentionnent trois grands facteurs explicatifs du retard de diffusion des TIC dans les économies à la frontière technologique :

- la faiblesse du capital humain ;- la concurrence insuffisante sur le marché des biens et des services ;- le manque de flexibilité sur le marché du travail.

Sur le modèle des enquêtes PISA, l’OCDE procède aussi à une enquête cherchant à évaluer les compétences des adultes. Ce programme pour l’évaluation internationale des compétences des adultes (PIAAC) atteste que le niveau de compétence de la population active française est inférieur à celui de la plupart des pays de l’OCDE. Ces faibles compétences des actifs sont un obstacle à la diffusion des TIC et au progrès de la productivité.Philippe Askenazy et Christian Gianella expliquent, dans un article intitulé « Le paradoxe de la productivité : les changements organisationnels, facteur complémentaire à l’informatisation » (2000), que la pleine réalisation du potentiel productif des TIC implique une réorganisation de la production reposant sur l’adoption de pratiques flexibles du travail. Or, les réglementations sur le marché du travail peuvent compromettre ces innovations organisationnelles et ralentir la diffusion des TIC.Le degré de concurrence sur le marché des biens et des services est un autre facteur explicatif de la plus ou moins grande diffusion des TIC. Une concurrence plus forte, qu’elle soit domestique ou internationale, contribue à diminuer le prix des TIC et ainsi à favoriser leur diffusion. Dans les secteurs qui ne sont pas producteurs mais utilisateurs des TIC, les travaux de Philippe Aghion et Peter Howitt (« Competition and innovation: an inverted U relationship », 2014) mettent en évidence qu’une plus forte pression concurrentielle constitue pour les entreprises à la frontière technologique une forte incitation à innover et à adopter les TIC.

Manuel ESH ECE1, Studyrama, 2017

Document 69

Source : Gilbert Cette « Croissance de la productivité : quelles perspectives pour la France ? » 2013

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

29

Page 30: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

3. Les transformations des structures financières

3.1 Le système bancaire et financier en France avant 1945

3.1.1 Les différents types de banques : banques d’escompte, Banque de France, Haute banque, banques de dépôts, banques coopératives et mutualistes

Document 70 : les banques d’escomptePendant plusieurs siècles, le crédit a été l’affaire des marchands-banquiers, qui pratiquaient le négoce des lettres de change pour financer le commerce de gros ; des financiers, qui prêtaient au roi et à l’Etat ; des notaires, qui prêtaient aux aristocrates et aux bourgeois ; des prêteurs sur gage et usuriers qui prêtaient de menues sommes pour les besoins de consommation courante. Les premières banques émettrices de papier-monnaie se sont organisées au 18 ième siècle. Deux des principales expériences ont échoué parce que l’Etat a utilisé les billets en question pour rembourser la dette publique, ce qui a débouché sur des hyperinflations qui ont durablement déconsidéré le papier-monnaie. (…) Le seul cas de succès, celui de la Caisse d’escompte (de 1776 à la Révolution) a été imité par plusieurs banques d’escompte créées à Paris et dans les grandes villes à partir de 1796 (…). Ces établissements pouvaient ouvrir leurs portes sans demander d’autorisation formelle, car le commerce de banque était une activité entièrement libre.

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.391-401

Document 71 : la Banque de France, une banque qui domine le marché de l’escompte au 19ième

siècle et qui acquiert le monopole de l’émission de billetsNéanmoins, la Banque de France, créée en 1800 par un groupe de banquiers parisiens avait, bien que privée, un statut semi-public (le gouvernement nommait le gouverneur), contrepartie de la responsabilité limitée qui était accordée à ses actionnaires. Sa vocation était à la fois d’accorder du crédit aux entreprises par l’escompte et de permettre aux banques de réescompter leur propre portefeuille, ce qu’elles hésitaient parfois à faire du fait qu’elles étaient en concurrence avec la Banque. Institut d’émission de billets, la Banque de France n’était alors aucunement une Banque centrale chargée de missions publiques comme le bon fonctionnement du marché monétaire ou la stabilité des taux d’intérêt. (…) Par étapes successives, elle acquit entre 1800 et 1848, le monopole de billets (…). Par sa taille considérable, elle domina le marché de l’escompte tout au long du 19ième siècle.

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.391-401

Document 72 : la Haute banqueLa fin de la Révolution vit le retour des maisons de banque et la reprise du négoce. Constitué principalement de petites banques locales, le système bancaire fut dominé de la Restauration au milieu du 19ième siècle, par la Haute banque. Celle-ci, d’abord dédiée au financement du commerce international, s’élargit aux activités de banque d’affaires. (…) Elle apprit les techniques de la finance internationale, (…) elle s’impliqua directement dans le financement de l’industrialisation du coton, des canaux et de la métallurgie par des prêts à long terme et des participations, puis bientôt dans les chemins de fer où elle put appliquer les techniques d’émission apprises sur la dette publique. (…) Dans le domaine de la banque d’affaires, la Haute banque, aux capitaux en général limité, fut concurrencée à partir de 1840 par des projets ambitieux de sociétés anonymes mobilisant des ressources à long terme par émission d’obligations ou d’actions dans le public en plus de dépôts. Laffite, puis les frères Pereire, avec le Crédit mobilier (1852), financèrent ainsi des projets industriels (en particulier des chemins de fer en France et à l’étranger, mais aussi des projets immobiliers), avec tous les risques que les faillites industrielles répercutaient sur la banque. L’échec de ces immenses projets de banque universelle conduisait les banques mixtes à mieux adosser ressources et emplois : ainsi, elles utilisèrent désormais des ressources en fonds propres et en dépôts durables pour prendre des participations dans des entreprises industrielles, et des dépôts à vue pour leur accorder du crédit commercial ; elles aidèrent aussi leur développement par l’organisation de leurs émissions d’obligations et d’actions. (…) Cette forme de banque (Banque de Paris et des Pays-Bas) se rendit indispensable aux entreprises qui ne pouvaient pas accéder elles-mêmes directement au marché des capitaux.

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.391-401

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

30

Page 31: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 73 : les banques commerciales (les banques de dépôts)Dans le domaine de la banque commerciale proprement dite, la banque d’escompte originelle qui prêtait à court terme contre les effets de commerce (…) pris une nouvelle ampleur avec la création de nombreux comptoirs d’escompte (…) à partir de 1848. Sous le Second empire, l’escompte fut de plus en plus accaparé par les nouvelles banques de dépôt, qui bénéficiaient de la puissance financière permise par le statut de société anonyme. Elles commencèrent à recevoir les dépôts d’une plus large clientèle grâce à la multiplication des agences dans toute la France : furent ainsi fondé la Société Générale, le Crédit Lyonnais … (…) Après la crise financière de 1882, Henri Germain, le président du Crédit Lyonnais de 1863 à 1905, se rendit célèbre en définissant et en mettant en pratique des règles de gestion destinées à veiller au maintien en toutes circonstances d’un coefficient suffisant de liquidité des dépôts, préfigurant ainsi ce que deviendrait l’instrument principal du contrôle bancaire après 1945. Enfin, ces banques remplacèrent largement la Haute banque après 1870 dans l’émission d’emprunts étrangers de grande envergure en France (comme les emprunts russes) qu’elles plaçaient grâce à leur large réseau.

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.391-401

Document 74: les banques coopératives et mutualistesParallèlement, dès 1818, et surtout à partir des années 1830, de nouveaux types de banques apparurent. Des caisses d’épargne et des banques coopératives animées par un esprit mutualiste à vocation d’entraide sociale, souvent d’inspiration chrétienne, se développèrent dans les milieux ruraux et professionnels. Traditionnellement conçues pour assurer la bancarisation « sans rapacité capitaliste » d’une clientèle d’agriculteurs, d’artisans, de petits entrepreneurs, d’épargnants particuliers, ces banques fournirent les premiers services financiers aux classes moyennes et modestes. (…) Dans la deuxième moitié du 19ième siècle, les coopératives de crédit se développèrent surtout en Allemagne, en Autriche et aux Pays-Bas, en Italie et en Espagne. C’est le moment où l’on passa des sociétés de bienfaisance destinées à protéger de l’usure les petits paysans et les artisans à de véritables coopératives de crédit. En France, la première coopérative de crédit agricole fut créée en 1885 dans le Jura, et des caisses à vocation rurale plus générale apparurent à partir de 1890. (…) Ces mouvements qui prirent leur essor après 1890 dans le cadre de la pensée solidariste, donnèrent naissance au 20 ième siècle à de puissants réseaux mutualistes ou coopératifs comme le Crédit Agricole mutuel (1894), le Crédit mutuel (1894) ou les Banques populaires (1894).

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.391-401

3.1.2 Une succession de crises dans un secteur non régulé

Document 75 : un secteur où se succèdent des crises bancaires et financièresAu 19ième siècle, les faillites bancaires étaient fréquentes en l’absence de régulation bancaire (…) comme en témoigne la chute du Crédit mobilier des Pereire en 1889, ou la ruée des déposants sur la Société Générale en 1913. La Banque de France n’intervenait guère lors de ces faillites qu’à la demande du gouvernement, et d’autant moins volontiers qu’après 1880 les banques de dépôt commençaient à remettre en cause sa prééminence. Comme la concentration bancaire était relativement importante, comme la Banque de France accordait assez largement son réescompte aux banques importantes, et comme la part des dépôts à vue dans la masse monétaire demeurait relativement faible, ces défaillances bancaires ne s’accompagnèrent cependant pas de paniques aussi importantes qu’aux Etats-Unis, sauf dans des circonstances très particulières comme la Révolution de 1848. Dans l’entre-deux-guerres, cette situation relativement favorable se détériora. Le financement de la Grande Guerre avait imposé aux banques d’absorber en quantités importantes des bons et des obligations du Trésor dont les rendements furent très négatifs en termes réels (le niveau général des prix est multiplié par 5 entre 1914 et 1926). (…) Une succession de ruées dans les années 1920 affectèrent des ensembles de banques et non plus seulement des établissements isolés du fait de la multiplication des opérations interbancaires au bilan des banques. (…) Face à ces crises et à cette situation macroéconomique très instable, les banques réagirent par la concentration et par le corporatisme. De nouveaux réseaux de taille nationale se formèrent. Avec l’accord de Paris de 1926, les grandes banques renforcèrent leur cartel en l’étendant aux barèmes d’escompte et aux taux d’intérêt sur les dépôts. Toute cela, dans un climat d’instabilité politique et monétaire ponctué de scandales, créa un sentiment profond d’inquiétude et de fragilité financière, ainsi qu’une détérioration persistante de la réputation des banquiers. Trois paniques bancaires accompagnèrent la dépression des années 1930. Elles se produisirent après le retournement

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

31

Page 32: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

conjoncturel et la chute de la Bourse (…), un grand nombre de faillites d’entreprises mirent les banques en difficulté, (…) parmi lesquels des établissements sains et solvables. Au total, 566 banques disparurent entre octobre 1929 et 1935. (…) Avec la disparition de près de 40% de l’ensemble des banques et des officines auxiliaires, on peut estimer que cette crise bancaire a revêtu une importance comparable à celle des Etats-Unis. Selon leur pratique traditionnelle, l’Etat et la Banque de France tentèrent de limiter l’extension des crises en organisant le renflouement des banques touchées, par des consortium de banques, appuyées par des crédits de la Banque de France, voire des aides du Trésor. Mais cette solution, s’avéra inefficace, puisqu’elle n’empêcha pas un grand nombre de faillites et de restructurations radicales qui occasionnèrent des pertes importantes aux déposants (…). (…) La dépression mis surtout en évidence le nombre excessif de petites banques locales insuffisamment diversifiées, ainsi que la difficulté pour celles-ci d’obtenir le secours de la Banque de France. En l’absence d’un système d’assurance de dépôt, les paniques débouchèrent sur le dépôt de bilan des banques solvables qui auraient du être sauvées. (…) De telles paniques inefficientes n’eurent donc pas pour résultat d’assainir le secteur bancaire, comme c’est le cas quand des banques insolvables disparaissent. Elles l’endommagèrent gravement (…) entraînant la chute de l’activité réelle et la croissance.

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.391-401

Document 76 : un secteur très peu réguléJusqu’en 1940, une certaine supervision des banques était exercée par la Banque de France sans qu’elle en ait jamais été légalement chargée. Cette surveillance ne concernait toutefois que la liquidité des banques. Par ailleurs, (…) l’intervention du Trésor n’était en rien automatique et, au contraire, l’Etat ne faisait connaître ses plans éventuels de sauvetage qu’aux cas tout à fait exceptionnels. Il n’existait dans un tel système bancaire entièrement libéralisé, ni charte bancaire, ni réglementation prudentielle, ni assurance de dépôt, ni séparation des activités bancaires et financières. Le nombre même des banques et des officines qui faisaient du courtage de titres entre les banques et la Bourse, restait inconnu. Les banques coopératives et les caisses d’épargne étaient en revanche, étroitement surveillées par le Trésor dans la mesure où les prêts qu’elles distribuaient bénéficiaient de subventions financées par la budget de l’Etat et où, en contrepartie, l’Etat récupérait une fraction de leur collecte de dépôts pour assurer des missions particulières (financement du logement social, prêts à l’agriculture, …).

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.391-401

3.2 La mise en œuvre d’une régulation du système bancaire et financier : le cas des Etats-Unis

Document 77 : le Glass-Steagall ActA l’origine, les banques commerciales, les banques d’affaires ou banques d’investissement et les compagnies d’assurance ont été créées comme des entités distinctes qui offrent des services financiers différents les uns des autres. Ces institutions ne tardèrent cependant pas à comprendre que la combinaison des activités et des services produisait des économies de gamme (…) mais pouvait néanmoins créer des abus préjudiciable à la clientèle. En 1933, le Glass-Steagall Act a bloqué le développement de la banque universelle en interdisant le regroupement de ces services en une seule organisation. A l’exception de l’Allemagne où la banque universelle a toujours été reconnue, la plupart des grands pays ont introduit des séparations entre les catégories d’institutions financières. (…) Quand le Congrès américain abrogea le Glass-Steagall Act en 1999, la banque universelle fit sa réapparition.

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.226

Document 78 : des bankers aux « banksters »De nombreux investisseurs se demandèrent, juste après le krach de Wall Street de 1929, comment on avait pu les inciter à acheter d’importantes quantités de titres dont la valeur s’était brutalement effondrée peu après. Le public se mit à accuser les banques universelles d’avoir fait un énorme battage publicitaire pour leur faire acheter des titres. Pour l’opinion, les bankers s’était comportés en véritables gangsters, en « banksters ». Sous la pression des actionnaires ruinés, la commission monétaire et bancaire du Sénat lança des auditions publiques pour enquêter sur d’éventuels abus commis par les banques universelles. Les auditions conduites par le conseiller Pecora furent assidûment suivies et très populaires en leur temps. L’enquête Pecora révéla, en effet, plusieurs cas d’abus grave, commis par les banques universelles. (…) Ces scandales amenèrent le Congrès à voter le Glass Steagall Act en 1933 qui

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

32

Page 33: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

élimina la possibilité de tels conflits d’intérêts en ordonnant une séparation stricte entre les activités de banque commerciale et de banque d’investissement.

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.229

3.3 L’Etat devient l’acteur central du système bancaire et financier en France après 1945

Document 79 : réglementation et interventionnisme public après 1945Le secteur bancaire et financier fut organisé de manière systématique pour la première fois par le gouvernement de Vichy avec les lois du 13 et 14 juin 1941, qui marquèrent la fin du système libéral d’avant-guerre. Ces lois, débarrassées de leur inspiration corporatiste, furent pour l’essentiel confirmées à la Libération par la loi du 2 décembre 1945. (…) Le point culminant du dirigisme financier fut atteint avec la nationalisation en 1945 de la Banque de France et des quatre principales banques de dépôt (dont la Société générale et le Crédit Lyonnais). La politique du crédit dirigé consistait en un système complexe de financements par des réseaux bancaires cloisonnés. Le marché monétaire, le marché des dépôts, du crédit et des changes étaient séparés les uns des autres et soumis à une réglementation rigoureuse. Les banques se voyaient assigner un rôle secondaire dans le nouveau système de financement de l’économie nationale.

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.391-401

Document 80 : le cloisonnement des activités bancairesEn matière de supervision bancaire, (…) l’inscription des banques et autres établissements financiers sur (…) l’équivalent des chartes bancaires devint obligatoire. Les banques durent se ranger dans l’une ou l’autre des trois catégories suivantes selon leur spécialisation : banque de dépôt, banque d’affaires ou banque de crédit à moyen et long terme. Chaque catégorie se voyait imposer des restrictions sur la collecte de ressources et ses emplois par un système complexe de coefficients de liquidité, de fonds propres, de planchers d’effets publics, de coefficients de transformation, … formant un véritable carcan. Le principal organe de supervision bancaire était le Conseil national du crédit, assemblée représentative des intérêts économiques de la Nation. (…) Jusqu’aux années 1970, le cloisonnement des circuits bancaires et financiers était organisé sous l’égide du Trésor qui distribuait à chaque secteur économique l’enveloppe de crédits bonifiés en fonction des priorités désignées par les plans d’équipement successifs de la nation. Chacun de ces secteurs était financé par un organisme spécialisé sous tutelle de l’Etat. Les banques jouaient un rôle auxiliaire.

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.391-401

Document 81 : les premières réformes des années 1960 (vers la banque universelle)A partir de 1966, l’Etat amorça une libéralisation limitée du secteur bancaire, sous l’impulsion du ministre des finances Michel Debré et de son directeur de cabinet J.Y.Haberer. (…) A partir de ce moment, la banque devint plus familière à la population avec la mensualisation des salaires et leur domiciliation obligatoire en compte de dépôt ; l’utilisation du chèque bancaire devint très populaire, et le public en fit l’instrument de paiement le plus utilisé jusque dans les transactions de petit montant. Cette pratique nouvelle entraîna des coûts de traitement très lourds pour les banques qui se voyaient imposer par le Trésor la gratuité de leur emploi. La distribution du crédit fut cependant limitée par des normes de progression annuelle fixées à partir de 1963 par la Banque de France. L’encadrement du crédit (…) fut surtout utilisé comme moyen de politique monétaire pour limiter la création de monnaie bancaire. Dans les années 1970, le Trésor eut à financer de grands programmes publics d’investissement (équipement électronucléaire, autoroutier, téléphonie, TGV, …). Faute d’un marché financier national suffisant, le Trésor dut organiser un vaste programme d’emprunts à l’étranger par l’intermédiaire des grandes entreprises nationales garanties par l’Etat. (…) L’inflation et les déséquilibres de la balance des paiements devinrent des problèmes majeurs pour l’économie française dans les années 1970. (…) L’accroissement du déficit budgétaire et du déficit extérieur posait déjà des difficultés. Faute d’un marché national des capitaux suffisamment large, incapable notamment d’absorber ses émissions d’emprunts obligataires, l’Etat trouvait des ressources de trésorerie auprès des banques commerciales qui étaient sollicités en permanence pour renouveler leurs achats de bons du Trésor à court terme. A l’extérieur, l’Etat ne voulait pas directement s’endetter, et à côté du programme d’emprunt à long terme encouragé, seules les banques étaient en mesure

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

33

Page 34: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

d’emprunter en devises à court terme. Ces entrées de capitaux, non complètement neutralisées malgré le contrôle des changes, alimentaient directement la création monétaire et l’inflation.

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.391-401

Document 82 : les réformes de la fin des années 1960/début 1970Entre la fin des années 1960 et le début des années 1970, la France s’engage dans un vaste projet de réforme de son système bancaire et financier. Cette réforme vise pour l’essentiel à réduire le rôle de l’Etat dans le système bancaire et financier au profit d’un recours plus important à la régulation marchande et à la concurrence bancaire. En 1966-1967, les réformes initiées par le ministre de l’Economie et des Finances, Michel Debré, modifient de façon importante le fonctionnement du système bancaire. (…) L’ouverture des guichets des banques est libéralisée, ce qui intensifie la concurrence entre les banques et permet d’accroître la bancarisation des ménages et la collecte des dépôts. (…) En 1967, un groupe de six banques françaises crée la Carte bleue. (...) Les réformes Debré amorcent aussi une déspécialisation des banques. Les banques de dépôts sont autorisées à collecter des dépôts à plus de 2 ans et elles peuvent accroître leur prise de participation dans les entreprises. (…) On assiste dans la période 1960-1970 à une augmentation de l’implantation en France des banques étrangères et à un mouvement de concentration des banques. (…) Les banques d’affaires jouent aussi un rôle beaucoup plus actif en liaison avec le dynamisme industriel. (…) Alors que la déspécialisation des banques est encore incomplète, les banques d’affaires se lancent dans la collecte de dépôts grâce à leurs filiales dans le même temps où les banques de dépôts sont autorisées par les textes réglementaires à prendre des participations dans les entreprises. L’évolution vers le modèle de la banque universelle est bien engagée. (…) Entre 1966 et 1973, la part des banques dans le crédit à l’économie passe de 41% à 55% tandis que la part du Trésor passe de 35% à 15%. (…) Cependant, à la fin de la période, la place de l’Etat et des organismes qu’il contrôle reste très importante. En 1980, les trois grandes banques nationalisées de 1945 représentent 55% des dépôts bancaires et 45% des crédits bancaires.

Source : A.Beitone et C.Rodrigues « Economie monétaire », A.Colin, 2017, p. 223-228

3.4 Les années 1980 marquent une rupture : une double dynamique de déréglementation et de décloisonnement du système bancaire et financier

3.4.1 Déréglementation et décloisonnement

Document 83 : la déréglementation, entretien avec David Thesmar Comment définiriez-vous la déréglementation financière ? Le premier aspect de la déréglementation financière concerne la libéralisation de la balance des paiements (…). Elle a permis d’accroître les échanges financiers. Il faut se rappeler que le contrôle des changes existait en France jusqu’au début des années 1980. Le gouvernement décidait alors s’il fallait laisser passer les flux de capitaux internationaux ou les limiter, et à quel plafond. Le second aspect de la déréglementation est lié à la libéralisation du secteur financier lui-même. La question était de savoir s’il fallait garder un système bancaire corseté par des règles et un contrôle public, ou au contraire le laisser prendre lui-même un certain nombre de décisions. Au début des années 1980, l’économie française était extrêmement réglementée ; les banques ne choisissaient ni le taux auxquelles elles prêtaient, ni combien elles prêtaient. La déréglementation a levé tous ces blocages. La loi bancaire de 1984 et la loi sur la déréglementation financière de 1986 constituent les cadres légaux de cette mutation financière. Pouvez-vous nous rappeler les principales mesures de ces lois ? En quoi ces mesures ont-elles changé le métier de banquier ? Avant la déréglementation financière, il existait en France environ 200 prêts bonifiés. A chaque fois qu’il y avait une nouvelle préoccupation d’importance du Trésor, un nouveau prêt bonifié apparaissait. Par exemple, si on voulait moderniser l’outil industriel, un prêt bonifié était dédié à cette modernisation avec un taux fixé par le Trésor ; de même pour sauver des emplois ou pour restructurer la force de travail. (…) Il faut ajouter à cela l’encadrement du crédit. Lorsque la Banque de France estimait qu’il y avait trop de monnaie en circulation, elle demandait aux banques de réduire leurs prêts. Tous les mois, les patrons des grandes banques rencontraient ceux de la Banque de France et recevaient des directives. Pour simplifier avant la déréglementation, le travail d’un banquier consistait à prêter une enveloppe étroite dans un menu de taux donné. A cette époque, la moitié du système bancaire était nationalisée, l’autre moitié était

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

34

Page 35: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

sous tutelle de la banque centrale et du Trésor. L’univers bancaire n’était pas un univers commercial, ce qui freinait l’innovation financière.

Source : entretien avec D.Thesmar dans Revue Regards croisés sur l’économie, n°3, mars 2008, p. 68

Document 84 : la loi bancaire de 1984 (France)Avant la loi bancaire de 1984, chaque banque disposait de privilèges en termes de distribution de produits d’épargne et de prêts bonifiés. Par exemple, seul le Crédit Agricole pouvait accorder des prêts bonifiés aux agriculteurs ; seul le Crédit local pouvait octroyer des prêts d’accession à la propriété. La loi bancaire a fait le ménage, en définissant quatre grandes catégories de banques : les banques normales, les banques mutualistes, les banques d’investissement et les caisses d’épargne. Elle a autorisé les banques normales à exercer également le métier de banques d’investissement – ce qui est assez légitime : puisqu’elles collectent de l’argent, pourquoi n’auraient-elles pas le droit de le placer librement ? La loi bancaire a donné un cadre simplifié définissant de nouveaux statuts en supprimant certains monopoles. Les deux autres mesures qui comptent, rappelons-le, sont la suppression de l’encadrement du crédit et la suppression d’une grande partie des prêts bonifiés. Ces changements ont révolutionné la façon de penser des banquiers, qui sont devenus responsables de leur politique de prêt.

Source : entretien avec D.Thesmar dans Revue Regards croisés sur l’économie, n°3, mars 2008, p. 70

Document 85 : le retour des banques universelles La loi bancaire de 1984 élimine la séparation entre banque de dépôt et banque d’affaire substitue un modèle de « banque universelle » au modèle de banque spécialisée. On assiste aux Etats-Unis à un mouvement similaire avec la remise en question du Banking Act de 1933 (Glass-Steagall Act)  : la réglementation Q, abrogée en 1986 (…). La séparation entre banques commerciales et banques d’investissement a également été remise en cause dans un contexte défavorable aux banques américaines, sous-capitalisées, en proie à une concurrence interne forte et exposées à l’essor de nouveaux concurrents, tels que les sociétés d’assurance, les OPCVM et les fonds de pension. Source : C.de Boissieu et J.Couppey-Soubeyran, « Les systèmes financiers. Mutations, crises et régulation »,

4ième édition,

Document 86 : la déréglementation financière de 1986 (France)Le contexte de la déréglementation en France est assez intéressant : le big bang de la City à Londres a donné un coup de vieux au système financier français. Comment l’idée de la déréglementation a-t-elle germé parmi les technocrates français ? Le contexte international a poussé dans cette direction. Le big bang de la City dans les années 1970, commençant avec le recyclage des pétrodollars, a joué le rôle de détonateur. A la fin des années 1960, le régime de Bretton Woods prévalait encore. Il a permis la globalisation des marchés des biens, mais maintenu les marchés financiers relativement cloisonnés, à cause de l’étalon-dollar. Le choc pétrolier a généré d’un coup une capacité d’épargne énorme, notamment chez les pays producteurs d’or noir. Pour placer cette épargne, de nouveaux marchés ont été créés (les marchés des eurodollars, des eurofrancs …) et les barrières ont été abolies. La déréglementation des marchés des capitaux a débuté de manière anarchique, sous l’égide des pays financièrement plus avancés : l’Angleterre puis les Etats-Unis. Dans ce contexte, les grandes banques d’investissement américaines ont migré vers Londres. (…) Les anglais ont pris le tournant,  reformaté leur marché, le rendant plus fluide, plus dynamique. Ces expériences internationales étaient scrutées par de jeunes hauts fonctionnaires français (…). Après avoir compris que la détermination des prix par la rencontre de l’offre et de la demande est optimale, ils ont entreprise de restructurer l’architecture de la France. La restructuration a lieu sous le gouvernement socialiste, à un moment où la gauche est mûre pour le faire. D’abord parce que Bérégovoy y croit : pour lui, être libéral, c’est être socialiste, au sens où la concurrence fait baisser les prix, donc rend du pouvoir d’achat aux gens, et permet de faire disparaître les rentes capitalistiques. Il a derrière lui une équipe qui y croit aussi, et qui met en place la nouvelle architecture : la loi bancaire de 1984-1985, la suppression de l’encadrement du crédit, la disparition de la plupart des prêts bonifiés, et puis petit à petit, la levée du contrôle des changes, pour faire revenir les investisseurs internationaux. Sous l’égide de Bérégovoy, on crée le second marché pour permettre aux entreprises de taille moyenne d’être cotées en Bourse. Cet agenda non partisan est repris par le tandem Balladur-Chirac. Les entreprises privatisées viennent peu à peu peupler la cote. On supprime le monopole des agents de change en 1986. Il y avait auparavant 40 agents de change, passage obligé pour

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

35

Page 36: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

les transactions boursières. On crée aussi le Marché à terme international de français (MATIF) et le Marché des options négociables de Paris (MONEP). La Bourse devient électronique. La France est de ce point de vue pionnière en Europe continentale (c’est la dernière grande réalisation de la technocratie française).

Source : entretien avec D.Thesmar dans Revue Regards croisés sur l’économie, n°3, mars 2008, p. 75

Document 87 : dans le contexte de l’intégration européenne En Europe, l’UEM et la création de l’euro ont conduit à l’émergence d’un vaste marché unifié des capitaux. Les bourses européennes ont entamé un large mouvement de restructurations avec la fusion en 2000 des places de Paris, Amsterdam et Bruxelles pour créer la bourse paneuropéenne Euronext. Cette bourse a fusionné avec le NYSE (New York Stock Exchange) en 2007. (…) Enfin, les transformations apportées aux cadres juridiques nationaux a contribué à l’internationalisation des marchés. En Europe, l’implantation transfrontalière d’établissement de crédit dans la Communauté est autorisée par la première directive bancaire adoptée en 1977.

Source : C.de Boissieu et J.Couppey-Soubeyran, « Les systèmes financiers. Mutations, crises et régulation », 4ième édition, Economica, 2013, p. 6-10

Document 88 : transformation des marchés financiersA coté d’un marché monétaire, strictement interbancaire, et d’un marché financier largement réservé aux grandes entreprises a été ouvert un marché de titres des créances négociables, à court et moyen terme, accessibles à tous les agents économiques. L’intérêt d’une telle réforme était de conduire à une complétude des marchés des capitaux, en offrant la possibilité à un investisseur (emprunteur) de choisir la durée de son placement (financement) en titres négociables. En effet avant 1985, seul le marché obligataire était ouvert à tous les agents économiques.

Source : Mathilde Lemoine, Philippe et Thierry Madiès «  Les grandes questions d’économie et finance internationales », De Boeck, 2007, p. 423-424

Document 89 : la création du MONEP et du MATIF Un marché financier actif suppose que les opérations puissent être conduites à toute échéance temporelle et que tous les opérateurs financiers puissent accéder à chaque compartiment du marché, ce qui impliquait en France une réforme du marché monétaire. A l’instar des plus grandes places financières étrangères, il fallait aussi que des opérations à termes et optionnelles deviennent possibles, ce que la création du MATIF (marché à terme des instruments financiers, devenu en 1988, le marché à terme international français) et du MONEP (marché des options négociables à Paris) a permis. Source : Françoise Renversez « De l’économie d’endettement à l’économie de marchés financiers » in Revue

Regards croisés sur l’économie n°3, mars 2008, p. 54

Document 90 : les différents compartiments des marchés de prêts et emprunts Les taux d’intérêt sont cotés sur différents marchés, structurés selon la maturité des transactions et la nature des opérateurs. Le taux d’intérêt est le prix qui détermine la rémunération d’un prêt. Le marché sur lequel se négocient des prêts et emprunts à court terme sur une période par convention inférieure à 1 an, est appelé marché monétaire. Ce marché se subdivise lui-même en trois segments, le marché monétaire interbancaire sur lequel n’opèrent que les banques, le marché des Bons du Trésor, sur lequel s’achètent et se vendent des titres émis par le Trésor sur une maturité initiale inférieure à 1 an, et le marché des billets de trésorerie, sur lequel s’échangent des titres émis par les entreprises sur une maturité elle aussi inférieure à 1 an. (…) Le marché sur lequel les emprunteurs émettent de la dette sur une période par convention supérieure à 7 ans est appelé marché obligataire. (…) Les titres émis sur une durée comprise entre 1 an et 7 ans sont qualifiés de moyen terme.

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

36

Page 37: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Source : Didier Marteau « Les marchés des capitaux », A.Colin Cursus, 2011, p.22

Document 91 : en résumé, la déréglementationAu cours des années 1980-1990, les pays industrialisés ont procédé à un large mouvement de déréglementation de leurs marchés financiers dans le but de drainer l’épargne mondiale et de financer leurs déficits budgétaires croissants. Le « Big Bang » imposé par l’Angleterre à son système financier en octobre 1986 illustre ce mouvement qui s’inscrit dans la logique de libéralisation des marchés visant à une plus grande concurrence et une meilleure allocation des capitaux mondiaux. (…) La déréglementation porte d’abord sur le volume d’opérations avec la suppression du contrôle des changes et de l’encadrement du crédit. Elle porte également sur les prix, la libéralisation des tarifs (…) a ainsi accentué la concurrence entre les banques sur tous les segments du marché du crédit. (…) En France, diverses mesures sont adoptées pour accroître la concurrence, mettant fin à certains monopoles. La loi bancaire de 1984 qui fonde le concept d’établissement de crédit en éliminant la séparation banque de dépôt et banque d’affaire substitue un modèle de « banque universelle » au modèle de banque spécialisée. On assiste aux Etats-Unis à un mouvement similaire avec la remise en question en 1986 du Glass-Steagall Act de 1933. (…)

Source : ss la direction de C.de Boissieu et Jézabel Couppey-Soubeyran « Les systèmes financiers. Mutations, crises et régulation », 2013, p.6

Document 92 : en résumé, le décloisonnementEn Europe, le décloisonnement résulte principalement des réformes entamées à partir des années 1980 (…) et visant à modifier un système pouvant être qualifié d’économie d’endettement, qui avait montré ses limites en termes de lutte contre l’inflation, d’allocation des ressources et de capacité à répondre aux besoins de financement croissants des Etats et des entreprises. En France, le décloisonnement a consisté à réduire le nombre de marchés spécifiques afin de constituer un marché intégré des capitaux permettant une régulation monétaire plus efficace et de mieux faire jouer la concurrence. L’ouverture du marché monétaire (à l’ensemble des agents) à partir de 1985 marque la première étape du processus de décloisonnement. (…) La seconde étape (…) a consisté à lever le contrôle strict des autorités monétaires sur la distribution du crédit. Entre 1985 et 1987, l’encadrement du crédit a été assoupli progressivement puis supprimé de même qu’une plus grande égalité dans les conditions de collecte des ressources et d’octroi de financement a été instaurée. Enfin (…) on assiste également à des transformations des marchés boursiers visant à moderniser leur structure institutionnelle et à informatiser la gestion des échanges.

Source : ss la direction de C.de Boissieu et Jézabel Couppey-Soubeyran « Les systèmes financiers. Mutations, crises et régulation », 2013, p.4-5

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

37

Page 38: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 93 : les objectifs de la déréglementation et du décloisonnement du système financier en France

Le système financier aujourd’hui en place en France est le fruit d’une politique de transformations engagées dans les années 1980 pour préparer l’entrée dans l’Union économique et monétaire. Le système financier reposait alors essentiellement sur l’activité des banques, et plus généralement sur le crédit. Des taux de croissance élevés et le rythme soutenu de l’investissement qu’ils supposent suscitaient une forte demande de financement en provenance des entreprises, excédant les fonds propres des firmes. Les marchés financiers ne répondaient que partiellement à la demande des plus importantes d’entre elles. C’étaient donc les banques qui satisfaisaient la demande de financement des entreprises en assurant leur propre liquidité par un recours constant au refinancement de la Banque de France. (…) Ce système de financement qui repose sur l’anticipation de la croissance était largement administré (…). La demande de refinancement des banques comme la demande de financement des entreprises étaient assez insensibles au taux d’intérêt, et l’instrument de la régulation monétaire était quantitatif : la progression du volume du crédit était contrôlée par la pratique dite de l’encadrement du crédit (…). L’objectif de la réforme (des années 1980) qui s’appuyait sur les travaux du Commissariat Général au Plan, était de mettre en place un marché des capitaux décloisonné et d’une dimension qui lui permette d’affronter les mouvements internationaux des capitaux. (…) Il s’agissait d’adapter l’économie française aux contraintes de l’économie ouverte. Si la transformation institutionnelle a été conduite depuis 1984 sous la responsabilité de Pierre Bérégovoy (alors ministres de l’Economie et des finances), le rapport Marjolin-Sadrin-Wormser sur « le marché monétaire et les conditions de crédit » souhaitait dès 1969 que soit mis un terme à la fragmentation du marché du capital. La transformation prévisible de l’environnement économique induite par la mise en place du marché unique a rendu urgente la remise en cause de l’organisation du financement. Au début des années 1980, l’économie française, certes exportatrice, était fermée, en ce sens qu’elle fonctionnait avec un contrôle des changes rigoureux. Celui-ci avait un double aspect : il permettait de contrôler les mouvements de capitaux et donc de limiter la spéculation, toujours active contre le franc, mais il restreignait aussi l’apport des capitaux extérieurs aux marchés boursiers. L’objet des réformes (…) est de réaliser « un marché des capitaux unifié allant du jour le jour au très long terme, accessible à tous les agents économiques, au comptant et à terme avec la possibilité d’options ». Cette démarche a été accompagnée par un processus permanent d’innovation financière dont l’Etat a donné l’exemple avec ses techniques d’emprunt. Les avantages attendus se situaient à deux niveaux : celui des prix sur le marché du capital d’une part (les prix administrés ne sont pas considérés comme des vrais prix ne permettant pas l’allocation rationnelle des ressources), celui de l’accroissement des ressources de financement pour les entreprises (notamment par l’apport de capitaux étrangers) de l’autre. L’objectif final était l’instauration d’une économie de fonds propres, c’est-à-dire d’une économie où les entreprises ne sont plus dépendantes de leur endettement bancaire, mais investissent avec l’apport en capital des épargnants actionnaires rémunérés par un dividende et par les plus-values de leurs titres. Cet apport en capital n’alourdit pas l’endettement de l’entreprise et c’est le marché qui décide de la validité de l’investissement. Source : Françoise Renversez « De l’économie d’endettement à l’économie de marchés financiers » in Revue

Regards croisés sur l’économie n°3, mars 2008, p. 54

3.4.2 Dans un contexte d’innovations financières

Document 94: les Etats-Unis entame la transformation de leur système financier plus tôtAu début des années 1960, aux Etats-Unis avant les autres pays industrialisés, les individus et les institutions financières qui opéraient sur les marchés financiers ont été confrontés à des changements radicaux de l’environnement économique : l’inflation et les taux d’intérêt ont atteint des sommets et sont devenus difficiles à prévoir, une situation qui modifiait les conditions de demande sur les marchés financiers. Le progrès rapide de l’informatique a changé les conditions de l’offre. De plus, les réglementations financières sont devenues de plus en plus pesantes. Les institutions financières ont jugé que la plupart des moyens traditionnels de faire des affaires n’étaient plus rentables. (…) Beaucoup d’intermédiaires financiers ont compris qu’il n’était plus possible de lever des fonds avec les anciens instruments financiers, et que, sans ces fonds, ils seraient bientôt acculés à la faillite. Pour survivre dans un tel environnement économique, les institutions financières devaient rechercher et développer de nouveaux produits et services pour satisfaire les besoins des consommateurs. Elles ont trouvé dans

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

38

Page 39: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

l’ingénierie financière le processus rentable qu’elles appelaient de leurs vœux. Dans ce cas, c’est la nécessité qui a été le moteur de l’innovation. (…) Le changement le plus significatif dans l’environnement économique qui a modifié la demande de produits financiers concerne l’augmentation formidable de la volatilité des taux d’intérêt. Dans les années 1950 aux Etats-Unis, le taux d’intérêt sur les bons du Trésor à trois mois fluctuait entre 1% et 3,5% ; dans les années 1980, il variait entre 5% et 15%. D’importantes variations dans les taux d’intérêt provoquent des pertes ou des gains substantiels et créent une plus grande incertitude sur les rendements des investissements. (…) Cette augmentation du risque de taux doit normalement susciter une augmentation de la demande de produits et de services financiers capables de réduire ce risque. (…) Deux exemples d’innovations financières apparues aux Etats-Unis dans les années 1970 confirment cette affirmation : le développement des prêts hypothécaires à taux variables et les dérivés financiers. Ces innovations ont été imitées avec un certain retard dans tous les autres pays industrialisés. (…) La principale source de changement des conditions d’offre qui a stimulé l’innovation financière réside dans les progrès des TIC. Ces technologies, les technologies de l’information, ont eu deux effets. Premièrement, elles ont diminué le coût de traitement des transactions financières, rendant plus rentable pour les institutions financières, la création de nouveaux services et produits financiers pour le public. Deuxièmement, elles ont rendu plus aisée pour les investisseurs, l’acquisition de l’information, facilitant ainsi les émissions de titres par les entreprises. (…) Avant l’arrivée des ordinateurs et des télécommunications avancées, il était difficile d’obtenir l’information sur la situation financière des entreprises qui désiraient vendre des titres. A cause de la difficulté de séparer les bons risques de crédit des mauvais, seules les grandes sociétés bien implantées ayant des notes de crédits élevées pouvaient vendre des obligations. (…) Avec l’amélioration des TIC, il est devenu plus facile pour les investisseurs de distinguer les mauvais et les bons risques de crédit ; l’achat de titres de dette à long terme de sociétés moins connues avec des notes de crédit plus faible a été ainsi favorisé. (…) Les obligations à haut rendement et haut risque sont devenues un élément important sur le marché des obligations privées (…). La titrisation est un exemple capital d’innovation financière (…). La titrisation est un processus de transformation d’actifs financiers non liquides (prêts immobiliers, crédits automobile, comptes de carte de crédit) en titre échangeables sur le marché de capitaux. c’est une opération devenue (…) inséparable de l’offre de crédit bancaire. (…) Grâce à la baisse des coûts de transaction liée aux progrès informatiques, les institutions financières se rendent compte qu’elles peuvent , pour un faible coût, relier un portefeuille de prêts de petits montants (moins de 100 000 dollars), collecter les paiements des intérêts et du principal de ces prêts, puis s’en défaire en les transférant à un tiers. En divisant le portefeuille de prêts en lots standardisés, l’institution financière peut vendre comme des titres le versement des intérêts et du principal à des tiers. Les montants standardisés de ces prêts titrisés en font des titres liquides, et le fait qu’ils soient constitués d’un assortiment de prêts permet de diversifier le risque, ce qui les rend plus attrayants. (…) Comme la banque est une industrie parmi les plus fortement contrôlées (…) l’exploitation des lacunes réglementaires est beaucoup pratiquée.

Source : F.Mishkin et alii « Monnaie, banques et marchés financiers », Pearson, 2007, p.291-293

Document 95 : la dynamique des innovations financièresLa théorie comme l’observation de l’accélération des innovations financières au cours des trois dernières décennies font apparaître plusieurs facteurs à l’origine de leur essor : des facteurs de demande, des facteurs d’offre, la réglementation et la volonté des pouvoirs publics. L’innovation financière peut s’analyser comme une réponse à une demande de caractéristiques nouvelles, de combinaisons nouvelles de caractéristiques, ou de couverture face à de nouveaux risques. Ainsi, dans les années 1970, la montée de la volatilité des taux d’intérêt et de change a favorisé le développement des produits dérivés, donnant la possibilité de se couvrir contre de brusques variations, au moyen de contrats à termes (…), de swaps, ou bien encore d’options ou de prêts hypothécaires à taux révisables permettant d’ajuster les taux à l’inflation. Conformément aux travaux de Lancaster (1971), il existe une demande latente de nouvelles caractéristiques de produits que l’innovation vient satisfaire : le consommateur recherche sur le marché le produit qui s’approche le plus de sa « variété idéale » ; moins il trouve son bonheur, plus il y a de la place pour des innovations venant répondre à sa demande. (…) Le développement rapide de la finance islamique depuis le début des années 2000, exprimant le besoin de produits financiers conformes à la charia, proscrivant notamment l’intérêt, peut également trouver un éclairage du côté de cette approche par la demande.

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

39

Page 40: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Les innovations financières sont aussi fonction des conditions d’offre, qui, lorsqu’elles sont modifiée, par l’émergence de l’informatique par exemple, permettent la création de nouveaux produits financiers. Ainsi, la diffusion des NTIC a permis de réduire drastiquement le coût des transactions et a rendu possible de nouveaux services (distributeurs automatiques, virements, carte de crédit …). En outre, avec l’introduction massive de l’informatique dans la sphère financière, l’utilisation de modèles statistiques tels que le credit scoring a largement facilité l’acquisition d’informations, que ce soit sur la santé des clients des banques ou bien sur le risque porté par ces dernières. L’exemple le plus récent en termes d’avancée technologique est le trading à haute fréquence permettant la réalisation de transactions à très grande vitesse, avoisinant par exemple, les 250 microsecondes pour les valeurs de l’indice américain Nasdaq. Les ordres sont traités à de telles vitesses grâce à de puissants serveurs informatiques et à l’utilisation d’algorithmes permettant d’analyser instantanément les positions et le temps de réponse des contreparties et d’automatiser les ordres. Ces techniques permettent en somme aux investisseurs de réduire le coût de transaction et de réaliser de petites marges mais sur de grands volumes et sur un grand nombre de transactions. Les innovations répondent aussi à une volonté de contournement. (…) La réglementation étant coûteuse à court terme pour les opérateurs qui doivent la respecter, ceux-ci cherchent à la contourner au risque d’engendrer de nouveaux risques qui nécessiteront une nouvelle réglementation. (…) La titrisation est un bon exemple de contournement. Initié aux Etats-Unis, cette technique fait sortir du bilan comptable des établissements financiers une partie des risques portés, permettant ainsi aux banques d’alléger les exigences en fonds propres imposées dans le cadre des accords de Bâle. Enfin, l’initiative de l’innovation financière n’est pas toujours du fait des acteurs privés. Si, dans les pays anglo-saxons, l’initiative a été très largement le fait d’acteurs privés dès les années 1970, les pays européens ne voulant pas que leurs places financières soient dépassées et cherchant de nouveaux moyens de financer leurs déficits publics, ont largement encouragé l’innovation financière au travers de vastes réformes de leurs système financier.

Source : ss la direction de C.de Boissieu et Jézabel Couppey-Soubeyran « Les systèmes financiers. Mutations, crises et régulation », 2013, p. 9-10

Document 96 : titrisation

Source : A.Brender et F.Pisani « La crise de la finance globalisée », La découverte, 2009, p.8

Document 97 : titrisation et extension de la chaîne d’intermédiationSi le crédit a pu diminuer en part relative à l’actif des banques, cela ne signifie pas pour autant que le crédit ait diminué au passif des agents non financiers. La preuve directe en est que la crise financière amorcée en 2007-2008, ainsi que celle de la zone euro qui s’en est suivie, proviennent d’une forte augmentation de l’endettement privé. Au cours de la décennie 2000, la dette privée est passée de 65% à 110% du PIB dans la zone euro (hors Allemagne) et de 110% à 150% aux Etats-Unis. A l’évidence, le surendettement des ménages et des entreprises implique une distribution excessive, sinon mal allouée et mal tarifée du crédit. Le fait que les autorités monétaires et financières n’en aient pas pris la mesure trouve une part d’explication dans la titrisation. (…) La titrisation des crédits a simplement transféré les crédits par paquets des bilans des banques vers ceux d’entités financières, rachetant ces crédits et émettant en contrepartie des titres sous la forme de produits structurés (constitué de plusieurs tranches de risques). Ces produits sont venus satisfaire l’appétit des investisseurs. La chaîne d’intermédiation s’est ainsi fortement distendue, puisque les risques, initialement pris par les banques et ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

40

Page 41: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

traditionnellement conservés par elles (modèle « origination-conservation »), sont avec le processus de titrisation toujours pris par les banques mais transférés (modèle « origination-distribution ») vers des entités (véhicules de titrisation ou fonds communs de créances) qui se retrouvent ainsi à porter le risque bancaire (sans faire l’objet d’un encadrement quelconque) et à la revendre par tranche aux investisseurs dans les produits qu’elles émettent. Les risques bancaires ont ainsi été dispersés entre les acheteurs de produits structurés. De part et d’autre de cette nouvelle chaîne d’intermédiation, on trouve des banques : les banques « originatrices » en début de chaîne, des banques d’investissement et d’autres institutions financières acheteuses de produits structurés en bout de chaîne, souvent moins régulées que les premières. La crise a clairement modifié la perception du danger associé à la titrisation. Avant la crise, les autorités de surveillance pensaient volontiers que cette technique partagerait mieux le risque au sein du système financier. La crise a révélé qu’il s’agissait bien plus d’une dispersion que d’un partage du risque et, surtout, que cette dispersion avait totalement dilué l’incitation des banques à effectuer la sélection et le contrôle des risques censés fonder leur raison d’être.

Source : ss la direction de C.de Boissieu et Jézabel Couppey-Soubeyran « Les systèmes financiers. Mutations, crises et régulation », 2013, p. 80-81

3.4.3 L’apparition de nouveaux acteurs financiers

Document 98 : de nouveaux acteurs apparaissent avec le développement du système financier Entre pays riches et avec un certain nombre de pays émergents, les contrôles des mouvements de capitaux ont disparu. Dans ce cas, un acteur résidant dans un territoire peut acquérir et revendre à volonté la monnaie et tous les actifs financiers émis dans un autre territoire. Les deux grands pays émergents, la Chine et l’Inde, conservent cependant un certain « contrôle des changes », c’est-à-dire des mouvements de capitaux. C’est le cas également d’un certain nombre de pays pauvres (…). Dans l’ensemble cependant, les mouvements de capitaux sont beaucoup plus libres qu’au début des années 1980 où la libéralisation financière a commencé. (…) La libéralisation des flux financiers entre territoires s’est accompagnée d’une libéralisation interne qui a pour l’essentiel supprimé les cloisons entre différents métiers de la finance, permettant aux institutions financières et en particulier aux banques, de les exercer tous. Le double mouvement de libéralisation interne et de globalisation a considérablement accru l’importance relative de la finance de marché, où les acteurs économiques échangent des titres entre eux sur les marchés (…). Enfin, la globalisation financière s’est accompagnée de la montée en puissance des investisseurs institutionnels, ces fonds de diverses natures qui gèrent de l’épargne pour compte de tiers. C’est un vaste ensemble qui va de la caisse de retraite, censée gérer les cotisations de ses membres afin d’obtenir un rendement moyen mais sûr à long terme, aux « hedge funds » les plus spéculatifs qui jouent avec un très fort levier d’endettement.

Source : P.N.Giraud « La mondialisation. Emergences et fragmentations » Editions Sce humaines, 2012, p. 33

Document 99 : investisseurs institutionnels, hedge funds, private equity, banques d’investissement, fonds souverains

De nouveaux intermédiaires financiers font leur apparition à partir des années 1970. Tout d’abord les investisseurs institutionnels qui gèrent l’épargne des ménages. On y trouve les fonds de pension (en particulier dans les pays à régime de retraite par capitalisation), les sociétés d’assurance et les OPCVM (organismes de placement collectif en valeurs mobilières qui regroupent en France les sociétés d’investissement à capital variable – les SICAV- et les fonds communs de placement – FCP). Avec l’élargissement des activités bancaires, ces nouveaux investisseurs institutionnels sont souvent des filiales des banques. Les hedge funds développent essentiellement des stratégies d’arbitrage et représentent environ 20% du total des actifs de l’industrie financière. Plus de 75% des hegde funds sont américains, et 75% des hedge funds européens sont anglais. La très grande majorité du capital géré par les hedge funds provient des banques et des investisseurs institutionnels. Le développement des hedge funds est donc très lié aux autres intermédiaires financiers, mais aussi aux innovations techniques qui permettent de traiter des volumes importants de trading et de mettre en place des stratégies complexes. La crise de 2007 a considérablement réduit leurs activités.

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

41

Page 42: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Les sociétés de capital-investissement (private equity) prennent des participations dans le capital des sociétés non côtés en Bourse. Elles se distinguent donc des OPCVM. Là aussi, le financement des private equity est généralement assuré par les banques et les investisseurs institutionnels. Leur stratégie dite de LBO (leveraged buy out) consiste à choisir des sociétés en développement (les start-up par exemple) ou des sociétés en difficultés, à emprunter pour les acquérir, puis à les revendre à moyen ou long terme en en tirant un profit, grâce à un fort effet de levier de l’endettement. Si les hedge funds agissent sur une échelle temporelle de court terme (ou de très court terme), les private equity agissent sur une échelle temporelle beaucoup plus longue. Les banques d’investissement sont les héritières des banques d’affaire. Elles font du conseil, notamment en fusion et acquisition, elles organisent les augmentations de capital, les introductions en bourse ou les émissions d’obligations. Mais elles récoltent également des fonds auprès d’entreprises ou d’investisseurs afin de réaliser des placements à rentabilité financière élevée. Elles sont donc elles aussi à la recherche d’un effet de levier important. Elles ont par exemple développé des véhicules de titrisation. Lehman Brothers était une banque d’investissement. Enfin les fonds souverains cherchent à optimiser des capitaux publics qui proviennent des revenus du pétrole, des réserves de change ou des fonds de pensions publics. Leur stratégie, bien que souvent opaque, consiste à préserver la valeur réelle du capital sur la longue durée. Il n’y a donc pas de recherche d’effet de levier et de gestion de court terme. Il s’agit plutôt d’investisseurs patients et prudents qui diversifient leur portefeuille de titres. A côté de ces intermédiaires financiers, les autres acteurs des marchés mondiaux des capitaux sont les banques centrales (qui interviennent sur les marchés des change), les firmes multinationales et les Etats (qui émettent des titres acquis par des non-résidents).

Document 100 : le poids prépondérant des investisseurs institutionnels dans la finance globalisée Par le volume d'épargne gérée, ces agents (les investisseurs institutionnels) représentent des acteurs prépondérants sur les marchés internationaux de capitaux. L'épargne confiée aux investisseurs institutionnels a poursuivi son essor tout au long des années 1990-2010. Son encours a pratiquement triplé depuis le milieu des années 1990, pour atteindre, plus de 71 000 milliards de dollars en 2010.Parmi les pays de l’O.C.D.E., c'est aux États-Unis, au Royaume-Uni et aux Pays-Bas que ces organismes de gestion d'épargne collective sont les plus représentés. Le volume d'épargne géré au début des années 2000 atteignait pour chacun plus de 200% du P.I.B. Aux États-Unis comme au Royaume-Uni, l'importance des fonds de pension s'explique assez naturellement par l'existence d'un régime de retraite fondé principalement sur la capitalisation. Toutefois, le poids des O.P.C.V.M. dépasse aux États-Unis celui des fonds de pension et celui des assurances. Au Royaume-Uni, le marché de l'intermédiation financière est dominé par les assurances dont le poids dépasse celui des fonds de pension, lui-même beaucoup plus important que celui des O.P.C.V.M.Les investisseurs institutionnels, souvent appelés les « zinzins », ont ainsi renforcé leur rôle, d'une part, sur les marchés financiers internationaux, et d'autre part, dans le gouvernement d'entreprise.

Source : encyclopédie universalis en ligne

Document 101: le lien banques – autres intermédiaires financiers Il apparaît clairement que les intermédiaires financiers continuent de jouer un rôle prépondérant dans la collecte d’épargne. Les ménages sont plus enclins à détenir des produits de placement intermédiés dont le niveau de risque est moindre ou leur est donné à choisir. Même aux Etats-Unis, la part des intermédiaires financiers dans la collecte de l’épargne des ménages atteint plus de 65%. En Europe, la même estimation dépasse 80%. Le choix en faveur de l’épargne intermédiée reste majoritaire. On observe cependant de fortes disparités, en Europe, quand au choix de ces intermédiaires. La part des banques varie du simple au triple selon les pays, celle prise par les OPCVM, les assureurs et les fonds de pension varie davantage encore. (…) On constate néanmoins une progression des intermédiaires non bancaires observée dans tous les pays. (…) Cette progression ne doit toutefois pas faire oublier que les banques demeurent les principaux distributeurs de parts d’OPCVM et de contrats d’assurance vie. La domination des banques apparaît clairement dans l’activité de gestion d’OPCVM : la part de marché des OPCVM contrôlés par les groupes bancaires atteint plus de 70% en Allemagne et en France et dépasse même 90% en Italie ou en Espagne (…). De la même manière, les groupes bancaires réalisent plus de la moitié du chiffre d’affaires de l’assurance vie en France, et plus des deux tiers en Espagne et en Italie  ; seule l’Allemagne fait exception (…). En ce sens, le lien que les banques ont établi avec les autres

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

42

Page 43: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

intermédiaires financiers pour s’accommoder de leur essor est non pas un lien de complémentarité comme celui qu’elles ont renforcé avec les marchés de titres, mais un lien plus hiérarchique de subordination.

Source : Banque de France, D.Plihon, J.Couppey-Soubeyran & D.Saidane « Les banques, acteurs de la globalisation financière », La documentation française, 2006, p.40

Document 102: le développement de la technologie blockchain utilisée par les cybermonnaies Les cybermonnaies sont des unités de monnaies virtuelles mais à la différence des billets de monopoly (qui sont aussi de la monnaie virtuelle) elles peuvent être utilisées pour donner lieu à des paiements « réels ». On compte aujourd’hui 1146 cybermonnaies. La plus connue est le bitcoin créé en 2009 par Satochi Nakamoto (pseudonyme). Comment fonctionne la technologie associée au bitcoin ? La monnaie électronique relie directement les deux personnes concernées par le règlement d’un échange. Le règlement d’une transaction en bitcoin est similaire à un règlement en pièces et billets qui permet de régler une dette sans passer par un intermédiaire financier. Première remarque : le développement du bitcoin produit donc de la désintermédiation. Les intermédiaires financiers ne sont pas sollicités pour permettre les règlements des paiements entre agents économiques. Deuxième remarque : la technique du blockchain a des spécificités qui en font une technologie de plus en plus étudiée par les banques centrales et les banques privées. Comment fonctionne cette technologie du blockchain ? Lorsqu’un règlement doit être effectué (et donc qu’un montant en bitcoin doit être débité sur un compte pour être crédité sur un autre), ce règlement numérique ne peut être effectué que s’il respecte certaines caractéristiques mathématiques. Pour obtenir ces caractéristiques mathématiques, il faut résoudre des équations mathématiques et tous les ordinateurs reliés au réseau de la cryptomonnaie sont sollicités afin de réaliser ce travail. Une fois qu’ils ont résolu les équations mathématiques (cela prend environ 10mn), le règlement peut alors s’effectuer. Pourquoi utiliser une telle technique du blockchain ? - Pour résoudre une opération au temps t, il faut également que les opérations réalisées au temps T-1 aient été résolue. Cela implique qu’un utilisateur ne peut régler une dette que si son compte a été crédité, et donc que l’opération précédent de règlement est allée jusqu’à son terme. La technologie blockchain permet donc d’éliminer tous les risques du type chèque en bois, … - Par ailleurs, comme la résolution des équations est collective, il n’est pas possible de pirater l’ensemble des ordinateurs participants aux calculs. Le fait que le système soit totalement décentralisé lui donne une qualité que n’ont pas les systèmes de paiements des intermédiaires financiers qui sont entièrement centralisés (les banques ont la responsabilité de gérer la qualité de leurs systèmes de paiements). Le blockchain apporte donc une réponse à la question de la confiance dans le monde du règlement numérique où l’on peut craindre le fishing, le hacking …- Les ordinateurs qui participent aux calculs perçoivent en contrepartie des bitcoins qui sont créés automatiquement, ce qui est donc incitatif. Le bitcoin fait débat aujourd’hui :

- il est associé à des pratiques qui ne sont pas toujours légales, il sert à blanchir de l’argent ;- il existe une spéculation autour de la valeur du bitcoin qui est entretenue par le fait que la

production de bitcoin est quantitativement limitée. Il existe des fermes d’ordinateurs qui servent à récolter du bitcoin créés en contrepartie de leur participation aux calculs, bitcoin qui sont ensuite immédiatement convertis en monnaie « réelle » comme le dollar ou l’euro ;

- la consommation d’énergie par les ordinateurs est gigantesque ; Pourtant, les cryptomonnaies apportent des solutions techniques qui font baisser les coûts de transaction et renforcent la confiance « méthodique » dans la monnaie. En ce sens, elles se placent comme des nouvelles formes de monnaies dont le succès provient de leur capacité à réduire les coûts d’utilisation de la monnaie. C’est pour cela que les banques centrales et les banques privées s’intéressent à cette technologie, et qu’il n’est pas impossible qu’elle intègre peu à peu le champ des formes de monnaie légales. On se rappellera que le billet de banque a lieu aussi été une innovation privée (Palmstruch) avant de voir son émission monopolisée par la puissance publique.

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

43

Page 44: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

3.4.4 La transformation des activités des banques commerciales

Document 103 : finance directe et finance indirecte (Gurley & Shaw)Si le passage à un financement par les marchés est souvent présenté comme un passage à la finance directe, ce n’est pas le sens que l’ouvrage fondateur de Gurley & Shaw (1960) donne à ce terme. Ces auteurs définissent la finance directe comme le système financier où les agents dont le bilan est excédentaire et présente une capacité de financement (les prêteurs « ultimes ») financent les agents ayant un besoin de financement (les emprunteurs « ultimes ») par l’achat des titres émis par ces derniers. Plus concrètement, les ménages financent les entreprises en achetant les actions et les obligations qu’elles émettent. Ceci n’est pas le système financier qui s’est établi en France après l’économie d’endettement. Les entreprises émettent certes des titres dont une partie est acquise par les ménages ou les entreprises, mais les préférences des agents à excédent vont vers les titres émis par les intermédiaires financiers, qu’il s’agisse de banques ou d’autres sociétés financières. Les intermédiaires financiers achètent les titres émis par les entreprises et les font entrer dans la composition de portefeuilles (…). Certains de ces titres combinent le rendement certain des obligations avec celui plus conjoncturel des actions. Fonds Communs de Placement (FCP) ou SICAV (Société d’investissement à capital variable) constituent pour les ménages le support de cette finance de marché intermédiée. Leur épargne est ainsi placée en titres de la finance indirecte selon la terminologie adoptée depuis Gurley & Shaw. Il ne s’agit donc pas d’un passage à la finance directe mais d’un passage à la finance de marché intermédiée. Source : Françoise Renversez « De l’économie d’endettement à l’économie de marchés financiers » in Revue

Regards croisés sur l’économie n°3, mars 2008, p. 60

Document 104: désintermédiation et réintermédiationLa désintermédiation désigne la diminution du poids relatif de m’intermédiation bancaire dans le financement de l’économie. Ce phénomène a souvent été présenté comme l’un des moteurs de la globalisation financière, au même titre que le décloisonnement ou la déréglementation. (…) Cette notion est en tout cas trompeuse car elle laisse à penser que le développement des marchés se fait au détriment des intermédiaires financiers. Certes, l’activité traditionnelle des banques qui consistait à collecter des dépôts pour octroyer des crédits a relativement décliné et donc, avec elle, la contribution des banques au financement de l’économie sous forme de crédits. (…) L’adaptation des banques à leur nouvel environnement s’est surtout effectuée au moyen d’une diversification des activités et d’un redéploiement sur les marchés. Pour compenser la diminution relative de leur activité de crédit, pratiquement toutes les banques ont développé leurs activités d’investissement en titres. Le développement des marchés a aussi permis aux banques de faire valoir leur expertise financière et de proposer à leurs clients une vaste gamme de services financiers (introduction en bourse des entreprises, montages financiers, gestion des risques …). La banque est apparue, de plus en plus, comme une entreprise de services et de gestion des risques adossée au marché des capitaux. (…) Les banques ont également dû résister à la progression de l’épargne collective qui a pesé sur la collecte des dépôts. Le développement des marchés a favorisé – et nécessité – l’essor d’autres intermédiaires financiers : OPCVM, sociétés d’assurance, fonds de pension, etc… Cette situation a d’abord obligé les banques à se financer par des ressources de marchés. Mais leur adaptation ne s’est pas arrêtée là. Pour répondre à la concurrence croissante des OPCVM, les banques ont développé leurs propres SICAV et FCP ou pris des participations importantes dans des sociétés de gestion d’actifs. Pour répondre à la concurrence des sociétés d’assurance, elles ont pris position sur le marché de l’assurance-vie et l’assurance-dommage.

Source : ss la direction de C.de Boissieu et Jézabel Couppey-Soubeyran « Les systèmes financiers. Mutations, crises et régulation », 2013, p.76-78

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

44

Page 45: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 105 : désintermédiation et ré-intermédiation

Source : ss la direction de C.de Boissieu et Jézabel Couppey-Soubeyran « Les systèmes financiers. Mutations, crises et régulation », 2013, p.77

Document 106 : les banques, acteurs centraux de la finance de marché intermédiée La montée en puissance des marchés de capitaux à partir des années 1980 dans les pays d’Europe a, au départ, été perçue et analysée comme une force de convergence vers un système financier davantage fondé sur les marchés. Dans cette optique, les analyses les plus courantes considéraient qu’on était en train d’assister à une « désintermédiation », c’est-à-dire une diminution du poids des banques dans le financement de l’économie. C’était sans compter sur l’adaptation des banques à l’essor des marchés, sur le développement non moins rapide de nouveaux intermédiaires financiers indispensables à celui des marchés de capitaux. Aussi, lorsque l’on compare aujourd’hui les structures de financement des pays d’Europe continentale à celle des pays anglo-saxons, ce n’est pas tant l’écart entre financements de marché et financements intermédiés qui les différencient, car partout la part des financements intermédiés est prépondérante. C’est davantage l’importance relative de ce que l’on peut appeler « l’intermédiation de marché », c’est-à-dire l’importance de la détention de titres par les intermédiaires financiers qui distingue la finance anglosaxonne de la finance européenne continentale. En tout cas, ni la finance anglosaxonne, ni la finance d’Europe continentale ne sont « désintermédiées ». C’est le type d’intermédiation qui s’y opère (intermédiation de crédit versus intermédiation de marché) qui les différencie et qui, très vraisemblablement, explique aussi les différences en termes de taux d’activité de leur marché des capitaux. Les places financières de Londres et de New York sont plus actives que celles de Francfort ou Paris, non pas en raison d’un moindre taux d’intermédiation mais en raison d’une intermédiation davantage portée vers l’acquisition de titres.

Source : Jézabel Couppey-Soubeyran « Monnaie, banques, finance », Puf Licence, 2010, 105-141

Document 107 : la « mobiliérisation » du bilan des banquesL’évolution des bilans des banques (…) reflète clairement les incidences de ce nouvel environnement. Cette évolution s’est manifestée des deux côtés du bilan (…). La progression des financements directs (par émissions de titres) permise par le développement des marchés a fait sensiblement reculer la part des crédits. Cependant, les banques s’y sont adaptées : elles y ont pris part elles-mêmes en développant leur portefeuille d’investissements en titres. Ainsi, à l’actif du bilan des banques, a-t-on pu observer une diminution de la part relative des crédits et une progression des titres détenus dans le « portefeuille titres ». (…) ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

45

Page 46: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Du côté du passif du bilan des banques, on a ainsi observé une importante diminution de la part des dépôts à court terme, en partie compensée par celle des dépôts à plus long terme et par la progression des émissions de titres de dette. Des deux côtés du bilan bancaire, la part des titres (détenus à l’actif, émis au passif) a donc fortement progressé pour compenser le déclin relatif des activités traditionnelles d’octroi de crédit et de collecte de dépôts. Le cas des banques françaises est emblématique de cette « mobiliérisation » (accroissement de la part des valeurs mobilières) du bilan. (…) Ces transformations ne sont pas sans incidence sur la création monétaire. D’un côté, en effet, les crédits créent moins de dépôts puisque leur part a diminué dans le bilan des banques. Mais, d’un autre côté, celles-ci créent désormais de la monnaie en contrepartie de leurs financements par acquisition de titres sur les marchés. Les modalités de la création monétaire se sont ainsi diversifiées. Source : D.Plihon, J.Couppey-Soubeyran & D.Saidane « Les banques, acteurs de la globalisation financière »,

La documentation française, 2006, p.29

Document 108: la transformation du bilan des banquesLes banques se sont adaptées à ces réformes. Elles ont vu leurs activités traditionnelles (octroi crédit, collecte dépôts) décliner face à la concurrence de nouveaux intermédiaires (Assurance, Fonds de pension, Fonds communs de placement). Elles ont alors cherché à développer de nouvelles activités, par exemple le conseil et l’ingénierie financière. Elles ont surtout développé l’achat de titres sur les marchés, afin de fabriquer des produits financiers qu’elles commercialisent pour récolter des dépôts. Elles ont également obtenu de nouvelles ressources en titrisant une partie de leurs actifs et en émettant elles-mêmes des titres sur les marchés des capitaux. La conséquence de ces changements est la « mobilierisation » du bilan des banques : à l’actif moins de crédits et plus de portefeuille de titres, et au passif moins de dépôts et plus d’émission de titres de dettes. Cette mobilierisation du bilan modifie la nature des risques encourus par les banques : le risque de crédit recule au profit du risque de marché. Cela ne sera pas sans conséquence au moment de la crise des subprimes de 2007. Enfin, la taille des banques a considérablement augmenté. Certains établissements ont acquis une taille « systémique » : leur faillite peut provoquer des dégâts majeurs dans le circuit de financement. Avec le décloisonnement externe des systèmes financiers, la taille « systémique » de ces établissements est désormais globale et plus seulement nationale.

Document 109 : du risque de crédit au risque de marchéLa désintermédiation financière a entraîné un changement dans la nature du risque encouru par le système financier. Lorsque le crédit était prépondérant, le risque des banques était lié à l’activité productive. Il pouvait se manifester, soit de manière conjoncturelle, soit en raison de progrès technologiques modifiant la demande. Le risque bancaire est désormais un risque de marché financier et, comme tel, dépend des anticipations d’opérateurs à la recherche de marges sur des opérations souvent à court terme. l’actif des banques comporte une part importante de titres émis par des intermédiaires, et elles ont largement recours au hors bilan. De plus, le système financier s’est diversifié à la faveur de la déréglementation, et les nouveaux intermédiaires financiers sont soumis à une réglementation moins contraignantes que les banques. Source : Françoise Renversez « De l’économie d’endettement à l’économie de marchés financiers » in Revue

Regards croisés sur l’économie n°3, mars 2008, p. 65

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

46

Page 47: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

Document 110 : Transformation de la structure des bilans bancaires (1980-2002)1980 2002 1980 2002

Actif (en %) Passif (en %)Crédits à la clientèle

84 38 Opérations interbancaires (solde)

13 5

Titres 5 47 Dépôts de la clientèle

73 27

Valeurs immobilisées

9 7 Titres 6 52

divers 2 8 divers 0 7Fonds propres et provisions

8 9

Total actif 100 100 Total actif 100 100Source : D.Plihon, J.Couppey-Soubeyran & D.Saidane « Les banques, acteurs de la globalisation financière »,

La documentation française, 2006, p.29

Document 111 : les banques peuvent alimenter une dynamique qui articule entre elles toutes les formes de crises financières

3.4.5 Le boom des activités financières

Document 112 : l’essor des activités bancaires et financièresL’imbrication croissante entre banques et marchés a sans aucun doute contribué à l’accélération du développement financier. Le développement des marchés a nourri celui des banques et des autres intermédiaires financiers autant que ces derniers ont concouru à l’essor des marchés. Il en a résulté un développement exponentiel de la sphère financière (…). C’est peut dire que la finance s’est considérablement développée ces trente dernières années … quelques ordres de grandeurs suffisent à prendre la mesure de cette croissance vertigineuse. (…) Les chiffres des transactions réalisées sur les différents segments des marchés de capitaux ainsi que ceux relatifs à la taille du bilan des banques traduisent une déconnexion entre la sphère réelle et la sphère financière. Les chiffres du marché des changes constituent sans aucun doute l’exemple le plus emblématique. Les volumes quotidiens des transactions de change s’élèvent fin 2010 à 4000 milliards de dollars, soit sur une année entière, l’équivalent de près de 15 fois le PIB mondial (75 fois le montant du commerce international). Dans les années 1970, l’activité sur le marché des changes ne représentait que 20% du PIB mondial. La taille

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

Paralysie marché

Chute prix des actifs

Bilan Banque : Chute actifHausse passif

Crédit crunch

Hausse taux d’intérêt

Hausse défaillance emprunteur

Crise de change : dévaluation

Hausse dette en monnaie étrangère

Besoin de refinancement

Défiance augmente : bank run Crise de refinancement

banques : crise bancaire

47

Page 48: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

atteinte aujourd’hui par les marchés boursiers et obligataires est également impressionnante. Au niveau mondial, ces marchés représentent plus de 2,5 fois le PIB mondial. Si on y ajoute les actifs bancaires, on passe à 4 fois le PIB mondial. Le rapport pour la France est de 6 fois le PIB.

Source : ss la direction de C.de Boissieu et Jézabel Couppey-Soubeyran « Les systèmes financiers. Mutations, crises et régulation », 2013, p.83-84

Document 113 : la triple unité des marchés financiers La finance a pu, continûment, monter en puissance sur un marché global qui a bientôt illustré de mieux en mieux la règle des trois unités. D’abord, unité de temps : il fonctionne 24 heures sur 24 ; les établissements de la côte est américaine viennent de fermer quant vont ouvrir ceux des places asiatiques. Ensuite, unité de lieu : par un réseau de places de mieux en mieux interconnectées. Enfin, unité d’action : ce sont, partout, dans toutes les régions du monde, les mêmes techniques d’arbitrage, de placement ou de financement qui s’imposent. On parvient bien à ce qui, pour reprendre l’expression de Marshall McLuhan (1962), est devenu le « village global » de la finance qui, à travers les cotations et les communiqués des agences de notation transmises instantanément grâce aux progrès de l’informatique et des télécommunications, « résonne des tams-tams tribaux » que font entendre, chaque jour, les marchés financiers devenus une véritable caisse de résonance. Il faut cependant reconnaître que cette montée en puissance de la finance, s’explique par le rôle éminent qu’elle joue dans l’économie aujourd’hui.

Source : H.Bourguinat, J.Teiletche et M.Dupuy « Finance internationale », Dalloz, Hypercours, 2007, p.45

3.4.6 L’apparition de nouveaux risques dans le système financier

Document 114 : des risques individuels au risque systémiqueAvant la crise de 2008, les régulateurs s’intéressaient quasi exclusivement aux risques individuels des institutions financières (surveillance micro-prudentielle). Or, la propagation de la crise des crédits subprimes et la crise bancaire qui s’en est suivie ont démontré que le risque global d’un système ne se limite pas à la somme des risques individuels des institutions financières. Des effets d’amplification et de contagion interviennent. On parle alors de risque systémique : une rupture dans le fonctionnement des services financiers causée par la dégradation de tout ou partie du système financier, et ayant un impact négatif généralisé sur l’économie réelle. Ce risque systémique trouve ses origines dans l’architecture même du système financier actuel. Un système que les politiques de libéralisation des années 1980 ont rendu plus concentré et interconnecté, et que les innovations financières ont largement complexifié.L’augmentation de la concurrence, induite par la déréglementation et l’ouverture des marchés en interne et à l’international, a contraint les acteurs financiers à rechercher des économies d’échelle et de gamme pour rester compétitifs. Les institutions financières se sont donc engagées dans un processus de concentration, notamment par le biais d’opérations de fusion et acquisitions. La conséquence en est que le système financier mondial se caractérise aujourd’hui par la présence d’une trentaine de conglomérats financiers dont le défaut causerait celui de beaucoup d’autres établissements et provoquerait ainsi une crise systémique. (…) Le spectre de la crise systémique a pesé lourd sur les autorités publiques durant la crise de 2007-2008. La banque Northern Rock, 5ième banque anglaise a par exemple été nationalisée en février 2008 étant jugée systémique par les autorités. Le caractère systémique ne se limite pas aux banques. D’autres intermédiaires financiers contribuent au risque systémique et peuvent être qualifiés de « systémiques ». Les sociétés d’assurance Monolines ou les hedge funds. Par exemple l’assureur américain AIG (…) fut mis sous tutelle publique en septembre 2008 et refinancé par la Réserve Fédérale à hauteur de 85 milliards de dollars, ceci afin d’éviter un effet domino dans le secteur financier américain. De fait de leur taille et de leur place dans le système financier, les institutions systémiques posent le problème du « too big to fail » dans le sens où les autorités sont obligées de leur venir en aide en cas de difficultés. Cette configuration pose un problème « d’aléa moral » : se sachant sauvées en cas de problèmes, ces institutions systémiques peuvent être incitées à prendre plus de risques. Les innovations financières et la libéralisation de l’activité d’intermédiaires financiers ont également rendu le système financier plus interconnecté et plus complexe en raison des montages financiers mis en place et des instruments financiers utilisés comme les produits dérivés. Dans ce contexte, l’évaluation des risques est plus difficile ainsi que l’identification des porteurs finals des risques. Ces difficultés se sont manifestées durant la crise dès 2007 par le manque de fiabilité des notations émises par les agences et dont les fondements étaient remis en question, mais également par les lacunes de la supervision. Alors

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

48

Page 49: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

que toutes les institutions financières se trouvaient en difficulté durant la crise, paradoxalement, rares sont celles qui ne satisfaisaient pas leurs exigences de fonds propres, à en croire que tous les risques latents du système étaient difficiles à cerner et qu’ils n’étaient pas pris en compte par le régulateur.

Source : ss la direction de C.de Boissieu et Jézabel Couppey-Soubeyran « Les systèmes financiers. Mutations, crises et régulation », 2013, p. 19-20

Document 115 : des institutions financières de taille systémiqueL’augmentation de la concurrence, induite par la déréglementation et l’ouverture des marchés en interne et à l’international, a contraint les acteurs financiers à rechercher des économies d’échelle et de gamme pour rester compétitifs. Les institutions financières se sont donc engagées dans un processus de concentration, notamment par le biais d’opérations de fusions et d’acquisitions. La conséquence en est que le système financier mondial se caractérise aujourd’hui par la présence d’une trentaine de conglomérats financiers dont le défaut causerait celui de beaucoup d’autres établissements et provoquerait ainsi une crise systémique. De plus, ces structures qui opèrent sur plusieurs marchés et sur plusieurs métiers à travers leurs filiales sont également susceptibles d’amplifier un choc initial dans une branche d’activité et de diffuser le risque à tout le conglomérat. (…) Le spectre de la crise systémique a pesé lourd sur les autorités publiques durant la crise de 2007-2008. La banque Northern Rock, 5ième

banque anglaise, a par exemple été nationalisée en février 2008, étant jugée systémique par les autorités. Le caractère systémique ne se limite pas qu’aux banques. D’autres intermédiaires financiers contribuent au risque systémique. Les sociétés d’assurance ou les hedge funds. (…) L’assureur AIG fut finalement mis sous tutelle publique en septembre 2008 et refinancé par la Fed à hauteur de 85 milliards, ceci afin d’éviter un effet domino dans le secteur financier américain. (…) Du fait de leur taille et de leur place dans le système financier, les institutions systémiques posent le problème du « too big to fail », dans le sens où les autorités sont obligées de leur venir en aide en cas de difficultés. Cette configuration pose un problème d’aléa moral : se sachant sauvées en cas de problèmes, ces institutions systémiques peuvent être incitées à prendre plus de risques.

Source : J.H.Lorenzi et P.Trainar « Les nouveaux acteurs de la finance » in revue Regards croisés sur l’économie n°3, 2008, p.20

Document 116 : des intermédiaires financiers non régulés, le shadow bankingAvec le développement de la sphère des activités financières, les intermédiaires ne se limitent plus aux banques. A côté des investisseurs institutionnels (fonds de pension, assurance), on trouve de nombreux fonds d’investissement, des banques d’affaires … Or, la réglementation des acteurs du système financier porte essentiellement sur les banques de détails (ou banques commerciales) et les compagnies d’assurance (afin de protéger les petits épargnants), alors que les autres acteurs participent aussi au financement de l’économie et à l’achat de titres sur les marchés financiers. Cet ensemble d’intermédiaires financiers non régulé est qualifié de shadow banking. Jusqu’à la crise de 2008, Goldman Sachs ou Lehman Brothers sont des banques d’investissement appartenant à ce secteur non régulé. Ce shadow banking fragilise le système financier : en l’absence de réglementation, la prise de risque est plus importante ; une part importante des intermédiaires du shadow banking a des liens avec des banques commerciales. Les banques ont utilisé le shadow banking pour recycler leurs créances sous forme de titres et elles ont créé les « véhicules d’investissement » qui ont servi à la titrisation des prêts. Ces « véhicules » représentent environ 10% du shadow banking.

Document 117 : le « shadow banking »Les innovations financières ont permis aux intermédiaires financiers d’externaliser les risques de leurs bilans et de reporter ces risques sur des agents disposés à les assumer. L’expérience a montré toutefois la dangerosité de ces pratiques parce qu’elles transfèrent le risque d’intermédiaires financiers régulés vers d’autres intermédiaires peu ou non régulés. Rien ne garantit que le porteur final du risque soit suffisamment solide pour prendre en charge ces risques. (…) C’est ainsi, par exemple que le groupe d’assurance américain AIG, après avoir subi des pertes sur le marché des crédits hypothécaires subprimes a été mise sous tutelle publique et refinancé par la Fed en 2008 pour tenir ses engagements vis-à-vis des banques américaines et européennes. (…)L’externalisation des risques de crédit fait peser ceux-ci sur des entités peu ou pas régulées, qui forment ce qu’on appelle aujourd’hui le Shadow banking. (…) Les fonds d’investissement (et en particulier les hedge funds) constitue la majeure partie (32%) de la sphère non régulée. (…) Le risque des Hedge funds

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

49

Page 50: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

résulte de leurs effets de levier important, conjugué à une forte exposition aux institutions financières via des prêts bancaires. C’est le cas du fonds Long Term Capital Management (LTCM) dont la quasi-faillite en 1998 a failli porter un coup dur au système bancaire mondial, ce fonds s’étant endetté pour environ 300 milliards de dollars auprès de 13 banques. Les véhicules de titrisation représentent 9% du shadow banking, posent un risque au système financier car (…) il s’est avéré que les banques demeurent in fine vulnérables : une banque qui cède des créances à un SIV fournit habituellement à ce dernier un ligne de liquidité pour le bon déroulement de son activité de titrisation. Pendant la crise des subprimes, les banques ont été contraintes, pour des questions de réputation et de risque de contrepartie, de racheter les créances cédées aux SIV et donc de reprendre à leur compte le risque inhérent à ces créances.

Source : J.H.Lorenzi et P.Trainar « Les nouveaux acteurs de la finance » in revue Regards croisés sur l’économie n°3, 2008, p.15

Document 118 : les acteurs non bancaires de la titrisation (le shadow banking)La crise des produits structurés amorcée à l’été 2007 montre combien le développement non maîtrisé d’innovations financières, loin de conduire à un système plus robuste et moins risqué, peut au contraire être à l’origine d’une instabilité accrue. Si le mouvement de globalisation financière et d’intégration des marchés des années 1980 a contribué à améliorer l’allocation des ressources et à réduire les coûts de transaction, l’expérience des dernières décennies témoigne d’une forte instabilité sur les marchés des changes, du crédit et des actions. Par ailleurs, les innovations et les instruments supposés accomplir une meilleure gestion des risques se sont avérés problématiques. Les risques ont été transférés au sein d’une nouvelle sphère financière non régulée ; le système financier est devenu plus complexe et plus intégré, propice aux effets de contagion et à l’accroissement du risque systémique. Surtout, dans leur ensemble, ces nouvelles pratiques financières ont encouragé une prise de risque accrue de la part des institutions financières. Ces dernières années offrent plusieurs exemples de cette instabilité financière comme la crise asiatique de 1997, l’explosion de la bulle technologique de 2000 et la crise des subprimes en 2007, suivie de la crise financière majeure de 2008 et la crise des dettes souveraines en Europe à partir de 2010. Les innovations ont permis aux intermédiaires financiers d’externaliser les risques de leurs bilans et de reporter ces risques sur des agents disposés à les assumer. L’expérience a montré toutefois la dangerosité de ces pratiques parce qu’elles transfèrent le risque d’intermédiaires financiers régulés vers des intermédiaires financiers peu ou non régulés. Rien ne garantit que le porteur final du risque soit suffisamment solide pour prendre en charge ces risques. Prenons l’exemple d’un crédit (ou d’un titre de dette) assuré contre le risque de défaut par un CDS émis par une société d’assurance. En procédant à l’achat d’un CDS, l’intermédiaire financier qui a accordé le crédit se met à l’abri du risque de défaut du crédit, mais ce risque ne disparaît pas : il est transféré à l’assureur. Durant la crise de 2008, plusieurs sociétés spécialisées dans l’assurance-crédit (les Monolines) ont dû être renflouées pour pouvoir maintenir leurs engagements d’assureurs envers le système bancaire. C’est ainsi, par exemple, que le groupe d’assurance américain AIG, après avoir subi des pertes sur le marché des crédits hypothécaires subprimes, a été mis sous tutelle publique et refinancé par la Réserve fédérale en 2008 pour tenir ses engagements vis-à-vis des banques américaines et européennes. (…) L’externalisation des risques de crédit fait peser ceux-ci sur des entités peu ou pas régulées, qui forment ce que l’on appelle aujourd’hui le shadow banking. Ce système financier parallèle a connu un développement important et était estimé en 2012 à environ 67 000 milliards de dollars en terme d’actifs. Il représentait environ le tiers du montant total du système financier. Les fonds d’investissement (en particulier les hedge funds) qui enregistrent une croissance rapide depuis les années 1990, constituent la majeure partie (32%) de la sphère non régulée. Il s’agit de fonds d’investissements risqués (…). Le risque des hedge funds résulte de leurs effets de levier important, conjugué à leur forte exposition aux institutions financières via des prêts bancaires. C’est le cas du fonds Long Term Capital Management (LTCM) dont la quasi-faillite en 1998 a failli porter un coup dur au système bancaire mondial, ce fonds s’étant endetté pour environ 300 milliards de dollars auprès de 13 banques auxquelles la Fed a demandé de venir secourir le fonds. Les véhicules de titrisation (SIV) représentent 9% du shadow banking et sont désormais considérés par les régulateurs comme étant des entités qui posent un risque au système financier. La crise a en effet révélé dès 2007-2008 les défaillances du modèle de titrisation. Bien que le schéma juridique de la titrisation suppose que le risque des créances ou autres actifs titrisés est porté par les investisseurs qui acquièrent le titre adossé à la créance, il s’est avéré que les banques demeurent in fine

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

50

Page 51: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

vulnérables : une banque qui cède des créances à un SIV fournit habituellement à ce dernier une ligne de liquidité pour le bon déroulement de son activité de titrisation (notamment pour couvrir les décalages de dates entre les flux entrants et les flux sortants). Pendant la crise des subprimes, les banques ont été contraintes, pour des raisons de réputation et de risque de contrepartie, de racheter les créances cédées aux SIV et donc de reprendre à leur compte le risque inhérent à ces créances. * on n’abordera pas ici les Money market funds et les Dark pools qui correspondent à environ 25% du shadow banking.

Source : ss la direction de C.de Boissieur et Jézabel Couppey-Soubeyran « Les systèmes financiers. Mutations, crises et régulation », 2013, p.16-17

Document 119 : la marchéisation des créances renforce l’aléa moralAu-delà du shadow banking et de la présence d’entités systémiques, le développement de nouveaux instruments financiers comme les dérivés de crédit ainsi que les nouvelles méthodes de financement comme le modèle « originate and distribute » basé sur la titrisation, sont en eux-mêmes susceptibles d’engendrer une plus grande prise de risque de la part des banques, surtout dans un contexte de forte concurrence. L’innovation financière a ainsi directement contribué à une augmentation des problèmes de selection adverse et d’aléa moral, comme le montre l’exemple des instruments de transferts de risque de crédit.Ainsi, une banque, acheteuse de protection contre le risque de défaut d’un emprunteur (CDS), n’a plus la même incitation à bien sélectionner des crédits qu’elle octroie du moment qu’elle est assurée. (…) Conjuguée au renforcement de la concurrence au sein de la sphère financière et à l’abondance de liquidités sur les marchés, la diminution de l’aversion au risque explique les phénomènes de « myopie face au désastre », au sens où les banques vont être incitées à sous-estimer la probabilité de défaut des emprunteurs. L’histoire a montré que de telles tendances s’accompagnent généralement d’un boom du crédit qui est facteur avant-coureur des crises. Cette prise de risque est fortement liée à l’essor de la titrisation, les banques peuvent « marchéiser » leurs créances et en transférer le risque aux investisseurs. Les banques américaines ont ainsi assoupli leurs conditions de crédits hypothécaires en misant d’abord sur l’augmentation des prix de l’immobilier avec l’idée que les emprunteurs pourraient quoi qu’il arrive rembourser leurs prêts en vendant leur bien immobilier. (…) Ces crédits hypothécaires, accordés à des ménages peu solvables, ont ensuite été cédés à des véhicules de titrisation non régulés, les SIV, qui ont permis la prolifération des risques subprimes dans le système financier mondial compliquant ainsi leur traçabilité. (…) Le retournement du marché immobilier s’est traduit au cours de l’année 2006 par une dégradation de la qualité des crédits, entraînant par la suite une dégradation des notations des dérivés de crédits (…) et une aversion généralisée au risque qui a paralysé le marché de la titrisation. Les banques américaines ont été affectées à deux niveaux : d’une part, les SIV, qui étaient dans l’incapacité de se financer, ont dû avoir recours aux banques, qui ont réintégrées les actifs transférés à leurs bilans ; d’autres part, les banques qui détenaient elles-mêmes des dérivées de crédits dont la valeur a diminué, ont cherché à s’en débarrasser en les bradant (ventes en détresse), ce qui n’a fait qu’accroître la défiance générale et étendre la crise devenue ainsi une crise systémique mondiale.

Source : ss la direction de C.de Boissieu et Jézabel Couppey-Soubeyran « Les systèmes financiers. Mutations, crises et régulation », 2013, p. 21-22

Document 120 : produits dérivés et asymétrie d’informationLes marchés des dérivés de crédit soulèvent d’autres problèmes. La créativité de l’ingénierie financière est sans limites, mais la complexité croissante des produits financiers provoque une situation d’asymétrie d’information entre les vendeurs des titres et ceux qui les achètent. Les premiers connaissent les caractéristiques des titres, pas les seconds. Comme le souligne Akerlof et Shiller dans Les marchés des dupes (2016), tant que la confiance, que les acheteurs accordent aux vendeurs, se construit sur la qualité des actifs proposés, ces derniers ne peuvent pas se permettre d’avoir un comportement opportuniste et d’abuser de l’asymétrie d’information. G.Akerlof et R.Shiller montrent à partir de l’histoire de Goldman Sachs, comment les objectifs des « fabricants » de produits financiers ont progressivement changé, ce qu’ils résument par « l’éthique du « client d’abord » ne va plus de soi ». La titrisation peut avoir pour effet d’augmenter l’aléa moral, mais elle peut aussi augmenter les asymétries d’information. En effet, au moment de la transformation des créances en titres, il est possible de réunir dans des paquets de titres, des créances de nature très différentes en termes de risques, puis de réunir des paquets de titres entre eux et de les vendre sous forme de lots ! Cette technique a deux

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

51

Page 52: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

conséquences : la mesure du risque associé à chaque lot devient très complexe et les créances les plus risquées ont été disséminées un peu partout. Pour le dire plus simplement, tous les détenteurs d’actifs sont contaminés par un virus qui ne s’est pas encore déclaré, mais personne n’est en mesure de dire s’il l’est et à quel niveau. Pour G.Akerlof et R.Shiller, cette complexité est sciemment entretenue par les banques d’investissement à l’origine de ces produits, qui conservent ainsi leur réputation et la confiance de leur client. Les banques d’investissement s’appuient également sur les agences de notation, qui doivent certifier de la qualité des actifs, pour maintenir cette confiance. Mais à partir des années 1970, les agences de notation (comme Moody’s) commencent à faire payer leurs clients pour évaluer leurs actifs. Or, les clients attendent que leurs produits soient bien notés. Ce système de notation fait planer des doutes sur d’éventuels conflits d’intérêt. Jean Tirole dans Economie du bien commun (2016) écrit « Manque d’expérience ou conflits d’intérêts ? Difficile à savoir, mais les incitations des agences n’étaient pas tout à fait alignées avec les objectifs du régulateur. (…) La volonté de plaire à des banques d’investissement représentant une partie importante de leur chiffre d’affaires a sans doute aussi joué un rôle néfaste ».

Source : manuel ESH Studyrama ECE2

3.4.7 Repenser la régulation du système financier

Document 121 : les deux objectifs de la régulation du système financiers Pour Jean Tirole (Economie du bien commun, 2016), la régulation du système financier a deux objectifs :

- empêcher les comportements nocifs de certains acteurs sur les marchés financiers (arnaques et manipulations). En France, c’est le rôle de l’AMF (l’Autorité des marchés financiers) ;

- s’assurer de la solvabilité des intermédiaires financiers. Il s’agit de protéger l’épargne des ménages des difficultés que pourraient rencontrer les intermédiaires financiers, protéger les contribuables du coût du refinancement du système bancaire en cas de crise, et d’éviter le coût économique et social d’une crise financière. Cette régulation vise donc la stabilité financière. Avec la création de l’Union bancaire (2014), la BCE s’occupe de la supervision des établissements de taille européenne et l’ACPR (l’Autorité de contrôle prudentiel et de résolution) des établissements français de taille « nationale ».

Source : manuel ESH Studyrama ECE2

3.4.7.1 Eviter les comportements nocifs de certains acteurs des marchés financiers

Document 122 : La surveillance des acteurs pour éviter les arnaques et les fraudesCertains acteurs des marchés des capitaux peuvent chercher à manipuler les marchés, ou utiliser l’information qu’il possède de manière opportuniste (au détriment des autres). Par exemple en 2008, de grandes banques mondiales sont accusées de manipuler le taux de refinancement interbancaire (scandale du Libor) ; en 2008, l’affaire Madoff éclate. Ancien président du Nasdaq, il monte un fonds d’investissement qui fonctionne sur le principe du pyramide de Ponzi ; en 2013, l’AMF condamne un trader pour délit d’initié à 14 millions d’euros et son informateur à 400 000 d’euros lors de l’OPA de la SNCF sur Geodis ; en 2014 et 2015, les scandales LuxLeaks et SwissLeaks montre que certaines banques profitent des différences de législations nationales pour pratiquer le blanchiment et la fraude fiscale. Pour G.Akerlof et R.Shiller (Marchés de dupes, 2016) « les arnaques pratiquées sur les marchés financiers sont la principale cause des crises financières qui ont provoqué et provoquent encore les plus grandes récessions. (…) A chaque fois, bien sûr, les histoires sont différentes, ce ne sont pas les mêmes entreprises et les offres diffèrent. Mais cela revient à chaque fois, finalement, au même. Il y a des arnaqueurs et il y a des dupes. » La surveillance des acteurs des marchés financiers est alors indispensable puisque «  quand les marchés sont totalement libres, la liberté de choix ne va pas sans liberté de tromper et de manipuler. »

Source : manuel ESH Studyrama ECE2

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

52

Page 53: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

3.4.7.2 La supervision microprudentielle

Document 123 : l’objectif de la supervision microprudentielleLa supervision dite microprudentielle consiste à agir sur le comportement individuel des acteurs du système financier afin qu’ils ne se retrouvent pas en situation de faire faillite. Le Comité de Bâle a été créé après la faillite de la banque allemande Herstatt en 1974, qui provoque une crise du marché des changes, afin de définir les critères de régulation qui concernent les banques de détails (ou banques commerciales). Ils ne concernent donc pas les établissements qui composent le shadow banking.

Source : manuel ESH Studyrama ECE2

Document 124 : les accords de Bâle 1 et de Bâle 2Le premier accord sur les normes prudentielles que les banques doivent respecter est l’accord de Bâle I (1988). L’idée est de mesurer pour chaque prêt accordé un montant de fonds propre nécessaires en cas de défaillance de l’emprunteur. Les prêts aux Etats sont considérés comme non-risqués et ne nécessite aucune constitution de fonds propres. Ce premier accord pose néanmoins problème : il ne tient pas compte du fait que les risques des banques ne sont pas seulement des risques de défaillances mais aussi des risques de marché. En outre, il analyse séparément les risques de chacun des prêts, sans considérer que les risques peuvent, par exemple, se compenser. Un nouvel accord est donc conçu dans les années 1990 et il est mis en œuvre avant 2007, c’est l’accord de Bâle II. L’objectif est d’avoir une meilleure évaluation de la qualité des actifs et des risques et d’intégrer le risque de marché. Pour cela, les banques doivent associer à leur contrôle interne les agences de notation et elles doivent mettre en œuvre une comptabilité en valeur de marché afin que leur bilan tienne mieux compte l’évolution au cours du temps de la valeur des actifs acquis. Bâle II introduit également une exigence de communication des informations au public pour renforcer la discipline de marché : la diffusion de l’information incite les banques à être vertueuses. L’objectif des accords de Bâle 1 et de Bâle 2 est de protéger les banques contre un risque d’insolvabilité en constituant des fonds propres.

Source : manuel ESH Studyrama ECE2

Document 125 : les accords de Bâle 3La crise des subprimes a jeté un doute sur l’efficacité de la supervision microprudentielle mise en œuvre par Bâle 1 et Bâle 2. Ce qui a conduit à un nouvel accord, l’accord de Bâle 3, mis en œuvre depuis 2013. L’accord Bâle 3 introduit une obligation de détention d’actifs sous forme liquide et une obligation de ressources stables (par exemple détenir des titres du Trésor américain). Ce critère a pour objectif de permettre aux banques de pouvoir faire face à une crise de liquidité provenant soit d’un bank run, soit d’un assèchement du marché de refinancement interbancaire (comme ce fut le cas en 2008).

Source : manuel ESH Studyrama ECE2

Document 126 : les limites de la supervision microprudentielleLes normes microprudentielles ont un effet pro-cyclique très marqué. Les réserves à constituer sont calculées en fonction du risque estimé associé à chaque série d’actif. En phase de croissance, ce risque est faible, donc la constitution de réserve est aisée. En phase de retournement au contraire, les risques augmentent, ce qui implique un effort de constitution de fonds propres plus important. La contrainte réglementaire devient ainsi de plus en plus difficile à satisfaire. En conséquence, les banques réagissent en fermant le robinet du crédit afin de réorienter une partie de leurs ressources vers le respect des obligations prudentielles. C’est pour cela que certains économistes militent pour la mise en place d’un coussin contra-cyclique de fonds propres. Bâle 3 introduit, timidement, cet instrument en faisant varier le montant des fonds propres de 0% à 2,5% en fonction du cycle économique. Le coussin contra-cyclique consiste tout simplement à faire augmenter la constitution de fonds propres quand « tout va bien », et donc quand la contrainte de constitution de réserve est faible. Cela permet aux banques de rentrer dans une phase de crise avec un «  matelas » de fonds propres, et donc de réduire l’exigence de constitution de fonds propres à ce moment là. De nombreuses « affaires » ont souligné à quel point le contrôle interne des établissements bancaires pouvait être défaillant dans sa mesure du risque (la Société Générale et l’affaire Kerviel par exemple). Du côté des agences de notation, elles agissent généralement de manière pro-cyclique. Par exemple, dans la

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

53

Page 54: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

phase de boom des crédits subprimes, elles ont toutes donné des notes généreuses aux actifs issus de la titrisation, renforçant la confiance et incitant les échanges pour ces titres. Il existe une véritable dialectique de la supervision, qui pousse les banques à contourner les contraintes qui leur sont imposées. Dans Blabla banques Jézabel Couppey-Soubeyran (2015) rappelle que le lobby bancaire accuse toujours la régulation d’être un frein à la croissance et au bien-être collectif. Les banques cherchent à échapper à la régulation, c’est ce qu’elles ont fait en participant au développement du shadow banking. Enfin, en se focalisant sur les banques de détails, la régulation omet les autres établissements qui peuvent être cependant de taille systémique. Ainsi au moment de la crise des subprimes, l’Etat américain a dû venir en aide à des établissements ne relevant pas du système de régulation comme la banque d’affaire Bear Sterns. Le cadre d’application de la supervision microprudentielle n’est donc pas assez large.

Source : manuel ESH Studyrama ECE2

3.4.7.3 La supervision macroprudentielle

Document 127 : l’objectif de la supervision macroprudentielleL’objectif de la supervision macroprudentielle est de tenir compte des interactions entre les établissements. Elle cherche donc à réguler un risque « systémique » (ou global) et non pas seulement « individuel ». La surveillance du risque global consiste à observer comment la chute de la valeur d’un actif détériore l’ensemble des bilans des établissements financiers, comment cette dégradation produit des effets croisés, et comment la perte généralisée qui en découle va paralyser les marchés. Elle vise également à contrôler l’impact du fonctionnement du système financier sur l’économie réelle.

Source : manuel ESH Studyrama ECE2

Document 128 : le rôle des stress testLe stress test est le principal instrument utilisé pour mesurer l’impact des interdépendances entre établissements. Ils sont utilisés pour les banques et les assurances. Aux Etats-Unis, depuis le Dodd-Frank Act de 2010, les résultats des stress tests sont publiés annuellement.

Source : manuel ESH Studyrama ECE2

Document 129 : encadrer ou interdire certaines pratiquesComment rendre le système financier moins fragile dans sa globalité ? Il s’agit moins d’éviter le risque d’effet domino que d’empêcher une contamination simultanée de l’ensemble des acteurs du système. Une première solution consiste à réguler les pratiques de marché qui posent problèmes : c’est-à-dire celles qui peuvent avoir un impact négatif au-delà des agents qui y participent (elles produisent des externalités négatives). La régulation peut avoir pour objectif :

- de standardiser les échanges sur les marchés des dérivés. Près de 75% des échanges sur les marchés des dérivés se fait dans le cadre des marchés de gré à gré. Or, ce type de marché est potentiellement dangereux car à la différence des échanges dans le cadre des chambres de compensation, il ne donne pas lieu à des dépôts de garantie et des appels de marge. Cela signifie qu’en cas de défaillance d’un acteur, les autres en subissent les conséquences. Il serait possible de pénaliser les contrats de gré à gré (avec une taxe par exemple) et de définir des critères de garantie comme pour les chambres de compensation. Ainsi le superviseur a une vision précise des conséquences que la défaillance d’un établissement peut avoir sur la situation des autres établissements.

- de limiter ou interdire certains instruments : la vente à nue de CDS portant sur les défauts de paiements des Etats a été interdite par l’UE en 2011 (la vente à nue consiste à vendre à terme un actif que l’on ne possède pas mais que l’on s’engage à livrer à réalisation du contrat). Aujourd’hui, c’est le trading haute fréquence qui fait débat.

Source : manuel ESH Studyrama ECE2

Document 130 : redéfinir les acteurs soumis à la régulationLa seconde solution consiste à mieux définir les acteurs qui sont soumis à la régulation. Cette question concerne :

- les banques universelles : elles ont à la fois des activités de dépôts et des activités de banque d’affaires (les grandes banques françaises sont des banques universelles). Le risque est de voir des

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

54

Page 55: Web viewPaul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que ... Ainsi, Gilbert Cette et Jacques Barthélémy (Travailler au 21

établissements universels mal gérer leurs activités d’investissement d’affaires, faire subir à leur clientèle de dépôts les conséquences de cette mauvaise gestion. Il faut donc séparer correctement au sein des établissements à l’aide d’ « une muraille de Chine » les activités susceptibles d’être « sauvées » et celles qui ne doivent pas l’être. L’ancien président de la Fed Paul Volker, le Commissaire européen et gouverneur de la Banque de Finlande Erkki Liikanen ou l’économiste John Vickers défendent la séparation entre banques de détail et banques d’affaire.

- les établissements du shadow banking. Comment faire le tri entre les établissements qui agissent pour eux-mêmes, et ceux qui ne servent qu’aux banques afin de contourner les règles prudentielles ? Une proposition radicale consiste à interdire toute forme de transferts du risque des banques vers l’extérieur et à revenir à un modèle uniquement « originate to hold ». Cela couperait l’herbe sous les pieds des établissements qui servent aux banques à contourner la réglementation bancaire.

- les paradis fiscaux. Une des difficultés pour appliquer une régulation est de pouvoir identifier les établissements qui sont immatriculés dans des paradis fiscaux. Pour les banques de dépôts ou les assurances, il n’y a pas de problème car ces établissements doivent avoir une licence pour exercer leur activité. Pour les autres établissements, par contre, la porte n’est pas fermée pour masquer des informations. Aujourd’hui, la lutte contre les paradis fiscaux porte autant sur les questions de fiscalité que sur celle de stabilité du système financier mais elle progresse très peu.

Source : manuel ESH Studyrama ECE2

Document 131 : les limites de la supervision macroprudentielleLa mise en œuvre de la régulation macroprudentielle est ambitieuse : elle cherche à limiter ce qui fragilise le système financier dans son ensemble. Elle nécessite pour cela des réformes de grandes ampleurs. Or, aujourd’hui, ces réformes ne sont pas, pour l’essentielle, mises en œuvre. Cette régulation nécessite en outre une coopération internationale afin d’éviter que les écarts de réglementation soient utilisés de manière opportuniste par les acteurs du système financier.

Source : manuel ESH Studyrama ECE2

Document 132 : le rôle de la banque centrale dans la stabilité financière Mais la régulation macroprudentielle a également pour objectif d’éviter la paralysie des marchés financiers et le transfert de la crise financière à l’économie réelle. La réalisation de ces deux objectifs conduit de plus en plus à s’interroger sur les objectifs des banques centrales. En Europe, la BCE est devenue, avec l’Union bancaire, le superviseur des établissements financiers soumis à régulation. Faut-il aussi qu’elle fasse évoluer sa politique monétaire pour y intégrer l’objectif de stabilité financière ? « La crise financière nous a enseigné que les banques centrales ne pourront plus conduire la politique monétaire sans tenir compte parallèlement de l’incidence de l’instabilité financière sur leur action et des incidences de leur action sur la stabilité financière. » Jézabel Couppey-Soubeyran dans Monnaie, banques, finance (2009).Lorsque les marchés manquent de liquidités, que des établissements menacent de faire faillite, l’autorité monétaire intervient. Elle le fait en tant que prêteur en dernier ressort, mais également à l’aide de politiques monétaires expansionnistes. Mais en contrepartie, l’action de PDR génère de l’aléa moral, ce qui renforce la prise de risque des institutions financières, et la liquidité facile et abondante place les agents dans une nouvelle phase de boom du cycle financier. La succession d’actions de la politique monétaire a donc pour conséquence de faire alterner les phases du cycle financier. Or, les crises financières ont un coût sur la conjoncture et sur la croissance potentielle. Il paraît donc logique de se demander comment la politique monétaire doit agir pour répondre aux chocs négatifs tout en évitant les emballements et la formation de bulles et de cycles de crédit. Le risque est de voir la politique monétaire toujours courir après une stabilité financière dont elle est à la fois la cause et la conséquence. Il est donc nécessaire de réfléchir à l’articulation entre l’objectif de stabilité financière et l’objectif de stabilité des prix (c’est-à-dire de contrôle de l’inflation). Actuellement, seul le dernier compte. Or, comme le signalent Patrick Artus et Marie-Paule Virard dans La liquidité incontrôlable. Qui va maîtriser la monnaie mondiale ? (2010) : « Les politiques de ciblage d’inflation n’évitent ni les bulles, ni les crises financières, elles sont inadaptées à un monde où l’inflation, au moins pour quelques années, est structurellement faible. »Comment la politique monétaire peut-elle aussi assurer la stabilité financière ? Quel rôle doit alors jouer la banque centrale ? La réponse à cette question est encore très largement discutée.

Source : manuel ESH Studyrama ECE2

ESH ECE 1 Camille Vernet Nicolas Danglade 2017-2018

55