164
1

Développement et utilisation d’un - Institut des actuaires

  • Upload
    others

  • View
    7

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Développement et utilisation d’un - Institut des actuaires

1

Page 2: Développement et utilisation d’un - Institut des actuaires

2

Développement et utilisation d’un ESG risque réel dans la

gestion d’un fonds de rentes fermé

Mémoire d'actuariat présenté pour l'obtention du

Master professionnel Sciences de gestion, mention finances de marché

Spécialité Actuariat du CNAM

Et l'admission à l'Institut des Actuaires

Mémoire soutenu le

par Alix BAKHOS

Caractère confidentiel : oui

Jury

Président :

M. Alexis COLLOMB

Membres du Jury de l’Institut des Actuaires :

Mme Florence PICARD

M. Pierre PETAUTON

Mme Edith BOCQUAIRE

M. Pierre MATHOULIN

Membres du Jury de la Chaire d’actuariat :

M. François WEISS

M. David FAURE

M. Nathanaël ABECERA

M. Olivier DESMETTRE

Tuteur et Directeur opérationnel de Mémoire :

M. Jean-Christophe BAROU

Responsables opérationnels :

M. Serge WERLE

Mme Valérie DEPPE

M. Guillaume VILLE

Page 3: Développement et utilisation d’un - Institut des actuaires

3

RESUME ...................................................................................................................................... 7

ABSTRACT .................................................................................................................................... 8

REMERCIEMENTS ........................................................................................................................ 9

1. ROLE DES GENERATEURS DE SCENARIOS DANS LA GESTION DES RISQUES ........................ 10

1.1. La génération de scénarios économiques en assurance ..................................................................... 10

1.2. Générateurs en Risque Réel et Générateurs en Risque Neutre .......................................................... 11 1.2.1. Les Générateurs de scénarios en risque neutre ............................................................................ 11 1.2.2. Les Générateurs de scénarios en risque réel ................................................................................. 13

2. DEVELOPPEMENT DE L’ESG EN RISQUE REEL A.L.A.M.O. ................................................... 16

2.1. Présentation générale de l’environnement de simulation ................................................................. 16 2.1.1. Définition de la période de référence et des hypothèses générales de projection ..................... 16 2.1.2. Présentation des actifs à projeter .................................................................................................. 16 2.1.3. Focus sur les actions ....................................................................................................................... 17 2.1.4. Focus sur les taux ............................................................................................................................ 18 2.1.5. Calcul des moments caractéristiques des indices présentés......................................................... 19

2.2. Définition du cahier des charges de l’ESG A.L.A.M.O. ........................................................................ 21 2.2.1. Introduction .................................................................................................................................... 21 2.2.2. Interprétation des moments au travers de l’analyse des distributions ........................................ 22 2.2.3. Impact du Skewness et de l’Excess Kurtosis sur les distributions ................................................. 26 2.2.4. Rôle du drift et de la volatilité dans la valorisation des indices actions ....................................... 26 2.2.5. Importance de l’autocorrélation sur les taux d’intérêt ................................................................. 30 2.2.6. Impact des corrélations sur la solvabilité d’un fonds .................................................................... 32 2.2.7. Récapitulatif du cahier des charges attendu pour l’ESG ALAMO .................................................. 35

2.3. Génération de Browniens Gaussiens centrés réduits ......................................................................... 36 2.3.1. Introduction .................................................................................................................................... 36 2.3.2. Structure de l’ESG A.L.A.M.O. ........................................................................................................ 36 2.3.3. Tirage des nombres aléatoires constitutifs de la graine de l’ESG ................................................. 36 2.3.4. Convergence des moments d’ordre 1 et 2 ..................................................................................... 37 2.3.5. Calcul des moments ........................................................................................................................ 38 2.3.6. Limites et conclusions du processus de Wiener ............................................................................ 38

2.4. Simulation de queues épaisses de distribution (Leptokurtiques) ....................................................... 39 2.4.1. Introduction .................................................................................................................................... 39 2.4.2. Méthodologies testées pour simuler une distribution Leptokurtique ......................................... 39 2.4.3. Analyse du phénomène à l’origine de la Leptokurticité des actions ............................................ 40 2.4.4. Implémentation du modèle de GARCH .......................................................................................... 42 2.4.5. Calcul des moments ........................................................................................................................ 46

SOMMAIRE

Page 4: Développement et utilisation d’un - Institut des actuaires

4

2.4.6. Limites et conclusions..................................................................................................................... 46

2.5. Réplication de distributions asymétriques ......................................................................................... 47 2.5.1. Introduction .................................................................................................................................... 47 2.5.2. Analyse empirique de l’origine des distributions asymétriques ................................................... 47 2.5.3. Présentation du modèle AMIGARCH ............................................................................................. 48 2.5.4. Calcul des moments ........................................................................................................................ 49 2.5.5. Limites et conclusions..................................................................................................................... 49

2.6. Construction de mouvements browniens corrélés ............................................................................. 50 2.6.1. Introduction .................................................................................................................................... 50 2.6.2. Présentation du processus de Cholesky......................................................................................... 51 2.6.3. Mise en œuvre du processus de Cholesky ..................................................................................... 51 2.6.4. Formalisation de l’algorithme de Triangularisation de Cholesky ................................................. 52 2.6.5. Exemple numérique........................................................................................................................ 53 2.6.6. Conséquence de l’algorithme de Cholesky sur le CAC 40 et le DJIA ............................................. 54 2.6.7. Calculs des moments ...................................................................................................................... 55 2.6.8. Limites et conclusions..................................................................................................................... 55

2.7. Modélisation de l’autocorrélation ..................................................................................................... 58 2.7.1. Introduction .................................................................................................................................... 58 2.7.2. Implémentation d’un modèle autorégressif dérivé de Yuke Walker ............................................ 59 2.7.3. Conditions aux limites .................................................................................................................... 60 2.7.4. Exemple numérique........................................................................................................................ 61 2.7.5. Calcul des moments ........................................................................................................................ 62 2.7.6. Limites et Conclusion ...................................................................................................................... 63

2.8. Intégration des contraintes de Drift et de Volatilité ........................................................................... 64 2.8.1. Introduction .................................................................................................................................... 64 2.8.2. Construction d’une transformation de type homothétie / translation ........................................ 64

2.9. Conclusions et observations .............................................................................................................. 65 2.9.1. Calcul des moments définitifs ........................................................................................................ 65 2.9.2. Interprétation des résultats ........................................................................................................... 66 2.9.3. Cartographie des transformations dans le calcul des moments ................................................... 67 2.9.4. Quelles conséquences concrètes sur les scénarios générés ? ....................................................... 67

3. BENCHMARKING DE L’ESG A.L.A.M.O................................................................................. 68

3.1. Problématique ................................................................................................................................... 68

3.2. Analyse graphique des scénarios de l’ESG A.L.A.M.O. ........................................................................ 68 3.2.1. Introduction .................................................................................................................................... 68 3.2.2. Analyse graphique des performances générées sur les actions.................................................... 68 3.2.3. Backtesting des indices actions ...................................................................................................... 70 3.2.4. Analyse graphique des corrélations entre les performances actions ........................................... 73 3.2.5. Analyse graphique des taux générés ............................................................................................. 75 3.2.6. Backtesting des indices de taux ..................................................................................................... 76 3.2.7. Analyse graphique des corrélations entre les séries de Taux ....................................................... 79

3.3. Analyse statistique descriptive des scénarios de l’ESG A.L.A.M.O. ..................................................... 82 3.3.1. Introduction .................................................................................................................................... 82 3.3.2. Présentation générale du test statistique du χ² ............................................................................ 82

Page 5: Développement et utilisation d’un - Institut des actuaires

5

3.3.3. Construction du test du χ² sur les indices ...................................................................................... 83 3.3.4. Résultat du test sur les indices action ............................................................................................ 85 3.3.5. Résultat du test sur les indices taux ............................................................................................... 87 3.3.6. Construction d’une relation liant les OAT 2, 10 et 30 ans ............................................................. 90 3.3.7. Construction d’une ACP sur l’historique ........................................................................................ 93 3.3.8. Position des scénarios d’actifs sur le cercle factoriel de l’ACP ...................................................... 95 3.3.9. Conclusions ..................................................................................................................................... 96

3.4. Limites de l’ESG A.L.A.M.O ................................................................................................................ 97 3.4.1. Introduction .................................................................................................................................... 97 3.4.2. Réplication exacte des Skewness et Excess Kurtosis ..................................................................... 97 3.4.3. Réplication des autocorrélations proches de 1 ........................................................................... 100 3.4.4. Respect des corrélations dans le cas d’actifs auto corrélés ........................................................ 103 3.4.5. Gestion du régime transitoire sur les scénarios de taux ............................................................. 105 3.4.6. Limites du raccordement .............................................................................................................. 107 3.4.7. Limites de la calibration historique .............................................................................................. 109 3.4.8. Conclusions et recommandations ................................................................................................ 110

3.5. Benchamrking d’A.L.A.M.O. avec les autres ESG .............................................................................. 111 3.5.1. Grilles d’analyse des générateurs étudiés ................................................................................... 111 3.5.2. Caractéristiques principales des ESG étudiés .............................................................................. 111 3.5.3. Comparaison des ESG dans l’univers « Risque Réel » ................................................................. 112 3.5.4. Conclusions et recommandations ................................................................................................ 113

3.6. Conclusions relatives au rôle d’A.L.A.M.O. ...................................................................................... 114

4. UTILISATION D’A.L.A.M.O. SUR UN FONDS DE RENTES FERME......................................... 115

4.1. Présentation du contexte et de l’Appel d’Offres .............................................................................. 115 4.1.1. Introduction générale ................................................................................................................... 115 4.1.2. Contexte et problématique .......................................................................................................... 116 4.1.3. Présentation de l’Appel d’Offres .................................................................................................. 116

4.2. Présentation des classes d’actifs utilisées ........................................................................................ 120 4.2.1. Introduction et problématique .................................................................................................... 120 4.2.2. Le Cash .......................................................................................................................................... 120 4.2.3. Le Monétaire ................................................................................................................................. 120 4.2.4. Les Obligations Gouvernementales de maturité courte ............................................................. 121 4.2.5. Les Obligations Gouvernementales de maturité longue ............................................................. 122 4.2.6. Les Obligations d’Entreprise de maturité courte ......................................................................... 122 4.2.7. Les Obligations d’Entreprise de maturité longue ........................................................................ 123 4.2.8. Les Actions Européennes .............................................................................................................. 123 4.2.9. Les Actions Internationales .......................................................................................................... 124

4.3. Hypothèses de taux de rendement monétaire ................................................................................. 125 4.3.1. Hypothèses de croissance réelle .................................................................................................. 125 4.3.2. Hypothèses d’inflation et de croissance nominale ...................................................................... 125 4.3.3. Hypothèses de politique monétaire ............................................................................................ 125

4.4. Définition des hypothèses de rendement des actifs ........................................................................ 126 4.4.1. Position du problème ................................................................................................................... 126 4.4.2. Limites de l’approche historique .................................................................................................. 126 4.4.3. Présentation de l’approche par Primes de Risques ..................................................................... 128

Page 6: Développement et utilisation d’un - Institut des actuaires

6

4.4.4. Calcul des rendements moyens d’évolution des actifs ............................................................... 132 4.4.5. Construction du tableau des moments de projection ................................................................. 132

4.5. Génération des scénarios stochastiques avec l’ESG A.L.A.M.O. ....................................................... 133 4.5.1. Génération des Scénarios ............................................................................................................. 133 4.5.2. Audit des Moments ...................................................................................................................... 136

4.6. Construction de l’allocation d’actifs optimale .................................................................................. 141 4.6.1. Détermination des facteurs de risques ........................................................................................ 141 4.6.2. Allocation retenue ........................................................................................................................ 141

4.7. Analyse du comportement de l’Allocation retenue .......................................................................... 142 4.7.1. Problématique .............................................................................................................................. 142 4.7.2. Analyse du scénario Médian ........................................................................................................ 142 4.7.3. Distribution des scénarios d’actif net .......................................................................................... 143 4.7.4. Relation Solvabilité / Performance des Actions .......................................................................... 144 4.7.5. Relation Solvabilité / Performances obligataires ........................................................................ 146 4.7.6. Relation Solvabilité / Variations de l’Inflation ............................................................................ 148

4.8. Bilan général du comportement du Fonds sur les scénarios ............................................................. 150

CONCLUSION ........................................................................................................................... 151

BIBLIOGRAPHIE........................................................................................................................ 153

ANNEXES ................................................................................................................................. 154

Annexe I – Table présentant les relations entre les paramètres α, β, γ et H avec l’Excess Kurtosis ............... 154

Annexe II – Table reliant Skewness, Excess Kurtosis et le paramètre q ......................................................... 155

Annexe III – Table de passage des ωi aux coefficients d’autocorrélation ...................................................... 156

Annexe IV – Présentation sommaire d’autres ESG alternatifs à A.L.A.M.O. .................................................. 157

Page 7: Développement et utilisation d’un - Institut des actuaires

7

Résumé

Prédire l’avenir a toujours constitué un grand défi pour l’être humain : Dans tous les domaines

nous cherchons toujours à anticiper le futur afin de pouvoir soit mieux connaitre nos origines

(Big Bang, Formation du Système Solaire, Théorie de l’Evolution, …) soit prédire des

évènements adverses et prendre les mesures nécessaires pour atténuer leurs effets voir les

prévenir (pandémies, tremblements de terre, changement climatique, krach financiers, sondages

en vue d’une élection politique…). La construction de scénarios d’évolution n’est donc pas

propre au monde actuariel et financier mais constitue un défi mathématique commun à plusieurs

disciplines scientifiques et humaines.

Dans le cadre de ce mémoire d’actuariat, les univers qui nous intéresseront seront les secteurs

de l’assurance vie et de la finance. Les différentes crises ayant secoué le monde de la finance

et de l’assurance ont démontré que les performances passées ne prédisent pas les performances

futures. S’il est impossible de prévoir le sens d’évolution des marchés, nous pouvons en

revanche probabiliser leur évolution et projeter des scénarios d’évolutions qui soient réalistes.

Il n’existe pas sur le marché un Générateur de Scénarios Economiques (ESG) universel : chaque

assureur, en fonction de ses problématiques va développer son propre ESG. L’objectif de ce

mémoire est de présenter un ESG que j’ai développé chez BNP Paribas Cardif et qui a pour

objectif d’accompagner les équipes d’ingénierie financière à optimiser leur allocation d’actifs

dans la gestion des fonds de rentes fermées. Aussi dans la quatrième partie de ce mémoire nous

présenterons une application numérique au travers de la réponse à un Appel d’Offres auquel a

dû répondre BNP Paribas Cardif. Nous ne nous attarderons pas sur la méthodologie de

construction de l’allocation d’actifs (cela peut faire l’objet d’un autre sujet de mémoire) mais

détaillerons en revanche la manière dont le portefeuille retenu se comportera face à différents

scénarios extrêmes.

Page 8: Développement et utilisation d’un - Institut des actuaires

8

Abstract Predict the future has always been a big challenge fur human being: in all domains we are

always trying to predict the future in order to learn more about our origins (Big Bang, Solar

System creation, evolution theory) or to anticipate adverse events and take necessaries measures

to impeach them (pandemics risks, earthquakes, climate change, politics elections polls…).

Construction of evolution scenarios is not specific to financial and actuarial world but constitute

a common challenge for many scientific and human disciplines.

In this Actuary thesis, universes which will interest us will be life insurance and finance ones.

Different crisis which stroked life insurance and finance worlds showed that past performances

don’t predict future ones. If it is not possible to predict market evolutions, we can however build

a distribution which will affect to each scenario a realization probability.

In the market there isn’t a universal Economic Scenario Generator (ESG): each insurance

company, will develop its own ESG function of its specific problematics. In this thesis we will

describe the construction of the ESG I developed at BNP Paribas Cardif. This ESG shall aim

at supporting financial engineering teams to build asset allocations strategies for the closed

rents funds. Hence in the fourth part of this thesis we will describe a numerical application

through an invitation to tender for which addressed to BNP Paribas Cardif. We will not expose

the methodology to build the asset allocation (it can be the object of another thesis subject) but

will detail the different portfolios ‘behaviour types face to different extreme scenarios.

Page 9: Développement et utilisation d’un - Institut des actuaires

9

Remerciements Le développement du sujet objet de ce mémoire s’étant étalé sur près de 10 ans j’aurai de nombreuses personnes à remercier. Au niveau pédagogique, je commencerai par le Professeur Michel Fromenteau qui en plus d’avoir été un actuaire de renom ayant apporté beaucoup à l’Institut des Actuaires a aussi été un brillant pédagogue qui a donné goût à l’actuariat à des milliers d’étudiants dont je fais partie. Je profite de l’occasion pour lui rendre un vibrant hommage. Si Monsieur Fromenteau fut incontournable dans mon cursus d’Actuariat je n’oublie pas le rôle majeur joué par François Weiss qui a dû reprendre en 2018 la coordination de mon mémoire dans des conditions très difficiles suite à la disparition brutale de Monsieur Fromenteau. François Weiss par ses observations critiques et justes m’a permis d’améliorer sensiblement mon Mémoire tant sur la forme que sur le fond : ses analyses m’ont amené à prendre du recul sur mon sujet en réalisant un gros travail technique et organisationnel pour le rendre soutenable. Sur le plan opérationnel, je remercie très vivement mon ancien responsable de BNP Paribas Cardif, Jean-Christophe Barou qui m’a proposé le challenge de développer en interne au sein de la Direction des Gestions d’Actifs une première version de Générateurs de Scénarios Stochastiques (ESG) afin de pallier les carences du modèle existant développé par un prestataire externe. Au-delà du défi proposé, son soutien technique lorsque j’ai dû relever le challenge de générer des scénarios corrélés, auto corrélés et présentant des distributions non gaussiennes. Je remercierai aussi mon ancien collaborateur Serge Werlé qui a grandement contribué à transformer A.L.A.M.O. en l’industrialisant pour en faire un véritable Progiciel de calculs alliant ergonomie et vitesse d’exécution. Toujours chez BNP Paribas je voudrais également remercier Valérie Deppe et Philippe Bienaimé qui ont permis à l’ESG de sortir du cadre de la Gestion d’Actifs pure. Valérie Deppe qui était alors responsable ALM a fait appel à cet outil pour qu’il soit utilisé dans les études ALM en risque réel : son intervention m’a permis d’utiliser l’outil devenu alors A.L.A.M.O. pour le compte de clients internes situés en Asie, au Royaume Uni, au Luxembourg et en Amérique du Sud. De son côté Philippe Bienaimé alors Responsable des Risques Assurantiels au sein du Groupe BNP Paribas (département GRM) qui a diligenté un audit détaillé de l’outil A.L.A.M.O. afin de répondre aux exigences réglementaires en matière de robustesse des ESG m’a donné l’occasion de comparer mes développements avec les réalisations effectuées par d’autres acteurs du marché. Cela a grandement contribué à faire connaître A.L.A.M.O. au sein du Groupe BNP Paribas. En dehors du Groupe BNP Paribas, je remercie particulièrement Jimmy Zou et Guillaume Ville qui m’ont donné la possibilité de tester A.L.A.M.O. sur des sujets en rapport à Solvabilité II. Aussi, chez PwC, Jimmy Zou m’a permis au travers de nombreuses missions d’utiliser l’ESG sur des situations concrètes comme par exemple l’évaluation de l’impact de Solvabilité II sur l’ALM des Assureurs et l’allocation d’actifs des Gestionnaires d’Actifs. Ces réalisations m’ont permis de publier dans l’Argus de l’Assurance et d’être invité à une table ronde animée par le journal « Les Echos » pour débattre autour de Solvabilité II. Guillaume VILLE quant à lui a pu porter un regard externe critique sur ce mémoire en me suggérant d’introduire différents tests statistiques pour mieux mettre en valeur cet outil sur le plan académique. Je ne peux finir cette partie sans remercier ma femme et ma famille de m’avoir soutenu psychologiquement aussi bien durant mes années d’études actuarielles au CNAM que durant la rédaction de ce mémoire. Je me permets aussi de rendre un hommage à ma mère adoptive qui a toujours été à mes côtés malgré sa maladie

Page 10: Développement et utilisation d’un - Institut des actuaires

10

1. Rôle des générateurs de scénarios dans la gestion des risques

1.1. La génération de scénarios économiques en assurance

Avant de présenter les Générateurs de Scénarios Economiques, rappelons tout d’abord la

définition d’un scénario économique introduite par Frédéric Planchet : « Un scénario

économique correspond à une projection de grandeurs économiques et financières sur un

horizon d’intérêt ». Autrement dit, la génération aléatoire de scénarios économiques permet de

projeter à plus ou moins long terme des valeurs de marchés de différents actifs financiers ainsi

que des variables macroéconomiques pertinentes.

Une des principales problématiques de la mise en place d’un ESG est le choix des éléments

composant le modèle : l’économie est représentée par un certain nombre de variables

fondamentales. L'objectif d'un ESG est alors de modéliser ces différentes variables, tout en

tenant compte de leur dépendance, afin de décrire les états du monde plus ou moins probables

sur lesquels l’économie pourra aboutir au terme d’un horizon de temps donné. Dans le cas de

compagnies d’assurance, il s’agit notamment des variables affectants différents postes du

Bilan : taux d’intérêt, performance des actions ou de l’immobilier, inflation ou encore taux de

mortalité.

Un ESG peut avoir plusieurs utilisations, à savoir la prévision, la valorisation de produits

financiers ou encore l’analyse des risques. Remarquons alors qu’un bon outil de génération

aléatoire de scénarios remplit au moins l’une des deux applications suivantes :

- Dans le cas de projections à court terme, il permet l’évaluation des prix d’équilibre

de produits financiers, autrement dit le pricing (Risque Neutre ou Market

Consistant)

- Lorsqu’il s’agit de projections à un horizon plus long terme, l’ESG s’apparente à un

outil d’aide à la décision dans le cadre de la gestion des risques (Risque Réel ou

Historique).

Avec la mise en place de Solvabilité II qui est entré officiellement en place le 1er Janvier 2016,

les ESG voient leur importance augmenter auprès des Assureurs afin de mesurer les risques

inhérents à leurs activités. De plus un ESG permet de tenir compte de l’horizon long terme ce

qui constitue un atout très précieux pour certains Assureurs en particulier les Assureurs Vie

devant faire face à des Provisions Mathématiques de duration élevée (souvent supérieure à 10

ans).

La littérature sur les ESG est abondante mais la crise financière de 2007 qui a débuté par une

crise de liquidité a mis en évidence certaines lacunes de ces générateurs. Les remises en cause

portent principalement sur la prise en compte des risques de liquidité et de crédit ainsi que sur

la modélisation des dépendances entre les différentes variables choisies en particulier durant les

phases de stress de marché (cluster de volatilité et de corrélations). Ainsi le choix des variables

économiques, financières et actuarielles que nous souhaitons modéliser, ainsi que la mise en

œuvre de l‘outil, dépendent principalement de la finalité du générateur.

La construction d’un ESG passe par plusieurs étapes : Avant de nous concentrer sur le

développement d’A.L.A.M.O. nous allons dans la section suivante décrire les deux principaux

types d’ESG qui sont utilisés et dont les objectifs divergent : Les ESG en Risque Neutre (Market

Consistant) et les ESG en Risque Réel (ou Historique)

Page 11: Développement et utilisation d’un - Institut des actuaires

11

1.2. Générateurs en Risque Réel et Générateurs en Risque Neutre

1.2.1. Les Générateurs de scénarios en risque neutre

L'univers risque neutre est un univers dans lequel tous les agents économiques sont neutres face

au risque, ce qui revient à dire qu'ils n'exigent pas de compensation pour le risque pris. Dans un

tel univers, la rentabilité espérée µ est alors celle du taux sans risque r.

Evaluer un actif dans cet univers revient donc à prévoir les flux futurs que génère cet actif et à

l'actualiser au taux sans risque. Pour une option européenne, cela revient à calculer l'espérance

de son payoff (unique flux à recevoir à la date T) et à l'actualiser au taux sans risque annuel r.

C'est pour cette raison que l'on a:

Valeur du Call (c) à la date 0 = E[ max(ST-K;0) ] * exp( -rT) où E désigne l'espérance.

En risque neutre l’objectif n’est pas de produire des scénarios réalistes en rapport avec

l’historique mais de fournir un jeu de scénario dont les caractéristiques moyennes permettent

de pricer la valeur de rachat des options au même prix que les prix de marché. Il s’agit en

premier lieu de donner des prix qui préviennent tout risque d’arbitrage. De ce fait si dans un jeu

de 1000 scénarios de taux 10 ans, la moyenne des 1000 taux générés converge vers le taux

forward 10 ans associé, le jeu est « validé » en univers « Risque Neutre » même si on a par

exemple 10% des scénarios qui voient le taux 10 ans prendre des valeurs « aberrantes » (valeurs

explosives de l’ordre de 100% ce qui sort de l’ordre de grandeur d’un « taux 10 ans core zone

euro » ou valeur qui reste bloqué à 0% durant des périodes de plusieurs dizaines d’années).

Chez les Assureurs, Mutuelles et Instituts de Prévoyances, les ESG en Risque Neutre sont

utilisés à deux fins :

- Le calcul de l’Embedded Value : Apparue dans les années 1980, l’embedded value

ou valeur intrinsèque, est la méthode classique d’évaluation des portefeuilles

d’assurance vie. Ce calcul permet d’informer les actionnaires sur la performance

financière des entreprises d’assurance vie et a pour fin la transaction ou la

communication. L’embedded value est la valeur actualisée des flux (ou des résultats)

futurs distribuables aux actionnaires. Il s’agit de la valeur des intérêts des

actionnaires dans les revenus distribuables issus des actifs alloués au business

couvert après prise en compte de l’ensemble des risques liés au business couvert.

L’embedded Value permet de prendre ainsi en compte l’actif net ou « part de l’acif

revenant aux actionnaires en date d’évaluation » et la Value In Force ou « Valeur

actuelle des profits futurs à destination des actionnaires et relatifs aux contrats

d’assurance présents dans le portefeuille ». La baisse des cours boursiers à la fin des

années 1990 a remis en cause le calcul d’un Embedded Value déterministe. Il est

apparu plusieurs variantes de cette méthode, notamment l’European Embedded

Value (EEV) en 2004. Cette dernière se base sur une variation stochastique.

L’approche Market Consistent Embedded Value (MCEV) est par la suite devenue

un standard de la valorisation des sociétés d’assurance vie avec la publication en

juin 2008 des « CEV Principe & Guidance ». La MCEV avait alors pour but de

pallier le manque d’harmonisation du calcul de l’EEV au sein des sociétés

d’assurance. Depuis fin 2009, l’approche MCEV constitue le nouveau référentiel de

publication et cherche à évaluer de manière explicite les risques impactant les

compagnies d’assurance. Ces calculs nécessitent la génération aléatoire de scénarios

économiques en risque neutre.

Page 12: Développement et utilisation d’un - Institut des actuaires

12

- Le calcul des Provisions Mathématiques en Best Estimate : L’autre usage des

ESG en Risque neutre est le calcul des Provisions Mathématiques en Best Estimate

(BE). Il s’agit en particulier de déterminer la valeur des options de rachat par les

assurés des contrats d’assurance vie. Dans le dispositif Solvabilité II, le principe de

calcul des provisions techniques repose sur la distinction entre deux catégories de

risques:

o les risques couvrables : la provision technique correspond au prix de la

couverture financière, construite à partir d’instruments financiers issus d’un

marché profond, liquide et transparent, répliquant les flux futurs d’assurance.

o les risques non couvrables : la provision technique est évaluée par la somme

du best estimate et de la marge pour risque.

L’EIOPA retient comme définition du best estimate la moyenne pondérée en

fonction de leur probabilité des futurs flux de trésorerie compte tenu de la valeur

temporelle de l’argent, laquelle est estimée sur la base de la courbe des taux sans

risque pertinente. La directive européenne stipule que le best estimate doit être

calculé brut de réassurance, en contrepartie un actif de réassurance, tenant compte

des probabilités de défaut du réassureur, est reconnu à l’actif. Les hypothèses de

calcul des provisions best estimate reposent sur des informations actuelles et

crédibles. Ces hypothèses doivent présenter un caractère réaliste. Selon les normes

réglementaires, la courbe retenue pour l’actualisation doit vérifier 4 critères à savoir:

o pas de risque de crédit

o présenter des taux réalistes

o estimer via une méthode robuste

o être très liquides

En pratique, l’EIOPA insiste sur l’utilisation de la courbe construite à partir des

obligations d’Etats notées AAA. En assurance de personne, le calcul du best

estimate nécessite de prendre en compte l’expérience du portefeuille lorsque qu’il

s’agit d’évaluer la probabilité de versement de flux futurs. En outre, le best estimate

présente d’autres difficultés de calcul liées à l’évaluation des garanties financières.

En effet, du fait de l’interaction forte entre l’actif et le passif, notamment en présence

de rachats ou de dispositif de participation aux bénéfices, l’utilisation de techniques

stochastiques est inévitable pour tenir compte de la «valeur temps» de ces garanties.

L’EIOPA définit les règles à retenir en termes de segmentation qui doivent permettre

d’aboutir à des groupes de risques homogènes.

Page 13: Développement et utilisation d’un - Institut des actuaires

13

1.2.2. Les Générateurs de scénarios en risque réel

En risque réel, l’objectif n’est pas de pricer au plus juste en moyenne le prix des options de

rachat mais de générer un univers de scénarios « réalistes » au regard de ce qui a pu être observé

dans l’historique. L’objectif des ESG risque réel est de pouvoir simuler l’évolution future réelle

d’un certain nombre d’actifs, c’est-à-dire une évolution cohérente sur la base des mouvements

observés par le passé. Les ESG risque-réel s’opposent aux ESG risque-neutre. Ces derniers ont

un objectif tout autre : celui de pouvoir retrouver, à partir d'un jeu de scenarios générés et par

la méthode de Monte-Carlo, les prix de marché des produits dérivés de taux (pour un générateur

de taux) ou actions (pour un générateur actions). Les scenarios issus de tels générateurs n'ont

pas vocation à être cohérents avec le passée, et peuvent tout à fait présenter des évolutions

aberrantes (comme des taux explosifs).

Les ESG en Risque Réel sont utilisés principalement pour les applications suivantes :

- Allocation Stratégique d’Actifs : Entre l’entrée en vigueur de Solvabilité 2 et

l’environnement de taux bas, les assureurs sont amenés à repenser leurs politiques

d’allocation d’actifs pour préserver le rendement. Les asset managers ont identifié

trois leviers possibles pour y parvenir : poursuite de la diversification des titres

obligataires, recherche d’actifs illiquides et regain d’appétit pour les actions.

Comment gérer l’environnement de taux bas dans le contexte de Solvabilité 2 ? Telle

est devenue la nouvelle donne des « chief investment officer » des compagnies

d’assurance de toutes tailles en Europe avec l’entrée en vigueur du nouveau régime

prudentiel. Il s’agit alors de construire l’Allocation Stratégique qui va permettre de

maximiser le rendement financier sous contraintes de SCR. Or une telle approche

dans la mesure où le SCR est homogène à une VaR à 99,5% s’apparente à une

modélisation de type Markowitz avec une complexité supplémentaire puisqu’elle

fait intervenir le Passif. Dans cet environnement, les ESG en Risque Neutre ne sont

pas efficaces dans la mesure où ils ne reflètent pas la situation réelle et peuvent

provoquer des erreurs stratégiques en matière de construction de l’Allocation Actif

/ Passif. Les ESG en risque réel sont dans ce contexte pertinents dans la mesure où

en simulant au plus juste le comportement des actifs particulièrement en période de

crise ils permettent au Responsable ALM de piloter au plus juste l’Allocation

Stratégique suivant des axes relatifs au rendement (Performance financière, PPE,

…) ou au risque (VaR99,5% , PRE, PDD, …)

- Pilotage de l’ORSA : L’ORSA (Own Risk and Solvency Assessment ou Évaluation

interne des risques et de la solvabilité) est un processus interne d’évaluation des

risques et de la solvabilité par l’organisme. Il doit illustrer la capacité de l’organisme

ou du groupe à identifier, mesurer et gérer les éléments de nature à modifier sa

solvabilité ou sa situation financière. Aussi, sa déclinaison opérationnelle en fait-

elle un outil stratégique de premier plan. Sur le plan quantitatif il s’agit pour le

Régulateur de pousser les Assureurs à « challenger » leurs calculs de SCR au moyen

d’une évaluation au plus juste des risques réels pris. Par exemple dans le cas des

Actions cotées Zone Euro, le régulateur en formule standard considère ces actifs

comme « Equity Type I » et sont affectés d’un SCR de 39%. Avec l’ORSA les

Assureurs devront modéliser au plus juste le comportement de ces actifs en

portefeuilles suivant des critères qui soient le plus fidèles que possible au risque réel

Page 14: Développement et utilisation d’un - Institut des actuaires

14

c’est-à-dire au risque historique. Dans ces circonstances un ESG en risque réel

constituera un atout décisif pour l’assureur car à contrario de l’ESG Risque Neutre

qui modélise suivant des distributions Gaussienne, l’ESG en risque réel se doit à

priori de bien matérialiser les queues de distribution des différents actifs.

ALAMO est un générateur de scénarios économiques et financier (« ESG ») en « risque réel »

dont le développement s’est étalé sur plusieurs années qui ont alterné avancées rapides et contre

temps aussi bien techniques (résolution du problème de l’autocorrélation et des queues de

distribution) qu’administratifs (Audit interne de la Direction des Risques, Audit externe

effectué par l’ACPR). Néanmoins ces contres temps administratifs ont été à l’origine de bonds

techniques significatifs du Générateur de Scénarios. En effet, ce dernier a connu des

améliorations sensibles aussi bien techniques (résolution des problèmes de clusters de volatilité

et de corrélations) qu’informatiques (division par 3 du temps d’exécution et multiplication par

1000 du nombre de scénarios générés).

Le générateur en risque réel A.L.A.M.O. qui fait l’objet de la partie II de ce mémoire a pour

objectif de projeter des scénarios qui soient cohérents par rapport au comportement historique

des actifs.

Afin de simuler le comportement d’un ensemble d’actifs qui soit en « adéquation » avec

l’historique, nous suivront les moments suivants :

- La moyenne (ou drift)

- La volatilité

- La Skewness

- L’Excess Kurtosis

- L’autocorrélation d’ordre 1

- Les corrélations entre actifs

L’ESG ALAMO dont on détaillera le développement dans ce mémoire n’est pas un modèle « a

proprement parlé » académique. L’objectif de cet ESG est de reproduire certaines propriétés de

l’historique en vu de répondre à des Appels d’Offres nécessitant de gérer des fonds de rentes

fermés.

Nous détaillerons dans la prochaine partie le cahier des charges auquel devra satisfaire ALAMO

en analysant le comportement des actifs représentatifs (actions et obligations qui représentent

plus de 90% des engagements à l’actif) que nous souhaitons répliquer.

Une fois le cahier des charges explicité, nous décrirons les principales étapes du développement

de l’outil. L’ESG ALAMO ne repose pas sur un modèle académique, mais sur une analyse

avant tout basée sur une observation et une connaissance des marchés financiers

Néanmoins si l’outil en lui-même n’est pas « académique », les modèles qui le composent

(Cholesky, GARCH, …) font l’objet pour la plupart d’entre eux, d’une littérature abondante.

La difficulté de l’exercice a consisté à faire cohabiter ces modèles afin de répondre aux besoins

Page 15: Développement et utilisation d’un - Institut des actuaires

15

spécifiques de la réponse aux Appels d’Offres dont nous étudierons un exemple détaillé dans

la partie 4.

La nécessité de devoir satisfaire aux contraintes sera aussi à l’origine de nombreuses limites de

l’outil (séries fortement auto corrélées, Excess-Kurtosis très élevée…) que nous expliciterons

dans la partie 3.

Dans la partie 4, nous détaillerons un exemple de réponse à un Appel d’Offres qui permettra de

montrer comment l’ESG ALAMO est utilisé sur des problématiques d’Allocation Actif / Passif.

Cette partie nous donnera aussi l’occasion de nous attaquer sur une des limites d’ALAMO à

savoir le calage des moments à respecter et de proposer une méthodologie de calibration

cohérente avec l’historique et les conditions macroéconomiques au moment de la simulation.

Page 16: Développement et utilisation d’un - Institut des actuaires

16

2. Développement de l’ESG en Risque Réel A.L.A.M.O.

2.1. Présentation générale de l’environnement de simulation

2.1.1. Définition de la période de référence et des hypothèses générales de

projection

Nous prendrons comme période de référence des observations historiques, la période allant de

1994 à 2017 pour les deux raisons suivantes :

- Nous disposons d’un historique commun pour tous ces actifs

- Le milieu des années 1990 marque le début de l’intégration Européenne des

différents pays de la Zone Euro : En effet simuler des tirages conformes à un

historique n’a de sens que si les conditions économiques et politiques qui régissent

ce dernier est en phase avec la situation qui prévaut à la date à partir de laquelle se

feront les projections. Si par exemple on souhaite projeter à partir du 31 Décembre

2017 les taux Allemands sur la période de référence 1920 – 1925, ça serait possible

mais cela n’aurait aucun sens macroéconomique dans la mesure où le modèle

Allemand actuel n’a rien à voir avec celui qui prévalait dans les années 20

(Hyperinflation, système bancaire en quasi faillite, …)

Nous projetterons ces actifs sur 30 ans en pas trimestriel :

- Une projection sur 30 ans est en phase avec la vision «long terme» des Assureurs

Vie

- L’utilisation d’un pas trimestriel est réaliste par rapport aux échéances que doivent

respecter les Assureurs Vie (Paiement des rentes, encaissement des primes,

production des états QRT)

2.1.2. Présentation des actifs à projeter

Afin d’aider le lecteur à suivre les grandes étapes du développement de l’ESG A.L.A.M.O.,

nous allons illustrer celles-ci avec la simulation des 5 actifs suivants :

- Taux 2 ans gouvernemental Français (OAT 2 ans)

- Taux 10 ans gouvernemental Français (OAT 10 ans)

- Taux 30 ans gouvernemental Français (OAT 30 ans)

- Actions Françaises (CAC 40)

- Actions Américaines (DJIA)

Cet exemple a été choisi pour être suffisamment simple en vue d’aider le lecteur à comprendre

les transformations implémentées dans l’ESG ALAMO tout en présentant des situations

suffisamment variées pour lui permettre d’en comprendre les enjeux.

Nous modéliserons par ailleurs les actifs avec des lois Normales et Lognormales en y

introduisant des coefficients d’asymétrie et d’aplatissement. Cette hypothèse forte est certes

réductrice (d’autres lois peuvent être testées comme la loi de Poisson, la loi de Pearson) mais

représente une belle avancée par rapport aux modèles académiques implémentés en salles de

marchés pour pricer les dérivés et qui reposent sur des Gaussiennes.

Page 17: Développement et utilisation d’un - Institut des actuaires

17

2.1.3. Focus sur les actions

L’univers des actifs présentés dans le paragraphe ci-dessus comporte 2 indices actions : l’indice

phare de la bourse de Paris (CAC 40) et l’indice phare de la bourse de New York (Dow Jones

– DJIA)

Le graphique ci-dessous présente les évolutions respectives de ces indices du 31 Décembre

1994 au 21 Décembre 2017.

Source : Bloomberg

Le suivi de la valorisation des indices est intéressant mais dans l’optique d’effectuer des

simulations, les performances des indices sur chaque pas de projection sont plus pertinents à

analyser. Si on note Pt la valeur de l’indice à la date t, alors la performance discrétisée à cette

même date t s’obtient simplement :

Le graphique ci-dessous représente l’évolution des performances trimestrielles qui se déduisent

des valorisations :

𝑟𝑡 =𝑃𝑡𝑃𝑡−1

− 1

Page 18: Développement et utilisation d’un - Institut des actuaires

18

2.1.4. Focus sur les taux

L’univers des actifs présentés dans le paragraphe 2.1.2. comporte trois séries de taux d’intérêts :

Le taux gouvernemental français à 2 ans (OAT 2 ans), le taux gouvernemental français à 10 ans

(OAT 10 ans) et le taux gouvernemental français à 30 ans (OAT 30 ans).

Le graphique ci-dessous présente les évolutions respectives de ces indices du 31 Décembre

1994 au 21 Décembre 2017.

Source : Bloomberg

Contrairement aux indices actions dont nous calculons les performances entre deux périodes,

pour ce qui concerne les niveaux de taux d’intérêts, les variations de taux d’intérêts sur une

période dt ne nous intéresseront pas dans la mesure où ALAMO comme nous le verrons plus

loin ne simule pas les taux suivant les modèles académiques standards de diffusion (Black,

Vacisek, Cox-Ingersoll-Ross, Hull & White,…)

Page 19: Développement et utilisation d’un - Institut des actuaires

19

2.1.5. Calcul des moments caractéristiques des indices présentés

Les graphiques présentés dans les paragraphes 2.1.3 et 2.1.4 font apparaître des propriétés

visuelles qui seront quantifiés au travers des moments que nous allons définir.

- Drift (μ) : Nous définirons le drift comme étant la moyenne arithmétique des

rendements ri observés. Si on note n, le nombre d’observations, le Drift sera défini

comme suit :

𝜇 =1

𝑛∑𝑟𝑖

𝑛

𝑖=1

En pratique, si on note X, le vecteur des performances ri, dans le développement

d’ALAMO, la fonction Excel/VBA utilisée sera « MOYENNE (X) »

- Volatilité (σ) : Nous définirons la volatilité comme étant l’écart type des rendements

ri observés. La volatilité sera définie comme suit :

𝜎 = √1

𝑛 − 1∑(𝑟𝑖

𝑛

𝑖=1

− 𝜇)²

En pratique, dans le développement d’ALAMO, la fonction Excel/ VBA utilisée sera

« STDEVA (X) »

- Skewness (S) : Ce moment désigne le Coefficient d’Asymétrie (S) d’une

distribution par rapport à la loi normale qui aura par définition un Coefficient

d’Asymétrie nul : Nous définirons la Skewness comme suit :

S =n

(𝑛 − 1)(𝑛 − 2)∑

(𝑟𝑖 − 𝜇)3

σ3

𝑛

𝑖=1

En pratique, dans le développement d’ALAMO, la fonction Excel/VBA qui sera

utilisée sera « COEFFICIENT.ASYMETRIE (X) »

- Excess Kurtosis ou Coefficient d’Aplatissement (K) : Ce moment mesure

l’épaisseur de la queue de distribution relativement à la loi normale dont l’Excess

Kurtosis sera égale à 0 par construction. On rappelle que la Kurtosis d’une loi

normale vaut 3.

K =(n + 1)n

(𝑛 − 1)(𝑛 − 2)(𝑛 − 3)∑

(𝑟𝑖 − 𝜇)4

σ4

𝑛

𝑖=1

− 3(n − 1)²

(𝑛 − 2)(𝑛 − 3)

En pratique, dans le développement d’ALAMO, la fonction utilisée sera

«KURTOSIS(X)». Il s’agit d’un «abus de notation» car la fonction

«KURTOSIS (X)» ne mesure pas la Kurtosis en absolue mais l’Excess Kurtosis.

La distribution peut prendre deux formes suivant la valeur de K :

Page 20: Développement et utilisation d’un - Institut des actuaires

20

o Lorsque -3 < K < 0, la distribution est dite platikurtique : les phénomènes

extrêmes sont moins représentés que dans le cas de la loi normale.

o Lorsque K > 0, la distribution est dite leptokurtique : les phénomènes

extrêmes sont plus représentés que la loi normale. C’est le cas le plus

fréquent dans le monde de la finance.

- Coefficient de Corrélation entre 2 actifs « X » et « Y » (ρX,Y) : Dans ce mémoire,

on s’intéressera au coefficient de corrélation linéaire (que l’on appellera par abus de

langage coefficient de corrélation) qui mesure l'intensité affine de la liaison qui peut

exister entre ces variables « X » et « Y ». Deux variables aléatoires peuvent en effet

avoir un coefficient de corrélation linéaire égal à 0 et être « parfaitement corrélées »

(exemple X et Y = X²). De ce fait par abus de langage, lorsque deux actifs ont un

coefficient de corrélation linéaire proche de 0, on dira que ceux-ci ne sont pas

corrélés. Si on note ri la performance de l’actif X à la date Ti et r’i la performance de

l’actif Y à la date Ti, le coefficient de corrélation s’écrit :

𝜌𝑋,𝑌 =∑ (𝑟𝑖 − 𝜇)(𝑟′𝑖 − 𝜇′)

𝑛

𝑖=1

√∑ (𝑟 𝑖

𝑛

𝑖=1− 𝜇)²∑ (𝑟′

𝑖

𝑛

𝑖=1− 𝜇′)²

En pratique, dans le développement d’ALAMO, la fonction Excel/VBA qui sera

utilisée sera « COEFFICIENT.CORRELATION (X ; Y) »

- Coefficient d’Autocorrélation d’ordre 1 (ρ) : Il s’agit du coefficient de corrélation

entre une série temporelle caractérisant l’évolution de l’actif avec cette même série

temporelle translatée d’une période.

Les expressions des moments présentés ci-dessus nous permettent d’en déduire leurs valeurs

numériques pour les différents actifs présentés dans le paragraphe 2.1.2.

μ σ S K ρCAC 40 1,02% 10,32% -0,79 1,06 0,18

DJIA 30 1,65% 8,49% -0,90 1,00 0,12

OAT 2 Ans 2,46% 2,00% 0,14 -0,71 0,98

OAT 10 Ans 3,78% 1,82% -0,05 -0,14 0,98

OAT 30 Ans 4,17% 1,32% -0,75 -0,21 0,97

ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans

CAC 40 1,00 0,69 -0,05 -0,02 0,00

DJIA 30 0,69 1,00 -0,09 -0,02 -0,08

OAT 2 Ans -0,05 -0,09 1,00 0,95 0,82

OAT 10 Ans -0,02 -0,02 0,95 1,00 0,89

OAT 30 Ans 0,00 -0,08 0,82 0,89 1,00

Page 21: Développement et utilisation d’un - Institut des actuaires

21

2.2. Définition du cahier des charges de l’ESG A.L.A.M.O.

2.2.1. Introduction

Dans la partie 2.1, nous avons présenté l’environnement général de simulation au travers :

- De la définition de l’horizon de simulation

- Du pas de projection

- De l’identification des principaux actifs à simuler

- De l’analyse des propriétés mathématiques de ces actifs au travers du calcul des

moments

Cette partie a pour objet de mettre en lumière les moments calculés précédemment avec le

comportement historique observé de ces actifs et de répondre à des questions très pratiques du

type :

- Quel est l’impact d’une différence de Drift de 63 Bps (1 Bp = 0,01%) sur l’évolution

respective des actions Américaines et Françaises ?

- Comment un écart de près de 2% entre la volatilité des actions Américaines et celle

des actions Françaises impacte t’il non seulement les distributions des performances

mais aussi le trend de long terme pris par chacun des indices respectifs (CAC 40 et

DJIA) ?

- Comment se traduit concrètement une leptokurticité (Excess Kurtosis K > 0)

conjuguée à asymétrie négative (Skewness S < 0) sur les distributions des

performances des actions Françaises et Américaines ?

- Comment traduire au travers d’un indicateur mathématique simple le fait que les

séries temporelles des performances actions sont « accidentées » alors que celles des

valorisations de taux sont « lisses » ?

- Comment le coefficient de corrélation linéaire impacte il les distributions jointes

DJIA / CAC 40, OAT 10 ans / OAT 30 ans, CAC 40 / OAT 10 ans ?

- Comment se traduit concrètement un coefficient de corrélation de 0,69 qui existe

entre le DJIA et le CAC 40 sur la VaR à 95% (performance qui sépare les 5 plus

mauvaises performances observées des 95 autres) d’un portefeuille composé de 50%

d’actions Françaises et 50% d’actions Américaines ?

La VaR (Value at Risk) sera un indicateur très important pour évaluer la probabilité de faillite

d’un fonds de rentes fermé car il permet de définir la frontière entre les scénarios permettant au

fonds d’honorer les rentes (et même de verser de la participation aux bénéfices aux assurés) et

ceux (que l’on étudiera plus en détail dans l’application pratique) pour lesquels l’Entreprise qui

a délégué la gestion du fonds devra verser des capitaux supplémentaires pour honorer ses

engagements.

Page 22: Développement et utilisation d’un - Institut des actuaires

22

2.2.2. Interprétation des moments au travers de l’analyse des distributions

- Distribution des performances du CAC 40

Le graphique ci-dessous permet de visualiser la distribution des performances trimestrielles

historiques observées sur le CAC 40.

On observe que :

o Les performances relativement à d’autres actifs (taux) que nous verrons plus loin

s’écartent sensiblement de la performance moyenne : Cette observation empirique

est matérialisée par la volatilité (σ = 10,32%) qui mesure la dispersion des

performances par rapport au drift.

o Relativement à la loi normale de paramètres μ et σ, N(μ,σ), on observe une

surpondération des performances « fortement négatives ». Cela se matérialise

mathématiquement par une Skewness négative (S = - 0,79) et un Excess Kurtosis

positif (K = + 1,06)

o On observe une surpondération des rendements inférieurs à μ – σ (15 observations

dans l’histogramme rouge) par rapport aux rendements supérieurs à μ + σ (13

observations dans l’histogramme vert).

Page 23: Développement et utilisation d’un - Institut des actuaires

23

- Distribution des performances du DJIA

Le graphique ci-dessous permet de visualiser la distribution des performances trimestrielles

historiques observées sur le DJIA.

On observe que :

o Les performances relativement à d’autres actifs (taux) que nous verrons plus loin

s’écartent sensiblement de la performance moyenne : Cette observation empirique

est matérialisée par la volatilité (σ = 8,49%) qui mesure la dispersion des

performances par rapport au drift.

o Relativement à la loi normale de paramètres μ et σ, N(μ,σ), on observe une

surpondération des performances « fortement négatives ». Cela se matérialise

mathématiquement par une Skewness négative (S = - 0,90) et un Excess Kurtosis

positif (K = + 1,00).

o On observe une surpondération des rendements inférieurs à μ – σ (14 observations

dans l’histogramme rouge) par rapport aux rendements supérieurs à μ + σ (13

observations dans l’histogramme vert).

Page 24: Développement et utilisation d’un - Institut des actuaires

24

- Distribution des taux de l’OAT 2 ans

Le graphique ci-dessous permet de visualiser la distribution des taux sur l’OAT 2 ans.

On observe que :

o Les niveaux de taux relativement aux performances d’autres actifs (actions) que

nous avons vu plus haut s’écartent peu du taux moyen : Cette observation empirique

est matérialisée par la volatilité (σ = 2%) qui mesure la dispersion des performances

par rapport au drift.

o Relativement à la loi normale de paramètres μ et σ, N(μ,σ), on observe une sous

pondération des valeurs extrêmes. Cela se matérialise mathématiquement par une

un Excess Kurtosis négatif (K = - 0,71).

o On observe une surpondération des rendements supérieurs à μ + σ (25 observations

dans l’histogramme vert) par rapport aux rendements inférieurs à μ - σ (14

observations dans l’histogramme vert). Cela se matérialise mathématiquement par

une Skewness positive (S = + 0,14).

- Distribution des taux de l’OAT 10 ans

Le graphique ci-dessous permet de visualiser la distribution des taux sur l’OAT 10 ans.

Page 25: Développement et utilisation d’un - Institut des actuaires

25

On observe que :

o Les niveaux de taux relativement aux performances d’autres actifs (actions) que

nous avons vu plus haut s’écartent peu du taux moyen : Cette observation empirique

est matérialisée par la volatilité (σ = 1,82%) qui mesure la dispersion des

performances par rapport au drift.

o Relativement à la loi normale de paramètres μ et σ, N(μ,σ), on observe une sous

pondération des valeurs extrêmes. Cela se matérialise mathématiquement par une

un Excess Kurtosis négatif (K = - 0,14).

o On observe une très légère surpondération des rendements inférieurs à μ - σ (13

observations dans l’histogramme rouge) par rapport aux rendements supérieurs à μ

+ σ (12 observations dans l’histogramme vert). Cela se matérialise

mathématiquement par une Skewness très légèrement négative (S = - 0,05).

- Distribution des taux de l’OAT 30 ans

Le graphique ci-dessous permet de visualiser la distribution des taux sur l’OAT 30 ans.

On observe que :

o Les niveaux de taux relativement aux performances d’autres actifs (actions) que

nous avons vu plus haut s’écartent peu du taux moyen : Cette observation empirique

est matérialisée par la volatilité (σ = 1,32%) qui mesure la dispersion des

performances par rapport au drift.

o Relativement à la loi normale de paramètres μ et σ, N(μ,σ), on observe une sous

pondération des valeurs extrêmes. Cela se matérialise mathématiquement par une

un Excess Kurtosis négatif (K = - 0,21).

o On observe une surpondération des rendements inférieurs à μ - σ (34 observations

dans l’histogramme rouge) par rapport aux rendements supérieurs à μ + σ (15

observations dans l’histogramme vert). Cela se matérialise mathématiquement par

une Skewness négative (S = - 0,75).

Page 26: Développement et utilisation d’un - Institut des actuaires

26

2.2.3. Impact du Skewness et de l’Excess Kurtosis sur les distributions

L’analyse des distributions de taux nous montrent que :

o Lorsque la volatilité des actifs est faible, l’impact du Skewness et de l’Excess

Kurtosis sont à relativiser dans la mesure où ces quantités sont normalisées par la

volatilité.

o Lorsque l’Excess Kurtosis est négative, c’est-à-dire lorsque l’on observe une sous

pondération des valeurs extrêmes par rapport à la loi Normale, le rôle de la

Skewness devient minime dans la mesure où même si par exemple on observe une

asymétrie négative, le poids de ces valeurs restera plus faible que ce qui prévaut

dans le cas d’une loi Normale.

En conclusion, plus la volatilité et l’Excess Kurtosis tendent à être élevés et plus le Skewness

revêt son importance. C’est le cas des indices actions : ces derniers ont une volatilité

importante et présentent des queues épaisses : de ce fait plus la Skewness est négative et plus

on enregistre une probabilité d’avoir des performances extrêmement mauvaises (de l’ordre de

-20% ou -30%) est importante. Cela a un impact non négligeable en matière de gestion des

risques :

o Lorsque un actif perd 20 % entre T et T + 1, il lui faut enregistrer une performance

égale à 1 / (1 – 20%) soit +25% entre T + 1 et T + 2 pour revenir à l’équilibre.

o Lorsque un actif perd 30 % entre T et T + 1, il lui faut enregistrer une performance

égale à 1 / (1 – 30%) soit +42,85% entre T + 1 et T + 2 pour revenir à l’équilibre

2.2.4. Rôle du drift et de la volatilité dans la valorisation des indices actions

- Impact du drift dans sur l’évolution de la valeur de l’indice actions

Nous avons observé dans le paragraphe 2.1.5 que les performances trimestrielles arithmétiques

moyennes (ou Drift) du CAC 40 et du DJIA s’élèvent respectivement à 1,02% et 1,65%. Il en

résulte une sur performance du DJIA de 0,63% par rapport au CAC 40. Mais concrètement que

traduit cet écart de performance sur le long terme dans la valorisation d’un fonds composé soit

de produits financiers indexés sur le CAC 40 soit de produits financiers indexés sur le DJIA ?

Pour effectuer la comparaison, il nous faut se mettre au début de la période historique

d’observations (31/12/1994) et « re baser » (en base 100 par exemple) les deux courbes

représentatives de ces indices.

Page 27: Développement et utilisation d’un - Institut des actuaires

27

On obtient ainsi le graphique suivant :

Un écart de 0,63% sur le drift trimestriel se traduit après 23 ans d’observations par un écart de

valorisation de près de 166 points !

En partant de 100 au 31/12/2014, l’Indice CAC 40 coterait 160,49 au 31/12/2017 tandis que le

DJIA coterait 326,35. En pourcentage, le DJIA enregistrerait une surperformance cumulée de

plus de 100 % par rapport au CAC 40.

Cet exemple simple démontre à quel point le drift est primordial dans la valorisation d’un

portefeuille et qu’un écart même minime peut avoir de très grosses conséquences en raison de

la composition des performances.

- Impact de la volatilité sur l’évolution de la valeur de l’indice actions

Les paragraphes précédents ont montré que :

o Le drift avait un impact considérable sur l’évolution de la valorisation des indices

o La volatilité, jouait un rôle déterminant dans la forme des distributions et donc dans

le calcul de la VaR

o La Skewness et l’Excess Kurtosis jouaient un rôle plus ou moins important dans la

forme des distributions en fonction de l’importance de la volatilité

Les rôles joués par le drift sur la valorisation des indices et par la volatilité sur la forme de la

distribution sont intuitifs.

Nous allons maintenant quantifier un impact qui est moins intuitif à savoir celui de la volatilité

sur la tendance de long terme des indices actions. Pour ce faire nous allons reprendre les

exemples du DJIA et du CAC 40. Nous avons observé qu’en base 100, le DJIA surperformait

le CAC 40 de plus de 100% sur une période d’observations de 23 ans.

Page 28: Développement et utilisation d’un - Institut des actuaires

28

Reprenons les séries temporelles des performances de ces deux indices en les centrant autour

de 0%. De ce fait les performances trimestrielles du CAC 40 seront diminuées de 1,02% et

celles du DJIA de 1,65%. Nous obtenons ainsi 2 nouvelles séries temporelles centrées en 0. En

les appliquant à chacun des indices du DJIA et du CAC 40 valorisés à 100 au 31/12/1994, on

obtient le graphique suivant :

Sur le graphique de gauche, on n’observe pas de différence notable entre les valeurs prises par

le DJIA et le CAC 40 au 31/12/2017. Néanmoins, l’échelle est « écrasée » en raison des grandes

variations qu’ont connu ces deux indices lors des crises de 2001 / 2002 et 2007 / 2008. En

zoomant les variations intervenues sur les 2 dernières années, on obtient le graphique de droite.

On observe sur ce graphique de droite un écart de valorisation au 31/12/2017 non négligeable

avec un CAC 40 qui vaut 62,46 contre un DJIA qui en vaut 71,59 soit presque 15% de plus.

Si on note Δ, la surperformance annuelle du DJIA relativement au CAC 40 sur les 23 ans

d’observations, on a la relation suivante :

62,46 ∗ (1 + Δ)23 = 71,59

Ce qui nous donne :

Δ = (71,59

62,46)1/23

− 1

Soit Δ = 0,60%

En d’autres termes, même en centrant les performances du DJIA et du CAC 40 afin d’obtenir

un drift égal à 0 pour les 2 indices, la différence de volatilité trimestrielle (10,32% pour le CAC

40 et 8,49% pour le DJIA) engendre sur cette période de 23 années d’observations une

surperformance annualisée du DJIA relativement au CAC 40 de 0,60 % !!

En d’autres termes, la volatilité agit non seulement sur la forme de la distribution des

performances et donc de la VaR mais aussi sur la tendance d’évolution de l’indice !

0

50

100

150

200

250

300

déc.

-19

94

mai

-19

96

oct.

-199

7

mar

s-1

99

9

ao

ût-

20

00

jan

v.-

20

02

juin

-20

03

no

v.-

20

04

avr.

-200

6

sept

.-20

07

févr

.-20

09

juil.

-201

0

déc.

-20

11

ma

i-20

13

oct.

-201

4

ma

rs-2

01

6

aoû

t-2

01

7

Evolutions respectives du CAC 40 et du DJIA centrés et valorisés en base 100 au 31/12/2014

CAC 40 centré Base 100 au 31/12/2014

DJIA centré Base 100 au 31/12/2014

50

55

60

65

70

75

Page 29: Développement et utilisation d’un - Institut des actuaires

29

Cette observation constatée sur cet exemple peut se démontrer mathématiquement lorsque l’on

se place dans un environnement en pas de temps continu (dt → 0)

Pour ce faire on note :

o Wt, un mouvement Brownien

o Pt, la valorisation de l’indice à la date t (Po, valorisation de l’indice à la date t = 0)

o μ, le drift de la série temporelle des performances de l’indice

o σ, la volatilité des de la série temporelle des performances de l’indice

On supposera que Wt suit un mouvement brownien géométrique très souvent utilisé comme

modèle d’évolution des cours de bourse. Pt et Wt seront liés par l’équation différentielle

stochastique ci-dessous :

dPt = μ Pt dt+ σ St dWt

Afin de faciliter l’intégration de l’équation différentielle stochastique, on pose: f(St,t) = ln Pt

Le Lemme d’Itô permet de construire une relation liant la nouvelle fonction f aux autres :

𝑑𝑓(𝑃𝑡 , 𝑡) =𝜕𝑓

𝜕𝑡(𝑃𝑡 , 𝑡)𝑑𝑡 +

𝜕𝑓

𝜕𝑃(𝑃𝑡 , 𝑡)𝑑𝑃𝑡 +

1

2σ²𝜕2𝑓

𝜕𝑃2(𝑃𝑡 , 𝑡)𝑑𝑡

On a donc dans le cas particulier de la transformation logarithme népérien :

𝑑(𝑙𝑛(𝑃𝑡 , 𝑡)) = 0𝑑𝑡 +1

𝑃𝑡𝑑𝑃𝑡 +

1

2(σ𝑃𝑡)² (−

1

(𝑃𝑡)²) 𝑑𝑡

Soit en remplaçant dPt par son expression initiale :

𝑑(𝑙𝑛(𝑃𝑡 , 𝑡)) =1

𝑃𝑡(μ 𝑃𝑡 dt + σ 𝑃𝑡 d𝑊𝑡) −

1

2σ²𝑑𝑡

Soit en ordonnant les termes en dt et ceux en dWt :

𝑑(𝑙𝑛(𝑃𝑡 , 𝑡)) = (μ −1

2σ²)𝑑𝑡 + σd𝑊𝑡

En intégrant cette expression on obtient in fine:

𝑃𝑡 = 𝑃0. 𝑒𝑥𝑝 ((μ −1

2σ2)𝑑𝑡 + σd𝑊𝑡)

La relation ci-dessus que vérifie la valorisation de l’indice, démontre que la volatilité impacte à la fois la dispersion des performances mais aussi le trend central que suit l’indice puisque la volatilité σ apparait aussi aux côtés du drift μ

La relation ci-dessus démontre aussi que la volatilité impacte toujours négativement la valorisation moyenne de l’indice boursier.

Ce paragraphe démontre à quel point la volatilité au même titre que le drift est primordial dans la valorisation d’un portefeuille et qu’un écart même minime peut avoir de très grosses conséquences en raison de son implication dans la dispersion (et donc dans la VaR) et dans la tendance centrale.

Page 30: Développement et utilisation d’un - Institut des actuaires

30

2.2.5. Importance de l’autocorrélation sur les taux d’intérêt

- Analyse des séries temporelles centrées réduites des performances du CAC 40 et du

niveau de l’OAT 10 ans :

Afin d’exclure les impacts de la volatilité et du drift sur les séries temporelles « Performance

CAC 40 » et « Niveau OAT 10 ans », nous allons centrer et réduire les séries.

Si on se place à la date t, les transformations à appliquer sont les suivantes :

o 𝑟′𝐶𝐴𝐶40(𝑡) =𝑟𝐶𝐴𝐶40(𝑡)−𝜇𝐶𝐴𝐶40

𝜎𝐶𝐴𝐶40

o 𝑟′𝑂𝐴𝑇10𝑎𝑛𝑠(𝑡) =𝑟𝑂𝐴𝑇10𝑎𝑛𝑠(𝑡)−𝜇𝑂𝐴𝑇10𝑎𝑛𝑠

𝜎𝑂𝐴𝑇10𝑎𝑛𝑠

On obtient ainsi le graphique suivant :

Sur le plan visuel, on observe une différence notable entre les deux courbes :

- Celle qui représente les performances centrées réduites du CAC 40 est

« accidentée »

- Celle qui représente les taux centrés réduits de l’OAT 10 ans est « lisse »

Pourtant les moments d’ordre 1 et 2 de ces deux séries sont rigoureusement identiques égaux à

0 pour le drift et 1 pour la volatilité.

Page 31: Développement et utilisation d’un - Institut des actuaires

31

- Stratégie utilisée par un ESG avant le développement d’ALAMO

Avant le développement d’ALAMO, nous utilisions un ESG externe connu sur la place que

nous appellerons « Provider » qui pour éviter aux taux de diverger procédait à un cap 5% / floor

0%. On obtient le graphique ci-dessous :

- Rôle de l’autocorrélation dans le « lissage » des séries temporelles

Les résultats obtenus ne sont absolument pas satisfaisant car en plus d’avoir des taux qui évitent

de diverger, il nous faut simuler une série temporelle dont la valeur à l’instant t + 1 dépend en

partie de sa valeur aux instants t, t – 1, t – 2, …

En d’autres termes sur les performances actions, la probabilité d’observer une valeur à t + 1 se

mettra sous la forme :

P[rt+1] = Pactions

Sur les taux, cette même probabilité s’écrira :

P[rt+1] = α1 . P[rt+1| rt] + α2 . P[rt+1| rt-1] + α3 . P[rt+1| rt-2]+…+Ptaux

Ce phénomène est matérialisé par le coefficient d’autocorrélation.

Page 32: Développement et utilisation d’un - Institut des actuaires

32

2.2.6. Impact des corrélations sur la solvabilité d’un fonds

- Analyse des distributions jointes CAC 40 / DJIA

Afin de visualiser comment se comporte la distribution des performances du DJIA relativement

à celles du CAC 40 sur une même période, nous construisons le graphique ci-dessous :

On constate qu’une grande partie des performances du DJIA peuvent s’expliquer par celles du

CAC 40 et vice et versa. Cela se matérialise par le coefficient de détermination R² qui s’élève

à près de 0,5. Le coefficient de corrélation calculé dans le paragraphe 2.1.5 s’élève à 0,69.

Néanmoins il est difficile de construire un ESG qui va reproduire des distributions respectant

le critère R² car pour un même R², on peut avoir deux coefficients de corrélation voisins en

valeur absolue mais de signe opposés : le niveau de R donne une indication sur la robustesse de

la relation linéaire

Plus concrètement si l’on considère un portefeuille actions Πa ayant 50% d’actions DJIA et

50% d’actions CAC40, on essaie de calculer la perte moyenne que subirait le portefeuille dans

les configurations où les performances du CAC sont inférieures à 10% (On note cette quantité

ES pour désigner le terme de « Expected Shortfall », on aurait le tableau suivant qui regroupe

les performances concernées :

On aurait alors

ES (Πa | rCAC40 < 10%) = 50 %*μ(CAC40 | rCAC40 < 10%)+50%*μ(DJIA | rCAC40 < 10%)

Comme le portefeuille est équipondéré en actions CAC 40 et DJIA, il suffit de calculer la

performance moyenne des cellules du tableau ci-dessus.

31

/03

/19

95

31

/12

/20

00

30

/09

/20

01

31

/12

/20

01

30

/09

/20

02

31

/03

/20

03

31

/03

/20

08

30

/09

/20

08

31

/12

/20

08

31

/03

/20

09

30

/09

/20

11

30

/06

/20

12

31

/03

/20

16

CAC 40 -10,07% -28,52% -14,03% -29,54% -21,26% -17,22% -15,52% -11,14% -26,76% -19,17% -19,05% -12,15% -12,81%

DJIA 8,45% -20,72% -15,75% -26,73% -17,86% -4,20% -7,55% -4,40% -19,12% -14,36% -11,90% -2,51% 0,85%

Page 33: Développement et utilisation d’un - Institut des actuaires

33

On a donc : ES (Πa | rCAC40 < 10%) = – 14,35 %

Si les actions du DJIA et du CAC40 n’avaient aucune relation de corrélation, la performance

moyenne du CAC40 conditionnellement aux rendements moyens devant satisfaire une

performance inférieur à -10% s’obtient en calculant la moyenne de la première ligne du tableau

ci-dessus. On a μ(CAC40 | rCAC40 < 10%) = -18,25 %

Dans l’hypothèse où le DJIA ne serait pas corrélé au CAC 40, on aurait :

μ(DJIA | rCAC40 < 10%) = μ(DJIA) = + 1,65 %

En effet en l’absence de corrélations entre CAC40 et DJIA, il n’y a aucune raison à ce que la

performance moyenne du DJIA aux dates où la performance du CAC 40 a été inférieur à -10%

ne corresponde pas à la performance moyenne du DJIA sur l’ensemble de l’historique.

On aurait donc :

ES (Πa | rCAC40 < 10%) = 50 %*(-18,25%)+50%*(+1,65%) = – 8,30 %

En conclusion, sur les Actions CAC 40 et DJIA, la corrélation existant entre ces deux indices,

en plus de modifier la structure graphique de dépendance des distributions jointes impacte

sensiblement un portefeuille équipondéré de ces deux indices : En cas de crise provoquant une

chute de plus de 10% des actions CAC40, le portefeuille équipondéré enregistre une perte de

-14,35% contre -8,30% en l’absence de corrélations. La présence de corrélations CAC 40 et

DJIA est donc responsable des -6,05% de pertes (-14,35 % - (-8,30%))

- Analyse des distributions jointes CAC 40 / OAT 10 ans

Afin de visualiser comment se comporte la distribution des performances du CAC40

relativement aux taux OAT 10 ans sur une même période, nous construisons le graphique ci-

dessous :

On observe graphiquement que le niveau des taux d’intérêt e l’OAT 10 ans n’a aucun pouvoir

explicatif sur les performances du CAC 40

Page 34: Développement et utilisation d’un - Institut des actuaires

34

- Analyse des distributions jointes OAT 2 ans / OAT 10 ans

Afin de visualiser comment se comporte la distribution des performances du CAC40

relativement aux taux OAT 10 ans sur une même période, nous construisons le graphique ci-

dessous :

Contrairement au graphique précédent, on observe ici une très forte corrélation entre le niveau

de l’OAT 2 ans et le niveau de l’OAT 10 ans. Avec un coefficient de corrélation de 0,95 et un

R² de 0,8943, on observe que près de 90% des variations de l’OAT 10 ans s’expliquent par

celles de l’OAT 2 ans. Cette relation n’est toutefois pas totale car il reste 10% des niveaux

d’OAT 10 ans qui ne s’expliquent pas au travers du niveau de l’OAT 2 ans. C’est ce qui

explique pourquoi une courbe de taux ne suit pas toujours des mouvements de translation mais

peut subir des mouvements de pentification, d’aplatissement voir d’inversion. C’est la raison

qui expliquera plus tard pourquoi l’ESG ALAMO n’utilisera pas des modèles de taux classiques

basés sur la diffusion du taux court (Vacisek, Nelson & Siegel,…) pour projeter des scénarios

de taux d’intérêts.

Page 35: Développement et utilisation d’un - Institut des actuaires

35

2.2.7. Récapitulatif du cahier des charges attendu pour l’ESG ALAMO

Ce paragraphe 2.2 nous a permets de dresser un état des lieux de ce que l’on attend de l’ESG

ALAMO pour générer des scénarios capables de mieux quantifier les risques pesant sur un

fonds de rentes fermés. Ces caractéristiques longuement décrites peuvent se résumer au travers

des points ci-dessous :

- En raison de l’importance du drift et de la volatilité, les scénarios devront en

moyenne avoir un drift et une volatilité égaux à ceux observés sur l’historique.

- Les actions tendent à présenter des queues épaisses de distribution avec des

asymétries négatives : l’ESG ALAMO devra donc produire des distributions ayant

des Excess Kurtosis positifs et des Skewness négatifs lorsque cela se justifie dans

l’historique en particulier pour les actions.

- Les taux d’intérêts ont des évolutions « lissées ». L’ESG ALAMO devra reproduire

ce type de variations de taux en générant notamment des séries présentant de forts

coefficients d’autocorrélation.

- Les indices actions évoluent de manière plus ou moins corrélés (CAC 40 et DJIA)

tandis que les points de taux évoluent de manière très corrélées : l’ESG ALAMO

devra répliquer ces phénomènes d’évolution des différents actifs pouvant évoluer

soit de manière indépendante soit en « osmose ». La réplication de ce phénomène

passera par la nécessité de générer des scénarios dont le coefficient de corrélation

linéaire se rapproche le plus possible de celui observé dans l’historique.

Page 36: Développement et utilisation d’un - Institut des actuaires

36

2.3. Génération de Browniens Gaussiens centrés réduits

2.3.1. Introduction

Comme précisé dans le paragraphe 2.2, l’ESG ALAMO doit générer des scénarios qui en

moyenne convergent vers les moments historiques suivants : Drift, Volatilité, Skewness,

Excess Kurtosis, Corrélations, Autocorrélations

Afin d’arriver à ce résultat, le premier challenge consistera à générer des mouvements

Browniens c’est-à-dire des nombres aléatoires car si les scénarios doivent en moyenne

converger, chaque scénario doit avoir une trajectoire propre. En effet comme expliqué dans le

paragraphe 2.1 si la gestion d’un fonds de rentes fermées devait se réduire à l’analyse de la

tendance centrale, le développement d’un ESG n’apporterait rien. Le rôle de l’ESG est de

déterminer les situations pour lesquels le fonds peut faire défaut et de quantifier les poids.

2.3.2. Structure de l’ESG A.L.A.M.O.

Chaque actif sera représenté comme une variable aléatoire qui sera structurée autour d’une Loi

Normale. En effet même si nous avons démontré que les distributions historiques n’ont pas

toujours un comportement Gaussien, rien ne permet de démarrer une modélisation avec une Loi

plus pertinente que la Loi Normale. L’originalité dans la structuration d’A.L.A.M.O. se situe

au niveau de la modélisation de la courbe des taux. En effet, si une courbe de taux comporte 30

maturités, au lieu de simuler 1, 2 ou 3 maturités et d’appliquer un process de diffusion, nous

considèrerons chaque point de la courbe des taux comme un actif à part entière qui doit respecter

par rapport à son historique les critères décrits plus hauts.

2.3.3. Tirage des nombres aléatoires constitutifs de la graine de l’ESG

Afin de ne pas biaiser les transformations qui vont suivre dans les prochains paragraphes, nous

génèrerons des Browniens suivant chacun une Loi Normale Centrée Réduite. On aura donc pour

chacun des 5 actifs à simuler :

CAC 40 ~ N(0 ; 1)

DJIA ~ N(0 ; 1)

OAT 2 ans ~ N(0 ; 1)

OAT 10 ans ~ N(0 ; 1)

OAT 30 ans ~ N(0 ; 1)

Où N (0 ; 1) la loi normale centrée réduite dont on rappelle l’expression

𝑓(𝑟) =1

√2π𝑒12𝑟²

Avec f(r) qui désigne la densité de probabilité d’observer le rendement r

Page 37: Développement et utilisation d’un - Institut des actuaires

37

En pratique il ne s’agit pas de simuler des densités de probabilité mais des rendements. Pour se

faire, en pratique nous allons générer des nombres aléatoires uniformément répartis dans

l’intervalle] 0 ; 1[.

Sur ces nombres aléatoires, nous allons en inversant la fonction de répartition de la Loi Normale

centrée réduite en déduire des performances « aléatoires ». Ainsi pour chaque nombre aléatoire

pi tiré entre 0 et 1, on en déduit la performance ri qui satisfait la relation suivante :

𝑟𝑖 = 𝑓−1(𝑝𝑖)

En pratique, sur Excel et en VB, générer des performances aléatoires dont la densité de

probabilité suit une loi normale centrée réduite revient à faire tourner la fonction suivante :

LOI.NORMALE.STANDARD.INVERSE(ALEA( ))

2.3.4. Convergence des moments d’ordre 1 et 2

Dans le cas de l’étude du Fonds de rentes fermé, nous génèrerons 1,000 scénarios d’évolution

des actifs afin de ne pas alourdir les calculs. Le graphique ci-dessous est obtenu en calculant

l’espérance des N premiers scénarios générés pour chaque pas de projection allant du trimestre

numéro 1 au trimestre numéro 120 (horizon de 30 ans).

Le graphique ci-dessous est obtenu en calculant l’écart type des N premiers scénarios générés

pour chaque pas de projection allant du trimestre numéro 1 au trimestre numéro 120 (horizon

de 30 ans).

Page 38: Développement et utilisation d’un - Institut des actuaires

38

On constate que en générant 1,000 scénarios on obtient une convergence satisfaisante de

l’Espérance et de l’Ecart Type des browniens générés qui tendent respectivement vers 0 pour

l’Espérance et 1 pour l’Ecart Type.

On observe néanmoins qu’en dessous de 250 scénarios, la convergence n’est pas « flagrante ».

Si on avait été contraint de générer que 250 scénarios, on aurait généré les Browniens avec une

transformation de Box-Muller :

Dans notre étude, nous devons dans tous les cas générer pas moins de 1,000 scénarios car le

challenge sera non pas d’analyser l’espérance ou la variance mais de calculer des Value at Risk

avec des intervalles de confiance de l’ordre de 1% ou 2%. Or une génération de 250 scénarios

ne sera de tout de façon pas pertinente pour analyser des VaR 98% ou VaR 99%.

2.3.5. Calcul des moments

En calculant les moments des 1000 scénarios générés à ce stade pour chacun des 5 actifs, on

obtient les résultats suivants :

2.3.6. Limites et conclusions du processus de Wiener

On constate que nous sommes à ce stade très loin des moments calculés dans les tableaux du

paragraphe 2.1.5. Pour l’heure nous n’avons en effet que des distributions de rendements

gaussiens centrés réduits qui de plus :

- Ne sont pas corrélés entre eux

- Ne présentent pas de phénomènes d’autocorrélation

- Ne comportent pas d’asymétrie

- Ne comportent pas de queue de distribution

Si le respect des moments d’ordre 1 et 2 s’obtient simplement par translation et homothétie,

celui des autres moments sera plus complexe à obtenir. Dans le prochain paragraphe nous

chercherons à nous différentier de la Gaussienne de base en simulant des queues épaisses de

distribution.

μ σ S K ρCAC 40 0,00% 100,00% 0,00 0,00 0,00

DJIA 30 0,00% 100,00% 0,00 0,00 0,00

OAT 2 Ans 0,00% 100,00% 0,00 0,00 0,00

OAT 10 Ans 0,00% 100,00% 0,00 0,00 0,00

OAT 30 Ans 0,00% 100,00% 0,00 0,00 0,00

ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans

CAC 40 1,00 0,00 0,00 0,00 0,00

DJIA 30 0,00 1,00 0,00 0,00 0,00

OAT 2 Ans 0,00 0,00 1,00 0,00 0,00

OAT 10 Ans 0,00 0,00 0,00 1,00 0,00

OAT 30 Ans 0,00 0,00 0,00 0,00 1,00

Page 39: Développement et utilisation d’un - Institut des actuaires

39

2.4. Simulation de queues épaisses de distribution (Leptokurtiques)

2.4.1. Introduction

Le paragraphe précédent a mis en évidence les limites des distributions Gaussiennes car elles

tendent à sous-estimer les phénomènes extrêmes ce qui peut s’avérer problématiques lorsque

l’on a à faire à des évènements « adverses » tels que la crise internet des années 2001 / 2002 ou

la crise des subprimes et la faillite de Lehman & Brothers en 2007 / 2008.

2.4.2. Méthodologies testées pour simuler une distribution Leptokurtique

Il existe plusieurs méthodes pour générer des distributions leptokurtiques. Diverses approches

ont été testées :

- Bootstrapping : Méthode consistant à reproduire les performances observées par le

passé dans un ordre aléatoire. Cette méthode est efficace pour reproduire à

l’identique une distribution ayant la même Excess Kurtosis que l’historique.

Néanmoins elle trouve ses limites sur certain actif tel que les taux d’intérêt. Par

ailleurs comme seules les performances passées sont générés (certes dans un ordre

différent que celui de l’historique), on obtient « des trous » dans les distributions

simulées.

- Lois « multinormale » : Cette méthode consiste à générer un mouvement brownien

Gaussien secondaire centré sur la VaR à 95% dont la probabilité de réalisation sera

supérieure à la probabilité d’observation dans le cas Gaussien classique. Cette

probabilité sera calibrée en fonction de la valeur de l’Excess Kurtosis historique.

Cette méthode est intéressante mais passe à côté du principal phénomène générateur

de queues épaisses de distribution en particulier sur les indices actions que nous

verrons juste après.

- Copules : En statistiques, une copule est un objet mathématique venant de la théorie

des probabilités. La copule permet de caractériser la dépendance entre les différentes

coordonnées d'une variable aléatoire à valeurs dans un espace multidimensionnel

sans se préoccuper de ses lois marginales. Cette méthode est intéressante car elle

permet aussi de régler le problème des corrélations entre actifs. Néanmoins la

difficulté choisir le type de copule à utiliser (Archimédienne, Franck, Gumbel,

Clayton) et de calibrer les paramètres ont rendu cette méthodologie difficilement

implémentable et généralisable pour répondre au besoin présenté dans la partie 2.1.

- Processus à sauts : Méthode consistant à partir d’un mouvement gaussien auquel

on rajoute des sauts à la hausse ou à la baisse qui interviennent de manière aléatoire.

Cette méthode est intéressante pour répliquer des performances qui s’écartent de la

Gaussienne. Néanmoins comme nous le verrons plus loin, on passe à côté du

principal phénomène générateur de queues épaisses de distribution en particulier sur

les indices actions.

Les méthodes testées ci-dessus n’ont pas eu des résultats satisfaisant car elles passent à côté

d’un phénomène très important sur les marchés (en particulier les actions) qui est à l’origine de

la formation de queues épaisses de distribution.

Page 40: Développement et utilisation d’un - Institut des actuaires

40

2.4.3. Analyse du phénomène à l’origine de la Leptokurticité des actions

Nous avons démontré dans le paragraphe 2.2.2 qu’il ne suffit que de quelques observations

extrêmes pour générer des queues de distribution épaisses (et présentant dont des Excess

Kurtosis positves) sur les actions. L’objet du présent paragraphe consistera à démontrer que sur

les indices actions, la majorité des performances extrêmes ne se produit pas de manière

totalement aléatoire.

A partir des performances trimestrielles du CAC 40, nous allons calculer une volatilité glissante

sur T=8 trimestres. On se place à la date t et on note :

- rt, la performance du CAC 40 observée au trimestre t

- σt, la volatilité glissante du CAC 40 prise à la date t sur la période [t – T ; t]

On a donc la relation canonique qui relie σt et rt :

𝜎𝑡 =

1

𝑇 − 1∑(𝑟𝑡−𝑖 −

1

𝑇∑𝑟𝑡−𝑗

𝑇−1

𝑗=0

)

2𝑇−1

𝑖=0

Les graphiques représentent les évolutions respectives des performances trimestrielles et de la

volatilité sur 8 trimestres glissants du CAC 40 :

0%

2%

4%

6%

8%

10%

12%

14%

16%

18%

20%

DÉC

.-9

6

DÉC

.-9

7

DÉC

.-9

8

DÉC

.-9

9

DÉC

.-0

0

DÉC

.-0

1

DÉC

.-0

2

DÉC

.-0

3

DÉC

.-0

4

DÉC

.-0

5

DÉC

.-0

6

DÉC

.-0

7

DÉC

.-0

8

DÉC

.-0

9

DÉC

.-1

0

DÉC

.-1

1

DÉC

.-1

2

DÉC

.-1

3

DÉC

.-1

4

DÉC

.-1

5

DÉC

.-1

6

DÉC

.-1

7

Volatilité glissante sur 8 trimestres glissants du CAC 40

-40%

-20%

0%

20%

40%

c.-9

6

c.-9

7

c.-9

8

c.-9

9

c.-0

0

c.-0

1

c.-0

2

c.-0

3

c.-0

4

c.-0

5

c.-0

6

c.-0

7

c.-0

8

c.-0

9

c.-1

0

c.-1

1

c.-1

2

c.-1

3

c.-1

4

c.-1

5

c.-1

6

c.-1

7

Performances Trimestrielles du CAC 40

Page 41: Développement et utilisation d’un - Institut des actuaires

41

On observe que les performances « extrêmes » constitutives de la queue de distribution du CAC

40 ne se produisent pas de manière « totalement aléatoires ». Elles interviennent à des périodes

dites de crises (Crise des Subprime, Krack Internet) matérialisées par des régimes de forte

volatilité.

Le graphique ci-dessous permet de mieux visualiser le positionnement des performances

extrêmes du CAC 40 sur le plan Volatilité glissante sur 8 trimestres / Performance trimestrielle :

En conclusion on observe que sur les indices actions que nous cherchons à répliquer, les

mouvements extrêmes (ronds rouges, et ronds verts) se produisent dans des régimes à forte

volatilité. La volatilité elle-même n’évolue pas de manière constante mais suit des régimes

alternant des périodes de volatilité faible et des périodes de volatilité élevée voir extrême que

l’on appelle « cluster de volatilité ». Sur le plan macroéconomique, ces clusters s’expliquent

par le passage d’un environnement « Risk On » caractérisé par une confiance accrue des agents

économiques (baisse du chômage, hausse des crédits aux entreprises, hausse des créations

d’entreprises, hausse du moral des investisseurs et des ménages) à un environnement « Risk

Off » caractérisé au contraire par une défiance des agents économiques (chute des crédits,

baisse du moral des investisseurs, baisse de la consommation des ménages, hausse des faillites).

Pour répliquer des queues épaisses de distribution, nous allons donc considérer la volatilité des

actifs non plus comme une constante mais comme une variable aléatoire qui évolue autour de

sa tendance de long terme (σ = 10,32% pour le CAC 40) avec un écart type (dans les salles de

marché l’écart type de la volatilité porte le nom de « volga »).

-40%

-30%

-20%

-10%

0%

10%

20%

30%

0% 5% 10% 15% 20%

Pe

rfo

rman

ce tr

ime

stri

ell

ed

u C

AC

40

Volatilité du CAC 40 sur 8 trimestres glissants

Position des rendements trimestriels du CAC 40 en fonction des niveaux de la volatilité glissante

Zone de forte volatilité : σt > σ

Page 42: Développement et utilisation d’un - Institut des actuaires

42

2.4.4. Implémentation du modèle de GARCH

Lorsque l’on analyse la cinématique des performances des actions, on observe un « effet

d’entrainement » entre la performance et la volatilité glissante. On passe successivement d’une

période calme avec une volatilité basse à une période agitée avec de fortes volatilités. On sait

que si à la date t, on a un rendement rt très élevé, il y a une grande probabilité pour qu’à t + 1

on observe un rendement rt+1 qui sera en valeur absolu élevé aussi. Cela s’observe sur les

marchés au travers des prix des produits optionnels.

Le modèle GARCH(1,1) repose sur le principe fondamental de rendre la volatilité des

rendements générés stochastique. Pour ce faire la volatilité en date t, t , va dépendre de trois

paramètres :

- 1−tr , le rendement généré en date t – 1 (à défaut, le dernier rendement de l’historique)

- 1−t , la volatilité en date t – 1

- , la volatilité de long-terme.

Ainsi, t sera déterminé de proche en proche de la façon suivante :

22

1

2

1 ... ++= −− ttt r

avec les contraintes : α + β + γ = 1 et γ ≥ 0

Une fois la volatilité locale estimée en date t, le rendement associé est simulé de manière

stochastique par une loi normale :

tr ~N(0 ; σt)

rt-1 dépendant par construction de σt-1, nous fixerons β à 0 en le positionnant exceptionnellement

à 0,1 dans certaines situations pour affiner. Pour simuler un Excess Kurtosis égal à 0, nous

partirons de α = 0 et donc en corollaire γ = 1 – α – β = 1 – 0 – 0 = 1

Par construction, cela revient à générer des rendements Gaussiens centrés avec une volatilité

constante égale à σ. On obtient donc un Excess Kurtosis qui sera égal par définition à 0.

Plus l’Excess Kurtosis augmente et plus la volatilité « locale » σt s’écartera de la volatilité

historique de long terme σ. Afin de déterminer quelle plage d’Excess Kurtosis peuvent couvrir

les paramètres α et γ, nous diminuerons progressivement γ au profit de α en ajustant si besoin

β à 0,1.

Afin d’illustrer le mécanisme, posons α = 0,5 et γ = 0,5 (β vaut alors 1 – 0,5 – 0,5 = 0).

En notant f−1, la loi normale inverse et pt, un nombre aléatoire tiré à la date t suivant une loi

uniforme ]0 ; 1[, on a alors la dynamique suivante :

σ𝑡 = √0,5 ∗ σ2 + 0,5 ∗ r𝑡−1²

𝑟𝑡 = 𝑓−1(0; σ𝑡; 𝑝𝑡) En partant d’un rendement r0 = 0% et d’une volatilité σ0 = 10%, on génère 1000 scénarios allant

d’évolution sur un horizon de 100 périodes. On calcule alors l’Excess Kurtosis obtenue. On

recommence l’opération plusieurs fois. On obtient alors un Excess Kurtosis qui varie entre 1 et

1,5

Page 43: Développement et utilisation d’un - Institut des actuaires

43

Recommençons l’opération mais en générant 1,000 scénarios sur un horizon de 250 périodes.

On calcule alors l’Excess Kurtosis obtenue. On recommence l’opération plusieurs fois. On

obtient alors un Excess Kurtosis qui varie entre 2 et 3.

On constate donc que contrairement à la volatilité et au drift, l’Excess Kurtosis est sensible au

nombre de périodes de projection : Plus le nombre de périodes de projection augmente et plus

l’Excess Kurtosis augmente. Aussi dans notre exemple ci-dessus on constate que pour un même

triplet de paramètres (α = 0,5 ; β = 0 ; γ = 0,5), l’Excess Kurtosis est multipliée par 2 suivant

que l’on projete sur 100 périodes que sur 250 périodes.

Est-ce que cette observation se vérifie dans l’historique ? Pour ce faire nous allons prendre un

historique de 35 ans en pas mensuel du Dow Jones. A partir de cet historique, nous en déduisons

les performances mensuelles du Dow Jones allant d’Août 1983 à Mai 2018. Puis nous allons

calculer les Excess Kurtosis sur les périodes suivantes :

- Décembre 2017 → Mai 2018

- Novembre 2017 → Mai 2018

- Septembre 2017 → Mai 2018

- …

- Août 1983 → Mai 2018

Les résultats sont rassemblés dans le graphique ci-dessous :

On constate que l’Excess Kurtosis tend à augmenter avec le nombre d’observations ce qui

confirme nos calculs au travers des scénarios.

On effectue la même chose avec le CAC 40. Les résultats sont rassemblés dans le graphique ci-

dessous :

-1,50

-1,00

-0,50

0,00

0,50

1,00

1,50

2,00

2,50

3,00

3,50

4,00

août

-83

févr

.-85

août

-86

févr

.-88

août

-89

févr

.-91

août

-92

févr

.-94

août

-95

févr

.-97

août

-98

févr

.-00

août

-01

févr

.-03

août

-04

févr

.-06

août

-07

févr

.-09

août

-10

févr

.-12

août

-13

févr

.-15

août

-16

Exce

ss K

urt

osi

s

Période de calcul allant de MMM-YYYY à Mai 2018

Evolution de l'Excess Kurtosis en fonction de la période de calcul pour le DJIA

Excess Kurtosis calculée entre Octobre 2008

Excess Kurtosis calculée entre Août 1983 et Mai 2018

Page 44: Développement et utilisation d’un - Institut des actuaires

44

Les résultats sont similaires à ceux observés pour le DJIA.

La conclusion est très intéressante et repose sur le fait que l’Excess Kurtosis est un paramètre

sensible aux évènements extrêmes contrairement à la volatilité. De ce fait plus on remonte loin

dans l’historique et plus on augmente la probabilité d’observer des phénomènes extrêmes.

L’Excess Kurtosis agit comme une variable d’apprentissage qui va mémoriser les performances

extrêmes.

De ce fait afin de calibrer les paramètres α, β et γ, il nous faut intégrer le nombre de pas de

projection. De ce fait pour chaque horizon de projection, il faut calibrer une multitude de triplets

(α ; β ; γ) pour couvrir un spectre le plus large possible de valeurs que peut prendre l’Excess

Kurtosis K. La table présente en annexe I regroupe le niveau d’Excess Kurtosis obtenu en

fonction des valeurs prises par (α ; β ; γ) pour différents nombre de pas de projection possibles.

Illustrons le fonctionnement de cette table avec le CAC 40 que nous devons simuler en pas

trimestriel sur 30 ans donc sur 120 pas de projection. L’Excess Kurtosis que nous devons

approcher est selon l’historique de 1,06. En implémentant la table ci-dessus dans l’ESG, le

nombre de périodes de projection associé à un Excess Kurtosis cible de 1,06 conduira à

sélectionner le triplet (α ; β ; γ) = (0,5 ; 0 ; 0,5)

Le graphique ci-dessous illustre le comportement des 100 premiers scénarios générés pour le

CAC 40 :

-2,00

-1,50

-1,00

-0,50

0,00

0,50

1,00

1,50

2,00

2,50

3,00

3,50

août

-87

déc.

-88

avr.

-90

août

-91

déc.

-92

avr.

-94

août

-95

déc.

-96

avr.

-98

août

-99

déc.

-00

avr.

-02

août

-03

déc.

-04

avr.

-06

août

-07

déc.

-08

avr.

-10

août

-11

déc.

-12

avr.

-14

août

-15

déc.

-16

Exce

ss K

urto

sis

Période de calcul allant de MMM-YYYY à Mai 2018

Evolution de l'Excess Kurtosis en fonction de la période de calcul pour le CAC 40

Page 45: Développement et utilisation d’un - Institut des actuaires

45

On voit très nettement l’effet GARCH, puisque certains scénarios présentent des chocs

extrêmes, notamment le scénario rouge qui s’écroule brutalement en dessous de 1000 (contre

plus de 5200 au 31/12/2017) avant de continuer à baisser régulièrement jusque sous les 100

points avec des périodes de rebonds. Ceci est la conséquence directe de l’Excess Kurtosis

imposée en entrée. Cependant, la majorité des scénarios ne présente aucun choc, ce qui est

rassurant. Ce système GARCH(1,1) permettant de simuler des Excess Kurtosis permet par la

même occasion de générer des « Black Swann » de type Octobre 1987.

Page 46: Développement et utilisation d’un - Institut des actuaires

46

2.4.5. Calcul des moments

En calculant les moments des 1000 scénarios générés à ce stade avec GARCH pour chacun des

5 actifs, on obtient les résultats suivants :

2.4.6. Limites et conclusions

Les résultats montrent qu’à ce stade on se rapproche des valeurs cibles de l’historique sur la

volatilité et l’Excess Kurtosis lorsque celle-ci est positive. Le modèle GARCH a du mal en

revanche à reproduire des Excess Kurtosis négatives. Ce n’est pas gênant pour notre étude car

cela montrera juste que lorsque nous analyserons les risques qui pèsent sur un Fonds de rentes

fermés nous auront tendance à considérer que le risque sera au minimum équivalent à celui

modélisé au travers d’un comportement gaussien.

En revanche le modèle de GARCH tel qu’implémenté à ce stade dans l’ESG ne reproduit aucun

jeu de scénario présentant un Skewness différent de 0. Ceci est particulièrement dommageable

pour les indices actions qui comme on l’a vu présentent des asymétries négatives avec une plus

grande probabilité d’observer de fortes performances négatives que positives.

Le modèle de GARCH reste symétrique et ce quel que soit les valeurs prises par les paramètres

α, β et γ

L’objet du prochain paragraphe consistera à transformer le modèle de GARCH pour le rendre

asymétrique.

μ σ S K ρCAC 40 0,00% 10,30% 0,00 1,23 0,00

DJIA 30 0,00% 8,51% 0,00 1,18 0,00

OAT 2 Ans 0,00% 1,99% 0,00 0,00 0,00

OAT 10 Ans 0,00% 1,80% 0,00 0,00 0,00

OAT 30 Ans 0,00% 1,30% 0,00 0,00 0,00

ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans

CAC 40 1,00 0,00 0,00 0,00 0,00

DJIA 30 0,00 1,00 0,00 0,00 0,00

OAT 2 Ans 0,00 0,00 1,00 0,00 0,00

OAT 10 Ans 0,00 0,00 0,00 1,00 0,00

OAT 30 Ans 0,00 0,00 0,00 0,00 1,00

Page 47: Développement et utilisation d’un - Institut des actuaires

47

2.5. Réplication de distributions asymétriques

2.5.1. Introduction

Le paragraphe précédent a mis en évidence les limites du modèle GARCH qui permet certes de

répliquer des queues de distribution épaisses mais sans pouvoir orienter la distribution. Quel

que soit la manière dont on calibre les paramètres α, β et γ du modèle GARCH, la distribution

générée reste rigoureusement symétrique. Or on a vu que certaines classes d’actifs comme les

actions présentent des asymétries négatives avec une plus forte probabilité d’observer des

performances fortement négatives que fortement positives. L’objet de ce paragraphe consiste à

apporter des améliorations au modèle GARCH afin de le rendre asymétrique.

2.5.2. Analyse empirique de l’origine des distributions asymétriques

Les paragraphes précédents ont montré que l’Excess Kurtosis observée sur les actions est liée

à une alternance du régime de volatilité qui passe d’un régime faible à un régime fort (cluster

de volatilité). Durant les phases de forte volatilité matérialisées par des crises économiques,

sociales voire géopolitiques, les performances des indices actions tendent à être élevées en

valeur absolue. Néanmoins lorsque l’on quantifie le nombre d’occurrences positives et

négatives, on s’aperçoit qu’au même moment ou la volatilité s’accroit, le nombre de

performances négatives augmente au détriment des performances positives.

Afin de générer une distribution asymétrique, il nous faut non pas jouer sur la volatilité comme

ce fut le cas avec GARCH mais introduire des termes illustrant l’asymétrie dans l’expression

même de la performance trimestrielle.

Page 48: Développement et utilisation d’un - Institut des actuaires

48

2.5.3. Présentation du modèle AMIGARCH

Le modèle consiste à construire un processus dérivé de rt en fonction du niveau de cette

volatilité locale :

- Si σt ≤ σ, on admet que l’on est dans un régime à volatilité dite « normale » alors rt

est inchangé.

- Si σt > σ, on considère que nous sommes dans un régime de volatilité

exceptionnellement élevée dite de crise. Le rendement rt prend alors une des deux

valeurs suivantes :

rt : −|rt| avec une probabilité q|rt| avec une probabilité 1 − q

En notant toujours :

- f, la fonction densité de la loi normale et 𝑓−1(0; σ𝑡; 𝑝𝑡), la fonction densité

inverse de la loi normale centrée en date t et de paramètres σt et calculée à partir du

nombre aléatoire pt

- εt , le signe de 𝑓−1(0; σ𝑡; 𝑝𝑡)

- (pt, qt), les 2 nombres aléatoires tirés à l’instant t suivant une loi uniforme]0;1[,

Le système d’équations vérifié par le couple (σt , ut), s’écrit :

σ𝑡 = √α ∗ r𝑡−12 + 𝛽 ∗ σ𝑡−1

2 + γ ∗ σ2

𝑟𝑡 = |𝑓−1(0; σ𝑡; 𝑝𝑡)| ∗ [𝜀𝑡1σ𝑡≤𝜎 + 1σ𝑡>𝜎(1q𝑡>𝑞 − 1q𝑡≤𝑞)]

Pour comprendre cette expression, on distingue les cas suivant :

- Si σt ≤ σ, la performance est la même que celle générée dans le modèle GARCH

grâce à la variable εt

- Si σt > σ, on distingue deux cas de figures :

o Si le nombre aléatoire qt est supérieur au paramètre q alors la performance

sera forcée positivement

o Si le nombre aléatoire qt est inférieur au paramètre q alors la performance

sera forcée négativement

De la même façon que nous avons établi une équivalence entre (α, β, γ) et K, nos études ont

montré qu’il était possible de relier la valeur de q à la skewness en sortie. Une table a été

construite numériquement. Elle est disponible en Annexe II.

Page 49: Développement et utilisation d’un - Institut des actuaires

49

2.5.4. Calcul des moments

De par les niveaux de Skewness relativement à l’Excess Kurtosis du CAC 40 et du DJIA, nous

calibrons le paramètre q à 0,95.

Le tableau ci-dessous montre qu’il est difficile de coller à une Skewness de l’ordre de -0,80

pour un Exces Kurtosis tournant autour de 1. Néanmoins en simulant 1,000 scénarios

d’évolution du DJIA et du CAC 40 avec le paramètre q de 0,95, on arrive à générer des

asymétries négatives avec des Skewness atteignant en moyenne -0,55 mais qui peuvent dans

certains scénarios descendre en dessous de -2.

Les calculs des moments sont rassemblés dans le tableau ci-dessous :

Au-delà de ces moyennes, voici ce que l’on obtient en faisant un focus sur le DJIA et le CAC

40 qui présentent ces particularités de présenter des queues épaisses avec asymétrie négative.

2.5.5. Limites et conclusions

Le tableau ci-dessus montre que au-delà de la réplication moyenne d’une queue de distribution

épaisse avec asymétrie négative, l’ESG est capable grâce à l’ajout du second Brownien qt de

simuler des scénarios qui présentent une queue fine ou une queue épaisse avec asymétrie

positive. A ce stade ALAMO arrive à gérer un grand nombre de situations qui n’impliquent pas

la présence de corrélations et d’auto corrélations.

μ σ S K ρCAC 40 0,00% 10,30% -0,54 1,18 0,00

DJIA 30 0,00% 8,51% -0,55 1,00 0,00

OAT 2 Ans 0,00% 1,99% 0,00 0,00 0,00

OAT 10 Ans 0,00% 1,80% 0,00 0,00 0,00

OAT 30 Ans 0,00% 1,30% 0,00 0,00 0,00

ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans

CAC 40 1,00 0,00 0,00 0,00 0,00

DJIA 30 0,00 1,00 0,00 0,00 0,00

OAT 2 Ans 0,00 0,00 1,00 0,00 0,00

OAT 10 Ans 0,00 0,00 0,00 1,00 0,00

OAT 30 Ans 0,00 0,00 0,00 0,00 1,00

SKEWNESS Historique Scénarios

MOYENNE MIN MAX MOYENNE

CAC 40 -0,79 -3,02 1,14 -0,54

DJIA -0,90 -3,13 1,17 -0,55

EXCESS Historique Scénarios

KURTOSIS MOYENNE MIN MAX MOYENNE

CAC 40 1,06 -0,73 19,12 1,18

DJIA 1,00 -3,13 1,17 1,06

Page 50: Développement et utilisation d’un - Institut des actuaires

50

2.6. Construction de mouvements browniens corrélés

2.6.1. Introduction

A ce stade du mémoire, l’ESG ALAMO est capable de générer des distributions capables de

présenter des queues de distribution épaisses ou fines et qui présentent des asymétries positives

ou négatives.

Néanmoins si pour un scénario donné on analyse à chaque date les performances respectives

du CAC 40 et du DJIA on constate une différence notable par rapport à l’historique comme le

montre les graphiques ci-dessous :

Les graphiques ci-dessus constituent un exemple de la non prise en compte des corrélations

entre indices actions. A ce stade de l’étude, l’ESG ALAMO ne peut évaluer des risques

extrêmes d’actifs corrélés entre eux. Une étude statistique montre que sur les 1000 scénarios

générés, seuls 3 présentent des corrélations entre CAC 40 et DJIA ce qui est en totale

contradiction avec l’historique. L’objet de cette partie constituera à construire un process

permettant de corréler les distributions.

Page 51: Développement et utilisation d’un - Institut des actuaires

51

2.6.2. Présentation du processus de Cholesky

Le processus de Cholesky permet de simuler une loie multinormale. Pour bien comprendre,

prenons le cas simple de la simulation d’une loi normale (c’est-à-dire, pour un actif). Cette

simulation est caractérisée par deux éléments :

- La moyenne ou Drift μ des valeurs générées

- La volatilité σ de la série

Mathématiquement, la simulation revient à générer des réalisations d’une variable aléatoire X

suivant une loi normale N(μ, σ) : X N(μ, σ)

Maintenant, généralisons le concept en dimension A : prenons le cas d’un ensemble de A actifs :

- De moyenne μ = (μ1 , μ2 , …, μA )’ - Et de matrice de variance – covariance Σ

Il s’agit cette fois-ci de générer H réalisations d’un vecteur aléatoire X = (X1, X2, …, XA)

suivant une loi multinormale N(μ, Σ )

La simulation d’une telle loi multinormale se fait par le biais du processus de Cholesky.

2.6.3. Mise en œuvre du processus de Cholesky

Nous souhaitons générer H réalisations de cette loi multinormale d’ordre A. Pour ce faire il

suffit de simuler H réalisations du vecteur aléatoire μ + LT où :

- μ est le vecteur des moyennes

- L est la matrice de Cholesky de Σ

- T est un vecteur aléatoire de A composantes normales standard

Le processus de Cholesky transforme la matrice de covariance Σ en une matrice L. D’après la

factorisation de Cholesky, L est une matrice triangulaire inférieure telle que Σ = LL’.

L’Algorithme décrit le processus de Cholesky tel qu’il a été implémenté mathématiquement

dans A.L.A.M.O.

Ces H réalisations du vecteur aléatoire X représentent 1 scénario d’horizon H pour les A actifs.

Afin de ne pas surcharger les graphiques les titres des axes des graphiques de cette partie ne

seront pas indiqués. Tous les graphiques ont comme abscisse l’horizon de projection exprimé

en trimestres et comme ordonnée la valeur de la série (il s’agit d’un cours pour des actifs de

type actions, ou d’un niveau de taux pour un actif obligataire).

Page 52: Développement et utilisation d’un - Institut des actuaires

52

2.6.4. Formalisation de l’algorithme de Triangularisation de Cholesky

Pour i = 1, on détermine la première colonne de L :

111111 ll= d’où 1111 =l

1111 jj ll= d’où 11

1

1l

lj

j

= avec 2 ≤ j ≤ A

On détermine la ième colonne de L (2 ≤ i ≤ A), après avoir calculé les (i-1) premières

colonnes : iiiiiiii llll ++= ...11

d’où

=

−=1

1

2i

k

ikiiii ll

On détermine la jème colonne (avec i ≠ j) :

jiiijiij llll ++= ...11

d’où

ii

i

k

jkikij

jil

ll

l−

=

=

1

1

.

Avec i + 1 ≤ j ≤ n

On cherche la matrice :

=

−−−−

AAAAAA

AAAA

llll

lll

ll

l

L

1,21

1,12,11,1

2221

11

.....

0......

...0............

..................

0......0

00......0

De l’égalité Σ=LL’, on déduit :

( ) ==

===),min(

11

'ji

k

jkik

A

k

jkikijij llllLL avec 1 ≤ i, j ≤ A avec 0=pql si 1 ≤ p < q ≤ A

La matrice Σ étant symétrique, il suffit que les relations ci-dessus soient vérifiées pour i ≤ j

c’est-à-dire que les éléments lij de la matrice L doivent satisfaire :

=

=i

k

jkikij ll1

avec 1 ≤ i, j ≤ A

Page 53: Développement et utilisation d’un - Institut des actuaires

53

2.6.5. Exemple numérique

Nous allons générer N = 1000 scénarios de A = 2 actifs sur un horizon de H = 250 trimestres

avec :

=

%05.0

%1.0

=

17.0

7.01

%02.01 = et %01.02 =

=

0001.000014.0

00014.00004.0

La matrice de Cholesky de Σ est la suivante :

=

007141428.0007.0

0020.0L

Nous représentons ci-dessous 4 scénarios d’évolution pour ces 2 actifs (en orange, l’actif 1 et

en bleu l’actif 2) :

On aperçoit bien sur ces graphiques la corrélation plutôt forte entre les deux graphiques. Aussi

on retrouve que l’actif 1 bien que corrélé à l’actif 2 reste plus volatil que ce dernier comme

prévu. Enfin en moyenne, l’actif 1 est plus rentable que l’actif 2.

Sur l’ensemble des 1000 scénarios, les valeurs de µ, ρ, et Σ sont en adéquation avec ce qui avait

été imposé en entrée du processus.

Page 54: Développement et utilisation d’un - Institut des actuaires

54

2.6.6. Conséquence de l’algorithme de Cholesky sur le CAC 40 et le DJIA

Les graphiques ci-dessous illustrent l’impact de la transformation de Cholesky sur le scénario

numéro 20.

On constate que contrairement au paragraphe 2.6.1, les actions du CAC 40 et du DJIA

n’évoluent plus de manière erratique mais suivent des trajectoires qui sont liées les unes aux

autres. Cela est en phase avec le cahier des charges fixé initialement dans la partie 2.2.

Page 55: Développement et utilisation d’un - Institut des actuaires

55

2.6.7. Calculs des moments

Pour calculer la matrice des coefficients de corrélations des scénarios générés, on va pour

chaque scénario calculer le coefficient de corrélation du CAC 40, du DJIA et des OAT 2, 10 et

30 ans. On considèrera alors que le coefficient de corrélation entre deux actifs comme étant la

moyenne des coefficients de corrélations calculé sur les 1,000 scénarios.

Les tableaux ci-dessous comparent le coefficient de corrélation moyen sur les 1000 scénarios

générés par l’ESG ALAMO avec ceux calculés à partir des historiques :

2.6.8. Limites et conclusions

On constate que le modèle de Cholesky donne d’excellents résultats puisque l’on obtient à

présent des séries dont les coefficients de corrélations sont exactement en phase avec celles

observées sur l’historique. Aussi tout comme sur l’historique, on constate que :

- Le CAC 40 et le DJIA sont corrélés

- Les OAT 2, 10 et 30 ans sont très corrélés

- Les indices actions et obligataires évoluent de manière dé corrélées

Si on prend maintenant les corrélations extrêmes, on obtient ci-dessous la matrice des

coefficients de corrélations minimaux observés sur les scénarios :

Tableau des Coefficients de Corrélations moyens calculés sur les scénarios

ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans

CAC 40 1,00 0,69 -0,04 -0,03 -0,02

DJIA 30 0,69 1,00 -0,08 -0,04 -0,02

OAT 2 Ans -0,04 -0,08 1,00 0,95 0,83

OAT 10 Ans -0,03 -0,04 0,95 1,00 0,88

OAT 30 Ans -0,02 -0,02 0,83 0,88 1,00

Tableau des Coefficients de Corrélations calculés sur les historiques

ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans

CAC 40 1,00 0,69 -0,05 -0,02 0,00

DJIA 30 0,69 1,00 -0,09 -0,02 -0,08

OAT 2 Ans -0,05 -0,09 1,00 0,95 0,82

OAT 10 Ans -0,02 -0,02 0,95 1,00 0,89

OAT 30 Ans 0,00 -0,08 0,82 0,89 1,00

Tableau des Coefficients de Corrélations minimaux calculés sur les scénarios

ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans

CAC 40 1,00 0,36 -0,33 -0,30 -0,31

DJIA 30 0,36 1,00 -0,37 -0,37 -0,29

OAT 2 Ans -0,33 -0,37 1,00 0,83 0,56

OAT 10 Ans -0,30 -0,37 0,83 1,00 0,61

OAT 30 Ans -0,31 -0,29 0,56 0,61 1,00

Page 56: Développement et utilisation d’un - Institut des actuaires

56

En faisant la même chose pour les coefficients de corrélation maximaux observés, on a :

Ces observations sont très intéressantes car en pratique elles montrent que :

- Les indices actions qui présentent un coefficient de corrélation moyen de 0,70

environ peuvent voir leur corrélation monter au-dessus de 0,90. Ceci est très

intéressant dans la mesure ou on constate que dans les crises extrêmes, les indices

tendent à se corréler positivement.

- Les corrélations entre actions et taux qui tournent en moyenne autour de 0 peuvent

être aussi bien négatives que positives. Ici encore on a observé dans l’historique que

lorsque les taux montent fortement, ça peut engendrer une baisse sur les actions

(crainte de resserrement monétaire, d’accélération de l’inflation) ce qui induit une

corrélation positive. A l’inverse, une baisse très rapide des taux peut aussi entrainer

une baisse des actions (craintes de déflation, de crise économique prolongée) ce qui

induit une corrélation négative.

Les tableaux ci-dessous comparent les moments calculés dans les scénarios et ceux de

l’historique :

On observe que les volatilités cadrent parfaitement avec celles de l’historique. Pour ce qui est

des Skewness et des Excess Kurtosis, on constate que le processus de Cholesky n’a pas modifié

la nature des queues de distribution. Aussi les distributions Leptokurtiques des actions

Tableau des Coefficients de Corrélations maximaux calculés sur les scénarios

ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans

CAC 40 1,00 0,90 0,22 0,27 0,22

DJIA 30 0,90 1,00 0,24 0,28 0,26

OAT 2 Ans 0,22 0,24 1,00 0,97 0,89

OAT 10 Ans 0,27 0,28 0,97 1,00 0,93

OAT 30 Ans 0,22 0,26 0,89 0,93 1,00

Tableau des Moments moyens calculés sur les scénarios

μ σ S K ρ

CAC 40 0,00% 10,32% -0,40 1,14 0,11

DJIA 30 0,00% 8,49% -0,39 1,07 0,10

OAT 2 Ans 0,00% 2,00% 0,02 -0,03 -0,07

OAT 10 Ans 0,00% 1,82% -0,01 0,08 -0,07

OAT 30 Ans 0,00% 1,32% -0,02 -0,09 -0,09

Tableau des Moments calculés sur les historiques

μ σ S K ρCAC 40 1,02% 10,32% -0,79 1,06 0,18

DJIA 30 1,65% 8,49% -0,90 1,00 0,12

OAT 2 Ans 2,46% 2,00% 0,14 -0,71 0,98

OAT 10 Ans 3,78% 1,82% -0,05 -0,14 0,98

OAT 30 Ans 4,17% 1,32% -0,75 -0,21 0,97

Page 57: Développement et utilisation d’un - Institut des actuaires

57

présentant des asymétries négatives restent après transformation de Cholesky des distributions

Leptokurtiques avec des asymétries négatives.

Lorsque l’on s’intéresse aux valeurs extrêmes prises par les moments, on a les tableaux ci-

dessous :

On observe que au-delà de la moyenne des scénarios, la transformation de Cholesky ne modifie

pas non plus le caractère « diversifié » des scénarios :

- Aussi pour les actions on constate que d’un scénario à l’autre, la volatilité peut varier

du simple au double.

- Pour ce qui est des moments d’ordre 3 et 4, les scénarios reproduisent tous types de

configuration :

o Distributions Leptokurtiques à asymétrie négative (majoritaires)

o Distributions Leptokurtiques à asymétrie positive

o Distributions Platikurtiques

- Sur les taux, bien qu’en moyenne, la distribution des taux n’est pas Leptokurtique,

certains scénarios présentent des queues épaisses avec des Skewness très élevés.

Cela peut paraître paradoxal mais sur le plan macroéconomique cette situation peut

se produire en cas de crise : Les taux augmentent ce qui accroît leur volatilité (il est

plus facile pour un point de taux de passer de 5% à 6% que de passer de 0 % à 1%)

et en retour augmente la probabilité d’avoir une nouvelle croissance du taux. On a

pu l’observer en Grèce lors de la crise en 2010 / 2011. Les taux Grecs ont connu un

emballement puis se sont retrouvés propulser à 80% pour le 2 ans. Durant plusieurs

mois, les taux Grecs enregistraient des variations de plusieurs centaines de points de

base par jour à la hausse comme à la baisse. On observe un peu la même chose (avec

une intensité moindre) avec la crise Italienne des T1 et T2 2018.

Il reste néanmoins à régler le cas du drift et des autocorrélations en particulier pour les taux

d’intérêts dont les mouvements à la date t + 1 sont conditionnés à ceux observés en t.

Tableau des Moments minimaux calculés sur les scénarios

μ σ S K ρ

CAC 40 -4,78% 7,13% -3,13 -0,67 -0,24

DJIA 30 -3,54% 6,33% -2,67 -0,82 -0,26

OAT 2 Ans -0,61% 1,53% -0,58 -1,18 -0,41

OAT 10 Ans -0,58% 1,34% -0,54 -1,13 -0,44

OAT 30 Ans -0,32% 0,91% -0,96 -1,09 -0,43

Tableau des Moments maximaux calculés sur les scénarios

μ σ S K ρ

CAC 40 3,26% 17,05% 1,03 16,88 0,55

DJIA 30 2,81% 13,99% 0,91 21,37 0,53

OAT 2 Ans 0,54% 2,45% 1,98 14,04 0,24

OAT 10 Ans 0,46% 2,26% 1,17 7,36 0,24

OAT 30 Ans 0,36% 1,61% 1,03 4,24 0,19

Page 58: Développement et utilisation d’un - Institut des actuaires

58

2.7. Modélisation de l’autocorrélation

2.7.1. Introduction

Comme on a pu l’observer dans le paragraphe 2.6, l’ESG ALAMO ne parvient pas à générer

des mouvements auto corrélés.

Graphiquement on peut voir en analysant la projection d’un scénario action et d’un scénario de

taux comment se matérialise l’autocorrélation.

Le fait qu’à ce stade l’ESG ALAMO ne simule pas l’autocorrélation n’est pas gênant pour les

actions où l’auto corrélation historique ne dépasse en généralement pas 0,20. En revanche pour

les taux d’intérêt où l’autocorrélation s’approche de 1, cela se voit graphiquement. Les

scénarios ALAMO sont « accidentés » alors que l’historique est « lisse ». Sur le plan de

l’analyse des risques les conséquences sont importantes car si l’autocorrélation n’est pas

modélisée, l’ESG ALAMO ne peut pas modéliser de scénarios de hausse ou de baisses de taux

sur plusieurs périodes consécutives. A ce stade donc, l’ESG ALAMO est tout simplement

inutilisable pour modéliser les taux d’intérêt.

Page 59: Développement et utilisation d’un - Institut des actuaires

59

2.7.2. Implémentation d’un modèle autorégressif dérivé de Yuke Walker

L’objectif est de modifier une série initiale (typiquement issue d’une variable aléatoire

gaussienne, et donc d’autocorrélation nulle) en une autre série auto corrélée. L’idée développée

dans A.L.A.M.O. consiste à appliquer à cette série une transformation de type « moyenne

mobile » inspirée des équations de Yuke Walker. En effet nos études ont montré qu’il était

possible d’établir un lien entre :

- L’intensité du lissage appliqué à une série

- Et le niveau d’autocorrélation de cette série

Concrètement, pour un niveau d’autocorrélation cible ρ, nous allons appliquer à la série une

transformation sous la forme d’un vecteur de g = 20 poids.

On notera Ω = [ω1 ; … ; ωg], ce vecteur.

Pour respecter la logique des notations précédentes, on gardera la notation rt pour désigner le

rendement généré par ALAMO à l’instant t. La transformation de Yuke Walker consiste à créer

un rendement r’t dérivé de rt par la relation suivante :

∀𝑡 ≥ 𝑔, 𝑟′𝑡 =∑𝜔𝑖 . 𝑟𝑡−𝑖+1

𝑔

𝑖=1

Cette relation n’est effectivement valable que pour t ≥ g. Dans la pratique, si X représente un

scénario, il suffit de compléter X par les dernières valeurs de l’historique pour pouvoir

construire X’ de façon complète.

Si on note h0 la dernière valeur de l’historique, h1, l’avant dernière valeur de l’historique, … la

relation ci-dessus devient pour t < g :

∀𝑡 < 𝑔, 𝑟′𝑡 =∑𝜔𝑖+𝑡 . ℎ𝑖−1

𝑔−𝑡

𝑖=1

+∑𝜔𝑖 . 𝑟𝑡−𝑖+1

𝑡

𝑖=1

Ce qui nous limite à g = 20 vient de la longueur de l’historique. En effet il arrive souvent lorsque

l’on veut générer des scénarios en pas annuels que l’on n’ait pas un historique supérieur à 20

ans en particulier si on veut générer des séries de taux de certains pays.

Page 60: Développement et utilisation d’un - Institut des actuaires

60

2.7.3. Conditions aux limites

Bien que nous devons construire une table liant les ωi au coefficient d’autocorrélation•

, ces

derniers doivent vérifier plusieurs propriétés.

- Les ri initialement générés doivent avoir en moyenne un coefficient

d’autocorrélation égal à 0.

- Les ωi , représentant des poids qui intègre l’information, la somme de ceux-ci doit

toujours être égale à 1.

∑𝜔𝑖 = 1

𝑔

𝑖=1

- Lorsque la série historique présente un coefficient d’autocorrélation égal à 0, on doit

avoir en toute logique r’t = rt.

Il en résulte :

𝜔1 = 1

∀𝑖 ∈ [2; 𝑔], 𝜔𝑖 = 0

- Pour avoir un coefficient d’autocorrélation maximal (dans le cas où g = 20, le

coefficient d’autocorrélation obtenu avoisine 0,95), les poids doivent être égaux.

On a donc :

∀𝑖 ∈ [1; 𝑔], 𝜔𝑖 =1

𝑔

- Quel que soit le niveau d’autocorrélation recherché, le rendement calculé à une date

t2 antérieure à une date t1 (t2 < t1 ≤ t) ne peut en aucun cas apporter plus

d’informations à r’t

Il en résulte donc la relation suivante vérifiée par les ωi :

∀𝑖, 𝑖′ ∈ [1; 𝑔]², 𝑖′ < 𝑖 ⇒ 𝜔𝑖′ < 𝜔𝑖

A partir de ces conditions aux limites, nous allons construire à partir d’un grand nombre de

simulation numériques la table qui relie les coefficients 𝜔𝑖avec le coefficient d’autocorrélation

cible •

. Cette table est jointe à l’annexe III.

Page 61: Développement et utilisation d’un - Institut des actuaires

61

2.7.4. Exemple numérique

Nous allons générer 1 scénario de type « taux d’intérêt » avec les caractéristiques suivantes :

Nous allons donc simuler une réalisation d’une variable aléatoire gaussienne X ~ N(µ,σ) sur un

horizon de 260 jours (1 année ouvrée) puis nous appliquerons à la série résultante les 3

« filtres » correspondant aux 3 niveaux d’autocorrélation cible :

Les résultats sont représentés ci-dessous :

ω1 ω2 ω3 ω4 ω5 ω6 ω7 ω8 ω9 ω10 ω11 ω12 ω13 ω14 ω15 ω16 ω17 ω18 ω19 ω20 Σωi

0,50 50% 29% 13% 5% 3% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 100%0,70 30% 23% 22% 14% 9% 3% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 100%0,90 9% 8% 8% 8% 7% 7% 6% 6% 5% 5% 5% 5% 4% 4% 3% 3% 2% 2% 1% 1% 100%0,95 8% 7% 7% 7% 6% 6% 5% 5% 5% 5% 5% 5% 5% 5% 4% 4% 3% 3% 3% 3% 100%1,00 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 100%

Taux d’intérêt moyen µ 4%

Volatilité σ 0.5%

Autocorrélation •

0,50 / 0,70 / 0.90 / 0.95 / 1,00

Page 62: Développement et utilisation d’un - Institut des actuaires

62

On constate bien que plus les séries sont autocorrélées, plus les variations sont lissées.

Graphiquement, on observe néanmoins qu’au-delà d’un coefficient d’autocorrélation

corrélation de 0,90, les séries sont difficilement distinguables. C’est aussi pour cette raison que

nous ne cherchons pas à augmenter la valeur de g et le nombre de coefficients ωi du vecteur.

Pour ces 5 versions du même scénario on a les résultats dans le tableau ci-dessous :

Deux points sont à noter

- On constate que l’autocorrélation en sortie s’approche des valeurs cibles bien que

cela ne soit pas parfait pour les coefficients de corrélations proches de 1: en effet il

faudrait étaler le vecteur de poids sur plus de 20 éléments notamment pour les

autocorrélations élevées.

- La volatilité diminue avec le niveau d’autocorrélation, à cause du lissage (et d’une

moindre mesure, la moyenne). Nous verrons dans la prochaine partie comment les

scénarios seront recentrés pour avoir respecté exactement les contraintes de

volatilité et de drift.

2.7.5. Calcul des moments

En calculant à nouveau les moments sur les scénarios obtenus dans le paragraphe 2.6 après

application du processus Moyennes Mobiles, on obtient les tableaux ci-dessous :

Autocorrélation

CibleTaux Moyen Volatilité

Autocorrélation

Scénario

0,50 3,97% 0,33% 0,49

0,70 3,97% 0,26% 0,73

0,90 3,96% 0,16% 0,92

0,95 3,97% 0,15% 0,95

1,00 3,98% 0,15% 0,97

μ σ S K ρ

CAC 40 0,00% 9,69% -0,42 1,18 0,17

DJIA 30 0,00% 8,27% -0,40 1,08 0,13

OAT 2 Ans -0,03% 0,37% 0,06 -0,43 0,92

OAT 10 Ans 0,00% 0,35% -0,02 -0,36 0,92

OAT 30 Ans 0,04% 0,32% 0,03 -0,36 0,92

Tableau des Coefficients de Corrélations moyens calculés sur les scénarios

ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans

CAC 40 1,00 0,69 -0,02 -0,01 -0,01

DJIA 30 0,69 1,00 -0,02 -0,01 -0,01

OAT 2 Ans -0,02 -0,02 1,00 0,97 0,82

OAT 10 Ans -0,01 -0,01 0,97 1,00 0,92

OAT 30 Ans -0,01 -0,01 0,82 0,92 1,00

Page 63: Développement et utilisation d’un - Institut des actuaires

63

2.7.6. Limites et Conclusion

Le processus de lissage par les Moyennes Mobiles permet :

- De faire croître sensiblement l’autocorrélation des taux en les rapprochant de celles

observées dans l’historique (chiffres en vert dans le tableau du paragraphe 2.7.5).

C’était l’objectif recherché.

- De ne pas impacter la matrice de coefficient de corrélations. On observe que les

corrélations entre indices actions sont conservées tout comme les corrélations entre

les différents indices de taux. Cela est logique dans la mesure où lorsque l’on

applique une même transformation linéaire à 2 distributions initialement corrélées,

les 2 nouvelles distributions ainsi obtenues restent corrélées.

- De générer des distributions platikurtiques : Plus surprenant à première vue, alors

que le modèle GARCH présenté dans le paragraphe 2.5, ne permet pas de répliquer

des Excess Kurtosis négatives (distributions platikurtiques), l’application du

processus de Moyennes Mobiles arrive à générer des Excess Kurtosis négatives

(Chiffres en bleu dans le tableau du paragraphe 2.7.5). En analysant plus en détail le

phénomène, le processus de transformation par moyenne mobiles pour les séries

auto corrélées tend à gommer les performances extrêmes en les moyennant et donc

en les recentrant autour du drift. Il en résulte donc une « surpondération » des

performances autour du Drift et une « souspondération » des performances extrêmes

ce qui entraine une baisse de l’Excess Kurtosis qui dans le cas des taux OAT passe

en territoire négative (queue moins épaisse que la loi normale). Le processus de

lissage par Moyenne Mobile parvient donc à reproduire des Excess Kurtosis

négatives là où le modèle GARCH échouait.

Il reste néanmoins trois réserves :

- Le processus ne parvient pas à produire des distributions platikurtiques avec une

asymétrie. Cette limite n’est à priori pas gênante en soi dans la mesure où si on a

une distribution moins épaisse que la Gaussienne, le fait d’avoir une asymétrie est

positive ou négative devient un enjeu moins crucial. L’asymétrie a surtout de

l’importance pour les distributions à queue épaisse.

- Le Drift tourne autour de 0% : A ce stade c’est normal puisque nous ne travaillons

qu’avec des distributions centrées.

- La volatilité des séries à fort coefficient d’autocorrélation baisse sensiblement :

Alors que le modèle de Cholesky était parvenu à générer des browniens qui

respectent les contraintes de volatilités et de corrélations (matrice de variance /

covariances), la transformation par moyenne mobiles en lissant les séries

temporelles fait aussi baisser la volatilité (chiffres en rouge dans le tableau 2.7.5).

Le prochain paragraphe aura pour objectif de recentrer les distributions de manière à respecter

rigoureusement les contraintes de volatilité et de drift qui sont fondamentales comme on a pu

le démontrer dans le paragraphe 2.2.4.

Page 64: Développement et utilisation d’un - Institut des actuaires

64

2.8. Intégration des contraintes de Drift et de Volatilité

2.8.1. Introduction

Le paragraphe 2.7 a montré nous a permis de générer des scénarios d’actifs dont les propriétés

se rapprochent de celles de l’historique en matière d’épaisseur de queue de distribution,

d’asymétrie, de corrélations et d’autocorrélations.

Il faut maintenant pour que l’ESG soit utilisable qu’il produise des scénarios qui respectent les

contraintes de Drift et de Volatilité.

2.8.2. Construction d’une transformation de type homothétie / translation

Dans le paragraphe 2.7, nous avons noté r’t les rendements générés par application du processus

dérivé de Yuke Walker aux rendements rt.

Les paragraphes 2.7 nous a montré que le processus de transformation par Moyenne Mobile

dérivé de Yuke Walker provoque une modification du Drift qui n’est plus tout à fait égal à 0 et

entraine une baisse de la volatilité des scénarios en raison du lissage des performances.

Nous utiliserons les notations suivantes :

- 𝑟"𝑡 : Les rendements que l’on cherche à générer à partir des 𝑟′𝑡

- : Volatilité calculé dans les scénarios obtenus après transformation Yuke Walker

- : Drift calculé dans les scénarios obtenus après transformation Yuke Walker

- σ : Volatilité historique que l’on cherche à estimer par les scénarios

- μ : Drift historique que l’on cherche à estimer par les scénarios

Afin de cadrer avec les contraintes de l’historique, il nous faut d’abord centrer et réduire la série

temporelle des r’t : Cela passe par une translation des r’t de puis une division par

Une fois la série centrée réduite, on multiplie les rendements obtenus par σ afin de cadrer avec

la volatilité historique avant d’effectuer une translation de + μ afin de cadrer avec le Drift de

l’historique.

La relation liant 𝑟"𝑡 et 𝑟′𝑡 s’écrit alors :

𝑟"𝑡 =𝑟′𝑡 −

σ + μ

Page 65: Développement et utilisation d’un - Institut des actuaires

65

2.9. Conclusions et observations

2.9.1. Calcul des moments définitifs

Dans ce paragraphe on calcule les moments obtenus après la dernière transformation décrite

dans le paragraphe 2.9. On les met ensuite en perspective par rapport à l’historique comme le

montrent les tableaux ci-dessous :

Tableau des Moments moyens calculés sur les scénarios

μ σ S K ρ

CAC 40 1,02% 10,32% -0,41 1,18 0,17

DJIA 30 1,65% 8,49% -0,40 1,08 0,13

OAT 2 Ans 2,46% 2,00% 0,00 -0,41 0,92

OAT 10 Ans 3,78% 1,82% 0,00 -0,36 0,92

OAT 30 Ans 4,17% 1,32% -0,03 -0,36 0,92

Tableau des Moments calculés sur les historiques

μ σ S K ρCAC 40 1,02% 10,32% -0,79 1,06 0,18

DJIA 30 1,65% 8,49% -0,90 1,00 0,12

OAT 2 Ans 2,46% 2,00% 0,14 -0,71 0,98

OAT 10 Ans 3,78% 1,82% -0,05 -0,14 0,98

OAT 30 Ans 4,17% 1,32% -0,75 -0,21 0,97

Tableau des Coefficients de Corrélations moyens calculés sur les scénarios

ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans

CAC 40 1,00 0,69 -0,02 -0,01 -0,01

DJIA 30 0,69 1,00 -0,02 -0,01 -0,01

OAT 2 Ans -0,02 -0,02 1,00 0,97 0,82

OAT 10 Ans -0,01 -0,01 0,97 1,00 0,92

OAT 30 Ans -0,01 -0,01 0,82 0,92 1,00

Tableau des Coefficients de Corrélations calculés sur les historiques

ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans

CAC 40 1,00 0,69 -0,05 -0,02 0,00

DJIA 30 0,69 1,00 -0,09 -0,02 -0,08

OAT 2 Ans -0,05 -0,09 1,00 0,95 0,82

OAT 10 Ans -0,02 -0,02 0,95 1,00 0,89

OAT 30 Ans 0,00 -0,08 0,82 0,89 1,00

Page 66: Développement et utilisation d’un - Institut des actuaires

66

2.9.2. Interprétation des résultats

Les calculs dans le paragraphe 2.9.1 ci-dessus nous permettent de tirer les conclusions

suivantes pour chacun des moments étudiés sur les principaux actifs constitutifs de notre

portefeuille :

- Drift : On observe que le Drift moyen des scénarios cale exactement avec celui de

l’historique et ce pour chaque actif (chiffres en bleu). Les transformations effectuées

dans le paragraphe 2.8 ont permis d’y arriver.

- Volatilité : Tout comme pour le Drift, on observe que la Volatilité moyenne des

scénarios cale exactement avec celui de l’historique et ce pour chaque actif (chiffres

en violet). Les transformations effectuées dans le paragraphe 2.8 ont permis d’y

arriver.

- Skewness :

o Le modèle AMIGARCH (paragraphe 2.5) a permis en particulier pour les

actions de générer des distributions asymétriques négatives (S < 0) en

présence de queue épaisse de distribution (K > 0) comme dans le cadre de

l’historique (chiffres en vert foncé).

o En revanche, l’ESG ALAMO ne réplique pas des asymétries négatives sur

des distributions Platikurtiques (K < 0). Cela se remarque sur l’OAT 30 ans

(chiffres en rouge).

- Excess Kurtosis :

o Le modèle GARCH (Paragraphe 2.4) a permis de générer des distributions

Leptokurtiques (K > 0) et Mésokurtiques (K ≈ 0) à partir d’une calibration

appropriée des coefficients α, β et γ (Chiffres en vert foncé et en vert clair).

Les transformations effectuées dans la partie 2.4. ont permis d’y arriver

o Le modèle dérivé de Yuke Walker de transformation par Moyennes Mobiles

(Paragraphe 2.7) a permis pour les taux de gommer certains points

« extrêmes » ce qui a eu pour effet collatéral de transformer les distributions

Mésokurtiques en distributions Platikurtiques (chiffres en vert clair faisant

apparaitre des Excess Kurtosis négatives).

- Autocorrélations : Le modèle dérivé de Yuke Walker de transformation par

Moyennes Mobiles (Paragraphe 2.7) a permis pour les taux de générer des séries

temporelles avec un effet de mémoire et donc autocorrélées (chiffres en orange

foncé). Pour les séries qui ne présentent pas de phénomènes d’autocorrélation,

l’application d’une transformation de type Yuke Walker avec un coefficient ω1

proche de 1, permet de générer des séries avec un coefficient d’autocorrélation

proche de 0 comme c’est le cas pour les actions (chiffre en orange clair)

- Corrélations : Le modèle de Cholesky (Paragraphe 2.6) a permis de transformer

des Browniens indépendants en Browniens plus ou moins corrélés en fonction de la

matrice de variance / covariances de l’historique. La mise en place d’un format

conditionnel permet de montrer visuellement qu’indépendamment des chiffres, les

blocs de corrélations sont les mêmes dans les scénarios que dans l’historique.

Page 67: Développement et utilisation d’un - Institut des actuaires

67

2.9.3. Cartographie des transformations dans le calcul des moments

Le schéma ci-dessous permet de situer la position de tous les process présentés dans cette partie

et d’indiquer quelle contrainte chacun d’entre eux permet de lever.

2.9.4. Quelles conséquences concrètes sur les scénarios générés ? Nous avons pu dans cette partie générer des distributions dont les principaux moments se

rapprochent de ceux de l’historique. La prochaine partie aura pour objectif de traduire

concrètement les conséquences qui découlent de la satisfaction de ces contraintes. Elle aura

pour objectif de challenger l’ESG ALAMO de manière endogène (études de cas, identification

des limites) et exogène (comparaison avec d’autres ESG)

1 1 2 1 2 2 1 1 2 2 1 2 1 2 1 2 1 2

2 2 2 1 2 2 2 2 2 2 1 2 1 2 2 2 1 1

Browniens suivant des lois

uniformes

WIENER

AMIGARCH

CHOLESKY

YUKE WALKER

Browniens centrés réduits

GARCH

Distributions Leptokurtiques

(K > 0) et Symétriques (S= 0)

Distributions Leptokurtiques

(K > 0) avec Asymétrie négative

(S < 0) ou positive (S > 0)

Distributions répondant aux

contraintes de Drift

Distributions répondant aux

contraintes de Volatilité

Distributions corrélées entre elles

COMPOSEE

Homothétie +

Translation

Distributions présentant des

phénomènes d'autocorrélationDistributions Platikurtiques

Page 68: Développement et utilisation d’un - Institut des actuaires

68

3. Benchmarking de l’ESG A.L.A.M.O.

3.1. Problématique

La seconde partie nous a permis de décrire les grandes étapes du développement de l’ESG

A.L.A.M.O. après en avoir dressé le cahier des charges à savoir la génération de scénarios

stochastiques dont les principaux moments (Drift, Volatilité, Skewness, Excess Kurtosis,

Autocorrélation, Corrélations) cadrent avec l’historique. A la fin de la seconde partie nous

avons pu mettre générer un jeu de 1,000 scénarios qui répondent sensiblement à ces critères :

- Mais quelle conséquence matérielle le respect de ces moments a-t-elle sur les

scénarios ?

- Comment cela se traduit-il objectivement ?

Cette partie aura aussi pour objectif de chalenger les scénarios produits par A.L.A.M.O. puis

l’ESG A.L.A.M.O. lui-même au moyen de différentes méthodes. On distingue :

- Les méthodes endogènes : Elles passent par la mise en exergue des limites propres

à l’ESG visant à respecter certaines contraintes initialement fixées.

- Les méthodes exogènes : Elles consistent à comparer les caractéristiques de l’ESG

A.L.A.M.O. avec d’autres ESG.

3.2. Analyse graphique des scénarios de l’ESG A.L.A.M.O.

3.2.1. Introduction

Dans ce paragraphe nous allons analyser les scénarios produits par l’ESG A.L.A.M.O. dans la

partie II. Dans un premier temps nous analyserons graphiquement le comportement des

scénarios et les confronterons à l’historique.

3.2.2. Analyse graphique des performances générées sur les actions

En générant 1,000 scénarios actions sur 120 trimestres, on obtient 120,000 observations

générées sur les actions CAC 40 et DJIA que l’on peut mettre en rapport avec les 93

observations historiques sur chacun de ces deux indices.

Pour le CAC 40, comme pour le DJIA, on mettra également en rapport la distribution

Gaussienne afin de situer la distribution théorique par rapport aux observations passées et les

projections futures générées par ALAMO.

Les résultats sont rassemblés dans les graphiques ci-dessous :

Page 69: Développement et utilisation d’un - Institut des actuaires

69

On observe de manière empirique que les scénarios générés par ALAMO couvrent un spectre

plus large que l’historique surtout pour le CAC 40. Cela n’est pas surprenant car l’historique ne

comprend que 93 observations contre 120,000 pour les scénarios. En revanche ce qui semble

intéressant c’est que les graphiques semblent montrer que les scénarios ALAMO approximent

davantage les risques extrêmes que la distribution Gaussienne pourtant utilisée en vigueur dans

les salles de marché ou même en Assurance pour effectuer les calculs réglementaires en Risque

Neutre (Calculs de SCR, ORSA).

Page 70: Développement et utilisation d’un - Institut des actuaires

70

3.2.3. Backtesting des indices actions

Après avoir comparé graphiquement les distributions des performances du CAC 40 et du DJIA,

nous allons nous intéresser à la valorisation des indices qui résulte des performances générés.

A partir des 1,000 scénarios générés sur les performances du CAC 40 et du DJIA, nous en

déduisons 1,000 scénarios de valorisation des indices.

Au 31/12/1994, les valorisations respectives s’élevaient à

- 1976 pour le CAC 40

- 3834 pour le DJIA

Nous allons reconstruire les valorisations des indices CAC 40 et DJIA du 31/12/1994 au

31/12/2017. Cette constructions des indices en pas trimestriel (pas discrets) à partir des

performances générées se fait de proche en proche. En notant :

- It,n : La valorisation d’un indice à la date t, pour le scénario n,

- rt + 1, n : la performance de l’indice entre t et t + 1 pour le scénario n

La valorisation de l’indice à t + 1 pour le scénario n s’écrit simplement :

It+1,n = It,n * (1 + rt+1,n)

L’objectif de cette partie consiste à trouver parmi les scénarios la trajectoire qui se rapproche

le plus de celle observée dans l’historique.

Par exemple si on prend un scénario au hasard (le scénario 1 par exemple), on obtient le

graphique suivant qui compare l’évolution backtestée du CAC 40 du 31/12/1994 au 31/12/2017

avec celle réellement observée :

Le graphique montre que les projections peuvent s’éloigner sensiblement de ce que l’on observe

effectivement. Afin de comparer objectivement l’historique avec un scénario backtesté, nous

Page 71: Développement et utilisation d’un - Institut des actuaires

71

pouvons tester tous les 1,000 scénarios les uns à la suite des autres. Cette méthode serait

fastidieuse. Pour ce faire, nous allons pour chaque date et chaque scénario calculer la distance

entre la valorisation de l’indice calculé via le scénario et celui de l’historique.

En notant Dt,n cette distance à la date t pour le scénario n, on a :

D²t,n = (It,n – It,historiue)² Pour chaque scenario nous calculons la somme des carrés des distances (que l’on notera MCOn)

sur la durée du backtesting du 31/12/1994 au 31/12/2017 qui comprend h = 92 trimestres.

𝑀𝐶𝑂𝑛 =∑𝐷²𝑖,𝑛

𝑖=1

Nous allons ensuite sélectionner le scénario ayant le MCO le plus petit (méthode appelée

« Moindres Carrés Ordinaires ») qui sera donc celui qui approximera le plus le scénario observé

dans l’historique. Dans le cas du CAC 40, le scénario ayant le MCO le plus petit est le scénario

877 (MCO égal à 25,056,623). Le graphique ci-dessous représente le backtesting de ce scénario

sur la période allant du 31/12/1994 au 31/12/2017 :

On fait de même avec le DJIA. La Méthode des Moindre Carrés Ordinaires fait apparaitre un

MCO minimal égal à 393,962,360 pour le scénario numéro 866 et un second très proche égal à

380,402,350 pour le scénario 877

Les graphique ci-dessous représente le backtesting des scénarios 866 et 877 sur l’historique

allant du 31/12/1994 au 31/12/2017 :

Page 72: Développement et utilisation d’un - Institut des actuaires

72

On observe graphiquement que pour le CAC 40 comme pour le DJIA, ALAMO arrive à

reproduire des évolutions indicielles en rapport avec ce qui s’est réellement passé. Les scénarios

projetés par ALAMO sont « réalistes » par rapport aux contraintes risque réel et il est possible

que parmi les 1,000 scénarios projetés par ALMAO, il y en ait un qui corresponde à la trajectoire

que suivra effectivement le CAC 40 et le DJIA.

Bien évidemment les graphiques montrent aussi que l’on n’arrive pas à reproduire exactement

la trajectoire suivie par l’historique contrairement à certaines méthodes qui y parviennent

comme la méthode de Boostrapping. Néanmoins au vu du cahier des charges fixé en début de

la seconde partie, il vaut mieux avoir une méthode qui ne reproduise pas à l’identique le passé

mais qui permette de bien quantifier les risques que d’avoir une méthode qui va reproduire

exactement la distribution de l’historique (Bootstrapping) mais en laissant « des trous dans la

raquette » car la méthode du Bootstrapping comme son nom l’indique sera incapable de générer

des performances différentes de celles observées dans l’historique.

Page 73: Développement et utilisation d’un - Institut des actuaires

73

3.2.4. Analyse graphique des corrélations entre les performances actions

En rassemblant les 120,000 performances générées sur le DJIA et le CAC 40 (1,000 scénarios

projetés sur 30 ans soit 120 trimestres), on obtient le graphique ci-dessous.

On observe que la distribution jointe des performances du CAC 40 relativement à celles du

DJIA des scénarios ont « la même forme » que l’historique. Cela illustre le fait que les

performances des deux indices sont corrélées aussi bien dans les scénarios que dans l’historique.

Intéressons-nous à présent sur la stabilité du coefficient de corrélation dans le temps. Pour cela

nous allons calculer un coefficient de corrélation historique sur 1 année glissante. Le graphique

ci-dessous matérialise l’évolution de ce coefficient :

Page 74: Développement et utilisation d’un - Institut des actuaires

74

On observe que globalement le coefficient de corrélation fluctue autour de 0,69 avec une grande

variabilité. Durant les phases de croissance, la corrélation tend à baisser : l’effet diversification

joue pleinement son rôle. En revanche durant les phases de crise (Crise Asiatique de 1998,

Krack Internet de 2001 / 2002, Faillite de Lehman & Brothers de 2008, Crise de la Zone Euro

de 2014), les corrélations tendent vers 1 ce qui signifie que les indices évoluent de manière

parfaitement synchrone à la baisse : l’effet de diversification perd son sens.

Qu’en est-il dans le cas des scénarios. Nous ne pouvons pas représenter l’évolution graphique

de tous les scénarios. Néanmoins afin de synthétiser au maximum l’information, nous allons

représenter l’évolution de la corrélation glissante sur 4 trimestres entre DJIA et CAC 40 dans

le cas de 3 scénarios précis :

- Scénario dont le coefficient de corrélation entre DJIA et CAC 40 est égal coefficient

de corrélation médian des 1,000 scénarios

- Scénario dont le coefficient de corrélation entre DJIA et CAC 40 est égal coefficient

de corrélation maximum des 1,000 scénarios.

- Scénario dont le coefficient de corrélation entre DJIA et CAC 40 est égal coefficient

de corrélation minimum des 1,000 scénarios.

Les graphiques ci-dessus matérialisant des évolutions de la corrélation entre le DJIA et le

CAC40 dans le cas des scénarios extrêmes et du scénario médian montrent que ALAMO est

capable non seulement de reproduire des scénarios avec présentant un coefficient de corrélation

moyen en phase avec l’historique mais en plus de reproduire des phénomènes alternant phase

de décorrélations et phases de corrélations extrêmes (cluster de corrélations).

-1,00

-0,50

0,00

0,50

1,00

2018

2021

2023

2025

2027

2030

2032

2034

2036

2039

2041

2043

2045

Evolution de la corrélation glissante sur le scénario 111 (coefficient de

corrélation égal à 0,90)

-1,00

-0,50

0,00

0,50

1,00

2018

2021

2023

2026

2028

2031

2033

2036

2038

2041

2043

2046

Evolution de la corrélation glissante sur le scénario 167 (coefficient de

corrélation égal à 0,36)

-1,00

-0,50

0,00

0,50

1,00

2018

2020

2022

2023

2025

2027

2028

2030

2032

2033

2035

2037

2038

2040

2042

2043

2045

2047

Evolution de la corrélation glissante sur le scénario 819 (coefficient de corrélation égal à 0,69)

Page 75: Développement et utilisation d’un - Institut des actuaires

75

3.2.5. Analyse graphique des taux générés

Les graphiques ci-dessous permettent de comparer la distribution des scénarios de taux générés

par ALAMO avec les taux observés dans l’historique.

On observe que graphiquement les scénarios ALAMO arrivent à répliquer tous types de niveaux

de taux allant des taux négatifs aux taux pouvant être supérieurs à 10%. Les taux observés dans

l’historiques sont répliquables par ALAMO.

Page 76: Développement et utilisation d’un - Institut des actuaires

76

3.2.6. Backtesting des indices de taux

Tout comme pour les indices actions, notre objectif est de voir s’il existe des scénarios pouvant

répliquer exactement la trajectoire historique.

Notre point de départ est le suivant. Au 31/12/1994, les niveaux de taux sont les suivants :

- OAT 2 ans : 7,44 %

- OAT 10 ans : 8,28 %

- OAT 30 ans : 4,55 %

On constate très vite qu’il est impossible pour ALAMO de répliquer une trajectoire qui partirait

de ces points-là : en effet, contrairement aux actions, les taux présentent un phénomène

d’autocorrélation très important. De ce fait les taux générés en 2018 et 2019 seront corrélés aux

taux observés en 2017. Les taux en 2017 étant situés entre -0,5% (OAT 2 ans) et 1,5% (OAT

30 ans), il est impossible de générer des taux s’élevant au-dessus de 5% dès 2018.

Néanmoins on observe que à l’exception de ce point de départ, le scénario 468, arrive à

répliquer le trend de l’historique baissier taux. Certes le scénario 468 ne part pas de 8,28% mais

en partant de 5%, on arrive avec ce scénario à des taux proches de 0% 23 ans après ce qui est

cohérent avec l’historique.

Ce Backtesting montre qu’il existe une limite dans l’ESG ALAMO nous amenant à se poser la

question générale suivante : Est-il raisonnable de générer des scénarios de taux centrés autour

d’un trend correspondant au taux moyen observé dans l’historique ? N’est-il pas au contraire

plus judicieux de rendre le drift paramétrable par l’utilisateur afin de tenir compte du fait que

les conditions de taux actuelles (0,50 % / 1,00 % pour l’OAT 10 ans) n’ont plus rien à voir avec

celles qui prévalaient en 1994 (Taux 10 ans compris entre 8 % et 10%) ?

Page 77: Développement et utilisation d’un - Institut des actuaires

77

Au-delà de ce gap de taux il est intéressant de constater la grande diversité qui existe dans les

scénarios générés par ALAMO aussi bien en matière de trend que de volatilité.

Les exemples ci-dessous illustrent quelques exemples de scénarios de taux générés depuis

l’historique :

Scénario Caractéristique

Scénario 37 Scénario dont le taux 10 ans descend le plus bas

Scénario 572 Scénario dont le taux 10 ans colle avec la moyenne et la volatilité de l'historique

Scénario 11 Scénario dont le taux 10 ans monte au plus haut

Scénario 61 Scénario de volatilité minimale (0,77% contre 1,82% pour l'historique)

Scénario 772 Scénario de volatilité maximale (3,51% contre 1,82% pour l'historique)

Scénario 490 Scénario qui présente le GAP le plus faible entre la dernière observation historique et le premier point généré

-8%

-6%

-4%

-2%

0%

2%

4%

6%

8%

10%

1994

1998

2002

2006

2010

2014

2017

2021

2025

2029

2033

2037

2040

2044

Scénario extrême (N° 37) de taux baissant très en dessous de 0

0%

2%

4%

6%

8%

10%

1994

1998

2002

2006

2010

2014

2017

2021

2025

2029

2033

2037

2040

2044

Scénario (N° 572) qui cadre oscillant autour du taux moyen historique avec

la même volatilité que l'historique

0%

2%

4%

6%

8%

10%

12%

14%

1994

1998

2002

2006

2010

2014

2017

2021

2025

2029

2033

2037

2040

2044

Scénario (N° 11) de taux montant bien au dessus de 10%

0%

1%

2%

3%

4%

5%

6%

7%

8%

9%

1994

1998

2002

2006

2010

2014

2017

2021

2025

2029

2033

2037

2040

2044

Scénario (N° 61) de taux montant de volatilité minimale

-4%

-2%

0%

2%

4%

6%

8%

10%

12%

14%

1994

1998

2002

2006

2010

2014

2017

2021

2025

2029

2033

2037

2040

2044

Scénario (N° 772) de taux montant de volatilité maximale

-2%

0%

2%

4%

6%

8%

10%

1994

1998

2002

2006

2010

2014

2017

2021

2025

2029

2033

2037

2040

2044

Scénario (N° 490) de taux montant bien au dessus de 10%

Page 78: Développement et utilisation d’un - Institut des actuaires

78

Les graphiques ci-dessus montrent que ALAMO peut générer à partir de l’historique un grand

nombre de scénarios qui présentent l’avantage de projeter des situations très diverses sans pour

autant créer de situation avec des taux qui divergent vers l’infini ce qui est souvent le cas des

ESG en risque neutre.

Néanmoins, il reste une réserve importante : Sur les 1000 scénarios produits, pas un seul ne

génère de taux inférieurs à 3,50% en date du 31/03/2018 alors que le dernier taux observé dans

l’historique s’élève à 0,78 %. En d’autre termes tous les scénarios sans exception génèrent des

hausses de taux d’au minimum 290 points de base entre T = 31/12/2017 et T = 31/03/2018.

Cette « anomalie » est lié au fait que le dernier point de l’historique est :

- En dessous de la Moyenne Mobile des 20 derniers trimestres (0,78% pour le contre

1,16 %)

- Très en dessous du Drift autour duquel sont centrés les scénarios (0,78% contre

3,78%)

Pour pallier à ce phénomène, il n’existe que trois solutions :

- Générer des scénarios de variations relatives des taux plutôt que des niveaux de

taux : cette méthode n’est pas adaptée au cahier des charges car elle est susceptible

au vu des niveaux actuels de taux de générer un grand nombre de scénarios qui

tendent vers plus l’infini (un taux qui passe de 0,02% à 0,2% enregistre une variation

relative de 1000%)

- Rajouter un régime transitoire de raccordement entre le dernier point de l’historique

et le drift de long terme

- Permettre à l’utilisateur de paramétrer lui-même le Drift sur une ou plusieurs

périodes de projection.

Nous analyserons ces deux dernières solutions un peu plus loin dans cette troisième partie.

Page 79: Développement et utilisation d’un - Institut des actuaires

79

3.2.7. Analyse graphique des corrélations entre les séries de Taux

Tout comme pour les actions, nous nous proposons de situer graphiquement les distributions

jointes des différents OAT produits par les scénarios relativement à l’historique. Les graphiques

ci-dessous représentent les distributions OAT 10 ans relativement à l’OAT 2 ans et l’OAT 30

ans relativement à l’OAT 10 ans

On observe que comme pour les actions, le nuage des performances jointes historique est inclus

dans celui des scénarios. Cela démontre que les scénarios sont capables de générer des

Page 80: Développement et utilisation d’un - Institut des actuaires

80

distributions ayant exactement les mêmes corrélations avec l’historique tout en apportant des

variantes.

A partir de l’évolution historique des OAT 2 ans et 10 ans, on en déduit l’évolution historique

de la pentification de la courbe des taux. On appelle communément pentification de la courbe

des taux, la différence entre le taux long (10 ans) et le taux court (2 ans).

L’historique ci-dessus montre deux choses :

- Le taux 10 ans est presque toujours supérieur au taux 2 ans : cela est logique dans la

mesure où le taux d’intérêt mesure un risque de défaut. Or plus la maturité est élevée

et plus le risque de défaut est élevé et plus le taux est élevé.

-2%

-1%

0%

1%

2%

3%

4%

5%

6%

7%

8%

9%

19

94

1996

1997

1998

19

99

2000

2001

2003

20

04

2005

2006

2007

2008

2010

2011

2012

2013

20

14

2015

2017

Evolutions relatives des OAT 2 et 10 ans

OAT 2 Ans

OAT 10 Ans

0,00%

0,50%

1,00%

1,50%

2,00%

2,50%

3,00%

1994

1996

1997

1998

1999

20

00

2001

2003

2004

2005

2006

2007

20

08

2010

2011

2012

2013

2014

2015

20

17

Evolutions de la pente (OAT 10 ans - OAT 2 ans)

Page 81: Développement et utilisation d’un - Institut des actuaires

81

- La pente entre le 2 ans et le 10 an n’est pas constante dans le temps : elle peut

s’accroitre ou se réduire voire s’inverser de manière occasionnelle. Sur le plan

économique, les praticiens considèrent qu’un aplatissement voire une inversion de

la courbe des taux est annonciatrice d’une récession.

Le graphique ci-dessous qui montre l’évolution respectives des taux 2 et 10 ans dans le cadre

du scénario 168 montre que ALAMO est capable de reproduire des changements dans la

pentification avec un aplatissement voire même une légère inversion de la courbe.

-6%

-4%

-2%

0%

2%

4%

6%

8%

10%

12%

2018

20

19

2021

20

22

2024

2025

2027

2028

2030

2031

2033

2034

2036

2037

20

39

2040

20

42

2043

20

45

2046

Evolutions relatives des OAT 2 et 10 ansScénario 168

OAT 2 Ans

OAT 10 ans

-0,50%

0,00%

0,50%

1,00%

1,50%

2,00%

2,50%

3,00%

2018

20

19

2021

20

22

2024

20

25

2027

20

28

2030

20

31

2033

20

34

2036

20

37

2039

20

40

2042

20

43

2045

20

46

Evolutions de la pente (OAT 10 ans - OAT 2 ans) Scénario 168

Page 82: Développement et utilisation d’un - Institut des actuaires

82

3.3. Analyse statistique descriptive des scénarios de l’ESG A.L.A.M.O.

3.3.1. Introduction

Le paragraphe 3.2 nous a permis de mettre en lumière les propriétés graphiques des scénarios

générés par ALAMO. Aussi on a pu mettre en valeur :

- La présence d’asymétries négatives sur les actions

- Le respect des corrélations entre indices actions (CAC 40 et DJIA)

- La capacité d’ALAMO à backtester l’historique sur les actions

- La capacité d’ALAMO de générer des scénarios alternant plusieurs régimes de

volatilité et de corrélations sur les actions (périodes calmes matérialisées par des

volatilités faibles et des corrélations moyennement élevées suivies de périodes

agitées matérialisées par de fortes volatilités et des corrélations très élevées)

- La capacité d’ALAMO à backtester le trend historique sur les taux sans pouvoir

toutefois répliquer exactement les valeurs passées à cause de l’autocorrélation.

- Le respect des corrélations entre indices de taux (OAT 2 ans, OAT 10 ans et OAT

30 ans)

- La capacité d’ALAMO à générer des scénarios pouvant alterner phase de

pentification de la courbe avec phase d’aplatissement voire d’inversion.

L’objectif de ce paragraphe consiste à introduire des indicateurs destinés à démontrer que les

scénarios générés par ALAMO sont en phase avec l’historique relativement à d’autres

modélisations comme la Loi Normale.

3.3.2. Présentation générale du test statistique du χ²

En statistique, un test du χ2, prononcé « khi-deux » ou « khi carré », est un test statistique où

la statistique de test suit une loi du χ² sous l'hypothèse nulle.

Par exemple, il permet de tester l'adéquation d'une série de données à une famille de lois de

probabilité ou de tester l'indépendance entre deux variables aléatoires.

À la base d'un test de statistique classique, il y a la formulation d'une hypothèse appelée

hypothèse nulle (ou hypothèse zéro), notée H0. Elle suppose que les données considérées

proviennent de variables aléatoires suivant une loi de probabilité donnée, et l'on souhaite tester

la validité de cette hypothèse.

Ces données ayant été réparties en classes, il faut :

- Calculer algébriquement la distance entre les données observées et les données

théoriques attendues ;

- Se donner a priori un risque d'erreur, celle consistant à rejeter l'hypothèse, alors

qu'elle est vraie (la valeur 5 % est souvent choisie par défaut ; il s'agit plus souvent

d'une coutume que du résultat d'une réflexion) ;

Page 83: Développement et utilisation d’un - Institut des actuaires

83

- Déterminer le nombre de degrés de liberté du problème à partir du nombre de

classes, et à l'aide d'une table de χ², déduire, en tenant compte du nombre de degrés

de liberté, la distance critique qui a une probabilité de dépassement égale à ce risque.

Si la distance calculée entre les données observées et théoriques est supérieure à la distance

critique, on conclut que le résultat n'est pas dû seulement aux fluctuations d'échantillonnage, et

que l'hypothèse nulle H0 doit être rejetée. Le risque choisi au départ est celui de donner une

réponse fausse lorsque les fluctuations d'échantillonnage sont seules en cause. Le rejet est

évidemment une réponse négative dans les tests d'adéquation et d'homogénéité mais il apporte

une information positive dans les tests d'indépendance. Pour ceux-ci, il montre le caractère

significatif de la différence.

Ce test permet de vérifier si un échantillon d'une variable aléatoire Y donne des observations

comparables à celles d'une loi de probabilité P définie a priori dont on pense, pour des raisons

théoriques ou pratiques, qu'elle devrait être la loi de Y. L’hypothèse nulle (H0) d'un test du χ2

d'adéquation (dénommé aussi test du χ2 de conformité ou test du χ2 d'ajustement) est donc la

suivante : la variable aléatoire Y suit la loi de probabilité P.

En termes de valeur-p, l'hypothèse nulle (l'observation est suffisamment proche de la théorie)

est généralement rejetée lorsque P ≤ 5%

3.3.3. Construction du test du χ² sur les indices

Nous cherchons à tester si la loi des tirages construits avec ALAMO suit la loi des observations

historiques des rendements. Pour cela on considère la distribution des rendements historiques.

Elle constitue la distribution de référence. On construit l’hypothèse à tester à partir de

l’historique des rendements

A partir des 1,000 scénarios générés par ALAMO sur 120 trimestres, nous disposons d’un

nombre total d’observations de N = 120,000.

Afin de construire notre test statistique, nous allons découper notre intervalle d’observations

des rendements historiques et stochastiques en 6 classes allant de - ∞ à + ∞. Pour ne pas tomber

dans l’arbitraire, les classes seront :

- Centrés autour du rendement moyen μ

- Espacés d’un intervalle égal à la volatilité σ

- Contenant au moins 1 observation de l’historique

On obtient donc c = 6 classes modales :

- ] - ∞ ; μ – 2 σ [

- [ μ – 2 σ ; μ – σ [

- [ μ – σ ; μ [

- [ μ ; μ + σ [

- [ μ + σ ; μ + 2 σ [

- [ μ + 2 σ ; + ∞ [

Page 84: Développement et utilisation d’un - Institut des actuaires

84

Une fois les classes créées, on va dénombrer le nombre d’observations Ni dans chacun de ces

classes : Dans le cas des scénarios ALAMO et des observations historiques, il suffit d’utiliser

des fonctions de dénombrement de type NB.SI sur Excel ou Length sur R

L’étape suivante consistera à calculer la fréquence d’observation dans chaque classe :

- Dans le cas des scénarios ALAMO et des observations historiques, cette fréquence

Fi sur la classe i se calcule en divisant le nombre d’observation dans la classe i, Ni

par le nombre total d’observations N

- Dans le cas de la loi normale, on utilise la fonction de répartition. En reprenant les

notations de la partie 2 et en notant SUPi et INFi les bornes supérieurs et inférieures

de chaque classe modale, on a :

𝐹𝑖 = 𝑓(𝑆𝑈𝑃𝑖 ; μ ; 𝜎) − 𝑓(𝐼𝑁𝐹𝑖 ; μ ; 𝜎)

A partir des fréquences obtenues, on va calculer pour chaque classe la distance algébrique

séparant la fréquence des observations ALAMO et Loi Normale avec la fréquence des

observations historiques. En notant Ti cette distance algébrique normée de la classe i, on a :

𝑇𝑖 (𝐴𝐿𝐴𝑀𝑂) =(𝐹𝑖 (𝐴𝐿𝐴𝑀𝑂)−𝐹𝑖 (𝐻𝐼𝑆𝑇𝑂𝑅𝐼𝑄𝑈𝐸))

2

(𝐹𝑖 (𝐻𝐼𝑆𝑇𝑂𝑅𝐼𝑄𝑈𝐸))2

Et

𝑇𝑖 (𝐺𝑎𝑢𝑠𝑠𝑖𝑒𝑛) =(𝐹𝑖 (𝐺𝑎𝑢𝑠𝑠𝑖𝑒𝑛) − 𝐹𝑖 (𝐻𝐼𝑆𝑇𝑂𝑅𝐼𝑄𝑈𝐸))

2

(𝐹𝑖 (𝐻𝐼𝑆𝑇𝑂𝑅𝐼𝑄𝑈𝐸))2

On définit ensuite la variable T comme étant la somme des Ti :

- Plus T sera faible et plus on sera conforme par rapport à l’historique

- Plus T sera fort et plus on considèrera que nous sommes éloignés de l’historique

Afin de déterminer la frontière entre la validité et la non validité du test, on utilisera la Loi du

Khi deux (χ²). En notant :

- P : L’intervalle de confiance que l’on prendra usuellement égal à 5%

- m : Le nombre de degrés de liberté égal à c – 1 soit 5

On a donc la valeur TFrontalier, qui sépare la validité de la non validité et qui s’écrit en

inversant la loi Khi deux :

𝑇𝐹𝑟𝑜𝑛𝑡𝑎𝑙𝑖𝑒𝑟 = [𝜒²(𝑃;𝑚)]−1

Page 85: Développement et utilisation d’un - Institut des actuaires

85

3.3.4. Résultat du test sur les indices action

Page 86: Développement et utilisation d’un - Institut des actuaires

86

Les résultats montrent qu’avec un niveau de confiance de 95%, les scénarios ALAMO valident

le test statistique du χ² alors que la simulation Gaussienne classique passe à côté aussi bien pour

le CAC 40 que pour le DJIA. Ce test ne fait que formaliser le cahier des charges de la partie II

à savoir la nécessité pour l’ESG en monde réel de modéliser correctement les queues de

distribution et en particulier les asymétries négatives sur les actions qui sont souvent

génératrices de pertes catastrophiques pour des Fonds de rentes fermés.

Si on va plus loin, en inversant le test statistique, on observe que pour le DJIA comme pour le

CAC 40 :

- Les scénarios ALAMO le passe avec succès à un niveau de confiance de 99%

- Les scénarios Gaussiens le passe avec succès à un niveau de confiance de 87%

Or pour optimiser la gestion d’un Fonds de Rentes fermés au sein de BNP Paribas Cardif, il

nous faut piloter des indicateurs centraux comme l’Espérance de gain du Fonds (nécessaire au

calcul de la Participation aux Bénéfices) et la volatilité mais aussi des indicateurs de mesure

des risques extrêmes comme la VaR à 95 ou 99% et l’ES à 95%. Dans ces circonstances, il faut

que le niveau de confiance du test statistique soit au moins égal à 95%. Dans le cas Gaussien

on se situe en deçà de 90% ce qui est insuffisant pour bien estimer les risques extrêmes.

ALAMO semble satisfaire ces contraintes pour les actions et confirme aussi nos observations

graphiques des paragraphes 3.2.2 et 3.3.3

En conclusion de ce paragraphe peut indiquer que les process GARCH et AMIGARCH

apportent une réelle valeur ajoutée dans la génération des scénarios sur les indices actions du

CAC 40 et du DJIA.

Page 87: Développement et utilisation d’un - Institut des actuaires

87

3.3.5. Résultat du test sur les indices taux

On fait de même sur les indices de taux. Néanmoins comme on a pu l’observer dans la partie 2,

les séries Taux sont plutôt Platikurtique c’est-à-dire qu’elles sont plus resserrées autour du Drift.

Par ailleurs le taux 0% constitue une force de rappel même si on observe des taux négatifs. Il

en résulte que les taux peuvent difficilement descendre en dessous de 2 écarts types sous le

Drift. On a donc 0 observations dans la classe modale ] - ꝏ ; μ – 2 σ].

Afin d’avoir un nombre de classes modales suffisant pour notre test statistique, nous allons

réduire leur taille. On introduit le paramètre ξ que l’on fixe à 0,50. Les classes modales

deviennent ainsi :

- ] - ∞ ; μ – 2 ξ σ [ soit ] - ∞ ; μ – σ [

- [ μ – 2 ξ σ ; μ – ξ σ [ soit [ μ – σ ; μ – 0,5 σ [

- [ μ – ξ σ ; μ [ soit [ μ – 0,5 σ ; μ [

- [ μ ; μ + ξ σ [ soit [ μ ; μ + 0,5 σ [

- [ μ + ξ σ ; μ + 2 ξ σ [ soit [ μ + 0,5 σ ; μ + σ [

- [ μ + 2 ξ σ ; + ∞ [ soit [ μ + σ ; + ∞ [

Les tests statistiques sont rassemblés dans les tableaux et graphiques ci-dessous pour les OAT

2, 10 et 30 ans :

Synthèse Test Statistique du Khi Deux sur l'OAT 2 ans

μOAT 2 ans = 2,46% Intervalle de confiance : P = 5%σOAT 2 ans = 2,00% Nombre de classes modales : c = 6

ξ = 0,5 Nombre de degrés de liberté : m = 5

Historique Scénarios ALAMO Loi NormaleNi Fi Ni Fi Ti Ni Ti

< μ - 2ξσ 23 24,73% 21 011 17,51% 0,09 15,87% 0,13[ μ - 2ξσ ; μ - ξσ [ 10 10,75% 18 188 15,16% 0,17 14,99% 0,16[ μ - ξσ ; μ [ 12 12,90% 22 073 18,39% 0,18 19,15% 0,23

[ μ ; μ + ξσ [ 11 11,83% 20 584 17,15% 0,20 19,15% 0,38[ μ + ξσ ; μ + 2ξσ [ 26 27,96% 16 358 13,63% 0,26 14,99% 0,22≥ μ + 2ξσ 11 11,83% 21 786 18,16% 0,29 15,87% 0,12TOTAL 93 100% 120 000 100% 1,19 100% 1,23

TALAMO = 1,19TGaussien = 1,23TFrontalier = 1,15

0,00

0,50

1,00

1,50

2,00

2,50

Gaussien

Frontalier

ALAMO

Page 88: Développement et utilisation d’un - Institut des actuaires

88

Synthèse Test Statistique du Khi Deux sur l'OAT 10 ans

μOAT 10 ans = 3,78% Intervalle de confiance : P = 5%σOAT 10 ans = 1,82% Nombre de classes modales : c = 6

ξ = 0,5 Nombre de degrés de liberté : m = 5

Historique Scénarios ALAMO Loi NormaleNi Fi Ni Fi Ti Ni Ti

< μ - σ 15 16,13% 21 181 17,65% 0,01 15,87% 0,00[ μ - σ ; μ - 0,5 σ [ 10 10,75% 16 564 13,80% 0,08 14,99% 0,16[ μ - 0,5 σ ; μ [ 18 19,35% 21 501 17,92% 0,01 19,15% 0,00

[ μ ; μ + 0,5 σ [ 22 23,66% 22 245 18,54% 0,05 19,15% 0,04[ μ + 0,5 σ ; μ + σ [ 18 19,35% 17 561 14,63% 0,06 14,99% 0,05≥ μ + σ 10 10,75% 20 948 17,46% 0,39 15,87% 0,23TOTAL 93 100% 120 000 100% 0,59 100% 0,47

TALAMO = 0,59TGaussien = 0,47TFrontalier = 1,15

0,00

0,50

1,00

1,50

2,00

2,50

Gaussien

Frontalier

ALAMO

Synthèse Test Statistique du Khi Deux sur l'OAT 30 ans

μOAT 30 ans = 4,17% Intervalle de confiance : P = 5%σOAT 30 ans = 1,32% Nombre de classes modales : c = 6

ξ = 0,5 Nombre de degrés de liberté : m = 5

Historique Scénarios ALAMO Loi NormaleNi Fi Ni Fi Ti Ni Ti

< μ - σ 15 16,13% 21 725 18,10% 0,01 15,87% 0,00[ μ - σ ; μ - 0,5 σ [ 9 9,68% 16 689 13,91% 0,19 14,99% 0,30[ μ - 0,5 σ ; μ [ 16 17,20% 21 275 17,73% 0,00 19,15% 0,01

[ μ ; μ + 0,5 σ [ 20 21,51% 20 940 17,45% 0,04 19,15% 0,01[ μ + 0,5 σ ; μ + σ [ 18 19,35% 17 133 14,28% 0,07 14,99% 0,05≥ μ + σ 15 16,13% 22 238 18,53% 0,02 15,87% 0,00TOTAL 93 100% 120 000 100% 0,33 100% 0,38

TALAMO = 0,33TGaussien = 0,38TFrontalier = 1,15

0,00

0,50

1,00

1,50

2,00

2,50

Gaussien

Frontalier

ALAMO

Page 89: Développement et utilisation d’un - Institut des actuaires

89

Les résultats ci-dessus montrent que globalement les tests statistiques valident le fait que les

scénarios ALAMO sont en phase avec les observations historiques à deux petites réserves près :

- Sur l’OAT 2 ans, le test statistique n’est pas concluant puisque les scénarios

ALAMO ne le valident pas. Toutefois, l’échec de la validation se jour à l’épaisseur

du trait (1,19 contre 1,15)

- Relativement aux scénarios Gaussiens, les scénarios ALAMO enregistrent des

scores décevants : Cela montre que sur des scénarios de taux, les process GARCH

et AMIGARCH n’apportent pas une grande valeur ajoutée.

En conclusion, on peut noter que les scénarios ALAMO sur les taux sont en phase avec les

séries historiques même si l’apport de GARCH et d’AMIGARCH reste discutable. Les process

apportant une réelle valeur ajoutée dans la simulation des taux sont les process de CHOLESKY

et de YUKE WALKER.

Dans le prochain paragraphe nous essaieront de construire une relation liant les OAT 30 ans

avec les OAT 2 et 10 ans.

Page 90: Développement et utilisation d’un - Institut des actuaires

90

3.3.6. Construction d’une relation liant les OAT 2, 10 et 30 ans

Sur le plan macroéconomique, les taux d’intérêt mesurent 2 choses :

- Le niveau de risque d’un émetteur

- Les projections de croissance et d’inflation d’un Etat tel qu’anticipée par le marché

Dans le cas d’une projection du taux OAT, celui-ci mesure surtout les projections de croissance

et d’inflation de l’Etat Français dans la mesure où à aucun moment sur ces 30 dernières années,

le marché n’a « pricé » le risque de défaut de la France.

Effectuons la procédure suivante sur l’historique :

- On trie le tableau des OAT 2, 10 et 30 ans non pas par rapport à la date mais par

rapport au taux OAT 2 ans dans l’ordre croissant.

- Les OAT 2 ans sont rassemblés en classes modales allant de -0,50% à +8,00 % en

pas de 0,50%

- Pour chaque classe modale de l’OAT 2 ans, on calcule le taux moyen pris par les

OAT 10 ans et 30 ans.

On obtient ainsi le tableau suivant et le graphique en 3D (courbes de niveaux) ci-dessous :

OAT 2 Ans -0,50% 0,00% 0,50% 1,00% 1,50% 2,00% 2,50% 3,00% 3,50%

OAT 10 Ans 0,44% 0,87% 2,19% 3,03% 3,58% 3,65% 3,75% 4,13% 4,19%

OAT 30 Ans 1,34% 1,84% 3,20% 3,66% 4,16% 4,27% 4,37% 4,77% 4,85%

OAT 2 Ans 4,00% 4,50% 5,00% 5,50% 6,00% 6,50% 7,00% 7,50% 8,00%

OAT 10 Ans 4,80% 5,03% 5,81% 6,03% 6,76% 7,49% 7,62% 8,09% 7,84%

OAT 30 Ans 5,07% 5,40% 5,25% 5,47% 5,14% 4,81% 4,79% 4,58% 4,48%

Page 91: Développement et utilisation d’un - Institut des actuaires

91

On observe la chose suivante :

- Lorsque les taux courts (OAT 2 ans) sont très bas, les taux longs (OAT 10 ans) et

très longs (OAT 30 ans) sont bas aussi mais sont ordonnés par ordre croissants (OAT

2 ans < OAT 10 ans < OAT 30 ans)

- Lorsque les taux courts augmentent, on observe que en moyenne, cette hausse des

taux se diffuse à l’ensemble des maturités puisque les taux OAT 10 ans et OAT 30

ans montent aussi.

- A partir d’un certain niveau de taux courts (1,50%), les OAT 30 ans se mettent à

monter de moins en moins vite relativement aux OAT 10 ans.

- A partir du niveau de 5% sur les taux courts, l’OAT 30 ans passe sous l’OAT 10

ans : on assiste donc à une inversion de courbe.

Sur le plan macroéconomique cette observation est logique dans la mesure où si le taux court

(OAT 2 ans) « drivé » par la Banque Centrale Européenne monte trop, cela engendre une baisse

du potentiel de croissance à long et très long terme. On assiste donc à une baisse de l’OAT 30

ans qui passe sous l’OAT 10 ans qui lui-même passe sous l’OAT 2 ans. On parle alors

d’inversion de la courbe des taux prélude à une récession. Cela pousse alors la Banque Centrale

Européenne à baisser les taux ce qui entraine une baisse de l’OAT 2 ans et une repentification

de la courbe des taux indiquant que le marché « reprice » une reprise de la croissance.

Reprenons maintenant les historiques des OAT 2 ans, 10 ans et 30 ans classés par ordre

chronologique. Introduisons la variable Δ qui mesure la pente entre le taux 30 ans et le taux

10 ans. On aurait par définition :

Δt = rOAT 30 ans , t – rOAT 10 ans , t

On effectue maintenant une régression linéaire entre la variable Δ et la variable rOAT 2 ans. Les

résultats sont assemblés dans le tableau ci-dessous :

Statistiques de la régression de la variable ΔCoefficient de détermination multiple 0,716437

Coefficient de détermination R^2 0,513282

Coefficient de détermination R^2 0,507934

Erreur-type 0,006235

Observations 93

ANALYSE DE VARIANCE

Degré de

liberté

Somme des

carrés

Moyenne

des carrésF

Valeur

critique de F

Régression 1 0,003730421 0,003730421 95,9666941 6,80511E-16

Résidus 91 0,003537356 3,8872E-05

Total 92 0,007267777

Coefficients Erreur-type T - Stat P - Val

Limite

inférieure

pour seuil de

confiance =

95%

Limite

supérieure

pour seuil de

confiance =

95%

Constante B 0,011749594 0,001030485 11,40200627 3,15687E-19 0,009702662 0,013796525

Variable OAT 2 ans -0,31906077 0,032569654 -9,79625919 6,80511E-16 -0,38375638 -0,25436515

Page 92: Développement et utilisation d’un - Institut des actuaires

92

On observe sur l’historique les 3 choses suivantes :

- De manière générale la pente OAT 10 ans – OAT 30 ans est positive (cellule de

couleur bleue) ce qui est conforme à la logique : le taux augmente avec la maturité

- La pente Δ entre l’OAT 30 ans et l’OAT 10 ans est une fonction décroissante du

taux 2 ans (cellule de couleur rouge). A partir d’un certain niveau d’OAT 2 ans, elle

finit par devenir négative. On a alors une inversion.

- Le résultat de cette régression est pertinent comme l’indique les valeurs de P-VAL

qui sont très inférieures à 0,05 dont on admet qu’il s’agit de l’intervalle de confiance

limite validant la réussite du test.

Faisons maintenant la même chose avec les scénarios ALAMO. Comme avec l’historique, pour

chaque scénario on crée une variable Δ mesurant la pente de la courbe des taux. On effectue

ensuite la régression comme pour l’historique. On obtient le tableau récapitulatif suivant :

On constate que les scénarios ALAMO reproduisent très bien le comportement empirique

observé dans l’historique avec une pente de courbe globalement positive mais qui tend à

diminuer avec l’augmentation du taux court. On observe d’un point de vu statistique que :

- Les constantes B et Δ des scénarios sont voisines de celles de l’historique

- Le résultat du test statistique (P-Val) est aussi validé dans le cas des scénarios

Ces résultats obtenus sur 120,000 points mettent en valeur la force de l’ESG ALAMO capable

de répliquer « statistiquement » les déformations de la courbe des taux par le jeu des

corrélations entre points de taux et les autocorrélations de chacune des séries.

Statistiques de la régression de la variable ΔCoefficient de détermination multiple 0,886360877

Coefficient de détermination R^2 0,785635604

Coefficient de détermination R^2 0,785633817

Erreur-type 0,003776254

Observations 120000

ANALYSE DE VARIANCE

Degré de

liberté

Somme des

carrés

Moyenne

des carrésF

Valeur

critique de F

Régression 1 6,271405379 6,271405379 439787,1235 0

Résidus 119998 1,711182667 1,42601E-05

Total 119999 7,982588045

Coefficients Erreur-type Statistique t P - Val

Limite

inférieure

pour seuil de

confiance =

95%

Limite

supérieure

pour seuil de

confiance =

95%

Constante B 0,011959518 1,63386E-05 731,9794995 0 0,011927495 0,011991542

Variable OAT 2 ans -0,32758117 0,000493967 -663,164477 0 -0,32854934 -0,326613

Page 93: Développement et utilisation d’un - Institut des actuaires

93

3.3.7. Construction d’une ACP sur l’historique

La matrice de corrélations construite dans le paragraphe 2.1.5. nous a permis de mettre en valeur

les relations linéaires pouvant exister entre les différents actifs. Néanmoins la matrice de

corrélations donne une vue macro et ne permet pas de donner un pouvoir explicatif de chacun

des actifs dans les séries temporelles de performances. Nous allons donc effectuer une Analyse

en Composantes Principales : L'analyse en composantes principales (ACP) ou selon le domaine

d'application la transformation de Karhunen–Loève (KLT), est une méthode de la famille de

l'analyse des données et plus généralement de la statistique multivariée, qui consiste à

transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles

variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes

principales », ou axes principaux. Elle permet au praticien de réduire le nombre de variables et

de rendre l'information moins redondante.

Nous allons donc à partir de l’historique des performances des séries actions et taux construire

les composantes principales en situant ensuite la position de chaque actif sur les composantes.

Dans un premier temps nous construisons la matrice M de dimension K x N composée des 92

performances trimestrielles de l’historique pour chacun des 5 actifs (K = 92 et N = 5)

Dans un second temps nous centrons la matrice M en retranchant à chaque performance le drift

de l’actif correspondant. On note , cette nouvelle matrice centrée qui découle des coefficients

de la matrice initiale M. A partir de la matrice M. En divisant les coefficient de par les

volatilités des actifs, on en déduit la matrice centrée réduite de M que l’on note

En utilisant la notation « » pour définir la transposition d’une matrice, on en déduit ainsi la

matrice de Variances – Covariances que l’on note V et qui s’écrit :

La matrice V est diagonalisable. On calcule ses valeurs propres et ses vecteurs propres

facilement avec le logiciel R au travers des fonctions suivantes :

• x = eigen(V) : Diagonalisation de la matrice

• Λ = x$values : Calcul des valeurs propres

• U = x$vectors : Calcul des vecteurs propres

Dans le cas de l’historique, on a :

Λ = 0,01500582 0,0026523 0,00083275 4,2461E-05 1,2358E-05

U = 0,87541443 0,02139436 0,48287978 0,00435375 -0,00017166

0,47577009 0,13832967 -0,86859668 -0,00645948 -0,00241012

-0,05305692 0,61736708 0,06326567 0,63559103 0,45614071

-0,05380795 0,61226682 0,07053265 -0,04323995 -0,78446766

-0,03977522 0,47370288 0,05821971 -0,77077472 0,42016701

V = 1

𝐾'.

'

Page 94: Développement et utilisation d’un - Institut des actuaires

94

On constate que les deux premières valeurs propres sont très supérieures aux autres. On

retiendra les deux premiers vecteurs propres associés de la matrice que l’on notera u1 et u2.

La suite de l’ACP consiste à projeter orthogonalement (PO) la matrice sur chacune des 2

principales composantes u1 et u2.

𝑃𝑂(, 𝑢2) = . 𝑢2

La dernière étape consiste enfin à situer les 5 actifs sur le cercle factoriel en calculant le

coefficient de corrélation linéaire entre et le projeté orthogonal de sur u1 et u2.

On constate que sur les nouvelles composantes u1 et u2 les performances historiques

s’expliquent en grande partie grâce à 2 groupes d’actifs :

- Les OAT 2 ans, 10 ans et 30 ans qui ont un fort pouvoir explicatif sur l’axe u1

- Les indices CAC 40 et DJIA qui ont un fort pouvoir explicatif sur l’axe u2.

𝑃𝑂(, 𝑢1) = . 𝑢1

Page 95: Développement et utilisation d’un - Institut des actuaires

95

3.3.8. Position des scénarios d’actifs sur le cercle factoriel de l’ACP

Une fois le cercle factoriel construit sur lequel sont positionnés les actifs au vu de leurs

performances historiques, nous allons positionner chacun des scénarios. Pour ce faire nous

construisons un algorithme itératif consistant à projeter chaque scénario produisant une matrice

M sur les vecteurs u1 et u2.

On obtient le graphique « thermique » ci-dessous qui positionne « les grappes » de scénarios

sur le cercle factoriel relativement aux points vers qui représentent l’historique

- Dans le disque de couleur rouge vif sont situés 75% des scénarios

- Dans le disque de couleur rouge intermédiaire sont situés 20% des scénarios

- Dans le disque de couleur rouge pâle sont situés les 5% des scénarios restants

On constate que pour chaque actif, les scénarios projetés sur les différents axes donnent des

résultats très proche de l’historique comme l’illustrent les disques de couleur la plus marquée

qui sont centrés autour des points de l’historique.

-1,00

-0,80

-0,60

-0,40

-0,20

0,00

0,20

0,40

0,60

0,80

1,00

-1,00 -0,80 -0,60 -0,40 -0,20 0,00 0,20 0,40 0,60 0,80 1,00

Cercle Factoriel - (u2 ; u1)

Page 96: Développement et utilisation d’un - Institut des actuaires

96

3.3.9. Conclusions

L’analyse statistique descriptive nous a permis de montrer que sur des actifs de types Actions

et Taux qui constituent plus de 90 % de la valeur boursière du portefeuille de Cardif, les

scénarios de projection en pas trimestriel (pas qui constitue la période d’observation usuelle en

Assurance Vie) sur 30 ans sont en phase avec l’historique.

- Les tests statistiques de type χ² nous ont montré que les distributions des

performances des actions (DJIA et CAC40) sont en adéquation avec les distributions

historiques avec un indice de confiance de près de 99% (contre 87% pour les tirages

gaussiens)

- Les tests de régression ont démontré que le comportement des courbes de taux

générés par ALAMO sont en phase avec celui observé sur l’historique et en

particulier le mouvement de l’OAT 30 ans qui suit l’OAT 2 ans mais dont la pente

par rapport au 10 ans est une fonction décroissante de l’OAT 2 ans. Cette

caractéristique que l’on observe dans l’historique et qui s’explique d’un point de vu

macroéconomique se retrouve dans les scénarios avec une P-Val proche de 0 comme

dans l’historique.

- L’analyse en composante principale appliquée aux scénarios aboutis à des

projections des classes d’actifs sur le cercle factoriel qui sont proches de l’historique.

Ainsi le fort pouvoir explicatif des taux sur l’axe u1 et des actions sur l’axe u2 que

l’on observe sur l’historique se retrouve dans plus de 75% des scénarios.

Si cette partie statistique descriptive a permis de mettre en valeur les forces d’A.L.A.M.O. au

même titre que la partie 3.2, l’ESG présente néanmoins des limites que nous étudierons dans le

prochain paragraphe.

Page 97: Développement et utilisation d’un - Institut des actuaires

97

3.4. Limites de l’ESG A.L.A.M.O

3.4.1. Introduction

Les parties 3.2 et 3.3 nous ont permis de démontrer graphiquement et statistiquement que l’ESG

A.L.A.M.O. répond bien au cahier des charges défini par BNP Paribas Cardif consistant à

générer des scénarios de taux et d’actions en pas trimestriel en phase avec les moments

historiques afin de mieux optimiser la gestion des fonds de rentes fermés.

Néanmoins il serait intéressant d’étudier comment se comportent le Générateur de Scénarios

A.L.A.M.O. lorsque l’on stress certains paramètres comme les moments à répliquer ou encore

le pas de temps des scénarios. Autrement dit, l’ESG A.L.A.M.O. qui satisfait au cahier des

charges de BNP Paribas Cardif peut il satisfaire un autre cahier des charges plus ou moins

éloigné ? Si tel n’est pas le cas y a-t-il des possibilités d’adapter A.L.A.M.O. pour le rendre

adaptable à d’autres exigences ?

3.4.2. Réplication exacte des Skewness et Excess Kurtosis

a) Illustration avec le Dow Jones de 1986 à 2017

Prenons l’exemple du Dow Jones en pas journalier du 16 juin 1986 au 16 Juin 2017 soit 31 ans

d’historique ce qui donne 7817 observations. L’objectif est de simuler 1,000 scénarios

d’évolution de cet indice sur 1 an en pas journalier. Il s’agit donc de générer 1,000 trajectoires

de 260 points chacune (1 année comporte environ 260 jours ouvrés).

A partir de Bloomberg, on télécharge les 7817 valeurs du Dow Jones représentées sur le

graphique ci-dessous :

Source : Bloomberg

Page 98: Développement et utilisation d’un - Institut des actuaires

98

Le calcul des moments en pas journalier du Dow Jones sur l’historique donne les résultats

suivants :

Le calcul des moments basé sur les 1,000 scénarios générés par A.L.A.M.O. donne les résultats

suivants :

b) Analyse et interprétation des résultats

On observe que la moyenne des scénarios projetés sur 260 jours ouvrés converge vers la

moyenne historique calibrée dans A.L.A.M.O. Il en va de même pour la volatilité qui est

exactement égale à celle calibrée dans A.L.A.M.O.. En revanche les scénarios A.L.A.M.O.

n’arrivent pas du tout à répliquer l’Excess Kurtosis de cette série. L’Excess Kurtosis moyenne

sur 1,000 scénarios converge vers 8,25 tandis que la mesure de l’historique indique une valeur

de 29,74 soit un facteur allant de 1 à 5. Il en va de même pour la Skewness qui ressort à -1,09

dans l’historique contre -0,19 pour A.L.A.M.O.

La première limite d’A.L.A.M.O. réside dans le fait que l’outil n’arrive pas toujours à simuler

des Excess Kurtosis conformes à l’historique. Le générateur de scénarios arrive à répliquer la

nature de la queue de distribution en générant des scénarios de Dow Jones qui en moyenne ont

une queue épaisse (+5,75) avec une asymétrie négative (-1,07) mais ne réplique pas la valeur

de l’Excess Kurtosis de l’historique (+29,74)

Cette limite est à relativiser par l’étude que nous allons faire : Nous avons à notre disposition

un historique avec 7817, observations. En observant de plus près l’historique on constate que

en Octobre 1987, le Dow Jones a perdu sur la seule journée du 19 Octobre 1987 près de

22,61% !!! La cause en a été le déclenchement d’ordres stop incontrôlés qui ont provoqué une

explosion auto entretenue des ordres de ventes provoquant ainsi un véritable Krack Boursier.

Celui-ci est parti de craintes de relèvements excessifs des taux de la Fed. La conjugaison de

craintes économiques et ajoutée à une robotisation des salles de marché qui était à ses débuts a

provoqué un emballement à la baisse des cours des indices boursiers sans que l’on puisse

interrompre la séance. Ce Krack du 19 Octobre a été résorbé en 2 séances, les 20 et 21 octobre

par des envolées respectives de 5,88% et 10,15%.

Recalculons les moments de l’historique en enlevant juste ces 3 points qui ne représentent que

0,04 % de la totalité des 7817 observations passées. Les résultats sont rassemblés dans le tableau

ci-dessous :

Moyenne : 0,04%

Volatilité : 1,11%

Skewness : -1,09

Excess Kurtosis : 29,74

Moyenne : 0,04%

Volatilité : 1,09%

Skewness : -0,19

Excess Kurtosis : 8,25

Page 99: Développement et utilisation d’un - Institut des actuaires

99

On observe que si a volatilité et le drift de l’historique sont stables et ne bougent quasiment pas

si on enlève quelques observations, la Skewness et l’Excess Kurtosis sont très sensibles aux

valeurs extrêmes. L’ESG A.L.AM.O. basé sur le modèle AMIGARCH a bien répliqué

l’historique sans les 3 points extrêmes observés alors qu’il n’a pu répliquer les évènements

survenus en Octobre 1987. Cela est lié au fait que le krack de 1987 inédit dans l’histoire des

marchés (même en 1929 cette situation n’a pu être observée) est survenu sans aucun signe

avant-coureur matérialisé par une augmentation de la volatilité. La seule manière de reproduire

cet évènement consiste à passer par des processus à sauts. Malheureusement en faisant cela on

arrive certes à reproduire des sauts mais on perd l’approche « volatilité stochastique » qui est

bien modélisé dans AMIGARCH et qui reproduit 99% des situatons de marché : en effet tous

les kracks observés durant ce dernier siècle (1929, 1973, 1979, 1998, 2001, 2008) ont été

précédés par une remontée de la volatilité traduisant un système boursier qui tel un ressort

devient de plus en plus instable avant de chuter.

c) Conclusions et conséquences

En conclusion on peut confirmer que l’ESG A.LA.M.O. ne réplique pas toujours les Skewness

et Excess Kurtosis. Cette limite est toutefois à relativiser dans la mesure où :

- L’ESG A.LA.M.O. sans répliquer la valeur de ces deux moments arrive à en

reproduire le sens

- Les très fortes Kurtosis observées dans le passé sur les marchés actions sont en

grandes partie liées à un manque de maturité des systèmes informatique et de la

robotisation des salles générant des sauts des cours de bourse. Cette situation a peu

de chances de se produire aujourd’hui du fait de la fermeture systématique des

cotations après une chute supérieur à une certaine intensité sur une journée.

- Relativement aux processus à sauts qui permettent de reproduire à l’identique les

Skewness et Kurtosis, l’approche AMIGARCH reste plus pertinente dans la mesure

où elle reproduit la cause responsable à 99% de la chute des marchés à savoir une

hausse progressive de la volatilité suivie souvent d’une chute brutale des cours.

Historique complet

du 16/06/1986 au

15/06/2017

Historique sans les

19, 20 et 21

Octobre 2017

1000 Scénarios générés

par l'ESG A.L.A.M.O.

sur 260 jours

Moyenne 0,04% 0,04% 0,04%

Volatilité 1,11% 1,08% 1,09%

Skewness -1,09 -0,14 -0,19

Excess Kurtosis 29,74 8,34 8,25

Page 100: Développement et utilisation d’un - Institut des actuaires

100

3.4.3. Réplication des autocorrélations proches de 1

a) Problématique

Nous avons dans la partie 2, construit à partir des équations de Yuke-Walker un algorithme

permettant de générer des séries auto corrélées. Cet algorithme fondé sur une bijection entre les

coefficients des moyennes mobiles à T, T-1, …, T-20 et le coefficient d’autocorrélation d’ordre

1 présente toutefois une limite. En nous arrêtant à une profondeur de T-20, l’ESG A.L.A.M.O.

ne peut répliquer les autocorrélations supérieures à un certain niveau. L’objet de ce paragraphe

est de déterminer le coefficient maximal d’autocorrélation que peut répliquer l’algorithme mis

en œuvre dans A.L.A.M.O.

b) Détermination du coefficient d’autocorrélation maximal

Considérons une série temporelle ayant un coefficient d’autocorrélation nul. Appliquons-lui le

vecteur de coefficients de moyenne mobiles dont les 20 coefficients sont tous égaux à 0,05. On

notera cette matrice des coefficients de moyennes mobiles : M1/20. Par construction au vu du

paragraphe 2.2.5., cette matrice de coefficients est celle qui donnera le plus grand coefficient

d’autocorrélation. Les résultats de la bijection sont donnés dans le graphique ci-dessous :

Coefficient d'autocorrélation de la série initiale 0,00

Coefficient d'autocorrélation de la série transformée 0,95

-6%

-4%

-2%

0%

2%

4%

6%

8%

10%

Niv

eau

de

tau

x

Horizon de projection en jours

Impact de la transformation par application de la MM1/20 sur une série à coefficient d'autocorrélation nul

Série Initiale

Série Initiale après application du vecteur MM1/20

Page 101: Développement et utilisation d’un - Institut des actuaires

101

c) Analyse des résultats

Les résultats du paragraphe ci-dessus montrent que même après application du processus de

lissage par Moyenne Mobile le plus fort, le coefficient d’autocorrélation maximal ne peut

dépasser 0,95.

Afin d’évaluer les conséquences de cette limite, nous allons mesurer le coefficient

d’autocorrélation sur des séries historiques de taux en pas journalier qui par nature présentent

les niveaux de coefficients d’autocorrélation les plus élevés parmi les classes d’actifs usuelles.

A partir des séries de taux Swap allant de 1 à 50 ans de maturité, téléchargées sur Bloomberg,

nous calculons les coefficients d’autocorrélation en pas journalier, hebdomadaire, mensuel et

annuel.

Les résultats sont rassemblés dans le tableau ci-dessous :

Les résultats du tableau ci-dessus montrent que :

- Pour les historiques en pas annuels et mensuels, les coefficients d’autocorrélation

sont très en dessous de 0,95 et peuvent donc être répliqués sans difficulté par l’ESG

A.L.A.M.O.

- Pour les historiques en pas quotidien et hebdomadaires, les coefficients

d’autocorrélation sont supérieurs à 0,95 et les scénarios générés par A.L.A.M.O. sur

ces pas seront alors moins lissés.

Néanmoins comme le montreront les applications numériques de la partie 4, l’ESG A.LA.M.O.

est surtout utilisé pour générer des trajectoires en pas annuel sur 30 à 50 ans.

Journalier Hebdomadaire Mensuel Annuel

Taux Swap EURO 1Y 0,9936 0,9775 0,8715 0,6269

Taux Swap EURO 2Y 0,9971 0,9836 0,8976 0,6237

Taux Swap EURO 3Y 0,9979 0,9861 0,8937 0,6206

Taux Swap EURO 4Y 0,9981 0,9865 0,8952 0,6175

Taux Swap EURO 5Y 0,9985 0,9884 0,9069 0,6144

Taux Swap EURO 6Y 0,9981 0,9879 0,9118 0,6114

Taux Swap EURO 7Y 0,9983 0,9890 0,9296 0,6083

Taux Swap EURO 8Y 0,9982 0,9881 0,9224 0,6053

Taux Swap EURO 9Y 0,9982 0,9889 0,9265 0,6023

Taux Swap EURO 10Y 0,9983 0,9882 0,9342 0,5993

Taux Swap EURO 12Y 0,9978 0,9855 0,9227 0,5933

Taux Swap EURO 15Y 0,9974 0,9845 0,9110 0,5845

Taux Swap EURO 20Y 0,9973 0,9850 0,9081 0,5700

Taux Swap EURO 25Y 0,9963 0,9789 0,9029 0,5560

Taux Swap EURO 30Y 0,9971 0,9822 0,9062 0,5422

Taux Swap EURO 35Y 0,9980 0,9835 0,9044 0,5289

Taux Swap EURO 40Y 0,9939 0,9775 0,8960 0,5158

Taux Swap EURO 45Y 0,9980 0,9832 0,9025 0,5031

Taux Swap EURO 50Y 0,9965 0,9794 0,8923 0,4906

Coefficients d'autocorrélation des séries de Swap de taux d'intérêts EURO

Page 102: Développement et utilisation d’un - Institut des actuaires

102

Il est très rare d’avoir à générer des scénarios en pas quotidien ou hebdomadaires. Cela peut

arriver dans certaines études très spécifiques comme le lancement d’un nouveau Fonds en Euros

dans une région du monde où les taux d’intérêts sont élevés. Dans ce cas on

retraite « manuellement » les scénarios générés par A.L.A.M.O. en appliquant aux séries ayant

un coefficient d’autocorrélation de 0,95 un nouveau lissage par moyenne mobile. Les résultats

sont synthétisés dans le graphique ci-dessous :

Comme le montre le graphique ci-dessus, avec une nouvelle transformation par Moyenne

Mobile, on arrive à répliquer des niveaux d’autocorrélations supérieurs à 0,99 qui correspondent

à des niveaux d’autocorrélation observés sur des séries de taux en pas quotidiens ou

hebdomadaires.

L’application d’une transformation manuelle sur des scénarios ALAMO n’est pas optimale sur

le plan de la rapidité mais étant donné le très faible nombre d’études à effectuer en pas quotidien

ou hebdomadaire, il n’a pas été jugé utile de développer un nouveau module dans l’ESG.

d) Conclusion

L’ESG ALAMO qui répond au cahier des charges de BNP Paribas Cardif se révèle insuffisant

pour satisfaire à des cahiers des charges d’une Salle de Marchés bancaire dans la mesure où les

Traders doivent modéliser le comportement des actifs en pas journalier voir en pas horaire ou

minute. Cette diminution du pas de temps engendre des Skewness et Excess Kurtosis qui

peuvent tendre vers l’infini en valeur absolu et des coefficients d’autocorrélations compris entre

0,99 et 1,00. ALAMO ne peut répliquer ces phénomènes extrêmes. Pour ce faire il faut utiliser

des processus à saut (modèle de Merton) sur les actions et des processus de diffusion avec retour

vers la moyenne (Vacisek, Nelson & Siegel, Cox Ingersoll & Ross, …) pour les taux. Ces

Processus ne sont pas à l’œuvre dans ALAMO : il peut être alors envisageable de considérer un

modèle spécifique à la génération de scénarios de stress.

0

Coefficient d'autocorrélation de la série transformée 0,9501

Coefficient d'autocorrélation de la série transformée + transformation manuelle 0,9960

0,0%

0,5%

1,0%

1,5%

2,0%

2,5%

3,0%

3,5%

Nive

au d

e tau

x

Horizon de projection en jours

Impact de la transformation manuelle par application de la MM1/20 sur une série à coefficient d'autocorrélation de 0,95

Série Initiale après application du vecteur MM1/20

Série Initiale après application du vecteur MM1/20 + transformation manuelle avec le veteur MM1/20

Page 103: Développement et utilisation d’un - Institut des actuaires

103

3.4.4. Respect des corrélations dans le cas d’actifs auto corrélés

a) Position du problème

Considérons 2 actifs A et B qui présentent les caractéristiques suivantes :

Lorsque l’on génère 1000 scénarios ALAMO sur un horizon de 100 pas de projection, les

moments ci-dessus peuvent être facilement respectés :

- En paramétrant les coefficients AMIGARCH de la manière suivante : α = 0, β = 0,

γ = 1 et q = ½

- En appliquant la transformation de Cholesky

- En paramétrant les ωi du modèle Yuke Walker de la manière suivante : ω1 = 1 et

ω2≤i≤20 = 0

Faisons varier l’autocorrélation ρ des actifs A et B de 0,00 à 1,00 et générons 1000 scénarios

d’ALAMO en adaptant les coefficients ωi pour coller au mieux à l’autocorrélation de l’actif B

et observons le comportement du coefficient de corrélation entre A et B.

b) Résultats

Les résultats de l’exercice sont rassemblés dans les graphiques ci-dessous :

μ σ S K ρ ρi,j A B

A 0% 20% 0,00 0,00 0,00 A 1,00 0,70

B 0% 5% 0,00 0,00 0,00 B 0,70 1,00

Page 104: Développement et utilisation d’un - Institut des actuaires

104

Ces graphiques nous apprennent plusieurs choses :

- Lorsque l’autocorrélation des actifs A et B reste contenue sous 0,40, la corrélation

entre les actifs A et B reste proche de la corrélation cible recherchée (0,70)

- Lorsque l’on augmente le coefficient d’autocorrélation d’un actif au-dessus de 0,40

en gardant l’autre actif en dessous de 0,40, le coefficient de corrélation entre les

actifs A et B baisse sensiblement et on s’éloigne de l’objectif consistant à répliquer

la corrélation enter A et B.

- Lorsque les coefficients d’autocorrélation de A et de B augmentent en parallèle, la

corrélation entre A et B reste contenue autour de 0,70.

- Lorsque l’on augmente les coefficients d’autocorrélation de A et de B au-dessus de

0,99 pour les faire tendre vers 1,00, le coefficient de corrélation entre A et B

s’effondre et tend vers 0.

c) Conclusions

Il existe des situations « théoriques » dans lesquelles ALAMO ne peut répliquer à la fois les

phénomènes de corrélations et d’autocorrélations. En pratique ces situations de coefficients

d’autocorrélations supérieurs à 0,99 s’observent en pas journalier sur des séries de taux

d’intérêts. Les situations où l’on peut observer 2 actifs ayant un fort coefficient de corrélation

mais dont l’un présente un fort coefficient d’autocorrélation tandis que l’autre présente un faible

coefficient d’autocorrélation sont rares sur les marchés financiers. On peut l’observer en pas

« minute » après la parution par exemple d’une bonne nouvelle macroéconomique : dans ce cas

Page 105: Développement et utilisation d’un - Institut des actuaires

105

on peut voir une remontée continue des taux d’intérêts couplée d’une succession de

performances fortement positives sur les actions entrecoupées de petites phases de

consolidation. On obtient dans ce cas là des actions et des taux qui évoluent avec un coefficient

de corrélation important mais avec d’un côté des taux qui présentent un très fort coefficient

d’autocorrélation et de l’autre des actions qui présentent un coefficient d’autocorrélation faible.

Cette situation peut difficilement être réplicable par ALAMO.

Dans le cas de notre objectif de répondre à des Appels d’Offres pour gérer des fonds de rentes

fermés nécessitant de simuler l’évolution des actions, des taux et d’indices comme l’inflation

en pas trimestriel ou annuel sur 30 années de projection cette situation ne s’est jamais produite :

- On n’observe jamais des actifs usuels évoluant avec des niveaux d’autocorrélation

supérieurs à 0,99

- On n’observe jamais des actifs usuels corrélés entre eux tout en ayant des

structures d’autocorrélation sensiblement différentes entre elles.

3.4.5. Gestion du régime transitoire sur les scénarios de taux

a) Introduction

Le paragraphe 3.2.6. nous a amené à toucher une limite « problématique » de l’ESG ALAMO.

Comment modéliser une distribution présentant un fort coefficient d’autocorrélation mais dont

le Drift est éloigné des derniers points de l’historique ? En d’autres termes pour prendre un cas

concret, comment modéliser un taux d’intérêt centré autour de 3% mais dont les 20 dernières

observations sont situés dans un intervalle compris entre 0,50 % et 1,00 % ?

b) Problématique

Pour les séries qui ne sont pas auto corrélées (Performances des actions, des matières premières,

…) la question du régime transitoire avec l’historique ne se pose pas. Cette problématique

concerne essentiellement les séries présentant des coefficients d’autocorrélations significatifs.

En l’absence d’un processus gérant le régime transitoire voici ce que donnerait un scénario

d’évolution du CAC40 et de l’OAT10 ans avec les hypothèses suivantes :

- CAC 40

o Performance moyenne annualisée : 2%

o Volatilité moyenne annualisée : 20%

- OAT 10 ans

o Niveau de taux : 4,5%

o Volatilité : 5%

Page 106: Développement et utilisation d’un - Institut des actuaires

106

0%

1%

2%

3%

4%

5%

6%

7%

8%

9%

déc.

-04

avr.-

06

août

-07

déc.

-08

avr.-

10

août

-11

déc.

-12

avr.-

14

août

-15

déc.

-16

avr.-

18

août

-19

déc.

-20

avr.-

22

août

-23

déc.

-24

avr.-

26

août

-27

déc.

-28

avr.-

30

août

-31

déc.

-32

avr.-

34

août

-35

OAT 10 ans

Historique Scénario

0%

1%

2%

3%

4%

5%

6%

7%

8%

9%

mai

-13

juil.

-13

sept

.-13

nov.

-13

janv

.-14

mar

s-14

mai

-14

juil.

-14

sept

.-14

nov.

-14

janv

.-15

mar

s-15

mai

-15

juil.

-15

sept

.-15

nov.

-15

janv

.-16

mar

s-16

mai

-16

juil.

-16

sept

.-16

nov.

-16

OAT 10 ans

Historique Scénario

Page 107: Développement et utilisation d’un - Institut des actuaires

107

On remarque une différence essentielle entre d’un côté :

- La projection du CAC 40 dont le scénario projeté s’inscrit en continuité avec

l’historique bien que la tendance ne soit pas identique du fait que les rendements du

CAC40 présentent une autocorrélation nulle.

- La projection de l’OAT10 ans qui présente une discontinuité remarquable avec un

taux 10 ans français qui passe de 0,5% en Mars 2016 (dernier point de l’historique)

à … 8% en Avril 2016 (1er point du scénario matérialisé dans le graphique ci-

dessus). Bien qu’il ne s’agisse que d’un scénario on constate que ce tirage n’est pas

réaliste d’autant plus que l’ensemble des scénarios présentent des taux pour le mois

d’Avril 2016 allant de 3% à 8%. Même dans le meilleur des cas, on observe quand

même un saut de plus de 2% du taux français entre le dernier point de l’historique

et le premier point des scénarios.

L’enseignement est le suivant : comme en mécanique oscillatoire, il faut donc mettre en place

un algorithme qui gère le régime transitoire entre l’historique et les scénarios surtout lorsque

ceux-ci concernent un actif :

- Présentant une tendance de long terme différente de l’historique récent

- Ayant un fort coefficient d’autocorrélation élevé (de l’ordre de 0,90 ou 0,95).

Les actifs assimilés à des taux doivent être soumis à un raccordement entre chaque période

d’anticipation p. L’utilisateur va créer un vecteur R qui va servir à générer ce régime transitoire.

Cette transformation ne s’applique pas aux actifs de type « actions ».

3.4.6. Limites du raccordement

a) Problématique

Nous avons vu dans le paragraphe 3.4.4. ci-dessus, que dans la simulation des courbes des taux

la question du régime transitoire se posait : en effet le passage d’une phase P avec un niveau de

taux moyen t à une phase P’ avec un niveau de taux moyen t’, ne se fait pas naturellement en

raison du caractère « auto corrélé » des taux d’intérêts. Est-il possible de respecter des

changements de niveaux de taux sous contraintes d’autocorrélations ?

b) Etude d’un exemple

Prenons l’exemple de l’indice de taux français d’échéance 10 ans appelé TEC10. Le graphique

ci-dessous représente l’historique de cet indice de référence qui sert dans le calcul de nombreux

indicateurs en Assurance Vie comme le taux technique ou le Taux Minimum Garanti.

Page 108: Développement et utilisation d’un - Institut des actuaires

108

Supposons maintenant que dans le cadre d’une étude ALM portant sur la faisabilité d’un

Business Plan à horizon 1 an, ce dernier projette un Taux 10 ans français égal à 3% sur les 12

premiers mois de simulation allant de Juillet 2017 à Juin 2018. Le tirage doit avoir lieu en pas

mensuel. L’autocorrélation calculée sur l’historique est égale à 0,95 et la volatilité mensuelle

est égale à 1,3%. La Skewness et Excess Kurtosis ont des valeurs proches de 0. Ces hypothèses

portent en elles le conflit entre le respect des hypothèses d’autocorrélation historiques et les

projections de taux sur les 12 prochains mois autour de 3%.

Le graphique ci-dessous permet de visualiser la projection des scénarios sur les 24 prochains

mois sous contraintes d’autocorrélations relativement à la tendance de 2% du Business Plan

paramétrée par l’utilisateur.

0,00%

0,50%

1,00%

1,50%

2,00%

2,50%

01/0

1/20

15

01/0

3/20

15

01/0

5/20

15

01/0

7/20

15

01/0

9/20

15

01/1

1/20

15

01/0

1/20

16

01/0

3/20

16

01/0

5/20

16

01/0

7/20

16

01/0

9/20

16

01/1

1/20

16

01/0

1/20

17

01/0

3/20

17

01/0

5/20

17

01/0

7/20

17

01/0

9/20

17

01/1

1/20

17

01/0

1/20

18

01/0

3/20

18

01/0

5/20

18

01/0

7/20

18

01/0

9/20

18

01/1

1/20

18

01/0

1/20

19

01/0

3/20

19

01/0

5/20

19

Schématisation des contraintes de raccordement pour satisfaire les contraintes d'autocorrlations et de niveau de taux à 2% sur les prochains 24 mois

Scénario Historique

Niveau cible du taux défini par l'utilisateur : 2,00 %

Niveau moyen du taux projeté : 1,33 %

Page 109: Développement et utilisation d’un - Institut des actuaires

109

c) Conclusions et conséquences

Le graphique ci-dessus montre qu’il est très difficile pour l’ESG ALAMO de satisfaire à des

contraintes de taux cible éloignées de ceux de l’historique sur une période courte en raison des

contraintes d’autocorrélations qui génèrent une inertie. Néanmoins dans le cadre d’études

d’ALM, les niveaux de taux moyens sont fixés sur des horizons très éloignés de 5, 10, 20 ou 30

ans ce qui permet au régime transitoire de ne pas peser sur les niveaux moyens de taux.

Néanmoins les observations effectuées dans ce paragraphe montrent qu’il sera impossible à

l’ESG A.L.A.M.O. de respecter des contraintes de scénarios centrés autour d’un niveau de taux

différent chaque année. Le respect des contraintes historiques d’autocorrélations conjugué aux

contraintes de raccordement dans le cadre d’une succession de régimes transitoires fait qu’il est

impossible à l’ESG A.L.A.M.O. de générer des scénarios de taux centrés autour des taux

forward. Cet ESG qui excelle dans la simulation en « Risque Réel » ne peut être adapté à

l’univers « Risque Neutre ».

Une autre limite qui apparait dans ce graphique réside dans le fait que sur le régime transitoire,

la volatilité est très faible du fait que l’on offre peu de place à des régimes transitoire alternatifs.

3.4.7. Limites de la calibration historique

Les limites abordées dans les paragraphes 3.4.4. et 3.4.5. relatives à la gestion du régime

transitoires et aux problématiques de raccordement des scénarios de taux avec l’historique nous

amène à nous poser la question suivante : Est-il raisonnable de projeter des scénarios dont tous

les moments (Drift, Volatilité, …) doivent absolument cadrer avec l’historique ?

Si l’on considère par exemple le cas du taux d’intérêt français à 2 ans (OAT 2 ans). Dans la

partie 2, on a calculé que le Taux moyen historique serait égal à 2,46% : est-il raisonnable de

générer des taux dans le futur, centrés autour de ce taux moyen de 2,46 % sachant que les

derniers points de l’historique situent l’OAT 2 ans à -0,30% ?

Même si on peut créer un régime transitoire qui fera converger les taux d’un niveau de -0,30%

à +2,46% après plusieurs trimestres de projection, sommes-nous obligés de satisfaire à tout prix

aux contraintes de Drift historique ? Dans les salles de marchés chez les Assureurs, et les Asset

Managers, un dicton circule : « les performances passées ne préjugent pas des performances

futures ». C’est d’autant plus vrai dans le cas des taux d’intérêts puisqu’un taux OAT 2 ans à

2,46% (moyenne de l’historique) correspond à des conditions de marché, de situation

macroéconomique et de politique monétaire qui n’ont sans doute rien à voir avec celles du

présent et du futur. Nous savons par exemple que la Banque Centrale Européenne va laisser ses

taux directeurs inchangés autour de 0% pour un certain temps encore : de ce fait, projeter à tout

prix des scénarios de taux court (2 ans) centrés autour de 2,50% n’aurait aucun sens.

Dans ces conditions, il a été prévu de modifier le cahier des charges qui deviendrait le consistant

à simuler des scénarios d’actifs qui doivent satisfaire aux conditions suivantes :

- Drift centré autour d’une valeur paramétrable par l’utilisateur (ça peut être le Drift

de l’historique ou un Drift défini par l’utilisateur)

- Volatilité centrée autour d’une valeur paramétrable par l’utilisateur (ça peut être la

Volatilité moyenne de l’historique ou une Volatilité définie par l’utilisateur)

- Paramètres de queue de distribution (Skewness et Excess Kurtosis) centrés autour

de ceux de l’historique

- Paramètres de corrélations et d’autocorrélations centrés autour de l’historique

Page 110: Développement et utilisation d’un - Institut des actuaires

110

3.4.8. Conclusions et recommandations

Cette partie nous a permis de mettre en évidences des limites structurelles d’A.L.A.M.O.

lorsque l’on s’éloigne du cadre fixé par le cahier des charges défini par BNP Paribas Cardif.

Ces limites se manifestent surtout lorsque l’on réduit le pas de temps de projection en passant

de pas de temps trimestriels ou annuels (environnement de simulation fixé dans le cahier des

charges) à des pas de temps journaliers voir horaires.

Afin de ne pas être pénalisé par ces limites,

- Nous génèrerons des scénarios en pas trimestriel ou annuel : c’est le pas de temps

usuel dans l’univers de l’Assurance Vie

- Nous donnerons la possibilité à l’utilisateur de calibrer les paramètres de Drift et de

Volatilité : nous étudierons dans la partie 4 une méthode de calibration du Drift des

actifs et la comparerons avec une calibration standard consistant à reprendre les Drift

de l’historique.

Page 111: Développement et utilisation d’un - Institut des actuaires

111

3.5. Benchamrking d’A.L.A.M.O. avec les autres ESG

3.5.1. Grilles d’analyse des générateurs étudiés

Cette section se présente sous forme de tableau détaillé destiné à comparer les Générateurs de Scénarios suivant une grille d’analyse précise détaillée allant du modèle mathématique utilisé, à la capacité du générateur à simuler les taux négatifs en passant par la vitesse et la souplesse de calcul, le langage informatique utilisé, la souplesse dans la calibration des moments. Elle est très détaillée et serait laborieuse à lire dans la suite de ce mémoire. Les 5 autres ESG qui serviront de benchmark à ALAMO seront détaillés dans l’annexe IV.

3.5.2. Caractéristiques principales des ESG étudiés

Nous présentons ci-dessous un tableau synthétisant les caractéristiques des différentes solutions

étudiées :

MLG2+ ALAMO KARMA VALRISK Barrie-Hibbert

Ahlgrim

Environnement Risque-neutre /

monde-réel Monde-réel Monde-réel

Risque neutre / monde réel

Risque-neutre / monde-réel

Monde-réel

Variables

modélisées

Taux nominaux et

réels, inflation, actions,

immobilier, indices

d’OPCVM

Tous types de variables

(taux, actions, spreads de

crédit, inflation,

immobilier, …)

Actions, immobilier et

taux de change

Actions, taux, spreads de

crédit, commodities,

taux de change

Tous types de variables (taux, actions, spreads

de crédit, inflation,

immobilier, …)

Taux nominaux et

réels, inflation, actions,

immobilier et taux de

chômage

Possibilité de

projeter simultanément

plusieurs économies

Non Oui Oui Oui Oui Non

Type de

solution Interne Interne Interne Interne Externe Externe

Modèle

pouvant être déployé tel quel

Uniquement le module de génération de trajectoires

Non Non Oui Oui Oui

Interface

utilisateur Oui Non Non Oui Oui Non

Documentation

Notes techniques

sur les modèles

implémentés

Notes techniques

sur les modèles

implémentés

Pas de documentation

du modèle

Documentation exhaustive sur les modèles,

calibrage, process…(Suite à la mission de certification de

la CB)

Documentation exhaustive sur

les modèles implémentés et

publications d’études

économétriques

Formalisation détaillée des

modèles implémentés

dans le rapport

« Modeling of Economic Scenarios »

Page 112: Développement et utilisation d’un - Institut des actuaires

112

3.5.3. Comparaison des ESG dans l’univers « Risque Réel »

Il apparaît essentiel de privilégier un modèle intégré à une solution composite : Les modèles

composites conduisent à des problématiques d’articulation de modèles et complexifient la mise

en œuvre des processus de contrôle et d’auditabilité des travaux effectués. L’ensemble des

outils étudiés peut être considéré comme une solution intégrée excepté l’applicatif KARMA

qui ne permet pas de modéliser, entre autres, les taux d’intérêt.

Parmi les ESG « monde-réel » considérés, rappelons que le modèle développé par Ahlgrim

positionne le risque « inflation » comme l’élément central du générateur. Ce driver intervient

ensuite dans la modélisation des autres actifs. En outre, ce modèle ne s’appuie pas sur une

dynamique spécifique pour les taux nominaux : Ces derniers se déduisent des taux réels et de

l’inflation simulée. Par ailleurs la diffusion utilisée pour les taux réels (Vasicek à deux facteurs)

ne permet pas d’initialiser les projections de taux en partant de la courbe en vigueur à la date

de calcul. A la différence des modèles d’arbitrage (de type HJM, LMM, …), les modèles

d’équilibre ne répliquent pas la courbe des taux initiale. Par conséquent, la modélisation

proposée par Ahlgrim ne semble pas assez robuste pour une quantification précise du risque de

taux.

Le modèle ValRisk parait très riche et assez robuste. Nous ne l’avons cependant pas retenu pour

des raisons de disponibilité, ce qui ne nous permet pas de nous prononcer sur les détails des

modèles.

La solution intégrée ALAMO propose un très large panel de drivers modélisés (taux nominaux

et réels, actions, inflation, spreads de crédit, …). Rappelons que les modèles implémentés dans

cet applicatif permettent de répliquer précisément les propriétés statistiques des séries

historiques (rendements moyens, volatilités, corrélations, auto-corrélations et non-normalité

des distributions) ; ALAMO peut donc être utilisé dans différents contextes de calculs « monde-

réel » (détermination du capital économique, études ALM, ….).

L’outil MLG2+ n’intègre pas quant à lui de modèle de risque de crédit et ne permet pas de

projeter simultanément plusieurs économies, le recours à une telle solution pour le calcul du

capital économique nécessiterait par conséquent d’importantes évolutions. En revanche, la

solution Barrie-Hibbert permet de répondre à l’ensemble des problématiques de calcul

« monde-réel ». Néanmoins dans ce GSE, les mêmes modèles sont proposés en environnement

« risque-neutre » et « monde-réel » (c’est également le cas de MLG2+).

La modélisation apparaît par conséquent plus avancée sous ALAMO en proposant des modèles

spécifiquement adaptés à l’univers monde-réel. Néanmoins, pour garantir le bon déploiement

de cette solution, il apparaît nécessaire de développer une documentation exhaustive et

d’aménager l’outil en vue d’une utilisation industrialisée. C’est dans ce contexte que ce

mémoire d’actuariat prend tout son sens.

Page 113: Développement et utilisation d’un - Institut des actuaires

113

3.5.4. Conclusions et recommandations

Le tableau ci-dessous présente un résumé des scénarios des avantages et inconvénients des

différents ESG.

Plusieurs modèles ressortent favorablement de l’analyse et de la comparaison effectuées

précédemment :

- Le modèle ALAMO, développé par mes soins au sein de la Direction de la Gestion

d’Actifs (DGA), et fonctionnant exclusivement en monde réel.

- Le modèle Barrie & Hibbert, solution externe, fonctionnant à la fois en univers risque

neutre et monde réel ;

- Le modèle MLG2+, développé par l’ALM groupe et fonctionnant également en univers

risque neutre et en monde réel ;

Parmi ces trois solutions, ALAMO a été développé spécifiquement pour effectuer des

simulations en monde réel et présente, de par la modélisation adoptée, des qualités indéniables

en termes de flexibilité et de performance qui en font le modèle le plus adapté pour des

simulations en monde réel. Les environnements de modélisation en monde réel et en risque

Comparaison des outils étudiés

Outils BNP MLG2+ ALAMO KARMA VALRISK

Avantages

- Outil parfaitement

maîtrisé et l’équipe est en

mesure d’apporter toutes

les évolutions

nécessaires.

- Si nécessaire un support

peut être apporté par

l’équipe de R&D FIRST.

- Flexible et performant

en monde réel

(utilisation de

processus GARCH).

- Outil parfaitement

maîtrisé et l’équipe est

en mesure d’apporter

toutes les évolutions

nécessaires.

- Outil a priori

robuste

- Calibrage

réalisé sur un

historique

important.

Inconvénients

- La modélisation risque

neutre s’appuie sur des

méthodes risque réel.

- Génération de taux négatifs

trop fréquente, une

modification de l’outil est

donc nécessaire.

- Projection d’une seule

économie à la fois.

- Absence de modélisation

des spreads de crédit.

- Uniquement monde

réel.

- Des développements

sont nécessaires pour

le déploiement de l’outil

(interface utilisateur…).

- Pas de documentation

du modèle.

- Modèle composite

- Horizon de

projection trop

court

- Uniquement monde

réel.

- Pas d’interface

utilisateur.

- Pas de

documentation du

modèle.

- Horizon de

projection trop

court.

Progiciels Barrie-Hibbert Ahlgrim

Avantages

- Publication fréquente d’articles de recherche.

- Solution éprouvée par le marché.

- Calibration trimestrielle fournie

Inconvénients

- Outil externe qui n’est donc pas maîtrisé totalement

par BNP et entraînant des problèmes pour des

évolutions spécifiques.

- La modélisation risque neutre s’appuie sur des

méthodes risque réel.

- Manque de robustesse du modèle.

- Outil externe qui n’est donc pas

maîtrisé totalement par BNP.

- Uniquement monde réel.

Page 114: Développement et utilisation d’un - Institut des actuaires

114

neutre pouvant tout à fait être distincts, A.L.A.M.O. peut fonctionner en tandem avec un modèle

risque neutre développé sur une autre plateforme.

De plus cette solution interne A.L.A.M.O., par opposition à la solution externe Barrie &

Hibbert, nous paraît de surcroît comporter certains avantages :

- Elle implique une plus grande appropriation du modèle par les utilisateurs de par leur

implication plus forte, notamment à l’étape de rédaction d’un cahier des charges ;

- Elle permet le développement d’un modèle adapté aux besoins spécifiques de BNP PA.

Pour ces raisons, la solution interne ALAMO a été recommandée pour la modélisation en

« Risque Réel ».

3.6. Conclusions relatives au rôle d’A.L.A.M.O.

Cette partie nous a permis de mettre en évidence (graphiquement et statistiquement) la capacité

d’A.L.A.M.O. à générer des scénarios d’actifs présentant des distributions présentant des

caractéristiques similaires à l’historique.

Ces observations sont néanmoins à relativiser par le fait qu’en diminuant le pas de temps de

projection (en passant par exemple d’un pas trimestriel à un pas journalier), l’ESG A.L.A.M.O.

commence à avoir plus de mal à répliquer certains phénomènes comme la gestion du régime

transitoire pour les taux ou la réplication d’Excess Kurtosis tendant vers l’infini ou encore

d’autocorrélations tendant vers 1,00.

La comparaison avec d’autres ESG permet cependant de démontrer que si l’ESG A.L.A.M.O.

n’est pas parfait, il permet de répondre aux exigences de BNP Paribas Cardif en vue d’optimiser

la gestion des fonds de rentes fermées.

Nous utiliserons donc l’ESG A.L.A.M.O. dans la simulation de scénarios d’actifs en Risque

Réel sur un pas de temps trimestriel ou annuel. Toutefois et afin de mieux optimiser l’utilisation

de l’outil, il nous faudra développer une méthodologie de calibration des Drifts à entrer dans

l’ESG.

La 4ème partie aura pour objectif de présenter une étude de cas concrète de gestion d’un fonds

de rente fermé et nous donnera l’occasion de présenter une méthodologie de calibration des

Drifts.

Page 115: Développement et utilisation d’un - Institut des actuaires

115

4. Utilisation d’A.L.A.M.O. sur un Fonds de Rentes fermé

4.1. Présentation du contexte et de l’Appel d’Offres

4.1.1. Introduction générale

L’évolution de ma carrière dans les secteurs financiers et assurantiels ainsi que le

développement de l’ESG A.L.A.M.O. sont intimement liés. Lorsque j’ai démarré ma carrière

comme Credit Risk Manager au Crédit Lyonnais, j’ai eu à mettre en place un modèle interne

de calcul du Risque de Crédit sous Bâle III. J’ai alors été confronté au paramétrage d’un premier

ESG développé par Moody’s KMV afin de calculer la « Distance de Défaut » des expositions

en portefeuille. Ce premier modèle basé sur le modèle de Merton donnait une bonne approche

de la mesure des risques (et en particulier de la modélisation des moments d’ordre 3 et 4) mais

se heurtait au problème de la gestion des corrélations et des autocorrélations.

Lorsque j’ai rejoint l’industrie de la gestion Alternative en tant que Market Risk Manager, j’ai

été confronté à la nécessité de quantifier les risques liés aux investissements dans les différents

Hedges Funds et en particulier la mesure du risque de liquidité, des queues de distribution en

ne disposant que de séries de faible profondeur (12 mois à 60 mois en général). Les modèles

classiques ne fonctionnaient pas du fait qu’ils étaient soit basés sur des hypothèses gaussiennes,

soit lorsqu’ils arrivaient à intégrer les moments d’ordres 3 et 4 passaient à côté des phénomènes

à l’origine de ces asymétries à savoir la présence de régimes multiples alternant périodes de

faibles volatilités et périodes de volatilités extrêmes. Dans l’incapacité de résoudre le problème

j’ai alors implémenté un modèle analytique de calcul de la Value at Risque basé sur le modèle

de Cornish Fischer qui intègre les Skewness et Excess Kurtosis dans une formule fermée de

mesure de la VaR dont l’avantage principal réside à modéliser des risques extrêmes avec des

historiques de faible profondeur puisqu’il ne suffit que de 4 points pour calculer un Excess

Kurtosis.

C’est en intégrant BNP Paribas Cardif que la question du développement d’un ESG devant

gérer toutes les problématiques « risque réel » allant de simulation de Browniens Corrélés à la

quantification des risques extrêmes en passant par la gestion des autocorrélations est devenue

cruciale. De par la nature de l’activité d’Assurance impliquant la maîtrise continue des

interactions Actif / Passif, il était insensé de proposer une quantification des risques au moyen

de formules fermées tel que Cornish – Fischer. Néanmoins et à contrario de la Gestion

Alternative, les actifs traités par les Assureurs ont pour avantage d‘avoir des séries historiques

de grande profondeur, ce qui permet d’assurer une certaine stabilité quant à la mesure et à la

simulation des principaux moments (Drift, Volatilité, Skewness, Kurtosis) et des corrélations.

Cette partie aura pour objet de présenter un exemple de réponse à un Appel d’Offres utilisant

le générateur A.L.A.M.O. pour optimiser l’allocation d’actifs d’un Groupe Industriel afin de

maximiser le rendement sous contraintes de maîtriser les risques de marché (volatilité

principalement), de défaut (insuffisance des capitaux constitutifs incluant la revalorisation de

l’actif pour régler les flux de passif) et de concentration.

Page 116: Développement et utilisation d’un - Institut des actuaires

116

4.1.2. Contexte et problématique

Les retraites en France se sont développées tout d'abord dans certaines branches d'activités et

dans certaines grandes entreprises dès l'entre-deux guerres avant d'être généralisées à

l'ensemble de la population dans le cadre des ordonnances de la sécurité sociale en 1945. Le

système de retraite institué à cette date est basé sur le principe de la solidarité

intergénérationnelle au travers d'un système par répartition. Les grandes entreprises ont mis en

place des régimes de retraites à destination de leurs employés. Les cotisations versées par les

employés durant leur période d’activité sont ensuite stockées dans un régime géré par

l’entreprise. Avec la faillite d'ENRON, 20.000 personnes de l'entreprise perdirent leur emploi

et plusieurs centaines de millions de dollars constituant l'essentiel de fonds de pension : la

retraite de milliers d'américains parti en fumée.

Cette affaire et le procès qui s'en suivit sont hautement instructifs. Ils sont d'ailleurs à l'origine

de nouvelles lois et règles comptables afin de mieux encadrer dirigeants et auditeurs et d'assurer

une meilleure transparence des comptes, comme la loi Sarbanes Oxley, les nouvelles règles

comptables IAS IFRS. Suite à la faillite du régime de retraite d’ENRON et du scandale qui s’en

est suivi, le gouvernement Fillon obligea les Entreprises à déléguer leur gestion de leur régime

de retraites à des Organismes d’Assurance. Entre 2005 et 2009, l’intégralité des Groupes du

CAC40 lancèrent des appels d’offres à destination des Assureurs afin de déléguer leur Passif

de Retraite. Les Assureurs étaient responsables dans la collecte des capitaux constitutifs des

salariés de l’Entreprise, de l’optimisation de la gestion d’actifs (en accord avec les CCE de

l’Entreprise), du paiement des rentes aux retraités. Par ailleurs, les Assureurs n’ayant pas

d’obligation de résultats mais de moyens, ces derniers sont en charge de demander des Appels

de Fonds aux Entreprises dans le cas où les capitaux constitutifs initialement versés s’avéraient

insuffisants pour payer les rentes.

4.1.3. Présentation de l’Appel d’Offres

C’est dans ce contexte que j’ai été amené dans le cadre de mes missions chez BNP Paribas

Cardif à répondre à des Appels d’Offres lancés par de nombreux groupes du CAC40. Ce

paragraphe a pour objectif de présenter un exemple simple et surtout anonyme d’un appel

d’offres auquel j’ai dû répondre.

A la fin des années 2000 (en Octobre 2009 plus précisément), une entreprise cotée au sein du

CAC40 nous a lancé un Appel d’Offres à destination de grands Assureurs dont mon ancien

employeur BNP Paribas Cardif afin de déléguer la gestion de leurs Provisions Mathématiques

dans le cadre du régime Article 83. Dans le cadre de l’Appels d’Offres, l’Entreprise envoie aux

différents Assureurs les flux de prestations à payer aux rentiers ainsi que les flux de capitaux

constitutifs à venir des actifs ainsi que les stocks initiaux des Provisions Mathématiques et des

Actifs sous Gestion.

Le schéma ci-dessous décrit le rôle des différents départements de BNP Paribas pour répondre

à un Appel d’Offres de ce type. Ce schéma n’a rien de confidentiel puisque transposable à tous

les autres Assureurs et Bancassureurs de la place Parisienne.

Page 117: Développement et utilisation d’un - Institut des actuaires

117

- L’Entreprise que nous appellerons « E » est responsable de :

o La transmission des Provisions Mathématiques tête par tête à l’instant t 0,

o De la valorisation de l’Actif à t = 0,

o De l’évaluation des flux de capitaux constitutifs tête par tête

o De l’évaluation des flux de rentes tête par tête.

- A la réception des données en provenance de l’entreprise, le département Actuariat de BNP

Paribas Cardif se charge :

o De l’étude de la pyramide des âges de l’Entreprise « E »

o De l’analyse des mouvements historiques des embauches mobilités et départs de

l’Entreprise « E »

o De la détermination du taux de Turnover par classe d’âge.

o Du choix de la table de mortalité

o Du Choix du Taux Technique

o Du calcul des flux de capitaux constitutifs et des flux de rentes agrégés par année

civile, probabilisés par les taux de tunrover & de décès et actualisés avec le taux

technique.

Entreprise « E » du CAC 40

Actuariat

ALM

Asset Management

Page 118: Développement et utilisation d’un - Institut des actuaires

118

- L’ALM avec l’appui de l’Ingénierie Financière de BNP Paribas Cardif auquel j’appartiens

a pour objectif

o De valider le montant de l’actif disponible à l’instant t = 0, ainsi que les flux

agrégés et actualisés des capitaux constitutifs et de rentes.

o De choisir les principales classes d’actifs qui vont constituer l’allocation

stratégique

o De déterminer sur la base de considérations macroéconomiques et

économétriques les hypothèses de rendement de chacune des classes d’actifs

o De déterminer sur la base de calculs de primes de risques les hypothèses de

volatilité de chacune des classes d’actifs

o De calculer à partir des historiques d’indices les corrélations, Skewness et Exces

Kurtosis

o De simuler à partir de l’ESG A.L.A.M.O. les scénarios stochastiques de

comportement des actifs modélisés ci-dessus

o D’évaluer l’aversion globale au risque de l’entreprise « E »

o D’estimer les poids des facteurs de risques que sont les risques de marché

(volatilité, skewness et excess kurtosis) principalement, de défaut (actif évalué

en valeur de marché insuffisant pour payer les rentes) et de concentration.

o De construire une allocation stratégique de long terme optimisant le rendement

moyen sous contraintes des risques de marché, défaut et concentration.

- L’ASSET MANAGEMENT du Groupe BNP Paribas à la réception de l’Allocation d’Actifs

Stratégique transmise par l’ALM a pour rôle :

o De déterminer différentes stratégies de gestion tactiques en fonction des

configurations de marché

o De construire l’allocation tactique à t = 0 notée Ao.

o De déterminer la trajectoire d’investissement pour passer d’une allocation 100%

monétaire à l’allocation Ao.

o De choisir les principaux véhicules d’investissements : OPCVM, Titres vifs,

ETF, Fonds, …

Suite à l’émission de l’Appel d’Offres et du travail de l’Actuariat d’agrégation des flux, voici

la situation initiale du Bilan projeté de l’entreprise avec les flux de cotisations reçues et de

prestations à verser. Pour des raisons de confidentialité, les flux seront modifiés et normés afin

de protéger l’anonymat de l’entreprise « E » ayant soumis l’Appel d’Offres.

Page 119: Développement et utilisation d’un - Institut des actuaires

119

Les flux de prestations ont été projetés et séparés entre les « pieds de rentes » correspondant à

la valeur actuelle des flux payés dans x années et le montant des revalorisations :

- En vert sur le graphique ci-dessus figurent les capitaux constitutifs transmis par l’entreprise

E à l’Assureur.

- En rouge figurent les prestations à verser aux adhérents matérialisées par les pieds de rentes

nettes de revalorisation. A partir des pieds de rentes individuels transmis par l’entreprise,

l’Actuariat les agrègent par année de projection et les transmets à l’ALM.

- En jaune est représentée la revalorisation des pieds de rente. L’entreprise s’est engagée à

revaloriser les pieds de rente à hauteur du taux de l’inflation cumulée entre l’année 0 de

référence (2009) et l’année k (2009 + k). De ce fait si on note :

o Ik le taux d’inflation à l’année k,

o Pk, la valeur du pied de rente de l’année k,

o La valeur de la revalorisation Rk du pied de rente Pk s’écrit alors :

−+=

=

1)1(0

ik

i

ikk IPR

Page 120: Développement et utilisation d’un - Institut des actuaires

120

4.2. Présentation des classes d’actifs utilisées

4.2.1. Introduction et problématique

Afin de proposer la meilleure allocation stratégique, il nous faut dans un premier temps définir

les classes d’actifs qui vont être utilisées et définir leurs hypothèses de rendement, de volatilité

et un indice benchmark de marché qui les caractérisent au mieux. Les classes d’actifs ayant été

retenues par la Direction de BNP Paribas Cardif en accord avec l’Entreprise E seront :

- Le cash

- Le monétaire

- Les Obligations gouvernementales d’échéances courtes

- Les Obligations gouvernementales d’échéances longues

- Les Obligations d’entreprises d’échéances courtes

- Les Obligations d’entreprises d’échéances longues

- Les Actions Européennes

- Les Actions Internationales

La Zone Euro ayant été construite entre 1998 et 2002, les indices obligataires ont un historique

moins profond que les indices actions.

4.2.2. Le Cash

Cette classe d’actifs sera matérialisée en pratique par un compte de dépôt très liquide mais avec

un rendement nul. Il s’agit d’une poche utilisée pour recevoir des fonds qui transitent vers une

classe d’actif A à une classe d’actif B. La volatilité associée à cette classe d’actifs sera nulle.

4.2.3. Le Monétaire

Cette classe d’actifs regroupe les instruments monétaires et est caractérisée par les contrats de

dépôts à terme, les certificats de dépôts, les SICAV monétaires et investissements dans des ETF

trackant les indices monétaires tel que l’Euribor 3Mois ou l’EONIA. L’indice benchmark utilisé

pour modéliser cette classe d’actifs sera l’EONIA qui est l’indice monétaire de référence

européen. Les hypothèses de rendements et volatilités utilisés pour cette classe d’actif au vu des

hypothèses macroéconomiques seront de 0,5% pour le rendement moyen annualisé et de 1%

pour la volatilité annualisée. Pour les autres moments tels que la Skewness, Kurtosis et pour

l’autocorrélation d’ordre 1 nous utiliserons l’historique de l’EONIA.

Les caractéristiques et l’évolution historique de l’EONIA de 1999 à 2009 sont regroupées ci-

dessous :

Page 121: Développement et utilisation d’un - Institut des actuaires

121

Source : Bloomberg

4.2.4. Les Obligations Gouvernementales de maturité courte

Les obligations Gouvernementales de maturité courte (Govies Court Terme) sont caractérisées

par les émissions d’obligations émises par les Etats. Dans nos hypothèses nous prendrons

comme Benchmark un indice obligataire Européen, l’EUROMTS 3 – 5 Ans qui rassemble

l’ensemble des Obligations d’Etat de la Zone Euro. Les caractéristiques et l’évolution historique

de cet indice de sa création en 2003 à 2009 sont regroupées ci-dessous :

Source : Bloomberg

Page 122: Développement et utilisation d’un - Institut des actuaires

122

4.2.5. Les Obligations Gouvernementales de maturité longue

Les obligations Gouvernementales de maturité longue (Govies Long Terme) sont caractérisées

par les émissions d’obligations émises par les Etats. Dans nos hypothèses nous prendrons

comme Benchmark un indice obligataire Européen, l’EUROMTS 10 – 15 Ans qui rassemble

l’ensemble des Obligations d’Etat de la Zone Euro. Les caractéristiques et l’évolution historique

de cet indice de sa création en 2003 à 2009 sont regroupées ci-dessous :

Source : Bloomberg

4.2.6. Les Obligations d’Entreprise de maturité courte

Les obligations d’Entreprise de maturité courte (Corporate Court Terme) sont caractérisées par

les émissions d’obligations émises par les Entreprises Privées. Ces dernières peuvent par

ailleurs avoir la garantie de l’Etat mais elles représentent une infime partie du stock obligataire

corporate. Dans nos hypothèses nous prendrons comme Benchmark un indice obligataire

Corporate, l’Iboxx 1 – 3 Ans qui rassemble l’ensemble des Obligations Corporate de la Zone

Euro. Les caractéristiques et l’évolution historique de cet indice depuis sa création en 1998 à

2009 sont regroupées ci-dessous :

Source : Bloomberg

Page 123: Développement et utilisation d’un - Institut des actuaires

123

4.2.7. Les Obligations d’Entreprise de maturité longue

Les obligations d’Entreprise de maturité longue (Corporate Long Terme) sont caractérisées par

les émissions d’obligations émises par les Entreprises Privées. Ces dernières peuvent par

ailleurs avoir la garantie de l’Etat mais elles représentent une infime partie du stock obligataire

corporate. Dans nos hypothèses nous prendrons comme Benchmark un indice obligataire

Corporate, l’IBoxx 5 – 7 Ans qui rassemble l’ensemble des Obligations Corporate de la Zone

Euro. On notera qu’en raison des contraintes de liquidité, les maturités des obligations

d’Entreprises sont généralement inférieures à celles des Etats.

Les caractéristiques et l’évolution historique de cet indice de sa création en 1998 à 2009 sont

regroupées ci-dessous :

Source : Bloomberg

4.2.8. Les Actions Européennes

Au vu du profil des salariés de la société ayant soumis l’Appel d’Offre, nous prendrons comme

benchmark des actions Européenne l’indice phare de la bourse de Paris à savoir le CAC40 pour

lequel nous avons un historique de plus de 20 ans.

Les caractéristiques et l’évolution historique de cet indice de sa création en 1987 à 2009 sont

regroupées ci-dessous :

Page 124: Développement et utilisation d’un - Institut des actuaires

124

Source : Bloomberg

4.2.9. Les Actions Internationales

Afin d’intégrer le niveau d’aversion au risque de la population du soumissionnaire, nous

prendrons comme indice Benchmark des actions internationales l’indice MSCI Emerging

Markets dans la mesure où les investissements dans les pays émergents sont autorisés

Source : Bloomberg

Page 125: Développement et utilisation d’un - Institut des actuaires

125

4.3. Hypothèses de taux de rendement monétaire

Pour construire notre jeu de scénarios nous avons besoin, en plus des historiques d’actifs, des

hypothèses de croissance, d’inflation et de politique monétaire.

4.3.1. Hypothèses de croissance réelle

L’hypothèse de croissance servira à construire le scénario central de projection du taux long.

Nous nous basons sur le scénario central défini par les économistes de BNP Paribas Cardif en

accord avec les économistes du Groupe BNP Paribas. Ces derniers tablaient à la fin 2009 sur

une tendance de long terme de 1,0% pour la France.

4.3.2. Hypothèses d’inflation et de croissance nominale

L’hypothèse d’inflation servira à construire le scénario central de projection du taux long mais

aussi à calculer les taux de revalorisation des pieds de rentes. Nous nous basons sur le scénario

central défini par les économistes de BNP Paribas Cardif en accord avec les économistes du

Groupe BNP Paribas. Ces derniers tablaient à la fin 2009 sur une tendance de long terme de

0,65% pour la France. La croissance nominale définie comme étant égale à somme de la

croissance réelle et de l’inflation était donc projetée sur une tendance de long terme de 1,65%.

Concernant la volatilité, la Skewness et l’Excess Kurtosis de l’Inflation nous nous basons sur

les calculs effectués à partir des observations de l’INSEE :

4.3.3. Hypothèses de politique monétaire

Les économistes de Cardif et du Groupe BNP Paribas construisent à partir des publications de

la Banque Centrale Européenne un scénario central de politique monétaire : En effet si les taux

évoluent en fonction de l’offre et de la demande présentes sur le marché, le taux court EONIA

fait figure d’exception puisqu’il est déterminé par la politique de la Banque Centrale

Européenne qui fixe le niveau des taux directeurs européens. Les économistes du Groupe BNP

Paribas avaient tablé à la fin 2009 sur des projections des taux directeurs autour de 1%.

Taux d’inflation en 2009

en %

Année Taux d'infation Moments

2009 0,1 0,10% Volatilité 0,75%

2008 2,8 2,80% Skewness 0,3688

2007 1,5 1,50% Excess Kurtosis 0,6669

2006 1,7 1,70%

2005 1,7 1,70%

2004 2,1 2,10%

2003 2,1 2,10%

2002 1,9 1,90%

2001 1,6 1,60%

2000 1,7 1,70%

1999 0,5 0,50%

1998 0,6 0,60%

1997 1,2 1,20%

1996 2,0 2,00%

1995 1,8 1,80%

1994 1,6 1,60%

1993 2,1 2,10%

1992 2,4 2,40%

1991 3,2 3,20%

Note : variation annuelle.

Champ : France, ensemble des ménages.

Sources : Insee, indices des prix à la consommation.

Page 126: Développement et utilisation d’un - Institut des actuaires

126

4.4. Définition des hypothèses de rendement des actifs

4.4.1. Position du problème

Pour projeter les scénarios de rendement des actifs, il faut indiquer au Générateur de Scénarios A.L.A.M.O. les hypothèses de projection de rendement de long terme des différents actifs.

Pour calibrer les volatilités, skewness, excess kurtosis, corrélations, et autocorrélations, des différentes classes d’actifs, nous utiliserons les observations historiques.

Il existe trois principales méthodes de projection des rendements des actifs. Deux sont utilisées dans le cadre de l’approche « risque réel » et une dans l’approche « risque neutre ».

Les deux méthodes utilisées en risque réel qui est objet de cette partie sont :

- La méthode historique consistant à projeter les rendements des actifs dans le futur en fonction des rendements observés par le passé.

- La méthode des primes de risques que nous détailleront plus loin.

4.4.2. Limites de l’approche historique

Dans ce paragraphe nous allons démontrer les limites de l’approche historique au travers de l’exemple du CAC40 entre la date de sa création en décembre 1987 et la date de la dernière valeur connue à savoir juin 2017 soit un horizon d’observation de près de 30 ans.

Nous utiliserons la première partie de l’historique allant de décembre 1987 à Décembre 1997 pour calibrer la tendance de projection à appliquer. Sur cette période le CAC40 évolue de 1,000 points en Décembre 1987 à 2,999 points 10 ans plus tard en Décembre 1997.

Si on note :

- CAC31-12-1987 : La valeur du CAC40 au 31/12/1987 - CAC31-12-1997 : La valeur du CAC40 au 31/12/1997

Le rendement moyen historique mensualisé du CAC40 sur cette période (noté Rh) et qui sera utilisé pour la projection sera égal à :

140

40120/1

19871231

19971231 −

=

−−

−−

CAC

CACRh

On obtient ainsi un rendement moyen mensualisé du CAC40 sur les 10 années d’observatio égal à Rh = 0,9194%.

A partir du 1er Janvier 1998, nous projetons la valorisation du CAC40 de mois en mois par récurrence. Si on note CAC40M la valeur du CAC40 au mois M, la valorisation calculée du CAC40 au mois M+1 sera égale à :

CAC40M+1 = CAC40M *(1+Rh)

Le graphique ci-dessous permet de backtester la projection du CAC40 par la méthode historique entre le 31/12/1997 et le 31/05/2017 avec l’évolution réellement observée sur cette même période.

Page 127: Développement et utilisation d’un - Institut des actuaires

127

Le graphique ci-dessus permet de mesurer l’erreur colossale consistant à projeter dans un futur

éloigné un indice sur la base des rendements observés par le passé. Aussi lorsque l’on compare

le niveau du CAC40 projeté avec cette méthode depuis 1997 jusqu’en 2017 avec le niveau

observé en Juin 2017, on constate un écart allant du simple au quintuple ! Le niveau projeté par

la méthode « historique » indique un niveau de CAC40 à 25,299 au 1er Juin 2017 points alors

que le niveau observé à cette même date et pour le même indice s’élève à … 5,231 points.

Si on ramène cet écart en points à un écart de rendement annualisé entre le 31 Décembre 1997

et le 1er Juin 2017, on a :

AnCAC

CACR

toriqueMethodeHis

toriqueMethodeHis

toriqueMethodeHis /%66,11140

40 25,365

2017/12/312017/06/01

1987/12/31

2017/06/01+=−

=

AnCAC

CACR

Observe

Observe

Observé /%00,3140

40 25,365

2017/12/312017/06/01

1987/12/31

2017/06/01 +=−

=

On constate que même en comparant les performances annualisées entre la méthode projetée

par l’approche historique et l’observation on obtient un écart très significatif.

Page 128: Développement et utilisation d’un - Institut des actuaires

128

L’explication relative à cet écart réside dans le fait que les mouvements boursiers sur le long

terme suivent une logique macroéconomique. Lorsque dans les années 1980 on avait des

perspectives de croissance réelles de 5% et d’inflation à deux chiffres l’évolution des marchés

actions et obligataires ne pouvaient suivre la même tendance qu’avec des perspectives de

croissance réelles à 1% et d’inflation à 1% également.

L’exemple du Japon est encore plus frappant avec un indice NIKKEI 225 représentatif des

actions japonaises qui a atteint près de 40,000 points en 1989 (croissance nominale annuelle à

5% entre 1980 et 1990) pour ne se situer aujourd’hui qu’à 20,000 points (croissance nominale

annuelle de -1% correspondant à une Déflation entre 1990 et 2017).

Les observations ci-dessus nous amènent à la conclusion que l’approche de projection des

rendements futurs par le biais des rendements passés n’est pas satisfaisante. Nous allons étudier

une autre approche qui présente aussi des imperfections mais qui présente l’avantage de mieux

« coller » à la réalité du terrain.

4.4.3. Présentation de l’approche par Primes de Risques

a) Description littéraire de la méthodologie

L’approche par les primes de risques consiste à projeter les actifs risqués selon une tendance

dont l’intensité est proportionnelle aux risques portés par ces derniers. Ici encore le choix

d’investir sur une classe d’actifs plutôt qu’une autre va dépendre d’une part du risque de marché

porté par la classe d’actif et mesuré en grande partie par la volatilité et d’autre part le retour sur

investissement qu’attend en retour l’investisseur faisant le pari d’investir sur une telle classe

d’actifs. L’approche utilisée basée sur les Primes de Risques part de l’hypothèse fondamentale

qu’il n’y a pas de « Free Lunch » c’est-à-dire qu’on peut difficilement investir dans un actif B

plus rentable qu’un Actif A sans prendre un risque supplémentaire.

b) Formalisation mathématique

L’approche qui a été utilisée pour déterminer le rendement des principales classes d’actifs

consiste à partir du postulat que les Ratio de Sharpe des principales classes d’actifs doivent être

égaux : Autrement dit que le couple formé par la quantité Rendement – Rendement sans Risque

et par la volatilité doit évoluer de la même manière.

Si on note :

1510−EuroMTSr : Le rendement annualisé des Obligations Françaises de maturité longue

1510−EuroMTS : La volatilité annualisée des Obligations Françaises de maturité longue

Monétairer : Le rendement du taux monétaire assimilé au taux « sans risque »

ActifAr : Le rendement de l’Actif A que l’on cherche

ActifA : La volatilité annualisée de l’Actif A calculée à partir de l’historique.

Page 129: Développement et utilisation d’un - Institut des actuaires

129

Les ratios de Sharpes (notés SR) respectifs de l’Actif A et de l’EuroMTS 10 – 15 ans se

calculent comme suit :

1510

1510

1510

−=

EuroMTS

MonétaireEuroMTS

EuroMTSSR

ActifA

MonétaireActifA

ActifASR

−=

En égalisant les Ratios de Sharpe, on en déduit le rendement théorique moyen de long terme de

l’Actif A :

ActifAEuroMTS SRSR =−1510 1510

1510

− −

EuroMTS

MonétaireEuroMTS

ActifA

MonétaireActifA

−=

1510

1510

− −+=

EuroMTS

MonétaireEuroMTSActifAMonétaireActifA

c) Application de la méthode au cas du CAC40

L’objectif de ce paragraphe est de backtester la projection du CAC40 avec la méthode des

primes de risques.

Pour 2010 par exemple, les projections du Groupe BNP font état des éléments suivants :

- Taux directeur BCE projeté : 2,25 %

- PIB réel projeté : 0,25 %

- Inflation : 1,75 %

A partir de ces informations, on obtient la projection du taux long de la zone euro égal au PIB

réel projeté incrémenté de l’inflation projeté soit 0,25 % + 1,75 % = 2,00 %

A partir des volatilités historiques du CAC40 et des Obligations d’Etat Européennes de long

terme respectivement égales à 25,52% et 5,32%, on en déduit la performance projetée du

CAC40 pour 2010 :

%05,1%32,5

%25,2%00,2%52,25%25,2201040 =

−+=→CAC

L’exemple ci-dessus peut être reproduit pour chaque année de 1998 (1ère année de projection

pour le backtesting) à 2017 soit une période de près de 20 ans.

Avec cette méthode nous aurons pu remonter avant 1998 mais nous préférons commencer notre

backtesting à partir de 1998 aussi afin de pouvoir la comparer avec l’approche historique sur

une période commune.

Page 130: Développement et utilisation d’un - Institut des actuaires

130

Le tableau ci-dessous présente les hypothèses utilisées ainsi que le détail des calculs des

performances du CAC40 projetées.

A partir de ces rendements projetés, nous pouvons retropoler les valorisations du CAC40 du 1er

Janvier 1998 au 1er Juin 2017.

Le graphique ci-dessous permet de situer la projection du CAC40 avec la méthode des Primes

de Risques de 1998 à 2017 comparativement avec l’approche historique et les observations

réellement constatées sur le terrain sur la même période.

Volatilité EuroMTS10-15 (Taux Longs Souverains Euro) 5,32% Source : Historique Bloomberg → Taux Longs Souverains Euro

Volatilité CAC40 25,52% Source : Historique Bloomberg

Projections BNP Paribas Calculs par l'approche des Primes de Risques

Infation PIB Réel

Taux

Directeurs

BCE

Rendement

Monétaire

Rendement

EuroMTS10-15

Rendement CAC40

avec la méthode des

Primes de Risque

1998 0,25% 3,00% 3,00% 3,00% 3,25% 4,20%

1999 0,50% 2,50% 3,75% 3,75% 3,00% 0,15%

2000 0,75% 3,00% 3,25% 3,25% 3,75% 5,65%

2001 1,50% 4,00% 2,75% 2,75% 5,50% 15,94%

2002 1,75% 2,00% 2,50% 2,50% 3,75% 8,50%

2003 1,25% 1,00% 2,00% 2,00% 2,25% 3,20%

2004 1,50% 1,00% 2,00% 2,00% 2,50% 4,40%

2005 1,50% 2,00% 2,50% 2,50% 3,50% 7,30%

2006 1,50% 1,50% 3,00% 3,00% 3,00% 3,00%

2007 1,50% 2,50% 3,75% 3,75% 4,00% 4,95%

2008 1,75% 1,50% 3,50% 3,50% 3,25% 2,30%

2009 1,00% 1,25% 2,75% 2,75% 2,25% 0,35%

2010 1,75% 0,25% 2,25% 2,25% 2,00% 1,05%

2011 1,50% 1,00% 1,75% 1,75% 2,50% 5,35%

2012 1,25% 1,25% 1,25% 1,25% 2,50% 7,25%

2013 1,00% 1,00% 1,00% 1,00% 2,00% 5,80%

2014 0,50% 0,50% 1,00% 1,00% 1,00% 1,00%

2015 0,25% 0,75% 1,00% 1,00% 1,00% 1,00%

2016 -0,50% 1,50% 0,00% 0,00% 1,00% 4,80%

2017 -0,50% 1,00% 0,00% 0,00% 0,50% 2,40%

Année

Page 131: Développement et utilisation d’un - Institut des actuaires

131

Ce graphique montre que au regard des observations de l’évolution du CAC40, l’approche par

primes de risques apparaît bien plus réaliste que l’approche historique.

Le tableau ci-dessous regroupe synthétise les résultats :

Comme on peut le constater l’approche par primes de risque produit de bien meilleurs résultats

que l’approche historique et nous amènera à rejeter cette dernière.

Sur le court terme, l’approche par primes de risques présente des lacunes comme par exemple

l’incapacité à prévoir les crises conjoncturelles comme on a pu l’observer en 2001 et 2008.

Néanmoins dans le cas de cet Appel d’Offres il s’agit de construire une allocation stratégique

de long terme qui optimise le rendement dans le cadre du scénario central tout en limitant les

pertes dans le cas des scénarios adverses. Or si l’approche par Prime de Risques ne peut

construire un scénario central prédictif des crises, les scénarios qui seront générés par

A.L.A.M.O. (à partir de cette tendance centrale et des autres moments) pourront simuler le

déclenchement de crises conjoncturelles et même structurelles. C’est cette « nappe » de

scénarios qui nous permettra de construire un quantile regroupant les scénarios de crises

susceptibles d’obliger l’entreprise à remettre des fonds supplémentaires pour couvrir les

engagements.

0

0

5 000

10 000

15 000

20 000

25 000dé

c.-8

7

nov.

-88

oct.

-89

sept

.-90

ao

ût-

91

juil.

-92

juin

-93

mai

-94

avr.

-95

mar

s-96

févr

.-97

janv

.-98

déc.

-98

nov.

-99

oct.

-00

sept

.-01

ao

ût-

02

juil.

-03

juin

-04

mai

-05

avr.

-06

mar

s-07

févr

.-08

janv

.-09

déc.

-09

nov.

-10

oct.

-11

sept

.-12

ao

ût-

13

juil.

-14

juin

-15

mai

-16

avr.

-17

VA

LOR

ISA

TIO

N D

E L'

IND

ICE

DATES

Comparaion des valorisations du CAC40 projetées avec les méthodes historiques et par Primes de Risques

CAC40 - Observé

CAC40 - Projection Approche Historique

CAC40 - Projection Approche Primes de Risques

Période d'étalonnage

Etude des méthodes de projection du CAC40 déc-98 juin-17 Performance annualisée

Trajectoire réelle 2 999,00 5 321,10 3,00%

Projection - Approche Historique 2 999,00 25 531,75 11,66%

Projection - Approche par Primes de Risques 2 999,00 6 971,97 4,44%

Page 132: Développement et utilisation d’un - Institut des actuaires

132

4.4.4. Calcul des rendements moyens d’évolution des actifs

Le tableau ci-dessous regroupe les résultats des calculs des rendements moyens projetés à partir

des projections macroéconomiques, et des volatilités historiques selon la méthode des primes

de risques.

4.4.5. Construction du tableau des moments de projection

Une fois les rendements moyens de projection des différentes classes d’actifs calculés, il faut

définir les tendances de projection des moments d’ordre 2 (Volatilité), 3 (Skewness) et 4

(Excess Kurtosis) ainsi que les corrélations et autocorrélations. Ces indicateurs se calculent

directement à partir de l’historique.

Les tableaux ci-dessous synthétisent les moments qui seront calibrés dans A.L.A.M.O.

Indicateurs économiques et monétaires (*)

Croissance Réelle 1,00%

Inflation 0,65%

Taux Directeurs 1,00%

Classe d'Actifs Indice de référence Volatilité (**) Redement (***)

Monétaire EONIA 1,27% 1,00%

Govies Court Terme EuroMTS 3-5 ans 2,73% 1,33%

Govies Long Terme EuroMTS 10 - 15 ans 5,32% 1,64%

Corporate Court Terme Iboxx 1 - 3 ans 2,67% 1,32%

Corporate Long Terme Iboxx 5 - 7 ans 7,31% 1,88%

Actions Européennes CAC 40 25,52% 4,07%

Actions Internationales MSCI Emerging Markets 36,81% 5,43%

(*) Déterminé à partir des hypothèses des chefs économistes de Cardif et BNP paribas(**) Calculé à partir de l'historique(***) Calculé à partir de la méthode des primes de risques

Rendement Volati l i té Skewness Excess Kurtos isAuto

corrélation

Monétaire 1,00% 1,27% -0,52 0,88 0,53

Govies Court Terme 1,33% 2,73% 0,25 0,29 -0,21

Govies Long Terme 1,64% 5,32% 0,98 0,27 -0,22

Corporate Court Terme 1,32% 2,67% 1,48 2,60 -0,08

Corporate Long Terme 1,88% 7,31% 0,43 0,59 -0,26

Actions Européennes 4,07% 25,52% -0,24 -0,18 -0,01

Actions Internationales 5,43% 36,81% 0,33 -0,28 -0,29

Inflation 0,65% 0,75% 0,37 0,67 0,19

MonétaireGovies Court

Terme

Govies Long

Terme

Corporate

Court Terme

Corporate

Long Terme

Actions

Européennes

Actions

Internat.Inflation

Monétaire 1,00 -0,53 -0,52 -0,49 -0,45 -0,13 -0,42 0,60

Govies Court Terme -0,53 1,00 0,71 0,26 -0,06 -0,73 -0,56 -0,40

Govies Long Terme -0,52 0,71 1,00 0,05 0,10 -0,30 -0,39 -0,50

Corporate Court Terme -0,49 0,26 0,05 1,00 0,88 -0,07 0,24 -0,38

Corporate Long Terme -0,45 -0,06 0,10 0,88 1,00 0,17 0,40 -0,35

Actions Européennes -0,13 -0,73 -0,30 -0,07 0,17 1,00 0,62 0,40

Actions Internationales -0,42 -0,56 -0,39 0,24 0,40 0,62 1,00 0,50

Inflation 0,60 -0,40 -0,50 -0,38 -0,35 0,40 0,50 1,00

Page 133: Développement et utilisation d’un - Institut des actuaires

133

4.5. Génération des scénarios stochastiques avec l’ESG A.L.A.M.O.

4.5.1. Génération des Scénarios

A partir des hypothèses ci-dessus nous allons générer avec l’outil A.L.A.M.O. 1,000 scénarios

d’évolution sur 30 ans en pas annuels des classes d’actifs décrites ci-dessus. Les distributions

des différents actifs générés sont représentées dans l’annexe mais les graphiques ci-dessous

représentent les enveloppes d’évolution des scénarios.

Page 134: Développement et utilisation d’un - Institut des actuaires

134

Page 135: Développement et utilisation d’un - Institut des actuaires

135

Page 136: Développement et utilisation d’un - Institut des actuaires

136

4.5.2. Audit des Moments

a) Etude statistique des moments des rendements générés par l’EGS A.L.A.M.O.

Les moments calculés sur les scénarios générés sont rassemblés dans les tableaux ci-dessous.

En comparant les tableaux ci-dessus résultant des calculs sur les scénarios générés par

A.L.A.M.O. on constate qu’ils sont très voisins dans l’ensemble des tableaux entrés en input

du générateur.

Rendement Volati l i té Skewness Excess Kurtos isAuto

corrélation

Monétaire 1,00% 1,27% 0,14 0,10 0,50

Govies Court Terme 1,33% 2,73% 0,00 -0,09 0,18

Govies Long Terme 1,64% 5,32% -0,01 -0,07 0,10

Corporate Court Terme 1,32% 2,67% 1,25 4,25 0,01

Corporate Long Terme 1,88% 7,31% 0,42 1,04 -0,03

Actions Européennes 4,07% 25,52% -0,01 -0,11 -0,05

Actions Internationales 5,44% 36,78% 0,00 -0,28 -0,36

Inflation 0,65% 0,75% 0,33 1,12 0,25

MonétaireGovies Court

Terme

Govies Long

Terme

Corporate

Court Terme

Corporate

Long Terme

Actions

Européennes

Actions

Internat.Inflation

Monétaire 1,00 -0,34 -0,41 -0,34 -0,28 -0,11 -0,22 -0,01

Govies Court Terme -0,34 1,00 0,68 0,19 -0,05 -0,68 -0,46 0,01

Govies Long Terme -0,41 0,68 1,00 0,02 0,08 -0,30 -0,30 0,01

Corporate Court Terme -0,34 0,19 0,02 1,00 0,84 -0,04 0,15 0,00

Corporate Long Terme -0,28 -0,05 0,08 0,84 1,00 0,19 0,29 0,00

Actions Européennes -0,11 -0,68 -0,30 -0,04 0,19 1,00 0,69 0,00

Actions Internationales -0,22 -0,46 -0,30 0,15 0,29 0,69 1,00 0,01

Inflation 0,60 -0,41 -0,48 -0,37 -0,33 0,37 0,41 1,00

Page 137: Développement et utilisation d’un - Institut des actuaires

137

b) Cas particulier du monétaire :

En les comparant avec les moments de l’historique en particulier pour les volatilités, skewness,

kurtosis, autocorrélations et corrélations représentés dans les tableaux du paragraphes 4.2.7.1,

on constate que les moments générés sont en moyenne proches de l’historique à une exception

près : La Skewness et Kurtosis des rendements monétaires. L’analyse de l’historique montre la

présence d’une asymétrie négative avec une Skewness négative et une queue de distribution

épaisse. Cela est lié au fait qu’au cours de l’historique nous avons assisté à une chute violente

des taux monétaires passés de +5% à 0%. En partant de 0 % et pour avoir les mêmes

caractéristiques de queue de distribution que l’historique il faudrait un nombre non négligeable

de scénarios pour lesquels l’EONIA passerait de 0% à … - 5% ce qui est inenvisageable étant

donné la difficulté d’avoir des taux très fortement négatifs. Néanmoins bien qu’en moyenne il

soit donc impossible de répliquer la Skewness et l’Excess Kurtosis à cause de la contrainte de

positivité des taux nominaux le Générateur A.L.A.M.O. est suffisamment souple pour générer

des scénarios avec de fortes asymétries négatives comme l’historique. Voici par exemple le

scénario 33 avec une Skewness de -0,96 (-0,52 pour l’historique) et un Excess Kurtosis de 1,39

(0,88 pour l’historique)

c) Cas des actions européennes

L’analyse de l’historique indique que les actions européennes ont la particularité d’avoir un

spectre de corrélations avec les autres actifs le plus large allant de -0,73 (corrélation négative

avec les Obligations d’Etat Européennes de Maturité Courte) à 0,62 (corrélation fortement

positive avec les Actions Internationales). Cela a un sens sur le plan macroéconomique dans la

mesure où :

- Actions et Obligations évoluent généralement de manière opposée depuis que l’inflation a

cessé d’être une menace pour les économies développées. De ce fait lorsque les nouvelles

économiques sont mauvaises ainsi que les résultats d’entreprises, les Actions Européennes

tendent à baisser tandis que dans un mouvement de « Flight to Quality » les Obligations

Européennes (en particulier les maturités courtes) tendent à monter car les investisseurs

vont rechercher la sécurité au détriment du risque.

- Actions Européennes et Actions Internationales évoluent dans le même sens dans la mesure

où l’on évolue dans une économie mondialisée et interconnectée. Une crise touchant les

pays émergents finit par se transmettre au monde développé par des canaux tels que les

Importations ou les Matières premières. De la même manière une crise touchant les pays

développés tels que les Etats Unis finit par se transmettre aux autres pays par le biais du

Marché des Changes : La Fed baisse ses taux directeurs suite à des mauvais chiffres

répétitifs aux Etats Unis ce qui entraine une baisse du Dollar face aux autres devises et en

corolaire provoque une baisse de la compétitivité des entreprises étrangères et in fine une

baisse de leur valorisation boursière.

Page 138: Développement et utilisation d’un - Institut des actuaires

138

Le graphique ci-dessous compare la corrélation des actions européennes avec les autres actifs

dans le cas de l’historique et dans le cas des scénarios générés par A.L.A.M.O.

Comme on peut le constater le générateur A.L.A.M.O. arrive à reproduire toutes les

configurations de corrélations possibles.

Comparons à présent la distribution des rendements Actions Européennes relativement aux

Obligations Européennes de maturité courte dans le cas de l’historique et dans le cas des

scénarios A.L.A.M.O.

Page 139: Développement et utilisation d’un - Institut des actuaires

139

Comme le montrent les graphiques ci-dessus (les points bleus représentent l’historique) le

coefficient de régression liant Actions Européennes et Obligations d’Etat Européennes de

maturité courtes dans le cadre des scénarios stochastiques générés par A.L.A.M.O. est très

proche (de l’ordre de -6,60) de l’historique. Les ordonnées à l’origine diffèrent sensiblement

mais ceci est normale dans la mesure où les trend implémentés dans les scénarios divergent de

ceux de l’historique.

Comparons à présent la distribution des rendements Actions Européennes relativement aux

Actions Internationales dans le cas de l’historique et dans le cas des scénarios A.L.A.M.O.

Page 140: Développement et utilisation d’un - Institut des actuaires

140

Comme le montrent les graphiques ci-dessus, le coefficient de régression entre actions

internationales et actions européennes, dans le cadre des scénarios A.L.A.M.O. est très proche

de celui de l’historique (0,36). Graphiquement on observe que les rendements de l’historique

sont inclus dans l’univers des rendements générés par les scénarios. Les ordonnées à l’origine

diffèrent cependant entre les scénarios et l’historique ce qui n’est pas surprenant dans la mesure

où les trends implémentés dans les scénarios via la méthode des Primes de Risques divergent

des trends historiques.

Page 141: Développement et utilisation d’un - Institut des actuaires

141

4.6. Construction de l’allocation d’actifs optimale

4.6.1. Détermination des facteurs de risques

Afin de déterminer l’allocation d’actifs qui répond au mieux au besoin du client nous utiliserons

un outil développé par mes soins destiné à construire par « buckets » l’allocation optimale.

Nous ne nous attarderons pas sur les modèles mathématiques ayant permis la construction de

cet outil qui n’est pas l’objet du mémoire. Les critères qui seront utilisés pour construire

l’allocation sont :

- Le niveau global d’aversion au risque de l’entreprise : il est modélisé par un

coefficient allant de 0 (très fort appétit au risque) à 5 (très forte aversion au

risque)

- Le poids relatif de la tolérance au risque de défaut : Ce dernier est modélisé par

la probabilité que l’actif revalorisé par les rendements stochastiques n’arrive pas

à couvrir les flux de Passif.

- Le poids relatif de la tolérance au risque de marché : Ce dernier est modélisé par

l’écart entre la moyenne arithmétique et la moyenne géométrique vue plus haut

soit 0,5 * σ² / 2

- Le poids relatif de la tolérance au risque de concentration : Ce dernier est

modélisé par la racine carrée de l’écart quadratique entre l’allocation testée et

l’allocation assurant une diversité maximale.

4.6.2. Allocation retenue

A partir des éléments ci-dessus et des scénarios nous construisons l’allocation optimale à partir

d’un outil d’Allocation Multicritères qui ne fait l’objet du Mémoire. Nous ne décrirons donc

pas le processus. L’allocation retenue est schématisée dans le graphique ci-dessous :

Le prochain paragraphe décrira de manière plus détaillé le comportement de cette allocation

dans plusieurs configurations.

Page 142: Développement et utilisation d’un - Institut des actuaires

142

4.7. Analyse du comportement de l’Allocation retenue

4.7.1. Problématique

L’objet de cette partie consiste à étudier de manière détaillée le comportement de l’allocation

d’actifs retenue précédemment dans différentes configurations de marché à l’aide des scénarios

générés par A.L.A.M.O.

On étudiera ainsi l’évolution de l’actif net (actif brut décrémenté des flux de passif) dans le

scénario médian mais aussi dans des scénarios alternatifs. L’objectif sera aussi d’identifier les

cas concrets dans lesquels l’entreprise devra investir des fonds supplémentaires pour couvrir

les engagements envers ses salariés retraités.

4.7.2. Analyse du scénario Médian

Le scénario médian est le scénario dont la tendance centrale des actifs est voisine des espérances

de rendements calculés plus haut.

On observe que dans le scénario Médian, l’allocation retenue permet d’honorer les engagements

de l’entreprise et de dégager un excédent permettant de distribuer aux adhérents une

participation aux bénéfices qui est calculée de manière numérique par optimisations successives

visant à annuler l’actif net. Le graphique ci-dessous permet de visualiser la participation aux

bénéfices attribuée aux adhérents (85% des produits financiers) de l’entreprise

comparativement au taux minimum garanti et à la marge financière dégagée pour l’Assureur

(15% des Produits Financiers).

Actif Allocation Perf Moyenne Performance Médiane

Cash 0,65% 0,00% 0,00%

Instruments Monétaires 12,35% 1,00% 0,90%

Obligations Govies Court Terme 13,00% 1,33% 1,24%

Obligations Govies Long Terme 13,00% 1,64% 1,56%

Obligations Corporates Court Terme 13,00% 1,32% 1,24%

Obligations Corporates Long Terme 13,00% 1,88% 1,75%

Actions Européennes 28,00% 4,07% 4,01%

Actions Internationales 7,00% 5,44% 5,36%

PORTEFEUILLE 100,00% 2,45% 2,36%

Page 143: Développement et utilisation d’un - Institut des actuaires

143

4.7.3. Distribution des scénarios d’actif net

Si la projection de l’actif net dans le cadre du scénario médian est intéressante, l’utilisation du

générateur de scénarios stochastiques A.L.A.M.O. revêt son importance dans la projection de

la distribution des Actifs Nets à horizon 2040 comme schématisée dans le graphique ci-dessous.

Au travers du graphique ci-dessus, on peut observer :

Page 144: Développement et utilisation d’un - Institut des actuaires

144

- La position du scénario médian dans la distribution

- Le poids des scénarios pour lesquels l’entreprise ne peut honorer ses engagements

sans rajouter des capitaux supplémentaires.

Il s’agit maintenant de comprendre et d’analyser les scénarios qui posent problème afin de

mieux comprendre les situations financières et macroéconomiques pouvant être à l’origine des

scénarios d’insolvabilité.

4.7.4. Relation Solvabilité / Performance des Actions

En notant :

- rEuropéennes : Performance des Actions Européennes

- ΩEuropéennes : Poids des Actions Européennes

- rInternationales : Performance des Actions Internationales

- ΩInternationales : Poids des Actions Internationales

La performance de la poche actions dans le portefeuille notée rActions se calcule comme suit :

nalesInternationalesInternatiosEuropéennesEuropéenneActionsrrr += ..

Une fois la série des performances de la poche actions générées nous effectuerons plusieurs

régressions linéaires, et exponentielles au moyen de la Méthode des Moindres Carrés Ordinaires

afin de construire une relation liant l’Actif Net avec la performance des Actions.

Cette série aboutie à la formule suivante :

( )( ) 89180000.36192.2,1%6.18,17

+−=+Actionsr

eActifNet

Le graphique ci-dessous permet de représenter la relation liant les valorisations de l’Actif Net

axe des ordonnées) générées par A.L.A.M.O. avec la performance des actions (axe des

abscisses) la formule construite ci-dessus.

Page 145: Développement et utilisation d’un - Institut des actuaires

145

Les résultats du test statistiques ci-dessous indiquant une P-VAL proche de 0 et un R² voisin

de 0,6 montrent la pertinence de la régression établie précédemment.

Ces calculs démontrent in finé la forte corrélation (de type exponentielle) entre la valeur de

l’actif net et la performance des actions. La grande majorité des scénarios qui aboutissent à une

insolvabilité de l’entreprise nécessitant pour elle de rajouter des fonds supplémentaires est en

grande partie due à une performance action négative.

Le graphique ci-dessous schématise le comportement de la Provision Mathématique et de

l’Actif Net sur un exemple de scénario défavorable aux actions.

RAPPORT DÉTAILLÉ

Statistiques de la régression

Coefficient de détermination multiple 0,763292468

Coefficient de détermination R^2 0,582615391

Erreur-type 33975,57907

Observations 1000

ANALYSE DE VARIANCE

Degré de liberté Somme des carrés Moyenne des carrés F

Régression 1 1,60809E+12 1,60809E+12 1393,080023

Résidus 998 1,15203E+12 1154339973

Total 999 2,76012E+12

Coefficients Erreur-type Statistique t Probabilité

Constante 1,23691E-10 1399,659746 8,83724E-14 1

Variable X 1 1 0,026792422 37,32398724 1,4687E-191

Page 146: Développement et utilisation d’un - Institut des actuaires

146

En restreignant l’étude sur les 249 scénarios pour lesquels l’entreprise doit remettre des fonds

on observe que la performance moyenne des actions sur ces scénarios est voisine de -1,5% par

an contre +4,40% pour l’ensemble des scénarios.

En conclusion, sur les 249 scénarios nécessitant une obligation de l’entreprise de réalimenter le

Fonds de retraite de ses salariés, 230 présentent des performances actions négatives. Seuls 19

scénarios « insolvables » enregistrent quand même des performances positives sur la durée de

la simulation.

4.7.5. Relation Solvabilité / Performances obligataires

Sur une simulation de 30 ans, un investissement dans un actif obligataire assure la positivité du

rendement sur une telle période sauf dans deux cas :

- Défaut de la contrepartie

- Obligation de vendre des positions pour payer des flux.

Dans notre Appel d’Offres nous avons des flux conséquents à payer en début de simulation. De

ce fait une performance fortement négative sur l’obligataire en début de simulation engendrera

des pertes qui seront difficiles à effacer avant de devoir clôturer les positions en vue d’honorer

les prestations à verser aux adhérents.

Nous observons une quinzaine de scénarios faisant état de « turbulences » au niveau des taux

en début de période affectant la poche obligataire de manière sensible au moment de devoir

clôturer les positions pour honorer les flux. Le graphique ci-dessous illustre un exemple de

Page 147: Développement et utilisation d’un - Institut des actuaires

147

scénario faisant état d’une forte hausse des spreads de taux d’intérêts corporate les 4 premières

années (se traduisant par une baisse de la valorisation des obligations d’entreprises).

On observe que sur le moyen / long terme, contrairement à un scénario de baisse d’un indice

action qui peut ne pas retrouver son niveau de départ, l’indice obligataire retrouve toujours son

niveau de départ en l’absence de défauts sur la dette.

Néanmoins, dès lors que nous sommes en présence d’engagements à honorer matérialisés par

des flux à décaisser, les performances des actifs ne sont plus commutatives : c’est

particulièrement le cas lorsque l’essentiel des flux à payer arrivent rapidement comme c’est le

cas ici. Il en résulte que la solvabilité du fonds est beaucoup plus sensible aux performances

ayant lieu dans un futur proche que celles ayant lieu dans un futur éloigné. Toujours si on se

réfère au graphique ci-dessus, lorsque à l’année 24, l’indice Iboxx 5-7Y se retrouve à des

niveaux deux fois plus élevé qu’à l’année 0, cela n’a aucun impact sur l’Actif Net dans la

mesure où ce dernier est passé en territoire négatif bien avant la remontée des performances

boursière. L’essentiel des flux ayant été payé, l’actif net était devenu trop faible pour pouvoir

reprendre une croissance dynamique en mesure d’honorer les flux restant à honorer. Ce type de

configuration concerne 16 scénarios sur les 1000 générés.

Il faudrait pour redresser la situation que l’entreprise remettent des fonds vers l’année 10 pour

créer une marge de sécurité afin d’empêcher l’actif net de passer en territoire négatif d’une part

et de profiter du rebond des actifs obligataires d’autre part.

Page 148: Développement et utilisation d’un - Institut des actuaires

148

4.7.6. Relation Solvabilité / Variations de l’Inflation

Il existe enfin quelques scénarios (3 sur 1000) qui conduisent à une insolvabilité du fonds alors

que les actifs dans lesquels il est investi suivent des évolutions favorables. Cela est lié au

comportement de l’inflation qui connaît un « emballement » dans ces scénarios générant ainsi

une dérive importante des revalorisations.

En analysant de plus près un de ces scénarios, on peut observer comment le choc inflationniste

provoque un emballement des engagements de l’entreprise vis-à-vis de ses salariés aboutissant

ainsi à l’effondrement de l’actif net.

Le graphique ci-dessous représente l’évolution de l’inflation du scénario de choc inflationniste

N°792 relativement au scénario central de projection :

Les conséquences de ce choc d’inflation sont loin d’être négligeables sur les flux des prestations

(garanties inclues) que doit verser l’entreprise à ses salariés. La partie rouge de l’histogramme

mesure l’impact du choc inflationniste sur la chronique de flux.

Page 149: Développement et utilisation d’un - Institut des actuaires

149

Afin de mieux évaluer l’impact de ce choc inflationniste, nous allons rejouer le scénario N°792

en remplaçant les taux d’inflation générés par l’inflation moyenne projetée de 0,65% par an. Le

graphique ci-dessous compare l’évolution de l’actif net en présence et en l’absence de choc

d’inflation.

Comme le montrent les résultats du graphique ci-dessus, en l’absence de choc inflationniste,

l’Actif net revalorisé des performances des actifs générées par le scénario 792 est en mesure

d’honorer les flux de prestations majorés de l’inflation « centrale » de 0,65% / an. Mais en

présence d’un choc inflationniste se traduisant par une très forte revalorisation des flux de

prestations en particulier autour de la 10ème année de projection, l’actif net s’érode rapidement

sur cette période et passe en territoire négatif à l’année N+10.

Page 150: Développement et utilisation d’un - Institut des actuaires

150

4.8. Bilan général du comportement du Fonds sur les scénarios

L’allocation retenue pour répondre à la problématique de gestion d’un Fonds de Rentes fermé

émis par l’Entreprise « E » permet d’honorer les flux de Passif dans 75% des cas. Dans le

scénario moyen, l’Actif Net qui vaut au départ 100,000 € termine à +22,424 € en fin de

simulation à l’année N+30 après avoir réglé tous les flux. Si on applique les règles de

distribution de la Participation aux Bénéfices, on observe que dans le scénario moyen, le Fonds

pourra payer toutes rentes en assurant une revalorisation moyenne annuelle de 2% (0,65% au

titre du Taux Minimum Garanti indexé sur l’inflation et 1,35% au titre de la Participation aux

Bénéfices).

Néanmoins, la grande force d’A.L.A.M.O. réside en la capacité du Générateur de Scénarios

Stochastique à simuler des trajectoires extrêmes mais ayant un sens macroéconomique. De ce

fait à partir des nappes de trajectoires obtenues, nous pouvons analyser les causes pour

expliquer pourquoi le Fonds fait défaut dans 25% des cas. De ce fait sur les 249 scénarios

aboutissant à un défaut, on distingue :

- 230 scénarios dont le défaut est essentiellement liés à de mauvaises performances sur

les actions européennes et internationales.

- 16 scénarios dont le défaut est essentiellement liés à des tensions sur les spreads de

crédit qui surviennent dans les premières années

- 3 scénarios dont le défaut est essentiellement liés à un choc inflationniste qui provoque

une réévaluation brutale des engagements provoquant de fait des sorties accrues de

l’actif net qui finit par passer en territoire négatif.

Cette capacité d’A.L.A.M.O. consistant à aller au-delà de l’optimisation de l’allocation en

cartographiant et en probabilisant les scénarios adverses générateurs de défaut, jouera un rôle

décisif dans la victoire de BNP Paribas Cardif à l’Appel d’Offres.

Page 151: Développement et utilisation d’un - Institut des actuaires

151

Conclusion

Ce mémoire qui a eu pour objet de répondre dans le détail à des problématiques de gestion de

fonds de rentes fermé nous a amené à développer un Générateur de Scénarios Stochastiques qui

devait répondre à un certain nombre de critères.

Trois grands défis développés au travers de ce mémoire se sont posés à nous :

- Le premier résida dans le développement de l’outil en lui-même et des contraintes

« Risque Historique » qu’il doit satisfaire en particulier le respect des moments d’ordre

1 (Drift), d’ordre 2 (Volatilité), d’ordre 3 (Coefficient d’asymétrie ou Skewness),

d’ordre 4 (Excess Kurtosis), des corrélations historiques entre actifs et de

l’autocorrélation historique d’ordre 1. Ce travail a nécessité de définir les limites du

sujet et de déterminer un périmètre précis des contraintes que devra satisfaire l’ESG.

Ce challenge fut l’occasion de manipuler différents modèles mathématiques et

financiers (Processus de Wiener, Processus de Cholesky, Vecteurs Autorégressifs,

Equations de Yuke Walker, Lois Multi normales, Processus à sauts, Copules, Modèle

de GARCH & AMIGARCH) et de tester la pertinence de leur imbrication : en effet

deux modèles peuvent parfaitement être les mieux adaptés pour répondre à des

contraintes précises mais leur imbrication peut s’avérer parfaitement inefficace.

- Le second défi est lié au benchmarking de l’outil qui a été une étape obligée afin de

pouvoir utiliser le Générateur de Scénarios A.L.A.M.O. sur des sujets impliquant la

diffusion d’études à destination de clients extérieurs dans le cas de réponses à des

Appels d'Offres. L’analyse détaillée des scénarios produits par A.L.A.M.O. fera aussi

apparaitre de nombreuses limites de l’outil : modélisation des distributions à très forte

Excess Kurtosis, modélisation de séries très fortement auto-corrélées, gestion du

régime transitoire. Ces limites rendent l’outil difficilement utilisable sur certains pas

de projection (pas quotidien par exemple). Si l’outil nous a été d’une grande aide pour

répondre à des problématiques de gestion Actif / Passif sur des fonds de rentes fermés,

il serait illusoire de l’utiliser sur d’autres sujets comme par exemple le calcul de ratio

de solvabilité qui nécessite d’avoir des scénarios Market Consistant ou encore le calcul

d’une VaR de Monte-Carlo sur un Book de Trading qui nécessite d’avoir des scénarios

compatibles avec des pas de projection de l’ordre de la journée ou de l’heure. Par

ailleurs Le benchmarking avec d’autres ESG de la place fera ressortir A.L.A.M.O.

comme étant le meilleur ESG en Risque Historique du Groupe BNP Paribas le plaçant

à égalité avec l’ESG développé par Barrie – Hibbert : A.L.A.M.O. présente toutefois

l’avantage du coût moindre mais aussi de la transparence puisque le code est

entièrement aux mains de BNP Paribas Cardif.

- Le dernier défi est lié au paramétrage de l’outil : En effet comme l’ont montré les

études développées dans ce mémoire, la calibration du Drift et de la Volatilité n’est

pas verrouillée sur l’historique mais reste à la main de l’utilisateur. Or en fonction de

la typologie d’étude la calibration de ces moments d’ordre 1 et 2 peut varier

sensiblement : Dans le cadre de la construction d’une Allocation d’Actifs Stratégique

de type Fonds de rentes fermé, la volatilité des actifs doit être en rapport avec celle des

Page 152: Développement et utilisation d’un - Institut des actuaires

152

historiques tandis que les rendements doivent être en phase avec les projections

macroéconomiques de long terme pondérées par les volatilités suivant une approche

de type « Prime de Risque ». L’application numérique portant sur la gestion d’un

Fonds de rentes fermé au moyen des scénarios A.L.A.M.O. nous a permis d’identifier

les situations dans lesquels le Fonds ne peut honorer ses engagements et d’en quantifier

les probabilités de survenance. Cette approche de gestion via des scénarios

économiques permet aussi de faire le lien entre des contraintes ALM inhérentes au

Fonds et des contraintes macroéconomiques pouvant impacter aussi bien l’actif

(variation des actions et des obligations) que le passif (inflation, déflation).

Ce travail autour de la Gestion des Fonds de rentes fermés par le biais des Générateurs de

Scénarios Stochastiques ne s’arrêtera pas à la publication et à la soutenance de ce mémoire car

ce sujet sera amené à évoluer dans les prochaines années en intégrant de nouveaux risques

(risque souverain européen comme le Brexit, limite des taux nominaux négatifs, …) et de

nouvelles opportunités (en particulier le Big Data qui induira la prise en compte de corrélations

exotiques pour mieux pricer le risque).

Page 153: Développement et utilisation d’un - Institut des actuaires

153

Bibliographie

[1] - A closed-form solution for options with stochastic volatility with application to bond and

currency options, 1993 - Steve HESTON

[2] - A jump-diffusion model for option pricing - Steven KOU

[3] - ARCH Models : properties, estimation and testing, Basil Blackwell, 1993 - Annil BERRA

& Matthew HIGGINS

[4] - Bayesian Econometric Methods, Cambridge University Press, 2007 - Gary KOOP

[5] - Cours de séries temporelles : Théorie et applications, Université Paris Dauphine, 2003 -

Arthur CHARPENTIER

[6] - Econométrie pour la finance, Modèles ARCH-GARCH, Université d’Orléans, Octobre

2004 - Christophe HURLIN

[7] - Économie financière quantitative: actions, obligations et taux de change - Keith

CUTHBERSTON

[8] - Eléments d’analyse multivariée - Gilbert SAPORTA

[9] - Évaluation «Best estimate » de contrats d’épargne en euros - Emmanuel OHNOUNA

[10] - Finance de marché: Instruments de base, produits dérivés, portefeuilles et risques - 4ème

éd. Broché, 27 août 2014 - Patrice PONCET & Roland PORTRAIT

[11] - Gestion Actif Passif en Assurance Vie - Alain TOSETTI & Patrice PALSKY

[12] - Independant Component Analysis by Minimization of Mutual Information - Aapo

HYVÄRINEN

[13] - Introduction au calcul stochastique appliqué à la finance - Bernard LAPEYRE & Damien

LAMBERTON

[14] - Méthode d’évaluation et de comptabilisation des passifs sociaux en norme IFRS/IAS 19

- Richard DEVILLE

[15] - Modélisation asymétrique de titres financiers, Université Laval, Juin 2008 - Walid JBILI

[16] - Options, futures et autres actifs dérivés, 6ème édition - John HULL

[17] - Phénomènes financiers et mélange de lois : Une nouvelle méthode d’estimation des

paramètres. MPRA, Octobre 2011 - Constantin CHILARESCU

[18] - Problèmes d’économétrie en macroéconomie et en finance : mesures de causalité,

asymétrie de la volatilité et risque financier, Université de Montréal, Juin 2007 - Abderrahim

TAAMOUTI

[19] - Régimes de retraites par capitalisation - Laurent FAUCILLON

[20] - Réglementation des Entreprises et Droit du Contrat d'Assurance - Pierre ALLEGRET

[21] - Risques Economiques et réglementation de l'assurance - Daniel ZAJDENWEBER

[22] - Sélection de modèles avec l’AIC et critères d’information dérivés, Novembre 2005 -

Renaud LANCELOT & Matthieu LESNOFF

[23] - The Black Swan - Nassim Nicholas TALEB

[24] - The instability of the correlation structure of the SP 500, October 2011 - Thomas

BAUMÖHL

[25] - Théorie et pratique de l'assurance vie - 4e éd. - Pierre PETAUTON

[26] - Valorisation des Actifs Financiers avec mesure de richesse agrégée - Pierre GILBERT

[27] - La place du générateur de scénarios économiques dans les calculs de solvabilité en

assurance-vie – Mémoire d’Actuariat 02 Mai 2016 – Jean-Marc HECART

Page 154: Développement et utilisation d’un - Institut des actuaires

154

Annexes

Annexe I – Table présentant les relations entre les paramètres α, β, γ et H avec l’Excess Kurtosis

Page 155: Développement et utilisation d’un - Institut des actuaires

155

Annexe II – Table reliant Skewness, Excess Kurtosis et le paramètre q

Page 156: Développement et utilisation d’un - Institut des actuaires

156

Annexe III – Table de passage des ωi aux coefficients d’autocorrélation

ρ0,

000,

050,

100,

150,

200,

250,

300,

350,

400,

450,

500,

550,

600,

650,

700,

750,

800,

850,

900,

951,

00

ω20

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%1%

1%3%

5%

ω19

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%1%

1%3%

5%

ω18

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%1%

2%3%

5%

ω17

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%1%

2%3%

5%

ω16

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%2%

3%4%

5%

ω15

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%2%

3%4%

5%

ω14

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%2%

4%5%

5%

ω13

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%2%

4%5%

5%

ω12

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%3%

5%5%

5%

ω11

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%3%

5%5%

5%

ω10

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

1%3%

5%5%

5%

ω9

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

2%4%

5%5%

5%

ω8

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

4%5%

6%5%

5%

ω7

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%0%

0%1%

5%6%

6%5%

5%

ω6

0%0%

0%0%

0%0%

0%0%

0%0%

0%1%

1%2%

3%4%

7%7%

7%6%

5%

ω5

0%0%

0%0%

0%0%

0%0%

1%2%

3%3%

4%6%

9%11

%12

%10

%7%

6%5%

ω4

0%0%

0%1%

1%1%

1%2%

3%4%

5%7%

10%

12%

14%

16%

15%

12%

8%7%

5%

ω3

0%0%

2%3%

4%5%

5%7%

8%11

%13

%16

%19

%21

%22

%20

%16

%12

%8%

7%5%

ω2

0%5%

10%

15%

18%

21%

24%

27%

29%

29%

29%

28%

27%

25%

23%

21%

18%

14%

8%7%

5%

ω1

100%

94%

88%

81%

77%

73%

69%

63%

59%

54%

50%

45%

40%

35%

30%

26%

20%

15%

9%8%

5%

Σωi

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

100%

Page 157: Développement et utilisation d’un - Institut des actuaires

157

Annexe IV – Présentation sommaire d’autres ESG alternatifs à A.L.A.M.O.

1°) Introduction

Après avoir analysé dans le détail (aussi bien graphiquement que statistiquement) les sorties de

l’ESG A.L.A.M.O. et en avoir identifié les limites, nous allons comparer cet outil avec d’autres

ESG qui ont pu être développés par d’autres équipes. Nous décrivons dans un premier temps

les différents générateurs développés au sein du Groupe BNP Paribas (MLG 2+, KARMA, Val

Risk) puis nous présenterons les modèles proposés par deux prestataires externes (BARRIE &

HIBBERT, ALGHRIM).

2°) MLG 2+

a) Introduction

Le modèle MLG2+ est un générateur de scénarios économiques risque-neutre / monde-réel

développé par l’équipe ALM de BNP Paribas. Ce générateur est essentiellement utilisé pour la

production de tables market consistent pour le calcul de la MCEV de BNP Paribas Cardif.

b) Actifs Modélisés

Les éléments modélisés dans MLG2+ sont : les taux d’intérêt nominaux et réels, un indice

actions, un indice immobilier, un indice inflation et un indice OPCVM obligataire. A noter que

ce générateur n’intègre pas de modélisation du risque de crédit.

Par ailleurs, il est impossible à ce stade de projeter simultanément différentes devises et

d’ajouter des indices supplémentaires (actions, immobilier, indices sectoriels d’inflation).

Néanmoins, des travaux de développement pourraient permettre d’effectuer ces tâches en

fonction des expressions de besoins de BNPPA.

c) Modèles mathématiques sous-jacents

Le tableau ci-dessous recense les modèles mathématiques relatifs aux différents éléments

projetés :

Environnement Risque-neutre / monde-réel

Variables

modélisées

Taux nominaux et réels, inflation, actions, immobilier, indices

d’OPCVM

Elément Modèle

Indice Actions

Brownien géométrique avec prise en compte d’un dividende

constant. L’utilisateur peut choisir de modéliser une volatilité

constante ou une volatilité déterministe par termes

Taux nominaux et

réels

Modèle de Hull-White généralisé à 2 facteurs (niveau et pente) ou

modèle CIR à 2 facteurs (pour les taux nominaux)

Inflation Modèle de Jarrow-Yildirim intégrant un bruit spécifique

Immobilier Brownien géométrique

Page 158: Développement et utilisation d’un - Institut des actuaires

158

d) Calibrage

Le processus de calibrage des taux d’intérêt s’appuie sur un outil interne utilisé par la salle des

marchés. L’utilisateur a la possibilité de modifier les hypothèses de courbe des taux initiale et

de volatilité. Il a également la possibilité d’inclure des anticipations sur les taux courts et les

taux longs. En environnement risque-neutre, le calage s’effectue prioritairement sur les

swaptions et dans un second temps sur les caps. L’outil interne fournit également un rapport de

calibrage permettant de documenter le processus d’estimation. Pour les autres actifs modélisés,

le processus de calibrage n’apparaît pas totalement défini et n’est à ce stade pas documenté.

e) Tests

Pour valider les tables risque-neutre, MLG2+ effectue des tests martingales et de valorisations

de produits dérivés. Ces tests ne sont automatisés (avec obtention d’un rapport d’exécution) que

pour les taux d’intérêt.

f) Documentation & Contrôle

Le générateur de scénarios économiques est développé en langage C. Notons que le code du

générateur ne fait pas appel à des librairies extérieures et reste ainsi parfaitement auditable. En

revanche, BNPPA ne peut accéder au code ni en lecture seule, ni en écriture, et ne dispose que

d’une interface permettant de générer les scénarios. Les modèles sont néanmoins documentés

par le biais de notes techniques. Ces documents présentent les modèles utilisés ainsi que leur

mise en œuvre.

3°) KARMA

a) Introduction

Le modèle KARMA a été développé par l’équipe « RCM – Capital » de BNP Paribas.

L’objectif de ce générateur « monde-réel » est de calculer le capital économique au titre du

risque de participation equity du Groupe BNP Paribas.

b) Actifs Modélisés

Le générateur effectue des projections sur une période d’une année. Les drivers modélisés sont

les différents indices actions et immobiliers afférents au risque de participation equity du

Groupe BNP Paribas. L’utilisateur a le choix entre trois modes de simulation différents et peut

projeter tous les drivers souhaités si les historiques associés sont suffisamment longs. Tous les

titres de participation equity du Groupe BNP Paribas sont ainsi simulés en standard par le

modèle (environ 400 actifs). KARMA permet également de projeter les taux de change des

devises associées aux différents titres (environ 30 devises). Le générateur ne simule pas les taux

d’intérêt ni l’inflation.

Environnement Monde-réel

Variables modélisées Actions, immobilier et taux de change

Page 159: Développement et utilisation d’un - Institut des actuaires

159

c) Modèles mathématiques sous-jacents

Trois modèles peuvent être utilisés pour les projections en fonction du choix de l’utilisateur.

Ces modèles s’appuient respectivement sur une fonction de répartition historique log-normale,

normale ou non-normale qui sont interpolées par noyaux gaussiens sur les données historiques.

d) Calibration

Les fonctions de répartition « actions » sont obtenues par calibrage sur données historiques. La

fenêtre de calibrage, d’horizon 7 ans et demi, intègre jusqu’à présent les données des crises

financières de 2000 et 2008. Cette fenêtre évolue tous les trois mois. Si une crise plus

significative que celle de 2008 est observée, les nouvelles données viennent remplacer les

anciennes données de crise, dans le cas contraire elles viennent simplement s’ajouter à la

fenêtre. Ainsi par construction, parmi les données de la fenêtre de calibration, seule une crise

est incorporée. Les fonctions de répartition « immobilier » sont calibrées de manière similaire,

sur une fenêtre historique de 6 ans.

Les volatilités des drivers peuvent être calibrées de deux manières :

- Par une approche historique directe sur l’intégralité de la fenêtre de calibration,

- Par une approche percentile lorsque l'utilisateur souhaite ajuster les projections sur un

quantile.

Les corrélations entre drivers sont obtenues à l’aide de copules gaussiennes.

e) Tests

Le modèle fonctionnant uniquement en univers « monde-réel », aucun test de Market

Consistency n’est effectué. Le modèle ne semble pas fournir de tests statistiques automatisés

lors de la génération des scénarios économiques.

4°) VALRISK

a) Introduction

L’outil ValRisk est un générateur de scénarios économiques risque-neutre / monde-réel

développé par l’équipe MCoRA (Market and Counterparty Risk Analytics) de BNP Paribas. Ce

générateur est essentiellement utilisé pour le calcul et la modélisation du risque de contrepartie

pour les opérations de marché traitées par BNP Paribas. L’outil permet ainsi de traiter cette

problématique d’un point de vue portefeuille (agrégation et diversification des risques) aussi

bien qu’en ligne à ligne.

b) Actifs Modélisés

Les éléments modélisés dans ValRisk sont : les taux d’intérêt nominaux, les actions (et aussi

plus globalement les indices actions), les spreads de crédit, les taux de change et les matières

premières. Ce générateur s’attache à modéliser tous les produits dérivés ou opérations de

marché que le Groupe BNP Paribas traite et qui comporte du risque de contrepartie.

Environnement Risque-neutre / monde-réel

Variables modélisées Taux nominaux, actions, crédit spreads, taux de change, commodity

Page 160: Développement et utilisation d’un - Institut des actuaires

160

MCoRA a pour mission le développement des modèles de calcul d’exposition pour l’ensemble

du portefeuille de produits dérivés, en équivalent crédit, et ce en tenant compte des effets de

compensation et de collatéralisation.

Une activité de modélisation est assurée par cette équipe dont la mission est de concevoir et de

mettre en place les modèles mathématiques permettant de simuler l’évolution des facteurs de

risques (spreads de crédit, taux d’intérêt, changes, matières premières, etc...) intervenant dans

le calcul du risque de contrepartie et de développer des pricers.

c) Modèles mathématiques sous-jacents

Le tableau ci-dessous recense les modèles mathématiques relatifs aux différents éléments

projetés :

Modèles mathématiques utilisés dans ValRisk

d) Calibrage

Le processus de calibrage des différents modèles s’appuie sur une base de données assez riche.

L’utilisateur n’a pas la main sur le processus de calibrage mais celui-ci est revu fréquemment.

En effet, l’équipe revoit son calibrage de manière trimestrielle à chaque date d’arrêté et se base

sur un historique assez long et riche de manière à ce que le calibrage soit robuste et consistant.

e) Documentation & Contrôle

Le générateur de scénarios économiques est développé en langage C avec une interface web.

En revanche, l’utilisateur ne peut accéder au code ni en lecture seule, ni en écriture, et ne dispose

que d’une interface permettant de générer les scénarios. L’outil a été implémenté avec une

approche « client ».

Les modèles sont néanmoins documentés par le biais de notes techniques et tous les choix de

modélisation ont été certifiés par la commission bancaire.

Elément Modèle

Indice Actions / Actions Brownien géométrique avec prise en compte d’un dividende

constant.

Taux nominaux Modèle de HJM à 3 facteurs

Commodity Modèle HJM à 2 facteurs

Credit spreads Modèle à transition de rating avec un modèle exponentiel-

Vasicek pour les crédits spreads (par bucket de ratings)

Taux de change Modèle de German Kohlhagen

Page 161: Développement et utilisation d’un - Institut des actuaires

161

5°) BARRIE & HIBBERT (Moody’s)

a) Introduction

Barrie & Hibbert est le leader du marché des prestataires externes en matière de GSE. Cette

firme propose ses services à environ 80% des membres du CFO forum (Aviva, Axa, Allianz...)

Deux types de prestations sont possibles :

- Achat de tables de scénarios économiques (monde-réel et risque-neutre),

- Achat d’un générateur (fonctionnant en monde-réel et en risque-neutre) accompagné de 4 calibrations par an.

b) Actifs Modélisés

Différents éléments financiers sont modélisés : taux d’intérêt nominaux et réels, indices actions,

immobilier, inflation, spreads de crédit, probabilités de défaut, indices OPCVM, taux de

change, …

Ces grandeurs peuvent être générées en univers monde-réel et risque-neutre simultanément

pour différentes économies sur un pas annuel et infra-annuel.

c) Modèles mathématiques sous-jacents

Le tableau ci-dessous recense les modèles implémentés pour les différents drivers du GSE :

Environnement Monde-réel / risque-neutre

Variables modélisées Tous types de variables (taux, actions, spreads de crédit, inflation, immobilier, …)

Type de solution Prestataire externe

Variables Modèle

Indice « actions »

Brownien géométrique avec volatilité par termes

Modèles alternatifs disponibles : modèles à volatilité locale et modèle SVJD (Stochastic Volatility Jump Diffusion) à volatilité stochastique

Taux nominal

Modèle étendu de Black-Karasinski à 2 facteurs

Modèle alternatif disponible : LMM (Libor Market Model)

Taux réel Modèle Vasicek à 2 facteurs

Inflation Différence entre le taux réel et le taux nominal

Risque de crédit Modèle de type Jarrow Landow et Turnbull avec dynamisation d’une matrice de transition par le biais d’un modèle CIR

Immobilier Brownien géométrique

Modèles mathématiques implémentés dans l’ESG Barrie-Hibbert

Page 162: Développement et utilisation d’un - Institut des actuaires

162

Remarque :

- Le modèle offre également la possibilité de générer des indices d’OPCVM obligataires,

Private Equity, Hedge Funds. Il est également possible de simuler des variables macro-

économiques comme le PIB, le taux de chômage ou un indice de progression des

salaires.

- Pour certains facteurs de risque, le générateur permet d’utiliser des modèles alternatifs

à ceux proposés en standard afin d’ajuster plus finement la modélisation avec les prix

de marché et/ou les historiques observés. Pour les taux d’intérêt par exemple,

l’utilisateur peut choisir d’utiliser un modèle LMM (Libor Market Model) lui permettant

de générer avec une plus grande précision la surface de volatilité des swaptions. Pour

les actions, deux modèles additionnels sont proposés, le premier intégrant une volatilité

locale afin de modéliser la surface de volatilité des options, le second intégrant une

volatilité stochastique reposant sur un processus à saut.

d) Calibration

Il est possible de calibrer les modèles en univers risque-neutre et en univers monde-réel à partir

de la méthode des moindres carrés. Barrie & Hibbert propose trimestriellement des calibrages

standards couvrant 17 économies en univers risque-neutre et 28 économies en environnement

monde-réel. Ces calibrages font l’objet d’un rapport de calibration détaillé. L’utilisateur a

également la possibilité de définir ses propres paramètres de taux, de volatilités, de corrélations,

de primes de risque, …

e) Tests

Le générateur permet de tester automatiquement les tables simulées en univers monde-réel et

risque-neutre.

f) Documentation & Contrôle

Le générateur est développé en C++. Le code source n’est pas disponible en lecture mais les

modèles mathématiques et les méthodes implémentées sont documentés. Ajoutons que des

équipes de recherche de Barrie-Hibbert dédiées à la modélisation mathématique et

économétrique publient régulièrement leurs travaux en ligne.

Toutes les procédures d’archivage des inputs et outputs peuvent être définies par l’utilisateur.

Il existe également un fichier d’audit contenant les adresses de stockages, l’ensemble des

paramètres

Page 163: Développement et utilisation d’un - Institut des actuaires

163

6°) AHLGRIM

a) Introduction

Le modèle de Ahlgrim et al. est un modèle « monde-réel » qui a été développé en juillet 2004

par une équipe de chercheurs mandatée par la Casualty Actuarial Society et la Society of

Actuaries. Cette étude a répondu à deux objectifs :

- Construction d’un ESG complet adapté aux problématiques des compagnies

d’assurance,

- Détermination de jeux de données pertinents pour le calibrage des modèles du GSE.

Les chercheurs ayant développé cet ESG sont : K. Ahlgrim (ASA, MAAA, Ph.D), S. P. D’Arcy

(FCAS, MAAA, Ph.D) et R. W. Gorvett (FCAS, MAAA, ARM, Ph.D). Les travaux de Ahlgrim

et al. se sont très fortement inspirés du modèle de Wilkie (1995) dans lequel l’indice inflation

constitue l’élément central du GSE, ce driver intervenant ensuite dans la modélisation des autres

actifs.

b) Actifs Modélisés

Le générateur permet de simuler les éléments suivants : les taux d’intérêt nominaux et réels,

différents indices actions, le taux d’inflation, des indices immobilier ainsi que le taux de

chômage de l’économie considérée.

c) Modèles mathématiques sous-jacents

Le tableau ci-dessous recense les modèles implémentés pour les différents drivers du GSE :

Environnement Monde-réel

Variables modélisées

Taux nominaux et réels, inflation, actions, immobilier et taux de chômage

Type de solution Solution externe

Variables Modèle

Inflation Modèle de Vasicek à un facteur

Taux réel Modèle de Vasicek à deux facteurs. Deux drivers sont modélisés : les taux long terme et les taux court terme

Taux nominal Utilisation des structures par terme du taux d'inflation et du taux réel

Indice actions Modèle à changements de régimes de volatilité

Dividende actions Modèle de Vasicek à un facteur sur le log-dividende

Immobilier Modèles de Vasicek à un facteur

Modèles mathématiques implémentés dans l’ESG de Ahlgrim et al

Page 164: Développement et utilisation d’un - Institut des actuaires

164

Dans l’ESG de Ahlgrim et al., les mouvements browniens des différentes diffusions ne sont pas

corrélés mais l'inflation est incluse dans la plupart des diffusions considérées ce qui crée

mécaniquement une corrélation entre les drivers.

Deux types d’indices sont considérés pour la modélisation des actions (« small stock » ou

« large stock »). Dans les deux cas, les log-rendements sont simulés par le biais d'un modèle à

changements de régimes de volatilité. Deux situations économiques sont envisagées, un régime

central et un régime stressé. Des probabilités de transition entre les deux régimes sont calibrées.

Notons que cette modélisation s’inspire du modèle de Hardy (2001) et permet d’intégrer un

risque de volatilité stochastique (deux états sont possibles).

L’ESG peut potentiellement générer des taux nominaux négatifs. Pour éviter cela, il est possible

de borner inférieurement les taux réels ou simultanément les taux réels et le taux d'inflation.

Notons enfin que les chercheurs se sont appliqués à réaliser un modèle adapté à l’économie

américaine. En outre, ce modèle ne permet pas de simuler simultanément différentes

économies.

d) Calibration

Les sources utilisées pour la calibration des modèles sont en majeure partie publiques. Pour le

modèle inflation, les paramètres sont calibrés sur les données historiques du CPI (fréquence

mensuelle) diffusées par le Bureau of Labor Statistics. Plusieurs fenêtres de données ont été

testées dans cette étude et les résultats qui en découlent sont très différents. Les paramètres ont

été déterminés sur la fenêtre 1946-2001. Les historiques de taux réels ne présentent que très peu

de données, la calibration repose sur des historiques recréés par différence entre les taux

nominaux et le taux d'inflation. Les données historiques sont basées sur les taux CMT à 3 mois

pour le taux court et sur les taux CMT à 10 ans pour le taux long. La fenêtre temporelle du jeu

de données correspond à l'intervalle 1982-2001. Le calibrage des indices « actions » est réalisé

sur des historiques des rendements « large stocks » (site de Robert Schiller, fenêtre 1871-2002)

et des rendements « small stocks » (données de Ibbotson, fenêtre 1926-1999). Le modèle

immobilier est calibré sur les rendements immobiliers trimestriels fournis par la NCREIF. Le

GSE permet d’effectuer des calibrages infra-annuels. Notons que même si l’applicatif ne génère

pas de rapport de calibration exhaustif, différents graphes (probabilités de transition pour les

modèles « actions », intervalles de confiance, …) sont proposés.

e) Tests

Le modèle de Ahlgrim est un modèle « monde-réel », à ce titre aucun test de Market

Consistency n’est réalisé. Les analyses de quantiles empiriques effectuées sur la plupart des

drivers permettent de valider les scénarios générés.

f) Documentation & Contrôle

Un rapport détaillé « Modeling of Economic Scenarios » a été produit par Ahlgrim, d'Arcy et

Gorvett. Il contient un état des lieux des différents modèles financiers (actions, taux, inflation,

…), une formalisation détaillée des modèles utilisés dans le générateur, ainsi qu’une analyse

des résultats obtenus avec l’ESG. Signalons que l’applicatif a été développé sous le logiciel

@Risk et peut être téléchargé librement. Les codes sont accessibles en lecture et en écriture et

peuvent donc être adaptés en fonction des contraintes de l’utilisateur.