1
Sommaire:
I. Introduction........................................................................................................................... 4
II. Solvency 2, présentation et contexte actuel....................................................................... 4
III. Approche standard, approche par les modèles internes ................................................ 6
III.1. Présentation ................................................................................................................... 6
III.2. Utilités d’un modèle de risque globale ......................................................................... 6
III.3. Etapes de calcul d’un modèle interne............................................................................ 7
IV. Provision Best Estimate, marge de risque, approche "coût du capital" ...................... 9
IV.1. Présentation................................................................................................................... 9
IV.2. Best estimate ................................................................................................................. 9
IV.3. Marge de risque (MVM), approche de calcul par le coût du capital (Cost of Capital)
.................................................................................................................................................. 10
V. Capital de solvabilité requis (SCR).................................................................................. 13
V.1. Mesures de risque VaR ou TVaR................................................................................. 13
V.2. Horizon temporel.......................................................................................................... 14
V.3. Capital porteur de risque .............................................................................................. 14
V.4. Minimum du capital requis (MCR) .............................................................................. 15
V.5. Capital de solvabilité requis (SCR) .............................................................................. 15
VI. Actif et risques de marché............................................................................................... 19
VI.1. Présentation................................................................................................................. 19
VI.2. Modélisation des actions et des actifs immobiliers..................................................... 19
VI.2.1. Introduction...................................................................................................... 20
VI.2.2. Présentation du modèle .................................................................................... 21
VI.3. Modélisation des obligations, modèle de taux ............................................................ 21
VI.3.1. Présentation...................................................................................................... 22
VI.3.2.Le modèle de COX, INGERSOLL et ROSS .................................................... 23
VI.3.3.Limites de ce modèle ........................................................................................ 23
VI.4. Corrélation et dépendance........................................................................................... 24
VII.4.1. Présentation..................................................................................................... 24
VI.4.2. Les limites de la covariance ............................................................................. 24
VI.4.3. Théorie des copules.......................................................................................... 25
VI.4.3.1. Quelques définitions ............................................................................ 25
VI.4.3.2.Copule archimédienne, copule elliptique.............................................. 27
2
VII. Passif et risque d’assurance non-vie ............................................................................. 30
VII.1. Présentation................................................................................................................ 30
VII.2. Modélisation dynamique des cash-flows futurs ........................................................ 30
VII.3. Calcul de la provision Best Estimate à la date t = 0 (BE (0)) .................................... 32
VII.4. Calcul de la distribution du montant total de sinistres payés de 0 à 1 ....................... 33
VII.5. Calcul du Best Estimate à la date t = 1 (BE(1))......................................................... 33
VIII. Outils mathématiques et statistiques .......................................................................... 34
VIII.1. Processus stochastiques usuelles .............................................................................. 34
VIII.2. Méthodes statistiques pour l’estimation des paramètres .......................................... 35
VIII.2.1. Modèle de régression linéaire, moindres carrées ordinaires (MCO)............. 35
VIII.2.2. Modèle de régression non linéaire, moindres carrées non ordinaire ............. 36
VIII.2.3. Méthode des moments, méthode mu maximum de vraisemblance............... 37
VIII.3. Méthode de simulation Monte-Carlo ....................................................................... 37
VIII.3.1. Présentation ................................................................................................... 38
VIII.3.2. Simulation de distributions discrètes............................................................. 38
VIII.3.2. Simulation de distributions continues ........................................................... 40
IX. Estimation des paramètres et application numérique.................................................. 44
IX.1. Modèles des actifs ....................................................................................................... 44
IX.1.1. Modèle de Merton............................................................................................ 44
IX.1.2. Modèle de taux (CIR) ...................................................................................... 48
IX.1.3. Copule Student ,vt∑ .......................................................................................... 49
IX.2. Modèles des passifs..................................................................................................... 51
IX.2.1. Application du modèle ..................................................................................... 51
IX.2.2. Estimation des paramètres ............................................................................... 52
IX.3. Application numérique................................................................................................ 54
IX.3.1 Modèle de Merton............................................................................................. 54
IX.3.2. Modèle de taux (CIR): ..................................................................................... 55
IX.3.3. Copule Student ,vt∑ .......................................................................................... 55
IX.3.4. Valeur du portefeuille ...................................................................................... 57
IX.3.5. Provision Best Estimate………………..……………………………….…….64
IX.3.6. Résultat du calcul du SCR ............................................................................... 72
X. Provision technique « fair value » (juste valeur ou valeur de marché) ........................ 75
3
X.1. Présentation .................................................................................................................. 75
X.2. Transformation de WANG........................................................................................... 76
XI. Conclusion ........................................................................................................................ 78
XII. Annexes ........................................................................................................................... 79
Bibliographies…...………..……………………………………………………………….…82
4
I. Introduction:
Un des sujets les plus sensibles actuellement dans le monde de l’assurance européen
porte le nom de « Solvency II ». Ce mémoire va se consacrer pleinement à cette
problématique. D’abord, un bref rappel de Solvency II sera présenté avec ses approches de
calculs. Ensuite, je développerai une approche de calcul du capital de solvabilité requis par un
modèle interne appliqué à un assureur non-vie fictif. Pour cela, je considérerai un portefeuille
d’actifs composé d’actions, de titres immobiliers et d’obligations d’état, le passif de l’assureur
sera constitué uniquement des provisions pour les sinistres connus ou non déclarés, mais
survenus, toutes les autres provisions ne seront pas prises en compte. Les modèles
stochastiques seront développés judicieusement, à savoir Merton pour les actions et les titres
immobiliers, Cox-Ingersoll-Ross pour les obligations d’état et le mouvement brownien
géométrique pour les sinistres. Par la suite, je calculerai le capital de solvabilité requis en
projetant le bilan de l’assureur dans 1 an avec l’aide de méthodes de simulation Monte-Carlo.
La marge de risque (MVM) et le minimum du capital requis (MCR) seront évoqués mais ne
seront pas calculés explicitement. Les risques pris en compte sont : risque de taux d’intérêt,
risque d’actions, risque de titre immobilier et le risque d’assurance, tous les autres risques
sont négligés.
II. Solvency 2, présentation et contexte actuel :
La réforme de la réglementation européenne sur les nouvelles normes de solvabilité
est très nettement engagée, dans un cadre global Solvency II, sur les traces de la réforme
bancaire Bâle II. Les réflexions en cours et travaux d’analyses relatifs à cette réforme sont
assurés au sein du Ceiops, comité européen réunissant les autorités de contrôles des vingt-cinq
pays associés.
Dans ce contexte, les assureurs européens ont été interrogés en 2005 sur leurs
provisions techniques et les méthodes d’évaluation harmonisées, comme le Best Estimate ou
l’évaluation par Quantiles qui est présentée notamment dans l’étude d’impacts QIS1
(Quantitative Impact Study). Les études suivantes, le QIS2, lancée en 2006 et le QIS3 en 2007
ont eu pour objectif de mieux cerner les contours d’une formule standard d’évaluation du
capital de solvabilité requis, le SCR (Solvency Capital Requirement), et la méthode de
détermination des besoins en capital minimum, le MCR (Minimum Capital Requirement).
5
Selon l’idée que la marge de solvabilité correspond aux fonds propres, c’est-à-dire la
différence entre les actifs et les engagements de passifs, le principe directeur dans la recherche
des besoins de couverture de la solvabilité des assureurs est la mise en œuvre d’une
probabilité de ruine à moins de 0,05 %.
Un des principes le plus important de Solvency II est basé sur le fait que les actifs (les
placements) et les passifs (les engagements) doivent tous être évalués à leur valeur de marché.
La différence entre la valeur de marché actuelle des passifs, d’une part, et l’estimation non
biaisée de la valeur actualisée (discounted best estimate) de l’espérance mathématique des
flux de paiements afférents, d’autre part, est appelée marge sur la valeur de marché ou
« market value margin » (MVM).
Les risques considérés dans le Solvency II sont les risques de marché, de crédit, de
souscription vie et non vie et le risque opérationnel.
6
III. Approche standard, approche par les modèles internes :
III.1. Présentation:
Le projet de Solvabilité II a pour but d’établir un référentiel harmonisé et cohérent à
l’ensemble des sociétés d’assurance européennes. Deux modes de calcul du besoin en capital
d’une compagnie d’assurance, à priori opposés, sont à l’étude : la formule standard et les
modèles internes.
Dans le premier cas, un ensemble de calculs simplifiés reposant sur des données
comptables et des indicateurs connus, permettent d’établir un besoin minimum de capital,
admis comme relativement arbitraire. Cependant, cette approche s’avère très coûteuse pour
les assureurs, car ses formules sont calibrées pour tous les assureurs et du coup, le capital
requis est généralement supérieur à celui qu’il doit réellement disposer.
Dans le deuxième cas, le CEIOPS prévoit notamment d’inciter les sociétés à mieux
modéliser leurs risques en les autorisant à construire des modèles internes. Cette voie est bien
plus complexe à mettre en œuvre. L’idée de départ est néanmoins simple et pragmatique : la
réalisation de modélisations personnalisées et globales des portefeuilles d’assurance à travers
la prise en compte des passifs, des actifs, et surtout de leurs interactions respectives. Le besoin
en capital pour la solvabilité peut alors s’apprécier directement à la lecture des résultats
générés par le modèle. Ces modèles peuvent être envisagés complètement libres ou structurés
par branche de risques.
Dans quelques années, gageons que les modèles internes mis en place par les
compagnies serviront principalement à leur gestion quotidienne des risques, et accessoirement
aux obligations réglementaires de solvabilité ; ceci est d’ailleurs un des souhaits du projet de
la directive Solvency II.
III.2. Utilités d’un modèle de risque globale :
Cette partie est extraite du livre de FITOUCHI [2005]
a) Les raisons internes à la compagnie :
Le premier objectif est l’identification et la mesure des risques liés à l’activité. En
particulier, l’assureur essaie de quantifier le niveau de capital minimum qui correspond au
7
risque de ruine qu’il estime acceptable. L’optique de l’assureur est de gérer ses risques à un
niveau qu’il juge correct compte tenu de sa structure.
Le deuxième objectif d’un modèle interne est de fournir au groupe d’assurances un
cadre de référence où la rentabilité exigée d’une activité dépend du risque qu’elle fait
supporter à la compagnie. Le modèle permet de déterminer quelles branches sont les plus
risquées et pour quelles rentabilités afin de pouvoir réaliser des arbitrages en ce qui concerne
les stratégies de développement de certaines d’entre elles.
Le modèle permet aussi de disposer d’un outil pour la gestion opérationnelle (politique
de prise ou cession de risque, mesure de performance, allocation d’actif, politique
d’intéressement, de participation aux bénéfices).
b) Les raisons externes à la compagnie
L’objectif principal est la nécessité de pouvoir répondre aux attentes ou aux exigences
d’acteurs externes à l’entreprise (les banques, les agences de notation, les marchés financiers).
Certains groupes anticipent également une évolution des exigences réglementaires.
D’une façon très générale, les modèles de risques globaux essaient :
- de modéliser la distribution de probabilité des fonds propres réels, ou « capital
économique », à un horizon de temps donné ;
- de calculer « un besoin de capital économique », indicateur qui correspond à un
niveau de risque global accepté par l’entreprise ;
- de définir, enfin, sur la base du cadre formulé précédemment, une règle
d’allocation du capital économique aux différentes activités.
III.3. Etapes de calcul d’un modèle interne:
D’après PLANCHET, THEROND, JACQUEMIN [2005], un modèle interne consiste
à simuler les flux futurs de l’entreprise de manière à déterminer une fonction reliant le niveau
des fonds propres au « risque » de l’entreprise. Sa mise en place nécessite donc la
détermination de ce qui caractérise le risque de l’entreprise (la faillite), le choix d’une mesure
de risque (VaR, TVaR) et enfin la modélisation de l’entreprise (actif, passif, actif-passif).
La simulation des flux futurs de l’entreprise va donc nécessiter de modéliser les
éléments qui sont à la source de ces flux : les sinistres et les placements. Généralement, le
8
choix d’un modèle se fonde sur l’hypothèse implicite que la variable modélisée aura dans le
futur le même comportement que par le passé. Ceci se traduit notamment dans le choix des
paramètres qui sont estimés sur des données historiques.
N.B. Pour certaines variables pour lesquelles les données historiques sont trop peu
nombreuses, les modèles devront être déterminés de manière ad hoc (avis d’experts par ex.).
Le modèle doit notamment intégrer, à l’actif :
- évolution des cours et des dividendes/loyers des actifs financiers (actions,
OMPCVM, immobilier, etc.),
- évolution des taux d’intérêt,
- évolution de l’inflation,
- dépendance entre ces différents éléments,
- défaut des émetteurs d’obligations
et au passif :
- survenance et montants de sinistres,
- sinistres catastrophiques,
- défaut des réassureurs,
- dépendance entre les branches.
Dans ce mémoire, par souci de simplicité, certaines des éléments cités ci-dessus ne
seront pas pris en compte.
Voici le schéma de la structure d’un modèle interne :
Figure 1 : Structure d’un modèle interne
Générateur de nombres aléatoires
Estimation des paramètres &
Tests d’adéquation
Modèles
Actif Discrétisation
9
V. Provision Best Estimate, marge de risque, approche par le coût du
capital:
IV.1. Présentation:
Un des principes essentiels de Solvency II est que les actifs (placements) et les passifs
(engagements) doivent être évalués à leur valeur de marché actuelle. Pour de nombreuses
positions financières telles que les actions ou les obligations, la valeur de marché est connue
puisque ces actifs font l’objet d’un négoce. Les passifs techniques ont quant à eux une valeur
de marché que l’on ne peut pas relever et des flux de trésorerie dont l’espérance
mathématique peut seulement être estimée. C’est pourquoi, lorsqu’on veut calculer la valeur
de marché d’une position actuarielle, il faut d’abord modéliser la marge sur la valeur de
marché. Lorsqu’un portefeuille est en liquidation (run-off), l’assuré ne subit aucun dommage si
un tiers prend en charge le risque inhérent au portefeuille en liquidation. Tel est le cas lorsque
l’assureur dispose d’un capital porteur de risque suffisant pour supporter le risque, ou
lorsqu’une instance extérieure (un autre assureur, un investisseur, un bailleur de fonds)
reprend le portefeuille ou injecte du capital dans l’entreprise – ce qui revient au même. Dans
le deuxième cas, l’instance extérieure doit mettre du capital-risque à disposition pour la
liquidation. Elle sera prête à le faire en contrepartie d’une indemnisation.
Le prix d’un passif technique se compose donc d’un montant correspondant à sa
liquidation attendue et d’une indemnisation pour le risque encouru, indemnisation dont la
définition recoupe parfaitement celle de la marge sur la valeur de marché donnée ci-dessus.
Le projet de directive actuel indique que la valeur des provisions techniques sera égale
à la somme du best estimate et d’une marge de risque.
IV.2. Best estimate:
La notion de best estimate est définie par l’extrait suivant : « La meilleure estimation
est égale à la moyenne pondérée par leur probabilité des flux de trésorerie futurs, compte tenu
de la valeur temporelle de l’argent (valeur actuelle probable des flux de trésorerie futurs),
déterminée à partir de la courbe des taux sans risque pertinente. Le calcul de la meilleure
10
estimation est fondé sur des informations actuelles crédibles et des hypothèses réalistes et il
fait appel à des méthodes actuarielles et des techniques statistiques adéquates »
IV.3. Marge de risque (MVM), approche de calcul par le coût du capital (Cost of
Capital):
Comme un passif n'arriverait pas à trouver preneur au prix du 'Best Estimate', une
quantité complémentaire doit être ajoutée au 'Best Estimate' pour pouvoir qualifier l'ensemble
de "valeur de marché" des provisions. Cette quantité supplémentaire qui permettrait alors de
vendre ces passifs, c'est la marge de risque ou 'Market Risk Margin' (MVM).
Il existe encore deux écoles qui s'affrontent en IARD pour pouvoir déterminer cette
'Market Risk Margin', soit le 'Cost of Capital', soit l'approche par les quantiles.
Le 'Cost of Capital' est défini comme le coût du capital qu'un tiers, un réassureur par
exemple, reprenant le stock de provisions', devrait immobiliser pour supporter le risque
jusqu'à extinction complète de ces provisions.
La notion de la marge sur la valeur de marché est valable en tout temps. En règle
générale, on veut connaître la valeur de marché actuelle, soit en t=0. Dans le Swiss Solvency
Test (SST), c’est surtout à la valeur en fin d’année soit t=1 qu’on s’intéresse, je traiterai donc
la marge sur la valeur de marché sous cet angle.
D’après la méthode « coût du capital », sur la base de l’écart de taux d’intérêt (spread)
et du capital risque nécessaire chaque année après t = 1, on peut définir la marge sur la valeur
de marché comme
_31 2(0) (0) (0) 2 (0) 3 (0) _
1 1 2 3 _
(1)(0) ...1 (1 ) (1 ) (1 ) (1 )
run offspread run off
run off
SCRSCRSCR SCRMVMMVM ir r r r r
⎛ ⎞= = + + +⎜ ⎟⎜ ⎟+ + + + +⎝ ⎠
1SCR : inclure les risques de marchés et de crédit.
iSCR (i > 1) : limités aux risques de souscription et risques opérationnels, risques de
crédit/concentration du réassureur.
6%spreadi CoC= = : Coût du capital pour un assureur qui est noté BBB.
11
Remarque : La marge sur la valeur de marché n’appartient pas au bailleur de capital risque
mais à l’assuré.
Il est important de comprendre aussi que la marge sur la valeur de marché doit
indemniser le repreneur pour les risques techniques, mais pas pour tous les risques encourus.
Imaginons un portefeuille qui se compose d’une part de passifs techniques et d’autre part
d’instruments existants (actifs) qui répliquent au mieux les passifs. Pour un portefeuille non-
vie, ce pourraient par exemple être des emprunts souverains générant le flux de trésorerie
attendu par les passifs. La marge sur la valeur de marché ne doit indemniser que les risques de
ce portefeuille. En revanche, elle ne doit pas couvrir les risques de marché du portefeuille
d’actifs existant, dont la composition est généralement différente de ce qu’elle serait dans un
portefeuille de réplication optimale.
Simplification :
Le futur SCR de l’année 1 (SCR1) inclura les risques de marché et de crédit, et les
futurs SCR à partir de l'année 2, seront limités au risque de souscription et au risque
opérationnel et aux risques de crédit/concentration du réassureur. Pour calculer les substituts
des futurs SCR, on estime que l’assureur a calculé le futur SCR à l’année 1(SCR’1) en
incluant uniquement les risques de souscription, opérationnel et de réassurance.
12
Voici le schéma pour calculer la marge de risque :
1
2
3
1 2
Discount the cost of holding future SCR's at the risk-free rate to get the CoC Risk Margin (RM)
3 4 5 ...
Steps to calculate the Risk Margin under a Cost-of-Capital approach
1 2 3 4 5 ...
Project the SCR for future years until run-off of the current liability portfolio
Determine the cost of holding future SCRs, by multiplying the projected SCR by the CoC factor
in
ii vSCRfactorCoCRM ××= ∑
=1_
Figure 2 : Etapes de calcul de la marge de risque.
13
V. Capital de solvabilité requis (SCR):
Notons SCR (Solvency Capital Requirement) le capital de solvabilité requis pour
l’assureur.
Avant de définir le capital requis, il convient d’introduire deux notions de mesure de
risque : la Value at Risk (VaR) et Tail Value At Risk (TVaR).
V.1. Mesures de risque VaR ou TVaR:
Le but de la mesure de risque est généralement de pouvoir représenter par un chiffre
réel une incertitude ou une grandeur dont la valeur est inconnue, à l’aide d’un étalon de
mesure adéquat, de manière à pouvoir exprimer l’exposition au risque de cette grandeur. Dans
ce mémoire, on va utiliser la mesure Value At Risk ou VaR.
a) Définition de la VaR :
La Value-at-Risk (VaR) de la variable aléatoire X au niveau de sécurité 1-α est
définie par
( , ) inf{ | Pr( ) }VaR X x X xα α= ≤ ≥
b) Définition de la TVaR :
La Tail Value at Risk (TVaR) de la variable aléatoire X au niveau de sécurité 1-α est
définie comme l’espérance mathématique conditionnelle E de X, pour X plus petit ou égal à la
VaR au niveau de sécurité 1-α :
[ ]( ) | ( )TVaR X E X X VaR Xα α= ≤
Au même niveau de sécurité, la TVaR est un étalon de mesure de risque plus prudent
que la VaR. Dans la réalité, une distribution des dommages présentera certainement quelques
pertes extrêmement élevées mais dont la probabilité est très faible. Pour ces cas, la TVaR est
plus appropriée que la VaR car elle intègre aussi l’ampleur de ces pertes extrêmes.
14
Contrairement à la VaR, la TVaR quantifie le coût moyen de l’un des 100. %α pires
événements. En pratique, on constate que la TVaR est plus stable que la VaR De plus, elle
présente aussi d’autres propriétés mathématiques intéressantes comme la cohérence.
Malgré tous les avantages de la TVaR par rapport à la VaR, la mesure de risque
utilisée pour déterminer le capital de solvabilité requis dans ce mémoire est la VaR afin de
permettre la comparaison des résultats du calcul de la formule standard.
Un autre objet qui intervient dans le calcul du capital de solvabilité requis est le capital
porteur de risque.
V.2. Horizon temporel:
L’horizon temporel retenu dans ce modèle interne est d’un an. Les calculs doivent
inclure tous les risques provenant de la poursuite du business pendant cet horizon. Toute
l’information reçue durant cet horizon et affectant la position financière de l’assureur doit être
prise en compte pour l’estimation du SCR.
V.3. Capital porteur de risque:
Le capital porteur de risque (CR) est le capital qui peut être utilisé pour compenser les
fluctuations des affaires. Il est défini comme la différence entre la valeur de marché actuelle
des actifs et l’estimation non biaisée de la valeur actualisée de l’espérance mathématique des
passifs.
à la date t = 0 : CR(0) = A(0) – BE(0)
à la date t = 1 : CR(1) = A(1) – BE(1)
Le capital porteur de risque en t = 0 (CR(0)) se détermine à partir des actifs et des
passifs, à l’aide du bilan établi à la valeur de marché actuelle. Il est donc connu. En revanche,
le capital porteur de risque futur (CR(1)) est une inconnue, car l’environnement de
l’entreprise est elle-même inconnue : il s’agit donc d’une valeur aléatoire.
Le montant du capital porteur de risque en fin d’année est indicatif de la valeur de
marché des actifs par rapport à celle des passifs :
15
CR < 0 Actifs < Passifs Best Estimate
0 < CR < MVM Passifs Best Estimate < Actifs < Valeur de marché des passifs
MVM < CR Valeur de marché des passifs < Actifs
Si le capital porteur de risque en fin d’année est supérieur à la marge sur la valeur de
marché, la valeur des actifs est supérieure à la valeur de marché des passifs.
Si CR(1) < MVM(1), le portefeuille en liquidation n’est pas suffisamment capitalisé.
Le risque inhérent à ce portefeuille ne peut donc pas être couvert par le capital porteur de
risque et aucun bailleur de fonds externe ne serait intéressé à l’assumer. Ce risque est donc
supporté entièrement et exclusivement par les assurés.
Tant que le capital porteur de risque reste positif, l’espérance mathématique des
passifs est certes inférieure à la valeur des actifs, mais le risque que les règlements de sinistre
excèdent cette valeur peut cependant être très élevé. Si le capital porteur de risque est négatif,
les actifs ne couvrent même pas l’espérance mathématique des passifs.
V.4. Minimum du capital requis (MCR):
MCR : Niveau de fonds propres en deçà duquel l’entreprise d’assurance présente un
risque inacceptable de ne pas pouvoir faire face à ses engagements.
Le calcul de ce montant ne sera pas abordé dans le cadre de ce mémoire. On peut
prendre simplement MCR = 1/3 SCR.
V.5. Capital de solvabilité requis (SCR):
SCR : niveau de capital qui permet à l’assureur d’absorber des pertes significatives. Il
doit être calibré de telle sorte à jouer un rôle d’alarme. Autrement dit, il est le capital
nécessaire pour couvrir le risque pendant 1 an. Le SCR est donc formulé de façon à ce que la
probabilité de réalisation de l’événement CR(1) < MVM(1) soit la plus faible possible.
Mathématiquement :
[ ](1) | (0) (0) (1)VaR CR CR SCR MVM MVMα = + =
16
Soit (0)1
(1) (0)1CRSCR VaR CR
rα
⎛ ⎞= − −⎜ ⎟+⎝ ⎠
Où CR(t) = A(t) – BE(t) : capital porteur de risque à la date t.
A(t) : valeur du portefeuille d’actif à la date t.
BE(t) : valeur de la provision best estimate à la date t.
t = 0 : date de calcul
t = 1 : l’horizon du calcul
Remarque : Bien que le capital porteur de risque dépend de la marge (MVM), la
variation de ce capital ne l’est pas.
Preuve :
On a :
(0) (0)1 1
(1) (1) (1)(0) (0) (0)1 1CR FP MVMCR FP MVM
r r+
− = − −+ +
Or
(0)1
(1) (0)1
MVM MVMr
=+
Par construction
Donc
(0) (0)1 1
(1) (1)(0) (0)1 1CR FPCR FP
r r− = −
+ + qui est indépendant de la marge.
Avec FP(t) =Actif(t) –Provision technique(t) représentant le niveau du fond propre à la date t.
On peut comprendre ainsi : MVM(1) est l’indemnisation que l’assureur doit payer à
l’acquéreur en plus des montants de sinistres attendus à la date t=1 s’il devait céder ses passifs
à la fin de l’exercice. Pour cela il doit construire une provision pour cette marge à la date t=0
qui est noté MVM(0).
Preuve de la formule de calcul du SCR :
α =0,05%, on cherche le niveau de SCR qu’il faut disposer aujourd’hui pour que l’actif dans
1 an soit inférieur au passif dans 1 an à moins de 0,05%.
17
( )( )( )
(0) (0)1 1
(0)1
(1) (1) | (0) (0)
(1) (1) (1) (1) | (0) (0)
(1) (1) | (0) (0)
(1) (1) | (0) (0)1 1
(1) ((0)1
P Actif Passif CR SCR MVM
P Actif BE Passif BE CR SCR MVM
P CR MVM CR SCR MVM
CR MVMP CR SCR MVMr r
CR MVMP CRr
α
α
α
α
≤ = + ≤
⇔ − ≤ − = + ≤
⇔ ≤ = + ≤
⎛ ⎞⇔ ≤ = + ≤⎜ ⎟+ +⎝ ⎠
⇔ − ≤+ (0)
1
(0) (0)1 1
(0)1
(0)1
1) (0) | (0) (0)1
(1) (1)(0) (0)1 1
(1) (0)1
(1) (0)1
CR CR SCR MVMr
CR MVMP CR MVM SCRr r
CRP CR SCRr
CRSCR VaR CRrα
α
α
α
⎛ ⎞− = + ≤⎜ ⎟+⎝ ⎠
⎛ ⎞⇔ − ≤ − − ≤⎜ ⎟+ +⎝ ⎠
⎛ ⎞⇔ − ≤ − ≤⎜ ⎟+⎝ ⎠
⎛ ⎞⇔ = − −⎜ ⎟+⎝ ⎠
La valeur des actifs dans 1 an est égale à la valeur de marché de nos actions,
immobiliers et obligations dans 1 an plus la valeur des coupons tombés et diminuées des flux
payés pour les sinistres pendant l’année. Toutes ces valeurs sont inconnues à la date t = 0 sauf
les coupons des obligations d’état.
La valeur des passifs Best Estimate dans 1 an est également inconnue en t = 0, elle est
calculée comme l’espérance des montants de sinistres payés en t>1 actualisés
conditionnellement aux aléas de la période 0 à 1.
Ici, j’ai considéré que la composition du portefeuille est inchangée pendant l’année, les
sinistres sont payés en fin d’année et si les coupons ne sont pas suffisants pour payer les
sinistres, il y aura la liquidation de certaines actions ou obligations…
18
Je termine ce chapitre par un schéma simplifié du bilan économique d’une compagnie
d’assurance.
Figure3 : Bilan économique simplifié
Actifs
Placements: Actions, obligations…
Fair Value
Capital Libre
MCRMMVVMM
Best Estimate
FFoonnddss PPrroopprreess SSCCRR
PPrroovviissiioonnss TTeecchhnniiqquueess
19
VI. Actifs et risques de marché :
VI.1. Présentation:
Le risque de marché est le risque de fluctuation du capital porteur de risque sous l’effet
de modifications de la situation conjoncturelle ou de facteurs économiques, désignés ici par
facteurs de risque.
Dans le modèle présenté ici, une allocation d’actifs est fixée initialement (en t=0). Elle
est censée représenter l’allocation optimale reflétant l’équilibre que la compagnie souhaite
maintenir à long terme dans son portefeuille. Cette allocation cible s’exprime en pourcentages
représentant les différentes lignes d’actifs.
Mon portefeuille simplifié se compose de 2 actions, 1 obligation d’état et 1 actif
immobilier.
Les cours des actions et des immobiliers sont modélisés par le processus de Merton
tandis que l’obligation d’état est déduite de la courbe de taux d’intérêt sans risque dont
l’évolution suit le modèle de Cox-Ingersoll-Ross (CIR).
Ensuite, ces actifs n’évoluent pas indépendamment, ils sont corrélés entre eux et avec
les indices des marchés sur lesquels ils sont côtés. Les deux indices choisis sont le CAC 40
pour les actions et l’Euronext CAC Real Estate IX pour les actifs immobiliers. Les structures
de dépendance seront modélisées par la copule de Student qui est choisie pour prendre en
compte la dépendance des valeurs extrêmes.
Enfin, pour connaître la valeur de marché de l’actif en t > 0, les scénarios
économiques doivent projeter des primes de risque d’où la nécessité d’être en « monde réel ».
Exemple : Les actions ne doivent pas évoluer simplement au taux sans risque car il est
primordial de connaître leur vrai rendement pour évaluer correctement les occurrences de
ruine.
Donc, l’espace de travail utilisé dans la modélisation des actifs est celui de probabilité
historique.
VI.2. Modélisation des actions et des actifs immobiliers :
Cette partie s’inspire de l’article « L’impact de la prise en compte des sauts boursiers
dans les problématiques d’assurance », PLANCHET, THEROND [2005].
20
VI.2.1. Introduction:
Pour modéliser l’évolution du prix d’un actif risqué, le modèle de Black & Scholes est
actuellement la référence pour les praticiens de l’assurance. Cependant, confronté à la réalité,
ce modèle n’est pas suffisamment robuste : en effet, il ne tient pas compte de toutes les
données économiques observées sur les marchés financiers. Notamment, ce modèle n’intègre
pas les variations brutales du cours du sous jacent dues à l’arrivée d’information, bonnes ou
mauvaises.
Dans le contexte actuel d’utilisation du modèle de Black et Scholes en assurance,
essentiellement dans le cadre de la détermination d’allocations stratégiques et de l’évaluation
d’options (pour des garanties « plancher » sur des contrats en unités de compte par exemple),
cette relative inadéquation du modèle à la réalité s’avère assez peu pénalisante. En pratique
elle est largement compensée par la facilité de mise en œuvre du modèle.
Toutefois, le projet Solvabilité 2 en cours d’élaboration modifie profondément les
règles de fixation du niveau des fonds propres en assurance en introduisant comme critère
explicite le contrôle du risque global supporté par la société. Ce risque devra notamment être
quantifié au travers de la probabilité de ruine.
Dans ce nouveau contexte, les inconvénients principaux de modélisations de type «
brownien géométrique » et notamment l’insuffisance de l’épaisseur des queues de distribution
(qui conduit à une trop faible représentation des évènements rares) et la non prise en compte
des chocs, à la hausse ou à la baisse, sur les cours (qui conduit à ne pas intégrer au modèle
d’évènements exceptionnels et brutaux) peuvent avoir des conséquences importantes sur
l’appréciation du niveau de capital nécessaire pour contrôler la ruine au niveau fixé. Ce point
est par exemple abordé dans BALLOTTA [2004] pour le cas des options cachées d’un contrat
d’épargne, et dans PLANCHET et THEROND [2005] dans le cadre d’un modèle mono
périodique simplifié en assurance non-vie pour la détermination d’un capital cible et
l’allocation d’actifs.
Compte tenu de la place privilégiée du mouvement brownien géométrique, je
m’intéresse ici aux modèles généralisant cette approche et incluant le mouvement brownien
géométrique comme cas particulier. Le modèle proposé par MERTON [1976] est de ce point
de vue assez naturel; c’est donc le modèle que je retiendrai. Je reprends le modèle proposé par
MERTON [1976] et je m’inspire pour cela de la démarche proposée par RAMEZANI et
ZENG [1998] pour l’estimation des paramètres par la méthode du maximum de
vraisemblance.
21
Pour conclure, les hypothèses de mes modèles me permettront, dans le cadre de
l’approche Solvabilité II, de mieux évaluer l’impact de variations du cours d’une action que
par le modèle classique de Black&Scholes. Si l’adéquation du modèle à nos échantillons n’est
pas acceptée, il est possible que cela provienne de la simplicité des hypothèses. Toutefois, il
est ardu de rajouter des paramètres sans que le modèle proposé devienne trop compliqué à
manipuler.
VI.2.2. Présentation du modèle:
Les actions, les titres immobiliers ainsi que les indices CAC40 et Euronext CAC Real
Estate IX sont modélisés par le modèle de Merton, l’évolution des prix est donnée par
l’équation suivante :
1
²( ) (0)exp ( )2
tN
t kk
S t S t B Uσμ σ=
⎧ ⎫= − + +⎨ ⎬
⎩ ⎭∑
Où :
S(t) : prix de l’actif à l’instant t.
0( )t tB B ≥= : Mouvement brownien.
0( )t tN N ≥= : Processus de Poisson homogène d’intensitéλ .
1( )k kU U ≥= : Suite de variables aléatoires indépendantes identiquement distribuées de
loi Normale (0, )uN σ .
Les processus B, N, U sont mutuellement indépendants.
Les sauts sont ici, dans un souci de simplicité, supposés symétriques et en moyenne nuls.
VI.3. Modélisation des obligations, modèle de taux :
Cette partie est tirée du livre de PLANCHET F., THEROND P et JACQUEMIN J.
[2005], « Modèles financiers en assurance », Editions Economica.
22
VI.3.1. Présentation:
Le prix d’une obligation quelconque de nominal N, de maturité T et de taux facial
ρ s’écrit :
( ) ( )1
1 11 ( , ) ( , ) 1 ( , ) ( , )
T
t i t T ti t
O Nr t i spread t i r t T spread t T
ρ − −= +
⎛ ⎞= × +⎜ ⎟
⎜ ⎟+ + + +⎝ ⎠∑
Où ( , )r t i est le taux sans risque à la date t et de maturité i.
Le spread de taux dépend de la probabilité de défaut de l’émetteur, cette probabilité
pouvant être modélisée à l’aide des copules gaussiennes.
Si l’obligation est sans risque, son prix se déduit des prix des zéros-coupons P(t, T) via
la formule :
1
( , ) ( , )T
ti t
O N P t i P t Tρ= +
⎛ ⎞= × +⎜ ⎟⎝ ⎠∑
Il faut donc pour valoriser ces titres obligataires déterminer le prix des zéros-coupons
ou bien construire une courbe de taux. Il existe 3 approches concernant les modèles de taux :
- Les modèles d’équilibre partiel reposant sur un raisonnement d’arbitrage.
Citons, par exemple, celui de VASICEK [1997] qui comporte une variable d’état et celui
de BRENNAN et SCHWARTZ [1979] qui en comporte deux.
- Les modèles d’équilibre général, tel que le modèle de COX, INGERSOLL et
ROSS [1985] basés sur une description globale de l’économie.
- Les modèles de déformation qui partent de la structure des taux d’intérêt
observés et lui font subir des chocs. Le modèle de HO et LEE [1986] ainsi que sa
généralisation proposée par HEATH, JARROW et MORTON [1987] sont sans aucun
doute les plus connus dans cette catégorie.
Le modèle de VASICEK donne parfois des valeurs négatives, donc on va utiliser le
modèle de COX, INGERSOLL et ROSS (CIR) dans ce mémoire.
23
VI.3.2.Le modèle de COX, INGERSOLL et ROSS [1985] :
Ce modèle, présenté en 1985, introduit un processus en racine carrée qui interdit à un
taux initialement positif de prendre des valeurs négatives, tout en conservant la simplicité du
processus de d’ORNSTEIN-UHLENBECK. Le processus de taux d’écrit sous la forme :
( )t t t tdr a b r dt r dBσ= − +
Où tr est le taux sans risque instantané, tB est un mouvement Brownien en « proba
historique ».
a, b, σ sont des paramètres à estimer
La valeur du zéro-coupon à l’instant t qui paie 1 en T est déterminée, par la formule
suivante :
[ ]( , ) ( , ) exp ( , ) tP t T A t T B t T r= − Où tr est le taux sans risque à la date t
et t < T,
{ }{ }
{ }{ }
22 /
2 2
2 exp ( )( ) / 2( , )
( )(exp ( ) 1) 2
2exp ( ) 1( , )
( )(exp ( ) 1 ) 2
2
aba T t
A t Ta T t
T tB t T
a T t
a
σγ γ
γ γ γ
γγ γ γ
γ σ
⎧ ⎫+ −⎪ ⎪= ⎨ ⎬+ − − +⎪ ⎪⎩ ⎭− −
=+ − − +
= +
VI.3.3.Limites de ce modèle:
Ce modèle présente l’inconvénient de stabiliser la queue de la structure des taux, le
taux à long terme est réduit à une constante indépendante de la forme de la structure. Or, d’un
point de vue purement économique, il n’est pas toujours approprié d’expliquer le marché des
titres obligataires par une seule variable explicative, le taux sans risque instantané. Ces
processus mono-factoriels, ne dépendant que d’une variable d’état, supposent une parfaite
corrélation entre les taux r(t, T), non satisfaite dans la pratique.
Toutes ces limites ont poussé les chercheurs à construire des modèles prenant en
considération plusieurs facteurs (notamment par BRENNAN et SCHWART [1979], [1980] et
LONGSTAFF [1989]).
24
VI.4. Corrélation et dépendance:
VII.4.1. Présentation:
Les actifs n’évoluent pas indépendamment, ils sont corrélés entre eux et avec les
indices des marchés sur lesquels ils sont côtés. Les deux indices choisis ici sont le CAC 40
pour les actions et l’Euronext CAC Real Estate IX pour les actifs immobiliers.
Pour connaître la distribution des valeurs d’un portefeuille, il est nécessaire de pouvoir
anticiper l’évolution conjointe des facteurs de risque. Les facteurs de risque d’un portefeuille
sont les rendements de ses sous-jacents qui sont modélisés à l’aide des Browniens et des
sauts. Ils constituent les composantes aléatoires des prix futurs.
Dans le modèle de Merton, la composante à sauts représente l’information propre au
titre, le brownien associé au marché. Donc négliger la dépendance entre les composantes à
sauts c’est dire que les informations spécifiques à l’entreprise sont indépendantes des
informations d’autres entreprises, ce qui peut se concevoir.
Il s’agit donc d’estimer la distribution conjointe d’une série des browniens. Mais
comme on dispose déjà de la loi marginale de chacun de ces browniens, il reste à déterminer
la manière dont ils évoluent ensemble, c’est-à-dire la structure de dépendance entre ces
browniens.
VI.4.2. Les limites de la covariance:
Une première solution serait d’utiliser la matrice de covariance (décomposition de
Cholesky) pour approximer la dépendance entre les Browniens. Toutefois, la covariance ne
permet pas de décrire correctement la dépendance entre ces derniers et ce pour 2 raisons.
La première est d’ordre théorique. La covariance ne permet de caractériser qu’une
dépendance linéaire entre 2 variables aléatoires. On peut rencontrer des situations où il n’y a
pas de dépendance linéaire entre 2 variables (leur covariance est donc nulle) sans pour autant
qu’elles soient indépendantes. Pratiquement, supposons que, suite à une modélisation
particulière, on obtient une covariance entre 2 taux de rendements de 2 actions appartenant à
un même secteur industriel. Il est évident qu’on ne peut pas conclure l’absence de dépendance
entre ces rendements.
La deuxième raison est d’ordre empirique. Les taux de rendements représentent un
comportement de dépendance extrême qui ne peut être modélisé par la covariance. Tant qu’ils
25
ne prennent pas des valeurs trop grandes, ils varient indépendamment. Mais lorsqu’ils
prennent des valeurs extrêmes, ils les prennent tous en même temps. On parle dans ce cas de
dépendance extrême. C’est typiquement le phénomène que l’on observe lors d’un crash
boursier. Tous les prix chutent très fortement ensemble.
Par conséquent, on ne peut donc se contenter de modéliser la dépendance entre les
rendements ou bien les Browniens par leur matrice de covariance. Il faut chercher à
approximer plus précisément la distribution conjointe des Browniens. La théorie des copules
présente des résultats qui permettent de modéliser une distribution conjointe. Et de parvenir à
une description plus complète de la dépendance entre les variables aléatoires.
VI.4.3. Théorie des copules :
VI.4.3.1. Quelques définitions :
Définition de la copule :
Soit [0,1]1 : ii n u U∀ ≤ ≤ , une copule C est définie comme une fonction de répartition
multivariée :
1 2 1 2:[0,1] [0,1] : ( , ,..., ) ( , ,..., )nn nC u u u C u u u→ →
Dont les marginales sont uniformes sur [0,1].
Théorème de Sklar :
Le théorème suivant fournit un lien entre les distributions multivariée, leurs
marginales, et une copule.
On a 1( ,..., )nX X un vecteur de variable aléatoire dimension n, avec la fonction de
distribution jointe 1,..., nX XF et les distributions marginales
1,...,
nX XF F , i.e. :
1 ,..., 1 1 1( ,..., ) ( ,..., )
nX X n n nF x x P X x X x= ≤ ≤ et ( ) ( )iX i i iF x P X x= ≤ { }1 1,..., n∀ ∈
Alors, il existe une unique copule telle que :
1 1,..., 1 1( ,..., ) ( ( ),..., ( ))
n nX X n X X nF x x C F x F x= [ ]1( ,..., ) , nnx x∀ ∈ −∞ +∞
26
Le théorème de Sklar est central dans la théorie des copules. En gros, il dit qu’on peut
généralement associer une copule à une distribution multivariée. Par conséquent une fonction
de distribution peut être divisée en 2 parties :
+ D’une part, les n fonctions de distributions marginales.
+ D’autre part, une copule reliant ces fonctions.
La copule caractérise entièrement la structure de dépendance stochastique de n
variables aléatoires.
Le théorème dit également que si les lois marginales d’un vecteur aléatoire sont
connues, chaque copule définit une et une seule distribution jointe. Autrement dit, il existe
une et une seule copule qui permet de reconstruire la distribution jointe à partir des
distributions marginales.
Mesure de dépendance de queue :
Une des propriétés des copules qui nous intéresse le plus dans le cadre de Solvency 2
est la dépendance de queue. Soit (X, Y) un couple aléatoire. On définit les coefficients de
queue inférieure et supérieure, respectivement par,
1 1
0lim Pr[ ( ) | ( )]L X Yu
X F u Y F uλ − −
→= ≤ ≤ et 1 1
1lim Pr[ ( ) | ( )]U X Yu
X F u Y F uλ − −
→= > >
Quand les limites existent.
Notons que ces coefficients dépendent uniquement de la copule du couple (X, Y) et
nullement des lois marginales : si (X, Y) admet la copule C, les coefficients de dépendance de
queue sont définis, dès lors que la limite existe, par
0
( , )limL u
C u uu
λ→
= et __
0
( , )lim1U u
C u uu
λ→
=−
où __
C désigne la copule de survie associé à C (c’est-à-dire la fonction de répartition du couple
(1-U, 1-V) si (U, V) admet pour la fonction de répartition C).
Les cas intéressants sont ceux où ces coefficients sont strictement supérieurs à 0
comme ils indiquent la propension des copules pour générer conjointement les évènements
27
extrêmes. Si Lλ > 0 par exemple, il y a une dépendance de queue dans la queue inférieure et si
Lλ = 0, il y a une dépendance asymptotique dans la queue inférieure.
VI.4.3.2.Copule archimédienne, copule elliptique :
En générale il existe 2 familles de copules, les copules archimédiennes et les copules
elliptiques.
a) Les copules archimédiennes :
Définition :
La copule archimédienne de générateur ϕ est définie par
l’égalité ( )11 1( ,..., ) ( ) ... ( )n nC u u u uϕ ϕ ϕ−= + + , dès lors que
1( ) (0)
n
ii
uϕ ϕ=
≤∑
et 1( ,..., ) 0nC u u = , sinon. Le générateur choisi doit être de classe 2C de sorte que (1) 0ϕ = ,
' ( ) 0uϕ ≤ et '' ( ) 0uϕ > .
La notion de la copule archimédienne regroupe un certain nombre de copules comme
CLAYTON, GUMBEL, FRANCK.
Nom Copule
Clayton ( ) 1/( , , ) 1C u v u v
θθ θθ−− −= + −
Franck 1 (exp( ) 1)(exp( ) 1)( , , ) ln 1exp( ) 1u vC u v θ θθ
θ θ⎛ ⎞− − − − −
= +⎜ ⎟− −⎝ ⎠
Gumbel
( ) ( )1/
( , , ) exp ln( ) ln( )C u v u vθθ θθ ⎛ ⎞⎡ ⎤= − − + −⎜ ⎟⎣ ⎦⎝ ⎠
b) Les Copules elliptiques :
Les copules elliptiques sont des copules de distributions elliptiques. Un vecteur
aléatoire X de dimension n suit une distribution elliptique si leurs fonctions caractéristiques
peuvent s’exprimer comme suivant :
1( ) exp( . . ). ( . . . )2
T TX t i t t tϕ μ ϕ= ∑
28
Où
μ est le vecteur colonne des moyennes, et ∑ est la matrice de covariance.
ϕ est la fonction caractéristique.
Parmi les copules elliptiques, les copules Normale et Student ont des propriétés
intéressantes :
-Elles sont symétriques, i.e. si un vecteur 1( ,..., )nU U est distribué selon une de
ces 2 copules, on a 1 1( ,..., ) (1 ,...,1 )n nU U U U− − . Il en résulte que 2 mesures de
dépendance de queues Lλ et Uλ sont égales et sont dénotéesλ .
-Il existe un lien simple entre les composantes de la matrice ∑ et le Tau de
Kendall d’une paire de variables aléatoires. Nelsen(1999) et Embrechts(2001) ont
montré que le Tau de Kendall dépend de la copule et non des distributions marginales.
Il existe 2 copules phares dans la famille des copules elliptiques :
b.1) Copule Normale :
Une copule Normale est une copule de la distribution normale multivariée. Cette
copule a une matrice R comme paramètre. La densité de la copule Normale est de la forme :
11 1/ 2
1 1( ,..., ) .exp '( ).| | 2
NormaleR nc u u S R I S
R−⎛ ⎞= − −⎜ ⎟
⎝ ⎠
où 1( )j jS u−= Φ , 1−Φ est l’inverse de la fonction de répartition de la loi N(0,1) et I est
la matrice d’identité de dimension n.
Cependant la copule Normale ne présente pas la dépendance de queue, i.e. 0Normaleλ = .
b.2) Copule Student :
La copule Student a comme paramètres un nombre réel v et une matrice R de
dimension ( n n× ). La densité de la copule Student s’écrit :
21
1/ 2, 1 2 1
2
1
11 '. .( ) ( )2 2( ,..., ) | | . . .1( ) ( ) (1 )2 2
v nn
StudentR v n vn
j
j
v n v S R Svc u u R v v S
v
+−
−
−+
−
=
⎛ ⎞+ ⎛ ⎞ +Γ Γ ⎜ ⎟⎜ ⎟ ⎝ ⎠= ⎜ ⎟+⎜ ⎟Γ Γ +⎝ ⎠ ∏
29
Où 1( )j v jS T u−= , 1vT − est l’inverse de la fonction de répartition de la loi Student univariée de v
degré de liberté.
b.3) Copule Normale et Copule Student :
Contrairement à la copule Normale, la copule Student montre une dépendance de
queue positive. Cela veut dire qu’il y a moins de valeurs extrêmes générées par la copule
Normale que par la copule Student.
c) Distinction entre les copules elliptiques et les copules archimédienne :
Les copules archimédiennes sont souvent utilisées mais elles ont un
désavantage majeur : elles représentent la structure de dépendance avec peu de paramètres (un
ou deux dans la plupart des cas), qui ne sont pas très cohérents en pratique avec la complexité
des structures observées. Ces copules sont donc irréalistes pour modéliser la dépendance dans
des dimensions supérieures à deux.
Par contre, les copules elliptiques sont particulièrement adaptées à la modélisation des
structures de dépendance en dimension n≥ 2. En effet, l’introduction de la matrice de
corrélation ∑ comme un paramètre multidimensionnel donne une grande flexibilité pour ce
qui est de la forme de la structure et est plus facile à interpréter que les paramètres des copules
archimédiennes.
Donc pour des raisons de facilité de calibration et pour ses qualités dans la prise en
compte des mouvements extrêmes, je vais utiliser la copule Student pour modéliser la
structure de dépendance entre mes titres d’actifs.
30
VII. Passif et risque d’assurance non-vie:
VII.1. Présentation:
Le risque d’assurance, ou risque technique, est le risque de fluctuation du capital
porteur de risque sous l’effet de la réalisation aléatoire des risques assurés d’une part et des
incertitudes propres à l’estimation des paramètres actuariels d’autre part. Il peut être aussi
défini comme le risque que la réserve doit être réévaluée suite à des nouvelles informations.
Ce risque est divisé en risque stochastique et risque de paramètre. Le premier est le risque que
la fluctuation aléatoire des paiements de sinistres rend insuffisants les réserves établies par
l’assureur et le deuxième est le risque concernant l’estimation des paramètres du modèle.
Dans ce mémoire, le passif de l’assureur sera constitué uniquement des provisions
pour les sinistres connus ou non déclarés, mais survenus.
Provisions = IBNR + PSAP
Avec IBNR : provisions pour les sinistres survenus mais pas encore déclarés
PSAP : provisions pour les sinistres survenus dont les coûts n’ont pas été
entièrement réglés.
Ces deux provisions seront estimées à partir d’un triangle de paiement, avec les années
de survenance et les années de développement.
Pour commencer, je vais exposer la méthode de modélisation des paiements de
sinistres.
VII.2. Modélisation dynamique des cash-flows futurs :
Les assureurs doivent de plus en plus raisonner sur la base d’une gestion actif-passif
de leurs risques en donnant toute l’intensité de leurs efforts sur le passif, et non plus se
contenter des modèles historiques ALM, dont l’objectif est principalement lié à une correcte
allocation des actifs. Ce renversement de tendance en direction d’une gestion des risques de
passif constitue une opportunité rare dans l’histoire de l’assurance.
Normalement, les cash-flows futurs (coûts des sinistres…) sont modélisés de manière
statique, i.e. pour quelques dates dans l’avenir, à 1 an, à 2 ans par exemple. On en déduit la
provision technique en actualisant ces cash-flows à la date d’évaluation au taux
correspondant.
31
Dans ce mémoire, j’utilise un modèle dynamique pour représenter les cash-flows
futurs. Cela permet d’être cohérent avec la modélisation des actifs financiers d’où une gestion
actif-passif plus efficace cependant cette idée ne sera pas développé par la suite du mémoire.
En effet, l’actualisation sera effectuée avec les cash-flows aux dates spécifiques (en fin
d’année).
Ce qui suit dans cette partie s’inspire de l’article de HAYER [2001]. Le modèle
développé est une généralisation du modèle « Lognormal age-to-age », HAYNE [1985]. Le
modèle de HAYNE suppose que le facteur de développement suit une loi log-normale.
L’évolution du montant cumulé des sinistres tP se décrit par un processus
stochastique :
( ) ( )t t t tdP t Pdt t PdBμ σ= +
Où tB est un mouvement Brownien, ( )tμ , ( )tσ sont respectivement le taux
d’augmentation marginal et le coefficient proportionnel des montants cumulés.
On en déduit que le facteur de développement suit la loi log-normale :
2 2
2
1 1 1
2 21( ) ( ) , ( )2
t tt
t t t
PLN t t dt t dt
Pμ σ σ
⎛ ⎞⎛ ⎞→ −⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠⎝ ⎠∫ ∫ (*)
Ce modèle est appelé le mouvement Brownien géométrique et est fréquemment utilisé
dans le monde financier, l’exemple le plus connu est la formule d’évaluation du prix d’option
de Black-Scholes.
Les éléments que l’on souhaite connaître concernant les passifs sont la provision Best
Estimate à la date 0, la distribution de la provision Best Estimate à la date 1 et la distribution
du montant total de sinistres payés de 0 à 1.
Supposons qu’on a un triangle de paiement suivant avec n années de développements
et la dernière année de survenance est 2006 (rappelons que la date de calcul est 29/12/2006).
32
Année de développement
1 2 n
2006-n+1
Ann
ée d
e su
rven
ance
2006
Les données dans les cases blanches sont disponibles.
VII.3. Calcul de la provision Best Estimate à la date t = 0 (BE (0)):
Pour calculer le BE(0), je dois remplir les cases jaunes du tableau par les montants
moyennes des paiements futurs actualisés aux taux sans risque. Ensuite, la provision Best
Estimate à la date 0 est la somme de ces cases jaunes.
De 1 1
, 1 2 2
,
1( ) ( ) , ( )2
j ji j
i j j j
PLN t t dt t dt
Pμ σ σ
+ ++
⎛ ⎞⎛ ⎞→ −⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠⎝ ⎠∫ ∫
En appliquant la formule de calcul de la fonction génératrice de moment d’une
variable aléatoire suivant la loi normale, je trouve :
1 1 12 21 1( ) ( ) ( ) ( )
2 2, 1
,
j j j
j j j
t t dt t dt t dtdti j
i j
PE e e
P
μ σ σ μ+ + +⎛ ⎞− +⎜ ⎟⎝ ⎠+∫ ∫ ∫⎡ ⎤
= =⎢ ⎥⎢ ⎥⎣ ⎦
Où i : année de survenance du sinistre et j : année de développement.
Les taux d’actualisation sont obtenus à partir de la courbe de taux sans risque actuelle.
De manière générale, la 2ème diagonale est actualisée avec le taux 1 an, la 3e avec le
taux 2 ans, et ainsi de suite jusqu’à la dernière valeur en bas à droite du triangle.
33
VII.4. Calcul de la distribution du montant total de sinistres payés de 0 à 1 :
En utilisant la technique de Monte Carlo, je simule un nombre important de fois la
deuxième diagonale en se basant sur la distribution log-normale des facteurs de
développement. Le montant total de sinistres payés de 0 à 1 est la somme des éléments de
cette diagonale.
VII.5. Calcul du Best Estimate à la date 1 (BE(1)) :
Dans cette partie, je vais utiliser une méthode dite « simulations dans les
simulations ». Pour cela, je simule tous les aléas qui peuvent survenir dans la période 0 à 1
(ici les paiements de sinistres et le taux d’intérêt sans risque), la provision Best Estimate à la
date 1 doit être construite conditionnellement à ces aléas.
En fait, pour chaque 2ème diagonale simulée, en supprimant la première ligne et la
première colonne, j’obtiendrai un nouveau triangle de taille diminuée de 1. Ensuite, je
procède de la même manière que pour le calcul du BE(0) avec les nouvelles données tout en
gardant les mêmes hypothèses sur la distribution des facteurs de développements ainsi que la
forme des fonctions ( )tμ et 2 ( )tσ . Par contre suite aux aléas en 2007, les paramètres de ces
dernières fonctions vont changer.
Un autre paramètre qui va changer aussi est le taux d’actualisation. Avec le modèle
CIR, j’obtiens un échantillon de taux sans risque instantané dans 1 an noté 1r ; les taux
d’actualisations en t = 1 sont obtenus par :
[ ]1(1, ) (1, ) exp (1, )P T A T B T r= −
34
VIII. Outils mathématiques et statistiques:
Avant d’aborder le calibrage des modèles, je voulais présenter brièvement quelques
objets mathématiques importants, et des méthodes d’estimations usuelles qui seront utilisés
dans le cadre de ce mémoire.
VIII.1. Processus stochastiques usuelles :
a) Mouvement brownien :
On rappelle ici les propriétés essentielles de cet objet.
Le mouvement brownien est le plus célèbre des processus de Lévy. C’est un processus
stable, continu (il ne fait aucun saut), ce qui ne l’empêche pas d’être complexe (il est à
variation infinie).
Le mouvement brownien est un processus qui satisfait par construction les trois
propriétés suivantes :
- Accroissements indépendants : les bouts de trajectoires sont indépendants les uns des
autres.
- Accroissements stationnaires.
- Continuité : la continuité est l’absence de saut.
Un processus de Lévy est simplement un processus qui vérifie les deux premières mais
pas forcément la troisième.
b) Processus de Poisson :
Le processus de Poisson est un outil extrêmement utilisé tant pour la modélisation des
sinistres (dans les modèles de type Poisson-composé) que dans les modèles d’actifs dans
lesquels on souhaite introduire des sauts.
On considère des évènements qui se produisent à des dates aléatoires, et on s’intéresse,
pour tout t > 0 au nombre d’évènements qui se sont produits au cours de l’intervalle ]0, ]t , que
l’on note N(t).
Définition et quelques propriétés intéressantes :
35
On définit alors le processus de Poisson d’intensité 0λ > comme le processus N(t)
satisfaisant les conditions suivantes :
- P1 : le processus est à accroissements indépendants, i.e. 1 20 ... nt t t∀ ≤ < < , les
variables aléatoires 1( ) ( ), 1,...,i iN t N t i n−− = sont globalement indépendantes.
- P2 : Le processus est à accroissements stationnaires, i.e. , 0t h∀ > , la loi de
( ) ( )N t h N t+ − ne dépend que de h.
- P3 : ( ( ) ( ) 1) ( )P N t h N t h o hλ+ − ≥ = + et ( ( ) ( ) 2) ( )P N t h N t o h+ − ≥ =
La condition P3 signifie que sur un petit intervalle de temps, on observe 0 ou 1
événement, et que la probabilité d’observer un événement est proportionnelle au temps
écoulé. On peut remarquer que N(0) = 0.
Les trajectoires sont par définition croissantes, continues à droite avec une limite à
gauche. Elles croissent par sauts d’une unité.
On vérifie par ailleurs sans difficulté que si ( )1tN et ( )2
tN sont deux processus de
Poisson indépendants d’intensité respectives 1λ et 2λ , alors 1 2t t tN N N= + est un processus de
Poisson d’intensité 1 2λ λ+ . Pour le vérifier on remarque que tN est un processus à
accroissements indépendants et stationnaire, et qu’il vérifie également P3.
Ce résultat admet la réciproque suivante : si tN est un processus de Poisson et que nT
désigne l’instant du ièmen saut, et si on se donne des variables aléatoires de Bernoulli nX
indépendantes des instants de saut et de paramètre p, on peut construire deux processus en
affectant les sauts de tN à l’un si 1nX = , à l’autre sinon, les 2 processus ainsi obtenus sont
des processus de Poisson indépendants, de paramètre respectifs pλ et (1 )p λ− .
VIII.2. Méthodes statistiques pour l’estimation des paramètres:
VIII.2.1. Modèle de régression linéaire, moindres carrées ordinaires (MCO) :
Soit le modèle suivant Y XB σε= + où 2(0, )Nσε σ→ . Les paramètres à estimer sont
B et σ .
36
On considère une variable d’intérêt y appelée variable dépendante et un ensemble de K
variables dites explicatives auquel on adjoint une constante. On dispose de N observations
notés ( )_
1 2, ,..., Ny y y y= de la variable dépendante. On définit de même les vecteurs _ _
1,..., Kx x
et _
x la matrice des variables explicatives à laquelle on adjoint le vecteur constant
'(1,...,1)e = : _ _ _
1, ,..., Kx e x x⎛ ⎞= ⎜ ⎟⎝ ⎠
est donc une matrice de dimension N x (K+1).
Définition :
L’estimateur des moindres carrés ordinaires est défini comme le vecteur b de
dimension K + 1, ( )_ '
0 ,..., Kb b b= , des coefficients de la combinaison linéaire de _ _
1, ,..., Ke x x
réalisant le minimum de la distance de _
y à l’espace vectoriel de NR engendré par
_ _
1, ,..., Ke x x , pour la norme euclidien : 2_ _^
arg minmcob y xb= −
Proposition 1 :
Sous l’hypothèse H1 : les vecteurs _ _
1, ,..., Ke x x sont indépendants,
L’estimateur des moindres carrés existe, est unique et a pour expression
1_ _ _ _^
' 'mcob x x x y−
⎛ ⎞= ⎜ ⎟⎝ ⎠
Et pour les résidus, on a : :
2^
1
( 1)
n
mcoi ii
y b x
n Kσ∧
=
⎛ ⎞−⎜ ⎟⎝ ⎠=− +
∑
VIII.2.2. Modèle de régression non linéaire, moindres carrées non ordinaire:
De même que la régression linéaire, on a le modèle suivant ( )Y X B σε= + où
2(0, )Nσε σ→ . Les paramètres à estimer sont B et σ .
Sauf qu’ici X(B) est une fonction non linéaire, mais le principe d’estimation des
paramètres reste le même.
37
A savoir 2_ _^
arg min ( )mcob y x b= −
VIII.2.3. Méthode des moments, méthode mu maximum de vraisemblance:
Définissons une population par :
( ; ),
( ) ( ; )
m
k kk k
X f x R
E X x f x dx
θ θ
μ μ θ θ
∈
⎡ ⎤ = = =⎣ ⎦
→
∫
Et 1
1
,...,1n
nk
k ii
x x
M xn =
= ∑ statistique observable
a) Méthode des moments :
L’estimateur de moment est obtenu en égalant les moments théoriques et les moments
empiriques.
θ∧
est solution de ( ) 1,...,k kM k mμ θ= = .
En effet, on doit résoudre m équations à m inconnus 1,..., mθ θ
b) Méthode du maximum de vraisemblance :
C’est la plus populaire des méthodes d’estimations.
L’estimateur du maximum de vraisemblance (MLE) de θ est obtenu comme
1 1( ,..., ) arg max ( , ,..., )n nx x l x xθ
θ θ∧
=
Où l est la fonction de vraisemblance qui est définie par : 11
( , ,..., ) ( ; )n
n ii
l x x f xθ θ=
=∏
VIII.3. Méthode de simulation Monte-Carlo :
Le projet Solvency II implique le passage des méthodes déterministes aux méthodes
stochastiques. Le terme « stochastique » amène à l’utilisation de tirages aléatoires respectant
38
des lois de probabilité et permettant d’obtenir une distribution des résultats et ainsi de
représenter le plus fidèlement possible la réalité des risques portés par une compagnie
d’assurance.
Le développement nécessaire de modèles internes en particulier fait donc appel aux
méthodes et outils stochastiques présentés ci-après
VIII.3.1. Présentation:
L’idée sous-jacente est d’approcher le résultat théorique (qui peut être une statistique
associée à une distribution, comme son espérance, sa fonction de répartition, ou, plus
généralement, toute fonctionnelle associée à la distribution étudiée) en effectuant des tirages
dans la loi du phénomène observé.
Pour pouvoir utiliser les modèles de simulations, que ce soit en Assurance Vie, avec
les méthodes de tirages aléatoires, en Assurance Non-Vie, avec les modèles « fréquence-coûts
», ou en finance avec les processus stochastiques il est donc nécessaire de savoir simuler des
réalisations des différentes lois de probabilité.
L’ensemble de ces techniques est généralement regroupé sous le vocable de «
méthodes de Monte-Carlo ». Il en existe de différents types, adaptés à la loi que l’on souhaite
simuler et au contexte. Mais, dans tous les cas, la génération de nombres aléatoires de loi
uniforme est essentielle à toute technique de simulation, du fait de l’utilisation de méthodes
type « inversion de la fonction de répartition ».
VIII.3.2. Simulation de distributions discrètes:
a) Méthode d’inversion :
Le principe est ici de découper l’intervalle [0;1] en sous intervalles dont les bornes
sont les Σ pi croissantes. Ce découpage est dû au fait qu’il n’existe pas obligatoirement de
bijection entre les différentes modalités de la distribution entière et l’intervalle [0;1], puisque
la fonction de répartition d’une distribution entière est en escaliers. L’indice de la borne
supérieure de l’intervalle ainsi créé dans lequel se trouvera le nombre aléatoire de loi
uniforme simulé donnera la valeur simulée de notre distribution.
39
Algorithme :
Si Y a pour loi ( ) ,k kP Y y p k N= = ∈ et si [ ]0,1U Uniforme→
alors, 10
0 0
01
1 1 i n
j jj j
U p ip U pi
y y−
= =
≤ ⎧ ⎫⎪ ⎪< ≤≥ ⎨ ⎬⎪ ⎪⎩ ⎭
+∑ ∑
∑ a même loi que Y.
Exemple : Simuler une réalisation de la loi Poisson(3)
P (X = k) = pk = !
k
ek
λ λ− , k ∈ N, F(k) fonction de répartition/ F(k) = P(X ≤ k)
p0 = 0,049
Simuler une réalisation u de la loi uniforme U(0,1)
+ Si u ≥ p0, on a une réalisation de 0 de la loi simulé
+ Si u < p0, on prend k tel que u > F(k)
Remarque : Il est à noter que cette méthode, très générale, peut être coûteuse en temps de
calcul suivant les cas. Pour chacune des lois entières connues, il existe des méthodes de
simulations particulières, qui s’avèrent beaucoup plus performantes.
b) Méthode de la composition :
Seconde méthode “classique” de simulation pour les distributions entières, ou même
absolument continues, la méthode de la composition a pour objectif de décomposer la densité
de probabilité de la variable aléatoire en mélange de fonctions de densité. Cette
décomposition peut se faire à partir des probabilités conditionnelles.
Méthodologie :
Soit X la variable aléatoire réelle dont nous cherchons une réalisation x.
La méthode de la composition propose de chercher g et Y telles que
( ) ( ) ( )i ii
P X x P Y y g x Y Y= = = =∑
Pour simuler une réalisation de X, il faut simuler un premier nombre aléatoire 1u pour
trouver y réalisations de Y tell que 1( )P Y y u= = puis générer un autre nombre aléatoire 2u
afin d’en déduire 2( )x g u Y y= =
40
Exemple : Une distribution Binomiale Négative BN(r, p) est une distribution Poisson-
Gamma (r, p/q)
Ainsi, il est possible d’utiliser cette propriété pour simuler une distribution Binomiale
Négative, à partir de la méthode de la composition, en deux étapes :
+ Simulation d’une réalisation λ de la loi Gamma (r, p/q),
+ Simulation d’une réalisation de la loi de Poisson de paramètre λ.
On obtient ainsi une réalisation de la loi BN(r, p).
Remarque : Dans cet exemple, et contrairement à la présentation de la méthode, c’est la loi
discrète (loi de Poisson) à laquelle nous appliquons le conditionnement, et non pas la loi
absolument continue, mais il est bien évident que le principe reste le même.
VIII.3.2. Simulation de distributions continues:
a) Méthode de l’inversion de la fonction de répartition :
Classiquement, c’est l’une des méthodes les plus utilisées en simulation, au moins
lorsque la puissance de l’outil informatique permet les calculs, et que l’inversion de la
fonction de répartition est possible, ce qui nécessite le plus souvent une expression analytique
simple de cette fonction.
Proposition : Soit Y une variable aléatoire réelle à valeurs dans R de fonction de répartition
YF . On pose :
1( ) inf{ : ( ) }Y YF u y F y u− = ∈ ≥ , [0,1]u∈
Si 1( )Ydom FU U −→ alors 1( )YF U− et Y ont la même loi.
Ainsi, pour simuler un n-échantillon i.i.d. d’une loi ayant pour fonction de répartition
F, il suffit de simuler n réalisations indépendantes d’une v.a.r. de loi uniforme sur l’intervalle
[0;1], puis d’appliquer l’inverse de la fonction de répartition à chacune de ces valeurs. Ceci
montre tout l’enjeu d’une simulation “optimale” des réalisations d’une loi uniforme, puisque
les seules approximations résident dans cette opération quand l’inversion de la fonction de
répartition est possible de manière analytique.
41
Exemple : Loi Exponentielle ε (q)
Cette loi dépend d’un unique paramètre θ > 0.
La fonction de répartition F de la loi exponentielle est donnée par :
( ) 1 xF x e θ−= −
Grâce à l’expression analytique de cette fonction de répartition, nous pouvons
facilement extraire :
1 1( ) ln(1 )F u uθ
− = − − .
Ainsi, on simule une réalisation u de la loi normale U(0,1), et on obtient une
simulation de X par x = 1( )F u−
Avantage:
+ Facile à comprendre et à implémenter.
+ Cette méthode permet de simuler, notamment, les lois suivantes :
- La loi exponentielle ( )E θ
- La loi de Pareto ( , )P a α
- La loi de Weibull ( , )W τ α
- La loi Normale 2( , )N μ σ
Inconvénient :
+ L’inverse de la fonction de répartition est rarement disponible.
+ Lemme d’inversion ne s’applique qu’en dimension 1.
+ Algorithme résident sur machine seulement pour lois usuelles.
b) Méthode du rejet :
Dans le cas où l’on ne connaît pas la forme exacte de la fonction de répartition, une
solution est de simuler une loi de proposition « plus simple » et d’utiliser un algorithme
d’acceptation-rejet.
Algorithme d’acceptation-rejet :
Soit une loi d’intérêt de densité f et une loi de proposition g telle que ( ) ( )f x Mg x≤
sur le support de f. Alors, on peut simuler suivant f avec l’algorithme suivant
42
Générer x g→ et ([0,1])u U→
Accepter y = x si
( )( )
f xuMg x
≤
Retourner en 1) si rejet
Remarque : Le choix de g et de M doit être fait comme suit :
+ g est une fonction de densité “simple”, que nous savons simuler,
+ M est une constante le plus proche de 1 que possible (ce qui améliore la
qualité du générateur),
+ La probabilité d’acceptation est égale à 1/M, donc la valeur de M règle
l’efficacité (vitesse) de l’algorithme.
Exemple :
On cherche à simuler une loi X qui admet comme densité la fonction
( ) exp( ² / 2)f x x= −
On sait que 2( 1) 1xe− − ≤ soit
2 2 1 1x xe− + − ≤ soit 2
12
x
x
e ee
−
− ≤
Donc, on va prendre 2( ) 2 xg x e−= qui est la densité de la loi d’exponentielle de
paramètre 2 et le constant M = e/2.
Probabilité d’acceptation = 1/M = 2/e = 0,74
Appliquons maintenant l’algorithme de simulation :
Nous simulons un couple (u1, x1) de v.a.r. indépendantes de lois respectives U ([0;1])
et Exponentielle(2).
Si u1 ≤ ( 1)( 1)
f xMg x
, alors nous gardons X = x1
Si u1 > ( 1)( 1)
f xMg x
, alors nous rejetons X = x1, simulons un autre couple (u2, v2)
c) Méthode de la composition :
Utilisée pour les simulations de distributions entières, la méthode de la composition se
généralise aux distributions absolument continues.
43
Méthodologie : Soit X la v.a.r. dont nous cherchons une réalisation x.
Soit Xf la densité de probabilité de X.
La méthode de la composition se propose de chercher g et YF telles que :
( ) ( ) ( ( ))X Yf x g x y d F y= ∫
Pour simuler une réalisation de X, il faut alors simuler un premier nombre aléatoire u1
pour trouver y réalisation de Y telle que F = u1 puis de générer un autre nombre
Aléatoire u2 afin d’en déduire x = g (u2 | Y = y).
Exemple :
Nous voulons simuler une loi qui est un mélange de 2 autres lois continues connues
( )X Exponentielle λ→ et ( , )gamma a bλ →
+ Simulation d’une réalisation λ de la loi Gamma (a, b),
+ Simulation d’une réalisation de la loi d’Exponentielle de paramètre λ.
Nous obtenons ainsi une réalisation de la loi de X.
Avantage :
+ Cette méthode donne une meilleure précision que la méthode de rejet.
Inconvénient :
+ Normalement, il est difficile de décomposer une loi quelconque en 2 lois connues.
d) Conclusion :
Il faut remarquer que certaines lois ne sont pas simulées à partir des trois méthodes
précédentes.
La meilleur méthode (et la plus simple) reste la méthode d’inversion de la fonction de
répartition, viens ensuite la méthode de décomposition, mais il faut savoir décomposer la
densité qui est une tâche difficile. Si ces 2 méthodes ne tiennent pas, on applique la méthode
de rejet.
44
IX. Estimation des paramètres et application numérique:
Normalement, la modélisation d’une variable passe par trois étapes de choix de
modèle, d’estimation des paramètres du modèle sur la base des données historiques et d’étude
de la robustesse du modèle en vue d’accepter ou de rejeter le modèle choisi. Dans ce
mémoire, comme je travaille sur un portefeuille fictif, et par souci de simplicité, je vais passer
la troisième étape. Les logiciels utilisés sont SAS (surtout le proc iml) et R (pour les
graphiques).
IX.1. Modèles des actifs:
IX.1.1. Modèle de Merton:
L’évolution de prix d’un actif financier est donnée par l’équation suivante :
1
²( ) (0)exp ( )2
tN
t kk
S t S t B Uσμ σ=
⎧ ⎫= − + +⎨ ⎬
⎩ ⎭∑ (*)
Où :
S(t) : prix de l’actif à l’instant t.
0( )t tB B ≥= : Mouvement brownien.
0( )t tN N ≥= : Processus de Poisson homogène d’intensitéλ .
1( )k kU U ≥= : Suite de variables aléatoires indépendantes identiquement distribuées de
loi Normale (0, )uN σ .
Les processus B, N, U sont mutuellement indépendants.
Les paramètres à estimer sont ( ), , ,uμ σ σ λ .
La démarche d’estimation de ces paramètres suit celle proposée dans RAMEZANI et
ZENG [1998]. Dans un premier temps des estimateurs sont obtenus par la méthode des
moments. Ils seront ensuite utilisés pour initialiser un algorithme de maximisation de la
vraisemblance qui donne des résultats plus précis avec des propriétés classiques comme :
convergence, efficacité asymptotique, normalité asymptotique.
45
D’après l’équation (*), le rendement de l’actif sur l’intervalle [t, t+h] s’écrit :
1
1
²exp ( )( )2
²exp ( )2
t h
t
N
t h kkt h
r h Nt
t kk
t h B USrS
t B U
σμ σ
σμ σ
+
+=+
+
=
⎧ ⎫− + + +⎨ ⎬
⎩ ⎭=⎧ ⎫
− + +⎨ ⎬⎩ ⎭
∑
∑
ce qui conduit après simplification à l’expression :
²exp ( ) ( )2
t h
t
Nt h
t h t h t kNt
Sr h B B US
σμ σ+
++ +
⎧ ⎫⎪ ⎪= = − + − +⎨ ⎬⎪ ⎪⎩ ⎭
∑
J’en déduis que, si l’on dispose de n observations des cours équi-réparties aux instants
iiTtn
= sur un intervalle [0, T], les variables 1
( )( ) ln( )
ii i
i
S tx x tS t −
= = sont telles que :
( 1) //
1 1
² ( 1)( ) ( ) ( )2
i T niT n NN
i t k kk k
T iT i Tx B B U Un n n
σμ σ−
= =
−⎡ ⎤= − + − + −⎢ ⎥⎣ ⎦∑ ∑
Cela prouve que les variables aléatoires 1,..., nx x sont indépendantes et identiquement
distribuées. En d’autres termes les rendements sur des intervalles disjoints sont indépendants,
et la distribution dépend de la longueur et non pas de la position.
Proposition 1: La densité de r sur une période s’écrit :
2
2 22 20
²( )2( ) exp
2( )2 !
n
rn uu
xef xnn n
λσμλ
σ σπ σ σ
− ∞
=
⎡ ⎤⎡ ⎤⎧ ⎫− +⎢ ⎥⎢ ⎥⎪ ⎪= −⎢ ⎥⎢ ⎥⎨ ⎬++⎢ ⎥⎢ ⎥⎪ ⎪
⎢ ⎥⎢ ⎥⎩ ⎭⎣ ⎦⎣ ⎦
∑
Démonstration : Annexes
46
a) Méthode des moments :
La méthode des moments consiste à égaliser les moments empiriques avec les
moments théoriques. Comme j’ai 4 paramètres à estimer 2 2, , ,uμ σ σ λ , je dois résoudre un
système non linéaire de 4 équations à 4 inconnus.
Compte tenu de la loi du rendement, je m’intéresse aux moments centrés.
Si ²( )2
m E r σμ= = − , je vais donc calculer ( )kkm E r m⎡ ⎤= −⎣ ⎦ , un argument de
symétrie conduit à conclure que 2 1 0km + = . Il suffit donc de déterminer les moments d’ordre
pair.
Je pose alors :
12
2 24
3 46
4 6
( ) ( )( ) ( )( ) ( )( ) ( )
F x E r mF x E r m mF x E r m mF x E r m m
= −⎧⎪ = − −⎪⎨ = − −⎪⎪ = − −⎩
où x = ( 2 2, , ,uμ σ σ λ )
Pour trouver les estimateurs par la méthode de moment, je construits une fonction du
type : 2 2 2 2
1 2 3 4( ) ( ) ( ) ( ) ( )h x F x F x F x F x= + + + . Résoudre le système non linéaire revient à minimiser
la fonction h(x). Pour cela, j’utilise la méthode de « Trust-Region » disponible dans le proc
iml du logiciel SAS, ainsi j’obtiendrai plusieurs solutions dépendant du vecteur
d’initialisation 0x . En effet pour chaque vecteur 0x , on a une solution qui minimise la fonction
h(x) localement. De manière empirique, chaque paramètre varie entre 0 et 1. Par conséquent
pour avoir une solution globale qui minimise le plus la fonction h(x), j’ai simulé 500 vecteurs
0x dont les composantes suivent indépendamment une loi uniforme [0, 1]. Ensuite j’ai retenu
comme solution du système le vecteur solution qui donne le minimum des h(x).
Proposition 2: Le moment centré d’ordre 2k de r s’écrit :
2 2 22
0
(2 )!( ) ( )2 ! !
nk k
k ukn
km E r m e nk n
λ λ σ σ∞
−
=
⎡ ⎤= − = +⎣ ⎦ ∑
Démonstration : Annexe
47
b) Méthode du maximum de vraisemblance :
La méthode des moments a permis d’obtenir un premier jeu d’estimateurs pour les
paramètres du modèle; j’utilise ce jeu comme valeur initiale pour déterminer le maximum
local de la vraisemblance dans son voisinage. Compte tenu de la proposition 1, j’obtiens
l’expression suivante de la vraisemblance :
2
2 21 2 22 2
01
²( )2( ,..., , , , , ) exp
2( )2 !
nn i
n uni uu
xeL x xnn n
λσμλμ σ σ λ
σ σπ σ σ
− ∞
==
⎡ ⎤⎡ ⎤⎧ ⎫− +⎢ ⎥⎢ ⎥⎪ ⎪= −⎢ ⎥⎢ ⎥⎨ ⎬++⎢ ⎥⎢ ⎥⎪ ⎪
⎢ ⎥⎢ ⎥⎩ ⎭⎣ ⎦⎣ ⎦
∑∏
Le but est ici de maximiser la vraisemblance (ou de manière équivalente de minimiser
- 2 2ln ( , , , , )uL x μ σ σ λ ). Concernant les contraintes, il vient de manière évidente que 2 0σ ≥
et 2 0uσ ≥ . Ensuite, je vais étudier les valeurs des estimateurs issues de la méthode des
moments pour encadrer les autres paramètres.
En fait, je dispose des estimateurs obtenus par la méthode des moments. Je considère
que ces estimateurs approchent à plus ou moins 50 % les estimateurs du maximum de
vraisemblance. Par conséquent, je retiens d’imposer quatre contraintes d’inégalité pour
l’optimisation de la log-vraisemblance. Je suis ainsi amené à un classique problème de
maximisation sous contraintes, dont la résolution numérique n’appelle pas de remarque
particulière.
Le système des contraintes se décrit comme suivant :
2 2 2
2 2, ,
0,5 1,50,5 1,5
0,5 1,50,5 1,5
mom mom
mom mom
u mom u mom
mom mom
μ μ μσ σ σσ λ σλ λ λ
≤ ≤⎧⎪ ≤ ≤⎪⎨ ≤ ≤⎪⎪ ≤ ≤⎩
Donc le problème revient à maximiser la vraisemblance sur un compact 4V R∈ .
Comme elle est continue, elle atteint donc son maximum.
48
En résumé, le problème à résoudre est :
4
2 21
2 2 2
2 2, ,
max ( ,..., , , , , )
0,5 1,50,5 1,50,5 1,50,5 1,5
n ur R
mom mom
mom mom
u mom u mom
mom mom
L r r μ σ σ λ
μ μ μσ σ σ
σ λ σ
λ λ λ
∈
⎧⎪⎪ ≤ ≤⎪⎨ ≤ ≤⎪
≤ ≤⎪⎪ ≤ ≤⎩
Remarque :
Par la méthode de l’estimation du maximum de vraisemblance, pour les grands
échantillons et sous certaines hypothèses peu strictes, l’estimateur sera asymptotiquement
sans biais, normal et efficace. On ne sait rien sur l’unicité des solutions de l’équation de
vraisemblance. De plus, cette méthode ne sera valable utilement que pour de grands
échantillons à cause de ses propriétés asymptotiques.
IX.1.2. Modèle de taux (CIR):
Le processus ( )t t t tdr a b r dt r dBσ= − + peut être discrétisé en :
( )t h t t tr r a b r h hr σε+ − = − + avec (0, )Nσε σ→ et h est le pas de discrétisation.
Soit
( )t h t t
t t
t h tt
tt
r r a b r hhr hr
abr r h r harhr
σ
σ
ε
ε
+
+
− −= +
⎛ ⎞⎛ ⎞−⇔ = +⎜ ⎟⎜ ⎟⎜ ⎟ −⎝ ⎠⎝ ⎠
Il s’agit d’un modèle de régression linéaire, alors, par la méthode de moindres carrés
ordinaires (MCO), j’obtiens les valeurs ab et –a, et en résolvant le système de 2 équations à 2
variables, j’obtiendrai les estimateurs de a et de b. La valeur de σ est obtenue directement par
MCO.
49
IX.1.3. Copule Student ,vt∑ :
Cette partie s’inspire des travaux de KARIM CHEIKH BENANI [2003]
Notons désormais la copule Student par t-copule :
Supposons qu’on désire approximer par une t-copule la structure de dépendance d’un
vecteur aléatoire de distribution jointe inconnue mais dont les lois marginales sont connues et
qu’on dispose d’un échantillon de réalisations { }1,..., nX X X= avec 1( ,..., )ni i iX x x= . On va
chercher à estimer les paramètres ( , )v∑ .
Zeevi et Mashal [2002] sur la base des travaux de Lingskog(2000) ont proposé une
méthode pour estimer ces paramètres.
Cette méthode utilise la fonction de vraisemblance de l’échantillon ( )iG X où,
1( ) ( ( ),..., ( ))ni v i v iG X t x t x= et vt est la fonction de répartition de la Student univariée à v degrés
de liberté. Cette fonction de vraisemblance s’écrit :
1
( , ) ( ( ), , )m
m ii
L v c G X v=
∑ = ∑∏
Où c est la densité de la t-copule. La fonction de log vraisemblance de ( )iG X s’écrit :
1
( , ) log[ ( ( ), , )]m
m ii
l v c G X v=
∑ = ∑∑
Zeevi et Mashal [2002] adoptent une approche différente du maximum de
vraisemblance. Ils ne calculent pas les estimateurs du maximum de vraisemblance de ( , )v∑ .
Dans leur méthode, la fonction de vraisemblance n’est pas simultanément maximisée suivant
∑ et suivant v . Le paramètre ∑ est en premier estimé, puis à partir de cette estimation∧
∑ , ils
cherchent le nombre v qui maximise la fonction de vraisemblance.
a) Estimation de ∑ :
L’estimation de la matrice de corrélation ∑ d’un vecteur aléatoire se ramène à
rechercher le coefficient de corrélation ( , )X Yρ entre chaque couple (X, Y) de composantes.
J’introduis ici 2 mesures de dépendances des variables aléatoires, à savoir le
coefficient de Pearson et le Tau de Kendall.
50
Coefficient de corrélation de Pearson :
Définition : Soit 2 variables aléatoires et soit un échantillon
d’observations{ }( , ) | 1,...,i ix y i m= , la corrélation entre X et Y peut être estimée par
l’estimateur empirique
1
2 2
1 1
( )( )( , )
( ) ( )
m
i ii
pearson m m
i ii i
x x y yX Y
x x y yρ
∧ ∧
∧=
∧ ∧
= =
− −=
− −
∑
∑ ∑
Toutefois, cet estimateur présente un biais important si les variables aléatoires X et Y
possèdent des distributions à queues épaisses. De plus, il présente une variance élevée.
Dans la suite, nous allons présenter un autre estimateur de dépendance entre variables
aléatoires qui correspond bien à la distribution Student multivariée.
Le Tau de Kendall :
Définition : Soit (X, Y) un vecteur aléatoire à valeurs dans 2R . On appelle taux de
Kendall de (X, Y), la constante réelle :
{ } { }( , ) ( )( ) 0 ( )( ) 0i j i j i j i jX Y P X X Y Y P X X Y Yτ = − − > − − − <
Où ( , )i iX Y et ( , )j jX Y sont des réalisations de (X, Y), indépendantes entre elles.
Le tau de Kendall décrit les propriétés de concordance de la relation entre deux
variables aléatoires X et Y.
Cet estimateur de dépendance correspond bien à la distribution Student multivariée.
Matrice de corrélation de ,vt∑ :
LINDSKOG [2001b] a présenté une relation entre le tau de Kendall et la matrice de
corrélation∑ de la variable aléatoire suivant la distribution de Student multivariée.
En effet, si ,vt∑ est une Student multivariée à valeurs dans nR alors :
sin( )2π τ∑ = ou bien ( , ) sin( ( , ))
2i j i jX X X Xπρ τ= avec { }, 1,...,i j n∈
Dans mon problème, je cherche à approximer par une t-copule la structure de
dépendance d’un vecteur aléatoire (des browniens) à valeurs dans R de distribution jointe
51
inconnue (et à priori n’étant plus une Student multivariée) mais dont les distributions
marginales sont connues (normales) et pour lequel je dispose d’un échantillon de réalisations.
b) Estimation de v :
Pour estimer le paramètre v, on recherche la valeur v qui maximise la log
vraisemblance.
1
arg max log[ ( ( ), , )]m
iv V i
v c G X v∧ ∧
∈ =
⎡ ⎤= ∑⎢ ⎥⎣ ⎦∑ où { }3,4,5,...V =
IX.2. Modèles des passifs:
IX.2.1. Application du modèle:
La première étape dans l’application du modèle de marche aléatoire est de vérifier si
les facteurs de développement année par année observés sont indépendants, identiquement
distribués selon la loi Log-Normale. Après il faut identifier des fonctions appropriées pour
( )tμ , ( )tσ et estimer les paramètres pour ces fonctions.
Remarque : une violation sur les hypothèses n’implique pas nécessairement que le calibrage
du modèle est mauvais. Au contraire, elle veut dire que les tests statistiques basés sur les
résultats sont biaisés. L’amplitude de ce biais dépend du degré de la violation.
Sélection de la forme de ( )tμ et ( )tσ :
L’étape suivante dans le processus de modélisation est de choisir la forme appropriée
pour ( )tμ et ( )tσ . Ce n’est pas une tâche triviale : les fonctions polynomiales seront
généralement non-appropriées.
Pour les problèmes de calculs de provisions pour sinistres à payer avec l’hypothèse
que l’assuré n’obtient pas de recours, i.e. il ne peut pas y avoir de paiement négatif, les
fonctions ( )tμ et ( )tσ sont imposées par les mêmes restrictions : elles doivent être positives,
décroissantes, et tendre vers 0 à run-off. Ces types de fonctions sont généralement référés
sous le nom de fonctions de queue.
52
Quelques fonctions pourraient être considérées pour ( )tμ et 2 ( )tσ par exemple :
1
.
1
.
t
e
t
t
γ
β
γ
β
α
α γβ
α γ
⎛ ⎞−⎜ ⎟⎝ ⎠
−
−
⎡ ⎤⎛ ⎞+⎢ ⎥⎜ ⎟
⎝ ⎠⎣ ⎦+
Ici, ces fonctions sont choisies parce qu’elles couvrent une large propriété de queue.
En pratique, plusieurs fonctions de queues peuvent être obtenues en étendant la fonction de
survie des lois de probabilités.
Choisir la fonction la plus appropriée parmi les 3 citées ci-dessus est très compliqué
car on ne peut pas observer directement les valeurs de ( )tμ ou 2 ( )tσ .
IX.2.2. Estimation des paramètres:
Pour chacune des fonctions ( )tμ et 2 ( )tσ , on a 3 paramètres à estimer, à savoir
1 1 1, ,α β γ pour la fonction ( )tμ et 2 2 2, ,α β γ pour la fonction 2 ( )tσ .
Il y a 2 méthodes pour estimer ces paramètres : méthode du maximum de
vraisemblance et celle des moindres carrés. Comme la première a été utilisée pour le calibrage
des modèles des actifs financiers, je vais appliquer la méthode des moindres carrées dans cette
partie.
On a :
2 2
2
1 1 1
2 21( ) ( ) , ( )2
t tt
t t t
PLN t t dt t dt
Pμ σ σ
⎛ ⎞⎛ ⎞→ −⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠⎝ ⎠∫ ∫
D’où
2 2
2
1 1 1
2 21ln ( ) ( ) , ( )2
t tt
t t t
PN t t dt t dt
Pμ σ σ
⎛ ⎞⎛ ⎞ ⎛ ⎞→ −⎜ ⎟⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟⎝ ⎠⎝ ⎠ ⎝ ⎠∫ ∫ et
22
1 1
2
2
1 1
2
2
1ln ( ) ( )2
ln ( )
tt
t t
tt
t t
PE t t dt
P
PV t dt
P
μ σ
σ
⎛ ⎞⎛ ⎞ ⎛ ⎞⎜ ⎟ = −⎜ ⎟ ⎜ ⎟⎜ ⎟⎜ ⎟ ⎝ ⎠⎝ ⎠⎝ ⎠⎛ ⎞⎛ ⎞⎜ ⎟ =⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠⎝ ⎠
∫
∫
53
La méthode des moindres carrées consiste à minimiser la distance entre les valeurs
théoriques et les valeurs empiriques.
Supposons que les sinistres soient totalement payés au bout de n années.
Pour chaque année de développement i, on calcule la moyenne et la variance des
logarithmes des facteurs de développement notés iμ et 2iσ avec i = {1, 2,…, n-1}, il s’agit ici
des valeurs empiriques.
Les valeurs théoriques sont calculées ainsi :
222
11 1
323
22 2
21
1 1
ln ( )
ln ( )
..............................
ln ( )n
nn
n n
Pg V t dtP
Pg V t dtP
Pg V t dtP
σ
σ
σ−− −
⎛ ⎞⎛ ⎞= =⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠⎝ ⎠
⎛ ⎞⎛ ⎞= =⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠⎝ ⎠
⎛ ⎞⎛ ⎞= =⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠⎝ ⎠
∫
∫
∫
et
222
11 1
323
22 2
21
1 1
1ln ( ) ( )2
1ln ( ) ( )2
..............................
1ln ( ) ( )2
nn
nn n
Pf E t t dtP
Pf E t t dtP
Pf E t t dtP
μ σ
μ σ
μ σ−− −
⎛ ⎞⎛ ⎞ ⎛ ⎞= = −⎜ ⎟⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎝ ⎠⎝ ⎠⎝ ⎠⎛ ⎞⎛ ⎞ ⎛ ⎞= = −⎜ ⎟⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎝ ⎠⎝ ⎠⎝ ⎠
⎛ ⎞⎛ ⎞ ⎛ ⎞= = −⎜ ⎟⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎝ ⎠⎝ ⎠⎝ ⎠
∫
∫
∫
En conséquence, les estimateurs sont obtenus par les programmes suivants :
, ,σ σ σα β γ∧ ∧ ∧
= argmin22g σ− et , ,μ μ μα β γ
∧ ∧ ∧
= argmin 2f μ−
Où { }1 2 1, ,..., nf f f f −= et { }1 2 1, ,..., ng g g g −=
Pour résoudre ces programmes d’optimisations, je commence par estimer les
paramètres , ,σ σ σα β γ∧ ∧ ∧
, puis je les remplace dans le vecteur f, et enfin j’utilise de nouveau la
méthode de moindres carrées pour trouver les valeurs de , ,μ μ μα β γ∧ ∧ ∧
.
Obtention des résultats :
On a :
22
11
11 2 2 1
1 12 1 2 1
( , ) ( ) ( )1
( )1
tt
tt
h t t t dt t t t
t t t t
β β
β β
αα γ γβ
αγβ
− −
− −
⎡ ⎤= + = − + ⎣ ⎦−
⎡ ⎤= − + −⎣ ⎦−
∫
54
Pour chaque couple 1 2( , )t t je trouve 1 2( , )h t t ou 1t
g en fonction de α , β et γ et aussi
sa valeur numérique notée 1
2tσ . Il s’agit ensuite de résoudre le programme d’optimisation
suivant :
( )21
2
0, , 0
1
1
111
n
ii
i iMinα β γ
β β σαγβ
−
≥ ≥ =
− −⎛ ⎞−⎜ ⎟
⎝⎡
⎠⎤+ + −⎣ ⎦−∑
Les contraintes 0γ ≥ et 0α ≥ sont posées pour assurer la positivité de la variance.
Une fois les paramètres de la fonction 2 ( )tσ estimés et notés , ,σ σ σα β γ∧ ∧ ∧
, je vais chercher
ceux de ( )tμ en résolvant le programme d’optimisation suivant :
( ) ( )
2
1
0, , 0 1
1 1 11 11 11 2 1
n
ii
Min i i i iσ σβ β β
α
β
β γ
σσ
σ
ααγ γ μβ β
∧ ∧−
≥ ≥
∧∧−
=
− −−∧
⎡ ⎤⎛ ⎞⎡ ⎤⎢ ⎥⎜ ⎟⎡ ⎤+ + − − + + −⎢ ⎥
⎛ ⎞⎜ ⎟−⎜ ⎟⎜ ⎟⎝ ⎠
⎣ ⎦⎢ ⎥⎜ ⎟− ⎣ ⎦−⎝ ⎠⎣ ⎦∑
Encore une fois, les contraintes 0, 0α γ≥ ≥ assurent la positivité de ( )tμ .
Les solutions obtenues sont notées , ,μ μ μα β γ∧ ∧ ∧
.
La valeur du passif Best Estimate dans 1 an est calculée comme l’espérance des flux
futurs actualisés conditionnellement aux aléas de la période 0 à 1. Ici, on suppose que les
facteurs de développements suivent toujours la loi log-normale mais les paramètres des
fonctions ( )tμ , 2 ( )tσ vont changer.
En t = 0, ( )tμ , 2 ( )tσ prennent la forme de la fonction .t βα γ− + .
En t = 1, ( )tμ , 2 ( )tσ prennent la forme de la fonction 11 1.t βα γ− + .
IX.3. Application numérique:
IX.3.1 Modèle de Merton:
Mon portefeuille se compose de deux actions : Alcatel et Atos, et d’un titre
immobilier : Affine. Les indices choisis sont le CAC40 et l’Euronext CAC Real Estate IX.
Les données historiques des cours sont extraites de Bloomberg. Il s’agit des données
hebdomadaires du 08/01/1999 au 29/12/2006 (date d’évaluation), ce qui donne 417 valeurs
pour chaque titre. La période choisie reflète un cycle complet.
En appliquant les démarches présentées ci-dessus, j’obtiens les résultats suivants :
55
Les estimateurs de la méthode des moments sont :
12121,
1
0,005190,001290,4824
0,0220u
Alcatelμσσλ
= −⎧⎪ =⎪⎨ =⎪⎪ =⎩
2
22
22,
2
0,00080,00550,0389
0,0042u
Atosμσσλ
= −⎧⎪ =⎪⎨ =⎪⎪ =⎩
323
23,
3
400,00080,00040,0006
0,0045u
CACμσσλ
=⎧⎪ =⎪⎨ =⎪⎪ =⎩
42424,
4
_ _0,0030 0,00020,0003
0,0025u
CAC REAL ESTATEμσσλ
=⎧⎪ =⎪⎨ =⎪⎪ =⎩
52424,
4
0,003230,00040,0006
0,0295u
Affineμσσλ
=⎧⎪ =⎪⎨ =⎪⎪ =⎩
Les estimateurs de la méthode du maximum de vraisemblance sont :
12121,
1
0,00260,0020,24
0,033u
Alcatelμσσλ
= −⎧⎪ =⎪⎨ =⎪⎪ =⎩
2
2222,
2
0,000770,0030,0410,05
u
Atosμσσλ
= −⎧⎪ =⎪⎨ =⎪⎪ =⎩
32323,
3
400,00110,00060,00990,027
u
CACμσσλ
=⎧⎪ =⎪⎨ =⎪⎪ =⎩
42424,
4
_ _0,00330,00030,007
0,023u
CAC REAL ESTATEμσσλ
=⎧⎪ =⎪⎨ =⎪⎪ =⎩
5
24
24,
4
0,0020,0005
0,010,027
u
Affineμσσλ
=⎧⎪ =⎪⎨ =⎪⎪ =⎩
IX.3.2. Modèle de taux (CIR):
Les données choisies sont les cours historiques hebdomadaires du taux EONIA (Euro
OverNight Index Average) du 08/01/1999 au 29/12/2006. Cet indice de taux est choisi parce
qu’il est le taux sans risque le plus court disponible à ma connaissance (taux overnight), qui
est indispensable pour le calibrage du modèle de taux instantané.
La méthode MCO donne :
0,0010337
-0,03433
0,000169
ab
a
σ
∧ ∧
∧
∧
⎧ =⎪⎪− =⎨
⎪⎪ =⎩
d’où
0,03433
0,03011
0,000169
a
b
σ
∧
∧
∧
⎧ =⎪⎪
=⎨⎪⎪ =⎩
IX.3.3. Copule Student ,vt∑ :
Les rendements des titres dans le portefeuille et le taux d’intérêt sans risque instantané
sont décrits par les processus suivants :
56
1,
2,
3,
4,
21 1 11, 1 1
1
22 2 22, 2 2
1
23 3 33, 3 3
1
24 4 44, 4 4
1
25 5, 5
: ( )2
: ( )2
40 : ( )2
_ _ : ( )2
: (2
t h
t h
t h
t h
N
t h t kk
N
t h t kk
N
t h t kk
N
t h t kk
t h
A L C A T E L r h h U
A T O S r h h U
C A C r h h U
C A C R E A L E ST A T E r h h U
A F F IN E r
σμ σ ε
σμ σ ε
σμ σ ε
σμ σ ε
σμ
=
=
=
=
= − + +
= − + +
= − + +
= − + +
= −
∑
∑
∑
∑5,
5 55
1
6 6 6 6 6
)
_ : ( )
t hN
t kk
t h t t t t
h h U
IN T E R E ST R A T E r r a b r h hr
σ ε
σ ε=
+
+ +
= + − +
∑
En fait je cherche à simuler le vecteur aléatoire ( )1 2 3 4 5 6, , , , ,t t t t t tε ε ε ε ε ε . Pour cela, j’ai
besoin de connaître sa distribution conjointe dont la structure de dépendance est décrite par la
copule de Student (t-copule).
Les paramètres ( , )vΣ sont estimés à partir des taux de rendements dévolatilisés des
titres financiers et du taux EONIA.
L’estimation du taux de Kendall est :
1 0.3596 0.4662 0.1717 0.0645 -0.04910.3596 1 0.4302 0.1274 0.0069 -0.03440.4662 0.4302 1 0.2909 0.0326 -0.05430.1717 0.1274 0.2909 1 0.0142 -0.0226 0.0645 0.0069 0.0326 0.0142 1 -0.0709-0.0491 -0.0344 -0.0543 -0
.0226 -0
τ∧
=
.0709 1
⎛ ⎞⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠
Et l’estimation de la matrice de corrélation correspondante est :
1 0.1012 -0.07700.5350 1 0.6253 0.1987 0.0109 -0.05400.6683 0.6253 1 0.4410 0.0512 -0.08510.2663 0.1987 0.4410 1 0.0223 -0.0355 0.1012 0.0109 0.0512 0.0223 1 -0.1111-0.07
0.5350
70 -0.0
0.6683 0.2663
540 -0.0851 -0.03 0
55 -
∧
Σ =
.1111 1
⎛ ⎞⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠
57
La fonction de vraisemblance est représentée sur la figure ci-dessous :
Figure 4 : Fonction de vraisemblance
Le v optimal semble être infini. Ceci signifie que la structure de dépendance entre les
rendements des titres dans le portefeuille et le taux d’intérêt sans risque est celle décrite par
une copule gaussienne. Je prends 1100v∧
= . En effet, ZEEVI, MASHAL [2002] a montré qu’à
partir de v=1000, une copule Student est semblable à la copule de même matrice de
corrélation linéaire.
IX.3.4. Valeur du portefeuille:
a) Valeur du portefeuille initiale (t=0) :
Le portefeuille se compose de 7 titres d’ALCATEL, 8 titre d’ATOS, 9 titres
d’AFFINE et 10 obligations d’état de maturité 5 ans, de coupon 5 et de nominal 50.
Les valeurs initiales des actifs financiers sont
10
20
30
10,9€44,93€135€
SSS
⎧ =⎪ =⎨⎪ =⎩
En t=0, les facteurs d’actualisations sont donnés dans le tableau suivant :
58
Facteur d'actualisation
1 an 2 ans 3 ans 4 ans 5 ans
discount 0,9638853 0,9338853 0,8961447 0,8643775 0,8339238
D’où, on en déduit que la valeur de l’obligation en t=0, notée 0O , est égale à 64,13 €.
Finalement la valeur du portefeuille en t=0 est calculée par :
1 2 30 0 0 0 07* 8* 9* 10* 2292,04€A S S S O= + + + =
b) Valeur du portefeuille dans 1 an (t=1) :
Les évolutions des actifs composant le portefeuille étant entièrement définies, leurs
distributions ainsi que celui du portefeuille dans 1 an seront obtenus en utilisant la méthode de
simulation Monte-Carlo.
Rappelons les résultats obtenus des étapes précédents: 1,
2,
3,
21 1 1 11
1 11
22 2 2 22
2 21
23 3 3 33
3 31
4
: exp ( )2
: exp ( )2
40 : exp ( )2
_ _ :
t h
t h
t h
N
t h t t kk
N
t h t t kk
N
t h t t kk
t h
ALCATEL S S h h U
ATOS S S h h U
CAC S S h h U
CAC REAL ESTATATE S S
σμ σ ε
σμ σ ε
σμ σ ε
+=
+=
+=
+
⎧ ⎫⎪ ⎪= − + +⎨ ⎬⎪ ⎪⎩ ⎭
⎧ ⎫⎪ ⎪= − + +⎨ ⎬⎪ ⎪⎩ ⎭⎧ ⎫⎪ ⎪= − + +⎨ ⎬⎪ ⎪⎩ ⎭
=
∑
∑
∑4,
5,
24 4 44
4 41
25 5 5 55
5 51
6 6 6 6 6
exp ( )2
: exp ( )2
_ : ( )
t h
t h
N
t t kk
N
t h t t kk
t h t t t t
h h U
AFFINE S S h h U
INTEREST RATE r r a b r h hr
σμ σ ε
σμ σ ε
σ ε
=
+=
+
⎧ ⎫⎪ ⎪− + +⎨ ⎬⎪ ⎪⎩ ⎭
⎧ ⎫⎪ ⎪= − + +⎨ ⎬⎪ ⎪⎩ ⎭
= + − +
∑
∑
Où ,
2,
6
(0,1)
( )
(0, )
(0,1)
it
it h i
ik u i
t
N
N P h
U N
N
ε
λ
σ
ε
avec i = {1,2,…,5}
59
1212
1,
1
0,00260,0020,24
0,033u
Alcatelμσσλ
= −⎧⎪ =⎪⎨ =⎪⎪ =⎩
2
2222,
2
0,000770,0030,0410,05
u
Atosμσσλ
= −⎧⎪ =⎪⎨ =⎪⎪ =⎩
32323,
3
400,00110,00060,00990,027
u
CACμσσλ
=⎧⎪ =⎪⎨ =⎪⎪ =⎩
42424,
4
_ _0,00330,00030,007
0,023u
CAC REAL ESTATEμσσλ
=⎧⎪ =⎪⎨ =⎪⎪ =⎩
5
24
24,
4
0,0020,0005
0,010,027
u
Affineμσσλ
=⎧⎪ =⎪⎨ =⎪⎪ =⎩
La valeur du zéro-coupon est déterminée, par la formule suivante :
[ ]( , ) ( , ) exp ( , ) tP t T A t T B t T r= − où tr est le taux sans risque à la date t
Avec t < T,
{ }{ }
{ }{ }
22 /
2 2
2 exp ( )( ) / 2( , )
( )(exp ( ) 1) 2
2exp ( ) 1( , )
( )(exp ( ) 1 ) 2
2
aba T t
A t Ta T t
T tB t T
a T t
a
σγ γ
γ γ γ
γγ γ γ
γ σ
⎧ ⎫+ −⎪ ⎪= ⎨ ⎬+ − − +⎪ ⎪⎩ ⎭− −
=+ − − +
= +
avec
0,03433
0,03011
0,000169
a
b
σ
∧
∧
∧
⎧ =⎪⎪
=⎨⎪⎪ =⎩
Le vecteur aléatoire ( )'1 2 3 4 5 6,, , , , , Student
t t t t t t vCε ε ε ε ε ε Σ
Avec
1 0.1012 -0.07700.5350 1 0.6253 0.1987 0.0109 -0.05400.6683 0.6253 1 0.4410 0.0512 -0.08510.2663 0.1987 0.4410 1 0.0223 -0.0355 0.1012 0.0109 0.0512 0.0223 1 -0.1111-0.07
0.5350
70 -0.0
0.6683 0.2663
540 -0.0851 -0.03 0
55 -
∧
Σ =
.1111 1
⎛ ⎞⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠
et 1100v∧
=
Les variables itε évoluent indépendamment dans le temps (pour i fixé).
Obtention de résultat :
Commençons à t=0 avec les valeurs initiales des titres et du taux EONIA (0 ,0369).
1) Simuler le vecteur ( )1 2 3 4 5 6, , , , ,t t t t t tε ε ε ε ε ε d’après la t-copule
2) Simuler , ( )it h iN P hλ→ , 2(0, )i
k iU N σ→ , les valeurs des actions et titres immobiliers
sont obtenues par
60
,2
1
exp ( )2
it hN
i i i iit h t i i t k
k
S S h h Uσμ σ ε+=
⎧ ⎫⎪ ⎪= − + +⎨ ⎬⎪ ⎪⎩ ⎭
∑ Avec i = {1,2,…,5}
3) Le taux sans risque instantané est obtenu par 6( )t h t t t tr r a b r h hrσ ε+ = + − +
Comme les paramètres ont été estimés en utilisant les valeurs historiques
hebdomadaires, je vais prendre le pas de simulation h = 1 semaine. Supposons que l’année
financière se divise en 37 semaines, je vais répéter l’algorithme précédent 37 fois, les
dernières valeurs obtenues sont les prix des actifs dans 1 an. En t=1, l’obligation gardera les
mêmes coupons et le même nominal qu’au début mais sa maturité sera réduite à 4 ans, son
prix sera donc déduit du taux sans risque instantané à t=1.
En répétant l’étape précédente 200 fois, j’obtiens les échantillons des titres Alcatel,
Atos, Affine, ainsi que le prix de l’obligation 1 an. Leurs histogrammes sont présentés ci-
dessous :
64
Figure 8 : Histogramme du prix du titre Affine dans 1 an
IX.3.5 Provision Best Estimate:
Les données utilisées dans cette partie sont extraites de l’article de Nobuyasu Iwakiri
et Tomoi Noda : « Study of Insurance IFRS » présenté à « 12th East Asian Actuarial
Conference » en 2003.
65
Le triangle des montants de sinistres payés par année de survenance est décrit comme:
(Euros)
Année de développement
1 2 3 4 5 6
2001 449 711 274 81 11 1
2002 435 735 307 74 16
2003 398 651 318 83
2004 437 715 303
2005 327 703
Ann
ée d
e su
rven
ance
2006 409
Le triangle des paiements de sinistres cumulés est le suivant :
(Euros)
Année de développement
1 2 3 4 5 6
2001 449 1160 1434 1515 1526 1527
2002 435 1170 1477 1551 1567
2003 398 1049 1367 1450
2004 437 1152 1455
2005 327 1030
Ann
ée d
e su
rven
ance
2006 409
Ensuite, je calcule les facteurs de développement :
Année de développement
1 à 2 2 à 3 3 à 4 4 à 5 5 à 6
2001 2,5835 1,2362 1,0565 1,0073 1,0007
2002 2,6897 1,2624 1,0501 1,0103
2003 2,6357 1,3031 1,0607
2004 2,6362 1,2630 Ann
ée d
e
surv
enan
ce
2005 3,1498
Enfin, je calcule les logarithmes des facteurs de développements, leurs moyennes, et leurs
écart-types :
66
Année de développement
1 à 2 2 à 3 3 à 4 4 à 5 5 à 6
2002 0,9492 0,2120 0,0549 0,0072 0,0007
2003 0,9894 0,2330 0,0489 0,0103
2004 0,9691 0,2648 0,0589
2005 0,9693 0,2335 Ann
ée d
e
surv
enan
ce
2006 1,1474
Moyenne 1,0049 0,2358 0,0543 0,0087 0,0007
Ecart-type 0,0809 0,0217 0,0051 0,0021 0,0000
Résultat :
Le triangle des paiements de sinistres cumulés est le suivant :
(Euros)
Année de développement
1 2 3 4 5 6
2001 449 1160 1434 1515 1526 1527
2002 435 1170 1477 1551 1567
2003 398 1049 1367 1450
2004 437 1152 1455
2005 327 1030 2005,5P
Ann
ée d
e su
rven
ance
2006 409
En appliquant les hypothèses et les méthodes d’estimations présentées ci-dessus, on
obtient les résultats suivants : 1 1
, 1 2 2
,
1( ) ( ) , ( )2
j ji j
i j j j
PLN t t dt t dt
Pμ σ σ
+ ++
⎛ ⎞⎛ ⎞→ −⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠⎝ ⎠∫ ∫
Avec i = {2002, 2003, 2004, 2005, 2006} : années de survenance
j = {1, 2, 3, 4, 5} : années de développement
,i jP : Montant des paiements cumulés en i+j-1 pour les sinistres survenus en i
2
( ) .
( ) .
t t
t t
μ
σ
βμ μ
βσ σ
μ α γ
σ α γ
∧
∧
∧ ∧−
∧ ∧−
= +
= + Avec
0.8693384
2.4519832
0.020589
σ
σ
σ
α
β
γ
∧
∧
∧
⎧ =⎪⎪
=⎨⎪⎪ =⎩
et
0.0029673
5.2126884
0.0000568
μ
μ
μ
α
β
γ
∧
∧
∧
⎧ =⎪⎪
=⎨⎪⎪ =⎩
67
En utilisant ces estimateurs, je retrouve les logarithmes des facteurs de développement
qui sont présentés dans le tableau suivant :
Logarithme du facteur de développement théorique
1 à 2 2 à 3 3 à 4 4 à 5 5 à 6
Moyenne = 1
21( ) ( )2
j
jt t dtμ σ
+⎛ ⎞−⎜ ⎟⎝ ⎠
∫ 1.0053 0.2145 0.7268 0.0236 0.0003
Ecart-type = 1
2 ( )j
j
t dtσ+
∫ 0.0874 0.0157 0.0089 0.0069 0.0058
La moyenne du facteur de développement est obtenue par la formule
1 1 12 21 1( ) ( ) ( ) ( )
2 2, 1
,
j j j
j j j
t t dt t dt t dtdti j
i j
PE e e
P
μ σ σ μ+ + +⎛ ⎞− +⎜ ⎟⎝ ⎠+∫ ∫ ∫⎡ ⎤
= =⎢ ⎥⎢ ⎥⎣ ⎦
, d’où ce tableau :
Facteur de développement
1 à 2 2 à 3 3 à 4 4 à 5 5 à 6
Moyenne 2,7528 1,2510 1,0766 1,0231 1,0003
La moyenne du sinistre cumulé est estimée par le produit entre le facteur de
développent et le paiement fait l’année précédente.
(Euros)
Triangle de paiements cumulés en moyenne
Année de développement
1 2 3 4 5 6
2001 449 1160 1434 1515 1526 1527
2002 435 1170 1477 1551 1567 1568
2003 398 1049 1367 1450 1484 1484
2004 437 1152 1455 1566 1603 1603
2005 327 1030 1289 1387 1419 1420
Ann
ée d
e su
rven
ance
2006 409 1126 1409 1516 1551 1552
68
Le triangle non-cumulé est :
(Euros)
Triangle de paiements non cumulés en moyenne
Année de développement
1 2 3 4 5 6
2001 449 711 274 81 11 1
2002 435 735 307 74 16 0,53
2003 398 651 318 83 34 0,50
2004 437 715 303 111 36 0,54
2005 327 703 259 99 32 0,48
Ann
ée d
e su
rven
ance
2006 409 717 283 108 35 1
Contrairement aux règlementations actuelles, Solvency II demande d’actualiser les
flux futurs aux taux sans risque pour obtenir le montant de provision.
En regardant la courbe de taux actuelle, je trouve les valeurs suivantes :
Facteur d'actualisation
1 an 2 ans 3 ans 4 ans 5 ans
discount 0,9638853 0,9338853 0,8961447 0,8643775 0,8339238
D’où le triangle de paiements non cumulés actualisés est obtenu en multipliant la
deuxième diagonale par 0,9638853, la 3ème par 0,9638853, la 4ème par 0,8961447, la 5ème par
0,8643775 et la 6ème par 0,8339238.
69
(Euros)
Triangle de paiements non cumulés en moyenne actualisés
Année de développement
1 2 3 4 5 6
2001 449 711 274 81 11 1
2002 435 735 307 74 16 0,51
2003 398 651 318 83 32 0,46
2004 437 715 303 107 34 0,48
2005 327 703 249 92 29 0,41
Ann
ée d
e su
rven
ance
2006 409 691 263 97 30 0,43
La provision Best Estimate à la date t = 0 est la somme des cases en jaune, donc
BE(0) = 1626 €
Enfin, avec la simulation selon la méthode de Monte-Carlo, je trouve un échantillon de
paiement total au cours de l’année 2007 (de 0 à 1), i.e. la 2ème diagonale dont l’histogramme
est donné ci-dessous :
70
Figure 9 : Histogramme du sinistre en 2007
Calcul de la provision Best Estimate dans 1 an :
En procédant de la même manière que précédemment sur les nouveaux triangles,
j’obtiens un échantillon du montant de provision Best Estimate dans 1 an.
Par exemple :
Pour la 2ème simulation, j’ai des résultats suivants :
Logarithme du facteur de développement théorique
2 à 3 3 à 4 4 à 5 5 à 6
Moyenne 0,3510 0,0747 0,0284 0,0139
Ecart-type 0,0395 0,0145 0,0107 0,0098
71
Paramètres estimés
Alpha Beta Gamma
Mu 0,8806 2,7685 0,0000
Sigma^2 0,0054 4,2641 0,0001
Facteur de développement théorique
2 à 3 3 à 4 4 à 5 5 à 6
Moyenne 1,4227 1,0778 1,0289 1,0141
Facteur d'actualisation
1 an 2 ans 3 ans 4 ans
discount 0,9226 0,8527 0,7893 0,7319
Et BE(1) = 495,1789€
Pour la 40ème simulation, les résultats sortis sont :
Logarithme du facteur de développement théorique
2 à 3 3 à 4 4 à 5 5 à 6
Moyenne 0,3504 0,0759 0,0292 0,0145
Ecart-type 0,0413 0,0202 0,0129 0,0093
Paramètres estimés
Alpha Beta Gamma
Mu 0,8717 2,7369 0,0000
Sigma^2 0,0040 2,5715 0,0001
Facteur de développement théorique
2 à 3 3 à 4 4 à 5 5 à 6
Moyenne 1,4221 1,0793 1,0298 1,0147
Facteur d'actualisation
1 an 2 ans 3 ans 4 ans
discount 0,9515 0,9059 0,8631 0,8229
Et BE(1) = 568,1582€
72
Pour 200 simulations, j’obtiens 200 valeurs de Best Estimate dans 1 an dont l’histogramme
est donné ci-dessus.
Figure 10 : Histogramme de la provision Best Estimate dans 1 an
IX.3.6. Résultat du calcul du SCR:
Rappelons la formule de calcul du capital de solvabilité requis :
(0)1
(1) (0)1CRSCR VaR CR
rα
⎛ ⎞= − −⎜ ⎟+⎝ ⎠
Où CR(t) = A(t) – BE(t) : capital porteur de risque à la date t.
A(t) : valeur du portefeuille d’actif à la date t.
BE(t) : valeur de la provision best estimate à la date t.
73
t = 0 : date de calcul
t = 1 : l’horizon du calcul
0,05%α = (0)
1 3,75%r =
On a :
CR(0) = A(0) – BE(0) = 2292,4 – 1626 = 666,4 €
La valeur des actifs dans 1 an est égale à la somme des prix de marché des actions, des
titres immobiliers et des obligations dans 1 an plus les coupons tombés, diminuée des flux
payés pour les sinistres dans la période 0 à 1.
Dans les sections précédentes, j’ai déjà trouvé les distributions empiriques des actifs
financiers dans le portefeuille ainsi que ceux des flux payés de 0 à 1 et la provision Best
Estimate en t=1.
La distribution empirique de la marge actif-passif est donnée par l’histogramme
suivant :
Figure 10: Histogramme de la marge Actif-Passif
74
Le capital de solvabilité est déterminé à partir du quantile 0,05% de cette distribution, ce qui
donne :
SCR = 568,9336 €
Ce montant est inférieur au capital porteur de risque en t=0 (666,4) mais on ne peut
rien conclure pour l’instant. En fait tant que le capital porteur de risque reste positif,
l’espérance mathématique des passifs est certes inférieure à la valeur des actifs, mais le risque
que les règlements de sinistres excèdent cette valeur peut cependant être très élevé. Il faut
calculer la marge de risque avant de savoir si l’assureur dispose suffisamment de capital pour
pouvoir assumer tous ses risques.
75
X. Provision technique « fair value » (juste valeur ou valeur de marché :
X.1. Présentation:
Dans cette partie, je vais présenter brièvement une technique qui pourrait être utile
pour la détermination de la provision technique « fair value ».
Le principe de prudence dans les provisions de sinistres ne semble pas devoir être
remis en cause. Toutefois, ce principe s’accommode aujourd’hui de pratiques trop disparates,
qui aboutissent à des niveaux de prudence hétérogènes au sein du marché européen.
La connaissance de la « fair value » des provisions techniques d’assurance est de plus
en plus demandée depuis plusieurs années. Elle est le résultat de changements dans la
réglementation comptable internationale (IFRS 4 phase 2, Solvency II), d’une part, et du
besoin de clarté des provisions pour les actuaires par le biais de cette méthode pour évaluer
les passifs d’assurance, d’autre part.
La « fair value » peut être interprétée comme le montant pour lequel un actif pourrait
être échangé, ou un passif réglé, entre des parties bien informées et consentantes dans le cadre
d’une transaction effectuée dans des conditions de concurrence normale. Elle permet aux
assurés d’évaluer précisément la valeur de l’entreprise d’assurance. Une variété de différentes
techniques d’évaluation était utilisée pour les provisions techniques « fair value ».
En absence des prix de marché observables, il y a théoriquement au moins 3 méthodes
pour estimer la valeur des cash-flows futurs.
1) Actualiser la vraie valeur des cash-flows futurs avec le taux d’actualisation qui est
égal au taux sans risque plus une prime de risque (approche de déflateur).
2) Modifier la probabilité des cash-flows futurs risqués et les actualiser avec le taux
sans risque (approche de la transformation de Wang).
3) Modifier les cash-flows futurs risqués et les actualiser avec le taux sans risque.
La logique économique de la marge de risque est qu’une tierce partie n’accepterait pas
la compensation pour ce transfert si un tel paiement reflète seulement la valeur présente des
cash-flows au taux sans risque. Dès lors, un échange des provisions devrait requérir une prime
ou marge de risque en plus de la valeur présente des engagements actualisés au taux sans
risque.
76
Le QIS3 suggère l’utilisation de la méthode « coût du capital » pour calculer la marge
de risque en plus du best estimate pour avoir la provision technique souhaitée. Cependant,
comme n’importe quel méthode, elle possède un défaut c’est qu’on ne sait pas exactement
quand est le « run-off ». La méthode proposée par WANG [2003] pourrait corriger ce
problème. Elle est basée sur « l’approche des cash-flows » i.e. la probabilité des cash-flows
futurs risqués sera modifiée en appliquant la transformation de Wang et le taux d’actualisation
est le taux sans risque. En gros, cette méthode consiste à transformer la variable aléatoire
initiale en une autre variable pour laquelle on aura juste besoin de calculer l’espérance.
X.2. Transformation de WANG:
On sait qu’on peut calculer l’espérance d’une variable aléatoire (un risque) par sa
fonction de survie.
0 0
( ) ( ) ( )X XE X xf x dx S x dx∞ ∞
= =∫ ∫ où ( ) 1 ( )X XS x F x= −
L’idée de Wang est de changer cette fonction de survie en lui appliquant une fonction
g qui capture tous les risques que peut entraîner la variable X. Autrement dit, on doit chercher
une fonction g qui va créer une autre distribution Y tel que ( ) ( ( ))Y XS t g S t=
Prime de risque ajustée:
'
'
( ) ( ) ( ( )) ( ( )) ( ( ))
( ( )) ( ( )) 1
X X X
X X
H X E Y g S x dx xg S x d F x
g S x d F x
= = =
=
∫ ∫∫ (Intégration par partie)
Comparé à E(X), H(X) peut être interprétée comme une espérance corrigée de X où le
paiement x reçoit un poids ' ( ( ))Xg S x , et la somme de ces poids est égale à 1.
La fonction g possède des caractéristiques qui rendent H(X) > E(X)
77
WANG [2000] propose une fonction g qui a les caractéristiques suivantes :
1( ) [ ( ) ]g u uλ λ−= Φ Φ + où Φ est la fonction de répartition de la loi normale standard.
λ est un paramètre à estimer représentant le « market price of risk »
1) H est une fonction croissante de λ , et préserve « the first and second order stochastic
dominance ».
2) Cette fonction satisfait 4 approches :
+ Le traditionnel principe d’écart-type
+ La théorie du risque économique de Yaari
+ Le modèle CAPM
+ La théorie de pricing des options.
Cas particulier :
Si ( , ²)X N μ σ→ alors ( , ²)Y N μ λσ σ→ +
Si ( , ²)X LN μ σ→ alors ( , ²)Y LN μ λσ σ→ +
La détermination du paramètre λ est l’élément clé de cette méthode. En fait, le « Draf
Statement of Principles (DSOP) suggère que le paramètre λ devrait être déterminé pour
refléter « market’s risk preference ».
Pour la méthode de quantile proposée dans le QIS1 et QIS2, le quantile 75% est
comparable au 1(0,75) 0,67λ −= Φ = .
78
XI. Conclusion:
Dans l’étude que j’ai proposé, l’actif (taux d’intérêt, actions, titre immobiliers) et le passif
(provisions) ont tout deux été modélisés en vue d’obtenir le capital de solvabilité requis. Le
choix de modèle ainsi que son calibrage demande beaucoup de compétences techniques, de
même que les ordinateurs puissants pour l’application numérique avec la méthode de
simulation Monte-Carlo.
Toutefois, il est important de signaler que certains éléments et distinctions (que je n’ai pas
détaillés faute de temps), constituent des facteurs importants du Solvency II, à savoir :
- évolution des cours et des dividendes/loyers des actifs financiers comme OPCVM,
obligations convertibles…
- évolution de l’inflation,
- défaut des émetteurs d’obligations
- modélisation et traitement particulier des sinistres catastrophiques,
- réassurance de tout types (proportionnelle, excédent de sinistre, stop loss...)
- défaut des réassureurs,
- dépendance entre les branches.
- provisions pour primes
- évolution de la souscription
Finalement, la méthode de calcul de provision technique « fair value » par la transformation
de Wang est très intéressant et mérite d’être étudiée plus profondément.
79
XII. Annexes:
Annexe 1 :
Loi du rendement du modèle à sauts :
La densité de r sur une période s’écrit :
2
2 22 20
²( )2( ) exp
2( )2 !
n
rn uu
xef xnn n
λσμλ
σ σπ σ σ
− ∞
=
⎡ ⎤⎡ ⎤⎧ ⎫− +⎢ ⎥⎢ ⎥⎪ ⎪= −⎢ ⎥⎢ ⎥⎨ ⎬++⎢ ⎥⎢ ⎥⎪ ⎪
⎢ ⎥⎢ ⎥⎩ ⎭⎣ ⎦⎣ ⎦
∑
Démonstration :
D’après le théorème des probabilités totales :
( ) ( )( ) | *s sn
P r x P r x N n P N n= = = = =∑
Deux cas se présentent alors :
( ) ( ) ( ) ( )( ) | 0 * 0 | 1 * 1s s s sP r x P r x N P N P r x N P N= = = = = + = ≥ ≥
On note :
( ) ( )| 0 * 0s sA P r x N P N= = = = le cas où il n’y a pas de saut entre t et t+s
( ) ( )| 1 * 1s sB P r x N P N= = ≥ ≥ le cas où il se produit au moins un saut (à la hausse ou à la
baisse) sur la période [t, t+s].
Donc
( ) ( )1
| *s sn
B P r x N n P N n∞
=
= = = =∑
Ainsi, grâce aux densités conditionnelles, on trouve la loi de r(s) :
( ) ( )|0 |1
( ) ( )* 0 ( )*r r s r n sn
f x f x P N f x P N n∞
=
= = + =∑
On va maintenant déterminer les lois conditionnelles du rendement connaissant le
nombre de sauts afin d’en expliciter la loi.
80
Cas 1 : n=0
2 2 20
22
|0 2
1 1( , ) ( ) ,2 2
1 1 1( ) *exp *2 22r
r t t s s Z s N s s
f x x sss
μ σ σ μ σ σ
μ σσσ π
⎛ ⎞⎛ ⎞ ⎛ ⎞+ = − + −⎜ ⎟ ⎜ ⎟⎜ ⎟⎝ ⎠ ⎝ ⎠⎝ ⎠
⎛ ⎞⎡ ⎤⎛ ⎞⎜ ⎟⇒ = − − −⎜ ⎟⎢ ⎥⎜ ⎟⎝ ⎠⎣ ⎦⎝ ⎠
Cas 2 : 1n ≥
( ) ( )
( ) ( )
2
1
2 2
1
2 2 2
22
| 2 22 2
1( , ) ( )2
0, 0,
1( ) ,2
1 1 1( ) *exp *222
n
n ii
n
i u i ui
n u
r nuu
r t t s s Z s U
U N U N n
r s N s s n
f x x ss ns n
μ σ σ
σ σ
μ σ σ σ
μ σσ σπ σ σ
=
=
⎛ ⎞+ = − +⎜ ⎟⎝ ⎠
⇒
⎛ ⎞⎛ ⎞⇒ − +⎜ ⎟⎜ ⎟⎝ ⎠⎝ ⎠
⎛ ⎞⎡ ⎤⎛ ⎞⎜ ⎟= − − −⎜ ⎟⎢ ⎥⎜ ⎟+ ⎝ ⎠⎣+ ⎝ ⎠
→
⎦
→
∑
∑
De plus,
( ) ( )( ) exp!
n
s sN P P N nnλλ λ⇒ = = −→
Finalement, le rendement sur une période s’écrit :
( ) ( )
( )( ) ( )
|0 |1
22
2 22 20
( ) exp * ( ) exp ( )!
1exp 2( ) *exp
2 2! 2
n
r r r nn
n
rn uu
f x f x f xn
x sf x
s nn s n
λλ λ
μ σλ λ
π σ σπ σ σ
∞
=
∞
=
= − + −
⎡ ⎤⎡ ⎤⎛ ⎞⎡ ⎤⎛ ⎞⎢ ⎥⎢ ⎥− −⎜ ⎟⎜ ⎟⎢ ⎥− ⎢ ⎥⎝ ⎠⎢ ⎥⎜ ⎟⎣ ⎦⇒ = −⎢ ⎥⎢ ⎥⎜ ⎟++⎢ ⎥⎢ ⎥⎜ ⎟⎜ ⎟⎢ ⎥⎢ ⎥⎝ ⎠⎣ ⎦⎣ ⎦
∑
∑
81
Annexe 2 :
Le moment centré d’ordre 2k de r s’écrit :
2 2 22
0
(2 )!( ) ( )2 ! !
nk k
k ukn
km E r m e nk n
λ λ σ σ∞
−
=
⎡ ⎤= − = +⎣ ⎦ ∑
Démonstration :
( )( )
( ) ( ) [ ] ( )2 2 2
2 22 20
1 1*exp * exp!22
nk k
n uu
E r m x m x m dxnnn
λλσ σπ σ σ
∞∞
= −∞
⎛ ⎞⎜ ⎟− = − − − −⎜ ⎟++ ⎝ ⎠
∑ ∫
Posons :
( )( )2 2
2 2
1 *( ) u
u
u x m x m u nn
σ σσ σ
= − ⇒ − = ++
D’où
( )2 2
1
u
du dxnσ σ
=+
On a alors :
( ) ( ) ( )
( ) ( )
2 222 2 2
0
2 222 2
0
exp exp! 22
exp exp! 22
n k kku
n
n kk
un
u uE r m n dun
u un dun
λλ σ σπ
λλ σ σπ
∞∞
= −∞
∞∞
= −∞
⎡ ⎤− = − + −⎢ ⎥
⎣ ⎦⎡ ⎤
= − + −⎢ ⎥⎣ ⎦
∑ ∫
∑ ∫
Or 2 2 2 !exp
2 2 !2
k
k
u u kdukπ
∞
−∞
⎡ ⎤− =⎢ ⎥⎣ ⎦
∫ (par intégration par parties)
Donc,
2 2 2
0
(2 )!( ) ( )2 ! !
nk k
ukn
kE r m e nk n
λ λ σ σ∞
−
=
⎡ ⎤− = +⎣ ⎦ ∑
82
Bibliographies:
BAGARRY M. [2006] “Economic capital: a plea for the Student copula”, présenté à l’ICA
2006 à Paris.
BALLOTA L. [2004] « Alternative framework for the valuation of participating life insurance
contracts ». Proceedings of the 14th AFIR Colloquium, 337-367.
BRENNAN M., SCHWARTZ E. [1979] « A continuous time approach to the pricing of
bonds », Journal of Banking and Finance, vol. 3, 133-155.
EMBRECHT P. [2001] Extremes in economics and the economics of extremes, talk at the
SemStat meeting on Extreme Value Theory and Applications in Gothenburg on December 13,
2001.
FITOUCHI D. [2005] « Solvency II : Du projet de réforme à l’approche par les modèles
internes », Editions DEMOS, collection comptabilité et finances.
HO T.S.Y., LEE.S [1986] « Term structure movements and pricing interest rate contingent
claims », Journal of finance, vol.41, 1011-1028
HAYER D. [2001] « A random walk model for the paid loss development » , The casualty
Actuarial Society Forum Fall 2001 Edition, pp 239-254
HAYNE R. [1985], « An Estimate of Statistical Variation in Development Factor Methods»
Proceeding of the Casualty Actuarial Society.
HEATH D., JARROW R., MORTON K. [1990] « Bond pricing and the term structure of
interest rate: a discret time approximations », Journal of financial and quantitative analysis,
vol 25, 419-440.
IWAKIRI N. et NODA T. [2003]: « Study of Insurance IFRS » présenté à « 12th East Asian
Actuarial Conference ».
KARIM CHEIKH BENANI [2003] « Mesures de risques de marché et préférabilité
universelle »
LAMBERTON D., LAPEYRE B. «Introduction au calcul stochastique appliqué à la
finance », Editions Ellipses.
LINDSKOG F., EMBRECHT P., McNEIL A. [2001] « Modelling dependence with copulas
and application to risk management ».
LONGSTAFF F. [1989] « A nonlinear general equilibrium model of the term structure of
interest rate », Journal of financial economics, vol. 23, 195-224.
83
MORGAN E., SLUTZKY M. [2006] “Preparing for Solvency II – Theoretical and pratical
issues in building internal economic capital models using nested stochastic projections”,
présenté à l’ICA 2006 à Paris.
NELSEN R. B. [1998] « An introduction to copulas », Springer Verlag
PLANCHET F., THEROND P-E [2005] « L’impact de la prise en compte des sauts boursiers
dans les problématiques d’assurance ». Proceedings of the 15th AFIR Colloquium
PLANCHET F., THEROND P et JACQUEMIN J.[2005] « Modèles financiers en
assurance », Editions Economica.
RAMEZANI C.A, ZENG Y. [1998] « Maximum likelihood estimation of asymetric jump-
diffusion processes: application to security prices », Working paper.
VASICEK O. [1977] « An equilibrium characterisation of the term structure », Journal of
financial economics, vol 5, 177-188.
WANG S. S. [2000] « A class of distortion operators for pricing financial and insurance risk »
The journal of risk and insurance, 2000, Vol.67, No. 1, pp.15-36.
WANG S.S. [2003] « A universal framework for pricing financial and insurance risk » Astin
Bulletin, Volume 32, No.2, pp 213-234
ZEEVI A., MASHAL R. [2002] « Beyond correlation: Extreme co-movements between
financial assets »
Disponible sur http://www2.gsb.columbia.edu/faculty/azeevi/PAPERS/BeyondCorrelation.pdf
Mémoires d’actuariat :
Mémoire ISFA : Sadek Hami « Modèles DFA : présentation, utilité et application »