176

RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier
Page 2: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier
Page 3: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

RÉSUMÉ

L’allongement de la durée de vie humaine constitue un risque majeur pour tout assureurvie. Ce risque et l’existence d’anti-sélection à la souscription d’un produit d’épargne justifientla construction de tables de mortalité d’expérience prospectives.

C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude.

Dans un premier temps, le contexte des travaux à venir est présenté. Démographiquement,la tendance actuelle est à une augmentation constante de l’espérance de vie. Cela fait naîtrele risque dit de longévité qui est exacerbé dans le cas des produits de retraite réglementée.Nous détaillons également le rôle technique des tables de mortalité en actuariat et le cadreréglementaire associé.

Ensuite, nous démontrons l’insuffisance des données à disposition et la nécessité d’unetable d’expérience basée sur une référence externe. Nous décidons alors de construire, à partirdes données démographiques de l’Human Mortality Database et selon deux méthodologiesdifférentes, ces tables de mortalité de référence.

Le premier modèle considéré est paramétrique et ajuste les logarithmes des quotients demortalité à la fonction logistique. Le second modèle se veut semi-paramétrique et explore uneapproche basée sur le modèle SARIMA issu de la théorie des séries temporelles.

La mise en place d’un modèle relationnel proche du modèle de Brass permet d’obtenirfinalement différentes tables de mortalité d’expérience. Ces dernières sont plus prudentes entermes d’espérance de vie que les tables réglementaires mais ne convergent pas vers une seuleestimation de la mortalité d’expérience future.

Enfin, nous plaçons dans un cadre opérationnel les tables d’expérience précédemment ob-tenues en examinant leur impact respectif sur les provisions techniques. Cet impact porte natu-rellement sur chaque rente en cours de service (variation de la provision mathématique) maisil s’étend également aux rentes en phase d’épargne pour lesquelles une garantie de table existe(exigence de provisions dites "pour écart capital constitutif - provision mathématique").

Mots-clés : Risque de longévité, tables de mortalité d’expérience prospectives, Human Mor-tality Database, fonction logistique, séries temporelles, modèle relationnel de Brass, provisionstechniques.

Page 4: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier
Page 5: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

ABSTRACT

Longevity in the population is increasing. This great duration of individual life becomes aserious risk for any life insurer. Thus the risk and the adverse selection which stem both fromthe subscription of a saving product justify the construction of prospective experience-basedmortality tables.

This statistical work based on AXA France "Individual retirement" portfolio data is ourpurpose.

First of all, the context of oncoming work is described. From a demographic point of view,the trend is to increase life expectancy. It instills the longevity risk which is exacerbated in thecase of regulated pension products. The technical role of mortality tables in actuarial scienceand the regulatory framework are also explained.

Then, we demonstrate data limitations and the need to get an experience table based on anexternal reference. From the Human Mortality Database and according to different methodo-logies, we decide to establish these reference mortality tables.

On the one hand, we use a parametric model which fits the logarithms of the death ratesto logistic function. On the other hand, we explore a modelisation which aims to be semi-parametric by employing time series and its SARIMA model.

Implementing a similar model to the Brass relational one allowed us to establish in theend several experience mortality tables. These last ones are more cautious in terms of life ex-pectancy than regulatory mortality tables but they don’t converge toward a single estimate offuture mortality.

Finally, we manage an operational application by looking at fluctuations of technical re-serves resulting from the use of these experience tables. This impact on provisioning affectsnaturally all these ongoing annuities (change in mathematical reserve) but also annuities inthe accumulation phase for which a table guarantee exists (requirement of a "purchase price -mathematical reserve difference" provision).

Key-words : Longevity risk, prospective experience mortality tables, Human Mortality Da-tabase, logistic function, time series, Brass relational model, technical reserves.

Page 6: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier
Page 7: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

NOTE DE SYNTHÈSE

Introduction

Depuis la fin de la Seconde Guerre mondiale, la durée de vie des hommes et des femmesaugmente incontestablement. Ce fait démographique pose une problématique assurentiellemajeure, celle de la prévision à long terme de la longévité humaine. En assurances, des tablesde mortalité réglementaires apportent une première réponse mais chaque assureur peut égale-ment s’adapter à sa propre mortalité via la construction de tables dites d’expérience.

Ici, ce long travail technique est réalisé à partir des données du portefeuille "Retraite in-dividuelle" d’AXA France et en employant comme référence externe les données de l’HumanMortality Database.

Première Partie – Contexte de l’étude et analyse du portefeuille "Retraiteindividuelle" d’AXA France

Chapitre I - Le risque de longévité

Au cours du dernier siècle et demi, la révolution pasteurienne (1885) et la révolution car-diovasculaire (années 1960) ont permis à la population mondiale de gagner en espérance de vieau rythme de 3 mois par an et ce, malgré de multiples guerres. Actuellement, le maintien à longterme de cette tendance est un sujet de débats entre démographes, biologistes et statisticiens.

Cette incertitude sur les niveaux de longévité futurs fait alors peser un risque techniqueaux assureurs vie appelé risque de longévité. Ce risque est prédominant chez certains produitscomme ceux de retraite réglementée où il y a nécessairement versement de rentes viagères auxassurés.

Chapitre II - Mathématiques actuarielles et tables de mortalité

Une table de mortalité indique les différentes probabilités de décès d’une population don-née. Lorsqu’une table de mortalité est construite à partir des données d’une entreprise d’assu-rance et en tenant compte de l’évolution de la longévité on parle plus précisement d’une tablede mortalité d’expérience prospective.

Plusieurs hypothèses actuarielles seront nécessaires de manière récurrente par la suite.Dans un souci de prudence du point de vue de l’assureur :

– on suppose que les décès sont répartis uniformément dans l’année : ∀t∈ [0 ; 1], tQx = t Qx– on retient la méthode de fermeture de table de Coale & Kisker en fixant l’âge seuil pour

la linéarité des µx à 85 ans et l’âge ultime de la table à 120 ans pour lequel µ120 = 0,8

Chapitre III - Problématiques et enjeux du portefeuille d’étude

Dans le cadre de cette étude, ce sont les rentiers du portefeuille "Retraite individuelle"d’AXA France pour lesquels la phase de rentes a débutée entre le 01/01/2000 et le 31/12/2012dont l’exposition au risque décès est observée.

Page 8: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page viii Note de synthèse

D’un point de vue statistique, cet échantillon n’est pas assez volumineux pour être jugésuffisant. De plus, en raison de l’anti-sélection inhérente à tout contrat d’assurance, la mortalitéde ce jeu de données est moins importante comparée à celle de la population générale.

Il est alors nécessaire de construire des tables de mortalité d’expérience prospectives enutilisant un modèle relationnel afin de tenir compte des deux précédentes caractéristiques duportefeuille d’étude. On retient comme référence externe les données de l’Human MortalityDatabase (HMD) de sorte d’étudier également la longévité de la population française.

Finalement, la construction de tables d’expérience prospectives se décompose en :

1. La construction, selon deux modèles distincts et à partir des données HMD, de tables demortalité de référence.

2. Le positionnement des données d’expérience et des tables de référence HMD via un mo-dèle relationnel.

Deuxième Partie – Construction de tables d’expérience prospectiveset applications opérationnelles

Chapitre IV - Tables de référence à partir de l’Human Mortality Database

La démarche de construction des tables de référence est la suivante : à partir de l’ensembleQx,t, (x, t) ∈ J60; 95K × J1950; 2012K

de données HMD, on cherche une projection de ces

quotients de mortalité jusqu’en 2060 et selon deux méthodologies différentes.

• Modèle paramétrique et table "HMD Logistique Femmes"

On considère la "fonction logistique à quatre paramètres" définie pour tout x ∈ R par

f (A, B, xmid, scal; x) = A +B− A

1 + exp(

xmid−xscal

)C’est parce que chacun des paramètres a une interprétation graphique et en raison de la simili-tude entre les graphes des fonctions de type logistique avec les courbes des multiples fonctionsx 7→ ln(Qx,t) que cette famille de fonctions et cette écriture ont été choisies.

En fixant l’année t, il est possible de proposer un modèle de régression non linéaire. Aussi,les quatre paramètres peuvent être estimés à l’aide de la méthode des moindres carrés non li-néaires. L’application de cette méthode pour l’année t = 2012 permet d’obtenir quatre estima-teurs significatifs, des résidus conformes aux hypothèses de validité du modèle et un intervallede confiance comprenant une majorité des données initiales : le modèle et les valeurs ajustéesqui en découlent sont ainsi recevables statistiquement.

Après répétition du précédent processus d’estimation sur l’ensemble des années d’obser-vation, une structure d’évolution temporelle des paramètres estimés se dégage : les paramètresasymptotiques (A et B) sont stables tandis que les paramètres structurels (xmin et scal) évo-luent linéairement. On obtient ainsi, in fine, une formule générale pour les ln(Qx,t) valablesur J60; 95K× J1950; 2060K : l’ensemble de ces valeurs ajustées (t ∈ J1950; 2012K) ou projetées(t ∈ J2013; 2060K) forme la table de mortalité de référence "HMD Logistique Femmes" recher-chée.

Page 9: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Note de synthèse Page ix

• Séries temporelles et table "HMD Séries T. Femmes"

Pour palier à l’inexistance a priori d’une série temporelle comprennant les Qx,t initiaux, ilfaut considérer celle obtenue après la mise bout à bout des lignes de la matrice de donnéesinitiale. On obtient alors une série temporelle saisonnière où le caractère saisonnier permet deconserver le caractère bidimensionnel (âge et génération) inhérent à la mortalité. En associantla série temporelle précédemment construite à un modèle SARIMA, un modèle autoprojec-tif saisonnier, on a alors une modélisation semi-paramétrique utilisant la théorie des sériestemporelles. Toutefois, ce modèle ne peut être utilisé directement : il faut au préalable lisserl’ensemble des ln(Qx,t).

La méthode de lissage appliquée est la méthode de Whittaker-Henderson en dimension 2car cette méthode est non-paramétrique et confère l’avantage de combiner un critère de régu-larité avec un critère de fidélité. Ici, ces deux critères ont été pris en compte de manière égale,sans affecter de poids aux données initiales et en fixant à 2 les deux paramètres de lissageunidimensionnels.

Dès lors, on peut réaliser l’estimation du modèle retenu en suivant la méthode de Box &Jenkins. Cette méthode peut se résumer en :

– une première phase d’identification, l’objectif est de déterminer empiriquement des de-grés possibles pour le modèle SARIMA ;

– une deuxième phase d’estimation, il s’agit d’obtenir tous les paramètres du modèle étantdonné un ensemble d’ordres fixés ;

– une dernière phase de diagnostic, un critère de décision permet finalement d’exhiber lemeilleur modèle parmi les divers modèles valablement estimés.

Une fois l’estimation du modèle réalisée, des prévisions de la série temporelle d’étude s’ob-tiennent directement grâce à la formule et aux propriétés du modèle SARIMA. L’ensemble desvaleurs initiales lissées et des prévisions calculées via le modèle forme la table de mortalité deréférence "HMD Séries T. Femmes".

• Robustesse des modèles et backtesting des tables de référence

Puisque les projections calculées dépendent directement des données initiales, il est néces-saire d’étudier la robustesse des deux modèles proposés c’est-à-dire la capacité à généraliserles résultats obtenus indépendemment de l’échantillon initial. Pour chaque modèle, on pro-pose ainsi de faire varier le début de notre plage de données (en âges et en années) et d’étudierdes espérances de vie résiduelles et des taux d’améliorations provenant de plusieurs modélisa-tions. La plage de données initiale se situe à la moyenne de chacune des études de robustesse :on conserve ainsi les deux tables de référence précédemment construites.

Outre la validité statistique, la capacité prédictive des deux modèles doit être évaluée autravers un backtesting. On considère alors que les dix dernières années de données sont inexis-tantes et deux résultats émergent de ce backtest :

– la plage de données initiale donne les meilleures prévisions et peut donc être considéréecomme optimale ;

– les prévisions et les valeurs cible sont statistiquement en adéquation.

Chapitre V - Tables de mortalité d’expérience

L’estimation des quotients de mortalité d’expérience à partir des données du portefeuille estréalisée en suivant l’estimateur de Hoem. Le choix de cet estimateur s’explique par l’absence

Page 10: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page x Note de synthèse

de biais et par la simplicité des calculs.Dans un premier temps, on applique le modèle relationnel de Brass à chaque année d’ob-

servation : le processus d’estimation de chaque couple de paramètres est alors identique à celuides deux coefficients d’une régression linéaire simple. Ce modèle s’avère finalement inadaptécompte tenu de l’impossibilité de modéliser de façon fiable l’évolution temporelle des para-mètres estimés.

Cela nous conduit à considérer une variation du modèle de Brass proposé par Planchet &Kamega où la relation linéaire entre les logits d’expérience et les logits de référence est étendueà toutes les années d’observation moyennant une modélisation non linéaire. Après estimationdes deux paramètres, l’expression mathématique du modèle et la donnée d’une table de réfé-rence permettent d’obtenir mécaniquement une table d’expérience. Finalement, ce sont doncquatre tables d’expérience (deux par méthodologie et deux par sexe) qui sont construites.

En termes d’espérances de vie résiduelles, les tables d’expérience obtenues se veulent glo-balement plus prudentes que les tables réglementaires. Les tables "Logistique" s’écartent destables réglementaires tandis que le positionnement des tables "Séries T." diffère selon le sexe etn’est pas si éloigné des tables réglementaires. A noter que les dynamiques masculine et fémi-nine face à la longévite sont cohérentes l’une avec l’autre et ce, bien que les sexes aient toujoursété traités séparemment.

Chapitre VI - Impact des tables d’expérience sur le provisionnement

Comme toute entreprise, chaque compagnie d’assurances doit constituer des provisions.Outre l’exigence comptable, la spécificité du métier d’assureur amène le législateur à imposerle calcul de provisions dites techniques.

Une provision mathématique existe à tout instant du déroulé d’un contrat de rentes via-gères. Elle est égale à la différence entre les valeurs actuelles des engagements de l’assureur etde l’assuré. Si une garantie de table est souscrite, il faut constituer une "provision pour écartcapital constitutif - provision mathématique" qui se définit comme le montant nécessaire aufinancement de cette garantie qui n’est pas compris dans la provision mathématique.

Dès lors, tout changement de table impacte le provisionnement aussi bien pour les contratsen phase d’épargne (s’ils comprennent une garantie de table) que pour les contrats en phase derestitution. Aussi, il est possible de mesurer l’écart de provisionnement existant entre les tablesd’expérience "Logistique" et les tables d’expérience "Séries T.".

L’écart total en termes de variation du provisionnement est de l’ordre de 57% ce qui signifieque le surplus de provisionnement induit par les tables "Logistique" est légérement supérieurau double de celui consécutif à l’utilisation des tables "Séries T.".

Conclusion

D’un point de vue numérique, les résultats des deux méthodologies de travail sont sensible-ment différents malgré des travaux valables d’un point de vue théorique : ceci n’est nullementproblématique compte tenu de l’approche comparative initiale et confirme la complexité destravaux de prévision relatifs à la durée de la vie humaine.

Dès lors, ce constat doit simplement nous inciter, non seulement à une certaine prudencedans l’exploitation des différentes tables de mortalité construites, mais également à proposerde nouveaux modèles ou à remettre en question certaines hypothèses empiriques.

Page 11: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

SYNTHESIS

Introduction

Since the end of the Second World War, life expectancy of both men and women has beenundeniably rising. This demographic fact poses a major problem for insurance, that of makinglong term predictions of longevity. In the insurance sector, regulatory mortality tables providean initial response but each insurance company can also construct its own tables on the basisof experience.

This lengthy and technical work can be performed using AXA France "Individual retire-ment" portfolio data and by using as an external reference data from the Human MortalityDatabase.

First Part – Context of the research and analysis of the AXA France"Individual retirement" portfolio

Chapter I - Longevity risk

Over the last one and a half centuries, the revolution initiated by Pasteur (1885) and thecardiac revolution (of the 1960’s) have enabled the world population to gain life expectancy ata rate of 3 months per year, in spite of numerous wars. Currently, the long term continuationof this trend is a subject of controversy amongst demographers, biologists and statisticians.

This uncertainty on future levels of longevity weighs on life insurers as a technical riskknown as longevity risk. This risk prevails among certain products such as regulated pensionplans where there is a required payout to insured parties of an annuity.

Chapter II - Actuarial mathematics and mortality tables

A mortality table provides various probabilities for decease for a given population. Whena mortality table is constructed on the basis of insurance company data, taking into accountchanges in life expectancy, a more precise phrase is a prospective experience-based mortalitytable.

It will be necessary to use a number of actuarial assumptions. In order to be cautious fromthe insurer’s point of view :

– we assume that deaths occur uniformly throughout the year : ∀t∈ [0 ; 1], tQx = t Qx– we choose the Coale & Kisker table closing method by laying down the age threshold for

linearity µx at 85 years and the final age at 120 years for which µ120 = 0.8

Chapitre III - Problématiques et enjeux du portefeuille d’étude

As part of this research study, receivers of income from the AXA France "Individual reti-rement" portfolio whose annuity payments began between 01/01/2000 and 31/12/2012 arestudied from the point of view of decease exposure risk.

From the statistical point of view, this sample is not sufficiently large to be thought suffi-

Page 12: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page xii Synthesis

cient. Moreover, due to the adverse selection inherent in all insurance contracts, mortality forthis data range is less significant compared to that of the population at large.

It is therefore necessary to construct prospective experience-based mortality tables by usinga relational model in order to take into account the two previously mentioned characteristics ofthe research portfolio. We take as an external reference the data given by the Human MortalityDatabase (HMD) so as to study life expectancy of the French population at the same time.

Finally, the construction of prospective experience-based tables can be broken down into :

1. The construction of reference mortality tables based on HMD data, following two distinctmodels.

2. The positioning of the experiential data and the HMD reference tables using a relationalmodel.

Second Part – Construction of experience-based tables and operationalapplications

Chapter IV - Reference tables based upon the Human Mortality Database

The procedure for construction of reference mortality tables is as follows : from the setQx,t, (x, t) ∈ J60; 95K× J1950; 2012K

of HMD data, we search for a projection of these death

rates up to 2060, using two different methodologies.

• Parametric model and "Women HMD Logistic" table

We consider the "four parameter logistic function" defined for all x ∈ R by

f (A, B, xmid, scal; x) = A +B− A

1 + exp(

xmid−xscal

)It is because each of the parameters has a graphic interpretation and due to the similarity bet-ween the logistic type function graphs and the multiple x 7→ ln(Qx,t) function curves that thisfamily of functions and this notation have been selected.

By fixing the year t, it is possible to provide a non linear regression model. As a result, thefour parameters can be estimated with the help of the non-linear least squares method. Appli-cation of this method for year t = 2012 makes it possible to obtain four significant estimators,residues complying with the validity assumptions of the model and a confidence interval cove-ring a majority of the initial data : the model and the adjusted values deriving from it are thusstatistically acceptable.

After repeating the preceding estimation process on all observation years, a temporal de-velopment structure for the estimated parameters emerges : the asymptotic parameters (A andB) are stable whilst the structural parameters (xmin and scal) change linearly. Therefore, wefinally arrive at a general formula for the ln(Qx,t) valid over J60; 95K× J1950; 2060K : the set ofthese adjusted values (t ∈ J1950; 2012K) or projected values (t ∈ J2013; 2060K) form the desired"Women HMD Logistic" reference mortality table.

Page 13: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Synthesis Page xiii

• Time series and "Women HMD Time Series" table

To compensate for the a priori non-existence of a time series covering the initial Qx,t, thatobtained after the end to end placing of the initial data matrix lines must be considered. Wethen obtain a seasonal time series where this seasonal feature enable us to preserve the bi-dimensional character (age and generation) inherent in mortality. By associating the previouslyconstructed time series with a SARIMA model, an auto-projected seasonal model, we obtain asemi-parametric modelling using the theory of time series. However, this model cannot be useddirectly : we must first smooth out all the ln(Qx,t).

The smoothing method applied is the Whittaker-Henderson method in dimension 2 be-cause this method is non-parametric and provides us with an advantage by combining a regu-larity criterion and a precision criterion. Here, these two criteria have been taken equally intoaccount, without allotting weights to initial data and by fixing at the 2 both unidimensionalgraduation parameters.

One can now carry out an estimate of our model by using the Box & Jenkins method. Thismethod can be summarised as follows :

– an initial identification stage, the goal is to determine empirically possible degrees for theSARIMA model ;

– a second estimation stage, the aim is to obtain all the parameters of the model given a setof fixed orders ;

– a final diagnostics stage, a decision criterion finally enabling us to display the best modelfrom the various validly derived models.

Once the model has been estimated, predictions for the research time series are obtaineddirectly thanks to the SARIMA model formula and to its properties. Both the graduated ini-tial values and the predictions calculated via the model form the "Women HMD Time Series"reference mortality table.

• Robustness of the models and reference tables back-test

Since the projections calculated depend directly on the initial data, the robustness of thetwo models must be studied which is in other words, the capacity for generalisation of theresults obtained independently of the initial sample. For each model, we propose varying thebeginning of our data range (by ages and years) and studying residual life expectancy andimprovement rates deriving from several modellings. The initial data range can be found at theaverage for each of the robustness tests : one thus maintains the two reference tables previouslyconstructed.

In addition to statistical validity, the predictive capacity of the two models must be assessedby back-testing. We assume therefore that the last ten years of data do not exist and two resultsemerge from this back-test :

– the initial data range gives the best predictions and can consequently be considered asoptimal ;

– the predictions and target values are statistically adequate.

Chapter V - Experience-based mortality tables

Estimating experiential death rates on the basis of portfolio data is carried out using theHoem estimator. The choice of this estimator is explained by the absence of bias and by simpli-city of calculation.

Page 14: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page xiv Synthesis

In a first phase, we apply the Brass relational model to each observation year : the esti-mation process for each pair of parameters is then identical to that of the two coefficients fora simple linear regression. This model turns out to be unsuitable given the impossibility ofreliable modelling of temporal changes of the estimated parameters.

That leads us to consider a variation on the Brass model proposed by Planchet & Kamegawhere the linear relationship between the experiential logits and the reference logits is extendedto all observation years using non-linear modelling. After estimation of the two parameters,the mathematical expression of the model and the datum from a reference table enable anexperience-based table to be obtained mechanically. Finally then, we get four experience-basedmortality tables (two per methodology and two per sex).

In terms of residual life expectancies, the experience-based tables obtained are overall moreprudent than the regulatory tables. The "Logistic" tables diverge from the regulatory tableswhilst the positioning of the "Time Series" tables differs depending upon sex and does notdiverge very much from the regulatory tables. It should be noted that masculine and femininedynamics with respect to life expectancy are coherent one to the other, although the sexes havealways been treated separately.

Chapter VI - Impact of experience-based tables on provisioning

As with any enterprise, each insurance company must make provisions. In addition to ac-counting requirements, the special character of the insurance profession leads the legislature toimpose calculation of so-called technical reserves.

A mathematical reserve exists throughout the operation of an annuity contract. It is equalto the difference between the current values of the commitments made by the insured partyand the insurer. If a table guarantee is subscribed a "purchase price - mathématical reservedifference" provision must be set up, defined as the sum required for financing this guaranteewhich is not included in the mathematical reserve.

Then any table change impacts on provisioning both for policies in the savings stage (ifthey include a table guarantee) and for policies in the pay-back stage. Hence, it is possible tomeasure the provisioning gap between the "Logistic" experience-based tables and the "TimeSeries" experience-based tables.

The variance in terms of provisioning variation is about 57% signifying that the provisio-ning surplus implied by the Logistic" tables is slightly more than double that following use ofthe "Time Series" tables.

Conclusion

From the numeric point of view, the results of the two working methodologies are noticea-bly different in spite of calculations which are theoretically valid : this is not at all problematicgiven the initial comparative approach and confirms the complexity of predicting length of life.

This outcome should simply encourage us not only to act prudently in the exploitation ofconstructed mortality tables, but also to propose new models or to cast doubt on some of theempirical assumptions.

Page 15: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

REMERCIEMENTS

Le présent mémoire n’est certes pas l’oeuvre de toute une vie, mais il n’en demeure pasmoins l’aboutissement d’un très long travail que l’on ne peut oublier.

Un investissement personnel mais jamais solitaire : je souhaite ainsi profiter pleinementde cette page qui m’est disponible et avoir quelques mots pour l’ensemble des personnes quim’ont aidé, soutenu et qui ont donc rendu ce mémoire possible.

Mes premiers et éternels remerciements vont évidemment à Sandrine CHAN HEW WAI,ma tutrice durant mon année d’alternance. Sandrine, une nouvelle fois merci pour tout. Je n’ou-blierai pas ta disponibilité et ta sympathie de tous les instants, tes connaissances techniquessans failles, ton investissement permanent ou encore tes multiples et remarquables relecturesde mon mémoire. Ton parfait encadrement est vraiment à l’origine de mon mémoire alors unedernière fois : "Merci !".

Je remercie Caroline ATLANI pour avoir su me faire confiance en m’intégrant au sein deséquipes du Pôle Epargne. Je remercie également Nicolas PRESTAT qui a suivi avec attention lafin de mon mémoire et m’a ainsi aidé à l’achever. J’adresse aussi un merci général à l’ensembledu plateau Epargne pour l’année passée à leurs côtés.

Enfin, pour Virginie, Jérôme, Yoann, Layla et Estelle (alias la team Axa Wealth Management)qui ont bien voulu "m’adopter" cet été : votre accueil et votre gentilesse m’ont marqué. Ce futun véritable plaisir d’être parmi vous et de profiter de votre bonne humeur permanente !

Ensuite, je me dois de remercier Ying JIAO, ma tutrice académique, pour les échangesconstructifs que nous avons eu, ses remarques pertinentes et sa réactivité et disponibilité face àmes sollicitations.

Je remercie également Christian ROBERT et Frédéric PLANCHET pour m’avoir répondurapidement et précisement lorsque j’ai sollicité leur aide respective.

Special thanks to Uta ZIMMERLINKAT who have agreed to read over my abstract and whohave provided some precious improvements.

Par ailleurs, je tiens à remercier également l’ensemble des personnels de l’ISFA. C’est bienentendu l’ensemble des professeurs pour les trois ans d’enseignements mais également le per-sonnel administratif et de direction qui était toujours disponible et agréable.

J’ai également une pensée pour tous mes amis sur lesquels j’ai toujours pu compter et quim’ont apporté un soutien nécessaire tout au long de l’écriture de ce mémoire.

A Mathieu et Hugo, merci pour votre écoute et vos conseils qui m’ont permis de reprendreconfiance en moi quand l’envie de tout abandonner était proche.

A Chadia, merci pour tes nombreuses réponses techniques qui m’ont (plus ou moins) servi.A Adrien, Voltan, Mélanie, Jonathan, Maxime et Matthias, merci pour les boucles et les dèjs

qui ont animés bien des journées.Last but not least : A Brahim, Imad, Isabelle et Serigne, j’ai adoré passer à vos côtés cette

super année d’alternance. Merci à vous pour tous nos délires mémorables et pour le reste dutemps où nous n’étions pas en reste !

Enfin, mes derniers mots iront à ma famille : même si vous n’avez pas toujours su saisirla difficulté et l’exigence d’un mémoire d’actuariat, vous m’avez soutenu, encouragé en toutescirconstances et toujours aidé dès possible. Nul doute que j’ai quotidiennement trouvé auprèsde vous l’énergie et l’envie d’aller au bout de mon mémoire.

Puisse ce travail vous rendre aussi fiers de moi que je le suis de l’avoir achevé.

Page 16: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier
Page 17: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

TABLE DES MATIÈRES

Introduction

Première partie – Contexte de l’étude et analyse du portefeuille "Retraite indi-viduelle" d’AXA France

Chapitre I Le risque de longévité 5

I.1 Longévité passée et longévité future . . . . . . . . . . . . . . . . . . . . . . . . . 5

I.1.a L’allongement de la durée de vie . . . . . . . . . . . . . . . . . . . . . . . 5

I.1.b Perspectives d’évolution de la longévité humaine . . . . . . . . . . . . . 7

I.1.c Etat de la longévité en France . . . . . . . . . . . . . . . . . . . . . . . . . 9

I.2 Présentation du périmètre d’étude : la retraite individuelle . . . . . . . . . . . . 9

I.2.a Fonctionnement de la retraite en France . . . . . . . . . . . . . . . . . . . 10

I.2.b Enjeux de la retraite individuelle . . . . . . . . . . . . . . . . . . . . . . . 11

I.2.c Composition du portefeuille "Retraite individuelle" . . . . . . . . . . . . 12

I.3 D’un constat démographique à un risque actuariel . . . . . . . . . . . . . . . . . 13

I.3.a Origine du risque de longévité . . . . . . . . . . . . . . . . . . . . . . . . 13

I.3.b Le risque de longévité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

I.3.c Décomposition du risque de longévité . . . . . . . . . . . . . . . . . . . . 15

I.4 Risque financier d’un produit d’épargne : le risque de taux à long terme . . . . 16

I.4.a Taux d’intérêt technique et risque financier associé . . . . . . . . . . . . 16

I.4.b Spécificité du risque de taux d’un portefeuille de rentes viagères . . . . 17

I.4.c Gestion du risque de taux à long terme par un assureur . . . . . . . . . . 18

Chapitre II Mathématiques actuarielles et tables de mortalité 19

II.1 Notations et hypothèses de travail . . . . . . . . . . . . . . . . . . . . . . . . . . 19

II.1.a Mathématiques élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . 19

II.1.b Concepts propres aux modèles de durée . . . . . . . . . . . . . . . . . . 20

II.1.c Hypothèse concernant la répartition des décès dans l’année . . . . . . . 21

II.2 Tables de mortalité et probabilités de survie . . . . . . . . . . . . . . . . . . . . . 23

II.2.a Définition d’une table de mortalité . . . . . . . . . . . . . . . . . . . . . . 23

II.2.b Variables et formules associées à une table de mortalité . . . . . . . . . . 24

II.2.c Tables du moment et tables prospectives . . . . . . . . . . . . . . . . . . 24

II.3 Réglementation associée aux tables de mortalité . . . . . . . . . . . . . . . . . . 25

II.3.a Tables réglementaires et tables d’expérience . . . . . . . . . . . . . . . . 25

Page 18: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page xviii Table des matières

II.3.b Evolutions réglementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

II.4 Détermination d’un modèle de fermeture de table de mortalité . . . . . . . . . . 26

II.4.a Choix de la méthode de fermeture . . . . . . . . . . . . . . . . . . . . . . 27

II.4.b La méthode de Coale & Kisker . . . . . . . . . . . . . . . . . . . . . . . . 27

II.4.c Mise en place pratique : choix des hypothèses . . . . . . . . . . . . . . . 28

Chapitre III Problématiques et enjeux du portefeuille d’étude 31

III.1 Construction du portefeuille d’étude . . . . . . . . . . . . . . . . . . . . . . . . . 31

III.1.a Définition du périmètre d’étude . . . . . . . . . . . . . . . . . . . . . . . 31

III.1.b Information disponible pour chaque rentier . . . . . . . . . . . . . . . . 31

III.1.c Exposition au risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

III.2 Analyse statistique du portefeuille "Retraite individuelle" . . . . . . . . . . . . . 33

III.2.a Indicateurs statistiques généraux . . . . . . . . . . . . . . . . . . . . . . . 33

III.2.b Mortalité du portefeuille d’étude . . . . . . . . . . . . . . . . . . . . . . . 35

III.3 Estimation à partir d’un petit échantillon . . . . . . . . . . . . . . . . . . . . . . 35

III.3.a Importance statistique de la taille de l’échantillon . . . . . . . . . . . . . 37

III.3.b Insuffisance des données du portefeuille d’étude . . . . . . . . . . . . . 38

III.4 Principe d’anti-sélection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

III.4.a Définition et anti-sélection en assurance . . . . . . . . . . . . . . . . . . . 41

III.4.b Portefeuille d’étude et anti-sélection . . . . . . . . . . . . . . . . . . . . . 43

III.5 Utilisation des données de l’Human Mortality Database . . . . . . . . . . . . . . 45

III.5.a Emploi d’un modèle relationnel . . . . . . . . . . . . . . . . . . . . . . . 46

III.5.b Présentation de l’Human Mortality Database . . . . . . . . . . . . . . . . 46

III.5.c Apports et contraintes liés au choix des données HMD . . . . . . . . . . 47

III.6 Conclusion de l’étude du portefeuille et méthodologie retenue . . . . . . . . . . 47

Deuxième partie – Construction de tables d’expérience prospectives et applica-tions opérationnelles

Chapitre IV Tables de référence à partir de l’Human Mortality Database 51

IV.1 Démarche de construction des tables de mortalité HMD . . . . . . . . . . . . . . 51

IV.1.a Modélisations de la mortalité . . . . . . . . . . . . . . . . . . . . . . . . . 51

IV.1.b Choix des données initiales . . . . . . . . . . . . . . . . . . . . . . . . . . 51

IV.1.c Construction de tables de référence HMD : méthodologie et objectifs . . 52

IV.2 Modèle paramétrique et table "HMD Logistique Femmes" . . . . . . . . . . . . 53

IV.2.a La fonction logistique à quatre paramètres . . . . . . . . . . . . . . . . . 53

IV.2.b Estimation des paramètres et validation du modèle pour l’année 2012 . 54

Page 19: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Table des matières Page xix

IV.2.c Analyse de l’ensemble des différents ajustements . . . . . . . . . . . . . 59

IV.2.d Calcul de projections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

IV.2.e Robustesse du modèle paramétrique . . . . . . . . . . . . . . . . . . . . . 64

IV.3 Séries temporelles et table "HMD Séries T. Femmes" . . . . . . . . . . . . . . . . 70

IV.3.a Séries temporelles : concepts, modèles et démarche d’étude . . . . . . . 70

IV.3.b Lissage selon la méthode Whittaker-Henderson en dimension 2 . . . . . 74

IV.3.c Estimation et prévision selon la méthode de Box & Jenkins . . . . . . . . 80

IV.3.d Pratique de la méthode de Box & Jenkins . . . . . . . . . . . . . . . . . . 83

IV.3.e Robustesse de la méthodologie semi-paramétrique . . . . . . . . . . . . 88

IV.4 Backtesting des tables de mortalité de référence . . . . . . . . . . . . . . . . . . . 91

IV.4.a Principe et mise en oeuvre du backtesting . . . . . . . . . . . . . . . . . . 91

IV.4.b Plage de données initiale et backtesting . . . . . . . . . . . . . . . . . . . 92

IV.4.c Evaluation de la capacité prédictive des tables de référence . . . . . . . 94

IV.4.d Conclusions tirées du backtesting . . . . . . . . . . . . . . . . . . . . . . 96

Chapitre V Tables de mortalité d’expérience 97

V.1 Estimation des quotients de mortalité bruts . . . . . . . . . . . . . . . . . . . . . 97

V.1.a L’estimateur de Hoem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

V.1.b Calcul d’estimateurs à partir des quotients bruts . . . . . . . . . . . . . . 99

V.2 Ajustement des quotients estimés selon la table "HMD Logistique Femmes" . . 100

V.2.a Le modèle de Brass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

V.2.b Modèle relationnel et régression linéaire simple pour une année d’ob-servation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

V.2.c Ajustement global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

V.3 Projection des quotients de mortalité d’expérience ajustés . . . . . . . . . . . . . 106

V.3.a Modélisation polynomiale des paramètres temporels du modèle de Brass106

V.3.b Un modèle non linéaire global . . . . . . . . . . . . . . . . . . . . . . . . 108

V.3.c Nouvel ajustement et projection finale . . . . . . . . . . . . . . . . . . . . 109

V.4 Table de mortalité d’expérience "Logistique Femmes" finale . . . . . . . . . . . . 111

V.5 Etude comparative des tables d’expérience obtenues . . . . . . . . . . . . . . . . 112

V.5.a Positionnement des tables d’expérience par rapport aux tables régle-mentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

V.5.b Comparaison des dynamiques masculine et féminine face à la longévité 116

Chapitre VI Impact des tables d’expérience sur le provisionnement 121

VI.1 Principe des provisions techniques en assurance . . . . . . . . . . . . . . . . . . 121

VI.1.a Origine comptable de la provision . . . . . . . . . . . . . . . . . . . . . . 121

Page 20: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page xx Table des matières

VI.1.b La provision technique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

VI.1.c Panorama des provisions techniques . . . . . . . . . . . . . . . . . . . . . 123

VI.2 Contrat d’épargne et provisionnement . . . . . . . . . . . . . . . . . . . . . . . . 124

VI.2.a Vie du contrat et provision mathématique . . . . . . . . . . . . . . . . . 124

VI.2.b Garantie de table et provision associée . . . . . . . . . . . . . . . . . . . . 126

VI.2.c Taux de conversion et rentes viagères . . . . . . . . . . . . . . . . . . . . 127

VI.3 Conséquences d’un changement de table sur le provisionnement . . . . . . . . 128

VI.3.a Variation de provision mathématique lors d’un changement de table . . 129

VI.3.b Exemple de l’introduction d’une provision pour écart CC-PM . . . . . . 129

VI.4 Provisionnement du portefeuille selon les tables d’expérience . . . . . . . . . . 131

VI.4.a Hypothèses pour le calcul de l’écart entre les tables "Logistique" et "Sé-ries T." . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

VI.4.b Ecart de provisions entre les deux tables de mortalité d’expérience . . . 131

VI.4.c Résultats chiffrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

Conclusion

Page 21: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

INTRODUCTION

Aujourd’hui, l’augmentation permanente de l’espérance de vie est un fait établi et connu detous. Dans le détail, cette croissance est même linéaire depuis la fin de la Seconde Guerre mon-diale ce qui amène les démographes mais également les actuaires à s’interroger sur l’évolutionfuture de cette tendance.

En effet, pour un assureur vie, il existe un risque que la population assurée survive pluslongtemps qu’escompté. Ce risque, appelé risque de longévité, ne peut être négligé étant donnéles pertes techniques qu’il peut entraîner notamment dans le cas particulier des contrats deretraite réglementée imposant le versement de rentes viagères.

Pour le calcul de tarifs ou de provisions, tout organisme assureur estime les niveaux demortalité à venir au travers l’utilisation de tables de mortalité prospectives. Des tables, ditesréglémentaires, indiquent des prévisions théoriques mais il n’est pas impossible de constaterune différence importante entre ces prévisions et la mortalité réelle d’une population d’assurés.

Dès lors, toute compagnie d’assurances est autorisée par le législateur à construire sespropres tables de mortalité, dites d’expérience, afin d’obtenir une estimation la plus fidèle etprécise de la mortalité d’un portefeuille donné. Toutefois, le calcul direct d’une telle table demortalité est impossible puisqu’il est difficile d’obtenir des prévisions viables statistiquementlorsque les données à disposition sont peu nombreuses.

Face à un petit échantillon, une solution consiste à recourir à une source de données com-plémentaire appelée référence externe. Le plus souvent, cette référence est relative à une popu-lation plus nombreuse et indépendante de la population assurée. La table de mortalité d’expé-rience est alors obtenue en établissant un lien entre ces deux groupes.

Présentée ainsi, la construction d’une table de mortalité d’expérience semble aisée maisocculte en réalité la complexité du travail théorique à mener.

D’une part, les données d’expérience à disposition ne sont utilisables qu’après traitementstatistique et elles ne peuvent donner au mieux qu’une estimation de la mortalité. D’autre part,les différentes étapes de construction appellent plusieurs hypothèses empiriques (le choix d’unmodèle et d’une référence externe en sont deux exemples) qui peuvent biaiser la table d’expé-rience finale.

La construction de tables de mortalité d’expérience prospectives constitute donc bien uneproblématique à part entière pour un assureur. Répondre à cette problématique en utilisantune source démographique de données et dans le cadre du portefeuille des rentiers "Retraiteindividuelle" d’AXA France constitue l’objectif du présent mémoire.

Dans un souci de confidentialité, les détails et résultats numériques relatifs aux donnéesopérationelles ne seront pas explicités.

La première partie a pour objectif de contextualiser l’ensemble des travaux à venir et d’étu-dier en détails le portefeuille d’étude.

Nous présentons l’historique démographique qui suggère qu’hommes et femmes serontaménés à vivre plus longtemps et démontrons comment l’incapacité à prédire avec exactitudeces niveaux futurs d’espérance de vie conduit au risque de longévité.

Page 22: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 2 Introduction

Par ailleurs, l’importance des tables de mortalité et leur place technique en actuariat estégalement abordée.

L’analyse statistique du portefeuille de rentiers à notre disposition permet d’exhiber la fai-blesse, en termes de volume de données, de l’échantillon d’étude. Ces données d’expériencedoivent donc nécessairement être combinées à une référence externe.

La seconde partie détaille la construction de tables de mortalité d’expérience prospectiveset met en oeuvre opérationnellement les tables obtenues.

Dans un premier temps, nous employons les données de l’Human Mortality Database afind’obtenir des tables de mortalité de référence basées sur des données démographiques. Deuxméthodologies sont alors proposées. La première méthodologie s’appuye sur un modèle pa-ramétrique basé sur une écriture à quatre paramètres de la fonction logistique. La secondeméthodologie se veut semi-paramétrique et consiste en une approche employant la théorie desséries temporelles.

La mise en place d’un modèle relationnel entre les précédentes tables de référence et lesdonnées du portefeuille permet, dans un deuxième temps, l’obtention de tables de mortalitéd’expérience. C’est un modèle proche du modèle de Brass qui est retenu. Nous comparonsfinalement les tables d’expérience construites entre elles mais également avec les tables régle-mentaires.

Enfin, nous expliquons l’exigence de provisions techniques pour toute compagnie d’as-surances et nous détaillons comment ce provisionnement réglementaire est impacté par unchangement de table de mortalité. Après avoir explicité le calcul d’une variation de provisionmathématique et celui d’une provision pour écart capital constitutif - provision mathématique,les résultats finalement obtenus nous permettent d’évaluer les tables d’expérience d’un pointde vue uniquement opérationnel.

Page 23: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Première partie

Contexte de l’étude et analyse duportefeuille "Retraite individuelle"

d’AXA France

Page 24: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier
Page 25: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

LE RISQUE DE LONGÉVITÉ

La vie humaine a t-elle une limite et si oui, sommes-nous proches ou au contraire bienloin de ce que le corps humain peut permettre ? Personne n’est insensible à cette perpétuellequestion dont la réponse conditionne aussi bien les politiques publiques en matière de retraiteque les calculs des particuliers. Pour l’actuaire, cette incertitude constitue bien un risque à partentière étant donné l’existence de produits d’assurance se basant sur la vie des clients.

I.1 – Longévité passée et longévité future

Nul ne sait précisement ce que nous réserve l’avenir en termes de longévité. Il faut donc setourner vers le passé et ses données historiques pour tenter de trouver des éléments de réponse.

I.1.a - L’allongement de la durée de vie

Présentons d’abord les données historiques à notre disposition afin de saisir le contextedans lequel nous nous trouvons.

I.1.a.i) La longévité, un concept générationnel

Au cours des 150 dernières années, la population mondiale a gagné près de 30 ans d’es-pérance de vie à la naissance. Il va de soit que cette augmentation n’est pas le résultat d’uneamélioration intrinsèque des capacités du corps humain au fil des années. Ce gain d’espérancede vie n’est que l’expression des immenses progrès dans les domaines économique, médical,culturel et social qui ont marqué les deux derniers siècles.

On retient à ce titre deux grandes révolutions :

– La révolution pasteurienne, c’est-à-dire l’ensemble des découvertes de Pasteur au coursde la seconde moitié du XIXème siècle : principe de la pasteurisation pour le vin, rejet dela théorie de la génération spontanée et découverte du vaccin antirabique. Cette dernièredécouverte en 1885 et l’application de la pasteurisation au lait par Franz von Soxhletl’année suivante constituent l’apogée de cette révolution pasteurienne.

– La révolution cardiovasculaire, datée des années 1960, est définie par Vallin et Meslé(2000) [28] comme "l’ensemble des innovations qui ont permis de faire reculer de façondécisive la mortalité par maladies cardiovasculaires. Cela recouvre aussi bien les innova-tions thérapeutique et chirurgicale qui se sont accélérées, que les améliorations du sys-tème de santé et les changements de comportements (exercice physique et alimentation)".

Cela met en lumière un concept crucial : les problématiques de longévité ne se pensent pasen termes d’invididu mais bien en termes de génération. Evidemment, le comportement dechaque individu a une incidence directe sur son espérance de vie mais dans notre vision glo-bale et à long terme, nous devons nous concentrer aussi bien sur les liens inter-générationnelsqu’intra-générationnels.

De plus, il faut bien distinguer espérance de vie annuelle et espérance de vie générationelle.

Page 26: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 6 Chapitre I. Le risque de longévité

Dire que les Françaises ont une espérance de vie de 82,8 ans en 2000 1 signifie que l’âge de décèsmoyen constaté en 2000 pour une femme française est de 82,8 ans. En revanche, dire que lesfemmes de la génération 2000 ont une espérance de vie de 97,46 ans 2 signifie qu’une femmenée en 2000, vivra en moyenne 97,46 années. La différence entre d’un côté une moyenne arith-métique constatée et de l’autre une espérance probabiliste supposée doit bien être comprise.

I.1.a.ii) Dynamique actuelle en termes de longévite humaine

Au jour d’aujourd’hui, l’espérance de vie à la naissance ne cesse d’augmenter mondiale-ment. La croissance est même linéaire à partir de la moitié du XXème siècle avec un gain de 3mois par année comme demontré par Oeppen et Vaupel (2002) [22]. Il n’est ainsi pas surpre-nant de constater par exemple qu’une Japonaise vivait en moyenne 70,19 années en 1960 contre86,39 années en 2010 (le Japon est le pays qui détient actuellement l’espérance de vie la plusélevée pour les femmes).

Cette évolution amorcée au moment de la révolution cardiovasculaire qui est restée in-interrompue malgré des prévisions contraires (en 1980, les Nations Unies avaient prévu quel’accroissement de la longévité s’arrêterait à horizon 20 ans) est le résultat de la baisse de lamortalité aux grands âges.

Cette baisse de la mortalité aux grands âges est flagrante dès lors que l’on étudie l’évolutionde l’espérance de vie résiduelle à 65 ans (c’est-à-dire le nombre moyen d’années qu’il reste àvivre pour une personne actuellement âgée de 65 ans). On constate en effet une améliorationnette et constante de l’espérance de vie résiduelle à 65 ans depuis les années 1960 comme leprésente la Figure I.1 dans le cas de la France 3.

1850 1900 1950 2000

1012

1416

1820

22

Année

Esp

éran

ce d

e vi

e ré

sidu

elle

(en

ann

ées)

FIGURE I.1 – Evolution de l’espérance de vie résiduelle à 65 ans des Françaises de 1816 à 2012

1. Source : Institut National de la Statistique et des Etudes Economiques (INSEE)2. Source : valeur numérique issue de la table de mortalité TGF05 (à titre d’exemple)3. Source : données de l’Human Mortality Database (HMD)

Page 27: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

I.1. Longévité passée et longévité future Page 7

I.1.b - Perspectives d’évolution de la longévité humaine

Bien que nous l’étudions d’un point de vue purement statistique, il ne faut pas perdre devue les problématiques biologiques inhérentes à l’étude de la longévité humaine.

I.1.b.i) Existence ou non d’une limite biologique

Une question s’élève en effet au-delà des considérations démographiques ou même statis-tiques s’agissant de la prévision de l’espérance de vie humaine à moyen/long terme : le corpshumain peut-il physiologiquement subsiter longtemps, n’est-il pas programmé pour mourir ?

Hayflick et Moorhead (1961) [18] constatent que les cellules ne peuvent pas se diviser in-définiment (le nombre de divisions maximal varie entre 40 et 60 selon le type de cellule). Al’approche de cette limite, appelée limite de Hayflick, les cellules deviennent sénescentes c’est-à-dire qu’elles ne peuvent plus se diviser et deviennent alors dysfonctionnelles. Cela supposedonc qu’un âge limite existe.

Seulement, comme l’explique Kirkwood (2005) [19], le mécanisme du vieillissement cel-lulaire n’est pas déterministe : il est le résultat de l’accumulation tout au long de la vie dedégradations (causées par l’environnement, le stress, une mauvaise alimentation, etc...). Cesdégradations entraînent des défauts cellulaires qui ouvrent la porte aux maladies et finalementà la mort.

Il est donc impossible de donner une valeur chiffrée de l’âge limite du corps humain car lamalléabilité du processus de vieillisement doit permettre à l’homme de le retarder. De même,en supposant que le mécanisme de viellisement soit intégralement compris par les biologistes,on peut alors imaginer développer des techniques visant à ralentir, à corriger ce processus afind’allonger scientifiquement la durée de vie humaine.

I.1.b.ii) Phénomènes de report et de compression de la mortalité

Qu’un âge limite existe ou non, tout le monde s’accorde pour dire que l’espérance de viepeut encore augmenter ce qui devrait s’observer à court terme.

Pour ceux qui pensent que la limite biologique de l’homme n’est pas encore atteinte, lesgains d’espérance de vie à venir vont passer par un report de la mortalité. C’est à dire qu’enconsidérant que la durée de la vie peut encore s’allonger, on peut imaginer que l’ensemble dela population va connaître cette amélioration et de fait, gagner en espérance de vie. Graphique-ment, il y a un glissement de la courbe donnant le nombre de décès selon l’âge. Actuellement,on observe un tel phénomène au Japon 4 comme on le constate via le 1er graphe de la Figure I.2(en page 8).

A l’inverse, on peut imaginer une population atteignant presque entièrement l’âge maxi-mal, mais avec un âge maximal restant constant vu qu’ici on se place dans l’hypothèse d’unâge limite presque atteint. Il y a donc un phénomène de compression de la mortalité. Gra-phiquement, on a une augmentation du pic autour de l’âge modal (c’est l’âge pour lequel oncompte le plus de décès) de la courbe donnant le nombre de décès selon l’âge. C’est ce scéna-

4. Source : National Institute of Population and Social Security Research, l’institut démographique national ja-ponais

Page 28: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 8 Chapitre I. Le risque de longévité

20 40 60 80 100

010

0020

0030

0040

0050

00

Japon

Age

Nom

bre

de d

écés

1970−19791980−19891990−19992000−2009

20 40 60 80 100

010

0020

0030

0040

0050

00

France

Age

Nom

bre

de d

écés

1970−19791980−19891990−19992000−2009

FIGURE I.2 – Evolution du nombre de décès par âge au Japon et en France au cours des 4dernières décennies (pour 100 000 habitants)

rio qui est constaté dans la plupart des pays d’Europe de l’Ouest (l’exemple de la France 5 estdonné à droite de la Figure I.2).

Ces deux scénarios sont également souvent représentés via la fonction de survie (qui in-dique pour tout âge, la probabilité qu’un individu vive au moins jusqu’à cet âge). Le report dela mortalité va se traduire par un étirement de la fonction de survie tandis que la compressionde la mortalité conduit à une rectangularisation de la fonction de survie comme l’illustre laFigure I.3.

FIGURE I.3 – Fonction de survie et compression/report de la mortalité

5. Source : données de l’HMD

Page 29: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

I.2. Présentation du périmètre d’étude : la retraite individuelle Page 9

I.1.c - Etat de la longévité en France

S’agissant de la France, il convient de redonner quelques ordres de grandeur. L’évolutionde l’espérance de vie à la naissance 6 est donnée en Figure I.4.

1850 1900 1950 2000

3040

5060

7080

90

Année

Esp

éran

ce d

e vi

e (e

n an

nées

)

FemmesHommes

FIGURE I.4 – Evolution de l’espérance de vie à la naissance en France de 1816 à 2012

En 2013, l’espérance de vie d’un Français est de 78,7 ans et elle est de 85,0 ans pour uneFrançaise 7. Le niveau actuel est spectaculaire car 250 ans en arrière, elle n’était que de 27 anset 28 ans respectivement pour un homme et pour une femme comme remarqué par Vallin etMeslé (2010) [29]. Cela est d’autant plus remarquable qu’il ne faut pas oublier que la France aconnu 3 guerres majeures (la guerre Franco-Allemande de 1870, la Première Guerre mondialeentre 1914 et 1918 et la Seconde Guerre mondiale de 1939-1945) qui ont impacté négativementl’espérance de vie comme en témoignent les pics observables.

Par ailleurs, toujours selon l’INED, l’espérance de vie résiduelle à 60 ans était, fin 2013 de22,7 ans pour un homme français et de 27,3 ans pour une femme française. Même si ces valeursstagnent depuis 2010, il n’en reste pas moins que ce sont des valeurs parmi les plus élevées aumonde.

De plus, aucun ralentissement des gains d’espérance de vie observés ces dernières annéesen France (comme pour tous les autres pays développés) n’est prévu par les démographes.Etant donné l’étendue de la tendance haussière, ces derniers estiment qu’elle devrait se pour-suivre à l’avenir. Ainsi, selon Christensen et al. (2009) [8], la moitié des bébés nés en 2007 enFrance, vivront au moins jusqu’à 104 ans.

I.2 – Présentation du périmètre d’étude : la retraite individuelle

L’étude à venir porte sur le portefeuille "Retraite individuelle" d’AXA France. Il convientdonc de présenter le système français de retraite et de dresser un panorama du secteur afin de

6. Source : données de l’HMD7. Source : Institut National d’Etudes Démographiques (INED)

Page 30: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 10 Chapitre I. Le risque de longévité

capter au mieux le contexte dans lequel les assurés souscrivent de tels contrats.

I.2.a - Fonctionnement de la retraite en France

Aujourd’hui, il existe en France trois niveaux de prestations qui peuvent être versées àl’occasion du départ à la retraite. Ces niveaux (ou piliers) sont indépendants les uns des autreset se distinguent par un fonctionnement différent.

Le premier pilier de la retraite est constitué par tous les régimes légalement obligatoires(qu’ils soient de base ou complémentaire). Cela comprend aussi bien la retraite de base (la pen-sion de retraite principale que perçoit toute personne ayant exercé une activité professionnelle)que la retraite complémentaire (pension qui complète la retraite de base mais à laquelle tousles actifs ne peuvent pas prétendre). Ces régimes sont gérés par répartition par des caisses deretraite.

Le deuxième pilier correspond aux régimes collectifs d’entreprises qui sont conventionnel-lement obligatoire ou à adhésion facultative. Gérés par capitalisation, ces régimes sont soit àcotisations définies (régimes de type Article 83), soit à prestations définies (régimes de typeArticle 39). Il est couramment convenu d’intégrer à ce pilier l’épargne salariale définie commel’ensemble des dispositifs collectif et facultatif permettant aux salariés de se constituer uneépargne avec l’aide de leur entreprise (PERCO 8 ou PER Entreprise 9 par exemple).

Le troisième pilier correspond aux régimes à adhésion individuelle. Cela comprend doncles assurances-vie et les plans d’épargne individuels.

La Figure I.5 donne une représentation de ces 3 piliers de la retraite.

FIGURE I.5 – Les 3 piliers de la retraite en France

8. Plan d’épargne pour la retraite collectif9. Plan d’épargne retraite d’entreprise

Page 31: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

I.2. Présentation du périmètre d’étude : la retraite individuelle Page 11

I.2.b - Enjeux de la retraite individuelle

Actuellement, le marché de la retraite individuelle est en plein essor.

La première raison à cela est la prise de conscience colletive qui s’ammorce concernant lesfaiblesses actuelles du système de retraite par répartition français. En effet, à sa création en1945, l’importante population d’actifs et la courte durée de vie moyenne faisaient du systèmepar répartition une évidence. Aujourd’hui, avec l’allongement de durée de la vie, assurer unmontant décent de prestations pour les retraités sans prélever d’importantes cotisations estdevenu un casse-tête aussi bien économique que politique. C’est ainsi que chaque année, leratio entre actifs et inactifs baisse inexorablement (comme illustré 10 par la Figure I.6) et doncque l’endettement du système augmente.

1980 2000 2020 2040

1.0

1.5

2.0

2.5

3.0

Année

Rat

io a

ctifs

/inac

tifs

Valeurs observées (1970−2005) Valeurs prédites (2006−2050)

FIGURE I.6 – Evolution passée et prévisions du ratio entre les actifs et les inactifs

De nombreuses réformes ont été engagées ces dernières années afin de réduire cet importantdéficit (qui était évalué en 2010, à 32 milliards d’euros 11) mais tout cela a fragilisé la confiancedes Français envers ce système et il n’existe pour l’heure aucune garantie concernant l’efficacitédes récentes réformes proposées par les différents gouvernements.

De plus, l’allongement de la durée de vie augmente l’incertitude sur la durée des besoinsdes seniors. En parrallèle, c’est également la question du montant des dépenses qui se posepour tout retraité étant donné l’évolution du coût de la vie et l’augmentation du risque dedépendance. Ainsi, le risque de manquer de ressources en fin de vie est une vraie menace pourtout retraité.

Dès lors, la retraite individuelle apparaît comme le seul moyen fiable par lequel chacunpeut s’assurer une source de revenus pour la retraite.

10. Source : données établies par l’INSEE en 200511. Source : Conseil d’orientation des retraites (COR)

Page 32: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 12 Chapitre I. Le risque de longévité

I.2.c - Composition du portefeuille "Retraite individuelle"

L’environnement dans lequel assureurs et assurés évoluent ayant été présenté, il reste à voirquels sont les assurés qui constituent notre portefeuille.

Rappellons tout d’abord qu’on dispose du portefeuille "Retraite individuelle" d’AXA France.On se place donc dans le cadre des produits d’épargne dont le but est la préparation de la re-traite. A cet effet, il est tout à fait possible de souscrire un contrat d’assurance vie classique maisce n’est pas l’objectif principal d’un tel type de contrat car un risque d’épuisement de l’épargneavant la fin de vie est à craindre.

En revanche, les contrats intégrant une sortie en rentes viagères sont les plus adaptés étantdonné que le complétement de revenus est garanti à vie. C’est pourquoi seul ce type de produitsappartient à notre périmètre d’étude. Ce sont donc ces produits, dits de retraite réglementée,qu’il nous faut présenter après avoir vu comment fonctionne une rente viagère, l’élément quidonne tout leur intérêt à ces produits de retraite réglementée.

I.2.c.i) La rente viagère

Une rente viagère est un contrat qui garantit le versement à une certaine fréquence d’unesomme d’argent à l’assuré tant qu’il est vivant. La plupart du temps, les rentes viagères consti-tuent un complément de retraite pour l’assuré.

Un contrat prévoyant le versement de rentes viagères se décompose en deux phases.L’assuré construit dans un premier temps un capital constitutif pendant une phase d’épargne

(en pratique, la vie active). C’est essentiellement sur la base de ce capital constitutif que le mon-tant de la rente viagère sera plus ou moins élevé. La conversion de l’épargne en rentes ammorcela seconde phase, celle de restitution (en pratique, la retraite) durant laquelle l’assuré perçoitun arrérage régulier jusqu’à sa mort.

A noter que de nombreuses options (rente à annuités garanties, rente croissante, rente dif-férée, etc...) sont possibles pour ce type de contrat. L’une des options la plus souscrite est laréversion qui permet de transférer la rente à un conjoint en cas de décès de l’assuré principal.

I.2.c.ii) PERP et contrats Madelin

Aujourd’hui, deux types de produits imposent une sortie en rentes après la phase d’épargne :le Plan épargne retraite populaire (PERP) et les produits loi Madelin. Les produits considérésdans l’étude appartiennent majoritairement à l’une de ces deux catégories.

Votée le 11 février 1994, la loi dite Madelin avait pour objectif l’amélioration du statut destravailleurs indépendants. Cet objectif s’est concrétisé en leur donnant un accès exclusif à unproduit de retraite individuelle établi dans des conditions fiscales favorables (contrat loi Ma-delin) et offrant des garanties de prévoyance.

Le PERP a été créé par la loi Fillon d’août 2003 sur la réforme des retraites afin de permettreà chacun (salariés, fonctionnaires, etc...) de bénéficier d’un régime de retraite par capitalisationcomparable à celui posé par la loi Madelin.

Globalement, ces deux produits fonctionnement de la même manière :– appartenant au troisième pilier, l’adhésion est individuelle et facultative ;

Page 33: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

I.3. D’un constat démographique à un risque actuariel Page 13

– l’épargne est bloquée avant la conversion et est servie sous forme de rentes viagères (saufexceptions) seulement à partir de l’âge légal de la retraite ;

– les montants placés donnent droit à des déductions fiscales (propres à chaque type decontrat) durant la phase de constitution.

Concrétement, PERP et Madelin sont des contrats multi-supports où les primes programméessont complétables par des versements libres et où l’épargne est progressivement sécurisée.

Ils se différencient des contrats d’assurance vie classiques par le caractère "tunnel" du pla-cement de l’épargne : l’épargne d’une assurance-vie est constamment disponible (étant donnéque le rachat du contrat est autorisé) ce qui n’est pas le cas pour un PERP ou un Madelin (oùl’épargne, se voulant destinée à la retraite, est bloquée durant la phase de constitution).

Cette indisponibilité de l’épargne ajoutée à l’exigence d’une sortie en rentes et à l’absenced’avantages successoraux pourrait rendre ces produits de retraite réglementée inintéressantsface aux produits d’assurance vie traditionnels. C’est sans compter l’existence d’une enveloppefiscale qui permet une déduction d’impôts des sommes placées. En 2014, il est ainsi possiblede déduire jusqu’à 29 625 e dans le cadre d’un PERP et jusqu’à 69 464 e pour un Madelin.Par ailleurs, il est important de préciser que l’épargne peut être débloquée dans 5 cas précis :invalidité de 2ème ou 3ème catégorie, expiration des droits chômage, cessation d’activité nonsalariée après une liquidation judiciaire, décès du conjoint ou du concubin pacsé et situation desurendettement. L’épargne n’est donc pas complétement inacessible et peut alors être utiliséepour faire face à un coup dur de la vie.

I.3 – D’un constat démographique à un risque actuariel

L’augmentation de l’espérance de vie (aussi bien à la naissance qu’à des âges avancés) àcourt terme est indéniable. Comme on l’imagine aisément, cette incertitude existant sur lesniveaux de longévité des générations actuelles et futures constitue un risque à part entièrepour les compagnies d’assurances commercialisant des produits d’épargne retraite.

I.3.a - Origine du risque de longévité

Avant de démontrer l’existence d’un tel risque, il nous faut d’abord expliquer le principalmécanisme de gestion des risques en assurance à savoir la mutualisation du risque.

I.3.a.i) Mutualisation d’un risque

La création de tout contrat d’assurance débute lorsqu’il existe un aléa dont l’assuré souhaitese prémunir et qui est alors transféré à l’assureur.

Afin de proposer un tarif, la problématique pour l’assureur est d’arriver à déterminer com-bien le contrat considéré va lui coûter à l’avenir. La réponse à cette question passe par une étudestatistique et permet d’obtenir un coût estimé. Mais, de par le caractère aléatoire du risque as-suré, coût réel et coût estimé ne coïncident pas finalement.

C’est pourquoi l’assureur doit avoir recours au principe de mutualisation qui consiste àréaliser l’estimation du coût d’un contrat pour une catégorie précise d’assurés (en retenant leurâge, leur sexe, leur catégorie professionnelle, leur lieu de résidence, etc...). On comprend ainsi

Page 34: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 14 Chapitre I. Le risque de longévité

que, grâce à ce mécanisme, les pertes constatées sur un contrat se compenseront avec les gainsréalisés par d’autres.

Bien qu’assez intuitif, ce procédé peut être employé car il est surtout justifié mathémati-quement : la loi des grands nombres permet d’affirmer que le comportement d’un échantillonaléatoire converge vers sa moyenne. C’est ainsi que, dans le cas de l’expérience du pile ou face,multiplier les lancers va permettre par exemple de se rapprocher d’une réparition 50/50 entrele nombre de "pile" et le nombre de "face" observés 12.

I.3.a.ii) Risque inhérent aux rentes viagères

A l’origine et jusqu’à la conversion, un contrat de rentes viagères doit être équilibré entreles deux parties (assuré et assureur) de sorte que

Capital Epargne = Nombre d′arrerages a verser × Montant d′un arrerage

On a donc une équation mais deux inconnues : le nombre d’arrérages à verser et le montantd’un arrérage. Il faut donc estimer l’une de ces deux inconnues. Tout l’intérêt des rentes via-gères étant d’assurer un versement jusqu’à la mort, il n’est pas possible de fixer le montant del’arrérage car il bloquerait de facto le nombre d’arrérages à verser (et donc le caractère viagerdu contrat serait remis en cause). L’assureur doit donc estimer le nombre d’arrérages à versersoit estimer la durée de vie de l’assuré afin de connaître le montant auquel ce dernier a droit àchaque versement. C’est avec l’aide de tables de mortalité (outil technique qui sera détaillé parailleurs) que l’assureur réalise cette estimation.

Et c’est au cours de ce procédé statistique de prévision que naît un risque assurentiel. Si parexemple l’estimation réalisée était en-dessous de la réalité, l’assureur aurait plus de versementsque prévu et il perdrait donc de l’argent sur ce contrat. En élargissant cette erreur d’estimationà tout un portefeuille, on comprend facilement que ce risque, le risque de longévité, est unevéritable menace pour la solvabilité d’une compagnie d’assurances.

I.3.b - Le risque de longévité

Le risque de longévité peut être défini comme le risque d’une discordance entre la table demortalité utilisée par l’assureur pour les calculs actuariels et la survie réelle des assurés concer-nés. Cette configuration de risque est presque habituelle pour les compagnies d’assurances quisont confrontées à l’inversion du cycle de production : chaque assureur doit fixer à l’avance leprix de ses contrats alors même que le coût de ces derniers ne leur sera connu qu’a posteriori.

Toutefois, dans le cas des contrats d’épargne, il n’est généralement pas possible pour l’assu-reur de revenir sur le montant des rentes qu’il s’est engagé à verser (contrairement à un contratautomobile où l’assureur peut réajuster son tarif en cours de vie du contrat d’assurance). Ainsi,cette contrainte réglementaire combinée à la très longue durée des contrats font du risque delongévité un risque très sensible pour un assureur.

Il en découle d’importantes conséquences en termes de provisionnement et de solvabilitépour l’organisme assureur. Un exemple numérique permettra de prendre la mesure de l’impor-tance d’une sous-estimation de la longévité : en 2006, la mise en place d’une table réglementaire

12. Dans le cas d’une pièce non truquée

Page 35: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

I.3. D’un constat démographique à un risque actuariel Page 15

plus prudente (passage de la TPRV93 aux tables TGH05/TGF05) a contraint les assureurs fran-çais à augmenter de près de 8% leurs réserves réglementaires 13.

I.3.c - Décomposition du risque de longévité

Le risque de longévité est donc un risque complexe car des erreurs d’estimation de la du-rée de vie des rentiers peuvent survenir en deux étapes distinctes du processus de calcul desrentes :

– Dans l’estimation de l’espérance de vie actuelle. Pour la détermination, à un instant fixé,de l’espérance de vie d’un rentier, on utilise le principe de mutualisation qui permet desupposer que le comportement global d’un groupe de rentiers va converger vers un com-portement moyen.

– Dans l’estimation de la mortalité future. Ici, en supposant que la tendance actuelle semaintiendra pour la mortalité future (ou en se donnant une certaine tendance future), ilsuffit d’utiliser un modèle pour capter la dynamique souhaitée (en général à l’aide d’unmodèle paramétrique). Il restera alors à projeter ce dernier pour obtenir une estimation àlong terme de la mortalité des rentiers.

Cette dualité permet alors de décomposer le risque de longévité en deux composantes.

I.3.c.i) Le risque mutualisable

D’une part, on trouve le risque mutualisable. En revenant à l’aléa initial du contrat (le dé-cès d’un assuré), l’incertitude de parvenir à déterminer correctement son espérance de vie faitnaître un premier risque. Toutefois, on considère ici un aléa frappant une seule tête. Ce risquepeut donc être mutualisé par l’assureur.

Ainsi, on pourrait croire que la composante mutualisable du risque de longévité n’est pasune réelle problématique étant donné que ce risque semble facilement mesurable. Cela seraitvrai seulement si la mutualisation était parfaite or elle ne l’est pas !

Pour que la mutualisation autour d’une espérance de vie soit efficace, il faut un échantillonrobuste de rentiers strictement identiques. Sauf que les facteurs impactant l’espérance de viesont nombreux (on compte notamment le sexe, l’année de naissance ou l’âge) et imposent doncde multiplier les groupes d’étude. Or ce faisant, on réduit la taille des différents échantillonsservant à calculer les valeurs moyennes et donc chaque mutualisation peut s’avérer non fiable.

I.3.c.ii) Le risque systématique

D’autre part, on trouve le risque systématique. A l’inverse de la composante mutualisabledu risque de longévité, la composante systématique s’applique à l’ensemble des têtes assu-rées (d’où cette dénomination) et elle n’est donc pas mutualisable par l’organisme assureur.Le risque systématique est potentiellement très dangereux pour celui qui y est exposé puisquetoute déviation de la mortalité par rapport à la tendance anticipée lors de la tarification affectel’ensemble du portefeuille.

13. Source : présentation de Stéphane Loisel aux Journées d’économétrie et d’économie de l’assurance (Octobre2009, Rennes)

Page 36: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 16 Chapitre I. Le risque de longévité

Une déviation peut se situer à plusieurs niveaux du processus de projection comme précisépar Planchet et Kamega (2013) [23], il en découle 3 risques systématiques distincts :

– le risque systématique d’estimation des paramètres, il s’agit simplement d’une mauvaiseestimation des paramètres du modèle retenu compte tenu des fluctuations de l’échan-tillon d’estimation ;

– le risque systématique de modèle, il s’agit d’un mauvais choix dans la spécification dumodèle ou d’un changement de tendance de la mortalité au cours du temps ;

– le risque systématique d’avis d’expert, dans le cas où le modèle intègre un référencementexterne (c’est-à-dire un avis d’expert), un risque systématique naît du fait d’une erreurde jugement de l’expert.

I.4 – Risque financier d’un produit d’épargne : le risque de taux à longterme

La précédente section s’est attachée à introduire le risque de longévité qui est le risqueassurentiel majeur inhérent à tout contrat de rentes viagères.

Par ailleurs, de part l’objectif d’épargne des produits incluant des rentes viagères, il existeégalement un risque financier important qui est celui du risque de taux à long terme.

I.4.a - Taux d’intérêt technique et risque financier associé

Généralement, à la souscription d’un contrat de rentes viagères, outre la garantie de verse-ments minimaux jusqu’au décès de l’assuré, l’assureur s’engage à générer des intérêts à partirdu capital épargné par l’assuré. Pour ce faire, l’assureur utilise un taux d’intérêt dit techniquequi engendre alors un risque financier propre.

I.4.a.i) Principe d’un taux technique pour un contrat de rentes

Le taux technique est le taux de rendement anticipé par l’assureur pendant toute la périodede restitution du contrat de rentes. Il peut être garanti dès la souscription du contrat ou alorsêtre choisi seulement au moment de la conversion du capital en rentes.

En pratique, un taux technique influe non seulement pour l’évaluation du montant d’ori-gine de la rente mais aussi à chaque revalorisation de la rente une fois la conversion du capitalen rentes réalisée. Il est déterminé en fonction de l’état des marchés financiers et des taux d’in-térêts usuels au moment du calcul.

S’agissant des contrats de retraite réglementée, l’assureur n’a aucune liberté concernant letaux technique. Il doit être garanti à la souscription du contrat et suivre des valeurs réglemen-taires :

– pour un PERP, le taux technique est égal à 0% ;– pour un contrat Madelin, le taux technique est égal à 60% du TME 14 plafonné à 1,25%.

14. Taux Moyen des emprunts de l’Etat français

Page 37: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

I.4. Risque financier d’un produit d’épargne : le risque de taux à long terme Page 17

I.4.a.ii) Garantie d’un taux technique et risque de taux

Puisque le taux technique matérialise un rendement seulement espéré à un instant donnéet non certain dans le futur, on comprend aisément qu’en s’engageant sur un taux techniquenon nul l’assureur supporte un risque financier : c’est le risque de taux.

D’un point de vue strictement financier, le risque de taux correspond à la variation de lavaleur d’un actif résultant d’une variation des taux d’intérêt. Dans le cas d’un contrat de rentes,c’est la discordance entre un taux technique garanti et les taux d’intérêt futurs qui caractérisele risque de taux.

En effet, toute baisse générale des taux d’intérêt postérieure à la garantie d’un taux tech-nique est néfaste pour l’assureur. Il ne peut plus investir à des niveaux de taux lui permettantde satisfaire ses engagements sans coût ou sans risque supplémentaire.

A noter que tout contrat de rentes est confronté au cours de sa vie à l’exigence d’un tauxtechnique (soit à la souscription du contrat, soit à la conversion du capital épargné en rentes)vu que ce taux est indispensable pour déterminer le montant des arrérages dus.

Le mécanisme du risque de taux induit par cette exigence est identique dans les deux casprécédents : seule la durée du risque de taux change selon le moment où le taux technique estarrêté.

I.4.b - Spécificité du risque de taux d’un portefeuille de rentes viagères

Comme tout propriétaire d’une dette financière, l’assureur commercialisant des contratsde rentes viagères subit un risque de taux d’intérêt. Toutefois, la nature même de ces contratsamplifie le risque de taux sous-jacent.

La première caractéristique d’un contrat de rentes viagères est l’engagement à long termeentre assureur et assuré. L’importante durée de cet engagement porte aussi bien :

– sur la phase de constitution qui doit être conséquente pour assurer un certain montantde rente ;

– sur la phase de restitution qui peut être longue de part le caractère viager du contrat.

Et puisque toute baisse généralisée des taux a potentiellement des conséquences propor-tionnelles à la durée de la garantie de taux technique, on comprend bien que le risque de tauxassocié est important (que le taux technique soit garanti) dès la souscription ou seulement à laconversion).

Par ailleurs, si le contexte financier devient défavorable pour l’assureur, ce dernier ne peutpas se désengager à l’inverse de tout à chacun qui peut vendre ses titres financiers à tout mo-ment et quelle que soit la situation sur les marchés.

Enfin, au-delà même du fait que la durée moyenne d’un contrat de rentes viagères soitlongue, cette durée est inconnue à chaque instant de la vie du contrat. Cette situation, propreà l’activité d’assurance, rend le risque de taux considéré forcément différent de celui issu d’unproduit financier traditionnel.

Page 38: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 18 Chapitre I. Le risque de longévité

I.4.c - Gestion du risque de taux à long terme par un assureur

On a précédemment expliqué que la composante financière et le caractère viager de toutcontrat d’épargne retraite faisaient naître un risque financier important pour l’assureur. On sepropose désormais d’apporter quelques éléments sur la couverture du risque de taux d’intérêtà long terme dans le cas d’un portefeuille de rentiers où le taux technique est garanti à lasouscription.

Puisque c’est le fait que le taux d’intérêt technique soit fixe qui engendre un risque de taux,une première piste pour gérer ce risque financier et de transformer ce taux fixe en taux variableà l’aide d’un montage financier constitués de swaps de taux d’intérêt 15.

Toutefois, cette technique qui est assez standard en finance n’est pas réellement appropriéedans le cas de contrats de rentes viagères. D’une part, l’assureur ne connaît pas a priori les fluxauxquels il sera confronté à l’avenir et d’autre part le marché ne dispose pas toujours d’actifsà horizons aussi importants que la durée atteinte par certains contrats. Aussi, cette couverturedu risque de taux à long terme est nécessairement imparfaite.

De plus, cette stratégie de couverture est statique au sens où elle n’est valable qu’au momentoù le montage financier est réalisé. En considérant des dates ultérieures, il est fort probable quela stratégie en question ne soit plus adaptée au nouvel environnement dans lequel se trouvel’assureur.

Afin de prendre en compte ces deux précédentes contraintes spécifiques, Bensusan (2010,Chapitre 8) [2] propose un montage financier adpaté aux caractéristiques d’un produit d’assu-rance vie (existence d’une problématique de longévité sous-jacente et contrat à long terme).

Il nomme ce produit financier Longevity Nominal Chooser Swaption qui résulte de la com-binaison de multiples swaptions de taux d’intérêt 16 et qui permet une couverture dynamiquedu risque de taux à long terme moyennant une modélisation du risque de longévité par l’assu-reur.

Basiquement, l’idée de ce produit repose sur la levée de l’incertitude sur l’échéance des fluxfuturs de l’assureur via une estimation qui permet alors de proposer un montage efficace pourcette estimation.

Bien que le risque de taux à long terme est indéniablement un risque à ne pas occulter, oncomprend bien à travers le dernier exemple que c’est avant tout le risque de longévité qui estau coeur des contrats de rentes viagères.

15. Un swap de taux d’intérêt est un produit financier permettant d’échanger une série de flux indexés sur untaux d’intérêt fixe contre une autre série de flux indexés sur un taux d’intérêt variable

16. Un swaption de taux d’intérêt est une option financière dont le sous-jacent est un swap de taux d’intérêt

Page 39: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

MATHÉMATIQUES ACTUARIELLES ET TABLESDE MORTALITÉ

Désormais, il faut définir l’ensemble des outils, propres aux mathématiques actuarielles,qui seront utilisés. Préciser les notations et expliquer certains concepts est indispensable avanttout travail technique de profondeur. De plus, il nous faut expliquer ce que l’on appelle tablede mortalité et préciser le cadre réglementaire associé vu que ce sont ces tables qui induisentune certaine mortalité et donc un risque de longévité sous-jacent.

II.1 – Notations et hypothèses de travail

La présente section vise à redonner quelques définitions mathématiques générales, à pré-ciser certaines notations mais aussi à introduire des concepts et hypothèses spécifiques auxtravaux à venir. C’est l’ensemble de ces différents éléments qui sera utilisé par la suite.

II.1.a - Mathématiques élémentaires

La majeure partie du travail théorique à venir porte logiquement sur des modèles probabi-listes et statistiques. On redonne ainsi les principales définitions notamment, afin de préciserles notations associées.

II.1.a.i) Rappels probabilistes

Disposant d’une variable aléatoire réelle continue X appartenant à un espace probabilisé(Ω,A, P) et de réels t, a et b (vérifiant a 6 b), on peut définir :

– fX, la fonction de densité de X. Elle donne : P(a 6 X 6 b) =∫ b

afX(x) dx

– FX, la fonction de répartition de X. Par définition, FX(t) = P(X 6 t) =∫ t

−∞fX(x) dx

– SX, la fonction de survie de X. Par définition, SX(t) = P(X > t) =∫ +∞

tfX(x) dx

– E(X), l’espérance de X. Sous réserve d’existence, E(X) =∫

x fX(x) dx

– Var(X), la variance de X. Sous réserve d’existence, Var(X) =∫

x2 fX(x) dx− E(X)2

II.1.a.ii) Notations relatives aux vecteurs et matrices

Pour la suite, on adopte les notations suivantes :– Si V est un vecteur de dimension n (V ∈ Rn), il s’écrit "en colonne" de sorte que :

V =

v1...

vn

– Si A est une matrice à n lignes, m colonnes et à coefficients dans R (A ∈ Mn,m(R)), on

Page 40: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 20 Chapitre II. Mathématiques actuarielles et tables de mortalité

admet les deux écritures suivantes pour les coefficients de A :

A =

a1,1 a1,2 . . . a1,m

a2,1 a2,2...

.... . .

......

...an,1 . . . . . . an,m

=

A[1, 1] A[1, 2] . . . A[1, m]

A[2, 1] A[2, 2]...

.... . .

......

...A[n, 1] . . . . . . A[n, m]

– Pour toute matrice A deMn,m(R), la tranposée de A est la matrice deMm,n(R) notée A′

telle que ∀(i, j) ∈ J1; nK× J1; mK , A′[j, i] = ai,j– A l’espace euclidien Rn on associe la norme euclidienne ‖·‖ définie par

∀X ∈ Rn, ‖X‖ =√

n

∑i=1

x2i =√

X′ X

II.1.b - Concepts propres aux modèles de durée

Notre travail théorique porte essentiellement sur des données de durée. Il faut donc définirun cadre d’étude adapté et voir les différentes variables statistiques qui en découlent.

II.1.b.i) Variable aléatoire d’étude

On introduit la variable aléatoire positive T qui modélise la durée de survie d’un individudonné (en actuariat vie, on parle d’une tête).

Globalement, ça n’est pas la densité de cette variable aléatoire qui va particulièrement nousintéresser mais plus la fonction de survie étant donné l’interprétation directe que cette fonctionnous donne.

Puisque tous les individus étudiés ont déjà atteint un certain nombre d’années, il est indis-pensable de considérer finalement la variable aléatoire Tx modélisant la durée de survie d’unindividu qui est âgé de x années.

Ainsi, la loi de Tx est celle de T − x en sachant T > x : Tx ∼ T − x | T > x

II.1.b.ii) Quotient et taux instantané de mortalité

Notre variable aléatoire d’étude Tx ayant été créée, on peut dès lors définir :– la probabilité (notée tPx) qu’une tête d’âge x vive au moins t années supplémentaires

tPx = P(Tx > t) = P(T > x + t | T > x)

– la probabilité (notée tQx) qu’une tête d’âge x ne survive pas t années supplémentairesappelée quotient de mortalité entre x et x + t

tQx = P(Tx 6 t) = P(T 6 x + t | T > x) = 1− tPx

Remarque : Lorsque l’on souhaite considérer l’une de ces probabilités avec t = 1, on écrit sim-plement Px et Qx en omettant le 1.

Page 41: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

II.1. Notations et hypothèses de travail Page 21

Les deux probabilités précédemment définies nous permettent de créer un nouvel indica-teur mathématique, le taux instantané de mortalité µx+t comme

µx+t =1

tPx

∂t tQx

Conceptuellement, ces taux sont différents des quotients de mortalité de par leur dimension.Alors que tQx est une probabilité (c’est-à-dire un nombre et donc une quantité sans dimension),µx+t est un taux donc exprimé en inverse d’unité de temps. Pourtant, d’un point de vue pluspratique, en supposant notamment h petit, on obtient l’approximation hQx ' hµx

II.1.b.iii) Espérance de vie résiduelle

Vu que la durée de la vie d’un individu a été modélisée par une variable aléatoire, il estpossible de calculer l’espérance mathématique de cette variable aléatoire

ex = E(Tx) =∫

t>0tPx dt

Ainsi, ex est le temps moyen restant à vivre pour une tête d’âge x donc une personne en vieà l’âge x décédera en moyenne à l’âge x + ex.

C’est cette quantité ex qui est appelée espérance de vie résiduelle à l’âge x.

II.1.c - Hypothèse concernant la répartition des décès dans l’année

Les notions présentées ci-dessus ont été définies dans le cadre de variables aléatoires conti-nues. Or, avoir accès à des données totalement continues est impossible en pratique, il fautdonc étudier avec attention ce passage de données discrètes à une loi continue.

II.1.c.i) Hypothèses possibles

Généralement, les données concernant la mortalité d’un portefeuille sont regroupées parannée de décès. Il faut donc émettre une hypothèse concernant la répartition des décès aucours d’une même année afin d’obtenir l’intégralité de la loi de Tx. Deux visions 17 s’opposentclassiquement :

– La première consiste à supposer que les décès surviennent linéairement au cours de l’an-née c’est-à-dire qu’on suppose que ∀t ∈ [0 ; 1], tQx = t Qx

– La seconde consiste à supposer que les décès surviennent exponentiellement au cours del’année c’est-à-dire qu’on suppose que ∀t ∈ [0 ; 1], tQx = 1−

(1− Qx

)t

Parmi les deux hypothèses présentées, il convient de retenir celle qui est la plus prudentedu point de vue d’un assureur vie c’est-à-dire celle qui donne des espérances de vie résiduelleles plus importantes.

II.1.c.ii) Recherche de l’hypothèse la plus prudente

On se fixe un individu âgé de x années et un entier k. On cherche à ordonner elinx et eexp

x .Une représentation graphique est utile à la fois pour illustrer les hypothèses mais aussi pour

17. Une troisième hypothèse est souvent relatée : il s’agit de celle de Balducci mais nous n’en faisons pas mentionici puisque cette hypothèse entraîne des taux instantanés de mortalité décroissants entre deux âges succesifs

Page 42: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 22 Chapitre II. Mathématiques actuarielles et tables de mortalité

obtenir un aperçu du résultat. La Figure II.1 montre l’évolution du nombre de décès entre deuxâges entiers consécutifs (les données utilisées sont fictives afin d’obtenir un résultat graphiquenet).

Age

Nom

bre

de d

écès

Hypothèse linéaireHypothèse exponentielle Valeurs entières initiales

FIGURE II.1 – Evolution des décès selon chaque hypothèse de répartition des décès dans l’an-née

Un tel graphique étant indépendant des valeurs de départ, on constate donc que l’hypo-thèse exponentielle entraîne un plus grand nombre de décès à tout instant. Cela nous amène àessayer de démontrer pour tout t ∈ ]0 ; 1[

tQexpx > tQlin

x

⇐⇒ 1−(1− Qx

)t> t Qx

⇐⇒(1− Qx

)t< 1− t Qx

En considérant l’inégalité des accroissements finis pour la fonction y 7→ (1 + z)y − 1− yz(où z ∈ ]−1 ; 0[ est fixé), on montre que la dernière équivalence est vraie.

En intégrant sur [0 ; 1] et en considérant l’inégalité précédente pour chaque âge, on peutrevenir à la définition de l’espérance de vie résiduelle de part et d’autre de l’inégalité et onmontre donc

elinx > eexp

x

Ainsi, on suppose pour l’ensemble de notre étude que les décès surviennent linéairementdans l’année afin d’être le plus prudent possible.

Remarque : Nous avons pris le temps de rechercher l’hypothèse la plus prudente toutefoisDelwarde et Denuit (2006, Chapitre 1) [13] ont montré que le choix d’une hypothèse n’est pasréellement déterminant en pratique pour le calcul d’espérances de vie résiduelle (les écartsconstatés sont de l’ordre du centième d’année). En revanche, cette hypothèse n’en demeure pasmoins nécessaire d’un point de vue théorique.

II.1.c.iii) Expression analytique du taux instantané de mortalité

Désormais, on a donc la relation ∀t ∈ [0 ; 1], tQx = t Qx

Page 43: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

II.2. Tables de mortalité et probabilités de survie Page 23

Une conséquence de cette égalité est qu’elle nous permet d’obtenir une formule pour l’ex-pression des taux instantanés de mortalité entre deux âges entiers. Pour t ∈ [0 ; 1[

µx+t =1

tPx

∂t tQx

⇐⇒ µx+t =1

1− tQx

∂t(t Qx

)⇐⇒ µx+t =

Qx

1− t Qx

Remarque : Ce résultat étant valable pour t = 0, il donne l’égalité µx = Qx.

II.2 – Tables de mortalité et probabilités de survie

On a présenté de nombreux outils précedemment, mais ces derniers ne sont efficaces quesi la probabilité P est connue c’est-à-dire si l’on connaît la loi de Tx. C’est pourquoi les tablesde mortalité existent : afin de donner selon une population d’étude, une expression de la loimodélisant la durée de vie restante.

Il convient alors de définir formellement ce qu’est une table de mortalité et de montrer enquoi une table de mortalité constitue un outil technique indispensable pour l’actuaire.

II.2.a - Définition d’une table de mortalité

Une table de mortalité est un support qui permet de déterminer la probabilité de décèsannuelle d’un membre d’une population donnée (souvent déterminée selon l’année de nais-sance et le sexe). Elle est obtenue à partir de l’étude statistique d’un important panel. Générale-ment, elle suit le cheminement d’une génération fictive de 100 000 nouveau-nés. Un tel grouped’étude est appelé cohorte.

Une table de mortalité permet ainsi à une compagnie d’assurances en calculant les proba-bilités de décès ou de survie des différents souscripteurs de contrats d’assurance de fixer sestarifs. La Figure II.2 présente un exemple de table et illustre cette définition.

Age Nombre de survivants0 100.0001 97.0472 95.995...

...60 89.52361 89.191...

...119 0

FIGURE II.2 – Extraits de la table TPRV93

Page 44: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 24 Chapitre II. Mathématiques actuarielles et tables de mortalité

II.2.b - Variables et formules associées à une table de mortalité

Le but d’une table de mortalité est donc de calculer les probabilités de survie ou de décèspour un individu.

Notons pour tout âge x de la table :– `x, le nombre de survivants après x années ;– dx = `x − `x+1, le nombre de décès à l’âge x ;– w, l’âge ultime de la table de mortalité (pour lequel on a `w = dw).Par définition, la table renseigne l’ensemble des `x, on a donc accès aux probabilités de

survie/de décès discrètes de sorte que pour tout k entier

kPx = P(T > x + k | T > x) =`x+k

`x

kQx = P(T 6 x + k | T > x) =

x+k−1∑

j=xdj

`x=

`x − `x+k

`x

Cette donnée additionnée à notre hypothèse sur la répartition des décès dans l’année nouspermet d’obtenir l’ensemble de la loi de Tx comme souhaité.

De plus, on a également accès (après quelques calculs donnés en Annexe D) à l’espérancede vie résiduelle pour tout âge x

ex =12+

w−x

∑k=1

`x+k

`x

Remarque : Cette relation n’est valable que sous l’hypothèse d’une répartition linéaire des dé-cès au cours de l’année.

II.2.c - Tables du moment et tables prospectives

Le principe d’une table de mortalité et les informations qu’elle apporte ont été précédem-ment expliqués. Toutefois, nous n’avons pas encore évoqué comment une table de mortalitéétait construite notamment quelles hypothèses étaient faites sur la population d’étude. De cepoint de vue technique, il convient de distinguer d’un côté les tables du moment (ou transver-sales) et de l’autre, les tables prospectives (ou longitudinales).

II.2.c.i) Table de mortalité du moment

Une table de mortalité du moment correspond à l’évolution d’une certaine cohorte soumiseaux conditions de mortalité qui prévalent à l’instant où elle est calculée. Elle est construite àpartir de l’étude de la mortalité d’un groupe d’individus sur une certaine durée et donne pourtout âge, le quotient de mortalité.

Si cette méthodologie présente l’avantage de la simplicité de la méthode et de la nécessitéd’un simple groupe restreint d’individus de référence elle présente néanmoins un incovénientmajeur : supposer que la mortalité future sera identique à celle de l’instant d’étude. Aucunaspect générationnel ne rentre en compte ce qui n’est pas pertinent étant donné que l’évolutionde la longévité est un fait que nul ne peut nier.

Page 45: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

II.3. Réglementation associée aux tables de mortalité Page 25

II.2.c.ii) Table de mortalité prospective

Une table de mortalité prospective (ou générationnelle) donne pour chaque générationl’évolution de la mortalité. Elle est donc bidimensionnelle car il faut préciser l’âge mais aussil’année de naissance pour obtenir un quotient de mortalité.

La construction d’une telle table est plus compliquée car elle recquiert de donner pour desgénérations encore en vie l’ensemble des quotients de mortalité. Une étape de prévision de lamortalité est donc nécessaire. Toutefois, les résultats obtenus par ce type de table ont l’avantaged’être plus réalistes et donc plus prudents que ceux donnés par une table du moment.

C’est ce type de table de mortalité que nous allons chercher à construire par la suite.

II.3 – Réglementation associée aux tables de mortalité

Nous avons précédemment donné les clés techniques inhérentes aux tables de mortalité.L’importance de la table de mortalité lors du calcul des tarifs des rentes et des provisions tech-niques impose aux actuaires de nombreuses obligations réglementaires que ce soit dans l’uti-lisation ou dans la construction des tables de mortalité. Il convient donc de présenter ce cadreréglementaire.

II.3.a - Tables réglementaires et tables d’expérience

Une distinction importante doit être faite selon le panel et l’auteur d’une table de mortalité.Cette distinction est explicitée par l’article A335-1 du Code des assurances et aboutit à distin-guer deux catégories.

II.3.a.i) Tables de mortalité réglementaires

Les tables réglementaires sont définies par le Code des assurances comme les "tables homo-loguées par arrêté du ministre de l’économie et des finances, établies par sexe, sur la base depopulations d’assurés pour les contrats de rentes viagères, et sur la base de données publiéespar l’Institut national de la statistique et des études économiques pour les autres contrats".

Elles constituent donc les tables à utiliser par défaut pour un assureur.

De plus, soulignons qu’à chaque type de produit et à chaque population correspond unetable réglementaire. C’est ainsi qu’il faut par exemple utiliser la table TH00-02 si un hommesouhaite souscrire un produit d’assurance décès mais que c’est la table TGF05 qu’il convientd’employer pour tarifer le montant de rentes viagères pour une femme.

II.3.a.ii) Tables de mortalité d’expérience

Les tables d’expérience sont définies par le Code des assurances comme les "tables établiesou non par sexe par l’entreprise d’assurance et certifiées par un actuaire indépendant de cetteentreprise, agréé à cet effet par l’une des associations d’actuaires [...]. [Ces tables] sont établiesd’après des données d’expérience de l’entreprise d’assurance, ou des données d’expériencedémographiquement équivalentes".

Page 46: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 26 Chapitre II. Mathématiques actuarielles et tables de mortalité

Etant donné l’existence de tables réglementaires, il n’y a donc aucune obligation pour unassureur de construire sa propre table d’expérience.

A noter que le processus de certification mentionné plus-haut comprend également un suiviannuel et que la validité maximale d’une table de mortalité d’expérience est de cinq années.De plus, dans le cas de rentes viagères, le tarif donné par une table d’expérience ne peut êtreinférieur à celui donné par la table réglementaire correspondante.

II.3.b - Evolutions réglementaires

Comme vu précédemment, c’est l’article A335-1 du Code des assurances qui est au coeurde la réglementation en ce qui concerne l’utilisation des tables de mortalité. Il n’est donc passurprenant de voir qu’il a été visé par de nombreux arrêtés et décrets. Parmi ces multiplesmodifications, deux constituent des changements particulièrement importants.

II.3.b.i) Passage à des données prospectives

Toutes les tables de mortalité utilisées en France jusqu’en 2006 étaient des tables du momentou bien des tables du moment auxquelles un décalage d’âge était appliqué. Aucune table n’étaitdonc à même de capter véritablement l’évolution de la mortalité.

Il a fallu attendre l’arrêté du 1er août 2006 (avec entrée en vigueur au 1er janvier 2007) pourque des tables de mortalité prospectives (la TGH05 et la TGF05) soient mises à disposition desassureurs pour la tarification de rentes viagères.

II.3.b.ii) Exigence de tables de mortalité unisexes

Fin juin 2009, l’association belge des consommateurs Test-Achat ainsi que 2 particuliers demême nationalité relèvent que, l’application de tarifs différents entre les hommes et les femmessouscrivant un contrat d’assurance vie en Belgique est contraire au principe d’égalité totaleentre hommes et femmes inscrit dans la Constitution de l’Union Européenne.

Dans un arrêt publié le 1er mars 2011, la Cour de Justice de l’Union Européenne reconnaîtque la prise en compte du sexe de l’assuré en tant que facteur de risques dans les contratsd’assurance constitue une discrimination.

A l’échelle française, c’est l’arrêté du 21 décembre 2012 qui modifie la loi et impose auxassureurs de retenir la table la plus prudente indépendemment du sexe de l’assuré. Ainsi, tousles contrats d’assurance vie individuelle (PERP et Madelin notamment) souscrits à partir decette date sont tarifés à l’aide des tables de mortalité relatives aux femmes.

II.4 – Détermination d’un modèle de fermeture de table de mortalité

La pratique de la construction d’une table de mortalité présente toujours une difficulté :celle du manque de données pour des âges très avancés. C’est pourquoi il existe de nombreusesméthodes qui permettent, à partir de données restreintes, d’obtenir l’intégralité d’une table demortalité.

Même si la problématique de la fermeture d’une table de mortalité ne se présente pas pourl’instant, on se propose d’exposer dès à présent la méthode de fermeture de table retenue pour

Page 47: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

II.4. Détermination d’un modèle de fermeture de table de mortalité Page 27

l’ensemble des travaux étant donné qu’elle sera utilisée à de multiples reprises par la suite.

II.4.a - Choix de la méthode de fermeture

La fermeture d’une table de mortalité est une étape aussi nécessaire qu’importante lors dela construction d’une table de mortalité. On pourrait donc croire que le choix de la méthode aune forte influence sur la table finale. Or, si chaque méthode conduit évidemment à une tabledifférente, ces différences ne sont significatives que pour des âges extrêmement avancés (plusde 100 ans) comme expliqué par Delwarde et Denuit (2006, Chapitre 4) [13].

Il ne semble donc pas nécessaire de confronter deux méthodes de fermeture de table. Onopte directement pour la méthode qui donne les résultats les plus prudents dans l’étude deDelwarde et Denuit à savoir la méthode de Coale & Kisker.

II.4.b - La méthode de Coale & Kisker

Pour palier l’absence de taux instantanés de mortalité robustes aux très grands âges, Coaleet Kisker (1990) [9] proposent de les obtenir par extrapolation. En effet, il est possible de pro-poser une formulation mathématique pour les taux instantanés de mortalité qui sont supposésexploitables et d’étendre la relation aux âges où les données sont insuffisantes. Coale et Kiskerproposent de retenir la formule de Gompertz de sorte que pour tout âge x supérieur ou égal à65 ans, on a

µx = µ65 exp(kx(x− 65)

)où kx désigne le taux moyen de croissance de µx entre 65 et x ans.

Cette expression peut se réécrire en faisant apparaître k66, k67, . . . , kx comme suit

µx = µ65 exp

(x

∑y=66

ky

)

Par ailleurs, une étude réalisée sur 7 pays occidentaux (Autriche, France, Japon, Norvège,Pays-Bas, RFA et Suède) et menée par Coale et Kisker montre que le taux de croissance moyenkx décroît linéairement autour de 80 ans ou de 85 ans selon les pays.

Ainsi, il est raisonnable de supposer l’existence d’un réel négatif s tel que pour x > 85

kx = k85 + s(x− 85)

Le coefficient directeur s dirigeant les kx à partir de x = 85 est calculable en fixant un tauxinstantané de mortalité à un âge élevé. Coale et Kisker proposent alors de supposer µ110 = 0,8s’agissant du taux instantané de mortalité féminin (ils retiennent µ110 = 1,0 pour les hommes,afin d’éviter tout croisement de mortalité entre les sexes).

Dès lors, en reprenant la dernière expression de µx pour x = 110, on obtient une équation

Page 48: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 28 Chapitre II. Mathématiques actuarielles et tables de mortalité

dont s est solution

µ110 = µ65 exp

(110

∑y=66

ky

)

= µ65 exp

(84

∑y=66

ky +100

∑y=85

ky

)

= µ84 exp

(110

∑y=85

ky

)

µ110 = µ84 exp

(110

∑y=85

(k85 + s(y− 85)

))

Une expression du coefficient directeur s est donc

s =ln(

µ110µ84

)− (110− 85 + 1)k85

110∑

y=85(y− 85)

soit finalement

s = − 1325

(µ84

µ110+ 26k85

)

où k85 =120

ln(

µ85

µ65

)On peut donc extrapoler la courbe des kx au-dessus de notre âge seuil x = 85. Cette courbe

associée à notre hypothèse µ110 = 0,8 permet en effet de recomposer les taux instantanés demortalité jusqu’à l’âge limite x = 110. Par ailleurs, on rappelle que les taux instantanés demortalité pour des âges inférieurs au seuil sont déjà connus.

In fine, on obtient donc l’ensemble des taux instantanés de mortalité µx (jusqu’à l’âge limitesupposé) uniquement à partir de données restreintes et de quelques hypothèses.

II.4.c - Mise en place pratique : choix des hypothèses

Telle est la méthode retenue en 1990 par Coale et Kisker : calcul des coefficients kx jusqu’àun certain âge, extrapolation de ces coefficients via la relation linéaire supposée puis recompo-sition des taux instantanés de mortalité qui étaient inconnus. Ils ont donc fait deux hypothèsescruciales : supposer d’une part que l’âge seuil au dessus duquel les kx sont linéaires était 85 anset d’autre part, ils ont retenu un âge limite égal à 110 ans (pour lequel µ110 = 0,8).

Si nous avons retenu cette méthode pour fermer notre table, rien ne nous contraint à conser-ver à la lettre ces hypothèses. Il est possible de les ajuster afin que ces dernières soient le pluscohérantes avec les données qui seront utilisées à savoir celles de l’Human Mortality Database(ce choix sera expliqué au chapitre suivant).

Page 49: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

II.4. Détermination d’un modèle de fermeture de table de mortalité Page 29

II.4.c.i) A propos de la linéarité des taux moyens de croissance

On commence par étudier la structure des kx pour plusieurs années de données de l’HumanMortality Databse pour chaque sexe afin de retrouver la linéarité que l’on doit observer à partird’un certain âge seuil et surtout afin de déterminer cet âge seuil. On calcule pour cela les kxsur des intervalles de 5 années en utilisant une approximation similaire à celle employée parDelwarde et Denuit (2003) [12] : on suppose ici que pour tout x ∈ 65, 70, 75, 80, 85, 90, 95

kx =15

ln

(µ(5)x

µ(5)x−5

)

où on pose µ(5)x =

µx + µx+1 + µx+2 + µx+3 + µx+4

5En employant cette formule pour plusieurs années calendaires de notre historique, on ob-

tient les différentes courbes données par la Figure II.3.

65 70 75 80 85 90 95

0.04

0.06

0.08

0.10

0.12

0.14

0.16

Femmes

Age

Taux

moy

en d

e cr

oiss

ance

(k x

)

19501970199020002012

65 70 75 80 85 90 95

0.04

0.06

0.08

0.10

0.12

0.14

0.16

Hommes

Age

Taux

moy

en d

e cr

oiss

ance

(k x

)

19501970199020002012

FIGURE II.3 – Taux moyens de croissance pour différents jeux de données de l’HMD

On constate alors que pour les années d’observation les plus anciennes, on a la linéarité deskx dès 80 ans. Cela n’est plus vrai pour les générations les plus récentes où l’âge seuil est 85ans. Etant donné que la linéarité à partir de 85 ans est validée pour toutes les années testées etpour chacun des sexes il est naturel de fixer comme âge seuil 85 ans aussi bien dans le cas dedonnées féminines que masculines.

II.4.c.ii) A propos de l’ultime taux instantané de mortalité

S’agissant du choix du taux instantané de mortalité final (âge et valeur), il n’est pas adaptéde conserver l’hypothèse de Coale et Kisker (à savoir µ110 = 0,8). En effet, un argument desauteurs concernant l’âge de fermeture était l’absence de décès à des âges supérieurs à 110 ans(on rappelle que leur étude a abouti en 1990). Or, ce constat n’est plus possible aujourd’hui entémoigne les 663 supercentenaires (individus âgés de plus de 110 ans) recencés par l’Interna-tional Database on Longevity (2010) [21].

Aussi, on pose µ120 = 0,8 de sorte d’obtenir une table allant jusqu’à un âge limite de 120ans sans forcer tous les décès en fin de table. Cette hypothèse sera la même que l’on cherche àfermer une table masculine ou féminine.

Page 50: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 30 Chapitre II. Mathématiques actuarielles et tables de mortalité

Remarque : Comme expliqué par Coale et Kisker, le choix de la valeur numérique en fin de tablea peu de conséquences sur les valeurs des taux instantanés de mortalité et donc également surles espérances de vie résiduelles. C’est pourquoi son choix peut être arbitraire.

II.4.c.iii) Hypothèses finales

Pour la suite, dès lors qu’il s’agira de réaliser une fermeture de table de mortalité c’est ainsila méthode de Coale & Kisker qui sera retenue avec les hypothèses suivantes :

– l’âge seuil pour lesquel les taux moyens de croissance peuvent être considérés commelinéaires est 85 ans ;

– l’âge ultime de la table de mortalité est fixé à 120 ans pour lequel on pose (indépendam-ment du sexe) µ120 = 0,8.

Remarque : A noter que la méthode de Coale & Kisker travaille avec des taux instantanés demortalité tandis qu’une table de mortalité indique des quotients de mortalité. Sous l’hypothèsede travail de répartition linéaire des décès dans l’année, on rappelle qu’un lien entre ces deuxnotions est donné par l’égalité µx = Qx.

Page 51: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

PROBLÉMATIQUES ET ENJEUX DUPORTEFEUILLE D’ÉTUDE

Le contexte de l’étude et l’importance des tables de mortalité ont été précédemment exposéset motivent notre objectif qui est la construction de tables de mortalité d’expérience prospec-tives basées sur notre portefeuille d’étude.

Avant toute construction à proprement parler, il est nécessaire de présenter et d’étudier ceportefeuille d’étude afin d’en dégager les caractéristiques principales. C’est sur les résultatsde cette analyse que l’on déterminera la méthodologie à suivre afin d’obtenir les tables demortalité d’expérience recherchées.

III.1 – Construction du portefeuille d’étude

Il est essentiel d’expliquer quelles sont les données à notre disposition avant de les présenterou de les analyser.

III.1.a - Définition du périmètre d’étude

Le portefeuille "Retraite individuelle" d’AXA France est un portefeuille constitué de ren-tiers ayant souscrit ou étant bénéficiaire d’un produit de retraite réglementée. On se limite iciseulement aux rentiers pour lesquels la phase de rentes a débuté avant le 01/01/2013. Les don-nées à notre disposition valables et fiables après traitements établissent une liste de rentiersobservés entre le 01/01/2000 et le 31/12/2012 soit 13 années complètes. Aucune contrainte surle type de rente n’est retenu ici dans la sélection de notre base. Ainsi, les rentiers considéréspeuvent percevoir :

– une rente viagère immédiate ;– une rente temporaire ;– une rente à annuités garanties.

Dès lors, la survie d’un rentier après le 31/12/2012 n’est pas la seule cause de fin d’observation.A noter que tous les taux techniques et tous les fractionnements de rentes sont possibles

dans notre étude étant donné que ces critères n’influencent pas la mortalité des rentiers.

Remarque : Les rentiers pour lesquels une sortie en rentes était prévue contractuellement maisqui sont sortis en capital (cas des rentes basées sur un capital constitutif inférieur à 480e no-tamment) ne sont pas conservés pour cette étude.

III.1.b - Information disponible pour chaque rentier

Pour chaque rentier, il est possible d’obtenir toute la vie du contrat et un très grand nombrede données personnelles à propos de l’assuré. Nous nous sommes limités seulement aux don-nées qui sont pertinentes et recevables pour la construction de quotients de mortalité.

Ainsi, pour chaque rentier, nous avons à disposition :– le sexe du rentier ;– la date de son anniversaire ;– la date de début de versement de la rente ;

Page 52: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 32 Chapitre III. Problématiques et enjeux du portefeuille d’étude

– "l’état" de l’assuré à savoir s’il est actuellement vivant ou mort ;– la date de décès, le cas échant ;– la date de fin de versement de la rente dans le cas d’une rente temporaire ou à annuités

garanties ;– le montant périodique de la rente ou la somme des montants des rentes dans le cas où

l’assuré perçoit plusieurs rentes.

III.1.c - Exposition au risque

Afin d’obtenir la base de rentiers la plus importante, tout rentier touchant sa rente à unmoment de la période d’observation est conservé dans notre étude. Les rentiers ne sont doncpas observés de manière équivalente etant donné qu’ils entrent et sortent de l’étude à des datesqui leurs sont propres. C’est cette problématique qui va être à présent étudiée.

III.1.c.i) Principe des troncatures et censures

L’observation de la survie (ou non) d’un rentier à un âge x revient à observer les réalisationsde la variable aléatoire Tx modélisant le temps de survie de cet individu à l’âge x. De manièrerigoureuse, l’étude de cette variable aléatoire nécessite une observation totale de toutes lesréalisations de Tx à travers le temps.

Malheureusement, il est possible que la donnée soit tronquée à gauche (l’observation dé-bute à un moment donné) et/ou censurée à droite (l’observation s’arrête à un certain moment)et donc que l’observation soit incomplète.

Formellement, ces deux phénomènes sont fondamentalement différents bien que semblablesau premier abord :

– une troncature à gauche apporte l’observation de Tx à partir d’un seuil c > 0. L’informa-tion antérieure est donc perdue.

– une censure à droite donne à l’observation la possibilité de conclure Tx > C. L’informa-tion postérieure est inconnue mais existante.

La Figure III.1 (en page 33) présente les différents cas auxquels nous pouvons être confron-tés.

III.1.c.ii) Calcul de l’exposition

L’existence de troncatures et de censures ainsi que la nécessité de calculer l’exposition selonl’âge du rentier font que l’on ne raisonne jamais en nombre d’individus lorsque l’on étudiela mortalité d’une population. On utilise le concept d’exposition totale du portefeuille face aurisque de décès.

Pour un rentier, son exposition au risque de décès correspond à la durée pour laquelle lerisque existe pour l’assureur. Elle est généralement évaluée en nombre de jours.

Ainsi, dans le cas de données tronquées et/ou censurées on a un indicateur exact de l’ex-position. De plus, cela permet de distinguer l’exposition par âge de rentiers issus de la mêmegénération comme illustré par la Figure III.2 (en page 33).

Par la suite, on utilisera donc l’exposition journalière comme seul indicateur du volume dedonnées.

Page 53: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

III.2. Analyse statistique du portefeuille "Retraite individuelle" Page 33

FIGURE III.1 – Troncature / Censure et étude de la survie des rentiers

FIGURE III.2 – Exemples de calcul de l’exposition

III.2 – Analyse statistique du portefeuille "Retraite individuelle"

Désormais, il faut étudier en profondeur les données dont nous disposons et sur lesquellesdes tables d’expérience vont être construites.

Comme expliqué précédemment, aucune donnée numérique explicite propre au portefeuilled’étude ne peut être présentée dans la présente section dans un souci de confidentialité. Seulesdes proportions, des écarts ou des tendances (qui peuvent aussi bien permettre d’analyser leportefeuille et de tirer des conclusions que les valeurs numériques) sont ainsi donnés.

III.2.a - Indicateurs statistiques généraux

Commençons par donner quelques considérations statistiques d’ensemble à propos de notreportefeuille.

D’abord, s’agissant de la répartition selon le sexe, on dénombre au sein des rentiers obser-vés :

– 59% d’hommes ;– 41% de femmes.

Notre portefeuille est donc majoritairement composé d’hommes mais sans que cette représen-

Page 54: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 34 Chapitre III. Problématiques et enjeux du portefeuille d’étude

tation soit écrasante.

Notre problématique étant la longévité des rentiers, il faut étudier l’âge moyen au débutde l’observation (c’est-à-dire l’âge où la rente commence à être perçue) et celui à la sortie duportefeuille (c’est-à-dire l’âge de décès ou l’âge à la fin de la rente temporaire ou à annuitésgaranties). De plus, il faut analyser ces données statistiques séparement pour les deux sexescompte tenu de la différence entre les hommes et les femmes face à la longévité.

S’agissant de l’âge en entrée, les valeurs constatées sont parfaitement cohérentes avec lepérimètre sur lequel l’étude est réalisée à savoir des rentiers issus de contrats de retraite régle-mentée pour lesquels la phase de restitution coïncide avec le départ à la retraite de l’assuré.

Concernant l’âge à la fin de l’observation, une différence nette selon le sexe est observable.L’écart entre les rentières et les rentiers est d’environ égal à quatre ans : il est en total accordavec les données de la population générale qui démontrent que les femmes sont amenées àvivre plus longtemps que les hommes.

En revanche, les valeurs observées de ces âges de sortie indiquent, a priori, une mortalitéinférieure à celle de la population générale pour les deux sexes. Un écart proche de six ans chezles hommes et un d’environ cinq ans chez les femmes sont observables entre les âges de find’observation moyens et les espérances de vie en France en 2012.

Remarque : Le dernier constat est volontairement imprécis. Il n’est en effet pas possible decomparer telles quelles les précédentes valeurs avec celles à notre disposition portant sur lapopulation générale en raison notamment du mélange des années d’observation. Ce décalageévuentuel entre la mortalité de notre portefeuille d’étude et celle de la population générale seradétaillé dans une section à part entière mais il était important d’évoquer ce phénomène danscette étude préliminaire du portefeuille.

Enfin il est bon de s’intéresser à la dynamique du portefeuille au cours des dernières annéesau travers de l’évolution du nombre de rentiers observés (Figure III.3).

2000 2002 2004 2006 2008 2010 2012

050

0010

000

1500

020

000

Année

2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012

0

Ren

tiers

obs

ervé

s

Année

025

050

075

010

0012

5015

000

Nou

veau

x re

ntie

rsN

ombr

e de

déc

ès

FIGURE III.3 – Evolution du nombre de rentiers du portefeuille d’étude

Globalement, la taille du portefeuille augmente linéairement tandis que le nombre de décèsdiminue légérement au cours du temps. Seul un pic de décès en 2003 (qui est graphiquement at-ténué en raison de l’unicité d’échelle pour les séries "Nouveaux rentiers" et "Nombre de décès")vient perturber la tendance à la baisse observée. Ce dernier témoigne de l’épisode caniculaire

Page 55: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

III.3. Estimation à partir d’un petit échantillon Page 35

record qui a frappé la France au cours de l’été de cette année. Enfin, il convient de remarquerque le nombre de rentiers en phase de rentes a doublé de volume en 13 ans.

III.2.b - Mortalité du portefeuille d’étude

Après avoir entrevu le portefeuille d’étude, il est temps d’étudier de plus près ce qui nousintéresse à savoir la mortalité de ce portefeuille.

On a déjà vu que notre portefeuille était en moyenne constitué de rentiers âgés et que l’âgede décès moyen du portefeuille était plus élévé que l’âge de décès moyen en France. Toutefois,il faut voir comment se répartissent les décès concrétement. C’est ce qui est présenté par laFigure III.4 (en page 36).

La majorité de ces décès survient entre 80 et 99 ans quel que soit le sexe. En effet, sur l’en-semble des décès observés entre 2000 et 2012, près de 80% des décès concernent des individusdans cette tranche d’âge. Dans le détail, on constate que les décès sont concentrés différementchez les hommes et chez les femmes. Chez les hommes, l’essentiel des décès se concentre au-tour de la classe "85-89 ans" tandis que chez les femmes le même phénomène est observablemais autour de la classe "90-94 ans".

Toutefois, la précédente analyse ne nous permet pas de conclure sur les niveaux de mortalitéde notre portefeuille étant donné la différence d’effectifs entre les classes d’âges. Il faut doncprésenter l’exposition des rentiers. Là encore, on donne cette représentation par classe d’âges(Figure III.5 (en page 36)).

Durant nos années d’observation, les rentiers du portefeuille contribuent essentiellement(à près de 85% pour être précis) aux âges compris entre 60 et 89 ans. Au sein des différentesclasses d’âges comprises dans cet intervalle, la répartition est globalement homogène. A noterqu’à partir de 85 ans, les femmes sont plus nombreuses en termes d’exposition que les hommesbien qu’elles soient moins représentées dans le portefeuille.

III.3 – Estimation à partir d’un petit échantillon

Afin d’obtenir la mortalité de notre portefeuille, c’est le principe de mutualisation qu’il fautemployer : supposer que l’on peut ramener l’observation globale à une estimation individuelleen utilisant la moyenne. Ce principe empirique de l’assurance n’est toutefois utilisable que souscertaines contraintes théoriques à savoir la nécessité d’avoir un panel volumineux d’invididusidentiques. Ici, le caractère "volumineux" des données à disposition n’a rien d’évident et ilmérite d’être étudié particulièrement.

Remarque : S’agissant d’avoir un panel d’individus identiques, se restreindre aux seules don-nées du sexe, de l’âge et de la génération afin de segmenter le portefeuille d’étude n’est pasun problème. D’une part, notre étude globale sur la mortalité a démontré que ces trois critèressont significatifs lorsqu’il s’agit d’observer la durée de vie humaine. D’autre part, considérerd’autres facteurs tels que la richesse, le poids ou si l’assuré fume ou non n’est pas permis parle Code des assurances car cela relève de la discrimination.

Page 56: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 36 Chapitre III. Problématiques et enjeux du portefeuille d’étude

− de 59 ans 60−64 ans 65−69 ans 70−74 ans 75−79 ans 80−84 ans 85−89 ans 90−94 ans 95−99 ans + de 99 ans

Années

Nom

bre

de d

écès

HommesFemmesTotal

FIGURE III.4 – Nombre de décès par classe d’âges

− de 60 ans 60−64 ans 65−69 ans 70−74 ans 75−79 ans 80−84 ans 85−89 ans 90−94 ans 95−99 ans + de 99 ans

Exp

ositi

on c

umul

ée (

en a

nnée

s)

HommesFemmesTotal

FIGURE III.5 – Exposition totale des rentiers du portefeuille

Page 57: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

III.3. Estimation à partir d’un petit échantillon Page 37

III.3.a - Importance statistique de la taille de l’échantillon

Même sans démonstration formelle, tout le monde s’accorde pour dire qu’un sondage réa-lisé auprès de 10 000 personnes a plus de valeur qu’un sondage réalisé auprès de 100 individusquand bien même les résultats obtenus sont identiques. Cet exemple simple permet d’illustrerla nécessité d’accompagner toute estimation statistique d’une marge d’erreur dont on souhaitequ’elle se réduise en augmentant le panel d’étude. En statistiques, on parle d’intervalle deconfiance dont les bornes sont directement dépendantes de la taille de l’échantillon d’étude.

III.3.a.i) Mutualisation et intervalle de confiance

Mathématiquement, le principe de mutualisation a pour origine la loi des grands nombres.Cependant, ce théorème indique seulement la convergence de la moyenne d’un échantillonvers l’espérance pour un nombre infini d’observations.

Etant donné qu’en pratique, ce théorème est appliqué avec un nombre d’observations quel’on suppose "grand" (mais qui n’en demeure pas moins un nombre fini), l’estimation statis-tique notée µ de l’espérance qui en découle n’est pas exacte : il existe une incertitude liée aunombre d’observations considérées et qui est mesurée par un intervalle de confiance.

Pour obtenir l’intervalle de confiance associé à l’estimation, il faut utiliser un autre théorèmefondamental des probabilités à savoir le théorème central limite :Soit (Xn)n∈N une suite de variables aléatoires réelles indépendantes de même loi, d’espéranceµ et de variance σ2 alors

√n

Xn − µ

σ

L−−−→n→∞

N (0, 1) où Xn =1n

n

∑i=1

Xi

Or, la moyenne empirique Xn est un estimateur sans biais de l’espérance qui est la donnéerecherchée lorsque l’assureur réalise une mutualisation.

Dès lors, si σ2 est connu, le théorème central limite donne (en notant QZ(1− α2 ) le quantile

d’ordre 1− α2 de la loi normale centrée réduite) l’égalité

P

(Xn −

σ√n

QZ

(1− α

2

)6 µ 6 Xn +

σ√n

QZ

(1− α

2

))= 1− α

Ceci est exactement la définition de l’intervalle de confiance de niveau de confiance 1− αassocié à l’estimation µ, ce dernier noté IC1−α(µ) est donc donné par

IC1−α(µ) =

[Xn ±

σ√n

QZ

(1− α

2

)]Remarque : Pour obtenir le précédent intervalle, il a fallu supposer que σ2 était connu ce quin’est pas le cas en pratique. On utilisera donc un estimateur de la variance pour obtenir l’inter-valle de confiance associé à l’estimation de l’espérance dans un tel cas.

III.3.a.ii) Précision d’un intervalle de confiance et échantillon minimal

En se fixant une certaine longueur de l’intervalle de confiance (c’est-à-dire en fixant lesbornes), il est possible d’en déduire le nombre d’observations nécessaires pour obtenir un in-tervalle respectant cette condition.

Page 58: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 38 Chapitre III. Problématiques et enjeux du portefeuille d’étude

Considérons X ∼ Bernoulli(p) et une estimation p du paramètre de la loi de X. On chercheà obtenir un intervalle de confiance à 1− α pour cet estimateur pour lequel la distance entre lesbornes de l’intervalle n’excède pas ε p (où 1− ε est un pourcentage qui indique la précision del’intervalle souhaité).

La taille n∗ de l’échantillon minimal qui permet d’obtenir un tel intervalle est donc, pardéfinition, le premier entier n vérifiant

p− σ√n QZ

(1− α

2

)p + σ√

n QZ(1− α

2

) > p(1− ε)< p(1 + ε)

ces deux inégalités sont "symétriques" donc le précédent système équivaut à la seule inégalité

σ√n

QZ

(1− α

2

)< ε p

une estimation de la variance étant p(1− p) (cas de la loi de Bernoulli), l’inégalité se réécrit√p(1− p)ε√

nQZ

(1− α

2

)< p

⇐⇒ 1− pp

(QZ(1− α

2

)2

< n

Et donc finalement, n∗ est donné par la formule

n∗ =

1− pp

(QZ(1− α

2

)2

où d·e désigne la partie entière par excès (ou partie plafond) définie par : ∀a ∈ R, dae = − b−ac

Remarque : La valeur de n∗ est bien entendu directement dépendante de la valeur estimée p enplus des "paramètres" α et ε de l’intervalle de confiance recherché.

III.3.b - Insuffisance des données du portefeuille d’étude

Bien que notre portefeuille ne cesse de gagner en volume, en l’état actuel des choses, ilsemble trop restreint pour qu’il suffise à lui-même lors de la construction d’une table de mor-talité d’expérience.

III.3.b.i) Analyse descriptive et volatilité des données

On propose d’étudier cette question de la taille de l’échantillon de départ d’abord d’unpoint de vue qualitatif.

De simples observations sur le portefeuille d’étude mettent à mal une éventuelle suffisancedes données initiales :

– le nombre d’années d’expérience (13 années) semble trop faible pour obtenir des projec-tions sur un nombre d’années important ;

Page 59: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

III.3. Estimation à partir d’un petit échantillon Page 39

– la taille de notre portefeuille n’est pas, a priori, assez importante pour éliminer les irrégu-larités liées aux fluctuations d’échantillonage et effectivement la répartition des rentiers(donnée Figure III.6) est totalement inégale.

6070

8090

100Age

Exposition (en années)

2000

2002

2004

2006200820102012

Ann

ée

FIGURE III.6 – Exposition des rentiers selon l’âge et l’année d’observation

De plus, il est important de préciser que la même volatilité des données du portefeuilleexiste concernant le nombre de décès observés. Pire, pour de nombreux couples âge/année,aucun décès n’est constaté. Ces valeurs nulles sont problématiques car elles conduisent néces-sairement à une estimation nulle des quotients de mortalité associés, ce qui n’est pas recevable.

III.3.b.ii) Analyse statistique et précision des intervalles de confiance

Nous allons à présent appliquer notre propos sur les intervalles de confiance à nos donnéesafin de démontrer mathématiquement la faiblesse supposée de notre échantillon. On se limiteici à une modélisation basique du risque décès et à une simplification des données.

→ Estimateur du quotient de mortalité pour ce calcul d’intervalles de confiancePour la présente sous-section uniquement, on suppose que pour chaque couple d’âge x et

d’année d’observation t, on dénombre :– nx,t "individus équivalents" au sens où nx,t correspond à l’exposition journalière totale

(hommes et femmes confondus) divisée par 365 arrondie à l’entier supérieur ;– dx,t décès.Ainsi, si l’exposition totale constatée est de 36400 jours et qu’on observe 4 décès, on va sup-

poser que l’on étudie nx,t = 100 individus dont dx,t = 4 sont décédés et donc que l’estimationdu quotient de mortalité unisexe Qx,t =

dx,tnx,t

est égale à 4,00 %.

→ Intervalles de confiance et calcul de nombres minimaux d’observationsOn retient 3 couples âge/année de sorte de couvrir différentes valeurs pour nx,t et dx,t. Pour

chacun des couples, on calcule une estimation du quotient de mortalité et on donne l’intervallede confiance à 95% associé (résultats également en Figure III.7 (en page 40)) en sachant qu’onprésente ce dernier intervalle après l’avoir multiplié par nx,t afin de l’exprimer en nombre dedécès dans un souci de lisibilité.

Page 60: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 40 Chapitre III. Problématiques et enjeux du portefeuille d’étude

nx,t dx,t Qx,t nx,t IC1−α(Qx,t)Couple 1 794 1 0,125% [−0, 96 ; 2, 96]Couple 2 233 2 0,858% [−0, 76 ; 4, 76]Couple 3 240 14 5,833% [6, 88 ; 21, 12]

FIGURE III.7 – Intervalles de confiance pour différents couples âge/année

Les intervalles obtenus sont plutôt larges étant donné que tous sont de longueur supérieureà 3 et donc que dx,t n’est jamais le seul entier compris dans chaque intervalle.

On décide alors de calculer les différentes valeurs n∗x,t nécessaires pour obtenir des inter-valles de confiance précis à 1− ε = 98%. Les résultats obtenus sont présentés dans la Figure III.8et comparés aux nx,t réels.

nx,t n∗x,t n∗x,t/nx,tCouple 1 794 7 763 314 9 664Couple 2 233 1 109 702 4 762Couple 3 240 155 125 646

FIGURE III.8 – Comparaison du volume de données réel et de celui souhaité pour obtenir unintervalle de confiance précis à 98%

Dans tous les cas, il faudrait multiplier très significativement la taille de l’échantillon dedépart pour que l’intervalle de confiance de niveau 95% du quotient de mortalité estimé soitd’une précision de 98%.

Il apparaît donc très clairement que le nombre de rentiers à disposition est insuffisant pourque toute estimation des quotients de mortalité soit statistiquement robuste.

III.3.b.iii) Conclusion sur la qualité du volume de l’échantillon d’étude

Il est donc naïf et faux mathématiquement de supposer que les données collectées sontsuffisantes pour être exploitées seules en vue de la construction d’une table d’expérience.

Le nombre de rentiers est clairement insuffisant étant donné les nombreux âges considérésdans l’étude. De plus, même sur les âges où l’on compte le plus de données, les valeurs estiméessont associées à de trop larges intervalles de confiance.

Ainsi, il est impossible d’utiliser une méthode endogène pour obtenir la table d’expérienceprospective recherchée. Il nous faut alors avoir recours à une méthode exogène et l’utilisationd’une référence externe.

III.4 – Principe d’anti-sélection

La présentation de notre portefeuille achevée, nous pouvons revenir à un point seulementmentionné précédemment qui est la différence observée entre la mortalité du portefeuille etcelle constatée au sein de la population française.

Page 61: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

III.4. Principe d’anti-sélection Page 41

III.4.a - Définition et anti-sélection en assurance

L’anti-sélection (également appelée parfois sélection adverse) est un phénomène qui estlargement reconnu en assurance mais qui n’est pas propre à ce milieu. C’est un concept globalà tout marché en économie. On va donc le définir dans ce cadre global et ensuite le présenterdans le cadre de notre portefeuille de rentiers.

III.4.a.i) Origine du phénomène

Supposons que l’on se place dans le cadre d’un marché imcomplet dans le sens où acheteurset vendeurs ne disposent pas de la même information sur le bien ou le service qui est au coeurde l’échange. Dans une telle situation, le phénomène d’anti-sélection est défini par le fait qu’unecaractéristique du bien ou du service échangé est inobservable par l’une des parties.

Illustrons cette définition avec l’exemple du marché des voitures d’occasion qui est celuiemployé par Akerlof (1970) [1] lorsqu’il a posé les bases du principe d’anti-sélection en écono-mie.

Dans ce marché où l’on suppose que les voitures en vente peuvent être "bonnes" (sans dé-fauts) ou "mauvaises" (avec un défaut invisible lors de la vente), les vendeurs de voitures ontclairement un avantage sur les acheteurs vu qu’ils connaissent exactement l’état de leur voi-ture. Dès lors, un vendeur peut volontairement léser un acheteur en mettant sur le marché savoiture bien qu’elle présente des défauts qui ne pourront être connus de l’acheteur qu’après lavente. C’est exactement le principe d’anti-sélection.

Les conséquences pour ce marché sont importantes : les acheteurs qui ne peuvent pas dis-tinguer les "bons" et les "mauvais" véhicules au moment de l’achat réduisent le prix qu’ils sontprêts à payer pour une voiture étant donné l’incertitude sur la qualité du véhicule acheté. Celaempêche toute transaction avec les vendeurs honnêtes qui eux cherchent à vendre à la justevaleur leur véhicule et donc à un prix élevé. A contrario, les vendeurs de "mauvaises" voiturespeuvent proposer un prix bas vu que leur véhicule n’a pas grande valeur et donc seules leursvoitures sont échangées sur ce marché.

Finalement, des échanges qui étaient mutuellement avantageux n’ont pas eu lieu et seulsles mauvais agents du marché demeurent d’où le nom d’anti-sélection.

III.4.a.ii) Cas du marché de l’assurance

Bien que les produits en assurance soient nombreux et diversfiés, une anti-sélection estomniprésente quel que soit le constrat souscrit.

Tout assuré connaît mieux que quiconque et avec précision sa situation donc à la signatured’un contrat d’assurance, l’assureur peut ne pas connaître certains facteurs d’aggravation durisque. Cette asymétrie d’information combinée à la liberté de contracter de l’assuré lui confèreun avantage certain sur l’assureur : il y a bien anti-sélection.

Ce mécanisme d’anti-sélection menace directement le fonctionnement même du marchéde l’assurance. En effet, pour un risque et un tarif d’assurance donné, seules les personnesestimant leur risque supérieur au niveau de risque découlant du tarif proposé sont susceptiblesde souscrire au contrat proposé. Et si seuls ces "mauvais risques" restent au sein du portefeuille,l’assureur est déficitaire.

En réponse à cela et pour parvenir à capter les "bons risques", l’assureur peut chercher

Page 62: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 42 Chapitre III. Problématiques et enjeux du portefeuille d’étude

à calibrer différentes primes compte tenu de la diversité des profils mais cela fragilise alorsmécaniquement la qualité de la mutualisation du risque.

Ainsi, l’anti-sélection est une composante bien présente en assurances et ses conséquenceséconomiques ne peuvent être ignorées.

III.4.a.iii) Rentes viagères et anti-sélection

Dans notre cas d’étude, à savoir les contrats de rentes viagères où le risque assuré est celuide longévité, l’hétérogénéité de la population face à la mortalité conduit principalement lesindividus dont l’espérance de vie est élevée à souscrire des contrats de rentes viagères afinde profiter du rendement en fin de vie. On ne prétend pas que les assurés sont capables desavoir s’ils décéderont tardivement et donc de savoir de manière certaine s’il est profitable desouscrire un contrat de rentes viagères. Toutefois, il est clair qu’à l’inverse un individu maladesera peu enclin à adhérer à un tel contrat.

C’est pourquoi des tables de mortalité spécifiques aux rentiers existent (les tables de mor-talité réglementaires TGH05/TGF05) et qu’elles donnent des prévisions supérieures en termesd’espérance de vie que celles indiquées par l’INSEE pour la population générale. On illustrecet écart Figure III.9 pour l’espérance de vie à 65 ans des femmes.

2010 2020 2030 2040 2050

2025

3035

Année

Esp

éran

ce d

e vi

e à

65 a

ns (

en a

nnée

s)

2005 2010 2015 2020 2025 2030 2035 2040 2045 2050

Calculs TGF05 Prévisions INSEE

FIGURE III.9 – Prévisions de l’espérance de vie à 65 ans des femmes selon la TGF05 (populationrentiers) et selon l’INSEE (population générale)

Par ailleurs, au-delà du fait que les assurés souscrivent une rente viagère, la composantefiscale des contrats de retraite réglementée peut être source d’anti-sélection. Comme vu précé-demment, la fiscalité des contrats de type PERP ou Madelin est un argument de premier choixlors de l’adhésion. On peut donc supposer que les rentiers étudiés ont des revenus nettementsupérieurs à ceux d’un rentier "moyen". Et bien qu’aucune étude n’ait jamais confirmé un liendirect entre richesse et longévité, il n’est pas déraisonnable de penser qu’une bonne situationfinancière favorise une vie plus longue (en raison d’un meilleur accès aux soins par exemple).

Ainsi, dans notre cas spécifique des contrats de retraite réglementée, il existe une formed’anti-sélection supplémentaire par rapport à un produit d’assurance vie classique.

Finalement, une anti-sélection existe sur le portefeuille étudié et elle se traduira par desquotients de mortalité plus faibles pour la population assurée par rapport à ceux de la popula-tion générale.

Page 63: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

III.4. Principe d’anti-sélection Page 43

III.4.b - Portefeuille d’étude et anti-sélection

A présent, nous allons tenter de matérialiser l’anti-sélection attendue de notre portefeuillegrâce à la comparaison statistique de différentes populations.

III.4.b.i) Définition du Standardized Mortality Ratio

Le Standardized Mortality Ratio (SMR) ou ratio de mortalité standardisé, est un indica-teur permettant de comparer la mortalité d’une cohorte par rapport à une population de réfé-rence. L’étendue des données à considérer est libre de sorte que le SMR permette aussi bien decomparer la mortalité pour un âge d’une génération que celle d’un portefeuille sur une annéed’observation.

En notant Dcoh le nombre de décès constatés de la cohorte et Dre f le nombre de décès théo-rique attendu sur une population de référence à effectif et exposition équivalents, on définit leSMR comme

SMR =Dcoh

Dre f

Ainsi, la valeur du SMR indique directement la position de la mortalité du portefeuille parrapport à celle de la population de référence :

– si SMR > 1, la cohorte a une mortalité plus élevée que celle de la population de référence ;– si SMR = 1, cohorte et population de référence ont une mortalité équivalente ;– si SMR < 1, la cohorte a une mortalité plus faible que celle de la population de référence.

III.4.b.ii) Calculs de SMR

Etant donné que l’on étudie ici différentes populations de rentiers, les tables de mortalitéréglementaires sont la TGH05 ou la TGF05 selon le sexe de l’assuré concerné. On va doncutiliser les données de ces tables de mortalité comme référence pour calculer le nombre dedécès attendus selon chaque portefeuille.

→ Première analyse des SMR du portefeuille d’étudeOn commence par calculer les SMR de notre portefeuille "Retraite individuelle" par année

d’observation afin de voir s’il existe une tendance temporelle qui se dégage. Les SMR par sexeet le SMR global sont donnés en Figure III.10 (en page 44).

La mortalité du portefeuille est dans l’ensemble supérieure à celle indiquée par les tablesde mortalité de référence. On note toutefois que la tendance est à un rapprochement de lamortalité d’expérience vers la mortalité de référence.

Comme précédemment, s’arrêter sur une étude annuelle serait incorrect sans étude par âge.En effet, il reste à voir si la différence de mortalité constatée est constante quel que soit l’âge oubien si cette différence est expliquée uniquement par certains âges.

Représenter les SMR pour tous les âges de notre portefeuille est possible mais étant donné lefaible nombre de rentiers de notre portefeuille, les fluctuations d’échantillonage parasiteraientla représentation graphique. On considère donc des classes d’âges pour le calcul des SMR parâge ce qui permet d’aboutir à la Figure III.11 (en page 44).

Deux phases se dégagent. D’un côté, pour les rentiers âgés de moins de 75 ans la mortalitéest proche de celle escomptée tandis qu’à l’inverse, la mortalité pour les rentiers dont l’âge estsupérieur à 75 ans est plus importante que prévue.

Page 64: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 44 Chapitre III. Problématiques et enjeux du portefeuille d’étude

2000 2002 2004 2006 2008 2010 2012

Années

SM

R (

en %

)HommesFemmesTotal

FIGURE III.10 – SMR relatifs au portefeuille d’étude par année d’exposition

2 3 4 5 6 7 8 9

Classes d'âges

SM

R (

en %

)

Hommes FemmesTotal

− de 60 ans 60−64 ans 65−69 ans 70−74 ans 75−79 ans 80−84 ans 85−89 ans 90−94 ans 95−99 ans + de 99 ans

FIGURE III.11 – SMR relatifs au portefeuille d’étude par classes d’âges

Remarque : Les SMR de la classe d’âge "Moins de 60 ans" étaient tous nettement supérieurs à200%. C’est pourquoi ils ne sont pas représentés afin de garder une représentation graphique laplus claire possible. De plus, étant donné la faible exposition pour cette classe d’âge, ces valeursne semblent pas pertinentes pour notre étude.

Globalement, la mortalité du portefeuille est donc plus importante qu’attendue à tout pointde vue étant donné la mortalité théorique d’une population de rentiers.

→ Anti-sélection par la comparaison des SMR avec ceux du portefeuille "Retraite collective"On se propose désormais de comparer nos SMR avec ceux observés sur le portefeuille "Re-

traite collective" afin de comparer une population de rentiers libre de souscrire et une autre quine l’est pas. On effectue cette comparaison aussi bien par année d’observation que par classed’âges ce qui donne la Figure III.12 (en page 45).

On constate que les SMR du portefeuille "Retraite collective" sont généralement supérieursà ceux de notre portefeuille "Retraite individuelle". En supposant que les niveaux de SMR duportefeuille de "Retraite collective" correspondent à des niveaux moyens, cela démontre l’exis-tence d’anti-sélection concernant notre portefeuille d’étude.

Page 65: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

III.5. Utilisation des données de l’Human Mortality Database Page 45

2000 2002 2004 2006 2008 2010 2012

Années

SM

R (

en %

)Hommes − Retraite Individuelle Femmes − Retraite IndividuelleTotal − Retraite Individuelle

Hommes − Retraite Collective Femmes − Retraite CollectiveTotal − Retraite Collective

2 3 4 5 6 7 8 9

Classes d'âges

SM

R (

en %

)

Hommes − Retraite Individuelle Femmes − Retraite IndividuelleTotal − Retraite Individuelle

Hommes − Retraite Collective Femmes − Retraite CollectiveTotal − Retraite Collective

− de 60 ans 60−64ans 65−69 ans 70−74 ans 75−79 ans 80−84 ans 85−89 ans 90−94 ans 95−99 ans + de 99 ans

FIGURE III.12 – SMR du portefeuille "Retraite individuelle" contre SMR du portefeuille "Re-traite collective"

Cette caractéristique fondamentale du portefeuille d’étude est un argument supplémentairepour la construction de tables de mortalité d’expérience.

Remarque : A noter qu’un moyen usuel pour pallier au problème du petit échantillon est defusionner différentes sources de données. Compte tenu des différences de mortalité entre lesdeux précédents portefeuilles, il n’était donc pas opportun ici d’employer ce raisonnement.

III.5 – Utilisation des données de l’Human Mortality Database

Comme démontré précédemment, les données de notre portefeuille sont trop peu nom-breuses pour qu’elles suffisent lors du processus de construction de table de mortalité d’expé-rience. Cette faiblesse de l’échantillon intial de données peut être comblée par l’utilisation d’unmodèle relationnel.

Page 66: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 46 Chapitre III. Problématiques et enjeux du portefeuille d’étude

III.5.a - Emploi d’un modèle relationnel

L’approche relationnelle consiste à relier les indicateurs démographiques de deux popula-tions différentes. Les deux populations peuvent aussi bien être totalement indépendantes queliées temporellement. Ici, le premier groupe est constitué par nos rentiers. Le second reste en-core à déterminer étant donné la diversité des références à notre disposition.

Il existe également de nombreux types de modèles relationnels, quelques exemples sontdonnés par Delwarde et al. (2006) [14].

S’agissant de notre étude, on souhaite retenir un modèle relationnel intégrant les spécificitésdu portefeuille et qui puisse être interprété en termes de mortalité.

Considérer un modèle relationnel additif permet, entre autres, de modéliser la mortalité denotre cohorte de rentiers comme celle de la population générale à laquelle on ajoute un biaissymbolisant l’anti-sélection inhérente à tout groupe d’assurés. De plus, les paramètres permet-tant de créer le lien recherché ont généralement une signification propre et une interprétationdirecte.

Dès lors, la table de mortalité de référence doit être une table de mortalité modélisant lamortalité de la population générale. Ainsi, il serait contradictoire d’utiliser les tables de morta-lité TGH05/TGF05 (bien qu’elles demeurent les tables réglémentaires pour les produits com-portant des rentes viagères) vu qu’elles ont été déterminées à partir de l’étude d’une populationde rentiers.

C’est pourquoi, dans le cadre de notre étude, on choisit d’utiliser les données de l’HumanMortality Database afin de construire nous-même la table qui va servir de référence.

III.5.b - Présentation de l’Human Mortality Database

"The Human Mortality Database" est, comme une traduction permet de le comprendre, unebase de données publique regroupant différentes données historiques sur la mortalité humaine.Elle se destine essentiellement à un public averti (démographes et actuaires notamment).

Ce projet est né au début des années 2000 à partir des travaux de recherche de l’université deBerkeley (Etats-Unis, Californie) et de l’Institut Max Planck pour la recherche en démographie(Allemagne, Rostock). L’idée étant de réunir sous une base unique l’ensemble des travaux déjàexistants (Berkeley Mortality Database (1997), Kannisto-Thatcher Database (1993), etc...). Deplus, cette base a uniformisé les données à disposition tant du point de vue des âges considérésque des pays étudiés.

Aujourd’hui, l’HMD regroupe les données de 37 pays (majoritairement européens). Elledonne aussi bien des quotients de mortalité pour chaque âge et chaque année d’observationqu’une estimation de la population.

S’agissant de la France, elle donne accès aux données de 1816 à 2012 aussi bien pour leshommes que pour les femmes. La plage d’âges débute à 0 ans (c’est-à-dire la naissance) ets’achève à la classe "110 ans et plus".

Remarque : Tous les détails sont disponibles sur le site de l’Human Mortality Database [30].

Page 67: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

III.6. Conclusion de l’étude du portefeuille et méthodologie retenue Page 47

III.5.c - Apports et contraintes liés au choix des données HMD

Le choix de la référence est crucial. Il conditionne en grande partie les résultats finaux étantdonné que l’on cherche désormais à faire le lien entre les observations réelles et des donnéesde référence théoriques.

Depuis le début, nous nous sommes inscrits dans une démarche qui se veut la plus intui-tive mais également la plus proche de la problématique d’ensemble qui est celle posée par lalongévité humaine. Notre choix de base se doit de respecter cette logique et c’est pourquoi lesdonnées HMD, construites par des démographes, ont été retenues.

De plus, il est important de rappeler que l’historique de ces données est le plus impor-tant disponible parmi les ressources démographiques à disposition. De surcroît, les donnéesHMD sont unifiées et permettent potentiellement d’étendre les travaux à des pays autres quela France.

Notons toutefois que l’Human Mortality Database ne donne aucune projection de la mor-talité. Cela peut être vu comme une contrainte forte étant donné l’objectif prospectif inhérentà la construction d’une table de mortalité d’expérience. Mais inversement, on peut égalementconsidérer que la recherche d’une méthode de projection fait partie intégrante des travaux àmener.

Bien que cela représente une surcharge, cela permet de "contrôler" la forme de mortalitéprojetée. De même, il est également possible d’utiliser plusieurs méthodes de projection etd’étudier la différence de résultats étant donné une plage de données intiales determinée.

III.6 – Conclusion de l’étude du portefeuille et méthodologie retenue

Après avoir présenté les données aussi bien du point de vue de leur construction maiségalement d’un point de vue statistique, force est de constater que le volume de données d’ex-périence est extrêmement modeste.

Aussi, s’appuyer sur une référence externe semble la seule solution afin de composer avecla problématique posée par ce petit échantillon.

La référence choisie est l’Human Mortality Database car elle fournit un historique importantet qu’elle s’inscrit parfaitement dans notre démarche d’étude globale sur la longévité (celled’expérience et celle de la population générale).

Ainsi, la construction de tables d’expérience prospectives passe par deux étapes distinctesmais d’égale importance :

– La construction, selon différents modèles, de tables de mortalité Hommes/Femmes pros-pectives basées sur les données HMD.

– Le positionnement de la mortalité d’expérience par rapport à ces tables de référence HMDen utilisant un modèle relationnel.

Page 68: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier
Page 69: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Deuxième partie

Construction de tables d’expérienceprospectives et applications

opérationnelles

Page 70: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier
Page 71: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

TABLES DE RÉFÉRENCE À PARTIR DE L’HUMANMORTALITY DATABASE

L’analyse statistique du portefeuille d’étude a démontré l’insuffisance du volume des don-nées d’expérience à notre disposition et la nécessité de s’appuyer sur des tables de référenceafin de construire les tables d’expérience prospectives recherchées.

La volonté de s’appuyer sur les données de l’Human Mortality Database nous pousse àconstruire, en utilisant deux méthodologies différentes, ces tables de mortalité de référence.

IV.1 – Démarche de construction des tables de mortalité HMD

Avant de construire à proprement parler une table de mortalité issue des données de l’Hu-man Mortality Database, il faut d’abord détailler l’ensemble de la démarche retenue et présen-ter les hypothèses associées à ce travail.

IV.1.a - Modélisations de la mortalité

La construction d’une table de mortalité est un travail statistique dans la mesure où lesdonnées à disposition et l’obtention d’un modèle constituent respectivement départ et finalitédes travaux mathématiques.

Ici, on cherche à modéliser l’évolution des quotients de mortalité donnés par l’Human Mor-tality Databse selon le sexe, l’âge et l’année d’observation en tenant compte de l’évolution dela longévité : c’est exactement le principe d’une approche prospective. On propose d’abordercette problématique de deux façons :

– La première est une approche paramétrique. On va chercher à ajuster les données à uncertain modèle initial dont on sait qu’il est à même de donner une forme satisfaisante dela mortalité.

– La seconde est une approche semi-paramétrique au sens que l’on ne fixe pas un nombrede paramètres a priori. On va chercher à capter un modèle de séries temporelles sur lesdonnées afin de ne pas émettre d’hypothèse sur la forme de la mortalité.

Ainsi, pour chacun des sexes, on se donne comme objectif d’employer ces deux approchesdifférentes afin d’obtenir deux tables de mortalité issues des données HMD.

La comparaison des tables obtenues apportera recul et prudence dans le cas de résultatsdifférents ou un critère de validation dans le cas de résultats convergents.

IV.1.b - Choix des données initiales

On rappelle que l’Human Mortality Database donne les quotients de mortalité observés enFrance entre 1816 et 2012 pour tout âge inférieur à 110 ans. L’objectif est donc d’obtenir de telsquotients mais pour les années à venir.

Dès lors, il n’est pas pertinent d’utiliser toutes ces données car il faut conserver uniquementles données qui sont sujettes aux tendances de mortalité actuelles et celles qui ne sont pas biai-sées par un évenement extrême (comme une guerre). C’est pourquoi dans un premier temps,

Page 72: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 52 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

on considère uniquement les données à partir de 1950 car on peut supposer que c’est à partirde cette année que les conséquences de la Seconde Guerre mondiale n’influent plus sur la mor-talité. Dans un second temps et une fois chaque méthodologie expliquée, cette hypothèse seraremise en cause de sorte d’obtenir les meilleures prévisions possibles.

Par ailleurs, rappelons que notre objectif final est la modélisation de la mortalité d’un por-tefeuille de rentiers. Donc seuls les quotients de mortalité pour des âges importants nous in-téressent. On considère alors uniquement les données pour des âges supérieurs à 60 ans etinférieurs à 95 ans en vue de toute modélisation. En effet, en dehors de cette plage d’âges lesdonnées d’expérience sont particulièrement peu nombreuses et nous avons d’ores et déjà choisiune méthode de fermeture de table. Aussi, il n’est pas nécessaire de considérer une plage d’âgesplus large lors de la construction des tables de référence.

L’ensemble des quotients de mortalité (pour les hommes et les femmes) donnés par l’Hu-man Mortality Database compris dans les plages d’âges et d’années précédemment explicitéesforment notre base de données initiale.

C’est donc l’ensemble

Qx,t, (x, t) ∈ J60; 95K× J1950; 2012K

.

Remarque : Pour la suite, l’ensemble J60; 95K× J1950; 2012K des plages initiales est noté PlageBase.

IV.1.c - Construction de tables de référence HMD : méthodologie et objectifs

Avant de débuter concrètement la construction de tables de mortalité de référence à par-tir des données de l’Human Mortality Database, il est indispensable de définir explicitementl’objectif des travaux à venir ainsi que certaines dénominations récurrentes :

1. Que ce soit pour le modèle paramétrique ou celui utilisant la théorie des séries tempo-relles, l’objectif est d’établir une projection des quotients de mortalité jusqu’en 2060 (soit48 années à prédire).

2. C’est l’association, pour un sexe et une méthodologie donnés, des quotients de mortalitéobservés (entre 1950 et 2012) et des quotients de mortalité prédits (entre 2013 et 2060) pourdes âges compris entre 60 et 95 ans qui constitue "une table de référence HMD". Aucunetechnique d’ouverture ou de fermeture de table ne sera réalisée étant donné que le lienavec les données d’expérience ne sera réalisé que pour la plage d’âge fixée. En revanche,de telles techniques seront bien envisagées par la suite s’agissant des tables d’expérience.

3. Le détail de la construction des tables "HMD Logistique" (associées au modèle paramé-trique) et des tables "HMD Séries T." (associées à l’approche semi-paramétrique) est pré-senté dans les deux sections à venir uniquement pour le cas des données relatives auxfemmes. S’agissant des quotients de mortalité masculins, on retient les deux mêmes mé-thodologies (aussi bien pour le modèle en lui-même que pour ses hypothèses). Des élé-ments de résultats, s’agissant des tables de référence obtenues pour les hommes, sontalors donnés en Annexe A.

4. Le chapitre suivant appliquera le même modèle relationnel entre les données d’expé-rience et les tables qui vont être construites. Ainsi, aucune comparaison directe entreles projections des tables de référence "HMD Logistique Femmes" et "HMD Séries T.Femmes" ne sera menée et on analysera directement les tables d’expérience finales pourjuger et comparer les deux méthodologies retenues. Toutefois, un backtesting concluerace chapitre dans le but d’évaluer la qualité des prévisions obtenues et le bien-fondé desdonnées considérées.

Page 73: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.2. Modèle paramétrique et table "HMD Logistique Femmes" Page 53

IV.2 – Modèle paramétrique et table "HMD Logistique Femmes"

En premier lieu, on se propose d’obtenir une projection des quotients de mortalité donnéspar l’Human Mortality Database en estimant un modèle paramétrique sur nos données et enprojetant ensuite les coefficients obtenus. C’est cette projection, en revenant à la formule mathé-matique du modèle retenu, qui donnera les quotients de mortalité futurs recherchés et établirala table "HMD Logistique Femmes".

IV.2.a - La fonction logistique à quatre paramètres

Dans le cas d’un modèle paramétrique, l’hypothèse principale est donc de supposer quepour une année t fixée il existe une fonction paramétrique à même de modéliser l’évolutiondes quotients de mortalité selon l’âge.

On considère la "fonction logistique à quatre paramètres" définie pour tout x ∈ R par

f (A, B, xmid, scal; x) = A +B− A

1 + exp(

xmid−xscal

)où les p = 4 paramètres A, B, xmid et scal sont des réels tels que B− A > 0 et scal 6= 0

Remarque : Par définition, une fonction est dite logistique (au sens de Verhulst) si elle est solu-tion d’une équation différentielle du type y′ = cy(1− y

K ). Aussi, il existe une infinité de fonc-tions logistiques et la précédente écriture d’une fonction logistique n’est pas unique (que ce soits’agissant du nombre de paramètres ou s’agissant de l’emplacement des quatre paramètres).Dans un souci de clareté et pour la suite, l’expression "la fonction logistique" est permise etdésigne uniquement la représentation à quatre paramètres décrite précédemment.

On donne en Figure IV.1 (en page 54) d’une part la courbe des ln(Qx,t) pour une annéecalendaire fixée (en l’occurence l’année 2012) et d’autre part, un exemple de fonction logistique.

On observe une forme analogue entre les deux graphes : c’est cette similitude de structurequi nous a naturellement conduit vers le choix de la fonction logistique pour modéliser annuel-lement la mortalité.

De plus, la représentation graphique de la fonction logistique est directement et entièrementmodulable puisque chaque paramètre a son "rôle" dans cette représentation graphique :

– A correspond à l’asymptote horizontale gauche (limite en −∞).– B correspond à l’asymptote horizontale droite (limite en +∞).– xmid correspond à l’abscisse du point d’inflexion de la courbe. A noter qu’en xmid, la

fonction atteint la valeur A+B2 .

– scal correspond au facteur d’incurvation de la courbe (étant présent au dénominateur,plus petit est ce paramètre, plus marquée sera l’incurvation de la courbe).

Ces quatre paramètres peuvent donc être séparés en deux groupes :– D’un côté A et B forment le groupe des paramètres asymptotiques étant donné qu’ils "ne

servent qu’à" translater verticalement ou à étirer le graphe de la fonction logistique via ladéfinition des asymptotes horizontales aux infinis.

Page 74: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 54 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

60 70 80 90 100

−5

−4

−3

−2

−1

Un jeu de données réel

Age

ln(Q

x,2

012

)

−60 −40 −20 0 20 40 60

−4

−2

02

46

Une fonction logistique

x

f(−

4,6,

5,20

; x)

FIGURE IV.1 – Représentation des ln(Qx,t) pour l’année 2012 et de la fonction logistique deparamètres A = −4, B = 6, xmid = 5 et scal = 20

– De l’autre xmin et scal constituent le groupe des paramètres structurels étant donné qu’ilsinterviennent directement dans l’emplacement et dans l’intensité de l’inflexion caracté-ristique de la fonction logistique.

Ainsi, il nous faudra adapter nos méthodes de projection à la spécificité de chacun de cesparamètres afin d’exploiter au mieux les possibilités en termes de structure offertes par la fonc-tion logistique.

Remarque : La fonction exhibée est adaptée à l’évolution du logarithme des quotients de mor-talité et non à celle des quotients de mortalité bruts. Considérer ces logarithmes est une réponseface au fait qu’un quotient de mortalité soit nécessairement compris entre 0 et 1 avec des va-leurs en général très proches de 0.

IV.2.b - Estimation des paramètres et validation du modèle pour l’année 2012

On a donc identifié une analogie entre l’ensemble des ln(Qx,t) et la fonction logistique pourune année t fixée.

Il faut donc mener pour chacune des années de notre plage de données, une estimation desparamètres ainsi qu’une vérification statistique de la validité de la modélisation retenue. Dansla présente sous-section, on va détailler ce processus pour une certaine année : l’année 2012.

IV.2.b.i) Définition du modèle statistique

On se place dans la présente sous-section en t = 2012 où l’on dispose donc de m = 36observations.

On cherche à ajuster, les logarithmes des quotients de mortalité (les ln(Qx,2012)) à la fonctionlogistique ce qui mène à considérer

∀x ∈ J60; 95K , ln(Qx,2012) = A +B− A

1 + exp(

xmid−xscal

) + εx

Page 75: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.2. Modèle paramétrique et table "HMD Logistique Femmes" Page 55

où εx est le terme d’erreur du modèle défini tel que ∀x ∈ J60; 95K , εx ∼ I ID(0, σ2).

A noter qu’ici, la notation "I ID(0, σ2)" est un moyen concis pour dire que les termes d’aléasεx sont supposés être indépendants et identiquement distribués avec une espérance nulle etune variance fixée.

Afin de se ramener aux notations communes des modèles de régression non linéaires, onnote :

– β le vecteur de Rp contenant les paramètres de la fonction logistique β =

AB

xmidscal

– yi notre observation pour le ième âge de l’intervalle J60; 96K– vi(β) l’image de i + 59 par la fonction logistique paramétrée par le vecteur βDès lors, on a pour tout i ∈ J1; mK

yi = vi(β) + ε i

Une fois ce modèle posé, il "suffit" d’estimer les paramètres afin d’obtenir des valeurs ajus-tées. La validité du modèle estimé est ensuite verifiée via une étude sur la significativé descoefficients, une analyse résiduelle et l’obtention d’un intervalle de confiance.

Remarque : Ici, étant donné que nous avons des observations bien plus nombreuses que lenombre de paramètres à estimer, on peut supposer que le modèle est identifié de sorte d’assurerl’existence et l’unicité de l’estimateur β qui va être calculé.

IV.2.b.ii) Estimation des paramètres par la méthode des moindres carrés non linéaires

Il existe de nombreux moyens d’estimer notre vecteur β de paramètres. Ici, nous retenonsl’approche des moindres carrées (qui a lieu ici dans un cadre non linéaire étant donné la non-linéarité de la fonction logistique).

→ Introduction aux moindres carrésOn définit la fonction SSR 18 (ou fonction somme des résidus au carré) comme la fonction

(de Rp dans R) suivante

SSR(β) =m

∑i=1

(yi − vi(β)

)2

En créant Y le vecteur de Rm contenant les m observations et V(β) celui contenant les mrégressions, on peut réécrire notre fonction SSR de façon algébrique (c’est-à-dire uniquementà l’aide de vecteurs)

SSR(β) =(Y−V(β)

)′ (Y−V(β))

= ‖Y−V(β)‖2

Par définition, l’estimateur β des moindres carrés est le vecteur de Rp minimisant la fonc-tion SSR et donc il est donné par

β = argminβ∈Rp

‖Y−V(β)‖2

18. De l’anglais "Sum of Squared Residuals"

Page 76: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 56 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

Remarque : En plus d’avancer la résolution analytique du problème d’optimisation, la dernièreexpression fait apparaître la vision géométrique du problème : il est clair que minimiser lafonction SSR (selon β) c’est minimiser en fait la distance euclidienne entre Y et V(β).

→ Résolution du problème d’optimisationAinsi, il suffit de résoudre le problème de minimisation précédent pour obtenir notre esti-

mateur des moindres carrés.

Posons la matrice A(β) de Mm,p(R) telle que A(β)[i, j] =∂vi

∂β j(β), en vue d’obtenir une

équation matricielle donnant β. La fonction SSR peut être réécrite comme suit

SSR(β) = ‖Y−V(β)‖2

= Y′ Y− 2Y′ V(β) + V(β)′ V(β)

= Y′ Y− 2Y′ V(β) + V(β)′ IdMm,m(R)V(β)

En dérivant la dernière égalité par rapport au vecteur β et en appliquant les règles de déri-vation vectorielle, on obtient alors une expression du gradient de la fonction SSR en β

∇SSR(β) = −2A(β)′ Y + 2A(β)′ V(β)

Par définition d’un minimum de la fonction SSR, β annule la précédente équation et onobtient donc les conditions de premier ordre de l’estimateur des moindres carrés

A(β)′(Y−V(β)

)= 0

Etant donné que notre modèle de régression n’est pas linéaire, cette équation matriciellen’admet pas forcément une unique solution : ces conditions du premier ordre étant nécessairesmais non suffisantes pour faire de β un minimum global de la fonction somme des résidus aucarré (il peut s’agir par exemple d’un minimum local, d’un point stationnaire ou même d’unmaximum local). De plus, la non-linéarité empêche toute résolution analytique de ce systèmed’équations.

Il faut donc recourir à un algorithme d’optimisation pour obtenir numériquement l’estima-teur des moindres carrés recherché.

→ Pratique de la méthode d’estimation et premier élément de validation du modèleLa pratique de la méthode des moindres carrés non linéaire nécessite donc un choix d’al-

gorithme pour résoudre, soit le dernier système d’équations (A(β)′(Y − V(β)

)= 0) soit le

problème de minimisation original (β = argminβ∈Rp

‖Y−V(β)‖2).

Ici, on choisit de revenir au problème de moindres carrés initial et d’employer l’algorithmede Gauss-Newton (le choix de cet algorithme, son fonctionnement et sa mise en oeuvre pratiquesont détaillés en Annexe C) .

Ainsi, on obtient finalement une valeur numérique, qui s’avère non nulle, pour chaquecoefficient du vecteur des paramètres β. On commence alors par étudier la significativité dechacun des quatre βk car elle peut nous donner d’emblée un critère de rejet du modèle.

D’après le test de significativité des coefficients de Student (décrit en Annexe B), aucun desparamètres n’est nul : le modèle estimé peut être conservé en vue de sa validation totale.

Page 77: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.2. Modèle paramétrique et table "HMD Logistique Femmes" Page 57

IV.2.b.iii) Analyse résiduelle

Bien que la méthode des moindres carrés nous ait donné des valeurs estimées de nos para-mètres, rien ne nous assure que le modèle retenu est approprié. Il est en effet possible qu’il netienne compte d’une partie de l’information initale auquel cas un tel manquement sera visibleen analysant les résidus.

Pour valider le modèle, il faut simplement que les résidus obtenus suivent les caractéris-tiques théoriques que l’on a supposé à leur égard à savoir être indépendemment et indique-ment distribués selon une loi d’espérance nulle et de variance fixe. Il convient de préciser quela normalité des résidus n’est pas une condition nécessaire, seule la condition d’homoscédasti-cité des résidus doit être obtenue (si l’espérance est bien nulle et la variance constante).

D’abord, on propose d’étudier la représentation graphique des résidus (donnée à gauchede la Figure IV.2).

On constate qu’aucune structure particulière n’existe : cela est une preuve de la bonne adé-quation du modèle aux données (la présence d’une tendance ou forme particulière aurait indi-qué une information manquée par le modèle). De plus, il y a une bonne répartition des résidusde part et d’autre de la valeur 0 et la moyenne des résidus est par ailleurs de l’ordre de 10−12.

On a donc des résidus d’espérance nulle et de variance constante. Reste à démontrer qu’iln’existe pas de corrélation entre ces derniers.

Pour ce faire on trace l’autocorrélogramme des résidus qui est donné à droite de la Fi-gure IV.2.

Ce dernier nous donne des autocorrélations qui peuvent être considérées comme nullespour tout retard non nul, donc il n’existe aucun lien entre les résidus. Ils sont bien homoscé-dastiques.

60 65 70 75 80 85 90 95

−0.

06−

0.04

−0.

020.

000.

020.

040.

06

Graphe des résidus

Age

0 5 10 15

−0.

20.

00.

20.

40.

60.

81.

0

Retard

Autocorrélogramme des résidus

FIGURE IV.2 – Représentation graphique des résidus obtenus et de l’autocorrélogramme cor-respondant

Dès lors, l’estimation des paramètres obtenue est valable statistiquement.

Page 78: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 58 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

IV.2.b.iv) Intervalles de confiance

On a précédemment assuré la validité statistique des estimateurs mais nous n’avons encorepas vu s’ils permettent d’obtenir un bon ajustement par rapport à nos données. Il faut donc àprésent calculer un intervalle de confiance pour chacun des paramètres estimés. En associantles intervalles obtenus, on obtiendra in fine, un intervalle de confiance pour les estimations desobservations.

On rappelle que nous sommes dans le cadre d’un modèle de régression non linéaire. Mal-heureusement, les résultats portant sur les intervalles de confiance connus dans le cadre linéairene sont pas transposables dans le cadre non linéaire. Dans ce cas-là, seuls des résultats asymp-totiques peuvent être obtenus moyennant une hypothèse de normalité sur les aléas.

D’abord, en utilisant une approximation asymptotique, on peut considérer que la matricede variance-covariance du modèle, issue deMp,p(R) et notée C(β), est donnée par la relation

C(β) =SSR(β)

m− p

(A(β)′ A(β)

)−1

De plus, en supposant que les aléas sont normaux et pour tout k ∈ J1; pK, βk suit une loinormale centrée réduite et donc un intervalle de confiance à 95% associé à βk est de la forme

IC95%(βk) =[

βk ± 1, 96 C(β)[k, k]]

Remarques : - Précisons qu’il faut également admettre que SSR(β)m−p fournit un estimateur sans

biais de la variance σ2 pour avoir la première approximation.- S’agissant de l’hypothèse de normalité, cette dernière n’est pas réellement contrai-

gnante car il est possible de montrer que les résidus obtenus suivent effectivement une loi nor-male (via l’étude d’un QQ-plot ou grâce à un test de normalité).

- Pour tous les détails concernant l’obtention de IC95%(βk) , ils sont donnés parDavidson et MacKinnon [11] (Chapitres 3 et 5).

Dès lors, il suffit de calculer chacun des termes mentionnés précédemment (la matrice A(β)

des dérivées partielles prises en β, la valeur de la fonction SSR en notre vecteur de paramètresestimés β, les coefficients diagonaux de la matrice de variance-covariance C(β)) et d’employer,pour chaque βk, la précédente expression de IC95%(βk) pour finalement obtenir l’intervalle deconfiance à 95% (donné en Figure IV.3 (en page 59)) associé à notre estimation.

La majorité des valeurs observées sont comprises dans cet intervalle ce qui permet de qua-lifier l’estimation de satisfaisante.

IV.2.b.v) Bilan de l’estimation paramétrique pour l’année 2012

Ainsi, s’agissant des données de l’année 2012 :– les quatre paramètres estimés sont tous significatifs ;– les résidus sont conformes aux hypothèses liées au modèle de régression retenu ;– l’intervalle de confiance à 95% estimé contient une grande majorité des valeurs initiales.

Le modèle paramétrique basé sur la fonction logistique est acceptable statistiquement et lesvaleurs ajustées obtenues sont fidèles aux données initiales. L’ensemble de ces résultats peut

Page 79: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.2. Modèle paramétrique et table "HMD Logistique Femmes" Page 59

60 65 70 75 80 85 90 95

−5

−4

−3

−2

Age

ln(Q

x,2

012

)

Données brutesValeurs ajustéesIntervalle de confiance à 95%

FIGURE IV.3 – Résumé graphique de l’ajustement paramétrique pour l’année 2012

donc être conservé pour la suite où ce processus d’estimation doit être répété pour chacune desannées d’observation de PlageBase.

IV.2.c - Analyse de l’ensemble des différents ajustements

La sous-section précédente a permis de démontrer la validité du modèle de régression pro-posé pour une année fixée. Il faut à présent étudier les résultats obtenus sur l’ensemble dePlageBase et voir comment projeter ces derniers.

IV.2.c.i) Présentation des résultats

On peut donc accéder à la valeur de tout quotient de mortalité ajusté puisque :– la donnée d’une année d’observation donne un vecteur de paramètres estimés ;– la donnée d’un âge de calcul correspond à l’argument de la fonction logistique.

C’est ainsi qu’on aboutit à la Figure IV.4 (en page 60) qui représente d’une part les donnéesinitiales et d’autre part, la surface obtenue en réalisant l’ajustement proposé pour chaque annéed’observation de la plage de données initiale.

La surface de mortalité estimée n’étant que le rappochement de valeurs successives, cettedernière ne présente pas de régularité. Notre objectif étant d’obtenir une prévision, il faut cher-cher une formule générale pour cette surface afin de pouvoir ensuite projeter la forme retenue.

Graphiquement, on constate que la courbe tend à s’infléchir plus nettement et à un âge plustardif en suivant l’évolution des années d’observation. Cette caractéristique graphique étantdirectement liée à la valeur des paramètres, modéliser l’évolution selon l’année d’observationdes paramètres semble une piste exploitable.

Page 80: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 60 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

Année

195019601970198019902000

2010 Age60

7080

90

ln(Qx,t)

−5

−4

−3

−2

Données brutes

Année

195019601970198019902000

2010 Age60

7080

90

ln(Qx,t)

−5

−4

−3

−2

Valeurs ajustées par année via la fonction logistique

FIGURE IV.4 – Quotients de mortalité bruts et ajustés via la fonction logistique (représentationslogarithmiques)

IV.2.c.ii) Evolution des paramètres estimés

La Figure IV.5 représente la valeur de chacun des paramètres estimés selon l’année pourlaquelle l’estimation a été réalisée.

1950 1960 1970 1980 1990 2000 2010

−6.

4−

6.2

−6.

0−

5.8

A

Année

Val

eur

du p

aram

ètre

1950 1960 1970 1980 1990 2000 2010

−0.

3−

0.2

−0.

10.

0

B

Année

Val

eur

du p

aram

ètre

1950 1960 1970 1980 1990 2000 2010

7274

7678

8082

xmid

Année

Val

eur

du p

aram

ètre

1950 1960 1970 1980 1990 2000 2010

1011

1213

14

scal

Année

Val

eur

du p

aram

ètre

FIGURE IV.5 – Paramètres estimés selon l’année d’observation

Deux comportements s’opposent, d’un côté A et B ne semblent pas évoluer selon une formeprécise, de l’autre xmin et scal semblent évoluer linéairement. Cette différence scinde les pa-ramètres en deux groupes qui coïncident avec ceux formés précédemment en fonction du rôled’un paramètre dans la représentation graphique de la fonction logistique.

Page 81: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.2. Modèle paramétrique et table "HMD Logistique Femmes" Page 61

→ Cas des paramètres asymptotiquesAucune tendance caractéristique ne se dégage en observant les paramètres asymptotiques

(A et B). Rappelons que ces paramètres donnent les valeurs limites de la fonction logistique(qui modélise les ln(Qx,t) à t fixé).

Ainsi, B est la limite en +∞ et étant donné qu’ici x désigne l’âge, exp(B) doit correspondreà la valeur asymptotique des Qx,t. En se fixant 120 ans comme âge limite de calcul d’un quo-tient de mortalité, cette valeur asymptotique correspond donc à une valeur moyenne des Q120,tfinaux. De la même façon, s’agissant de A et à l’inverse, exp(A) doit correspondre aux Q0,tinitiaux.

On pourrait s’étonner que les asymptotes ne suivent pas une légère déviation pour colleravec la réduction du nombre de décès à la naissance et l’augmentation de l’espérance de viemais il ne faut pas perdre de vue qu’on discute ici de valeurs asymptotiques. Ces dernièrescorrespondent donc plus aux limites intrinsèques de l’humanité et il n’est donc pas choquantde les supposer constantes à travers les années.

D’ailleurs, en examinant les valeurs numériques, les résultats obtenus sont en totale adé-quation avec le constat précédent. exp(A) est en moyenne égal à 0,25% ce qui est dans l’ordrede grandeur des quotients de mortalité à la naissance mais également une valeur jamais at-teinte (en 2012, le quotient de mortalité à la naissance était légérement inférieur à 0,31%). Apriori, même si les techniques médicales se perfectionnent, il semble utopique d’atteindre unjour un quotient de mortalité nul à la naissance et donc ce 0,25% pourrait constituer une limiteconsécutive à l’acte biologique qu’est la naissance.

S’agissant de exp(B) ce dernier est en moyenne proche de 0,80. Obtenir un quotient demortalité maximal différent de 1,00 va dans le sens de ceux qui supposent qu’aucun âge limiteconcernant la vie humaine n’existe. De plus, cette valeur étant relativement elevée, elle rendimprobable mais pas impossible la survie au-delà de l’âge limite fixé.

Cette absence d’évolution temporelle pour les paramètres asymptotiques n’a donc pas lieud’être surprenante et correspond même plutôt bien au phénomène étudié.

→ Cas des paramètres structurelsSi les deux paramètres asymptotiques peuvent être considérés constants, les deux para-

mètres influant sur la structure de la courbe eux varient. Cela est tout à fait cohérent avec lesaméliorations de mortalité observées et qui ne peuvent pas être portées par les paramètresasymptotiques.

L’évolution croissante de xmin c’est-à-dire de l’abscisse du point d’inflexion traduit exac-tement l’amélioration de l’espérance de vie observée à travers le temps. En effet, si ce xminne correspond pas exactement à l’espérance de vie à la naissance, il correspond en fait à l’âgemodal (dont on rappelle que c’est l’âge de décès le plus probable à la naissance) à une légèretranslation près (moins de 2 ans en moyenne). Et donc si l’âge modal augmente chaque année,cela induit également une augmentation de même ordre des espérances de vie.

De la même façon, la décroissance de scal et donc l’augmentation de l’incurvation de lacourbe est cohérente avec l’évolution réelle de la mortalité. Cela signifie qu’aux bords, la courbese rapproche des asymptotes : aux bas âges, la mortalité tend vers 0 et aux grands âges, lamortalité est palpable bien plus tard sans allongement de l’âge limite. Ce qui est décrit ici estexactement le phénomène de rectangularisation de la mortalité.

Page 82: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 62 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

Ainsi, on peut modéliser l’historique linéarité des gains d’espérance de vie directement parla linéarité des paramètres structurels estimés.

IV.2.c.iii) Conclusion de l’analyse des résultats

L’absence de régularité d’un point de vue de l’évolution temporelle des logarithmes desquotients de mortalité ajustés qui empêchait toute projection directe semble remédiable.

En effet, l’étude des paramètres estimés et de leur structure d’évolution laisse apparaîtreplusieurs tendances nettes qui coïncident parfaitement avec l’évolution de la longévité. Dèslors, obtenir une formule générale simple pour les logarithmes des quotients de mortalité nenécessite plus qu’une formalisation mathématique de la précédente analyse.

IV.2.d - Calcul de projections

Après avoir ajusté la fonction logistique pour chacune des années d’observation de la plagede données, il ne reste plus qu’à réaliser une projection pour obtenir la table de mortalité "HMDLogistique Femmes" recherchée.

IV.2.d.i) Formalisation mathématique de l’analyse en termes de longévité

De la précédente analyse, il est possible de construire deux hypothèses empiriques afind’obtenir une formule générale pour les logarithmes des quotients de mortalité de PlageBase :

– S’agissant des paramètres asymptotiques (A et B), on peut les supposer indépendants del’année d’étude et donc considérer la moyenne issue des paramètres estimés pour obtenirune valeur fixe de chacun des paramètres.

– S’agissant des paramètres structurels (xmin et scal), on peut supposer une évolution li-néaire par rapport à l’année d’étude et donc estimer deux couples de coefficients afind’obtenir une fonction linéaire pour chacun des paramètres.

La formule générale d’un logarithme de quotient de mortalité ajusté, noté QAjsx,t , est donc de

la forme

∀(x, t) ∈ J60; 95K× J1950; 2012K , ln(QAjsx,t ) = A +

B− A

1 + exp((

axmid+bxmidt)−x(

ascal+bscal t) )

IV.2.d.ii) Conditions de régularité

On a donc déterminé une forme générale qui doit permettre d’arriver à une surface lisseet stable sur laquelle il sera possible de s’appuyer afin d’obtenir finalement des quotients demortalité projetés.

Toutefois, la surface obtenue sera effectivement lisse si et seulement si les QAjsx,t sont bien

décroissants selon t et croissants selon x.

→ Régularité pour chaque annéeLa croissance des ln(QAjs

x,t ) pour une année t fixée est assurée étant donné que les loga-rithmes des quotients de mortalité ont été initialement ajustés selon la fonction logistique quiest elle-même croissante.

Page 83: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.2. Modèle paramétrique et table "HMD Logistique Femmes" Page 63

→ Régularité pour chaque âgeEn revanche, s’agissant de la décroissance pour un âge fixé, une condition de régularité

s’impose. En effet, il faut vérifier pour chaque x et pour tout t

QAjsx,t > QAjs

x,t+1

⇐⇒ A +B− A

1 + exp((

axmid+bxmidt)−x(

ascal+bscal t) ) > A +

B− A

1 + exp((

axmid+bxmid(t+1))−x(

ascal+bscal(t+1)) )

la différence B− A étant positive, par définition des paramètres asymptotiques de la fonctionlogistique, le sens de l’inégalite se conserve

⇐⇒(axmid + bxmid(t + 1)

)− x(

ascal + bscal(t + 1)) >

(axmid + bxmidt

)− x(

ascal + bscalt)

⇐⇒ ascalbxmid + xbxscal − axmidbscal > 0

Ainsi, la formule générale proposée sera valable seulement si les coefficients polynomiauxassociés aux paramètres structurels vérifient la précédente relation pour chaque âge de la plagede données.

IV.2.d.iii) Calcul numérique des paramètres et coefficients de la forme générale

On a donc démontré que la formule générale proposée nous permet d’obtenir une surfacede mortalité lisse moyennant le respect d’une condition pour chaque âge. Reste à présent àdéterminer les paramètres de notre formule générale afin d’obtenir une valeur numérique pourle logarithme de chaque quotient de mortalité de la plage de données.

→ Paramètres asymptotiquesOn a donc supposé que les paramètres asymptotiques de la fonction logistique initiale sont

constants et donc indépendants de l’année.Aussi, on calcule la moyenne des paramètres estimés par année de sorte d’obtenir A et B

A =1n

2012

∑k=1950

Ak

B =1n

2012

∑k=1950

Bk

→ Coefficients polynomiaux modélisant les paramètres structurelsOn a proposé une fonction affine afin de modéliser l’évolution de xmid et scal en fonction

de l’année d’étude. Il faut donc procéder pour chacun de ces paramètres à une estimation d’uncouple de coefficients (a, b) selon un modèle linéaire.

Pour xmid, en adoptant les notations classiques à savoir Yxmid =

xmid1950...

xmid2012

et Xxmid =

1 1950...

...1 2012

on obtient les coefficients recherchés

Page 84: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 64 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

(axmidbxmid

)=(X′xmid Xxmid

)−1X′xmid Yxmid

Il en va de même pour scal.

Remarque : Le calcul numérique montre que la condition de régularité précédemment présen-tée est bien vérifiée pour chaque âge.

IV.2.d.iv) Surface de mortalité lissée et projetée finale

Désormais, il est possible de calculer les coefficients de notre formulation générale. On ob-tient ainsi, en considérant l’exponentielle de la formule générale, une surface lisse obtenueaprès ajustement des quotients de mortalité de notre plage de données initiale mais égalementune projection des quotients de mortalité (chaque projection est notée QPrj

x,t ) en employant laformule générale pour t ∈ J2013; 2060K (et pour tous les âges compris entre 60 ans et 95 ans).

La Figure IV.6 donne tous ces quotients de mortalité (les QAjsx,t et les QPrj

x,t ) qui constituent latable de mortalité de référence "HMD Logistique Femmes" recherchée.

Année

19601980

20002020

2040

2060

Age

60

70

80

90

ln(Qx,t)

−5

−4

−3

−2

19601980

20002020

2040

2060 60

70

80

90

−5

−4

−3

−2

FIGURE IV.6 – Représentation logarithmique de la table "HMD Logistique Femmes"

IV.2.e - Robustesse du modèle paramétrique

Même si la précédente étude donne des résultats qui semblent valides et utilisables, unélément à prendre en compte est la robustesse de notre méthodologie. En effet, on ne peut passe limiter à la seule étude précédente car rien ne garantit que la projection obtenue reflète unetendance générale : le résultat obtenu pourrait être un cas particulier.

Page 85: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.2. Modèle paramétrique et table "HMD Logistique Femmes" Page 65

Il faut donc voir si appliquer cette méthodologie avec des jeux de données différents (qu’ilssoient plus larges ou plus réduits) donne des résultats similaires.

IV.2.e.i) Méthodologie retenue

Il n’existe aucun chemin tracé pour déterminer la robustesse d’une méthode statistique. Ilfaut donc en déterminer une en relation avec notre problématique générale qui est la modéli-sation de la mortalité.

→ Définition de la robustesseOn pourrait définir la robustesse comme la capacité à généraliser les conclusions d’une ana-

lyse statistique. S’interroger sur la robustesse des estimateurs calculés c’est notamment étudierleur capacité à ne pas être modifié par une petite modification dans les données.

Etant donné que nos valeurs projetées ne reposent que sur un maintien de la tendancepassée, la question de la robustesse en est d’autant plus cruciale. Or, une tendance va fatalementvarier selon l’étendue de la plage de données que l’on considère. Reste donc à savoir si cesvariations sont significatives (et donc vont dans le sens d’un modèle peu robuste) ou si ellessont au contraires négligeables (auquel cas le modèle peut être considéré comme robuste).

→Mesure de la robustesseIl faut donc déterminer un critère de comparaison des modèles. En l’état, il est peu utile de

comparer les quotients de mortalité calculés selon différentes plages de données car un quo-tient de mortalité étudié seul apporte peu d’informations. Le calcul d’éventuels ratios ou deltasde variations entre les différents quotients de mortalité serait donc d’autant plus insignifiantcar ils seraient difficilement étudiables (à partir de quel pourcentage/valeur y’a-t-il un écartsignificatif, l’écart autorisé peut t’il varier selon l’âge et l’année, etc...).

La nécessité d’étudier des indicateurs synthétisant l’ensemble des quotients obtenus appa-raît donc clairement. Le calcul d’espérances de vie résiduelles et de taux d’améliorations parclasses d’âges et d’années s’impose.

D’une part car ce sont des variables qui reflètent bien l’information portée par un ensemblede quotients de mortalité d’une certaine plage de données. D’autre part car ce sont égalementdes indicateurs régulièrement utilisés et dont l’interprétation est immédiate. Ainsi, tout résultataberrant pourra être plus rapidement détecté.

→ Variation de la plage de donnéesReste à déterminer comment faire varier notre plage de données de départ qui est le sujet

même de notre étude de robustesse.

Notre plage de données de base (PlageBase) est l’ensemble formé par les années 1950 à 2012et les âges de 60 à 95 ans.

Concernant les années, il serait dommage de se priver des données les plus récentes (etdonc les plus à même de nous indiquer une tendance actuelle). On maintient alors 2012 commedernière année de notre jeu de données.

Si l’on ne peut modifier la fin, il nous faut donc faire varier le début de la plage. Puisquel’on recherche à obtenir près d’une cinquantaine de valeurs futures, réduire l’échantillon endessous de ce niveau n’est pas envisageable. A l’inverse, considérer une plage trop étendueprésente l’inconvénient de capter une tendance trop générale et donc qui risque de ne pas être

Page 86: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 66 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

en phase avec la tendance actuelle.Ainsi, on se propose de faire varier l’année initiale de 1930 à 1965.

Concernant les âges, il n’est pas nécessaire de considérer des âges plus élévés. En effet, ilfaudra à un moment ou à un autre utiliser la technique de fermeture de table de Coale & Kiskeret l’on sait que c’est essentiellement les hypothèses associées à cette méthode qui conditionne-ront la valeur des quotients finaux aux très grands âges.

Donc il n’est pas nécessaire que l’ajustement se concentre sur les très grands âges au risquede perdre en qualité sur le reste des âges considérés. Une fois encore, on va donc jouer sur ledébut de la plage pour étendre/réduire les données à considérer.

On se propose donc de faire varier l’âge initial de 50 à 65 ans.

→ Procédé finalFinalement, la robustesse sera étudiée comme suit :– On va faire varier le début de notre plage de données aussi bien en termes d’années

qu’en termes d’âges. Ainsi, on considère tous les jeux de données JAgeDebut; AgeFinK×JAnneeDebut; AnneeFinK avec (AgeDebut, AnneeDebut) ∈ J50; 65K × J1930; 1965K et enmaintenant (AgeFin, AnneeFin) = (95, 2012).

– Pour les 576 plages de données possibles, on va calculer l’espérance de vie résiduelle àdifférents âges (65, 75 et 85 ans) en 2060 (l’année ultime de la projection) afin d’avoir unpremier aperçu de l’étendue des résultats potentiels du modèle paramétrique retenu.Ensuite, on étudiera les taux d’améliorations des quotients de mortalité par classes d’an-nées et par classes d’âges pour un panel de plages de données représentatif des diffé-rentes espérances de vie résiduelles calculées précédemment.

IV.2.e.ii) Calcul d’espérances de vie résiduelles

On s’est notamment fixé le calcul de l’espérance de vie résiduelle pour plusieurs âges maisce calcul n’est pas immédiat en l’état.

→ Fermeture préalable de chaque tableRappelons que pour l’instant, nous disposons des quotients de mortalité uniquement pour

les âges considérés dans notre plage de données initiale (donc jusqu’à 95 ans maximum). Ilfaut donc opérer une technique de fermeture de table de mortalité afin d’obtenir les quotientsde mortalité aux âges supérieurs à 95 ans et donc d’être capable de calculer l’espérance de vierésiduelle à tout âge.

Comme expliqué auparavant, on retient pour ce faire la méthode de Coale & Kisker etcertaines hypothèses spécifiques au cas des données HMD.

→ Analyse des espérances de vie obtenuesDésormais, l’ensemble de notre étude nous permet de calculer l’espérance de vie résiduelle

à tout âge pour n’importe quelle année (année d’observation ou année projetée).

Vu que l’on cherche à valider la capacité prospective du modèle, on va calculer différentesvaleurs de l’espérance de vie résiduelle pour la dernière année de notre projection à savoir2060. Ces valeurs sont celles associées aux âges 65, 75 et 85 ans et les résultats obtenus sontprésentés par la Figure IV.7 (en page 67).

D’abord, on constate une grande volatilité des résultats. Toutefois cette volatilité est globa-lement régulière dans le sens où en se décalant seulement d’un an d’âge ou d’une année, on

Page 87: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.2. Modèle paramétrique et table "HMD Logistique Femmes" Page 67

Ann

eeD

ebut

1930

1940

1950

1960

AgeDebut 50

5560

65

Espérance de vie résiduelle (en années)

30

32

34

36

Age = 65 ans

Ann

eeD

ebut

1930

1940

1950

1960

AgeDebut 50

5560

65

Esp

éran

ce d

e vi

e ré

sidu

elle

(en

ann

ées)

22

24

26

28

Age = 75 ans

Ann

eeD

ebut

1930

1940

1950

1960

AgeDebut 50

5560

65

Espérance de vie résiduelle (en années)

14

16

18

Age = 85 ans

FIGURE IV.7 – Surfaces donnant les espérances de vie résiduelles à 65, 75 et 85 ans selon laplage de données considérée

retrouve des valeurs de même ordre de grandeur pour l’espérance de vie résiduelle.De plus, pour les trois âges de calculs considérés, aucun croisement n’est constaté c’est-à-

dire que si l’espérance de vie à 65 ans est supérieure pour une plage donnée comparée à uneautre, le résultat sera identique à 75 et à 85 ans.

Les 3 surfaces obtenues ont une structure identique : elles semblent pratiquement égalesà une translation près. On retrouve ce constat en étudiant quelques indicateurs statistiquesusuels comme donné par la Figure IV.8.

e65 e75 e85

Moyenne 32,96 ans 24,06 ans 15,62 ansMinimum 29,41 ans 20,55 ans 12,34 ansMaximum 37,18 ans 28,12 ans 19,29 ansEcart-type 1,83 ans 1,79 ans 1,67 ansMax−Min 7,76 7,57 6,94

FIGURE IV.8 – Statistiques liées aux calculs des espérances de vie résiduelles

Cette forte similarité essentiellement par translation n’est pas un résultat idéal. En effet, celaa pour conséquence de maintenir pratiquement constant l’écart entre les valeurs extrêmes alorsque dans le même temps, on observe des valeurs moyennes de plus en plus faibles.

Le cas des résultats pour e85 illustre bien ce propos. Voir que l’on peut passer de 12,34 ans à19,29 ans (et donc augmenter la valeur de plus de 50%) selon la plage considérée tend à resterprudent sur toute utilisation des résultats s’agissant de très grands âges.

Globalement, on retient que plus la plage d’années comprend de données plus la mortalitéprojetée est forte et inversement. La taille de la plage d’âges n’a en revanche pas de consé-quences fortes.

IV.2.e.iii) Améliorations des quotients de mortalité par classe

On a pu constater une grande disparité des espérances de vie résiduelles selon la plagede données initialement retenue. Toutefois, malgré les écarts constatés, la mortalité peut êtremodélisée de la même façon et seule l’intensité des variations peut expliquer ces écarts.

Page 88: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 68 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

→ Plages de données comparéesOn va donc étudier les taux d’améliorations des quotients de mortalité pour différentes

plages :– PlageBase = J60; 95K× J1950; 2012K qui est notre plage de données initiale ;– PlageMin = J59; 95K × J1930; 2012K qui est la plage de données conduisant aux espé-

rances de vie les plus faibles ;– PlageMax = J65; 95K × J1965; 2012K qui est la plage de données conduisant aux espé-

rances de vie les plus importantes ;– PlageMoy = J55; 95K× J1946; 2012K qui est la plage de données conduisant à des espé-

rances de vie moyennes.

→ Formules pour le calcul des taux d’améliorationsOn va détailler le calcul des taux d’améliorations pour les quotients de mortalité issus de

notre projection (le calcul des taux d’améliorations pour les années d’observation après ajuste-ment est analogue).

Remarque : On revient ici aux résultats obtenus avant calcul des espérances de vie résiduellesc’est-à-dire qu’on ne tient donc pas compte des fermetures de table réalisées précédemmentpour le calcul d’espérances de vie résiduelles.

Basiquement, pour calculer un taux d’amélioration il suffit d’effectuer le rapport entre lesquotients de mortalité pour deux années consécutives à un âge fixé. Toutefois, un calcul aussidirect ne permettrait pas d’obtenir des valeurs significatives. On va donc plutôt considérer desclasses d’âges et des valeurs moyennes sur une plage d’années afin de capter au mieux lesaméliorations.

Ainsi, on regroupe par classe d’âges les quotients de mortalité calculés pour chaque annéeprojetée. Etant donné qu’il faut pouvoir comparer les quatre plages qui sont considérées (plagesqui ne comportent pas les mêmes âges), on constitue six classes d’âges allant de la classe "65-69ans" à la classe "90-94 ans" et donc ∀t ∈ J2013; 2060K , ∀x ∈ 65, 70, 75, 80, 85, 90

QPrj[x;x+4],t =

QPrjx,t + QPrj

x+1,t + QPrjx+2,t + QPrj

x+3,t + QPrjx+4,t

5Ensuite, on souhaite étudier les améliorations avec un pas de cinq ans. Afin de ne pas ré-

duire la comparaison à seulement deux valeurs, chaque valeur annuelle est d’abord recalculéeen considérant les deux valeurs voisines de part et d’autre. Ainsi, on recalcule les valeurs pourtout t de 2015, 2020, 2025, 2030, 2035, 2040, 2045, 2050, 2055 et tout x de 65, 70, 75, 80, 85, 90comme suit

Q[x;x+4],t =QPrj

[x;x+4],t−2 + QPrj[x;x+4],t−1 + QPrj

[x;x+4],t + QPrj[x;x+4],t+1 + QPrj

[x;x+4],t+2

5Finalement, on peut obtenir huit taux d’améliorations par classe d’âges pour nos quotients

de mortalité projetés. Le taux d’amélioration pour l’année t et pour la classe [x; x + 4] est donnépar :

TA[x;x+4],t =15

(1−

Q[x;x+4],t

Q[x;x+4],t−1

)

Remarque : S’agissant de TA[x;x+4],2015 il est bien accessible étant donné que l’on peut utiliser lavaleur de Q[x;x+4],2010 calculée à partir des quotients de mortalité ajustés.

Page 89: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.2. Modèle paramétrique et table "HMD Logistique Femmes" Page 69

→ Analyse des courbes de taux obtenuesA présent, on peut donc tracer pour les quatre plages de données retenues l’évolution des

taux d’améliorations pour les quotients de mortalité projetés. De plus, on peut appliquer lesprécédentes formules aux valeurs ajustées provenant des quatres modèles mais aussi aux don-nées historiques afin de donner également les taux d’améliorations pour certaines années his-toriques (celles comprises dans les quatres plages d’étude).

On obtient in fine la Figure IV.9.

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'a

mél

iora

tion

(en

%)

65−69 ans

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'a

mél

iora

tion

(en

%)

70−74 ans

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'a

mél

iora

tion

(en

%)

75−79 ans

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'a

mél

iora

tion

(en

%)

80−84 ans

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'a

mél

iora

tion

(en

%)

85−89 ans

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'a

mél

iora

tion

(en

%)

90−94 ans

FIGURE IV.9 – Taux d’améliorations des quotients de mortalité selon la plage de données

On constate que toutes les courbes concernant notre modèle ont la même tendance, seule lavitesse de déplacement de la mortalité et l’intensité des améliorations varient d’une plage dedonnées à l’autre. Cela prouve que quelle que soit la plage, la mortalité est bien modélisée demanière similaire.

A noter que les données HMD sont particulièrement instables mais que PlageBase et PlageMoypermettent d’ajuster parfaitement les taux d’améliorations historiques.

IV.2.e.iv) Conclusion de l’étude de robustesse

L’étude des taux d’améliorations pour différentes plages de données prouve la robustessedu modèle paramétrique choisi par rapport aux données initiales. Toutefois, il ne faut pasperdre de vue les résultats en termes d’espérances de vie. Même si la plupart se concentrentà la moyenne, une grande volatilité est observable et vient nuancer les résultats obtenus avecnotre plage initiale (PlageBase).

Page 90: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 70 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

Toutefois, cette plage peut tout de même être considérée comme valable étant donné qu’ellese situe a la moyenne d’après l’étude de robustesse. On peut donc conserver les résultats obte-nus et établir que ces derniers constituent la table "HMD Logistique Femmes".

Ce choix affirme le modèle paramétrique proposé et vient conclure la construction d’unetable de référence à l’aide de la fonction logistique et à partir des données de l’Human MortalityDatabase.

IV.3 – Séries temporelles et table "HMD Séries T. Femmes"

En second lieu, on souhaite obtenir des tables de référence HMD mais sans recourir à uneforme présupposée de la mortalité comme c’est précédemment le cas pour le modèle paramé-trique basé sur la fonction logistique.

C’est pourquoi on va à présent utiliser la théorie des séries temporelles parfaitement adap-tée à cette recherche "libre" de prévision de la mortalité à partir d’observations.

IV.3.a - Séries temporelles : concepts, modèles et démarche d’étude

On se propose donc d’essayer de construire une table de mortalité à partir d’un modèle deséries temporelles. Cette démarche n’a rien d’évidente il faut donc, dans un premier temps, lajustifier et expliquer ensuite les détails de sa mise en oeuvre.

IV.3.a.i) Théorie des séries temporelles

En statistiques, le moment auquel un phénomène est observé peut constituer une informa-tion importante d’autant plus que lorsque l’on considère des dates d’observation équidistantes(observations annuelles ou journalières par exemple). Il est donc nécessaire de considérer desoutils mathématiques spécifiques à de tels cas d’étude.

Une série temporelle peut être définie comme une suite formée d’observations, régulière-ment espacées dans le temps, d’un phénomène. Formellement, la suite des réalisations d’unevariable aléatoire (Xt)t∈N est ce que l’on appelle série temporelle (ou série chronologique).

Des exemples de séries temporelles sont aussi nombreux que variés de par les domainesd’application possibles (cours d’une action, évolution de la température, suivi de la consom-mation électrique ou du trafic féroviaire, etc...).

L’étude de séries temporelles peut permettre de répondre à différentes problématiques :– La prévision d’un phénomène est sûrement le champ d’application le plus populaire et

le plus direct étant donné l’indexation temporelle des variables aléatoires étudiées.– La détection d’une rupture notamment dans le cas de séries économiques est possible

malgré le caractère souvent imprévisible d’un tel changement.– Le filtrage d’un jeu de données est une composante importante de la théorie des séries

temporelles, il peut s’agir de supprimer une tendance ou des variations saisonnières.

Ici, employer la théorie des séries temporelles est ainsi une idée assez naturelle puisquele phénomène étudié (la longévité humaine) évolue avec le temps. De plus, la plupart des

Page 91: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.3. Séries temporelles et table "HMD Séries T. Femmes" Page 71

modèles de séries temporelles ont un objectif prédictif qui coïncide avec le caractère prospectifde la table de mortalité que l’on cherche à déterminer.

IV.3.a.ii) Modélisation d’une série temporelle

La théorie des séries temporelles semble en mesure d’apporter des réponses à notre problé-matique de construction d’une table de référence. On présente donc les modèles à dispositionavant tout choix.

Afin de répondre au mieux à l’ensemble des problématiques induites par une série tempo-relle, une grande diversité de modèle s’est développée. C’est pourquoi Gouriéroux et Monfort(1995, Chapitre 1) [17] distinguent 3 types de modèles :

– les modèles d’ajustement pour lesquels seul le temps permet de générer les observations ;– les modèles autoprojectifs où les valeurs passées expliquent les valeurs futures ;– les modèles explicatifs qui intègrent des variables exogènes.La longévité est un mécanisme d’apprentissage puisque l’humanité a su développer des

techniques médicales et se donner un environnement favorable pour vivre plus longtemps.Ainsi, un modèle autoprojectif semble être le plus adapté ici.

Remarque : Dans tous les cas, aucun modèle de séries temporelles ne prétend modéliser defaçon certaine le phénomène observé. Ainsi, une perturbation est toujours présente afin demodéliser cette composante aléatoire.

Ainsi, dans un modèle autoprojectif, la variable aléatoire d’étude X observée en t est unefonction de ses valeurs passées et d’une perturbation aléatoire ut indépendante de X d’où

Xt = f (Xt−1, Xt−2, . . . , ut)

Avant de vérifier qu’un tel modèle autoprojectif est adapté à notre étude, il faut donner unedéfinition importante, celle de la stationnarité d’une série temporelle puisque pratiquementtout modèle exige la stationnarité de la série temporelle à modéliser.

Un processus (Xt)t∈N est stationnaire si et seulement si :– l’espérance est indépendante du temps (∃m ∈ R, ∀t ∈N, E(Xt) = m) ;– la covariance existe et elle ne dépend que de la différence d’indices entre les variables

(∃γX, ∀t, h ∈N, Cov(Xt, Xt+h) = γX(h)).Francq et Zakoian (2009, Chapitre 1) [15] expliquent que ce concept de stationnarité en séries

temporelles est un équivalent de l’hypothèse d’observations "i.i.d." en statistiques standard.

IV.3.a.iii) Construction d’une série initiale de données

L’inexistance formelle d’une série temporelle prête à servir de base pour un modèle auto-projectif est souvent un frein à l’utilisation de séries temporelles malgré les nombreuses qualitésde ces dernières détaillées précédemment.

En effet, il est impératif de conserver l’aspect bidimensionnel (âge et génération) des quo-tients de mortalité initiaux pour arriver à un modèle pertinent. Or, une série temporelle consisteen un vecteur indexé temporellement : obtenir une table prospective paraît alors difficile.

Toutefois, on peut d’abord construire un unique vecteur de données en mettant bout à boutles lignes de la matrice de données initiale comme illustré par la Figure IV.10 (en page 72).

Page 92: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 72 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

Q60,1950 Q61,1950 . . . Q95,1950

Q60,1951 Q61,1951...

.... . .

......

...Q60,2012 . . . . . . Q95,2012

Passage à des−−−−−−−−−−−−−−−→

données unidimensionnelles

Q60,1950Q61,1950

...Q60,1951

...Q95,2012

FIGURE IV.10 – Création d’une série temporelle à partir des données HMD

On a donc bien en un seul vecteur l’ensemble des données. De plus, en représentant ensuitegraphiquement ce vecteur (Figure IV.11), on constate que le lien bidimensionnel inhérent à lamortalité n’est pas perdu.

0 500 1000 1500 2000

0.00

0.10

0.20

0.30

Numéro de l'observation

Qx

FIGURE IV.11 – Représentation de la série temporelle initiale pour les quotients de mortalité dePlageBase

En effet, la transformation opérée a permis de construire une série temporelle saisonnière.

Dès lors, si on parvient à capter un modèle saisonnier, les quotients de mortalité préditstiendront compte à la fois de l’évolution annuelle (via l’évolution temporelle de la série) maiségalement de l’âge considéré (via le caractère saisonnier propre à la série).

IV.3.a.iv) Le modèle SARIMA

Comme démontré précédemment, il est nécessaire de considérer un modèle autoprojectifsaisonnier. Avant de présenter le modèle retenu, il faut d’abord expliquer comment il a étéobtenu.

→ Un premier modèle autoprojectif linéaireAfin de pouvoir obtenir un modèle autoprojectif utilisable (aussi bien pour l’estimation

des paramètres que pour la prévision), il est logique de considérer une relation simple entrevaleurs passées et valeurs futures. En considérant une relation entièrement linéaire, on obtient

Page 93: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.3. Séries temporelles et table "HMD Séries T. Femmes" Page 73

le modèle ARMA 19 issu de la combinaison des modèles élémentaires AR et MA.

Un processus stationnaire (Xt)t∈N est un ARMA(p, q) s’il satisfait l’équation

Xt = µ + φ1Xt−1 + . . . + φpXt−p + εt − θ1εt−1 − . . .− θqεt−q

φ(L)Xt = µ + θ(L)εt

où :– les φi et les θi sont des réels avec φp 6= 0 et θq 6= 0 ;– le processus (εt)t∈N est un bruit blanc 20 (de variance σ2) ;– L est l’opérateur retard, défini sur la classe des processus stationnaires par L(Xt) = Yt =

Xt−1. Ainsi, φ(L) est l’opérateur 1− φ1L− . . . φpLp.

Ce modèle est très utilisé en pratique car comme expliqué par Gouriéroux (1997, Chapitre2) [16] : "le succès des modèles de type ARMA s’explique par la malléabilité du modèle qui estlinéaire au niveau des variables mais également au niveau des paramètres. La première linéa-rité conduit à des formules de prévisions faciles à implémenter, la seconde permet l’estimationdes paramètres en utilisant des méthodes de type moindres carrés linéaires.".

→ Le modèle SARIMAEtant donné l’expression d’un modèle ARMA, la seule façon de considérer la saisonnalité

de période s est donc de considérer des ordres p et q au moins égaux à s. Cette solution nesemble pas pertinente car elle augmenterait considérablement le nombre de paramètres à esti-mer rendant toute estimation impossible en pratique.

C’est pourquoi Box et al. (1967) [6] ont proposé un modèle multiplicatif dénommé modèleSARIMA 21.

On appelle processus SARIMAs[(p, d, q)(P, D, Q)

]tout processus (Xt)t∈N tel que le pro-

cessus Yt = (1− L)d(1− Ls)DXt est un ARMA

φ(L)Φ(Ls)Yt = θ(L)Θ(Ls)εt

où φ, Φ, θ, Θ sont des polynômes de degrés p, P, q, Q respectivement.

Un tel processus est en fait simplement obtenu d’abord en différenciant série initiale et sériepériodique afin de les stationnariser puis en postulant un modèle ARMA pour chacune de cesdeux séries stationnaires.

IV.3.a.v) Lissage et utilisation du logarithme

On se propose donc d’utiliser un modèle SARIMA pour modéliser l’évolution des quotientsde mortalité selon l’âge et l’année d’observation.

Toutefois, utiliser les quotients de mortalité bruts donnés par l’Human Mortality Databasepose deux problèmes :

19. De l’anglais "AutoRegressive Moving Average"20. Un bruit blanc est une suite de variables aléatoires de moyennes nulles, non corrélées et de variances

constantes21. De l’anglais "Season AutoRegressive Integrated Moving Average"

Page 94: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 74 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

– Les quotients de mortalité correspondent à des probabilités et donc, ils sont compris entre0 et 1. Or, il n’est pas possible d’appliquer une telle contrainte lors d’une modélisationbasée sur la théorie des séries temporelles.

– Les données brutes fluctuent. C’est tout à fait normal puisque l’HMD traduit exactementla mortalité réelle qui ne peut pas être totalement régulière. Toutefois, ces perturbationssont susceptibles de dégrader la qualité de la prévision étant donné la grande sensibilitédes modèles de séries temporelles.

Aussi, une réponse à ces contraintes est de travailler sur des valeurs lissées des logarithmesdes quotients de mortalité.

IV.3.b - Lissage selon la méthode Whittaker-Henderson en dimension 2

Il faut donc effectuer un lissage des données HMD avant toute estimation d’un modèle SA-RIMA. Pour ce faire, on retient la méthode de lissage non-paramétrique de Whittaker-Hendersonpour son principe et sa flexibilité.

En effet, cette méthode consiste en la minimisation conjugée de deux critères : l’un modé-lisant la fidélité entre le jeu de données initial et le jeu de données lissé, l’autre modélisant larégularité du jeu de données lissé. De plus, il est possible d’accorder une plus grande impor-tance à l’un de ces deux paramètres mais également de pondérer les valeurs de départ. On aainsi un certain contrôle sur la direction à donner au processus de lissage.

IV.3.b.i) Notations et positionnement du problème en dimension 2

La méthode de Whittaker-Henderson a été proposée à l’origine en dimension 1, on proposed’expliquer directement l’extention en dimension 2 dans le cas du lissage des logarithmes dequotients de mortalité de PlageBase.

On se donne X = J1; 36K et T = J1; 63K et on note n = Card(T) = 63 et m = Card(X) = 36.

De plus, soit U′′ la matrice deMn,m(R) contenant tous les ln(Qx,t) qui sont les données àlisser

U′′ =

u′′1,1 u′′1,2 . . . . . . u′′1,m

u′′2,1 u′′2,2...

.... . .

......

. . ....

u′′n,1 . . . . . . . . . u′′n,m

=

ln(Q60,1950) ln(Q61,1950) . . . . . . ln(Q95,1950)

ln(Q60,1951) ln(Q61,1951)...

.... . .

......

. . ....

ln(Q60,2012) . . . . . . . . . ln(Q95,2012)

De façon analogue, on définit U, la matrice donnant les données après lissage (elle estconstituée des ui,j que l’on cherche donc à calculer).

Les notations étant arrêtées, on peut définir le critère de régularité ainsi que le critère defidélité :

I Critère de fidélité - Il évalue la bonne adéquation entre l’ensemble des données lissées etl’ensemble des données brutes (en fonction d’une matrice des poids W où wi,j est le poids

Page 95: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.3. Séries temporelles et table "HMD Séries T. Femmes" Page 75

assigné à l’observation u′′i,j). Il est noté F 22 et il est défini par

F =n

∑i=1

m

∑j=1

wij

(ui,j − u′′i,j

)2

I Critère de régularité - Il évalue la bonne adéquation unidimensionnelle pour chaquegroupe de λ données lissées (où λ est un paramètre entier). Etant donné que nous sommesen dimension 2, on se donne un paramètre de lissage vertical noté z et un paramètre delissage horizontal noté y . Ainsi, le critère de régularité S 23 est un vecteur de R2 donnépar

S =

(SvSh

)=

m

∑j=1

(n−z

∑i=1

(∆z

v(ui,j))2

)n

∑i=1

(m−y

∑j=1

(∆y

h(ui,j))2)

où ∆v et ∆h sont les opérateurs avance respectivement associés à la première et à la se-conde coordonnée et où ∆λ correspond à ∆ composé λ fois c’est-à-dire par exemple :– ∆v(ui,j) = ui+1,j − ui,j

– ∆yh(ui,j) =

y

∑k=0

(yk

)(−1)y−kui,j+k

Le critère final à minimiser, noté M, est une combinaison linéaire des deux précédents cri-tères. En introduisant le vecteur ligne des poids P =

(α β

)associé aux différentes dimensions

du critère de régularité, M peut être défini comme

M = F + PS = F + αSv + βSh

Ainsi, d’après le principe de la méthode de lissage de Whittaker-Henderson, la matrice Uest solution du problème d’optimisation

minU

M ⇔ minU

F + αSv + βSh

IV.3.b.ii) Résolution théorique

Jusqu’ici, on sait seulement que U est solution d’un problème de minimisation. Reste àdéterminer les conditions nécessaires à ce qu’une telle solution existe et le cas échéant, donnerune formule explicite de la matrice U.

On cherche donc à minimiser M = F + αSv + βSh. En revenant aux définitions, le problèmede minimisation se réécrit

minui,j

n

∑i=1

m

∑j=1

wij

(ui,j − u′′i,j

)2+ α

m

∑j=1

(n−z

∑i=1

(∆z

v(ui,j))2

)+ β

n

∑i=1

(m−y

∑j=1

(∆y

h(ui,j))2)

Aussi, si le nm-uplet constitué des ui,j est un minimum de M, chaque ui,j vérifie∂M∂ui,j

= 0

22. De l’anglais "Fit"23. De l’anglais "Smoothness"

Page 96: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 76 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

Construisons V, le vecteur de taille nm contenant l’ensemble des ui,j de sorte que

∀(i, j) ∈ J1; nK× J1; mK , vm(i−1)+j = ui,j

Autrement écrit,

V =

u1,1u1,2

...u1,mu2,1

...un,m

Tout l’intérêt de cette forme vectorielle est qu’elle permet de réunir en un seul vecteur les ui,jsolutions du problème de minimisation ce qui permet de voir V comme le minimum de lafonction qui à tout vecteur de Rnm associe la valeur de M. Aussi, les conditions d’optimalité dupremier ordre s’écrivent

∇M(V) = 0

Puisque M est une combinaison linéaire des ui,j et des ui,juk,l , chaque ligne de ∇M(V) estune combinaison linéaire des seuls ui,j.

Il suffit dès lors d’obtenir une expression de M en fonction de V et d’appliquer les règlesde dérivation vectorielle pour obtenir une formule explicite pour chaque ui,j étant donné lalinéarité du dernier système d’équations 24.

→ Réécriture du critère de fidélité F en fonction de VOn introduit V∗, le vecteur de taille nm construit comme V mais qui contient les u′′i,j.On pose également W∗, la matrice diagonale de dimension nm construite en collant bout à

bout les lignes de W c’est-à-dire qu’on a ∀(i, j) ∈ J1; nK× J1; mK , w∗m(i−1)+j,m(i−1)+j = wi,j

A partir de la définition de F et en usant des éléments précédemment définis, on a

F =n

∑i=1

m

∑j=1

wij

(ui,j − u′′i,j

)2

=n

∑i=1

m

∑j=1

(vm(i−1)+j − v∗m(i−1)+j

)w∗m(i−1)+j,m(i−1)+j

(vm(i−1)+j − v∗m(i−1)+j

)=

nm

∑k=1

(vk − v∗k )w∗k,k (vk − v∗k )

F = (V −V∗)′ W∗ (V −V∗)

→ Réécriture du critère de régularité horizontale Sh en fonction de VD’abord, constatons qu’on peut définir Dh, le vecteur de dimension n(m− y) tel que βD′h Dh =

βSh c’est-à-dire

24. Sous réserve que le système linéaire en question soit compatible !

Page 97: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.3. Séries temporelles et table "HMD Séries T. Femmes" Page 77

Dh =

∆yh(u1,1)

∆yh(u1,2)

...∆y

h(u1,m−y)∆y

h(u2,1)...

∆yh(un,m−y)

On cherche donc ici à exprimer le vecteur Dh en fonction de V. On constate que cela est

possible en considérant le produit KyhV où Ky

h est une matrice avec n(m − y) lignes (pour lesn(m− y) opérateurs avance à calculer) et nm colonnes (pour chacun des ui,j) portant les diffé-rents coefficients binomiaux alternés. Pour obtenir l’expression analytique de cette matrice Ky

h,il faut étudier chaque dimension séparement.

D’abord, fixons i ∈ J1; nK. Pour tout j tel que 1 6 j 6 m− y, on a par définition de ∆yh

∆yh(ui,j) =

y

∑k=0

(yk

)(−1)y−kui,j+k

en posant Kyh0

, la matrice deMm−y,m(R) définie par Kyh0[a, b] =

(y

b− a

)(−1)y−b+a1a6b6a+y(a, b),

on peut "étendre" la somme qui détermine ∆yh(ui,j)

∆yh(ui,j) =

m

∑k=0

Kyh0[j, k] ui,k

et en notant Ui,• le vecteur colonne correspondant à la ième ligne de U, on peut réécrire ui,kcomme le kième élément de Ui,• et donc faire apparaître le produit matriciel Ky

h0Ui,• (qui donne

un vecteur colonne de dimension m− y) de sorte que finalement

A i fixé, ∀j ∈ J1; m− yK , ∆yh(ui,j) =

(Ky

h0Ui,•

)j

Ainsi, pour i fixé, on a déterminé la matrice Kyh0

(totalement indépendante de i) permettantde ramener le critère de régularité à un produit matriciel faisant intervenir le vecteur colonnedes inconnues puisqu’à i fixé ce vecteur est Ui,•.

Il suffit d’étendre la précédente matrice autant de fois que nécéssaire (c’est-à-dire un nombrede fois égal au nombre des différentes valeurs de i) afin d’obtenir la matrice Ky

h recherchée. Onconstate que Ui,• est inclus dans V au sens où

V =

U1,•U2,•

...Un,•

Page 98: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 78 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

Ainsi, pour construire Kyh, il suffit de la constituer par bloc avec des Ky

h0dans la diagonale (et des

zéros partout ailleurs). Kyh0

étant une matrice (m− y, m), on obtient bien une matrice constituéede n(m− y) lignes et de nm colonnes. Formellement, la matrice Ky

h définie par

Kyh [i, j] =

Kyh0

[i− (m− y)

⌊i− 1

m− y

⌋, j−m

⌊j− 1

m

⌋]si j ∈

rm⌊

i−1nm−y

⌋+ 1; m

⌊i−1

nm−y

⌋+ m

z

0 sinon

est construite de sorte que pour tout (i, j) ∈ J1; nK× J1; m− yK

∆yh(ui,j) =

(Dh)(m−y)(i−1)+j =

nm

∑k=1

Kyh[(m− y)(i− 1) + j, k]Vk

Donc on a bien Dh = KyhV et finalement, il vient

βSh = β(Ky

hV)′ (Ky

hV)

→ Réécriture du critère de régularité verticale Sv en fonction de VUn raisonnement similaire (mais non symétrique !) est possible pour la régularité verticale.

En posant d’abord la matrice Kzv0

de taille (n− z, n) selon

Kzv0[i, j] =

(

zi + z− j

)(−1)i+z−j si i 6 j 6 i + z

0 sinon

puis Kzv, la matrice de taille (m(n− z), nm) définie par

Kzv[i, j] =

Kzv0

[(n− z)

(i

n− z−⌊

i− 1n− z

⌋),

j + m−⌊ i−1

n−z

⌋− 1

m

]si j ≡

⌊ i−1n−z

⌋+ 1 [m]

0 sinon

on obtientαSv = α

(Kz

vV)′ (Kz

vV)

Remarque : La différence entre le cas vertical et le cas horizontal tient à la construction de V :tandis qu’il est possible de reconstituer V avec les Ui,•, ça n’est pas possible avec les U•,j.

→ Expression finale de M en fonction de VA l’aide des précédents calculs, on a donc

M = (V −V∗)′ W∗ (V −V∗) + α(Kz

vV)′ (Kz

vV)+ β

(Ky

hV)′ (Ky

hV)

En développant la précédente égalité et en utilisant la nullité de la dérivée de M par rapport àV, on obtient in fine une expression analytique de V qui contient les valeurs lissées recherchées

V =(

W∗ + α(Kz

v)′ Kz

v + β(Ky

h

)′ Kyh

)−1W∗ V∗

Page 99: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.3. Séries temporelles et table "HMD Séries T. Femmes" Page 79

Remarque : En théorie, l’inversibilité de C = W∗ + α(Kz

v)′ Kz

v + β(Ky

h

)′ Kyh n’est pas garantie 25

mais en pratique, on peut considérer que l’addition de W∗ l’assure étant donné que c’est unematrice de poids (et donc qu’a priori, peu d’élements de cette matrice sont nuls).

IV.3.b.iii) Mise en oeuvre pratique

L’application de la méthode de Whittaker-Henderson à nos données ne nécessite désormaisplus qu’un choix pour les différents poids et paramètres définis par la méthode.

S’agissant de la matrice W des poids à affecter aux observations, on choisit de ne favoriseraucun âge et aucune année d’observation. Ainsi, pour tout i ∈ T et pour tout j ∈ I

wi,j =1

nm

Il faut ensuite déterminer la répartition entre le respect du critère de fidélité et celui derégularité mais également la répartition entre régularité horizontale et régularité verticale. Riendans notre démarche n’exige de faire prévaloir l’un de ces critères par rapport aux autres doncon retient

α = β =12

Enfin, il faut choisir l’ordre des deux opérateurs avance. Knorr (1984) [20] explique quepour une dimension donnée, le lissage donnera globalement une forme polynomiale de degréégal à l’ordre de l’opérateur avance associé moins 1. Une structure linéaire permettra d’obtenirde meilleures prévisions et semble cohérente avec les données initiales on suppose donc

z = y = 2

Dès lors, on peut mener à bien le lissage de nos données. On représente graphiquement lesrésultats obtenus à travers la Figure IV.12.

Année

1950196019701980

19902000

2010 Age

60

7080

90

ln(Qx,t)

−5

−4

−3

−2

−1

Données brutes

Année

1950196019701980

19902000

2010 Age

60

7080

90

ln(Qx,t)

−5

−4

−3

−2

−1

Valeurs lissées via la méthode de Whittaker−Henderson

FIGURE IV.12 – Quotients de mortalité bruts et lissés par la méthode de Whittaker-Henderson(représentations logarithmiques)

25. Cette condition d’inversibilité de C fait directement écho à l’exigence de compatabilité du système d’équationsformé par ∇M(V) = 0

Page 100: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 80 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

IV.3.c - Estimation et prévision selon la méthode de Box & Jenkins

La mise en place d’un modèle SARIMA est un problème complexe. Outre l’estimation deparamètres associés au modèle il faut également déterminer les différents ordres. C’est pour-quoi Box et Jenkins (1970) [5] proposent une démarche générale de prévision pour une sérieunivariée.

IV.3.c.i) Présentation de la méthode

Etant donné qu’il est impossible d’estimer tous les paramètres simultanément, l’idée à labase de la méthode de prévision de Box & Jenkins est de distinguer deux phases.

La première phase est appelée phase d’identification pour laquelle l’objectif est la recherchedes différents degrés (p, d, q, P, D, Q). La seconde phase est nommée phase d’estimation etconsiste à obtenir tous les autres paramètres (µ, φ1, θ1, σ2, . . .) compte tenu d’ordres fixés.

En pratique, cette démarche se décompose en plusieurs étapes : Etape (a) - Identification a priori. Il faut commencer par considérer des valeurs plau-

sibles pour les différents degrés en utilisant uniquement des méthodes pour lesquellesaucune estimation des autres paramètres n’est nécessaire. A ce stade, on retient plusieursmodèles possibles. Etape (b) - Estimation des modèles retenus. Dès lors que l’on se fixe des valeurs pour

les degrés, il est possible d’estimer le reste des paramètres. C’est cette opération qui estréalisée pour chaque modèle précédemment retenu et qui aboutit à plusieurs modèlesestimés. Etape (c) - Validation des modèles estimés. Il s’agit ici d’examiner si les modèles obte-

nus sont compatibles avec les données et les hypothèses sous-jacentes (vérification de lastructure de bruit blanc par exemple). En théorie, cette étape permet d’éliminer un bonnombre de modèles. Etape (d) - Choix d’un modèle final. A ce stade, vu que l’on dispose de modèles estimés

valables reste à n’en conserver qu’un seul en vue de la prévision. C’est à l’aide de critèresstatistiques qu’un choix est fait. Etape (e) - Calcul de prévisions. Désormais, étant donné que l’on s’est donné un modèle

final entièrement estimé, on peut calculer les prévisions recherchées à l’aide des formulesthéoriques.

Le principe général de la méthode de Box & Jenkins ayant été exposé, reste à détailler laréalisation pratique de chacune des étapes à suivre.

IV.3.c.ii) Identification a priori des degrés

Dans un modèle SARIMA, 6 degrés sont à déterminer : p, q, P, Q, d et D puisque l’on peutconsidérer que la période s est connue dans la mesure où elle est en lien directe avec les donnéesconsidérées.

On peut distinguer les ordres portant sur les strutures de types ARMA (p, q, P et Q) et ceuxassurant la stationnarité globale de la série temporelle (d et D).

→ Cas des degrés d et DLe choix au sujet de d et D peut être fait empiriquement à partir du graphe de la série tem-

porelle : si aucune irrégularité forte n’est observée, il est possible de poser d = 0. A l’inverse,

Page 101: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.3. Séries temporelles et table "HMD Séries T. Femmes" Page 81

on peut exclure toute stationnarité (et donc poser d 6= 0) si les valeurs de la fonction d’autocor-rélation sont proches de 1.

Si l’on ne peut pas supposer d = 0, il faut considérer une première différenciation de la sériede départ et voir si cela a permis de stationnariser la série ou non. On réitère alors ce processusjusqu’à stationnariser la série temporelle initiale : d est alors égal au nombre de différenciationsnécessaires.

Il est possible de raisonner identiquement pour la série périodique (c’est-à-dire celle obte-nue après application de l’opérateur 1− Ls) et le paramètre D.

En complément de cette méthode graphique, il est possible de mener des tests statistiquespermettant de déterminer si une série est stationnaire ou non.

On peut notamment employer l’ensemble des tests dits de Dickey-Fuller augmentés (quisont présentés en Annexe B).

→ Cas des ordres p, q, P et QLa fonction d’autocorrélation et la fonction d’autocorrélation partielle sont les outils qui

peuvent nous permettre de restreindre les valeurs de p, q, P et Q.

En effet, différents résultats existent dans le cas de modèles AR ou MA purs. Dès lors, ilpeut être possible d’obtenir la nullité de certains ordres via l’étude de ces fonctions.

Si la précédente étude ne permet pas d’aboutir, il est possible de recourir à des statistiquesplus sophistiquées comme les fonctions ACRE 26 et ACPE 27 ou à la considération des corréla-tions empiriques.

Remarque : En théorie, rien ne nous oblige à restreindre les valeurs de ces ordres. On pourraittrès bien imaginer tester les K4 modèles en supposant que p, q, P, Q 6 K− 1. Toutefois, dans untel cas, l’étape d’estimation s’avérerait extrêmement chronophage. D’où la nécessité de menerà minima cette phase d’estimation.

IV.3.c.iii) Estimation des paramètres d’un modèle d’ordres donnés

La précédente étape d’identification a permis de conserver un certain nombre de 6-uplets.Pour chaque modèle SARIMAs

[(p, d, q)(P, D, Q)

]possible, il faut alors estimer les paramètres

associés.

D’un point de vue théorique, cette problématique est très complexe étant donné les nom-breuses équations vérifiées par les paramètres de tout modèle SARIMA.

Box et Jenkins ont retenu une approche par maximum de vraisemblance approché à l’aidede moindres carrés mais des méthodes exactes se sont développés ultérieurement et ce sont cesdernières qui sont employés en pratique à l’aide de logiciels informatiques.

Remarque : Le détail de cette première approche dans le cas d’un modèle ARMA et les réfé-rences associées aux méthodes exactes sont donnés par Gouriéroux et Monfort (1995, Chapitre6) [17].

26. AutoCoRrélation Empirique27. AutoCoVariance Empirique

Page 102: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 82 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

IV.3.c.iv) Validation statistique des modèles estimés

Les tests que l’on fait subir aux différents modèles estimés précédemment sont de deuxtypes : soient ils portent sur les ultimes paramètres associés aux polynômes φ, Φ, θ, Θ, soient ilsportent sur le bruit blanc ε.

→ Test sur les paramètresLe but ici est de voir si chaque modèle obtenu est bien différent de tous les autres. En effet, si

l’on a un modèle SARIMAs[(p, d, q)(P, D, Q)

]il n’est pas impossible qu’un ultime coefficient

associé à un ordre soit non significatif auquel cas, ce modèle serait un cas particulier d’un autre.Dès lors, il est nécessaire de mener un test de Student pour vérifier la significativité de

φp, ΦP, θq, ΘQ. Si l’un de ces paramètres est non-significatif, le modèle doit alors être rejeté.

→ Test concernant le bruit blancSupposer que εt est un bruit blanc est une hypothèse nécessaire pour la modélisation SA-

RIMA et donc si elle n’est pas validée par les résidus d’un modèle estimé, celui-ci n’est alorspas valable.

Pour mener cette vérification, il faut d’une part mener le test "portmanteau" (qui est éga-lement nommé test de Box-Pierce et qui est présenté en Annexe B) pour vérifier l’absence decorrélation des résidus et d’autre part vérifier les hypothèses de nullité de l’espérance et deconstance de la variance.

IV.3.c.v) Critères de choix du modèle final

A ce stade, tous les modèles estimés sont valables statistiquement, il faut donc les confronterpour n’en conserver qu’un en vue de la prévision. Ce choix s’effectue sur la base de critères desélection aux justifications théoriques moins solides que lors des étapes précédentes.

→ Critère de parcimonieCe critère est simple puisqu’il consiste à choisir le modèle pour lequel la somme p + P +

q + Q est la plus faible.Ce raisonnement est guidé par la volonté d’avoir le moins de paramètres pour la phase

d’estimation.

→ Critère de pouvoir prédictifIci, on choisit de s’attacher à la qualité de la prévision future. Dans le cas des modèles SA-

RIMA, aucune formulation simple de l’erreur de prévision à l’horizon 1 n’est possible contrai-rement au cas des modèles ARMA.

Toutefois, étant donné que tout intervalle de confiance est conditionné à la variance estiméeσ2, plus cette valeur est faible, plus les prévisions obtenues sont fiables. Cette valeur constituedonc un critère de choix à part entière.

→ Critère d’informationD’un point de vue purement statistique, le meilleur modèle est celui qui est le plus proche

des données donc celui pour lequel la vraisemblance est la plus importante. Toutefois, aug-menter le nombre de paramètres augmente automatiquement la vraisemblance.

Ainsi, afin de conserver le meilleur modèle au sens de l’information captée tout en évitantune sur-estimation, il faut conserver le modèle qui donne la valeur du Akaike Information

Page 103: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.3. Séries temporelles et table "HMD Séries T. Femmes" Page 83

Criterion 28 la plus faible.

IV.3.c.vi) Prévision finale

Etant donné que l’on dispose d’un modèle final entièrement estimé, il est possible de reve-nir à la définition mathématique d’un modèle SARIMA pour obtenir les prévisions recherchées.Après avoir explicité le principe mathématique de prévision linéaire, une illustration est don-née à l’aide d’un exemple numérique proposé par Cryer et Shan (2008, Chapitre 10) [10].

→ Formule de la prévision linéaire optimaleEn t, disposant de l’ensemble des valeurs passées Xt = Xt, Xt−1, . . . X1, la prévision li-

néaire optimale à l’horizon k notée Xt(k) est donnée par

Xt(k) = EL(Xt+k | Xt)

où EL(Xt+k | Xt) est la projection orthogonale dans L2(Ω,A, P) 29 de Xt+k sur Vect(Xt).

Cette définition est essentielle pour le calcul de prévisions puisque, dans le cadre d’unemodélisation SARIMA, elle permet de dire que εt+k = 0 pour tout k ∈ N∗. Concrètement, onpourra donc employer directement la formule d’un modèle SARIMA pour calculer les prévi-sions.

→ Un exemple illustratifOn suppose que l’on dispose d’un SARIMA12

[(0, 1, 1)(0, 1, 1)

]de moyenne nulle (µ = 0).

Ainsi, la série temporelle Xt associé à ce modèle suit la relation

Xt = Xt−1 + Xt−12 − Xt−13 + εt − θ1εt−1 −Θ1εt−12 + θ1Θ1εt−13

où εt est un bruit blanc.

Le précédent propos sur la prévision linéaire optimale à l’horizon k et la formule du modèleestimé permettent d’expliciter chaque Xt(k) :

k = 1, Xt(1) = Xt + Xt−11 − Xt−12 − θ1εt −Θ1εt−11 + θ1Θ1εt−12k = 2, Xt(2) = Xt(1) + Xt−10 − Xt−11 −Θ1εt−10 + θ1Θ1εt−11

...k = 13, Xt(13) = Xt(12) + Xt(1)− Xt + θ1Θ1εtk > 13, Xt(k) = Xt(k− 1) + Xt(k− 12)− Xt(k− 13)

On note qu’à partir d’un certain rang, les prévisions sont obtenues uniquement à partird’autres prévisions. Par ailleurs, toutes les données passées ne sont pas directement exploi-tées lors du calcul de prévisions : les plus anciennes étant en fait seulement exploitées pourl’estimation des paramètres.

IV.3.d - Pratique de la méthode de Box & Jenkins

La méthode de Whittaker-Henderson a permis d’obtenir un jeu de données lissées sur le-quel il est possible d’estimer un modèle SARIMA. Cette estimation selon la méthode de Box &

28. L’AIC d’un modèle comprenant k paramètres et de vraisemblance L est défini par AIC = 2k− 2ln(L)29. L2(Ω,A, P) désigne l’espace des variables aléatoires de (Ω,A, P) de carré intégrable

Page 104: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 84 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

Jenking et l’obtention de prévisions sont les objectifs de la présente sous-section.

On note (Xt)t∈N, la série temporelle construite selon la méthode fixée au préalable (celledécrite par la Figure IV.10 (en page 72)) à partir de la matrice des valeurs lissées.

De plus, on note (Yt)t∈N, la série temporelle obtenue après l’application de l’opérateur 1−L36 à la série initiale afin d’isoler la saisonnalité 30.

IV.3.d.i) Phase d’identification

Comme expliqué précédemment, avant d’estimer à proprement parler un modèle SARIMA,il faut d’abord limiter les ordres possibles associés à ce modèle.

→ Identification de d et DOn commence par analyser la représentation graphique des deux séries (Xt) et (Yt) données

par la Figure IV.13.

Série intiale (Xt)

Année

Val

eur

de la

sér

ie

1950 1960 1970 1980 1990 2000 2010

−5

−4

−3

−2

−1

Série différenciée selon la saisonnalité (Yt = Xt − Xt−36)

Année

Val

eur

de la

sér

ie

1950 1960 1970 1980 1990 2000 2010

−0.

025

−0.

015

FIGURE IV.13 – Représentation des deux séries temporelle d’étude

Aucune rupture, ni discontinuité forte de la tendance ne s’observe pour les deux séries.

30. On a bien une période s = 36 puisqu’on a considéré des âges de 60 à 95 ans (donc 36 valeurs par année)

Page 105: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.3. Séries temporelles et table "HMD Séries T. Femmes" Page 85

A priori, l’hypothèse d = D = 0 est censée. On la confirme en menant pour chaque sé-rie les tests de Dickey-Fuller augmentés qui permettent de tester la stationnarité d’une sérietemporelle.

Pour les deux séries le résultat est identique : la série est stationnaire.

On pose donc d = D = 0.

→ Identification de p, P, q et QLa détermination des ordres associés aux parties autorégressive et moyenne mobile se fait à

l’aide de l’autocorrélogramme (ACF) et de l’autocorrélogramme partiel (PACF). On représenteainsi les graphes de ces deux fonctions pour chaque série en Figure IV.14 (en page 86).

En premier lieu, il convient d’étudier les autocorrélogrammes. D’une part car ils peuventpermettre de retenir une forme MA pure et donc conduire à p = P = 0 et d’autre part car leurétude doit permettre de confirmer la stationnarité des deux séries.

D’abord, on constate que les graphes sont quasiment identiques avec une décroissance gé-nérale mais des oscillations entre chaque période. Très peu de valeurs sont proches de 1 ce quiest en accord avec la stationnarité des séries considérées établie précédemment.

Toutefois, il est impossible d’affirmer qu’il existe respectivement q et Q tels que ρX(h) = 0et ρY(h) = 0 pour h > q et h > Q (où ρ désigne la fonction d’autocorrélation).

Dès lors, une forme moyenne mobile pure est rejetée et donc p 6= 0 et P 6= 0.

A présent, il faut examiner les r(h) c’est-à-dire les autocorrélations partielles qui sont àmême de donner une hypothèse du type q = 0 correspondante à une forme AR pure.

On observe deux PACFs différents s’agissant des deux séries. Dans le cas de la série tem-porelle brute, presque aucune valeur n’est nulle concernant les retards de 1 à 36 et après, seulsdes retards multiples de 36 sont non nuls (et quelques retards encadrant ces valeurs également).Dans le cas de la série périodique, seuls quelques retards compris entre 1 et 36 sont non nuls ettous les retards supérieurs à 36 sont nuls (à l’exception du retard d’ordre 37).

Ainsi, il semble envisageable de modéliser une forme autorégressive pure pour ces deuxséries pour deux raisons :

– les PACFs sont nulles à partir d’un certain rang ;– les ACFs ont une décroissance qui s’assimiler à une décroissance exponentielle en valeur

absolue.

Dès lors, on pose q = Q = 0 puis on retient p < 36 et P < 5 (on espère modéliser lescorrélations partielles multiples de 36 non nulles de Xt avec cette dernière hypothèse qui n’estpas en contradiction avec le PACF de Yt).

→ Conclusion de la phase d’identificationCette phase d’identification a permis de se limiter à une forme autorégressive pure aussi

bien pour la série entière que pour ses éléments saisonniers, ce qui a pour conséquence derestreindre fortement les valeurs possibles pour chaque ordre.

On résume Figure IV.15 (en page 87) les ordres maximaux qui seront considérés lors de laphase d’estimation.

Page 106: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 86 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

0 2 4 6 8 10

−0.

40.

00.

40.

8

Retard (en années)

Aut

ocor

réla

tion

ACF de Xt

0 2 4 6 8 10

−0.

50.

00.

5

Retard (en années)

Aut

ocor

réla

tion

part

ielle

PACF de Xt

0 2 4 6 8 10

−0.

40.

00.

40.

8

Retard (en années)

Aut

ocor

réla

tion

ACF de Yt

0 2 4 6 8 10

−0.

50.

00.

5

Retard (en années)

Aut

ocor

réla

tion

part

ielle

PACF de Yt

FIGURE IV.14 – Autocorrélogramme et autocorrélogramme partiel pour Xt et pour Yt

Page 107: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.3. Séries temporelles et table "HMD Séries T. Femmes" Page 87

pmax dmax qmax Pmax Dmax QmaxOrdre maximal 36 0 0 5 0 0

FIGURE IV.15 – Résultats de la phase d’identification

IV.3.d.ii) Phase d’estimation

La phase d’identification a permis de se limiter à l’estimation de 180 modèles du typeSARIMA36

[(p, 0, 0)(P, 0, 0)

], reste donc à mener la phase d’estimation pour cet ensemble de

modèles SARIMA.

→ Réalisation pratique de la phase d’estimationEtant donné que la prévision selon la méthode de Box & Jenkins est incontournable, de

nombreux logiciels informatiques permettent d’optimiser cette phase d’estimation. Nous avonsretenu ici la fonction auto.arima 31 du logiciel .

Cette fonction réalise non seulement l’estimation de tous les modèles pour des ordes maxi-maux fixés mais elle donne aussi le modèle final selon un critère d’information choisi par l’uti-lisateur. On décide de juger de la qualité d’un modèle en utilisant l’AIC. Dès lors, il nous suffirade valider le modèle obtenu et de passer à la prévision si aucune raison n’existe pour exclurece modèle.

→ Présentation et tests sur le modèle obtenuOn applique donc la fonction auto.arima en indiquant un ordre maximal pour p de pmax =

36 et un ordre maximal pour P de Pmax = 5.Le modèle conduisant à l’AIC le plus faible est le SARIMA36

[(34, 0, 0)(3, 0, 0)

].

On décide de mener "manuellement" l’étape de validation.D’abord, on étudie la significativité des ultimes coefficients (φ34 et Φ3), on se propose de

dire que le modèle est valide si ces coefficients sont significatifs selon le test de Student. Aucuncoefficient n’est jugé non-significatif donc le modèle n’a pas de raison d’être rejeté sur ce critère.

Reste à tester la blancheur des résidus obtenus pour valider définitivement le modèle. Onmène donc le test de blancheur de Box-Pierce qui n’apporte aucun rejet de l’hypothèse nulle deblancheur des résidus obtenus.

Ainsi, on peut retenir le modèle SARIMA36[(34, 0, 0)(3, 0, 0)

].

IV.3.d.iii) Calcul de prévisions

La mise en oeuvre de la méthode de Box & Jenkins a permis d’aboutir à un modèle de sériestemporelles s’agissant des logarithmes lissés des quotients de mortalité de PlageBase.

Le calcul de prévisions est direct : il suffit d’appliquer les différentes formules à dispositionpour déterminer chaque prévision de notre série temporelle jusqu’à l’horizon h = 1728 32.

On obtient ainsi un vecteur comprenant les projections des logarithmes des quotients demortalité : en inversant l’idée de la Figure IV.10 (en page 72) et en considérant l’exponentiellede la matrice obtenue on a bien (pour t ∈ J2013; 2060K et x ∈ J60; 95K) chaque quotient de

31. Le nom est trompeur, il est bien possible d’estimer un modèle SARIMA à l’aide de cette fonction32. Il y a 36 âges considérés et la projection porte sur les 48 prochaines années : cela représente donc 1 728 valeurs

Page 108: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 88 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

mortalité projeté noté QPrjx,t .

De plus, on rappelle que l’on a auparavant effectué un lissage des logarithmes des quotientsde mortalité initiaux (en employant la méthode de Whittaker-Henderson en dimension deux)qui a permis d’obtenir les QLis

x,t sur l’ensemble de PlageBase

La Figure IV.16 donne tous ces quotients de mortalité (les QLisx,t et les QPrj

x,t ) qui constituent latable de mortalité de référence "HMD Séries T. Femmes" recherchée.

Annee

19601980

20002020

2040

2060

Age

60

70

8090

ln(Qx,t)

−5

−4

−3

−2

−1

19601980

20002020

2040

2060 60

70

8090

−5

−4

−3

−2

−1

FIGURE IV.16 – Représentation logarithmique de la table "HMD Séries T. Femmes"

IV.3.e - Robustesse de la méthodologie semi-paramétrique

Comme dans le cas du modèle paramétrique, le résultat tout juste obtenu à partir du jeu dedonnées fixé initialement doit être mis en perspective avec ceux provenant d’autres plages dedonnées. Cette étude de la robustesse du modèle fait l’objet de la présente sous-section.

IV.3.e.i) Critères d’évaluation de la robustesse

D’abord, rappelons que la robustesse se définit comme la capacité à généraliser les conclu-sions d’une analyse statistique. On cherche donc ici à vérifier que toute légère modification desdonnées ne conduit pas à des résultats significativement différents.

Pour ce faire, on conserve l’approche retenue pour l’étude de la robustesse du modèle pa-ramétrique à savoir le calcul d’espérances de vie résiduelles et de taux d’améliorations aprèsavoir considéré une plage de données plus large ou plus restreinte. Toutefois, afin d’adapter laméthodologie à la démarche d’estimation du modèle semi-paramétrique considéré, on opèrequelques ajustements :

– S’agissant de la variation de la plage de données, il n’est pas possible opérationnellementde considérer une multitude de plages de données étant donné le temps nécessaire à

Page 109: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.3. Séries temporelles et table "HMD Séries T. Femmes" Page 89

la mise en place de la méthode de Box & Jenkins. Ainsi, on considére uniquement unevariation de l’année de début de la plage de données (variable AnneeDebut) par pasde cinq années. De plus, on considére uniquement sept plages et donc AnneeDebut ∈1935, 1940, 1945, 1950, 1955, 1960, 1965.

– S’agissant du calcul d’espérances de vie résiduelles, le cas paramétrique a montré queconsidérer des âges différents translatait globalement les résultats d’un âge à un autre.Ainsi, on ne s’attarde que sur le calcul de l’espérance de vie résiduelle à 65 ans pour lessept plages de données à étudier.

– S’agissant du calcul des taux d’améliorations, la méthode reste inchangée et on calculedonc pour chaque plage les taux d’améliorations par classes d’âges de cinq ans et parclasses d’années de dix ans.

IV.3.e.ii) Espérance de vie à 65 ans

A cet instant, on dispose des quotients de mortalité jusqu’à 95 ans et pour les années an-térieures ou égales à 2060. Afin d’être en mesure de calculer une espérance de vie, il faut aupréalable fermer la table. Comme précédemment, on réalise ce travail via la méthode de Coale& Kisker et avec les hypothèses convenues en début d’étude.

Dès lors, pour chaque plage de données considérée dans cette étude de robustesse, il estpossible de donner l’évolution de l’espérance de vie résiduelle à 65 ans prédite. C’est ce qui estreprésenté par la Figure IV.17 pour chacune des sept modélisations.

2000 2010 2020 2030 2040 2050 2060

2025

3035

Année

Esp

éran

ce d

e vi

e ré

sidu

elle

à 6

5 an

s (e

n an

nées

)

1935194019451950195519601965

FIGURE IV.17 – Evolution de l’espérance de vie à 65 ans selon la valeur de AnneeDebut

On observe qu’à l’exception du modèle basé sur AnneeDeb = 1960, les modèles présententune dynamique semblable ce qui conduit à des écarts relativement faibles s’agissant de l’espé-rance de vie à 65 ans en 2060 entre les différents modèles évalués : la moyenne est à 29,78 ans,le maximum culmine à 30,63 ans et le minimum est 27,75 ans.

Changer la plage de données ne semble donc pas avoir d’importantes conséquences sur lesniveaux de longévité futurs.

Seulement un tel constat n’est valable qu’en excluant le modèle pour lequel les résultatssemblent faux : celui basé sur AnneeDeb = 1960. En effet, bien qu’en termes d’espérance de

Page 110: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 90 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

vie à 65 ans la valeur obtenue en 2060 ne soit pas choquante (on obtient 26,05 ans, ce qui n’esteffectivement pas complétement aberrant), la quasi constance observée entre 2045 et 2060 nousinterpelle et laisse supposer que le modèle SARIMA ajusté conduit à une convexité de la surfacede mortalité future. Dans ce cas, le modèle doit être rejeté compte tenu des prévisions obtenues.

Enfin, à noter que les espérances de vie obtenues ne peuvent pas être ordonnées en fonctionde la taille de la plage de départ (ce qui était possible dans le cas du modèle paramétrique).C’est un critère de satisfaction puisque cela tend à prouver que le choix de plage ne biaise pasles résultats.

IV.3.e.iii) Taux d’améliorations par classes d’âges et d’années

A présent, on va analyser les taux d’améliorations induits par chaque modèle. On rappelleque le détail du calcul d’un taux d’amélioration a déjà été mené au cours de la section précé-dente (plus précisement page 68), on ne le présente donc pas à nouveau.

On présente en Figure IV.18 les taux d’améliorations futurs obtenus selon les sept plages dedonnées étudiées ainsi que les taux historiques induits par les données HMD.

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'm

élio

ratio

n (e

n %

)

65−69 ans

1935194019451950195519601965HMD

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'm

élio

ratio

n (e

n %

)

70−74 ans

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'm

élio

ratio

n (e

n %

)

75−79 ans

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'm

élio

ratio

n (e

n %

)

80−84 ans

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'm

élio

ratio

n (e

n %

)

85−89 ans

1970 1980 1990 2000 2010 2020 2030 2040 2050

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Année

Taux

d'm

élio

ratio

n (e

n %

)

90−94 ans

FIGURE IV.18 – Taux d’améliorations des quotients de mortalité selon la plage de données

Une fois encore, le cas du modèle AnneeDeb = 1960 doit être traité à part mais indépen-demment de ce cas particulier, force est de constater que les résultats obtenus sont divergeants.Certes on retrouve une linéarité de l’évolution des taux d’améliorations mais à chaque modèlecorrespond une évolution propre (augmentation de la plupart des taux pour les modèles don-nant les plus fortes espérances de vie, forte décroissance à l’inverse pour les modèles associésà de faibles valeurs d’espérances de vie résiduelles).

De plus, le modèle AnneeDeb = 1960 expose une concavité des taux d’améliorations commel’évolution de l’espérance de vie à 65 ans pouvait le laisser présager. Une telle concavité s’in-terprète directement comme une inversion de l’évolution de la longévité ce qui est fort peuprobable (sauf guerre mondiale par exemple mais un modèle de séries temporelles n’est pascensé envisager un événement aussi extrême).

Page 111: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.4. Backtesting des tables de mortalité de référence Page 91

IV.3.e.iv) Conclusion de l’étude de robustesse

Comme dans le cas du modèle paramétrique, les études ménées pour tester la robustessedu modèle amènent aussi bien des motifs de satisfaction concernant la modélisation que deséléments de prudence concernant les résultats obtenus à partir de la plage de données initiale.

D’abord, il convient de discuter du cas du modèle pour lequel AnneeDeb = 1960. Les ré-sultats qui en découlent sont en contradiction avec les résultats des autres modèles à tout pointde vue. Bien que ce modèle soit justifié statistiquement, les prévisions sur le long terme qui endécoulent ne semblent pas exploitables.

En excluant ce modèle, l’évolution de l’espérance de vie à 65 ans est globalement identiquequelque soit la plage de données considérée, et ce, bien que les gains de longévité ne s’opèrentpas aux mêmes âges selon chaque modèle (en témoigne l’étude des taux d’améliorations oùaucune structure commune n’est observable).

Puisque la plage de données initiale a un comportement moyen par rapport à tous les mo-dèles testés, on peut conserver les résultats obtenus précédemment tout en gardant en tête quela modélisation proposée reste extrêmement sensible au choix empirique des données initialesnotamment sur le très long terme.

Les prévisions données par le modèle SARIMA36[(34, 0, 0)(3, 0, 0)

]à partir d’un lissage des

logarithmes des quotients de mortalité de PlageBase et ces valeurs lissées constituent la table"HMD Séries T. Femmes" recherchée.

IV.4 – Backtesting des tables de mortalité de référence

Les précédentes sections ont permis de batîr deux tables de mortalité de référence pour lesfemmes basées sur les données de l’Human Mortality Database.

Etant donné l’absence de données cibles sur lesquelles comparer nos différentes prévisionsde la mortalité, on propose ici de réaliser un backtesting afin de juger la pertinence de l’en-semble des données considérées et d’évaluer la capacité prédictive des méthodologies précé-demment exposées.

IV.4.a - Principe et mise en oeuvre du backtesting

Un backtesting consiste à évaluer une modélisation à partir de données réelles. Cela permetd’affirmer une modélisation au-delà de la validité statistique de cette dernière.

Etant donné que c’est l’évolution de la mortalité à travers le temps qui nous intéresse, onse propose donc de limiter en termes d’années la connaissance des données HMD : on supposedorénavant que la dernière année d’observation est l’année 2002.

L’objectif est alors de voir si les modèles mis en place permettent de retrouver les quotientsde mortalité des années 2003 à 2012.

Page 112: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 92 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

IV.4.a.i) Recherche de la plage de données optimale

On rappelle que pour chacune des tables obtenues, c’est la plage de données PlageBase quiconstituait l’échantillon de départ. Cet échantillon doit d’abord être validé avant d’analyser lesrésultats qu’il a permis d’obtenir.

On se propose donc de voir si l’ensemble PlageBack = J60; 95K× J1950; 2002K obtenu aprèstroncature de PlageBase est bien l’ensemble de données optimal s’agissant de la prévision de lamortalité à court terme. On va donc opérer une prévision selon chaque méthodologie en consi-dérant cette plage mais en considérant également deux plages de données supplémentaires :

– PlageCourt = J60; 95K× J1965; 2002K, une plage de données moins fournie que PlageBack ;– PlageLong = J60; 95K× J1935; 2002K, une plage de données plus étendue que PlageBack.Ainsi, ce sont six prévisions (trois selon chacune des deux méthodologies) qui vont être

confrontées aux valeurs réelles des quotients de mortalité entre 2003 et 2012.

IV.4.a.ii) Confrontation des prévisions optimales et des données réelles

Il découle de la précédente étude deux ensembles de données optimaux (un selon chaqueméthodologie). Il reste alors à confronter statistiquement ces meilleures prévisions avec lesdonnées réelles.

En effet, bien qu’une prévision soit valide statistiquement et optimale compte tenu d’uneméthodologie et d’un panel de données, il faut s’assurer qu’elle demeure recevable comptetenu de valeurs observées.

On peut alors mener des tests et calculer des indicateurs comme préconisé par Tomas etPlanchet (2013) [27], afin d’évaluer l’ajustement global des résultats obtenus. Dès lors, il serapossible d’affirmer chaque combinaison d’une plage de données et d’une méthodologie.

Autrement dit, on pourra finalement valider les tables de mortalité établies précédemment.

IV.4.b - Plage de données initiale et backtesting

Varier la plage de données a déjà été réalisé pour étudier la robustesse des méthodologies.Si ce procédé est réitéré c’est cette fois pour déterminer quelle est la plage de données à mêmede donner les meilleures prévisions.

Ainsi, pour chacune des trois plages explicitées précédemment, on mène :. le modèle paramétrique à savoir :

– ajustement annuel des données à l’aide de la fonction logistique ;– calculs de coefficients pour modéliser l’évolution temporelle des paramètres obtenus ;– détermination de prévisions à l’aide de la formule générale déduite.

. l’approche semi-paramétrique qui peut être résumée en :– un lissage des logarithmes des quotients de mortalité initiaux ;– l’estimation d’un modèle SARIMA en suivant la méthode de Box & Jenkins ;– le calcul de prévisions à partir du modèle estimé et des formules du modèle SARIMA.

Une fois l’ensemble de ce travail réalisé, on peut comparer les différentes prévisions avec lesdonnées réelles. Cette comparaison peut être faite pour chaque année comprise en 2003 et 2012mais on se limite aux bornes de cet intervalle pour les différentes représentations graphiquesdonnées Figures IV.19 et IV.20 (en page 93).

Page 113: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.4. Backtesting des tables de mortalité de référence Page 93

60 65 70 75 80 85 90 95

−5

−4

−3

−2

Année 2003

Age

ln(Q

x,2

003

)

Données réellesPrévision 'PlageBack'Prévision 'PlageCourt'Prévision 'PlageLong'

60 65 70 75 80 85 90 95

−5

−4

−3

−2

Année 2012

Age

ln(Q

x,2

012

)

FIGURE IV.19 – Prévisions de la méthodologie "Logistique" selon la plage et données réelles(années 2003 et 2012)

60 65 70 75 80 85 90 95

−5

−4

−3

−2

Année 2003

Age

ln(Q

x,2

003

)

Données réellesPrévision 'PlageBack'Prévision 'PlageCourt'Prévision 'PlageLong'

60 65 70 75 80 85 90 95

−5

−4

−3

−2

Année 2012

Age

ln(Q

x,2

012

)

FIGURE IV.20 – Prévisions de la méthodologie "Séries T." selon la plage et données réelles(années 2003 et 2012)

Page 114: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 94 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

Les résultats sont similaires pour les deux méthodologies : PlageBack semble être l’en-semble de données qui permet de s’approcher le mieux des valeurs attendues. Afin de confir-mer ce constat graphique, on calcule le SSR pour chaque modélisation et pour chacune desannées considérées précédemment. Les résultats sont donnés par la Figure IV.21.

SSRMéthodologie "Logistique" Méthodologie "Séries T."

PlageBack PlageCourt PlageLong PlageBack PlageCourt PlageLongAnnée 2003 0,180 0,488 0,776 0,203 0,205 0,218Année 2012 0,099 0,856 1,069 0,266 0,436 0,279

FIGURE IV.21 – Valeurs du SSR pour chaque modélisation et à partir des données 2003 et 2012

Pour les deux années considérées et pour les deux méthodologies, c’est bien PlageBack quiminimise le SSR et donc qui donne les meilleures prévisions.

L’emploi de PlageBase pour la construction des tables de référence est ainsi justifié.

IV.4.c - Evaluation de la capacité prédictive des tables de référence

Deux tables de mortalité de référence "HMD Logistique Femmes" et "HMD Séries T. Femmes"ont été construites aux sections précédentes à partir de PlageBase. Cette plage de données HMDa été jugée optimale grâce au précédent backtesting.

Reste à voir si les prévisions qui découlent de ces tables peuvent être considérées commesatisfaisantes auquel cas elles pourront être employées par la suite.

IV.4.c.i) Prévisions et valeurs observées

Avant tout calcul statistique, il convient de donner les valeurs tests (les quotients de mor-talité HMD réellement observés sur PlageTest = J60; 95K × J2003; 2012K) et les prévisions àhorizon dix ans pour chacun des deux modèles du backtesting (ceux associant les deux métho-dologies retenues et PlageBack).

La comparaison de chaque ensemble de prévisions avec les données cibles est donnée Fi-gure IV.22 (en page 95).

Globalement, les deux méthodologies donnent des prévisions qui se révèlent proches parrapport aux valeurs réelles.

Les résidus obtenus semblent non seulement plutôt faibles mais également assez bien ré-partis. Reste à valider statistiquement ces deux constats graphiques.

IV.4.c.ii) Répartition des résidus

D’abord, on peut mener le test des signes et le test des runs (tous deux décrits en AnnexeB) afin d’évaluer la bonne répartition des résidus.

Le premier test permet de vérifier que les résidus sont bien répartis selon leur signe tandisque le second vérifie que les résidus sont bien indépendants.

Les résultats de ces tests (c’est-à-dire les p-values associées) sont donnés à travers la Fi-gure IV.23 (en page 95).

Chaque p-value obtenue est supérieure à 0,05 donc les tests n’indiquent aucun critère derejet des différentes hypothèses nulles au niveau de risque 5%.

Page 115: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IV.4. Backtesting des tables de mortalité de référence Page 95

200420062008

2010

2012 6070

8090

−5

−4

−3

−2

200420062008

2010

2012 6070

8090

−5

−4

−3

−2

Annee

200420062008

2010

2012 Age60

7080

90

ln(Qx,t)

−5

−4

−3

−2

Méthodologie 'Logistique'

200420062008

2010

2012 6070

8090

−5

−4

−3

−2

200420062008

2010

2012 6070

8090

−5

−4

−3

−2

Annee

200420062008

2010

2012 Age60

7080

90

ln(Qx,t)

−5

−4

−3

−2

Méthodologie 'Séries T.'

FIGURE IV.22 – Surfaces de mortalité issues du backtesting

Méthodologie "Logistique" Méthodologie "Séries T."Test des signes 0,102 0,268Test des runs 0,333 0,241

FIGURE IV.23 – Résultats des tests des signes et des runs pour chaque méthodologie

Ainsi, les résidus issus des prévisions ont une structure acceptable et conforme à celleconstatée graphiquement.

IV.4.c.iii) Mesure de l’écart

Ensuite, il faut vérifier que l’écart global entre les prévisions et les valeurs observées n’estpas trop important. On se propose ainsi de calculer un indicateur statistique, à savoir le coeff-cient de détermination, ainsi que de mener un test statistique, celui de Wilcoxon.

→ Formule du coefficient de déterminationEn notant ln(QMod

x,t ) le logarithme d’un quotient de mortalité projeté (selon le modèle "Lo-gistique" ou le modèle "Séries T.") et ln(QBack

x,t ) celui du même quotient issu des données dubacktesting, on peut définir le coefficient de détermination R2 par la relation

R2 = 1−∑(x,t)∈PlageTest

(ln(QMod

x,t )− ln(QBackx,t )

)2

∑(x,t)∈PlageTest

(ln(QMod

x,t )− ln(QModX,T )

)2

où ln(QModX,T ) est la moyenne sur PlageTest des logarithmes des quotients de mortalité ajustés.

Une adéquation entre les valeurs prévues et les valeurs observées est indiquée pour uncoefficient de détermination R2 proche de 1.

Page 116: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 96 Chapitre IV. Tables de référence à partir de l’Human Mortality Database

→ Principe du test de WilcoxonLe test de Wilcoxon est semblable au test des signes précédemment mené sauf qu’il intègre

en plus du signe des résidus, la valeur de ces derniers. Il permet ainsi d’évaluer si un jeu dedonnées ajusté estime correctement un jeu de données observé. Les détails mathématiques dece test sont donnés en Annexe B.

→Mise en oeuvre et conclusionEn employant les différentes formules, le calcul du R2 est direct tout comme ceux donnant

la p-value du test de Wilcoxon. Ces derniers permettent d’obtenir la Figure IV.24.

Méthodologie "Logistique" Méthodologie "Séries T."R2 0,996 0,998

Test de Wilcoxon 0,171 0,647

FIGURE IV.24 – Valeur du R2 et p-value du test de Wilcoxon pour les deux méthodologies

Les valeurs du R2 et les p-values du test de Wilcoxon convergent vers une conclusionunique : les deux méthodologies permettent d’obtenir des valeurs qui sont en adéquation avecles données observées.

IV.4.d - Conclusions tirées du backtesting

Le backtesting et les travaux qui s’y rapportent permettent d’affirmer définitivement lesdeux tables de mortalité de référence construites précédemment d’une part car la plage dedonnées initiale peut être qualifiée de pertinente et d’autre part car les modèles retenus donnentdes prévisions qui s’avèrent aussi bien valables statistiquement que fiables en pratique.

Page 117: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

TABLES DE MORTALITÉ D’EXPÉRIENCE

Le volume des données d’expérience étant insuffisant pour envisager une construction en-dogène des tables de mortalité d’expérience recherchées, différents modèles et les donnéesHMD ont été utilisés afin d’obtenir deux tables de référence pour chaque sexe en vue de l’uti-lisation d’un modèle exogène.

La mise en place d’un même modèle relationnel entre les précédentes tables de référence etles données du portefeuille permet d’obtenir finalement différentes tables de mortalité d’expé-rience qui doivent ensuite être comparées aux tables réglementaires.

Rappel : Dans un souci de confidentialité, aucune valeur numérique liée au portefeuille d’étudene peut être explicitée dans le présent chapitre. Cela vaut aussi bien pour les données directe-ment issues au portefeuille que pour tout résultat obtenu à l’aide de ces données d’expérience.

V.1 – Estimation des quotients de mortalité bruts

La première étape pour obtenir notre table de mortalité d’expérience est d’estimer à par-tir des données du portefeuille les quotients de mortalité à chaque âge et selon chaque annéed’observation. De nombreux estimateurs répondent à cette problématique, on retient ici l’esti-mateur de Hoem.

V.1.a - L’estimateur de Hoem

Il convient d’expliciter le calcul de cet estimateur avant d’en employer la formule sur lesdonnées du portefeuille.

V.1.a.i) Principe de l’estimateur de Hoem

Le fondement de l’estimateur de Hoem est assez naturel : il postule que chaque individun’est exposé au risque de décès à un âge x qu’entre les dates où il était effectivement âgé de xannées (des dates de début et de fin d’observation selon l’âge doivent alors être définies). Enraisonnant ainsi, le risque qu’un assuré décède à l’âge x est comptabilisé uniquement lorsqu’ilest bien présent pour l’assureur.

V.1.a.ii) Modélisation des dates d’observation

Le principe de cet estimateur est donc de mesurer avec précision l’exposition au risque.

On se fixe un entier x et un individu i soumis au risque de décéder à l’âge x c’est-à-direle risque de décéder entre le jour de son xième anniversaire et la veille du x + 1ième. Afin decapter toute éventuelle troncature à gauche et/ou toute censure à droite, on introduit [αi ; βi]inclus dans [0 ; 1], l’intervalle modélisant les dates d’observation de l’individu i. La longueurde cet intervalle donne le temps d’exposition en années.

Par exemple, si un individu né le 01/07/1900 est vivant sur l’ensemble de l’année 2013,l’intervalle [αi ; βi] associé au risque de décéder à 113 ans est [0 ; 184

365 ].

Page 118: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 98 Chapitre V. Tables de mortalité d’expérience

V.1.a.iii) Estimation ponctuelle du quotient de mortalité

Après avoir modélisé les dates de début et fin d’observation pour un individu d’âge x, onpeut chercher à obtenir une estimation du quotient de mortalité Qx associé.

Comme expliqué auparavant, l’individu i n’est soumis au risque de décéder à l’âge x quesur un sous-ensemble [x + αi ; x + βi] de [x ; x + 1]. Par conséquent, non seulement il faut consi-dérer cette exposition partielle mais également prendre en compte que cette exposition obser-vée porte en réalité sur l’âge x + αi et non l’âge x.

D’abord, s’agissant de l’exposition partielle, rappelons que nous avons émis pour toutel’étude une hypothèse de répartition des décès dans l’année, celle d’une répartition linéaire :∀t ∈ [0 ; 1], tQx = t Qx.

On se propose ensuite d’effectuer une approximation afin "d’éliminer" x + αi qui est un âgenon entier et pour lequel la précédente relation n’est pas valable. On réalise ainsi l’approxima-tion pour [t ; s] ⊂ [0 ; 1], s−tQx+t ' s−tQx.

Il vient alors βi−αi Qx+αi ' (βi − αi) Qx

Introduisons Xi la variable aléatoire qui modélise l’observation de l’individu i face au risquede décès. Elle prend la valeur 0 si l’individu observé survit et 1 s’il décède durant l’observation.Par définition du quotient de mortalité, Xi suit une loi de Bernoulli de paramètre βi−αi Qx+αi . Enutilisant le résultat précédent et par définition d’une loi de Bernoulli, on obtient l’approxima-tion

E(Xi) ' (βi − αi)Qx

V.1.a.iv) Loi des grands nombres et estimation finale

Il reste à étendre ce résultat valable pour une tête quelconque à un portefeuille d’assurésafin d’obtenir finalement une estimation du quotient de mortalité d’expérience.

Soit un âge x fixé. On considère désormais nx, le nombre d’individus en vie à l’âge x et Dx lavariable aléatoire modélisant le nombre de décès constatés à l’âge x (la réalisation observée de

Dx concernant ces nx individus est notée dx). En utilisant ce qui précède, on a donc Dx =nx

∑i=1

Xi.

Planchet et Thérond (2011, Annexe 5) [24] retiennent une loi binomiale pour Dx et en appli-quant ensuite la loi des grands nombres, il vient finalement l’estimateur recherché

Qx =dx

nx

∑i=1

βi − αi

V.1.a.v) Intérêt de l’estimateur retenu

Un premier argument en faveur de l’estimateur de Hoem est qu’il est sans biais étant donnéque travailler avec des données tronquées et/ou censurées fait partie intégrante de la métho-dologie. De plus, le principe de la méthode correspond à une idée intuitive et elle coïncide avecle procédé de calcul de l’exposition pour chaque rentier ce qui permet d’avoir des résultats plusfacilement interprétables.

Page 119: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

V.1. Estimation des quotients de mortalité bruts Page 99

Enfin, c’est surtout la simplicité du calcul et le peu de données nécessaires qui en font unestimateur très pertinent. En effet, avec simplement la date d’anniversaire de chaque individuet une période d’observation, on obtient un estimateur cohérent pour les quotients de mortalitéet ce, malgré un échantillon de données réduit.

V.1.b - Calcul d’estimateurs à partir des quotients bruts

Nous avons précédemment présenté l’estimateur retenu dans le cadre de l’estimation desquotients de mortalité bruts. Dès lors, il suffit d’appliquer la précédente formule avec les don-nées du portefeuille afin d’obtenir, pour chaque sexe, pour chaque âge et chaque année d’ob-servation, l’estimateur de Hoem du quotient de mortalité d’expérience.

Le calcul de chacun des quotients donne les deux surfaces de mortalité présentées par laFigure V.1 (ces représentations graphiques sont exactement à la même échelle).

2000200220042006200820102012

Année

Qx estim

é

6070

80 90

Age

Hommes

2000200220042006200820102012

Année

Qx estim

é

6070

80 90

Age

Femmes

FIGURE V.1 – Surfaces représentant les quotients de mortalité estimés en utilisant l’estimateurde Hoem selon l’âge, l’année d’observation et le sexe considérés

D’abord, on constate que la mortalité des hommes est nettement plus importante que celledes femmes ce qui n’est guère surprenant. De plus, malgré d’importantes fluctuations ayant

Page 120: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 100 Chapitre V. Tables de mortalité d’expérience

pour origine le petit nombre de rentiers à notre disposition, on retrouve pour chaque annéed’observation, l’allure d’une courbe de quotients de mortalité. Toutefois, étudiées simultané-ment, il est difficile de distinguer tout signe indiquant une évolution de la forme de mortalitéau cours des 13 années d’observation.

Par ailleurs, on constate (aussi bien chez les hommes que chez les femmes) un grand nombrede quotients de mortalité nuls synonyme d’absence de décès pour certains couples âge/année.C’est une nouvelle preuve de la faiblesse en termes de volume de notre échantillon de données.

V.2 – Ajustement des quotients estimés selon la table "HMD LogistiqueFemmes"

L’analyse statistique du portefeuille d’étude nous a conduit à considérer nécessairement unmodèle relationnel. Après avoir construit plusieurs tables de référence et estimé les quotientsbruts, il est désormais temps d’employer un tel modèle.

On détaille ici ce travail dans le cas des données féminines et en employant la table deréférence "HMD Logistique Femmes" afin d’obtenir finalement une première table de mortalitéd’expérience. 33.

V.2.a - Le modèle de Brass

Parmi les nombreux modèles relationnels qui sont à notre disposition, on retient le modèlede Brass.

V.2.a.i) Formulation mathématique

Le modèle de Brass (1971) [7] suggère l’existence d’une relation linéaire annuelle entre leslogit des quotients de mortalité de la population d’étude notés QExp

x,t et ceux d’une population

de référence notés QRe fx,t . Ainsi, pour chaque année d’observation notée t, on suppose que

∀x, logit(

QExpx,t

)= at logit

(QRe f

x,t

)+ bt + εx

où la fonction logit est définie sur ]0 ; 1[ par logit(p) = ln(

p1− p

)et où εx correspond au terme

d’erreur du modèle.

Ce modèle s’est construit en deux étapes :– La première utilise l’évolution linéaire observée pour les logits de quotients de mortalité

à partir de l’âge adulte.– La seconde suppose une relation linéaire entre les logits de la population d’expérience et

la population de référence.En découle alors, pour chaque année d’étude, un modèle à seulement deux paramètres

plutôt simple étant donné qu’il s’agit d’un modèle linéaire.

33. On employe exactement le même modèle relationnel s’agissant des trois autres tables de référence. Le détailde la construction des trois tables d’expérience associées est donc omis.

Page 121: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

V.2. Ajustement des quotients estimés selon la table "HMD Logistique Femmes" Page 101

V.2.a.ii) Intérêt du modèle dans le cas du risque de longévité

Outre la simplicité du modèle, le fait que ce dernier utilise exclusivement des quotients demortalité ajoute une plus-value à ce choix de modèle.

Par ailleurs, la concavité de la fonction logit sur ]0 ; 0, 5] et l’inégalité de Jensen permettentd’obtenir E(logit(Qx)) 6 logit (E(Qx)).

Si l’on dispose d’une estimation Qx sans biais de Qx (comme c’est le cas avec l’estimateurde Hoem précédemment retenu) alors on obtient l’inégalité

E(

logit(

Qx))6 logit (Qx)

Ce qui prouve que le modèle de Brass va biaiser négativement l’immense majorité des quo-tients de mortalité. Cette approche prudente est tout à fait appropriée étant donné notre posi-tion d’assureur vie.

V.2.b - Modèle relationnel et régression linéaire simple pour une année d’observation

Le modèle relationnel choisi ayant été introduit, il reste désormais à l’appliquer aux don-nées de notre portefeuille (les quotients de mortalité féminins estimés par l’estimateur de Hoem)et à la table de référence choisie précédemment (la table de référence "HMD Logistique Femmes").Ce travail consiste à estimer le couple (at, bt) pour chaque année d’observation.

Dans la présente sous-section, on détaille ce travail statistique pour l’année 2012.

V.2.b.i) Mise en place du modèle linéaire ordinaire et gestion des quotients de mortalité nuls

Comme expliqué auparavant, le modèle de Brass est un modèle linéaire ordinaire à unevariable explicative : on est même dans le cas d’une régression linéaire simple.

L’estimation des coefficients a2012 et b2012 est donc a priori directe et sans difficultés.

Aussi, on peut noter :– n = 36, le nombre d’observations ;– (x1, . . . , xn) =

(logit

(QLogistique

60,2012

), . . . , logit

(QLogistique

95,2012

))les logits des quotients de morta-

lité de la table de référence (qui sont des réalisations de la variable explicative X) ;

– (y1, . . . , yn) =(

logit(

Q60,2012

), . . . , logit

(Q60,2012

))les logits des quotients de mortalité

estimés selon l’estimateur de Hoem (qui sont des réalisations de la variable à expliquerY) ;

– (w1, . . . , wn) = (E60,2012, . . . , E95,2012) les expositions au risque décès en 2012 (des poids envue de l’estimation) ;

A l’écriture du modèle une difficulté inattendue apparaît : celle de l’inexistence de certains yi.

En effet, il existe des âges pour lesquels aucun décès n’est observé en 2012 et donc des âgespour lesquels l’estimateur de Hoem associé est nul. Or, la fonction logit (qui est construite àpartir du logarithme néperien) n’est pas définie en 0. Donc, le modèle précédent ne peut êtredéfini tel qu’écrit précédemment.

Il faut alors se fixer une méthodologie pour gérer ces valeurs qui empêchent tout calcul.Afin de conserver le caractère linéaire de la méthode de Brass, on affecte simplement aux quo-tients nuls des poids également nuls.

Page 122: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 102 Chapitre V. Tables de mortalité d’expérience

Remarque : En pratique, il conviendra d’attribuer manuellement des valeurs non nulles quel-conques aux quotients nuls de sorte de créer le vecteur des observations du modèle linéaire. Lanullité des poids associés se chargera d’éliminer ces observations lors du calcul des paramètresestimés.

V.2.b.ii) Moindres carrés pondérés dans le cadre de la régression linéaire simple

On décide ici d’estimer (a2012, b2012) via la méthode des moindres carrés linéaires pondérés(avec comme poids chaque exposition totale) de sorte qu’un quotient de mortalité issu d’ungrand nombre d’observations pèse plus dans l’ajustement qu’un quotient obtenu à partir depeu de données. Cela doit permettre de réduire les fluctuations d’échantillonage.

Les estimateurs b2012 et a2012 recherchés sont donc solution de

(b2012, a2012) = argmin(b2012,a2012)∈R2

n

∑i=1

wi(yi − b2012 − a2012xi)

)2

C’est un problème de minimisation linéaire donc les conditions d’optimalité du premierordre conduisent forcément à un système d’équations linéaires ce qui suffit pour assurer l’exis-tence et l’unicité des estimateurs souhaités. Après calculs, (b2012, a2012) est la solution de

b2012

n

∑i=1

wi + a2012

n

∑i=1

wixi =n

∑i=1

wiyi

b2012

n

∑i=1

wixi + a2012

n

∑i=1

wix2i =

n

∑i=1

wixiyi

Ce système est bien compatible (il est du type Ax = b où A est inversible), ce qui permetd’obtenir finalement les estimateurs b2012 et a2012 souhaités.

On peut alors tracer en Figure V.2 l’équation du modèle de Brass (yBrassi = a2012xi + b2012) et

la mettre en parrallèle avec les données d’origine (les yi).

60 65 70 75 80 85 90 95

Age

logi

t(Q

x,2

012

)

60 65 70 75 80 85 90 95

Logit observés (si l'estimateur de Hoem est non nul) Ajustement des logits de référence selon le modèle de Brass

FIGURE V.2 – Application du modèle de Brass aux logits des quotients de mortalité d’expé-rience estimés de l’année 2012 avec la table "HMD Logistique Femmes" comme référence

Cette représentation graphique combinée à une étude des résidus permettent de validerstatistiquement le modèle considéré.

Page 123: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

V.2. Ajustement des quotients estimés selon la table "HMD Logistique Femmes" Page 103

Remarque : Le graphique précédent ne présente pas une droite mais une courbe de type lo-gistique. En effet, puisque l’abcisse retenue est l’âge, on retrouve la courbe de la fonction

x 7→ logit(

QLogistiquex,2012

)après une transformation affine dictée par les estimateurs calculés. On

donnera la représentation de la droite de régression (la fonction xi 7→ yi) plus tard, une fois desintervalles de confiances calculés.

V.2.b.iii) Intervalle de confiance associé à la régression linéaire

On a précédemment estimé les paramètres du modèle de Brass. Compte tenu des valeursnumériques obtenues on peut désormais raisonner de manière "inverse" c’est-à-dire que l’onpeut établir une estimation de la variable à expliquer compte tenu du modèle de Brass exhibé.Cette estimation et son intervalle de confiance peuvent ensuite être comparés aux donnéesréelles ce qui permet d’évaluer la pertinence du modèle.

Compte tenu d’une observation x0 et du modèle estimé, l’estimation y0 de la variable aléa-toire à expliquer est naturellement obtenue par la relation

y0 = a2012x0 + b2012

Cette valeur numérique n’a de sens que si l’on est capable de donner un intervalle deconfiance associé à cette estimation. Pour obtenir un tel intervalle, il faut ajouter une hypo-thèse de normalité sur les résidus ε i = yi − b2012 − a2012xi.

Cette hypothèse faite, Saporta (2011, Chapitre 16) [25] démontre que l’intervalle de confiancede niveau 1− α voulu s’écrit

IC1−α(y0) =

[y0 ± QTn−2

(1− α

2

√1n+

x0 − x∑n

i=1(xi − x)2

]

où :– QTn−2

(1− α

2

)désigne le quantile d’ordre 1 − α

2 de la loi de Student à n − 2 degrés deliberté ;

– σ2 =1

n− 2

n

∑i=1

(yi− y)2 désigne une estimation de la variance avec y désignant la moyenne

de (y1, . . . , yn) ;– x est la moyenne de l’échantillon (x1, . . . , xn).

Comme tenu de tout ce qui précède, on peut désormais tracer la droite de régression précé-demment estimée et l’accompagner de l’intervalle de confiance à 95% (tracé pour x0 ∈ [−6 ;−1]).Ce résumé graphique de la régression est donné Figure V.3 (en page 104) où l’on donne égale-ment les estimations non nulles de l’estimateur de Hoem.

On constate qu’à l’exception de quelques valeurs, toutes les données réelles sont comprisesdans l’intervalle de confiance déterminé (ce dernier se représente par deux arcs d’hyperbolescomme attendu étant donné le contexte de régression linéaire simple).

Ainsi, le modèle choisi propose un ajustement valide au-delà de son bien fondé statistiquedémontré précédemment.

Page 124: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 104 Chapitre V. Tables de mortalité d’expérience

−6 −5 −4 −3 −2 −1

Logits de la table de référence (x_i)

Logi

ts d

'exp

érie

nce

(y_i

)

Logit observés (Hoem) Droite de régression (Brass) Intervalle de confiance à 95%

FIGURE V.3 – Régression linéaire du modèle de Brass entre les logits de référence et les logitsd’expérience

V.2.b.iv) Modèle de Brass estimé vu en quotients de mortalité

On a précédemment réalisé une régression linéaire entre les logits des quotients de morta-lité estimés et les quotients de mortalité de référence comme préconisé par le modèle de Brass.Reste à voir comment se traduit ce bon ajustement dès lors que l’on souhaite traiter des quo-tients de mortalité "bruts" et non de leurs logits.

Puisque l’on sait inverser la fonction logit et que l’on peut employer la précédente formuled’un intervalle de confiance pour chaque valeur de xi associée à une valeur licite de yi, onobtient finalement un intervalle de confiance pour l’ensemble de l’ajustement.

La Figure V.4 représente cet intervalle de confiance (de niveau 95%), les Qx,2012 initiaux etl’ajustement proposé par le modèle de Brass compte tenu des QLogistique

x,2012 .

60 65 70 75 80 85 90 95

Age

Qx

,201

2

0

Quotient de mortalité estimé selon l'estimateur Hoem Quotient de mortalité ajusté selon le modèle de Brass Intervalle de confiance de niveau 95% correspondant à l'ajustement

FIGURE V.4 – Modèle de Brass pour les quotients de mortalité d’expérience estimés avec latable "HMD Logistique Femmes" comme référence

Page 125: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

V.2. Ajustement des quotients estimés selon la table "HMD Logistique Femmes" Page 105

D’abord, on constate que l’ensemble des quotients estimés qui sont nuls ne sont pas comprisdans l’intervalle de confiance calculé. Il ne faut pas s’en étonner étant donné que l’ajustementn’a pas considéré ces valeurs. De plus, constater que l’intervalle de confiance est suffisammentétroit pour ne pas inclure ces valeurs est d’une certaine façon satisfaisant puisque cela montrebien que l’ajustement possède une certaine précision et donc que les résultats qui en découlentsont exploitables.

Par ailleurs, on constate que pour une valeur ajustée donnée, l’intervalle de confiance n’estpas symétrique par rapport à cette valeur : c’est logique étant donné l’utilisation de l’inverse dela fonction logit qui n’est pas linéaire. C’est ce qui explique que l’on ne retrouve pas la symétriede l’intervalle de confiance initial.

Finalement, la conclusion de cette répresentation en quotient de mortalité est identique àcelle issue directement de la régression linéaire (qui était en logits) : l’ajustement est globale-ment valable.

V.2.c - Ajustement global

La démarche d’estimation ayant été présentée et détaillée pour le cas de l’année d’observa-tion 2012, on peut à présent ajuster, pour toutes les années d’observation, la table de référenceavec les quotients d’expérience estimés par la méthode de Hoem.

La surface de mortalité obtenue est alors celle donnée par la Figure V.5.

200020022004200620082010

2012

Année

Qx,t

6070

80 90

Age

FIGURE V.5 – Représentation des quotients de mortalité avant et après ajustement par la mé-thode de Brass et la table de mortalité de référence "HMD Logistique Femmes"

Il ne faut pas être surpris de ne pas obtenir de régularité selon l’année d’observation puisquela surface finale n’est pas obtenue après un ajustement global mais seulement par rapproche-ment de treize ajustements indépendants correspondant aux treize années d’observation denotre étude. Il est donc logique de voir apparaître les fluctuations dues à la petite taille del’échantillon initial.

Page 126: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 106 Chapitre V. Tables de mortalité d’expérience

V.3 – Projection des quotients de mortalité d’expérience ajustés

Le modèle de Brass nous a permis de rapprocher, pour chacune de nos années d’étude,données d’expérience et données de référence (table "HMD Logistique Femmes"). Pour obtenirla table de mortalité d’expérience recherchée, il reste à projeter le précédent modèle.

V.3.a - Modélisation polynomiale des paramètres temporels du modèle de Brass

A priori, dès lors qu’il s’agit d’obtenir des projections à partir de données d’expérienceajustés par un modèle paramétrique il suffit de projeter les paramètres du modèle sous-jacent.Ainsi, il suffit d’établir une méthode de projection pour at et bt (les paramètres des différentsmodèles de Brass ajustés) suffisamment robuste pour permettre d’obtenir des résultats viables.

La Figure V.6 (en page 107) présente l’évolution en fonction de l’année d’observation desparamètres estimés.

Là encore, la présence de fluctuations d’échantillonage s’observe et empêche d’obtenir unetendance temporelle nette s’agissant des estimations des paramètres du modèle de Brass. Au-cune forme caractéristique relative à un modèle usuel ne se dégage ici.

Dès lors, on se propose de poser un modèle polynomial pour les évolutions respectives deat et bt. On employe cette modélisation polynomiale jusqu’au degré trois et on obtient alors laFigure V.7 (en page 107).

Graphiquement, le polynôme de degré un semble le plus adapté : d’une part car la tendanceobservée montre une certaine stabilité et d’autre part car les polynômes de degré supérieurs nesont pas strictement monotones sur la période d’ajustement ce qui n’est pas recevable en vuede la projection des paramètres.

Toutefois, étant donné que l’on cherche à réaliser de très nombreuses projections (l’ultimeannée de projection étant 2060 cela représente 48 valeurs futures à calculer pour chaque para-mètre), un semblant de tendance sur moins d’une quinzaine d’années d’observation ne peutservir de base pour la prévision. La technique de projection doit être robuste.

On se propose alors d’en venir à un critère de décision statistique et de retenir le modèlequi présentera le coefficient de détermination ajusté le plus élevé à condition que ce derniersoit suffisamment proche de 1 34.

Etant donné un modèle linéaire comprenant n observations et p paramètres, le coefficientde détermination ajusté, noté R2, est défini par

R2 = 1− (1− R2)n− 1

n− p− 1

Remarque : On considère le R2 car, contrairement au R2, il tient compte d’une éventuelle sur-paramétrisation du modèle ce qui devrait permettre de démontrer notre constat graphique àsavoir que le modèle de degré 1 est le plus adapté dans le cas présent.

34. En fixant que toute valeur supérieure ou égale à 0,95 est considérée comme recevable

Page 127: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

V.3. Projection des quotients de mortalité d’expérience ajustés Page 107

2000 2002 2004 2006 2008 2010 2012

0.70

0.80

0.90

1.00

Evolution du paramètre a(t)

Année

Val

eur

du p

aram

ètre

2000 2002 2004 2006 2008 2010 2012

−1.

2−

1.0

−0.

8−

0.6

−0.

4−

0.2

Evolution du paramètre b(t)

Année

Val

eur

du p

aram

ètre

FIGURE V.6 – Estimations des paramètres pour chaque modèle de Brass annuel

2000 2002 2004 2006 2008 2010 2012

0.70

0.80

0.90

1.00

Modélisations polynomiales pour a(t)

Année

Val

eur

du p

aram

ètre

Paramètres estimés Polynôme de degré 1 Polynôme de degré 2 Polynôme de degré 3

2000 2002 2004 2006 2008 2010 2012

−1.

2−

1.0

−0.

8−

0.6

−0.

4−

0.2

Modélisations polynomiales pour b(t)

Année

Val

eur

du p

aram

ètre

Paramètres estimés Polynôme de degré 1 Polynôme de degré 2 Polynôme de degré 3

FIGURE V.7 – Ajustements polynomiaux respectivement pour at et bt

Page 128: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 108 Chapitre V. Tables de mortalité d’expérience

L’étude statistique de chacune des régressions permet d’obtenir la Figure V.8 qui donne lavaleur du R2 pour chacun des modèles polynomiaux considérés.

a bDegré 1 0,1509 0,0504Degré 2 0,0950 -0,0361Degré 3 -0,0347 -0,0295

FIGURE V.8 – Valeurs du R2 associé à chaque régression polynomiale

Force est de constater que tous les R2 calculés sont nettement différents de 1. On ne peutdonc pas dire des régressions linéaires associées qu’elles sont recevables. Il nous faut alorsrenoncer à obtenir la projection des quotients de mortalité d’expérience via la projection descoefficients temporels du modèle de Brass.

V.3.b - Un modèle non linéaire global

L’application exacte du modèle de Brass ne semble pas en mesure de donner une projectionvalable pour les quotients de mortalité d’expérience. On décide alors d’opter pour un modèlerelationnel similaire à celui de Brass. Ce dernier ne comportera aucune indexation temporellesur les paramètres et il tiendra compte des quotients estimés nuls.

V.3.b.i) Le modèle de Planchet & Kamega

On retient désormais le modèle proposé par Planchet & Kamega (2013) [23]. Comme recher-ché, ce modèle repose sur un principe similaire à celui de Brass, la seule différence consiste àsupposer l’existence d’un unique couple (a, b) pour modéliser la relation entre les logits d’ex-périence et les logits de référence pour l’ensemble des années d’étude.

Avec les Qx,t, estimations des quotients de mortalité bruts, le modèle s’écrit alors

logit(

Qx,t

)= a logit

(QRe f

x,t

)+ b + εx,t

où εx,t est un terme d’erreur.

V.3.b.ii) Inversion du logit

La fonction logit étant continue et strictement croissante sur l’ensemble de son intervalle dedéfinition, elle admet une fonction réciproque (que l’on note logit−1). La réciproque du logitest définie sur R par

logit−1(y) =exp(y)

1 + exp(y)

Dès lors, en supposant que l’on dispose d’estimateurs a et b, un ajustement QAjsx,t du quotient

de mortalité d’expérience pour l’âge x et l’année t est donné par

QAjsx,t =

exp(

a logit(

QRe fx,t

)+ b)

1 + exp(

a logit(

QRe fx,t

)+ b)

Page 129: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

V.3. Projection des quotients de mortalité d’expérience ajustés Page 109

Donc, il ne reste plus qu’à déterminer une estimation de a et b à partir des Qx,t calculés etdes QRe f

x,t de la table de référence choisie pour obtenir les quotients de mortalité d’expérienceajustés recherchés.

V.3.b.iii) Estimation des paramètres

Une fois de plus, on propose d’employer un critère de moindres carrés pondérés (en no-tant Ex,t, l’exposition totale du portefeuille au risque de décès à l’âge x pour l’année t) pourobtenir une estimation des paramètres du modèle. L’estimation recherchée (a, b) du couple deparamètres (a, b) est obtenue par la relation suivante

(a, b) = argmin(a,b)

2012

∑t=2000

95

∑x=60

Ex,t

(QAjs

x,t − Qx,t

)2

(a, b) = argmin(a,b)

2012

∑t=2000

95

∑x=60

Ex,t

exp(

a logit(

QRe fx,t

)+ b)

1 + exp(

a logit(

QRe fx,t

)+ b) − Qx,t

2

Contrairement au modèle de Brass où l’on travaille linéairement avec les logits des quo-tients de mortalité, la méthode proposée par Planchet et Kamega a le mérite de travailler di-rectement avec les quotients de mortalité ce qui permet d’utiliser l’ensemble des observations(et donc d’inclure les observations nulles). Bien que cela passe par une modélisation non li-néaire compte tenu de la formule de QAjs

x,t , cette prise en compte des quotients estimés nuls estla bienvenue étant donné le nombre important d’observations de ce type.

Remarque : Le précédent problème de minimisation étant non linéaire, aucune formule expli-cite n’est possible pour (a, b) et seul un algorithme d’optimisation peut permettre de résoudrece problème de minimisation.

V.3.c - Nouvel ajustement et projection finale

Etant donné la modélisation retenue, la projection des quotients de mortalité d’expérienceest directe une fois le modèle ajusté.

V.3.c.i) Mise en place du modèle final sur la période d’expérience

Le modèle de Brass dans sa forme originelle ayant été exclu, il faut ré-ajuster les quotientsde mortalité d’expérience pour la période d’observation du portefeuille.

Ici, on ne peut pas employer comme précédemment l’algorithme de Gauss-Newton étantdonné l’absence d’un point de départ proche du minimum à atteindre. Il faut donc employerun algorithme qui converge globalement et non localement.

C’est donc en utilisant celui de Levenberg-Marquardt (qui est présenté en Annexe C) quel’on obtient finalement les estimateurs de moindres carrés a et b pour les paramètres a et b dumodèle de Planchet & Kamega.

En revenant à l’écriture du modèle et compte tenu de la table de référence à disposition, cela

Page 130: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 110 Chapitre V. Tables de mortalité d’expérience

permet d’obtenir une surface de mortalité d’expérience ajustée et lisse temporellement commeillustré par la Figure V.9.

200020022004200620082010

2012

Année

Qx,t

6070

80 90

Age

FIGURE V.9 – Quotients de mortalité estimés et ajustés via le modèle de Planchet & Kamega etla table de référence "HMD Logistique Femmes"

Comme souhaité, la surface finalement obtenue est vierge de toute fluctuation provenantde la faiblesse de l’échantillon de départ.

V.3.c.ii) Validation du précédent modèle via l’utilisation d’intervalles de confiance

Reste à valider la pertinence de la surface obtenue : pour ce faire on propose de déterminerdes intervalles de confiance et de les comparer aux données d’expérience initiales.

On pourrait les tracer pour les quotients de mortalité mais on choisit plutôt de tracer lesintervalles associés à l’estimation du nombre de décès par âge.

En effet, on rappelle que l’estimateur de Hoem avait permis d’obtenir une estimation duquotient de mortalité à partir d’une exposition donnée et d’une réalisation de la variable aléa-toire Dx modélisant le nombre de décès (qui suit une loi Binomiale de paramètres Ex,t et Qx,t).Dès lors, ayant un ajustement QAjs

x,t selon le modèle de Planchet & Kamega de chacun des quo-tients de mortalité, on peut vérifier si ces derniers permettent de retrouver les nombres de décèsréellement constatés.

Le théorème de Moivre-Laplace assurant la convergence d’une loi binomiale vers la loinormale centrée réduite, l’intervalle de confiance associé à cette estimation Dx,t du nombre dedécès est donné par la relation

IC95%(Dx,t) =

[Dx,t ± 1, 96

√Ex,t QAjs

x,t (1− QAjsx,t )

]En reprenant les différentes valeurs numériques des quotients de mortalité ajustés par le

modèle de Planchet & Kamega et des nombres de décès observés, on obtient la Figure V.10.

Page 131: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

V.4. Table de mortalité d’expérience "Logistique Femmes" finale Page 111

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2000

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2001

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2002

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2003

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2004

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2005

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2006

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2007

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2008

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2009

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2010

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2011

60 65 70 75 80 85 90 95

Age

Nom

bre

de d

écès

Année 2012

FIGURE V.10 – Nombre de décès observés et estimés

On constate que, pour chaque couple âge/année, la valeur réelle du nombre de décèsconstatés est toujours incluse dans l’intervalle de confiance à 95% ce qui permet de validerle modèle retenu.

Remarque : On rappelle que nous n’avons aucune régularité pour les valeurs de l’expositiontotale Ex,t à l’échelle du portefeuille ce qui explique l’irrégularité des différents nombres dedécès estimés Dx,t.

V.3.c.iii) Obtention de projections

L’ajustement selon le modèle de Planchet & Kamega ayant été réalisé puis validé, on peutdésormais appliquer la formule du modèle retenu avec les données de référence postérieures àl’année 2012 et les estimateurs des paramètres précédemment calculés afin d’obtenir la surfacede mortalité d’expérience finale.

Comme dans le cas des tables de référence, on réalise une projection jusqu’à l’année 2060.Ce sont donc 48 années de valeurs futures qui sont déterminées.

V.4 – Table de mortalité d’expérience "Logistique Femmes" finale

L’ensemble des travaux précédents a permis de déterminer pour la plage d’âges considérée(60-95 ans), les quotients de mortalité d’expérience recherchés.

Afin d’obtenir une table de mortalité applicable à notre portefeuille de rentiers, il faut en-

Page 132: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 112 Chapitre V. Tables de mortalité d’expérience

core procéder à la fermeture de la table afin d’obtenir des quotients pour chaque âge. Commeexpliqué en tout début d’étude, on retient la méthode de Coale & Kisker et certaines hypothèsesspécifiques pour réaliser la fermeture de table.

Dès lors, la table de mortalité d’expérience recherchée, que l’on nomme dorénavant table"Logistique Femmes", est entièrement déterminée : on a accès à tout quotient de mortalité auxâges supérieurs à 60 ans jusqu’en 2060.

La Figure V.11 donne (en échelle logarithmique) la surface donnant l’ensemble de ces quo-tients de mortalité.

200020102020203020402050

2060

Année

ln(Qx,t)

60 70 80 90 100 110 120

Age

FIGURE V.11 – Représentation logarithmique de la table de mortalité d’expérience "LogistiqueFemmes"

La structure caractéristique de la fonction logistique (qui a été utilisée pour la constructionde la table de référence) apparaît nettemment pour les âges antérieurs à 85 ans et il ne faut pass’en étonner puisque ces quotients de mortalité d’expérience proviennent directement du mo-dèle relationnel choisi. Au-delà de cet âge, l’utilisation d’une technique de fermeture de tableest visible et ne permet pas de maintenir l’inflexion caractéristique de la fonction logistique.

V.5 – Etude comparative des tables d’expérience obtenues

Comme expliqué au cours de ce chapitre, les précédentes sections ont présenté seulement ledétail de l’obtention d’une table de mortalité d’expérience pour les femmes à partir de la table"HMD Logistique Femmes". Il ne faut pas oublier que l’ensemble de la précédente méthodolo-gie peut et doit être appliqué à la table "HMD Séries T. Femmes". Il en est de même pour lesdonnées masculines et les deux tables de référence associées.

Au total, ce sont donc quatre tables de mortalité d’expérience qui sont construites (deuxpour chaque sexe) et qu’il faut comparer (notamment vis-à-vis des tables réglementaires).

Page 133: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

V.5. Etude comparative des tables d’expérience obtenues Page 113

Rappel : Dans un souci de confidentialité, aucune valeur numérique provenant des précédentestables d’expérience construites ne peut être employée. Cela n’entrave en rien l’objectif compa-ratif de cette section puisqu’en tant que telles, ces valeurs numériques ne sont réellement paspertinentes : il faut se focaliser sur les tendances obtenues ou les écarts observés pour mener àbien cette étude.

V.5.a - Positionnement des tables d’expérience par rapport aux tables réglementaires

La construction des tables d’expérience était motivée par un souci de prudence face à lamortalité du portefeuille, cette dernière ayant été supposée comme biaisée par l’anti-sélection.Il faut donc dans un premier temps étudier les écarts d’espérances de vie résiduelles entre lestables d’expérience et les tables réglementaires mais aussi comparer les différentes dynamiquesinduites par chacune des tables.

V.5.a.i) Une remarque préliminaire

Avant de débuter cette étude comparative, précisons que nos tables de mortalité d’expé-rience nous permettent bien d’obtenir l’ensemble des quotients de mortalité pour une généra-tion donnée malgré le fait que nous avons considéré des années d’observation jusqu’ici.

En effet, d’un côté, la TGH05 ou la TGF05 donnent les quotients de mortalité pour toutesles générations nées en ou avant 2005. De l’autre, nos tables de mortalité d’expérience donnentles quotients de mortalité pour tous les âges supérieurs à 60 ans et ce de 2000 jusqu’en 2060.

Toutefois, on peut étirer le précédent calcul de projections jusqu’à l’année 2125 de sorte quel’on puisse reconstituer l’évolution après 60 ans de toute génération née après 1940 commel’illustre la Figure V.12.

FIGURE V.12 – Reconstitution de cohortes générationnelles à partir d’une table d’expérience

V.5.a.ii) Tables relatives aux femmes

Débutons ce travail statistique dans le cas des données féminines.

En premier lieu, on peut donner l’évolution de l’espérance de vie résiduelle par géné-ration pour chaque table de mortalité à disposition (TGF05, "Logistique Femmes", "Séries T.Femmes").

La Figure V.13 (en page 114) donne pour chacune des tables, cette progression s’agissantde l’espérance de vie résiduelle à 65 ans (c’est généralement vers cet âge que le versement derentes viagères débute dans le cadre d’un contrat de retraite réglementée).

Quelle que soit la génération considérée, la table réglementaire est la table qui donne laplus faible espérance de vie résiduelle. Les tables de mortalité d’expérience sont donc plus

Page 134: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 114 Chapitre V. Tables de mortalité d’expérience

1940 1950 1960 1970 1980 1990 2000

Génération

Esp

éran

ce d

e vi

e ré

sidu

elle

à 6

5 an

s

TGF05Logistique FemmesSéries T. Femmes

FIGURE V.13 – Espérance de vie à 65 ans des femmes selon la table de mortalité et la génération

prudentes que la table réglementaire pour une sortie en rentes viagères à 65 ans : les mon-tants d’arrérages qui en découleraient seraient moins élevés que ceux issus de l’utilisation dela TGF05. Ensuite, entre les deux tables de mortalité d’expérience construites, celle batîe enutilisant les données HMD et un modèle paramétrique (la table "Logistique Femmes") commeréférence est la table donnant les espérances de vie les plus fortes.

A noter que la table "Séries T. Femmes" a une tendance globalement similaire à la TGF05.D’ailleurs, l’écart moyen est relativement faible et globalement stable à travers les générations.En revanche, la table "Logistique Femmes" a un comportement favorisant une augmentationforte de l’espérance de vie à 65 ans.

Si 65 ans est un âge incontournable lorsqu’il s’agit d’étudier le risque de longévité d’unportefeuille de rentiers, il n’est pas possible de se limiter à cette seule étude : il faut égalementconsidérer d’autres âges plus avancés. Ainsi, on représente Figure V.14 l’évolution des espé-rances de vie à 75 ans et à 85 ans par génération selon chacune des tables.

1940 1950 1960 1970 1980 1990 2000

Age = 75 ans

Génération

Esp

éran

ce d

e vi

e ré

sidu

elle

à 6

5 an

s

TGF05Logistique Femmes Séries T. Femmes

1940 1950 1960 1970 1980 1990 2000

Age = 85 ans

Génération

Esp

éran

ce d

e vi

e ré

sidu

elle

à 6

5 an

s

TGF05Logistique Femmes Séries T. Femmes

FIGURE V.14 – Espérances de vie à 75 ans et 85 ans des femmes selon la table de mortalité et lagénération

Page 135: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

V.5. Etude comparative des tables d’expérience obtenues Page 115

S’agissant de la table "Logistique Femmes", les résultats à 75 et 85 ans confirment ce qui aété entrevu à 65 ans à savoir, un écart important avec la TGF05 dès les générations actuelles quis’accentue au fil du temps.

En revanche, la table "Séries T. Femmes" n’a pas le même positionnement par rapport à laTGF05 puisqu’un croisement entre les tables s’opère et que l’instant de ce croisement n’est pasle même selon l’âge de calcul de l’espérance de vie résiduelle : c’est tout à fait logique puisquetout gain de longévité ne survient pas pour l’ensemble des âges d’une génération donnée maisplutôt pour une plage restreinte. Le déplacement de cette plage à travers les générations ex-plique les deux graphes précédents.

V.5.a.iii) Etude du cas des hommes

A présent, il est temps de s’intéresser aux tables de mortalité applicables aux hommes etd’effectuer une analyse similaire à celle menée dans le cas des femmes.

Comme pour les femmes, l’espérance de vie à 65 ans selon la génération est une informa-tion cruciale qui nécessite d’être observée en premier lieu. La Figure V.15 représente l’évolu-tion de cette donnée pour les trois tables à comparer (TGH05, "Logistique Hommes", "Séries T.Hommes").

1940 1950 1960 1970 1980 1990 2000

Génération

Esp

éran

ce d

e vi

e ré

sidu

elle

à 6

5 an

s

TGH05Logistique HommesSéries T. Hommes

FIGURE V.15 – Espérance de vie à 65 ans des hommes selon la table de mortalité et la génération

Comme pour les femmes, l’ordre des tables de la plus prudente à la moins prudente est lemême à savoir table "Logistique", table "Séries T." et table réglementaire.

Par ailleurs, on constate que les deux tables d’expérience s’écartent de la table TGH05 au fildes générations. Toutefois, les dynamiques ne sont pas égales :

– d’un côté, la table "Logistique Hommes" est constamment éloignée de la TGH05 et l’écartatteint de grandes proportions pour les dernières générations ;

– de l’autre, la table "Séries T. Hommes" est très proche de la TGH05 pour les premièresgénérations étudiées et cet éloignement reste modéré malgré une augmentation constanteau fil du temps.

Reste à voir si ces observations perdurent pour d’autres âges de calcul de l’espérance de vierésiduelle. C’est pourquoi on donne Figure V.16 (en page 116), l’évolution au fil des générationsde l’espérance de vie résiduelle à 75 ans et 85 ans pour les trois tables étudiées.

Page 136: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 116 Chapitre V. Tables de mortalité d’expérience

1940 1950 1960 1970 1980 1990 2000

Age = 75 ans

Génération

Esp

éran

ce d

e vi

e ré

sidu

elle

à 6

5 an

s

TGH05Logistique Hommes Séries T. Hommes

1940 1950 1960 1970 1980 1990 2000

Age = 85 ans

Génération

Esp

éran

ce d

e vi

e ré

sidu

elle

à 6

5 an

s

TGH05Logistique Hommes Séries T. Hommes

FIGURE V.16 – Espérances de vie à 75 ans et 85 ans des hommes selon la table de mortalité etla génération

Contrairement aux femmes, les graphes obtenus à 75 ans et 85 ans sont semblables à celuiobtenu pour 65 ans. Aucun croisement n’est observé et le positionnement dans le temps destrois tables à des âges plus avancés est analogue à celui observé à 65 ans.

V.5.a.iv) Analyse globale des résultats

Le fait d’étudier chaque sexe séparément n’a pas permis de comparer globalement les mé-thodologies choisies. Toutefois, à la lumière des résultats obtenus, de nombreux éléments per-mettent de réaliser cette comparaison.

D’abord, au sujet des tables "Logistique", force est de constater qu’elles indiquent, à toutâge et quel que soit le sexe, d’importants niveaux d’espérance de vie résiduelle. D’une part, cesniveaux se situent nettement au-dessus de ceux indiqués par les tables réglementaires, d’autrepart les écarts augmentent significativement génération après génération. Ceci est une consé-quence directe du modèle paramétrique retenu et notamment de la projection linéaire des ten-dances.

Concernant les tables "Séries T.", obtenir deux comportements différents pour les tableshommes/femmes n’est en rien problématique. Mieux, c’est une source de satisfaction : les ten-dances en termes de longévité étant actuellement différentes entre les deux sexes, constater despositionnements différents par rapport aux tables réglémentaire peut s’expliquer ainsi.

V.5.b - Comparaison des dynamiques masculine et féminine face à la longévité

Si l’analyse précédente a permis de positionner pour chaque sexe, les tables d’expériencepar rapport aux tables réglementaires et de comparer ainsi les méthodes de construction detables de référence, il n’en reste pas moins que tout au long de notre étude, les sexes ont tou-jours été étudiés séparément. Il faut dorénavant étudier cette dualité et vérifier que les résultatsconjugés sont plausibles.

Page 137: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

V.5. Etude comparative des tables d’expérience obtenues Page 117

V.5.b.i) Mesure de l’écart d’espérance de vie résiduelle à 65 ans

Commençons par étudier l’écart d’espérance de vie résiduelle à 65 ans entre les femmeset les hommes. L’évolution générationnelle de cet écart pour nos tables d’expérience ainsi quepour les tables TGH05/TGF05 est donnée en Figure V.17.

1940 1950 1960 1970 1980 1990 2000

01

23

45

Génération

Esp

éran

ce d

e vi

e ré

sidu

elle

à 6

5 an

s

TGF05/TGH05Tables 'Logistique' Tables 'Séries T.'

FIGURE V.17 – Ecarts femmes-hommes pour l’espérance de vie résiduelle à 65 ans selon lagénération et les différentes tables de mortalité

Fort heureusement, bien que les tables aient été construites indépendamment, le compor-tement joint selon chaque méthodologie est réaliste, les écarts observés pour les tables d’expé-rience étant proches de ceux proposés par les tables réglementaires. De plus, l’évolution diffèreselon les deux méthodologies ce qui est cohérent avec les résultats précédents.

Les tables "Logistique" sont pratiquement en phase pour la première moitié des générationsétudiées. Passé la génération 1970, l’écart se réduit linéairement sans pour autant atteindre desvaleurs véritablement basses (l’écart est toujours d’au moins 2,90 années).

En revanche, l’écart n’est jamais constant s’agissant des tables "Séries T.", il décroît presquelinéairement pour l’ensemble des générations considérées. Cela s’interprète comme la tendanced’un rapprochement de la mortalité masculine vers la mortalité féminine.

V.5.b.ii) Taux d’améliorations des quotients de mortalité

Les taux d’améliorations doivent être étudiés puisqu’ils permettent d’illustrer la dyna-mique s’agissant des gains de longévité d’une table de mortalité. On les représente Figure V.18(en page 118) jusqu’en 2055 pour les 4 tables, on peut ainsi comparer les tendances de chaquesexe mais également vérifier le positionnement entre les tables d’expérience émanant de l’étudedes espérances de vie.

D’abord, à noter qu’on obtient des taux masculins globalement plus importants que ceuxdes femmes quelles que soient les tables de mortalité considérées. Bien que les femmes viventplus longtemps cela ne doit pas surprendre : un taux plus élevé n’implique pas une espérancede vie plus élevée mais simplement une progression de cette espérance de vie plus importante.

En revanche, pour chacun des sexes, la table "Logistique" associée donne des taux plusimportants que ceux de la table "Séries T." et c’est bien ceci qui explique les différences deprogression des espérances de vie selon les générations vues précédemment.

Page 138: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 118 Chapitre V. Tables de mortalité d’expérience

2010 2020 2030 2040 2050

Année

Taux

d'm

élio

ratio

n (e

n %

)

3

65−69 ans

2010 2020 2030 2040 2050

Année

Taux

d'm

élio

ratio

n (e

n %

)

3

70−74 ans

2010 2020 2030 2040 2050

Année

Taux

d'm

élio

ratio

n (e

n %

)

3

75−79 ans

2010 2020 2030 2040 2050

Année

Taux

d'm

élio

ratio

n (e

n %

)

3

80−84 ans

2010 2020 2030 2040 2050

Année

Taux

d'm

élio

ratio

n (e

n %

)

3

85−89 ans

2010 2020 2030 2040 2050

Année

Taux

d'm

élio

ratio

n (e

n %

)

3

90−94 ans

FIGURE V.18 – Taux d’améliorations des 4 tables de mortalité d’expérience jusqu’en 2055

S’agissant des différents modèles, les tables issues du modèle paramétrique donnent destaux à la structure semblable. De plus, les niveaux sont relativement proches c’est ce qui ex-plique que l’écart d’espérance de vie à 65 ans entre la table "Logistique Femmes" et la table"Logistique Hommes" reste plutôt stable au fil du temps.

A l’inverse, seul l’aspect linéaire de l’évolution des taux d’améliorations est commun auxtables "Séries T. Femmes" et "Séries T. Hommes" puisque l’ensemble des taux masculins a ten-dance à augmenter tandis qu’à l’inverse, les taux d’améliorations des femmes sont globalementdécroîssants. Là encore, ceci explique la constante réduction de l’écart femmes-hommes s’agis-sant de l’espérance de vie résiduelle à 65 ans.

Enfin, un dernier mot général porte sur les niveaux constatés qui sont assez élevés. Eneffet, des taux d’améliorations supérieurs à 3% n’ont jamais été observés jusqu’à présent etpourtant les deux tables "Logistique" tutoient généralement cette valeur. Ce constat expliqueainsi l’important écart de longévité estimée entre ces tables et les tables réglementaires.

Page 139: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

V.5. Etude comparative des tables d’expérience obtenues Page 119

V.5.b.iii) Conclusion de l’étude des prévisions jointes

Pour chaque modèle, les tables de mortalité Hommes/Femmes associées ont été construitesindépendamment sans que cela conduise à des résultats totalement contradictoires.

Les écarts d’espérances de vie ne sont pas stables mais restent crédibles tandis que les tauxd’améliorations obtenus s’inscrivent dans la tendance actuelle à savoir une longévité qui s’amé-liore plus chez les hommes que chez les femmes. Toutefois, il convient de noter une différencede comportement de la mortalité jointe selon la méthodologie : le modèle basé sur la fonctionlogistique maintien l’écart actuel entre les espérances de vie des femmes et celles des hommestandis que le modèle semi-paramétrique conduit à une atténuation de cet écart sur le longterme.

Ainsi et parce qu’aucun avis d’expert ne semble s’imposer quant à l’évolution de l’espé-rance des hommes par rapport à celle des femmes, nous considérons que l’ensemble des mo-dèles proposés permettent d’obtenir des tables de mortalité d’expérience cohérentes s’agissantdes évolutions jointes de la longévité des hommes et des femmes.

Page 140: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier
Page 141: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

IMPACT DES TABLES D’EXPÉRIENCE SUR LEPROVISIONNEMENT

Les travaux précédemment détaillés ont permis la construction de plusieurs tables de mor-talité d’expérience. D’un point de vue purement théorique, ces différentes tables constituentla finalité de notre étude. Toutefois, ces tables ont été également établies dans le but d’êtreappliquées au portefeuille d’étude.

Avant de présenter les résultats numériques de cette mise en oeuvre opérationnelle, il fautauparavant expliquer l’origine et la logique des provisions techniques constituées par tout as-sureur vie et démontrer l’existence de conséquences en termes de provisionnement des contratsd’épargne dans le cas d’un changement de table de mortalité.

VI.1 – Principe des provisions techniques en assurance

Provisionner, c’est mettre de côté en vue d’événements futurs. C’est une action qui doitsuivre certaines contraintes réglementaires fortes pour un assureur mais il n’en demeure pasmoins que son caractère obligatoire est expliqué avant tout par des principes de comptabilitégénérale.

VI.1.a - Origine comptable de la provision

Afin de comprendre les mécanismes dont est issue la provision et d’appréhender au mieuxles enjeux connexes, il convient de donner au préalable quelques éléments de comptabilitégénérale.

VI.1.a.i) Introduction à la comptabilité générale

"La comptabilité est un système d’organisation de l’information financière permettant desaisir, classer, enregistrer des données de base chiffrées et présenter des états reflétant uneimage fidèle du patrimoine, de la situation financière et du résultat de l’entité à la date declôture.

La comptabilité permet d’effectuer des comparaisons périodiques et d’apprécier l’évolutionde l’entité dans une perspective de continuité d’activité."

Cette définition de la comptabilité est tout simplement celle donnée par le Plan Comp-table Général 35 à l’article 120.1. De manière générale, la comptabilité générale permet d’offrirune vision concrète de l’évolution de la valeur d’une entreprise via la production à chaque find’exercice de deux documents importants :

– Le bilan, qui est un document synthétisant ce qui est possédé par une entreprise (sonactif) et ce qu’elle doit (son passif). Il s’agit d’une photographie du patrimoine d’uneentreprise.

– Le compte de résultat, qui est un document présentant l’ensemble des produits (ce quiest généré) et des charges (ce qui est consommé) d’une entreprise durant un exercice

35. Le Plan Comptable Général (PCG) constitue la réglementation pour les normes comptables en France

Page 142: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 122 Chapitre VI. Impact des tables d’expérience sur le provisionnement

comptable. Il s’agit du film de l’activité d’une entreprise.En France, la tenue d’une comptabilité générale est une obligation légale pour toute société.

Remarque : Il existe également d’autres formes de comptabilité qui ont d’autres utilisations etobéissent à d’autres règles. C’est par exemple le cas de la comptabilité de gestion (ou comptabi-lité analytique) qui est un outil interne qui permet de localiser les zones de performance au seind’une société en se focalisant sur le calcul de la rentabilité par poste ou par produit notamment.

VI.1.a.ii) Principe de prudence et nécessité des provisions

L’évaluation de l’actif et du passif d’une entreprise est donc une obligation comptable. Lacomptabilité voulant être un outil d’évalutation "universel", cette évaluation doit suivre cer-taines règles et certains principes. Parmi ces principes fondamentaux en comptabilité, il existecelui de prudence.

→ Principe de prudenceLe principe de prudence comptable exige que tout événement susceptible de diminuer la

valeur du patrimoine de l’entreprise soit pris en compte. Cela permet d’anticiper tout risqued’appauvrissement et donc d’accorder de la valeur aux documents établis par toute société.

Ce risque d’appauvrissement peut prendre plusieurs formes : celle d’une diminution del’actif (perte de valeur de marchandises ou d’immobilisations au fil du temps) ou celle d’uneaugmentation du passif (apparition probable d’une créance). Dans le second cas, la comptabi-lisation de cette charge se traduit par l’établissement d’une provision comptable.

→ Définition d’une provisionUne provision correspond à une charge probable qu’une entreprise aura à supporter dans

un avenir plus ou moins proche et pour un montant estimable mais non connu définitivement.C’est ce caractère estimé de l’échance ou du montant de cette charge qui caractérise la provision.

Le calcul d’une provision est laissé à la discrétion de l’entreprise mais il doit respecter leprincipe d’image fidèle de la comptabilité générale. Aussi, il n’est pas rare de voir s’affrontrerdifférents résultats (celui d’une entreprise et celui d’un commissaire aux comptes par exemple)concernant le montant d’une provision étant donné l’absence d’unicité de la méthode de calculd’une provision comptable donnée.

VI.1.b - La provision technique

Toute entreprise est donc soumise à des exigences comptables qui se traduisent notammentpar la constitution de provisions. Dans le cas particulier d’une compagnie d’assurances, la ges-tion technique et financière exacerbe ce besoin de provisionnement et l’assureur est contraintpar le législateur d’établir des provisions dites techniques.

VI.1.b.i) Spécificité du métier d’assureur

Les compagnies d’assurances ne sont pas des entreprises classiques de par la nature desproduits commercialisés.

En effet, contrairement à la majorité des biens de consommation qui "s’achètent", un contratd’assurance "se souscrit". Il y a donc opposition entre une transaction financière acheteur-vendeur directe et l’engagement assureur-assuré qui court sur le long terme (voir le très long

Page 143: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

VI.1. Principe des provisions techniques en assurance Page 123

terme dans notre cas où les produits comprennent des rentes viagères).De plus, le cycle de production économique est inversé dans le cas d’une opération d’as-

surance car le coût d’un contrat pour l’assureur ne sera connu qu’a posteriori. Dès lors, unecompagnie d’assurances se doit alors de détenir constamment d’importants capitaux ce quiconduit à une forte immobilisation de l’actif.

VI.1.b.ii) Législation et définition de la provision technique

Si une certaine liberté existe pour la plupart des entreprises lors du calcul de provisions,cette dernière est pratiquement inexistante pour une compagnie d’assurances.

En effet, dans son rôle de défenseur des intérêts de l’assuré, le législateur a pour préoccu-pation majeure que l’assureur soit en mesure d’honorer ses engagements vis-à-vis des assurésà tout instant. Il a donc imposé le calcul de provisions précises mais également défini les règlespour le calcul de ces dernières. Ce sont ces provisions imposées par le Code des assurances (àtravers l’article R331-1) aux compagnies d’assurances que l’on nomme provisions techniques.

Simonet (1998) [26] donne une définition de ces provisions : "les provisions techniques sontles provisions destinées à permettre le règlement intégral des engagements pris envers les assu-rés et bénéficaires de contrats. Elles sont liées à la technique même de l’assurance, et imposéespar la réglementation".

Remarque : Comme explicité par le Code des assurances à l’article L310-1, bien que les mu-tuelles (qui sont régies par le Code de la mutualité) et les institutions de prévoyance (qui sontrégies par le Code de la Sécurité Sociale) soient des organismes d’assurances, elles ne sont passoumis à l’ensemble des dispositions du Code des assurances.

VI.1.c - Panorama des provisions techniques

Afin d’illustrer l’importance du provisionement en assurance, on propose ici de donnerquelques exemples de provisions techniques exigées par le Code des assurances. Ces dernièresdiffèrent selon la typologie de l’assureur.

Dans le cas de l’assurance vie, l’ensemble des provisions techniques est donné par l’articleR331-3 du Code des assurances. Elles sont au nombre de huit parmi lesquelles on retrouve :

– la provision mathématique, la provision constituée pour que l’assureur puisse honorerson engagement à tout moment (en cas de rachat du contrat par exemple) ;

– la provision de gestion, la provision destinée à couvrir les charges de gestion future descontrats non couvertes par ailleurs ;

– la provision pour aléas financiers, la provision vouée à compenser la baisse de rendementde l’actif.

En assurance non-vie, les exigences sont différentes. Parmi les provisions techniques re-quises qui sont présentées par l’article R331-6 du Code des assurances, on trouve :

– la provision pour primes non acquises, la provision qui correspond au partage méca-nique des primes au prorata temporis entre la date d’inventaire et la date de la prochaineéchéance de prime ;

– la provision pour sinistres à payer, la provision destinée au paiement de tous les sinistressurvenus et non payés (soit parce qu’ils ne sont pas encore connus, soit parce qu’ils sontnon réglés) ;

Page 144: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 124 Chapitre VI. Impact des tables d’expérience sur le provisionnement

– la provision pour risques croissants, la provision exigée pour couvrir les risques de ma-ladie et d’invalidité où le risque s’aggrave avec l’âge.

Pour le calcul de toute provision technique (vie ou non-vie), les méthodes de calculs sontfixées par le législateur (Code des assurances ou arrêté du ministre de l’économie).

VI.2 – Contrat d’épargne et provisionnement

Notre étude portant sur un portefeuille de rentiers, il faut voir l’ensemble des provisionsassociées à tout contrat de rentes viagères à savoir la provision mathématique et celle associéeà une garantie de table de mortalité.

VI.2.a - Vie du contrat et provision mathématique

L’existence de deux phases conceptuellement différentes dans le déroulé d’un contrat derentes viagères fait naître des exigences différentes s’agissant de la provision mathématiquequi doit d’abord être définie.

VI.2.a.i) Définition et dispositions réglementaires

L’alinéa 2 de l’article R331-3 du Code des assurances dispose que la provision mathéma-tique est "la différence entre les valeurs actuelles des engagements respectivement pris parl’assureur et par l’assuré". Elle permet à l’assureur de pouvoir faire face à tout moment à sesengagements envers les bénéficiaires du contrat d’assurance vie concerné.

Cette provision mathématique est la propriété de l’assureur néanmoins chaque souscrip-teur dispose d’un droit de créance sur sa provision individuelle. L’assuré peut faire valoir àl’encontre de l’assureur ce droit de créance de différentes façons (rachat, réduction ou encoremise en gage du contrat).

Remarque : D’ailleurs, dans le cas d’un rachat du contrat d’assurance, c’est bien la provisionmathématique qui constitue la valeur du contrat à l’instant du rachat et donc le prix à payer parl’acheteur. L’assureur ne peut s’opposer au rachat s’il est licite mais peut cependant appliquerune pénalité et/ou des frais au montant de la provision mathématique pour obtenir le prixcommercial de rachat.

VI.2.a.ii) Formalisation mathématique

On se propose ici de donner quelques notations qui sont nécessaires pour le calcul concretde provisions mathématiques.

On se place en t = 0 et on considére un échéancier de n flux pour lequel on note, pour toutk ≤ n, mk le montant associé au flux de date k qui n’est versé que si l’événement Ck se réalise. Lavaleur actuelle probable d’un tel échéancier de flux à l’origine, noté VAP(0) étant simplement

Page 145: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

VI.2. Contrat d’épargne et provisionnement Page 125

l’espérance de la somme des flux actualisés, on a la relation

VAP(0) = E

(∑

Echeancier

Flux actualise

)

en disposant d’un taux d’actualisation i, il vient finalement

VAP(0) =n

∑k=0

mkP(Ck)

(1 + i)k

Remarque : La valeur actuelle probable correspond ainsi à la prime pure unique que réclame-rait un assureur en contrepartie de cet échéancier de flux.

Ainsi, on peut noter PM(t), la provision mathématique à la date t définie par

PM(t) = VAPAssureur(t)−VAPAssure(t)

VI.2.a.iii) Provision mathématique et phases du contrat d’épargne

Dans le cas d’un contrat de rentes viagères, la nature de l’engagement de l’assureur évolueau moment de la conversion du capital en rentes. La provision mathématique diffère donc selonla phase du contrat considéré.

→ Phase de constitution de l’épargneDurant cette phase de constitution, l’assureur s’engage uniquement à conserver l’ensemble

des primes versées par l’assuré en vue de la conversion (on suppose qu’il n’existe pas de réva-lorisation des provisions). De son côté, aucun engagement n’incombe à l’assuré.

Dès lors, la provision mathématique PMc(t) 36 à un instant t de la phase de constitution del’épargne est exactement égale à l’ensemble du capital épargné par l’assuré

PMc(t) = Capital Constituti f en t

→ Phase de restitution de l’épargneSi l’assuré a survécu jusqu’à la date de sortie en rentes, la conversion du capital épargné en

rentes survient et ammorce la phase de restitution. Dès lors, la situation du contrat est simpleet figée : l’assuré perçoit de l’assureur un montant d’arrérage fixe (calculé au moment de laconversion) jusqu’à ce qu’il décède. Aucun apport de capital émanant de l’assuré ne peut sur-venir.

Donc, la provision mathématique PMr(t) 37 à un instant t de la phase de rentes est égale àla valeur actuelle probable de l’assureur

PMr(t) = VAPAssureur(t)

36. On note PMc pour constitution37. On note PMr pour restitution

Page 146: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 126 Chapitre VI. Impact des tables d’expérience sur le provisionnement

VI.2.b - Garantie de table et provision associée

On a précédemment vu les mécanismes de la provision mathématique associés à un contratde rentes viagères. Il faut à présent aborder la question des garanties de table de mortalitépuisque cette option est accessible pour certains produits au sein de notre portefeuille d’étudeet qu’elle appelle une provision spécifique.

VI.2.b.i) Principe d’une garantie de table de mortalité

Le fonctionnement d’un contrat de retraite individuelle incluant le versement de rentes via-gères est simple : en épargnant jusqu’à sa retraite, l’assuré s’assure le versement d’un arrérageminimal durant sa retraite. Le niveau de ces rentes est déterminé par le capital constitué pen-dant la phase d’épargne mais surtout par la table de mortalité en vigueur au moment de laconversion de ce capital en rentes.

Cependant, un changement de table de mortalité peut survenir entre la souscription ducontrat et la conversion du capital. Dans ce cas, à capital épargné et taux technique équivalents,le montant des rentes prévu à la souscription va différer du montant des rentes perçues.

Pour se prémunir de ce risque de changement de table de mortalité et donc d’une baissedu montant des arrérages, il est possible pour le rentier de souscrire initialement une garantiede table. Cette option va alors lui assurer l’utilisation de la table de mortalité en vigueur aumoment de la souscription lors de la conversion du capital épargné en rentes.

Pour l’assuré, à lui de voir si une telle option lui semble profitable par rapport au coûtproposé. Pour l’assureur, la mise en place d’une garantie de table n’est pas sans conséquenceen termes de gestion du portefeuille. Cette garantie fait notamment apparaître une provisionsupplémentaire que l’on appelle "provision pour écart capital constitutif - provision mathéma-tique" (provision pour écart CC-PM).

VI.2.b.ii) Provision pour écart capital constitutif - provision mathématique

On nomme provision pour écart CC-PM, la provision que l’assureur doit constituer pourchaque contrat de rentes viagères en phase d’épargne présentant une garantie de table et quipermet de financer au moment de la conversion le tarif garanti non pris en compte par laprovision mathématique.

A l’instant t, cette provision notée PE(t) est donc déduite de la relation

PE(t) = PMr(Conversion)− Capital Constituti f en t

Cette définition est schématisée par la Figure VI.1 (en page 127).

Pour calculer cette provision à un instant donné, il faut procéder en plusieurs étapes :– La donnée du capital constitué jusqu’au moment du calcul permet de déterminer, en

utilisant la table de mortalité garantie, le montant de l’arrérage assuré contractuellement.– Le montant d’une rente future connu, il est possible de calculer la provision mathéma-

tique nécéssaire au moment de la conversion en rentes pour obtenir ce même montant sila table de mortalité de calcul est la table de mortalité réglementaire.

– Cette provision mathématique à la conversion est différente du capital constitué, l’écartconstaté est la provision pour écart CC-PM.

Page 147: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

VI.2. Contrat d’épargne et provisionnement Page 127

FIGURE VI.1 – Vie d’un contrat d’épargne et calcul d’une provision pour écart CC-PM

D’un point de vue purement théorique, la table de mortalité garantie peut être avantageusepour le client comme ne pas l’être. Dans ce second cas, aucune provision pour écart CC-PMn’est à constituer puisque le capital constitutif couvre la provision mathématique nécessaire aumoment de la conversion. Mais d’un point de vue pratique, ce second cas ne se réalise jamaiscar si la table garantie n’est pas à l’avantage de l’assuré, ce dernier n’exercera pas son optionmais également étant donné l’augmentation constante de la durée de vie humaine.

Si une nouvelle table de mortalité plus prudente en termes de longévite entre en vigueur,bien que l’assureur sache qu’il existe un biais introduit par cette nouvelle table, il ne peut pasl’inclure directement dans la provision mathématique associée à la phase d’épargne puisquecette provision mathématique correspond à la valeur de rachat du contrat. Ainsi, inclure laprovision pour écart CC-PM à la provision mathématique réglementaire créerait une opportu-nité d’arbitrage en faveur de l’assuré.

C’est parce que la valeur de rachat du contrat est égale à la provision mathématique pen-dant la phase de constitution qu’une provision supplémentaire est nécessaire.

VI.2.c - Taux de conversion et rentes viagères

Tout calcul numérique de provision mathématique ou de provision pour écart CC-PM passepar le calcul de valeurs actuelles probables. On cherche donc à obtenir, dans le cas d’un contratde rentes viagères, une formule générale applicable aux différents cas de figure réels.

VI.2.c.i) Notations

Pour la suite :– i désigne le taux technique utilisé ;– f désigne les frais d’arrérage ;– p désigne la périodicité de la rente de sorte que p soit égal au nombre de périodes dans

une année (par exemple p = 4 dans le cas d’arrérages trimestriels).

Page 148: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 128 Chapitre VI. Impact des tables d’expérience sur le provisionnement

Afin de simplifier les formules, il est d’usage d’exprimer les annuités en fonction des nombresde commutation qui sont définis de la manière suivante :

– On note Dx =lx

(1 + i)x

– On note Nx = Dx + Dx+1 + . . . =+∞

∑k=0

Dx+k

VI.2.c.ii) Formule globale

Le montant annuel R(ax) d’une rente viagère immédiate annuelle à termes échus pour uncapital constitutif de 1e est donné par

1R(ax)

= ax =+∞

∑k=1

1(1 + i)k · kPx

=Nx+1

Dx

Le montant annuel R(a(p)x ) d’une rente viagère immédiate payée p fois dans l’année à

termes échus pour un capital constitutif de 1e est donné par

1

R(a(p)x )

= a(p)x =

+∞

∑k=1

1p

1

(1 + t)kp· k

pPx

moyennant l’hypothèse supplémentaire "Dx+ kp

obtenu par interpolation linéaire des Dx" 38

=Nx+1

Dx+

p− 12p

a(p)x = ax +

p− 12p

En intégrant les frais d’arrérage, la rente finale R′(a(p)x ) est donnée par

R′(a(p)x ) =

R(a(p)x )

1 + f

On a ainsi une formule pour R′(a(p)x ), le montant annuel réel de la rente viagère immédiate

payée p fois dans l’année à termes échus associée à une tête d’âge x et à 1e épargné.R′(a(p)

x ) est donc le taux de conversion pour le passage du capital constitutif en rentes via-gères.

VI.3 – Conséquences d’un changement de table sur le provisionnement

L’introduction d’une nouvelle table réglementaire ou le choix d’une table d’expérience mo-difie nécessairement le provisionnement :

38. La démonstration mathématique pour le résultat suivant est donné en Annexe D

Page 149: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

VI.3. Conséquences d’un changement de table sur le provisionnement Page 129

– pour les rentes en phase d’épargne, toute garantie de table induit la constitution d’uneprovision pour écart CC-PM ;

– pour les rentes en phase de restitution, le montant d’une provision mathématique étantdirectement lié à la table de mortalité, une variation de provision se constate.

Il faut détailler ces phénomènes et les illustrer en réalisant notamment une application nu-mérique. A noter que ce sont les stricts raisonnements suivants qui seront itérés sur l’ensembledes rentes du portefeuille par la suite.

VI.3.a - Variation de provision mathématique lors d’un changement de table

Supposons qu’à un instant t de la phase de restitution d’un contrat, un changement de tablede mortalité survient.

On note kPx les différentes probabilités de survie de l’ancienne table de mortalité et kP′xcelles associées à la nouvelle table associées au rentier d’âge x à l’instant t visé par le contrat.Généralement, si une nouvelle table de mortalité est introduite c’est qu’elle se veut plus pru-dente en termes de longévite que la précédente. On suppose donc que ∀k, kPx > kP′x.

Dès lors, on a

kPx > kP′x

=⇒+∞

∑k=1

kPx

(1 + i)k >+∞

∑k=1

kP′x(1 + i)k

Si l’assuré reçoit un arrérage fixe, la précédente inégalité sur les taux de conversion donne

PMr(t) < PMr′(t)

Ainsi, à l’instant t du changement de table, il existe une variation ∆PMr(t) définie par

∆PMr(t) = PMr′(t)− PMr(t)

Cette variation n’a comme seule origine l’écart des taux de conversion entre l’ancienne etla nouvelle table de mortalité donc le montant de la rente ne sert que d’assiette de calcul pourcette variation.

Remarque : En théorie, cette variation de provision doit être constituée immédiatement après lechangement de table en vertu du principe selon lequel l’assureur peut répondre à tout momentà ses engagements. Toutefois, à l’échelle d’un portefeuille, cette variation représente en pratiqueun montant conséquent. Le législateur (article A331-1-2 du Code des assurances) autorise doncla répartition de ce provisionnement supplémentaire sur quinze années.

VI.3.b - Exemple de l’introduction d’une provision pour écart CC-PM

On se propose désormais de donner un exemple numérique de tout ce qui précède.

On considère une femme née le 05/05/1955 ayant souscrit en 2000 un contrat de type Ma-delin. Les caractéristiques techniques du contrat sont les suivantes :

– taux technique garanti : i = 3, 5% ;– frais d’arrérage : f = 1, 0% ;

Page 150: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 130 Chapitre VI. Impact des tables d’expérience sur le provisionnement

– sortie en rentes viagères annuelles immédiates ;– âge de sortie prévu : 65 ans ;– table de mortalité au moment de la souscription : table TPRV93 ;– souscription d’une garantie de table de mortalité.

Supposons qu’en t = 31/12/2013, le capital épargné, noté K, s’élève à 100 000e et qu’aucunversement complémentaire ne viendra gonfler ce capital avant l’échéance prévue. Le contratétant en phase d’épargne, il y a deux provisions, la provision mathématique et la provisionpour écart CC-PM.

VI.3.b.i) Calcul de la provision mathématique

Cette provision ne pose aucune difficulté de calcul, elle correspond exactement à ce qui aété épargné à l’instant où la provision est calculée donc

PMc(t) = K = 100 000e

VI.3.b.ii) Calcul de la provision pour écart CC-PM

Pour obtenir le montant de cette provision, il faut d’abord déterminer l’arrérage issu ducapital constitué et de la table de mortalité garantie, puis déterminer la provision mathématiquenécessaire pour assurer le même montant de rentes en fonction de la table en vigueur et enfinmesurer l’écart capital constitutif - provision mathématique.

Le montant de l’arrérage R provenant des caractéristiques du contrat de l’assuré se calculeau moyen de l’égalité

1R

= K(1 + f )+∞

∑k=1

kPTPRV93x

(1 + i)k

R = 6 303, 59e

On détermine PMr(t), la provision mathématique qui permettrait d’assurer ce niveau derentes au moment de la conversion en utilisant la table de mortalité réglementaire (la TGF05).PMr(t) est donné par la relation

1R

= PMr(Conversion)(1 + f )+∞

∑k=1

kPTGF05x

(1 + i)k

PMr(t) = 110 361, 93e

Finalement, la provision pour écart CC-PM au 31/13/2013 notée PE(t) est donc

PE(t) = PMr(Conversion)− KPE(t) = 10 361, 93e

VI.3.b.iii) Provisionnement total du contrat

Pour ce contrat en phase d’épargne, le détail du provisionnement requis est donné par laFigure VI.2 (en page 131).

Page 151: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

VI.4. Provisionnement du portefeuille selon les tables d’expérience Page 131

MontantProvision mathématique 100 000,00e

Provision pour écart CC-PM 10 361,93eProvision totale 110 361,93e

FIGURE VI.2 – Provisions techniques associées au contrat de l’exemple

Cette présentation des résultats est cruciale : elle montre bien que le montant nécessairepour respecter l’engagement de l’assureur est la provision totale mais puisque le prix de trans-fert est égal à la provision mathématique il est bien nécessaire de constituer une provision pourécart CC-PM distincte.

VI.4 – Provisionnement du portefeuille selon les tables d’expérience

L’apparition d’une provision pour écart CC-PM et d’une variation de provision mathéma-tique lors d’un changement de table de mortalité ayant été explicités dans un environnementopérationnel, il est possible de voir quels sont les écarts existants entre les deux méthodologiesretenues pour la construction de tables de mortalité d’expérience.

VI.4.a - Hypothèses pour le calcul de l’écart entre les tables "Logistique" et "Séries T."

Afin d’assurer une homogénéité des calculs au sein du portefeuille, on retient les hypo-thèses suivantes pour le calcul des provisions :

– l’âge de sortie est fixé à 65 ans pour tous les rentiers qui sont encore en phase d’épargne ;– on considère que tous les rentiers ont souscrit une garantie de table de mortalité.

Pour les contrats où la TPRV93 est la table de mortalité garantie, on calcule au préalablel’écart CC-PM pour le passage de la TPRV93 à la TGH05/TGF05 (selon le sexe du rentier).Ainsi, on se ramène aux tables de mortalité en vigueur pour l’ensemble du portefeuille.

La date de calcul des provisions est le 31/12/2013 que l’on note par la suite T.

Comme expliqué auparavant ce sont les tables de mortalité d’expérience "Logistique" quisont les plus prudentes vis-à-vis du risque de longévité pour les deux sexes parmi les tablesd’expérience proposées et ce sont donc ces dernières qui conduisent au provisionnement leplus important. Ce constat sera utilisé par la suite pour définir dans le "bon sens" les mesuresd’écart entre les tables de mortalité d’expérience.

VI.4.b - Ecart de provisions entre les deux tables de mortalité d’expérience

Puisque notre volonté initiale est d’opposer deux méthodes de construction de tables demortalité, les résultats qui nous intéressent ne sont pas les montants intrinsèques donné parchaque table d’expérience. Il faut étudier l’écart constaté entre ces deux tables de mortalitéd’expérience.

Page 152: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 132 Chapitre VI. Impact des tables d’expérience sur le provisionnement

VI.4.b.i) Cas de la provision pour écart CC-PM

On commence par étudier l’écart d’impact des tables d’expérience sur les rentes en coursde constitution.

Pour chaque rente, on détermine les deux provisions pour écart CC-PM qui résultent del’utilisation de chacune des tables de mortalité précédemment construites. Le total de ces pro-visions permet d’obtenir PELogistique(T) et PESeries T.(T), les provisions pour écart CC-PM àl’échelle du portefeuille tout entier selon chaque ensemble de tables de mortalité.

Afin de mesurer l’écart de provisionnement induit par ces tables de mortalité, on calculeλPE(T) que l’on définit par la relation

λPE(T) =PELogistique(T)− PESeries T.(T)

PELogistique(T)

Ainsi défini, λPE(T) donne l’écart relatif de provisionnement supplémentaire induit par lechoix des tables les plus prudentes ("Logistique Femmes" et "Logistique Hommes") par rapportau provisionnement issu des tables d’expérience les moins prudentes (celles obtenues à partirdes tables "HMD Séries T.").

On peut également interpréter 1− λPE(T), il s’agit du niveau de provisionnement émanantdes tables de mortalité d’expérience les moins prudentes par rapport à celui exigé par les tablesde mortalité d’expérience les plus prudentes.

Remarque : La provision mathématique en phase de constitution n’a pas lieu d’être évoquéeici puisqu’elle est égale au capital épargné qui ne varie pas lors d’un changement de table demortalité.

VI.4.b.ii) Variations de provision mathématique

Ensuite, il faut étudier l’écart entre les tables de mortalité d’expérience s’agissant de la phasede restitution.

Au cours de cette phase, ce qui doit être étudié n’est pas la provision mathématique quidécoule de l’utilisation de l’une des tables d’expérience mais bien la variation entre ce montantet celui de la provision mathématique réelle (celle calculée avec les tables en vigueur).

On peut donc calculer pour chaque ensemble de table d’expérience, la variation de provi-sion mathématique à l’échelle du portefeuille introduite lors du changement de table :

∆LogistiquePMr (T) = PMrLogistique(T)− PMrReelle(T)

∆Series T.PMr (T) = PMrSeries T.(T)− PMrReelle(T)

Et on peut mesurer finalement cet écart de variation de provisions mathématiques en cal-culant λ∆PM(T) défini par

λ∆PMr(T) =∆Logistique

PMr (T)− ∆Series T.PMr (T)

∆LogistiquePMr (T)

Page 153: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

VI.4. Provisionnement du portefeuille selon les tables d’expérience Page 133

VI.4.b.iii) Mesure de l’écart de provisionnement global

Après avoir étudié chacune des phases de la vie d’un contrat d’épargne séparement, onpeut rassembler les provisions associées pour obtenir le provisionnement global.

En effet, à la date T, la provision globale pour notre périmètre d’étude que l’on note PGReelle(T)est définie comme

PGReelle(T) = PMc(T) + PMrReelle(T)

Si l’on considère un changement de table en T (disons ici que l’on retient les tables d’expé-rience "Logistique Femmes" et "Logistique Hommes"), alors on obtient un nouveau montant deprovision globale PGLogistique(T) donné par

PGLogistique(T) = PMc(T) + PMrLogistique(T) + PELogistique(T)

En considérant la différence, on obtient à la date T, la variation de provision globale provo-quée par le choix des tables de mortalité d’expérience "Logistique" que l’on note ∆Logistique(T)et qui est égale à

∆Logistique(T) = PGLogistique(T)− PGReelle(T)

= PMrLogistique(T) + PELogistique(T)− PMrReelle(T)

= PELogistique(T) + ∆LogistiquePMr (T)

Le même raisonnement peut être réalisé avec les tables de mortalité d’expérience "Séries T."et l’on peut donc mesurer finalement l’écart, en T, entre les variations à l’échelle du portefeuilleen posant λ(T) égal à

λ(T) =∆Logistique(T)− ∆Series T.(T)

∆Logistique(T)

VI.4.c - Résultats chiffrés

La mesure de l’écart entre les deux tables de mortalité d’expérience ayant été définie, unemise en oeuvre numérique doit à présent être menée.

L’ensemble de ce qui précède (hypothèses et formules) permet de réaliser le calcul du pro-visionnement

– pour les rentes en cours de versement au 31/12/2013 soit approximativement 20% desrentes du portefeuille "Retraite individuelle" ;

– pour les rentes en phase d’épargne au 31/12/2013 qui représentent près de 80% du por-tefeuille étudié ;

Les résultats sont synthétisés dans le tableau de la Figure VI.3.

Mesure Valeur (en %)Phase de constitution λPE(T) 55,63%Phase de restitution λ∆PMr(T) 71,48%Portefeuille global λ(T) 57,61%

FIGURE VI.3 – Ecarts entre les deux tables de mortalité d’expérience

Page 154: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 134 Chapitre VI. Impact des tables d’expérience sur le provisionnement

Les écarts obtenus sont significatifs. Entre les deux ensembles de tables de mortalité d’ex-périence établis, l’écart en termes de variation du provisionnement est de plus de 50% ce quisignifie que le surplus de provisionnement induit par les tables "Logistique" est au moins égalau double de celui consécutif à l’utilisation des tables "Séries T.".

L’important volume de capitaux stockés comparé aux faibles montants de rentes en coursexplique que l’écart global du portefeuille soit très proche de l’écart associé à la phase d’épargne.

Page 155: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

CONCLUSION

Après avoir présenté le risque de longévité et démontré l’importance des tables de mortalitéprospectives, il ressort de l’analyse statistique de notre portefeuille de rentiers deux principauxrésultats.

Premièrement, la mortalité du portefeuille est plus faible que celle constatée sur une po-pulation plus générale. Cela illustre le phénomène d’anti-sélection inhérent à la souscriptiond’un contrat d’assurance. Deuxièmement, le volume de rentiers demeure bien trop faible pourconsidérer comme acquis les niveaux de mortalité observés.

Ces constats effectués, il est apparu aussi indispensable de construire des tables de mortalitéd’expérience prospectives que de considérer pour ce faire un modèle relationnel. Un tel modèlenécessitant une table de mortalité de référence et la volonté de se fier uniquement à des donnéesdémographiques nous a conduit à établir, via deux modèles différents et pour chacun des sexes,des tables de mortalité prospectives à partir des données de l’Human Mortality Database.

Les premières tables de référence ont été batîes à l’aide d’un modèle paramétrique utili-sant la fonction logistique à quatre paramètres. La flexibilité de structure de cette fonction etl’interprétation directe des paramètres la modélisant expliquent ce choix.

Le second modèle est une approche semi-paramétrique employant la théorie des séries tem-porelles. L’aspect bidimensionnel (couple âge/génération) de la mortalité humaine pouvantêtre transformé en l’association d’une tendance temporelle et d’une saisonnalité, nous avonsdonc ajusté un modèle SARIMA selon la méthode Box & Jenkins après lissage des données.

Dans les deux cas, les projections de la mortalité alors obtenues se sont révélées cohérenteset réalistes compte tenu des données de départ mais également valables statistiquement. Deplus, la robustesse des deux méthodologies a été démontrée tout comme la viabilité des prévi-sions à travers un backtesting.

Fort des tables de référence construites, le positionnement de la mortalité de notre porte-feuille d’étude par rapport à ces dernières a pu être méné.

Nous avons d’abord considéré le modèle relationnel de Brass mais faute de projections ro-bustes, c’est finalement un modèle similaire proposé par Planchet & Kamega qui a été appliqué.La mise en place de ce modèle conjugée à la méthode de fermeture de table de Coale & Kiskerpermet d’obtenir finalement quatre tables de mortalité d’expérience : deux par sexe et deuxselon chaque modèle de construction de la table de référence.

Les tables obtenues sont systématiquement plus prudentes que les tables réglementaires.Celles provenant de la méthodologie "Logistique" sont les plus prudentes en indiquant une

constante et forte augmentation des niveaux de longévité aux grands âges. Toutefois, cetteaugmentation semble peut-être excessive au regard des dernières projections obtenues et desécarts par rapport aux tables réglementaires associées.

La méthodologie "Séries T." donne deux tables d’expérience aux comportements différents.Chez les femmes, la table se positionne légérement au-dessus et parfois même en-dessous dela TGF05. Pour les hommes, la tendance actuelle indique des gains d’espérance de vie ce quiexplique que la table obtenue se démarque de la TGH05.

La précédente analyse statistique des tables de mortalité d’expérience nous a apporté unepremière réponse face au risque de longévité. Elle ne constitue pas une réponse suffisante pourun assureur étant donné son aspect purement théorique.

Page 156: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 136 Conclusion

Afin de traduire opérationnellement les précédentes observations, nous avons égalementétudié l’impact d’un changement de table sur le provisionnement du portefeuille.

Le Code des assurances exige en effet de toute compagnie d’assurances des provisions tech-niques afin qu’elle puisse à tout instant respecter les engagements qui lui incombent. Dans lecas d’un contrat de retraite réglementée (où une sortie en rentes viagères est imposée), cetteexigence s’exerce indépendamment de la phase dans laquelle il se trouve.

Tout changement de table de mortalité a donc un double impact : une variation des provi-sions mathématiques associées aux rentes en cours de service et la constitution de provisionspour écart capital constitutif - provision mathématique pour les rentes en phase de constitutionpour lesquelles une garantie de table a été souscrite.

Numériquement et à l’échelle de l’ensemble du portefeuille, l’écart de provisionnementglobal entre les tables d’expérience "Logistique" et "Séries T." est conséquent (près de 57%).

Ce résultat ne nous surprend pas dans le sens où les deux méthodologies considérées sontnettement différentes mais néanmoins, un écart faible aurait pu permettre d’affirmer les ni-veaux de mortalité obtenus.

Une certaine prudence s’impose donc s’agissant des tables de mortalité obtenues. En effet,bien que les deux démarches aient été validées statistiquement et modélisent le même phéno-mène, elles aboutissent à des résultats sensiblement différents.

Les deux méthodologies aboutissent donc à des résultats qui semblent contradictoires et quiempêchent donc, a priori, toute conclusion. Une telle affirmation est quelque peu hâtive dansle sens où elle occulte totalement la validité statistique des résultats et l’approche comparativeinitiale.

En effet, si deux méthodes ont été considérées au départ c’est justement pour étudier lacapacité prédictive d’un jeu de données. De ce point de vue, la divergence des résultats sur lelong terme confirme la difficulté de l’exercice de la prévision statistique.

Un choix entre les tables de mortalité d’expérience finales n’étant pas l’objectif fixé, il n’ypas lieu de regretter l’absence de convergence des résultats des deux méthodologies.

Au-delà de ces résultats obtenus, le suivi à court/moyen terme des modèles proposés s’im-pose puisque l’accès à de nouvelles données a un double impact vérificatif.

D’une part, ces informations peuvent être directement comparées aux prévisions obtenueset apporter des éléments de réponse concernant la force prédictive des modélisations choisies.

D’autre part, ces données permettent de renouveler les différentes phases d’estimations. Denouvelles prévisions découlent d’une telle mise à jour et elles peuvent alors être comparées àcelles calculées précédemment.

Par ailleurs, rappellons que l’ensemble du travail réalisé ne se prétend ni exhaustif, ni dé-finitif. De nombreux modèles non traités ici peuvent être employés et ils conduiraient, à n’enpas douter, à des tables différentes.

De plus, outre les choix de méthodologie, ceux de certaines hypothèses empiriques peuventêtre remis en cause étant donné le caractère de postulat qui leur est propre.

Ainsi, les pistes pour compléter ce qui a été réalisé sont aussi diverses que nombreuses.

Page 157: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

BIBLIOGRAPHIE

[1] George A. Akerlof (1970) – The market for "lemons" : quality uncertainty and the market me-chanism. The quarterly journal of economics, p.488–500.

[2] Harry Bensusan (2010) – Risque de taux et de longévité : modélisation dynamique et applicationsaux produits dérivés et à l’assurance vie. Thèse de doctorat de l’école Polytechnique.

[3] Maïtine Bergounioux (2001) – Optimisation et contrôle des systèmes linéaires. Dunod.

[4] Frédéric Bonnans (2006) – Optimisation continue. Dunod.

[5] George E. P. Box & Gwilym M. Jenkins (1970) – Time series analysis : forecasting and control.Holden-Day.

[6] George E. P. Box, Gwilym M. Jenkins & DW Bacon (1967) – Models for forecasting seasonaland nonseasonal time series. Spectral analysis of time series, p.271–311.

[7] William Brass (1971) – On the scale of mortality. Biological aspects of demography, p.69–110.

[8] Kaare Christensen, Gabriele Doblhammer, Roland Rau & James W. Vaupel (2009) – Ageingpopulations : the challenges ahead. The Lancet, Vol. 374, n˚9696 : p.1196–1208.

[9] Ansley J. Coale & Ellen E. Kisker (1990) – Defects in data on old-age mortality in the UnitedStates : new procedures for calculating mortality schedules and life tables at the highest ages. Asianand Pacific Population Forum, Vol. 4, n˚1 : p.1–31.

[10] Jonathan D. Cryer & Kung-Sik Chan (2008) – Time series analysis : with applications in R.Springer.

[11] Russell Davidson & James G. MacKinnon (1993) – Estimation and inference in econometrics.Oxford University Press USA.

[12] Antoine Delwarde & Michel Denuit (2003) – Importance de la période d’observation et des âgesconsidérés dans la projection de la mortalité selon la méthode de Lee-Carter. Belgian ActuarialBulletin, Vol. 3, n˚1 : p.1–21.

[13] Antoine Delwarde & Michel Denuit (2006) – Construction de tables de mortalité périodiques etprospectives. Economica.

[14] Antoine Delwarde, Daria Kachakhidze, Laure Olié & Michel Denuit (2006) – Modèles li-néaires et additifs généralisés, maximum de vraisemblance local et méthodes relationnelles en assu-rance sur la vie. Bulletin Français d’Actuariat, Vol. 6, n˚12 : p.77–102.

[15] Christian Francq & Jean-Michel Zakoian (2009) – Modèles GARCH : structure, inférence sta-tistique et applications financières. Economica.

[16] Christian Gouriéroux (1997) – ARCH models and financial applications. Springer.

[17] Christian Gouriéroux & Alain Monfort (1995) – Séries temporelles et modèles dynamiques.Economica.

[18] Leonard Hayflick & Paul S. Moorhead (1961) – The serial cultivation of human diploid cellstrains. Experimental cell research, Vol. 25, n˚3 : p.585–621.

[19] Thomas Kirkwood (2005) – Understanding the odd science of aging. Cell, Vol. 120, n˚4 : p.437–447.

[20] Frank E. Knorr (1984) – Multidimensional Whittaker-Henderson graduation. Transactions ofthe Society of Actuaries, Vol. 36 : p.213–240.

[21] Heiner Maier, Jutta Gampe, Bernard Jeune, Jean-Marie Robine & James W. Vaupel (2010)– Supercentenarians. Springer.

Page 158: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 138 Bibliographie

[22] Jim Oeppen & James W. Vaupel (2002) – Broken limits to life expectancy. Science, Vol. 296,n˚5570 : p.1029–1031.

[23] Frédéric Planchet & Aymeric Kamega (2013) – Construction de tables de mortalité prospectivessur un groupe restreint : mesure du risque d’estimation. Bulletin français d’actuariat, Vol. 13,n˚25 : p.5–33.

[24] Frédéric Planchet & Pierre Thérond (2011) – Modélisation statistique des phénomènes de durée.Economica.

[25] Gilber Saporta (2011) – Probabilités, analyse des données et statistique. Editions Technip.

[26] Guy Simonet (1998) – La comptabilité des entreprises d’assurance. L’Argus de l’assurance.

[27] Julien Tomas & Frédéric Planchet (2013) – Critères de validation : aspects méthodologiques.Institut des Actuaires, Rapport technique II1291-14.

[28] Jacques Vallin & France Meslé (2000) – Transition sanitaire : tendances et perspectives. Méde-cine/sciences, Vol. 16, n˚11 : p.1161–1171.

[29] Jacques Vallin & France Meslé (2010) – Espérance de vie : peut-on gagner trois mois par anindéfiniment ? Population & Sociétés, n˚473 : p.1–4.

[30] John R. Wilmoth, Vladimir Shkolnikov & Magali Barbieri – Directeurs de l’Human Mor-tality Database. http://www.mortality.org/.

Page 159: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

ANNEXES

A – Eléments de résultats pour les tables de référence masculines

Comme expliqué à la section introductive du chapitre 4 (page 52), l’ensemble des travauxrelatifs à la construction de tables de mortalité de référence selon chacune des méthodolo-gies retenues n’a été détaillé que pour les tables "HMD Logistique Femmes" et "HMD SériesT. Femmes". Puisqu’il a fallu également construire les tables "HMD Logistique Hommes" et"HMD Séries T. Hommes", on se propose de donner ici des éléments graphiques concernantces deux tables de mortalité de référence.

A.2 – Table de mortalité de référence "HMD Logistique Hommes"

Année

1950196019701980199020002010

Age6070

8090

ln(Qx,t)

−4

−3

−2

−1

Données brutes

Année

1950196019701980199020002010

Age6070

8090

ln(Qx,t)

−4

−3

−2

−1

Valeurs ajustées par année via la fonction logistique

FIGURE A.1 – Données initiales et données ajustées annuellement par la fonction logistique

Année

19601980

20002020

20402060

Age

60

70

8090

ln(Qx,t)

−5

−4

−3

−2

−1

19601980

20002020

20402060 60

70

8090

−5

−4

−3

−2

−1

FIGURE A.2 – Représentation logarithmique de la table "HMD Logistique Hommes"

Page 160: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 140 Annexes

A.3 – Table de mortalité de référence "HMD Séries T. Hommes"

Année

1950196019701980

19902000

2010 Age

60

7080

90

ln(Qx,t)

−4

−3

−2

−1

Données brutes

Année

1950196019701980

19902000

2010 Age

60

7080

90

ln(Qx,t)

−4

−3

−2

−1

Valeurs lissées via la méthode de Whittaker−Henderson

FIGURE A.3 – Données avant et après lissage selon la méthode de Whittaker-Henderson

Annee

19601980

20002020

20402060

Age

60

70

8090

ln(Qx,t)

−6

−5

−4

−3

−2

−1

19601980

20002020

20402060 60

70

8090

−6

−5

−4

−3

−2

−1

FIGURE A.4 – Représentation logarithmique de la table "HMD Séries T. Hommes"

B – Présentation des tests statistiques utilisés

A de nombreuses reprises au cours des précédents travaux, des tests statistiques ont étéemployés sans mention explicite des différentes hypothèses nulles testées, ni des statistiquesde test. On se propose ici d’apporter des précisions sur chacun des tests utilisés au cours dumémoire.

B.1 – Test de Student et significativité d’un coefficient

Après avoir estimé l’ensemble des coefficients d’un modèle et obtenu la normalité et l’es-pérance nulle des résidus, le test de Student appliqué à chaque coefficient permet d’obtenir lasignificativité de ce dernier c’est-à-dire s’il est bien différent de 0 ou non.

Page 161: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Annexes Page 141

L’hypothèse nulle associée à ce test s’agissant d’un coefficient noté β est donc

(H0) : β = 0 c’est-à-dire que β n’est pas un coefficient significatif

Considérons une estimation β de β obtenue après l’estimation d’un modèle à p paramètreset à partir de n observations. La statistique de test T est définie par

T =β

σβ

où σβ désigne une estimation de la variance de l’estimateur β.

Compte tenu des précédentes hypothèses et sous (H0), T doit suivre une loi de Student àn− p degrés de liberté. Dès lors, en notant QTn−p(1− α

2 ) le quantile de niveau 1− α2 de la loi de

Student à n− p degrés de liberté :– si |T| > QTn−p(1 − α

2 ) alors (H0) doit être rejeté et on a la significativité de β avec unrisque d’erreur α ;

– sinon, (H0) doit être conservée.

Remarque : Si jamais seule l’hypothèse de normalité des résidus n’est pas vérifiée, il est possibled’utiliser un test de permutation en complétement du test de Student.

B.2 – Tests de Dickey-Fuller augmentés

Les tests de Dickey-Fuller augmentés sont une série de tests visant à établir la stationnaritéd’une série temporelle.

Dickey et Fuller proposent en 1979 un premier test visant à établir si le paramètre ρ d’un mo-dèle AR(1) est bien différent de 1. Puisque tout modélè autorégressif est stationnaire à condi-tion d’être correctement défini c’est-à-dire à condition que tous les paramètres ne soient pasdes racines de l’unité ce test permet d’établir la stationnarité ou non d’une série supposée êtreun AR(1).

En 1981, Dickey et Fuller poursuivent leurs travaux et proposent des nouveaux modèles oùdifférents termes sont ajoutés au AR(1) initial afin d’évaluer la stationnarité de tout processusARIMA. L’étude des racines de ces différents modèles "augmentés" par rapport au modèleinitial constitue les tests dit de Dickey-Fuller augmentés.

Concrètement, les tests de Dickey-Fuller augmentés ont pour hypothèse nulle :

(H0) :

La série temporelle d’étude (Xt)t∈N est non-stationnaire.La non-stationnarité est engendrée par l’une des formes suivantes :[M1] ∆Xt = φXt−1 −∑

pk=2 γk∆Yt−k+1 + ηn

[M2] ∆Xt = φXt−1 −∑pk=2 γk∆Yt−k+1 + c + ηn

[M3] ∆Xt = φXt−1 −∑pk=2 γk∆Yt−k+1 + bt + cηn

où φ = 0 et ηt est un bruit blanc.

Il s’agit alors d’examiner la significativité des coefficients de ces différents de modèles aprèsavoir déterminé p (le retard des tests de Dickey-Fuller augmentés) à l’aide du corrélogrammepartiel de ∆Xt. La non-stationnarité supposée par (H0) empêche de comparer les statistiques de

Page 162: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 142 Annexes

test avec les valeurs critiques de la loi de Student : c’est pourquoi on introduit QADF[Mi](1− α)

le quantile de niveau α de la statistique de Dickey & Fuller associé au modèle [Mi].

On considère d’abord le modèle [M3] qui est le plus général et on étudie la significativité deb. Si b est significativement différent de 0 (c’est-à-dire si tb > QADF[M3]

(1− α)), on arrête l’étudeet on peut rejeter (H0).

Sinon, on étudie ensuite le modèle [M2] et on réitère le précédent raisonnement s’agissantde c et compte tenu de QADF[M2]

(1− α).Si l’étude du modèle [M2] n’a pas pu permettre de rejeter (H0) on examine la significativité

de φ dans le modèle [M1] :– si tφ < QADF[M1]

(1− α) alors l’hypothèse nulle du test de racine unité est rejetée (rejet deφ = 0) et on rejette donc l’hypothèse nulle (H0) des tests de Dickey-Fuller augmentés ;

– sinon, le test n’apporte aucune conlusion : la stationnarité que l’on souhaitait démontrerne peut être acquise.

Remarque : S’agissant du modèle [M1], il faut observer que la règle de décision est ici inverséepar rapport au sens usuel.

B.3 – Test "portmanteau" ou test de Box-Pierce

Proposé par Box et Pierce en 1970, le test "portmanteau" (de l’anglais "fourre-tout") proposed’évaluer simultanément les trois conditions de blancheur d’une série de résidus (à savoir, lanullité de la moyenne, la constance de la variance et l’absence d’autocorrélations).

Aussi, l’hypothèse nulle du test est

(H0) : εt est un bruit blanc

Compte tenu d’une série temporelle (Xt)t∈N déterminée jusqu’en T et suivant un modèleSARIMAs

[(p, d, q)(P, D, Q)

], la statistique de test B est définie par

B = TK

∑h=1

ρε(h)

où ρε(h) est la corrélation empirique d’ordre h entre les résidus.

Sous (H0), cette statistique suit asymptotiquement une loi du χ2 à K− p− q− P−Q degrésde liberté.

Ainsi, on compare B à Qχ2K−p−q−P−Q

(1 − α), le quantile de niveau 1 − α de la loi du χ2 àK− p− q− P−Q degrés de liberté et :

– si B > Qχ2K−p−q−P−Q

(1− α), (H0) doit être rejetée ;– sinon, on a la blancheur des résidus au niveau de risque α.

Remarque : En pratique, il faut choisir une valeur de K assez élevée et on retient généralementune valeur entière de l’intervalle [15 ; 30].

B.4 – Test des signes

De manière générale, le test des signes a vocation à confronter la médiane théorique d’unevariable aléatoire à une valeur de référence sans aucune hypothèse sur les données. Appliqué

Page 163: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Annexes Page 143

après un ajustement, ce test étudie les changements de signe de la différence entre données ini-tiales et valeurs ajustées et permet donc de vérifier la bonne répartition des résidus par rapportà leur moyenne nulle supposée.

L’hypothèse nulle du test des signes, dans le cas d’un ajustement, est la suivante

(H0) : La médiane entre signes positifs et signes négatifs des différences est nulle

En notant, n la taille de l’échantillon initial, n+ le nombre de différences positives et n− lenombre de différences négatives, la statistique associé au test des signes est définie par

S =|n+ − n−| − 1√

n

Sous (H0), cette statistique suit une loi normale centrée réduite. Dès lors, on compare clas-siquement S au quantile QZ(1− α

2 ) de niveau 1− α2 de la loi normale centrée réduite :

– si |S| > QZ(1− α2 ), (H0) doit être rejetée ;

– sinon, on a conserve l’hypothèse nulle avec un risque de niveau α.

Remarque : Puisque ce test a été utilisé non seulement pour confirmer deux ajustements maisaussi pour les évaluer, on peut aussi calculer la p-value définie par p-value = 2

(1− FZ(|S|)

)Meilleur est le modèle, plus la p-value se rapproche de 1.

B.5 – Test des runs

Le test des runs détermine si les éléments d’une séquence sont mutuellement indépendantsen observant les changements de variations de cette séquence et le nombre de segments (ouruns) associés.

Illustrons ce principe avec un exemple : soit la séquence à dix éléments suivante, supposéeissue d’un tirage aléatoire sur J1; 99K, (12, 14, 84, 50, 34, 27, 3, 77, 67, 51). En étudiant la diffé-rence de valeurs succesives (c’est-à-dire la variation des éléments de la séquence), on obtientla séquence +,+,−,−,−,−,+,−,− qui est composée de deux segments croissants (les en-chaînements de "+") et de deux segments décroissants (les enchaînements de "−"). C’est enl’étude du nombre de ces segments que consiste le test des runs.

L’hypothèse nulle associée au test des runs est

(H0) :

Le nombre de runs suit, conditionnellement à n+ et n−, une N (µ, σ2)(n+ et n− étant respectivement le nombre de " + " et de "− " observés)

avec µ =2n+n−

n+ + n−+ 1

σ2 =2n+n−

(2n+n− − (n+ + n−)

)(n+ + n−)2(n+ + n− − 1)

puisque les éléments de la séquence sont mutuellement indépendants.

En notant r, le nombre de runs dénombrés, la statistique de test R est définie par la relation

R =r− µ

σ

Page 164: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 144 Annexes

Alors, cette statistique suit une loi normale centrée réduite sous (H0). Dès lors, on compareR au quantile QZ(1− α

2 ) de niveau 1− α2 de la loi normale centrée réduite :

– si |R| > QZ(1− α2 ), (H0) doit être rejetée ;

– sinon, on a conserve l’hypothèse nulle avec un risque de niveau α.

Remarque : Comme expliqué dans la présentation du test des signes, on peut identiquementdéfinir la p-value dont on souhaite obtenir une valeur la plus proche de 1 possible.Par ailleurs, ce test a été concrétement appliqué à une matrice d’ajustement après formé uneunique séquence en accolant les lignes de cette matrice.

B.6 – Test de Wilcoxon pour deux échantillons appariés

Le test de Wilcoxon est un test qui vise à établir l’égalité de deux distributiuons appariées àl’aide d’un principe semblable à celui du test des signes.

On dispose de deux séries appariées que l’on désire comparer : on travaille avec la sériedes différences où l’on ne conserve que les paires discordantes. On ordonne ensuite ces pairesdiscordantes en fonction de leurs valeurs absolues et on attribue à chaque paire son rang dansce classement (en considérant la moyenne en cas d’ex-aequo). On calcule alors S+, le score (lasomme des rangs) de la série des différences qui étaient positives et S−, celui de la série desdifférences qui étaient négatives.

Dès lors, le test de Wilcoxon, dans le cas d’échantillons appariés, a pour hypothèse nulle

(H0) :

Les scores S+ et S− suivent une même loi N (µ, σ2)

avec µ =n(n + 1)

4σ2 =

n(n + 1)(2n + 1)24

où n est le nombre d’observations.

En notant w le maximum entre les deux scores, la statistique de test W est définie par

W =w− µ

σ

Sous (H0) et si n 6 30, cette statistique suit une loi normale centrée réduite. On met alorsen parrallèle W au quantile QZ(1− α

2 ) de niveau 1− α2 de la loi normale centrée réduite :

– si |W| > QZ(1− α2 ), (H0) doit être rejetée ;

– sinon, on a conserve l’hypothèse nulle avec un risque de niveau α.

Remarque : Le test de Wilcoxon peut donner un résultat différent de celui des signes bien queces tests soient très proches. En effet, cela s’explique par le fait que le test de Wilcoxon faitintervenir, en plus du nombre des signes, l’étendue de chaque différence.

C – Présentation des algorithmes d’optimisation employés

Lorsqu’aucune formule analytique n’existait pour certains estimateurs, on a eu recours àdes algorithmes d’optimisation et à l’outil informatique. Il convient de ne pas se reposer uni-

Page 165: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Annexes Page 145

quement sur les résultats obtenus et donc d’apporter ici quelques précisions sur le fonctionne-ment de chacun des algorithmes utilisés.

C.1 – Algorithme de Gauss-Newton

L’ajustement de la mortalité d’une année donnée à la fonction logistique conduit à l’emploide la méthode des moindres carrés non linéaires pour l’estimation des paramètres. Comme ex-pliqué page 56, il en découle finalement un problème de minimisation non linéaire qui n’admetaucune solution analytique ce qui explique le recours à l’algorithme de Gauss-Newton.

Position du problème et choix de la résolution du problème de minimisation

On a précédemment montré que l’estimateur des moindres carrés β est solution à la fois– d’un problème de minimisation sans contraintes : β = argmin

β∈Rp‖Y−V(β)‖2

– d’un système d’équations non linéaire : A(β)′(Y−V(β)

)= 0

Le premier problème de minimisation étant issu d’un modèle de régression identifié, onest assuré qu’il existe une solution unique. Le second problème correspondant exactement auxconditions d’optimalité de premier ordre dans un cadre non linéaire : ni l’existence, ni l’unicitéde la solution ne sont assurés. De plus, si une solution existe, il faudrait ensuite vérifier lesconditions d’optimalité du second ordre (à savoir, que la matrice hessienne, associée à la fonc-tion à minimiser initialement soit définie positive lorsqu’elle est évaluée au vecteur solution).

Bien que les outils soient plus nombreux pour résoudre un système d’équations du typef (x) = 0, on préfère revenir au problème d’optimisation original étant donné que le résoudresera suffisant pour déterminer β comme voulu.

Idée générale de l’algorithme de Gauss-Newton

Considérons un problème de minimisation de type moindres carrés c’est-à-dire un pro-blème qui peut s’écrire sous la forme

minX∈Rn

‖F(X)‖2 ou minX∈Rn

Φ(X)

où F : Rn → Rm est supposée de classe C1 tout comme Φ : Rn → R

Puisqu’elle peut être facilement ramenée à un système du type f (x) = 0, la seconde écri-ture du problème est plus simple à manipuler mais généralement le problème s’écrit sous lapremière forme. Or, pour avoir accès à la fonction Φ et à ∇Φ (nécessaires pour la résolution),les calculs sont souvent très complexes car une étape consiste à expliciter la hessienne de F.

C’est cette difficulté rencontrée dans tout problème de moindres carrés qui a conduit àconsidérer l’algorithme de Gauss-Newton où l’on utilise uniquement l’information disponiblesur la fonction F et sa première dérivée pour résoudre le problème de type Newton sous-jacent.L’algorithme de Gauss-Newton est donc destiné exclusivement à la résolution de problème deminimisation de type moindres carrés.

Page 166: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 146 Annexes

Il conserve les avantages des algorithmes de type de Newton (utilisation d’une méthode ité-rative de descente et convergence quadratique) mais aussi son incovénient principal (la conver-gence de l’algorithme est locale et il nécessite donc un point de départ proche de la solutionfinale pour converger).

Principe mathématique de l’algorithme de Gauss-Newton en dimension un

Soit le problème de moindres carrés suivant (où F : Rn → R est supposée de classe C1)

minX∈Rn

F(X)2

La méthode de Gauss-Newton consiste à "linéariser" F afin de simplifier le problème et dene pas avoir à travailler avec H, la matrice hessienne de F. On forme alors une suite (Xk) devecteurs de Rn vérifiant

Xk+1 = argminX∈Rn

(F(Xk) +∇F(Xk)

′ (X− Xk))2

Xk+1 vérifie les conditions d’optimalité du premier ordre (nullité du gradient de la fonctionà minimiser) et donc il vient

∇F(Xk)(

F(Xk) +∇F(Xk)′ (Xk+1 − Xk)

)= 0

En supposant ∇F(Xk)∇F(Xk)′ inversible, il vient l’équation de récurrence

Xk+1 = Xk −(∇F(Xk)∇F(Xk)

′)−1∇F(Xk)F(Xk)

Remarque : C’est la convergence de la suite F(Xk)(∇F(Xk)∇F(Xk)

′)−1

vers la suite(

H(Xk))−1

c’est-à-dire la convergence de l’équation de récurrence de l’algorithme de Gauss-Newton verscelle de l’algorithme de Newton qui assure le fonctionnement de l’algorithme de Gauss-Newtonselon les mêmes hypothèses et propriétés que l’algorithme de Newton. La démonstration for-melle de ce point est donnée par Bonnans (2006, Chapitre 6) [4].

Réalisation pratique de l’algorithme de Gauss-Newton

On se replace dans la cadre de l’estimation de β, l’estimateur des moindres carrés pourl’ajustement des logarithmes des quotients de mortalité de l’année 2012 avec la fonction logis-tique c’est-à-dire la résolution sur Rp de β = argmin SSR(β)2.

Afin d’employer concrètement l’algorithme de Gauss-Newton, il faut définir :– un vecteur de départ β0 ;– un critère d’arrêt en cas de convergence de l’algorithme compte tenu de β0 ;– un critère d’arrêt en cas de divergence de l’algorithme compte tenu de β0.Il existe bien deux critères d’arrêt puisque l’algorithme de Gauss-Newton converge si et

seulement s’il est initialisé dans un voisinage de la solution au problème de minimisation.

Il faut donc choisir un valeur initiale de β0 que l’on peut supposer proche de β.

Page 167: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Annexes Page 147

A l’origine, la fonction logistique a été choisie compte tenu de sa similitude graphique avecla courbe indiquant les logarithmes des quotients de mortalité. Aussi, les paramètres ayantété employés pour la représentation graphique de la Figure IV.1 (en page 54) semblent conve-nables.

Par ailleurs, on peut considérer que l’algorithme converge dès lors que chaque itérationn’affine plus le résultat. Un seuil doit alors être fixé.

A l’inverse, l’algorithme de Gauss-Newton ayant une convergence quadratique, dès lorsqu’un grand nombre d’itérations est atteint, il est logique de considérer que c’est uniquementle fait d’une non-convegence et qu’il faut changer de β0.

Finalement :

– l’algorithme est initialisé en β0 =

A0B0

xmid0scal0

=

−46520

– l’algorithme converge et le minimum est atteint en βk+1 dès que ‖βk+1 − βk‖ < 10−5

– l’algorithme diverge et β0 n’appartient pas à un voisinage de β si l’on est amené à consi-dérer l’itération numéro 50.

. L’exécution en ces termes de l’algorithme de Gauss-Newton aboutit à la convergence del’algorithme : l’estimateur β est alors numériquement déterminé.

C.2 – Algorithme de Levenberg-Marquardt

Par construction du modèle de Planchet & Kamega, un ajustement global de la mortalitéd’expérience par rapport à une mortalité de référence est réalisé via l’estimation de deux para-mètres. Ces derniers étant solution d’un problème d’optimisation non linéaire, l’algorithme deLevenberg-Marquardt, qui a été employé page 109, permet une résolution numérique.

Expression du problème et principe de l’algorithme

Une estimation (a, b) du couple de paramètres (a, b) est obtenue par la relation suivante

(a, b) = argmin(a,b)

2012

∑t=2000

95

∑x=60

Ex,t

exp(

a logit(

QRe fx,t

)+ b)

1 + exp(

a logit(

QRe fx,t

)+ b) − Qx,t

2

où– chaque Ex,t est l’exposition totale du portefeuille au risque de décès à l’âge x pour l’année

t (ce sont des poids pour l’estimation) ;– les QRe f

x,t sont les quotients de mortalité de la table de référence (en l’occurence ceux de latable "HMD Logistique Femmes") ;

– les Qx,t sont les quotients de mortalité d’expérience estimés (en l’occurence l’estimateurde Hoem a été utilisé).

Page 168: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 148 Annexes

C’est un problème de moindres carrés, aussi il existe F : R2 → R de classe C1 telle que

(a, b) = argminX=(a,b)∈R2

F(X)2

On sait que l’on peut résoudre un tel problème via l’algorithme de Gauss-Newton à condi-tion de connaître, a priori, un point proche de la solution de sorte que l’algorithme converge.

Bien souvent on ne dispose pas d’un tel point : c’est pourquoi l’algorithme de Levenberg-Marquardt propose une extention de l’algorithme de Gauss-Newton qui ne nécessite pas unetelle contrainte d’initialisation et donc qui assure une convergence globale du processus deminimisation.

Mathématiquement, cette extention se concrétise en augmentant la matrice∇F(Xk)∇F(Xk)′

par un multiple de la matrice identité afin que la matrice ainsi augmentée soit définie positive(cela est la condition d’optimalité du second ordre : celle qui assure la convergence de l’algo-rithme).

Fonctionnement de l’algorithme de Levenberg-Marquardt

On considère le problème de moindres carrés suivant

minX∈Rn

F(X)2

où F : Rn → R est une fonction au moins une fois dérivable.

L’algorithme de Levenberg-Marquardt qui détermine la solution du précédent problèmeconsiste en l’algorithme suivant :

Etape 1 : Initialisation de l’algorithmeOn fixe α, β, γ, ε des réels proches de zéro mais non nuls. Ces réels serviront à implantercertains critères de l’algorithme.On pose k = 0 et on choisit un vecteur X0 quelconque de Rn. On note µ0 = F(X0)2

Etape 2 : Mise en place de la kème itérationOn considère l’équation

(µk IdMn,n(R) +∇F(Xk)∇F(Xk)

′)

Dk = −∇F(Xk)F(Xk). On ex-plicite alors la solution Dk.On compare alors F(Xk + Dk) à γF(Xk) :– Si F(Xk + Dk) 6 γF(Xk) alors l’algorithme progresse dans sa recherche d’un minimum

et donc on peut poser Xk+1 = Xk + Dk et aller directement à l’étape 4.– Sinon, l’algorithme a "sauté" une meilleure valeur, il faut abaisser le pas Dk et donc on

va à l’étape 3.Etape 3 : Recherche linéaire du pas (condition Armijo)

On définit Φ(X) = F(X)2. On détermine mk, le plus petit entier naturel vérifiant l’inéga-lité Φ(Xk + βmDk)

2−Φ(Xk)2 6 αβm∇Φ(Xk)

′Dk. On pose Xk+1 = Xk + βmk Dk et on passeà l’étape 4.

Etape 4 : Test du critère d’arrêtOn pose µk+1 = F(Xk+1)

2 et on évalue ‖Xk+1 − Xk‖ :– Si ‖Xk+1 − Xk‖ 6 ε alors le minimum est µk+1 qui est atteint en Xk+1 : on cesse donc

l’algorithme.– Sinon, on incrémente k et on retourne à l’étape 2.

A noter que s’agissant de la démonstration mathématique du bien fondé de l’algorithme deLevenberg-Marquardt, Bergounioux (2001, Chapitre 2) [3] propose de nombreux éléments.

Page 169: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Annexes Page 149

D – Démonstrations mathématiques

Dans un souci d’exhaustivité scientifique, on donne ici la démonstration mathématique decertains résultats employés précédemment.

D.1 - Espérance de vie résiduelle sous hypothèse de répartition uniforme des décès

Le calcul de l’espérance de vie résiduelle à partir d’une table de mortalité est possible dèslors qu’une hypothèse sur la répartition des décès dans l’année est fixée. On démontre ici larelation établie page 24 compte tenu de l’hypothèse choisie.

Résultat et hypothèse

D’abord, on rappelle que dans le cas général, l’espérance de vie résiduelle ex à l’âge x estdonnée par

ex = E(Tx) =∫

t>0tPx dt

Hypothèse – On suppose que les décès surviennent linéairement au cours de l’année c’est-à-dire quel’on suppose vraie pour tout âge x la relation

∀t ∈ [0 ; 1], tQx = t Qx

Dès lors, compte tenu des données d’une table de mortalité (l’ensemble des `x jusqu’à l’âgew), l’espérance de vie résiduelle suit la relation

ex =12+

w−x

∑k=1

`x+k

`x

Démonstration

Par définition, ex =∫

t>0tPx dt

=+∞

∑k=0

∫ k+1

ktPx dt

=+∞

∑k=0

∫ 1

0kPxtPx+k dt

=+∞

∑k=0

kPx

∫ 1

01− tQx+k dt

en utilisant notre hypothèse d’une répartition linéaire des décès dans l’année

=+∞

∑k=0

kPx

∫ 1

01− t Qx+k dt

=+∞

∑k=0

kPx

(1− Qx+k

2

)=

+∞

∑k=0

`x+k

`x

(1− `x+k − `x+k+1

2`x+k

)

Page 170: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 150 Annexes

=+∞

∑k=0

`x+k

`x− `x+k − `x+k+1

2`x

=12+

+∞

∑k=1

`x+k

2`x+

+∞

∑k=0

`x+k+1

2`x

=12+

+∞

∑k=0

`x+k+1

2`x+

+∞

∑k=0

`x+k+1

2`x

puisque les `x sont nuls pour x > w, il vient finalement

ex =12+

w−x

∑k=1

`x+k

`x

D.2 - Formule générale d’une rente périodique

On démontre, après l’avoir rappellé, le résultat page 128 concernant l’expression à l’aide denombres de commutation du montant annuel d’un rente viagère fractionnée.

Résultat et hypothèse

Le montant annuel R(a(p)x ) d’une rente viagère immédiate payée p fois dans l’année à

termes échus pour un capital constitutif de 1e est donné par

1

R(a(p)x )

= a(p)x =

+∞

∑k=1

1p

1

(1 + t)kp· k

pPx

=Nx+1

Dx+

p− 12p

= ax +p− 1

2p

Dans le cas des rentes fractionnés, aucun résultat simplifié à l’aide des nombres de com-mutation n’est possible à priori. Pour obtenir le précédent résultat, il faut faire une certainehypothèse sur les Dx périodiques.

Hypothèse – On suppose que les Dx+ kp

sont obtenus par interpolation linéaire des Dx c’est à dire

∀x ∈N, ∀k ∈ [1, p], Dx+ kp= Dx +

kp(

Dx+1 − Dx)

où p est égal au nombre de périodes dans une année.

Remarque : Même si elle semblait plus naturelle, une hypothèse sur les seuls lx périodiquesn’est pas suffisante pour obtenir des résultats simplifiés pour les rentes fractionnés, il faut bienutiliser une hypothèse plus forte (celle sur les Dx).

Démonstration

Par définition, a(p)x =

+∞

∑k=1

1p

1

(1 + t)kp· k

pPx

Chaque période k peut être décomposée comme la jème période de la aème année (l’an 0 étant

Page 171: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Annexes Page 151

l’origine). Ainsi

a(p)x =

+∞

∑a=0

p

∑j=1

1p

1

(1 + t)a+ jp

· a+ jpPx

=+∞

∑a=1

p

∑j=1

1p

(1 + t)x

(1 + t)x+a−1+ jp

·lx+a−1+ j

p

lx

=1p

+∞

∑a=1

p

∑j=1

Dx+a−1+ jp

Dx

Rappellons que l’on suppose ∀x ∈N, ∀k ∈ [1, p], Dx+ kp= Dx +

kp

(Dx+1 − Dx

). Dès lors

a(p)x =

1p

1Dx

+∞

∑a=1

p

∑j=1

Dx+a−1 +jp(

Dx+a − Dx+a−1)

=1p

1Dx

+∞

∑a=1

p

∑j=1

Dx+a−1 +1p

1Dx

+∞

∑a=1

p

∑j=1

jp(

Dx+a − Dx+a−1)

=1p

1Dx

+∞

∑a=1

(Dx+a−1

p

∑j=1

1)

+1p

1Dx

+∞

∑a=1

(1p(

Dx+a − Dx+a−1) p

∑j=1

j)

=1p

1Dx

+∞

∑a=1

pDx+a−1 +1p

1Dx

+∞

∑a=1

1p(

Dx+a − Dx+a−1) p(p + 1)

2

=

+∞∑

a=1Dx+a−1

Dx+

1p

1Dx

(p + 1)2

+∞

∑a=1

(Dx+a − Dx+a−1

)

=Dx

Dx+

+∞∑

a=2Dx+a−1

Dx+

1p

1Dx

(p + 1)2

· (−Dx)

= 1 +

+∞∑

a=0Dx+a+1

Dx− (p + 1)

2p

=Nx+1

Dx+

2p2p− (p + 1)

2p

Finalement,1

R(a(p)x )

= a(p)x =

Nx+1

Dx+

p− 12p

E – Extraits du Code des assurances

De nombreux articles de Code des assurances ont été partiellement cités ou mentionés. Cesarticles sont données ici dans leur forme originale.

E.1 - Article de la Partie législative

Article L310-1

Le contrôle de l’Etat s’exerce dans l’intérêt des assurés, souscripteurs et bénéficiaires de contratsd’assurance et de capitalisation. Sont soumises à ce contrôle :

Page 172: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 152 Annexes

1˚ les entreprises qui sous forme d’assurance directe contractent des engagements dont l’exé-cution dépend de la durée de la vie humaine, s’engagent à verser un capital en cas de mariageou de naissance d’enfants, ou font appel à l’épargne en vue de la capitalisation et contractent àcet effet des engagements déterminés ;

2˚ les entreprises qui sous forme d’assurance directe couvrent les risques de dommages corpo-rels liés aux accidents et à la maladie ;

3˚ les entreprises qui sous forme d’assurance directe couvrent d’autres risques y compris ceuxliés à une activité d’assistance.

Les mutuelles régies par le code de la mutualité, les institutions régies par le livre IX du codede la sécurité sociale et à l’article L. 727-2 du code rural et de la pêche maritime ne sont passoumises aux dispositions du présent code.

Sont également soumises au contrôle de l’Etat les entreprises agréées à la date du 1er janvier1993 qui font appel à l’épargne en vue de la capitalisation sans souscrire d’engagements déter-minés.

E.2 - Articles de la Partie réglementaire

Article R331-1

Les engagements réglementés dont les entreprises mentionnées à l’article L. 310-1 doivent, àtoute époque, être en mesure de justifier l’évaluation sont les suivants :

1˚ Les provisions techniques suffisantes pour le règlement intégral de leurs engagements vis-à-vis des assurés ou bénéficiaires de contrats ;

2˚ Les postes du passif correspondant aux autres créances privilégiées ;

3˚ Les dépôts de garantie des agents, des assurés et des tiers, s’il y a lieu ;

4˚ Une réserve d’amortissement des emprunts ;

5˚ Une provision de prévoyance en faveur des employés et agents destinée à faire face auxengagements pris par l’entreprise envers son personnel et ses collaborateurs.

Les provisions techniques mentionnées au 1˚ du présent article sont calculées, sans déductiondes réassurances cédées à des entreprises agréées ou non, dans les conditions déterminées pardécret en Conseil d’Etat.

La provision mentionnée au 5˚ du présent article est calculée dans les conditions fixées pardécret.

Article R331-3

Les provisions techniques correspondant aux opérations d’assurance sur la vie, d’assurancenuptialité-natalité, et aux opérations de capitalisation sont les suivantes :

Page 173: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Annexes Page 153

1˚ Provision mathématique : différence entre les valeurs actuelles des engagements respective-ment pris par l’assureur et par les assurés ;

2˚ Provision pour participation aux excédents : montant des participations aux bénéfices attri-buées aux bénéficiaires de contrats lorsque ces bénéfices ne sont pas payables immédiatementaprès la liquidation de l’exercice qui les a produits ;

3˚ Réserve de capitalisation : réserve destinée à parer à la dépréciation des valeurs comprisesdans l’actif de l’entreprise et à la diminution de leur revenu ;

4˚ Provision de gestion : destinée à couvrir les charges de gestion future des contrats non cou-vertes par ailleurs ;

5˚ Provision pour aléas financiers : destinée à compenser la baisse de rendement de l’actif ;

6˚ Provision pour risque d’exigibilité : provision destinée à faire face aux engagements dansle cas de moins-value de l’ensemble des actifs mentionnés à l’article R. 332-20. La provision àconstituer est calculée dans les conditions définies au I de l’article R. 331-5-1 ;

7˚ Provision pour frais d’acquisition reportés : provision destinée à couvrir les charges résultantdu report des frais d’acquisition constaté en application de l’article R. 332-35 ;

8˚ Provision pour égalisation : provision destinée à faire face aux fluctuations de sinistralitéafférentes aux opérations d’assurance de groupe contre le risque décès.

Un engagement ne peut être provisionné qu’au titre d’une seule des catégories mentionnées auprésent article.

Article R331-6

Les provisions techniques correspondant aux autres opérations d’assurance sont les suivantes :

1˚ Provision mathématique des rentes : valeur actuelle des engagements de l’entreprise en cequi concerne les rentes et accessoires de rentes mis à sa charge ;

2˚ Provision pour primes non acquises : provision, calculée selon les méthodes fixées par arrêtédu ministre de l’économie, destinée à constater, pour l’ensemble des contrats en cours, la partdes primes émises et des primes restant à émettre se rapportant à la période comprise entrela date de l’inventaire et la date de la prochaine échéance de prime ou, à défaut, du terme ducontrat ;

2˚ bis Provision pour risques en cours : provision, calculée selon les méthodes fixées par arrêtédu ministre de l’économie, destinée à couvrir, pour l’ensemble des contrats en cours, la chargedes sinistres et des frais afférents aux contrats, pour la période s’écoulant entre la date de l’in-ventaire et la date de la première échéance de prime pouvant donner lieu à révision de la primepar l’assureur ou, à défaut, entre la date de l’inventaire et le terme du contrat, pour la part dece coût qui n’est pas couverte par la provision pour primes non acquises ;

3˚ Réserve de capitalisation : réserve destinée à parer à la dépréciation des valeurs comprises

Page 174: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 154 Annexes

dans l’actif de l’entreprise et à la diminution de leur revenu ;

4˚ Provision pour sinistres à payer : valeur estimative des dépenses en principal et en frais, tantinternes qu’externes, nécessaires au règlement de tous les sinistres survenus et non payés, ycompris les capitaux constitutifs des rentes non encore mises à la charge de l’entreprise ;

5˚ Provision pour risques croissants : provision pouvant être exigée, dans les conditions fixéespar le décret prévu à l’avant-dernier alinéa de l’article R. 331-1, pour les opérations d’assurancecontre les risques de maladie et d’invalidité et égale à la différence des valeurs actuelles desengagements respectivement pris par l’assureur et par les assurés ;

6˚ Provision pour égalisation :

a) Provision destinée à faire face aux charges exceptionnelles afférentes aux opérations garan-tissant les risques dus à des éléments naturels, le risque atomique, les risques de responsabilitécivile dus à la pollution, les risques spatiaux, les risques liés au transport aérien, et les risquesliés aux attentats et au terrorisme, et calculée dans les conditions fixées par l’article 2 de la loin˚ 74-1114 du 27 décembre 1974, par le décret n˚ 75-768 du 13 août 1975, le décret n˚ 86-741 du14 mai 1986 et l’article 39 quinquies G du code général des impôts. Toutefois, pour la déter-mination du bénéfice technique annuel pris en compte pour le calcul de la dotation annuellede la provision pour les risques liés aux attentats et au terrorisme prévue à l’article 39 quin-quies G du code général des impôts et pour la détermination de la limite du montant globalde cette provision prévue à cet article, les primes pour attentat et terrorisme pour chacun desdeux exercices 2001 et 2002 ne pourront excéder 3,75

b) Provision destinée à compenser en assurance-crédit la perte technique éventuelle apparais-sant à la fin de l’exercice, et calculée dans les conditions fixées à l’article R. 331-33 ;L> c) Provi-sion destinée à faire face aux fluctuations de sinistralité afférentes aux opérations d’assurancede groupe contre les risques de dommages corporels ;

7˚ Provision mathématique des réassurances : provision à constituer par les entreprises men-tionnées aux 2˚ et 3˚ de l’article L. 310-1 qui acceptent en réassurance des risques cédés par desentreprises d’assurance sur la vie ou d’assurance nuptialité-natalité et égale à la différence entreles valeurs actuelles des engagements respectivement pris l’un envers l’autre par le réassureuret le cédant ;

8˚ Provision pour risque d’exigibilité : provision destinée à faire face aux engagements dansle cas de moins-value de l’ensemble des actifs mentionnés à l’article R. 332-20. La provision àconstituer est calculée dans les conditions définies au I de l’article R. 331-5-1.

E.3 - Articles de la Partie réglementaire - Arrêtés

Article A331-1

Les provisions mathématiques des contrats d’assurance sur la vie, de capitalisation et d’assu-rance nuptialité-natalité, à primes périodiques, doivent être calculées en prenant en compte leschargements destinés aux frais d’acquisition dans l’engagement du payeur de primes.

La provision résultant du calcul précédent ne peut être négative, ni inférieure à la valeur de

Page 175: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Annexes Page 155

rachat du contrat, ni inférieure à la provision correspondant au capital réduit.

Article A331-1-2

Les provisions mathématiques de tous les contrats individuels et collectifs de rentes viagèresen cours de service au 1er janvier 2007 ou liquidées à compter de cette même date, doiventêtre calculées en appliquant auxdits contrats, lors de tous leurs inventaires annuels, à partir decette date, les tables de mortalité appropriées mentionnées à l’article A. 335-1 applicables auxcontrats de rente viagère souscrits à compter de cette même date.

Les entreprises peuvent répartir sur une période de quinze ans au plus les effets sur le pro-visionnement résultant de l’utilisation des tables de génération homologuées par arrêté duministre de l’économie.

Les entreprises devront néanmoins avoir, d’ici au 1er août 2008, un niveau de provisionnementdes contrats de rentes viagères, quelle que soit leur date de souscription, supérieur ou égal àcelui obtenu avec la table de génération homologuée par arrêté du 28 juillet 1993, lorsque ceniveau est inférieur à celui prévu au premier alinéa.

Les dispositions des alinéas précédents ne font pas obstacle au pouvoir de l’autorité mention-née à l’article L. 310-12 d’exiger conformément à l’article R. 331-1 qu’une entreprise d’assurancemajore les provisions mathématiques mentionnées au premier alinéa, après examen des don-nées d’expérience relatives à la population d’assurés.

Article A335-1

Les tarifs pratiqués par les entreprises d’assurance sur la vie et de capitalisation comprennentla rémunération de l’entreprise et sont établis d’après les éléments suivants :

1˚ Un taux d’intérêt technique fixé dans les conditions prévues à l’article A. 132-1.

2˚ Une des tables suivantes :

a) Tables homologuées par arrêté du ministre de l’économie et des finances, établies par sexe,sur la base de populations d’assurés pour les contrats de rente viagère, et sur la base de don-nées publiées par l’Institut national de la statistique et des études économiques pour les autrescontrats ;

b) Tables établies ou non par sexe par l’entreprise d’assurance et certifiées par un actuaire in-dépendant de cette entreprise, agréé à cet effet par l’une des associations d’actuaires reconnuespar l’autorité mentionnée à l’article L. 310-12.

Les tables mentionnées au b sont établies d’après des données d’expérience de l’entreprised’assurance, ou des données d’expérience démographiquement équivalentes.

Lorsque les tarifs sont établis d’après des tables mentionnées au a, et dès lors qu’est retenueune table unique pour tous les assurés, celle-ci correspond à la table appropriée conduisant autarif le plus prudent.

Pour les contrats en cas de vie autres que les contrats de rente viagère, les tables mentionnées

Page 176: RÉSUMÉ · C’est ce travail statistique complexe à partir des données du périmètre "Retraite indivi-duelle" d’AXA France qui fait l’objet de notre étude. Dans un premier

Page 156 Annexes

au a sont utilisées en corrigeant l’âge de l’assuré conformément aux décalages d’âge ci-annexés.

Pour les contrats de rentes viagères, en ce compris celles revêtant un caractère temporaire, età l’exception des contrats relevant du chapitre III du titre IV du livre Ier, le tarif déterminé enutilisant les tables mentionnées au b ne peut être inférieur à celui qui résulterait de l’utilisationdes tables appropriées mentionnées au a.

Pour les contrats collectifs en cas de décès résiliables annuellement, le tarif peut être établid’après les tables mentionnées au a avec une méthode forfaitaire si celle-ci est justifiable.