106
Mémoire présenté le : 14 janvier 2015 pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA et l’admission à l’Institut des Actuaires Par : MAXIME BERGERON Titre Confidentialité : NON OUI (Durée : 1 an 2 ans) Les signataires s’engagent à respecter la confidentialité indiquée ci-dessus Membre présents du jury de l’Institut des Actuaires signature Entreprise : Nom : IRCEM Signature : Membres présents du jury de l’ISFA Directeur de mémoire en entreprise : Nom : Alain KOUTOUAN Gérard CROSET Signature : Lionel LAURENT Invité : Matthieu CHAUVIGNY Nom : Marie BOUDOIR Signature : Christian ROBERT Autorisation de publication et de mise en ligne sur un site de diffusion de documents actuariels (après expiration de l’éventuel délai de confidentialité) Véronique MAUME-DESCHAMPS Esterina MASIELLO Pierre RIBEREAU Signature du responsable entreprise Secrétariat Signature du candidat Bibliothèque : Incertitude dans le calcul des Provisions pour sinistres à payer x

pour l’obtention du Diplôme Universitaire d’actuariat de l ......Incertitude dans le calcul des Provisions pour sinistres à payer x . 3 M. BERGERON - Mémoire pou l’obtention

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

  • Mémoire présenté le : 14 janvier 2015

    pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA

    et l’admission à l’Institut des Actuaires

    Par : MAXIME BERGERON

    Titre

    Confidentialité : NON OUI (Durée : 1 an 2 ans)

    Les signataires s’engagent à respecter la confidentialité indiquée ci-dessus

    Membre présents du jury de l’Institut

    des Actuaires

    signature Entreprise :

    Nom : IRCEM

    Signature :

    Membres présents du jury de l’ISFA Directeur de mémoire en entreprise :

    Nom : Alain KOUTOUAN

    Gérard CROSET Signature :

    Lionel LAURENT Invité :

    Matthieu CHAUVIGNY Nom : Marie BOUDOIR

    Signature :

    Christian ROBERT

    Autorisation de publication et de mise

    en ligne sur un site de diffusion de

    documents actuariels (après expiration

    de l’éventuel délai de confidentialité)

    Véronique MAUME-DESCHAMPS

    Esterina MASIELLO

    Pierre RIBEREAU

    Signature du responsable entreprise

    Secrétariat

    Signature du candidat

    Bibliothèque :

    Incertitude dans le calcul des Provisions pour sinistres à payer x

    http://www.institutdesactuaires.fr/gene/main.php

  • 3 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

  • INSTITUT DE SCIENCE FINANCIERE ET

    D’ASSURANCES

    Mémoire pour l’obtention du Diplôme Universitaire d’actuariat

    Incertitude dans le calcul des Provisions

    pour sinistres à payer

    Etudiant :

    Maxime BERGERON

    Encadrant :

    Esterina MASIELLO

    Directeur de Mémoire en Entreprise :

    Alain KOUTOUAN

    Janvier 2015

  • 2 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

  • 1 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Résumé

    L’évolution constante des normes de contrôle dans le domaine assurantiel impose

    aux sociétés d’assurance une gestion cadrée des risques auxquels elles doivent faire face.

    L’objectif principal est d’évaluer les provisions à constituer, qui permettraient, le cas

    échéant, de rembourser les futurs sinistres des contrats en cours. Néanmoins, n’ayant pas

    connaissance de la sinistralité future, l’assureur est contraint de proposer une estimation de

    ces provisions afin de respecter ses engagements envers ses assurés.

    Dans ce mémoire, nous nous intéressons au calcul des IBNR (Incurred But Not Reported) en

    assurance non-vie, et plus particulièrement aux provisions pour sinistres à payer. Ces

    dernières années, de nombreuses méthodes ont été recensées. Chacune d’entre elles

    propose des estimations basées sur la sinistralité passée observée par l’assureur au sein de

    son portefeuille. Cependant, juger que les engagements futurs présenteront la même

    logique que les engagements passés semble délicat, il faut alors considérer la prise en

    compte de l’incertitude dans l’estimation proposée par les méthodes de provisionnement.

    Ainsi, nous évaluerons ici la pertinence de chacune des méthodes de provisionnement. Tout

    d’abord, nous verrons une présentation des normes de solvabilité que doivent respecter les

    assureurs. Puis un descriptif des méthodes et de leur utilisation sera proposé. Enfin, nous

    exposerons de nouvelles méthodes permettant l’appréciation de l’incertitude.

    Mots clés : provisions, Best Estimate, incertitude, erreur de prédiction, ensembles flous.

  • 2 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Abstract

    The constant evolution of the standards of control in the insurance-related domain

    imposes to insurance companies a management centered by the risks which they have to

    face. The main objective is to estimate reserves to be constituted, who would allow, when

    necessary, to pay off the future disasters of the current contracts. Nevertheless, having no

    knowledge of the future loss ratio, the insurer is forced to propose an estimation of these

    reserves to meet his commitments to his insurants.

    In this paper, we focus on the calculation of the IBNR (Incurred But Not Reported) in non-life

    insurance, and more particularly in reserves for disasters to be paid. These last years,

    numerous methods were listed. Each of them provides estimations based on the past loss

    ratio observed by the insurer within his portfolio. However, to judge that the future

    commitments will present the same logic as the past commitments seems delicate, it is then

    necessary to acknowledge the consideration of the uncertainty in the estimation proposed

    by the reserving methods.

    So, we shall estimate here the relevance of each of the reserving methods. First of all, we

    shall introduce the standards of solvency that the insurers have to respect. Then a

    description of the methods and their use will be submitted. Finally, we shall expose new

    methods allowing the appreciation of the uncertainty.

    Keywords: reserving, Best Estimate, uncertainty, standard error, fuzzy numbers.

  • 3 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Remerciements

    Je tiens avant tout à remercier ma famille pour leurs encouragements et leur soutien

    pendant l’écriture de ce mémoire.

    Ma gratitude va également à Alain Koutouan, directeur Actuariat de l’IRCEM, pour ses

    remarques et son aide qui m’ont permis d’avoir une autre vision de mon travail et

    approfondir l’étude présentée dans ce document. Je le remercie par ailleurs pour son

    encadrement et d’avoir accepté le poste de tuteur professionnel.

    Je souhaite en outre remercier toute l’équipe Actuariat d’Intériale Mutuelle et plus

    particulièrement Laure Lamaizière et Elise Aimar de m’avoir si bien accueilli et fait vivre une

    expérience professionnelle enrichissante.

    Je remercie également Marie Boudoir, directrice Actuariat de la Mutuelle Familiale pour

    avoir accepté la relecture de ce mémoire. Je tiens d’ailleurs à la remercier pour tous ses

    judicieux conseils.

    Je tiens aussi à remercier toute la direction Actuariat et Finance de l’IRCEM pour leur accueil

    et leurs encouragements ces derniers mois. Je remercie notamment mes collègues Jérémy

    Beghain, Bertrand Deschamps et Hicham Bouddour pour leurs remarques et conseils.

    Je remercie enfin l’ensemble des professeurs de l’ISFA pour la qualité de leurs

    enseignements. Et je tiens tout particulièrement à remercier Esterina Masiello d’avoir

    accepté le poste de tuteur pédagogique ainsi que pour la relecture de ce mémoire.

  • 4 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Sommaire

    Résumé .......................................................................................................... 1

    Abstract ......................................................................................................... 2

    Remerciements .............................................................................................. 3

    Introduction ................................................................................................... 6

    Partie I : La Théorie ........................................................................................ 7

    1. Chapitre 1 : Solvabilité II ............................................................................................................... 8

    1.1. Pilier 1 .................................................................................................................................. 9

    1.1.1. Calculs des MCR et SCR ............................................................................................. 10

    1.1.2. Bilan sous Solvabilité II .............................................................................................. 11

    1.2. Pilier 2 ................................................................................................................................ 12

    1.3. Pilier 3 ................................................................................................................................ 12

    2. Chapitre 2 : Segmentation et Modélisation ............................................................................... 14

    2.1. Lines of Business ................................................................................................................ 14

    2.1.1. Lines of Business en Assurance vie ............................................................................ 15

    2.1.2. Lines of Business en Assurance non-vie .................................................................... 15

    2.2. Provisionnement ............................................................................................................... 16

    2.2.1. Méthodes déterministes ........................................................................................... 19

    2.2.2. Méthodes stochastiques ........................................................................................... 24

    Partie II : Evaluer l’incertitude ....................................................................... 33

    1. Chapitre 1 : Les ensembles flous ................................................................................................ 34

    1.1. Définitions importantes ..................................................................................................... 36

    1.2. Exemples d’ensembles ...................................................................................................... 37

    1.2.1. Ensemble trapézoïdal ................................................................................................ 37

    1.2.2. Ensemble triangulaire ................................................................................................ 38

    1.3. Propriétés et opérations sur les ensembles ...................................................................... 39

    1.3.1. Propriétés classiques ................................................................................................. 39

    1.3.2. Principe d’extension .................................................................................................. 40

    1.4. Espérances et incertitudes ................................................................................................ 42

    2. Chapitre 2 : Chain Ladder ........................................................................................................... 44

    2.1. Détermination des estimateurs ......................................................................................... 44

  • 5 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    2.2. Estimation de l’incertitude ................................................................................................ 46

    3. Chapitre 3 : Régression floue...................................................................................................... 49

    3.1. Régression possibiliste ...................................................................................................... 49

    3.2. Régression des moindres carrés ........................................................................................ 50

    3.3. Régression et London Chain .............................................................................................. 52

    3.4. Conclusion ......................................................................................................................... 53

    Partie III : Mise en situation .......................................................................... 54

    1. Chapitre 1 : Qualité de la donnée ............................................................................................... 55

    2. Chapitre 2 : Une modélisation déterministe .............................................................................. 57

    2.1. Selon une cadence annuelle .............................................................................................. 58

    2.1.1. Chain Ladder et variantes .......................................................................................... 58

    2.1.2. London Chain ............................................................................................................. 60

    2.1.3. Autres méthodes déterministes ................................................................................ 61

    2.2. Changement de cadence ................................................................................................... 63

    2.2.1. Méthodes à tendance multiplicative ......................................................................... 63

    2.2.2. Facteurs et Loss Ratio ................................................................................................ 64

    3. Chapitre 3 : Application stochastique ........................................................................................ 65

    3.1. Méthodes de type Chain Ladder ....................................................................................... 65

    3.1.1. Mack .......................................................................................................................... 65

    3.1.2. Bootstrap ................................................................................................................... 68

    3.2. Poisson : un modèle GLM .................................................................................................. 70

    4. Chapitre 4 : Incertitude et nombres flous .................................................................................. 72

    4.1. Fuzzy Chain Ladder ............................................................................................................ 72

    4.2. Application à la régression floue ....................................................................................... 75

    4.3. Stochastique et ensembles flous ....................................................................................... 77

    5. Synthèse des résultats ................................................................................................................ 81

    Conclusion .................................................................................................... 84

    Annexes ........................................................................................................ 86

    Bibliographie ............................................................................................... 101

  • 6 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Introduction

    De nos jours, les compagnies d’assurance doivent faire face à tout type de risque.

    Afin des répondre aux engagements pris envers leurs assurés et être en mesure de pouvoir

    rembourser les sinistres futurs éventuels, ces compagnies constituent des provisions qui

    dépendent directement du risque couvert : les provisions pour sinistres à payer.

    Sous la directive Solvabilité I, les provisions à constituer représentent un matelas financier

    qui permet de faire face aux différents risques. Cependant, le calcul effectué ne reflète pas

    en totalité le risque et cela peut amener à une erreur de provisionnement. En outre, du fait

    de la nature aléatoire de l’assurance, les provisions constituées ne représentent pas un

    montant certain, une étude rigoureuse du risque encouru est donc nécessaire pour

    quantifier l’incertitude présente dans l’estimation. Ainsi, l’arrivée des nouvelles normes de

    Solvabilité II impose à ces sociétés d’assurance plus de rigueur dans le calcul des provisions,

    on parle maintenant de meilleure estimation de la provision ou Best Estimate.

    Ce mémoire propose l’évaluation des méthodes les plus usitées dans l’estimation des

    provisions pour sinistres à payer et tente de déterminer l’incertitude présente dans ces

    estimations qui pourrait engendrait un risque de sur-/sous-provisionnement. L’objectif ici est

    de déterminer la méthode la plus pratique et la plus fiable pour estimer les provisions.

    Nous introduirons donc en premier lieu les normes de Solvabilité II et situerons ainsi le

    contexte qui a conduit au calcul des Best Estimate. Puis, nous présenterons alors les

    méthodes classiques de calcul, à savoir les méthodes déterministes et stochastiques.

    Ensuite, nous introduirons un concept encore rarement utilisé dans le cadre de l’estimation

    des provisions : l’application des ensembles flous. Enfin, une application pratique sur un

    portefeuille de sinistres en soins de Santé sera proposée pour tester les méthodes

    présentées et évaluer leurs limites.

  • 7 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Partie I : La Théorie

    Il est nécessaire pour les Sociétés d’assurance et les Mutuelles de se prémunir contre

    des événements imprévus dans le but de protéger les assurés et bénéficiaires des contrats

    qu’elles proposent. En effet, ces sociétés offrent non seulement des protections contre des

    aléas de la vie à leurs assurés mais véhiculent aussi leur épargne vers les marchés financiers.

    La solvabilité est définie comme étant la capacité d’un organisme assureur à faire face à ses

    engagements. Les normes de Solvabilité existent depuis longtemps déjà. Elles ont été

    instaurées dans les années 1970 afin de mettre en place un référentiel réglementaire des

    assureurs au sein de la Communauté Européenne. Le rôle principal des normes de solvabilité

    est de protéger la clientèle des organismes d’assurance. Pour cela, des règles strictes sont

    imposées à l’assureur sur le provisionnement de ses engagements, la composition de l’actif

    en représentation de ces engagements et le montant minimum de capital requis.

    Dans cette partie, nous présenterons tout d’abord le contexte de Solvabilité II qui a amené

    au calcul de Best Estimate. Puis nous étudierons le cas particulier de l’estimation des

    provisions pour sinistres à payer ainsi que les méthodes les plus fréquemment utilisées dans

    le cadre de cette estimation.

  • 8 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    1. Chapitre 1 : Solvabilité II

    Les normes de Solvabilité sont en constante évolution depuis leur création. En 2002,

    une directive appelée Solvabilité I est adoptée. Reprenant les règles de solvabilité établies

    les années précédentes, cette directive définit les ratios de solvabilité des organismes

    assureurs de l’Union Européenne. Cependant, malgré la volonté de réformer les exigences

    en matière de solvabilité, la directive Solvabilité I présente encore des défauts :

    certains risques réels ne sont pas valorisés, voire ignorés :

    le risque de crédit

    les nouveaux risques dits « dangereux » apparus depuis le début du

    millénaire (terrorisme)

    les risques inhérents aux placements ;

    la corrélation entre les risques n’est pas suffisamment prise en compte ;

    les exigences minimales fixées en matière de fonds propres sont insuffisantes,

    obligeant ainsi les différents membres de l’Union Européenne à établir des règles

    supplémentaires, propres à chacun, et empêchant l’harmonisation du marché au

    niveau européen.

    Au vu des problèmes que pose la directive Solvabilité I, un nouvel examen a été imposé et la

    Commission de l’Union Européenne a ratifié le projet Solvabilité II en avril 2009. Cette norme

    est toujours en vigueur actuellement, et évolue avec de nouvelles mesures encore

    aujourd’hui. Les objectifs premiers de ce projet sont :

    d’améliorer la protection des consommateurs d’assurance : la directive

    Solvabilité II doit assurer le niveau de protection des assurés dans toute l’Union

    Européenne et, de ce fait, renforcer la confiance des consommateurs dans les

    produits d’assurance ;

    de renforcer et moderniser l’évaluation des risques : les normes doivent

    permettre une meilleure appréciation des risques (risque de défaut, risque de

    crédit, risque de rachat, etc.) ;

    d’avancer une meilleure transparence de la part des organismes d’assurance ;

    d’approfondir l’intégration du marché européen de l’assurance : grâce à

    l’harmonisation des règles et pratiques prudentielles ;

    d’accroître la compétitivité internationale des assureurs européens.

  • 9 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Les nouvelles normes de solvabilité, introduites dans le projet Solvabilité II, s’organisent

    schématiquement autour de trois piliers, reprenant l’approche faite dans l’Accord Bâle II.

    Toutefois, il faut appréhender ici l’ensemble des risques d’une compagnie et ne pas

    considérer uniquement les risques individuels, comme c’est le cas au niveau des normes

    Bâle II pour le système bancaire. Par ailleurs, l’objectif principal de l’Accord Bâle II est de

    renforcer la stabilité du système bancaire international, objectif qui diffère totalement de

    celui du projet Solvabilité II : protéger l’assuré.

    Dans le cadre du projet Solvabilité II, le premier pilier définit les normes quantitatives, le

    second les normes qualitatives et le troisième pilier détaille les informations destinées au

    public et surtout aux autorités de contrôle.

    1.1. Pilier 1

    Le premier pilier du projet Solvabilité II décrit les exigences en capital. En effet, il

    s’articule de façon semblable au premier pilier des normes de l’Accord Bâle II. Ce pilier

    détermine les seuils d’exigence en fonds propres et définit le calcul des provisions

    techniques. L’exigence en fonds propres est évaluée sous deux niveaux : le Minimum Capital

    Requirement ( ) et le Solvency Capital Requirement ( ). Chacun de ces deux niveaux

    est imposé aux organismes d’assurance.

    Le ou Minimum Capital Requirement est le plancher au-dessous duquel un organisme

    d’assurance ne peut descendre sous peine d’intervention des autorités de contrôle. En effet,

    si ses fonds propres franchissent le seuil défini au niveau du MCR, cet organisme pourra se

    voir refuser la possibilité d’exercer son activité d’assurance.

    Le ou Solvency Capital Requirement est le montant minimum qu’un assureur doit

    détenir afin d’être en capacité d’absorber les pertes engendrées par un événement

    exceptionnel ou une sinistralité imprévue significative. Ce montant doit permettre de couvrir

    l’ensemble des risques auxquels un organisme d’assurance est confronté. Il correspond

    généralement au montant de capital requis pour faire face aux engagements à un horizon

    d’un an, avec une probabilité de 99,5% (cette probabilité reflète le niveau de confiance

    attribué à la couverture, c’est une Value-at-Risk). Le peut se calculer de différentes

    manières :

    utiliser la Formule Standard ;

    mettre en place un modèle interne validé par les autorités de contrôle ;

    combiner ces deux méthodes selon le risque encouru.

    Le SCR doit être supérieur au MCR.

  • 10 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Plusieurs études encadrées ont été menées dans le but de mesurer l’impact de la mise en

    place de Solvabilité II sur les assureurs et, par la suite, de déterminer les besoins en fonds

    propres : ce sont des Etudes Quantitatives d’Impact (QIS). Il en résulte une estimation des

    calculs du MCR et du SCR suivante :

    1.1.1. Calculs des MCR et SCR

    D’une part, le MCR, définissant le niveau de capital minimum requis pour un assureur,

    s’exprime en fonction d’un plancher absolu : l’AMCR. Ce plancher est établi par type

    d’assureur (Vie, Non-vie, mixte ou réassureur).

    Avec : { }

    Le est apprécié en fonction des primes et provisions pour les garanties vie et

    non-vie.

    D’autre part, le SCR est le niveau de capital souhaitable. Il peut s’évaluer à partir de trois

    méthodes différentes :

    la formule standard ;

    la formule standard simplifiée (pour les petits assureurs) ;

    le modèle interne (qui peut être partiel).

    Le BSCR (SCR de base) est fonction des risques suivants:

    Risque de marché

    Risque de défaut de contrepartie

    Risque de souscription (Vie, Santé et Non-vie)

    Risque sur les actifs incorporels

    Risque opérationnel

    Chaque risque est estimé selon une formule qui lui est propre. Le BSCR a une structure

    complexe, fondée sur des matrices de corrélation des risques.

    La formule standard du SCR est :

    type d'assureur AMCR

    Vie 3 700 k€

    Non-Vie 2 500 k€

    Mixte 6 200 k€

    Réassureur 3 600 k€

    Figure 1 : Planchers minimums du MCR selon la branche d’assurance

  • 11 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Le Opérationnel correspond au risque de perte résultant de procédures internes, de

    membres du personnel ou de systèmes inadéquats ou défaillants ou d'événements

    extérieurs. Les ajustements permettent de prendre en compte la capacité d’absorption des

    provisions techniques et des impôts différés.

    Plus de précisions sont apportées quant au calcul du en annexe A.

    1.1.2. Bilan sous Solvabilité II

    Comme en normes Solvabilité I, chaque société d’assurance doit constituer un bilan

    comptable sous Solvabilité II, on parle alors de bilan « prudentiel ». Le bilan reflète en effet

    l’état financier de la société. On retrouve en figure 2 les principaux éléments constitutifs du

    bilan selon les normes Solvabilité II.

    Selon le bilan « prudentiel », on distingue deux types de risque : réplicables et non

    réplicables. Un risque est dit réplicable quand on peut constituer un portefeuille d’actif qui

    verse des flux parfaitement identiques. C’est alors un actif financier que l’on peut acheter.

    L’actif au bilan s’apprécie en valeur de marché. Nous nous intéressons plus particulièrement

    ici à l’estimation des risques non réplicables, à savoir les provisions techniques en « Best

    Estimate ».

    Figure 2 : Comparaison des bilans selon les normes Solvabilité I et Solvabilité II

  • 12 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    1.2. Pilier 2

    Le pilier 2 détermine le processus de contrôle prudentiel. Ce pilier fixe les critères

    qualitatifs concernant la maîtrise des risques et impose aux compagnies et autres

    organismes d’assurance d’établir un système de gouvernance performant (Enterprise Risk

    Management ou ERM). Ce système de gouvernance comprend la mise en œuvre de l’Own

    Risk and Solvency Assessment (ORSA). L’ORSA est un ensemble de procédures permettant

    d’identifier et de contrôler les risques encourus par un assureur. Sur la base du SCR calculé

    au niveau du pilier 1, l’ORSA évalue si le besoin en capital est suffisant pour l’entreprise afin

    d’en assurer la solvabilité. Cette évaluation prend en compte les stratégies de

    développement. Le système de gouvernance et de gestion des risques rend également

    possible la présence d’un modèle interne : si le modèle est jugé valable et efficace par

    l’autorité de contrôle, le superviseur chargé de la gestion des risques de la compagnie peut

    autoriser l’utilisation de ce modèle pour mesurer le SCR.

    1.3. Pilier 3

    Le dernier pilier de la directive Solvabilité II concerne la publication des différentes

    informations liées au fonctionnement et au contrôle de l’organisme assureur. Cette diffusion

    d’information a pour but d’améliorer la transparence des entreprises. Le pilier 3 inclut aussi

    la nécessité d’un reporting auprès des autorités de contrôle (cf. figure 3). L’ensemble des

    informations communiquées doit comporter la présentation des exigences en matière de

    solvabilité ou encore le bilan prudentiel. En effet, les rapports remis doivent non seulement

    intégrer les profils des risques auxquels l’assureur est confronté, mais aussi la performance

    financière de cet assureur. Par ailleurs, la qualité des données fournies est un critère

    indispensable : ces informations vont permettre aux autorités en charge de la supervision

    d’apprécier au mieux la situation de l’assureur et d’agir en conséquence.

  • 13 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Selon le pilier 3, deux nouveaux rapports seront ainsi à produire et vont remplacer les

    rapports de Solvabilité et de contrôle interne :

    Solvency Financial Condition Report : ce rapport est à destination du public. Il

    fait état des activités et résultats de l’assureur à un instant donné. Dans ce

    rapport apparaît une vision rétrospective de ces activités.

    Regular Supervisory Report : ce rapport concerne des éléments confidentiels

    et plus détaillés présentant une vision prospective des activités de l’assureur.

    Le projet Solvabilité II doit permettre ainsi un meilleur suivi de l’activité d’un assureur. En

    France, l’autorité compétente qui supervise l’ensemble des travaux sur ce projet et veille au

    respect des normes définies est l’Autorité de Contrôle Prudentiel et de Résolution (ACPR).

    L’ACPR publie en outre les documents relatifs à l’entreprise, en conformité avec le pilier 3.

    Le projet Solvabilité II incite, de fait, à revoir le mode de calcul des provisions techniques.

    Toutefois avant d’effectuer les calculs de provisionnement, il est nécessaire de disposer de

    données fiables et en adéquation avec les nouvelles normes. La préparation des données est

    donc une étape importante en matière de provisionnement pour les assureurs.

    Rapport à l’autorité de contrôle(Regular Supervisory Report ou RSR)

    Art. 35(1)

    Toute information réservée à l’autorité de contrôle

    - Rapport qualitatif- Etats quantitatifs (Quantitative reporting

    templates ou QRT)

    Rapport sur la solvabilité et la situation financière

    (Solvency and Financial Condition Report ou SFCR)Art. 51

    Information transmise au public

    - Rapport qualitatif- Etats quantitatifs (QRT)

    Art. 35(2)(a) (ii) et Art. 54(1) - en cas d’événements prédéfinis (information àl’autorité), ou en cas d’événement majeur dont non-couverture du SCR ou MCRaprès un délai (information au public)

    INFORMATION A FOURNIR A L’AUTORITE DE CONTROLE

    Reporting régulier et diffusion au public à des périodes prédéfinies

    Art. 35(2)(a) (iii) - en cas de demande lors d’enquêtes concernant un engagement(contrôles sur place, permanents, etc.)

    Figure 3 : Eléments constituant la publication des données selon le pilier 3 vu par l’EIOPA

  • 14 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    2. Chapitre 2 : Segmentation et Modélisation

    Les provisions techniques et, essentiellement, les estimations en « Best Estimate » sont

    les éléments principaux d’un bilan sous Solvabilité II. Comme on a pu le voir, ils permettent

    le calcul d’indicateurs tels que le afin d’apprécier les risques encourus. En outre, ces

    indicateurs sont définis par risque (cf. annexe A) et il faut donc rassembler les données

    nécessaires au calcul des provisions par type de risque. Ainsi, la segmentation consiste en

    l’identification de groupes de données partageant les mêmes caractéristiques. C’est une

    étape indispensable si l’on souhaite gagner en efficacité lors du calcul des provisions, et de

    gagner en précision.

    Bien des méthodes de segmentation existent, toutefois celle retenue est celle imposée par la

    directive Solvabilité II : la séparation par branche ou secteur d’activité.

    2.1. Lines of Business

    “(Re)insurance undertakings should segment (re)insurance obligations into

    homogenous risk groups when calculating technical provisions. […]Therefore it is appropriate

    for each undertaking to define the homogenous risk group and the level of granularity most

    appropriate for their business.”

    CEIOPS’ Advice for Level 2 Implementing Measures on Solvency II:

    Technical Provisions -Lines of business on the basis of which (re)insurance

    obligations are to be segmented

    Le projet Solvabilité II exige que les provisions techniques soient segmentées sous forme de

    « Lines of Business ». Cette répartition par branche permet une évaluation fiable, précise et

    crédible des provisions techniques, calculées par Best Estimate. Le principe de substance sur

    la forme doit être respecté : les segments doivent refléter la nature des risques d’un contrat

    plutôt que la forme juridique dudit contrat. Les Lines of Business de la directive Solvabilité II

    correspondent au niveau minimum de segmentation imposé et sont au nombre de 28 :

    16 Lines of Business en Assurance vie ;

    12 Lines of Business en Assurance non-vie.

    Les Lines of Business utilisées en Mutualité sont explicitées ci-après. Pour rappel : la

    segmentation est le souhait de rassembler les données sous des groupes les plus homogènes

    possibles.

  • 15 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    2.1.1. Lines of Business en Assurance vie

    Pour les contrats en Assurance vie, une segmentation spécifique est prévue. Elle se déroule

    en deux étapes. On répartit tout d’abord les contrats en fonction de quatre secteurs :

    Les contrats mentionnant des clauses de participation aux bénéfices ;

    Les contrats dits en unité de compte ;

    Les autres contrats d’assurance vie ;

    La réassurance vie.

    Une fois que la première segmentation est réalisée, une nouvelle répartition est effectuée,

    au sein de chacun des groupes créés. Quatre sous-catégories sont ainsi obtenues :

    Les contrats dont le risque majeur est le décès ;

    Les contrats dont le risque majeur est la survie de l’assuré (ou de ses

    bénéficiaires) ;

    Les contrats dont le risque majeur est l’invalidité ou la morbidité ;

    Les contrats d’épargne.

    2.1.2. Lines of Business en Assurance non-vie

    Les Lines of Business en Assurance non-vie sont, quant à elles, prédéfinies en douze

    catégories. Elles traduisent un niveau de granularité spécifique (finesse de la segmentation).

    En Mutualité et en Assurance de personnes, on peut trouver les catégories suivantes :

    Workers’ Compensation (Compensation activité professionnelle) ;

    Medical Expenses (Dépenses médicales) ;

    Income Protection (maintien de salaire) ;

    Legal Expenses (protection juridique);

    Assistance ;

    Miscellaneous non-life insurance (assurances non-vie diverses).

    Les catégories ci-après ne concernent pas les mutuelles (relevant du Code de la Mutualité) :

    Motor vehicle liability (assurance des véhicules motorisés) ;

    Other motor (autres dommages véhicules motorisés) ;

    Marine, aviation and transport ;

  • 16 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Fire and other damage to property (dommages à la propriété dus au feu, autres

    incidents) ;

    General liability (responsabilité civile) ;

    Credit and suretyship (assurance-crédit et caution).

    Les provisions techniques seront ainsi évaluées pour chacune des Lines of Business

    présentées ci-dessus.

    De plus, il faut noter que les engagements en Santé sont répartis à la fois en vie et en non-

    vie :

    Health SLT (SLT signifiant Similar to Life Techniques) pour l’assurance vie

    Health Non-SLT pour l’assurance non-vie (en Santé : on aura « Dépenses médicales »

    ou encore « Compensation activité professionnelle »).

    Fréquemment, les contrats en assurance vie et non-vie garantissent des risques de natures

    différentes. Ces contrats doivent donc être segmentés selon les risques auxquels ils sont

    confrontés. Par exemple, un contrat dépendance proposant une garantie décès sera réparti

    sur plusieurs Lines of Business (la partie décès concernera une des catégories vie et les

    autres seront classées en Health Non-SLT). Les garanties Incapacité / Invalidité, explicitées

    par la suite, sont inclues à la fois en vie et en non-vie : tant que la personne assurée est en

    incapacité, on classe la garantie en « maintien de salaire » de la branche Health Non-SLT, et

    au passage à l’invalidité, la garantie est traitée en Health SLT. Néanmoins, il faut savoir qu’il

    n’est pas nécessaire de segmenter les contrats de cette manière si on peut déceler un seul

    risque significatif.

    Depuis la mise en place de la directive Solvabilité II, il est fortement recommandé, voire

    nécessaire, de segmenter le portefeuille selon une répartition par branche d’activité,

    appelées les Lines of Business. Une fois la segmentation achevée, l’objectif premier de la

    directive Solvabilité II peut être mené à bien : les provisions techniques pourront être

    estimées selon des méthodes spécifiques.

    2.2. Provisionnement

    L’un des principaux objectifs de la directive Solvabilité II est de déterminer les

    provisions techniques. Ces provisions sont appréciées en Best Estimate. En actuariat, le Best

    Estimate est la « meilleure moyenne » de tous les résultats possibles, en intégrant toutes les

  • 17 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    informations disponibles sur l’activité analysée. En effet, le terme de « Best » désignerait une

    estimation particulière meilleure que les autres. Toutefois, cette idée de « meilleur »

    estimateur est ambigüe, il faut la définir selon certains critères : un estimateur pourrait être

    perçu comme étant meilleur sous une norme et pas sous une autre.

    Selon le pilier 1 de Solvabilité II, le Best Estimate est la valeur actuelle probable des flux de

    trésorerie futurs. Cette valorisation en Best Estimate remplace la valorisation actuelle des

    provisions techniques. L’actualisation des flux est effectuée selon la courbe des taux sans

    risque adéquate (figure 4).

    Le calcul en Best Estimate est basé sur des informations actuelles crédibles et des

    hypothèses réalistes. Les flux futurs sont projetés et cette projection doit tenir compte à la

    fois des flux entrants et sortants. Ces flux sont appréciables par Line of Business. Ils sont

    présentés sous un historique de données fiables et suffisantes pour chacune des Lines of

    Business. Les données servant de base aux flux sont reparties sous trois catégories :

    Les Primes : historique des primes émises et acquises par exercice ;

    Les Sinistres : règlements de sinistres, charges de sinistres, recours encaissés, nombre

    de sinistres, coût moyen présenté sous forme de triangle de liquidation ;

    Les Frais : frais de gestion, frais d’administration, commissions.

    Le calcul du Best Estimate des provisions techniques est effectué par catégorie séparément.

    Par la suite, ce document s’attarde sur le développement des sinistres et de leurs

    règlements, et plus précisément sur le calcul des provisions pour sinistres à payer.

    Figure 4 : Courbe des taux des exercices 2010 à 2013 fournis par l’Institut des Actuaires

  • 18 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Un sinistre peut s’étaler dans le temps. En effet, il n’est pas rare de constater qu’un sinistre

    est réglé sur plusieurs années. Lors du calcul des provisions techniques, il est nécessaire de

    disposer de toute l’information sur le règlement du sinistre : tout sinistre entraîne un

    premier règlement, qui apparaît pendant la première année du sinistre appelée l’année

    d’origine ou de survenance. Par la suite, les autres règlements vont suivre et s’étaler sur les

    prochaines années, caractérisées comme années de développement. Cette observation

    individuelle des sinistres permet d’élargir la vision que l’on a sur l’évolution des paiements :

    le descriptif des paiements s’établit pour chaque année, ce qui permet l’utilisation

    d’informations détaillées.

    L’ensemble des règlements de sinistres sont rassemblés dans des triangles de paiements,

    également appelés triangles de développement. Ces triangles sont en fait des tableaux (ou

    matrices) à double entrée, les lignes des tableaux décrivent les années d’origine des

    sinistres, et les colonnes sont associées aux années de développement. Cependant, on ne

    connaît qu’une partie du tableau. En effet, l’information répertoriée pour les années

    futures est inconnue: si on note l’année d’origine , l’année de développement et l’année

    d’exercice , année au cours de laquelle le calcul des provisions est effectué, les données en

    { } sont inconnues. L’objet du provisionnement est d’ailleurs l’estimation des

    montants futurs.

    En général, le nombre d’années de développement est identique au nombre d’années

    d’origine (le calcul se fait à l’aide de matrices carrées), mais cela n’est pas toujours le cas. Le

    tableau ci-dessous (figure 5) présente un triangle de paiements classique :

    Avec les paiements, pour des sinistres réglés pour la première fois durant

    l’année d’origine apparus pendant l’année de développement .

    Remarque : Les sont des variables aléatoires.

    Figure 5 : Présentation classique d’un triangle de paiements

  • 19 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Toutefois, il est plus courant de disposer des triangles de paiements cumulés lors de

    l’estimation des provisions techniques. On note alors l’ensemble des

    paiements cumulés tels que ∑

    (cf. figure 6).

    Remarque : On parle d’année d’origine et d’année de développement. Cependant, il est

    tout à fait possible, voire même indispensable en fonction du risque suivi,

    d’établir les triangles de paiements à partir de montants mensuels ou

    trimestriels.

    Le provisionnement consiste ainsi à estimer les flux futurs et à évaluer les cadences de

    paiement. De nombreuses méthodes existent pour calculer ces flux et se regroupent en deux

    grandes catégories :

    Méthodes déterministes ;

    Méthodes stochastiques.

    Par la suite, on présente les méthodes souvent mises en place dans le cadre de l’estimation

    des provisions pour sinistres à payer.

    2.2.1. Méthodes déterministes

    Les méthodes déterministes sont des méthodes de provisionnement permettant l’estimation

    du montant total de provisions. Ces techniques n’utilisent toutefois aucune hypothèse quant

    à l’incertitude associée à cette estimation. Une méthode déterministe reproduit la cadence

    de paiement à travers les flux futurs.

    2.2.1.1. La méthode de Chain Ladder

    Cette méthode est celle couramment utilisée dans le monde des assurances et existe depuis

    près d’un siècle. C’est un modèle de calcul de provisions simple à mettre en place.

    Figure 6 : Triangle de paiements cumulés

  • 20 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Soit une famille de variables aléatoires. Cette famille représente les

    paiements dans l’année de développement pour les sinistres de l’année d’origine . Les

    données telles que ne sont pas encore observables. On note les paiements

    cumulés de l’année de développement pour des sinistres survenus en année

    d’origine ∑

    .

    La première étape consiste à calculer des coefficients de développement représentant la

    variation moyenne entre l’année de développement et l’année { }. Ils

    sont estimés par les coefficients ̂ .

    ̂

    Ces coefficients de développement sont donc a priori constants pour toutes les années

    d’origines, ils ne dépendent que de l’année de développement.

    Les montants inconnus sont alors calculés tels que : ̂ ̂ ̂

    Avec { } { }.

    La provision totale estimée (aussi appelé réserve totale) est égale à :

    ̂ ∑ ̂

    Avec ̂ ̂ { } (et ).

    Il existe d’autres alternatives pour évaluer les coefficients de développement par ce modèle.

    On calcule tout d’abord les coefficients de passage pour chaque année d’origine, en gardant

    les mêmes notations que pour la formule standard :

    A partir de ces coefficients on peut déterminer les coefficients ̂ de différentes manières :

    la moyenne arithmétique : ̂

    la moyenne géométrique : ̂ (∏ )

  • 21 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    la médiane : ̂ { } ( )

    la pondération : ̂ ∑

    avec les poids souhaités

    Il en existe bien d’autres, toutefois, on ne modélisera dans ce document que celles

    présentées ci-dessus.

    2.2.1.2. Méthode de London Chain

    Cette méthode se base également sur les triangles de paiements cumulés. On introduit ici

    l’idée d’une linéarité entre et :

    Il faut ensuite estimer les paramètres et pour tous { }. Cela revient alors à

    minimiser la somme suivante (par la méthode des moindres carrés ordinaires) :

    Les estimateurs seront les suivants { } :

    ̂

    ∑ ̅ ̅

    ∑ ̅

    ̂ ̅ ̂ ̅

    Avec ̅

    et ̅

    , moyennes arithmétiques

    respectives de et .

    Et pour , on prend le dernier coefficient pour l’année d’origine (car sinon

    ̂

    ) :

    ̂

    ̂

  • 22 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Par ailleurs, on peut appliquer cette méthode de minimisation, dite de moindres carrés, pour

    la méthode de Chain Ladder, en posant . On retrouve bien ̂ ̂ ̂ . Il est

    toutefois à noter que les coefficients seront différents de la formule vue en amont :

    ̂

    { }

    2.2.1.3. Méthode de Bornhuetter-Ferguson

    Cette méthode est dite de Loss ratio. Le Loss ratio est un taux de sinistralité : c’est la

    proportion entre le montant des sinistres et celui des primes encaissées. Cette méthode

    bénéficie d’informations supplémentaires par rapport aux autres méthodes déterministes :

    on connaît le montant de primes pour chaque année d’origine .

    On calcule le Loss ratio :

    pour { } ; et le Loss ratio ultime :

    On peut, en outre, remarquer que les coefficients de développement basés sur les Loss Ratio

    sont les mêmes que pour les autres méthodes déterministes.

    Il existe plusieurs techniques de Loss Ratio (simple, complémentaire etc.). Néanmoins, on

    s’intéresse ici à la méthode dite de Bornhuetter-Ferguson. Il s’agit ici de fixer un Loss ratio

    cible pour chaque année d’origine, dans le but d’estimer les provisions du modèle.

    On note tout d’abord la cadence de règlement en

    .

    Ainsi on peut alors en déduire ̂ ̂

    On cherche à calculer le montant de provisionnement ̂ ∑ ̂ (avec ̂ ̂

    { } .

    Pour cela, Il nous faut estimer la charge ultime , qui correspond au montant de paiement

    cumulé ultime , et les cadences de règlements On peut par exemple déterminer

    ̂ en appliquant l’une des méthodes déterministes vues ci-dessus. On obtient également

    la charge ultime initiale ̂ , grâce au montant des primes émises, qui est connu, et du Loss

    ratio cible : ̂

    A l’aide de ces estimations, on pourra alors établir les montants de provisions :

  • 23 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    ̂ ̂ ̂ ̂

    ̂ ̂ ̂

    { }.

    On retrouve deux charges ultimes : l’une a priori ( ̂ ) et l’autre a posteriori ( ̂ ).

    2.2.1.4. Méthode de De Vylder

    La méthode de De Vylder fait partie des modèles dits « à facteur ». Ici, il ne s’agit plus

    d’utiliser les triangles de paiement cumulés mais directement les triangles de paiement. On

    dispose toujours des années de développement et d’origine , et on introduit également

    l’année calendaire . On peut écrire les montants de paiement non cumulés

    comme le produit des trois facteurs suivants :

    le facteur correspondant à l’année d’origine ;

    le facteur de l’année de développement ;

    le facteur de l’année calendaire .

    Le facteur de l’année calendaire est en général utilisé pour représenter l’inflation. La

    méthode de De Vylder pose (pas d’inflation). Dans le cas présent, on aura alors :

    On fait de plus l’hypothèse que ∑ . De cette façon, on peut avoir ∑

    .

    On estime à présent les paramètres et par la méthode de moindres carrés (comme

    pour London Chain) :

    ̂ ∑

    ̂ ∑

    Et on en déduit à nouveau :

    ̂ ̂ ∑ ̂ ∑ ̂ ̂

    Il faut toutefois initialiser les calculs pour pouvoir utiliser cette méthode, en fixant . Le

    choix de la valeur initiale influence le couple de paramètres ̂ ̂ puisque ces paramètres

    dépendent l’un de l’autre. Il s’agira ensuite de réitérer le processus d’estimation des

    paramètres, jusqu’à convergence desdits paramètres.

  • 24 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    2.2.1.5. Conclusion

    La plupart des méthodes déterministes sont des modèles simples à mettre en place dans le

    cadre de l’estimation des provisions. Cependant, on a pu constater que ces méthodes

    s’appuient essentiellement sur les montants de paiements observés, étant donné qu’elles

    reposent sur la cadence des paiements. Par ailleurs, ces modèles affichent des provisions

    techniques appréciées sans réserve vis-à-vis de la volatilité présente dans l’estimation et

    sont évaluées de façon certaine. Or, la nouvelle directive Solvabilité II impose le calcul de

    Best Estimate, il est donc essentiel de mettre en place des modèles tenant compte de l’aléa

    associé à l’estimation de la provision totale.

    2.2.2. Méthodes stochastiques

    Les modèles déterministes ne permettent pas d’évaluer et de quantifier l’incertitude dans

    les résultats obtenus en provisionnement. Toutefois, on peut mettre en place des méthodes

    dites stochastiques pour résoudre ce problème. Les méthodes stochastiques supposent que

    les variables à modéliser possèdent une composante aléatoire, on associe alors à ces

    variables aléatoires une loi de probabilité. Ces méthodes de provisionnement permettent de

    construire des intervalles de confiance des résidus, et plus particulièrement des provisions,

    facilitant l’étude de la volatilité des résultats obtenus.

    L’incertitude présente dans l’estimation de la provision peut être représentée par l’erreur

    quadratique moyenne. Si l’on pose la valeur réelle de la provision et ̂ son estimation, on

    peut définir l’erreur quadratique moyenne de prédiction comme étant la distance entre

    ces deux valeurs. On sait de plus que , soit { } ,

    l’ensemble des données connues :

    ( ̂ ) (( ̂ ) | ) (( ̂ )

    | )

    Donc ( ̂ ) ( ̂ ).

    Il suffit donc de déterminer l’erreur quadratique au niveau de la charge ultime pour avoir

    l’erreur quadratique de la provision. Par ailleurs, on utilise le plus souvent l’erreur de

    prédiction, correspondant à la racine carrée de l’erreur quadratique moyenne.

    L’un des premiers modèles stochastiques à avoir été instauré et répondant aux critères

    évoqués ci-dessus, est le modèle de Mack.

  • 25 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    2.2.2.1. Le Modèle de Mack

    Cette méthode a été créée afin de faire correspondre un modèle stochastique au modèle de

    Chain Ladder, pour pouvoir estimer les erreurs du modèle. Ce modèle est appliqué sur les

    montants de paiement cumulés . On reprend les mêmes notations que pour les

    méthodes déterministes concernant les coefficients de développement et les montants de

    paiement. Le modèle de Mack repose sur trois hypothèses :

    Les exercices d’origine sont indépendants :

    { }

    L’espérance conditionnelle s’écrit :

    ( |

    ⇔ ( | { }

    La variance conditionnelle est définie par :

    ( | { }

    Grâce à ces trois hypothèses, on peut déduire que les coefficients de développement que

    l’on estime sous la méthode de Chain Ladder sont sans biais et non corrélés car :

    On reprend D l’ensemble de l’information du triangle des montants cumulés,

    {

    ( ̂ ) ( ( ̂ | )) ( (

    )) (∑ ( )

    ) (∑

    )

    ( ̂ ̂ ) ( ( ̂ ̂ | )) ( ̂ ( ̂ | )) ( ̂ ) ( ̂ ) ( ̂ ) ( ̂ )

    Il est nécessaire de vérifier la véracité de ces hypothèses. Pour cela, il suffit d’étudier

    l’existence d’une relation linéaire entre les montants et . On peut également

    étudier le graphe des résidus pour vérifier le caractère aléatoire des variables (

    √ ).

    On a en outre : ( | ) , en posant à

    nouveau comme l’information du triangle des montants cumulés. On peut facilement

    déduire une estimation de la provision. Cet estimateur ̂ ̂ est sans biais.

    Par ailleurs, les coefficients estimés par la méthode de Chain Ladder sont de variance

    minimale si :

    (

    | )

    { }

  • 26 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    On a l’estimation des coefficients ̂ , il reste à présent à estimer les coefficients de la

    variance ̂ { } et l’erreur quadratique moyenne de ̂ { } :

    ̂

    ∑ (

    ̂ )

    ( ̂ ) ̂ ∑

    ̂

    ̂ (

    ̂

    )

    Et l’erreur quadratique du montant total ̂, en supposant que ̂ ∑ ̂ :

    ( ̂) ∑[ ( ̂ ) ̂ ( ∑ ̂

    ) ∑ ( ̂

    ̂ ⁄

    )

    ]

    Remarque : Cette expression est développée en annexe B.

    Grâce à l’ensemble de ces données, il est facile de construire un intervalle de confiance pour

    les montants de provisions. En supposant que ces montants suivent une loi normale, et en

    considérant le quantile d’ordre d’une loi normale , on peut écrire les

    intervalles suivants { } :

    [ ̂ √ ( ̂ ) ̂ √ ( ̂ )]

    [ ̂ √ ( ̂) ̂ √ ( ̂)]

    L’hypothèse faite sur la distribution des provisions repose le plus souvent sur la structure des

    risques étudiés. On préférera la loi normale pour modéliser un risque présent sur une courte

    durée alors qu’un risque se manifestant sur le long terme suivra une loi log-normale.

    2.2.2.2. Les modèles linéaires généralisés

    Ces modèles sont une généralisation du type de modèle proposé par Mack. Dans ces

    modèles, on suppose que les montants , définis comme étant les paiements non

    cumulés, sont distribués selon une certaine loi, qui dépend de trois paramètres du triangle

    des paiements : l’année d’origine , l’année de développement et l’année calendaire .

    Les modèles linéaires généralisés (ou GLM) sont en fait une extension des modèles linéaires

  • 27 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    simples qui reposaient principalement sur une loi normale. Les GLM s’appuient sur trois

    composantes :

    La composante aléatoire ;

    La composante déterministe ;

    La fonction lien.

    La composante aléatoire du modèle concerne les hypothèses faites sur les montants de

    paiements non cumulés . On suppose que la loi suivie par ces variables aléatoires est du

    type exponentiel :

    ( ) { ( )

    ⁄ ( )}

    Avec

    et sont des fonctions définies à l’avance, selon la distribution souhaitée (loi

    normale, loi de Poisson, etc.), telles que soit deux fois dérivable à valeurs dans et

    à valeurs dans ;

    est un paramètre dit « naturel » en lien avec la moyenne des ;

    est un paramètre de dispersion en lien avec la variance des ( ) ;

    permet la pondération des données (que l’on pourra poser égal à 1).

    Remarque : On utilise parfois une fonction de dispersion en lieu de l’expression

    « ⁄ » dans la densité ( ( ) { ( )

    ( )}).

    Cette modification permet d’introduire plus de finesse au modèle.

    .

    Il faut supposer de plus, que les paiements sont indépendants. Dans ce

    cas, on peut exprimer la moyenne et la variance des variables aléatoires comme suit :

    ( ) ( )

    ( ) ( ) ( )

    Avec la fonction variance telle que ( ) ( ) (

    ( )).

    La composante déterministe, également appelée composante systématique, est une

    variable permettant de faire intervenir les variables explicatives du modèle. On parle de

  • 28 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    prédicteur du modèle. Lorsque l’on utilise un modèle GLM pour calculer des provisions

    techniques, ce prédicteur (score) est en règle générale :

    additif ou linéaire : { }

    multiplicatif : { }

    Avec , est la variable explicative de l’année d’origine , celle de l’année de

    développement et celle de l’année calendaire

    Remarque : La composante déterministe est une combinaison linéaire des variables

    explicatives.

    La fonction lien représente la relation entre la composante aléatoire et la composante

    déterministe. La fonction de lien est une fonction inversible, strictement monotone et

    dérivable :

    ( ( )) ( )

    Il existe de nombreuses fonctions de lien. On choisit la fonction de lien en fonction du type

    de variable à expliquer, c’est-à-dire en fonction de la loi de (qui permet de

    déterminer ). La table ci-après (figure 7) présente les lois utilisées fréquemment.

    Entre autres, l’un des premiers modèles GLM à avoir été mis en place est le modèle de

    Poisson développé par Renshaw et Verrall (1998) [6]. Le modèle poissonnien suppose que la

    somme des montants de paiements de chaque année de développement est positive

    ∑ { }.

    Il est de plus supposé que les variables aléatoires suivent une loi de Poisson :

    ( ) { }

    Remarque : Le paramètre d’une loi de Poisson correspond à son espérance et sa variance

    (le paramètre de dispersion ).

    fonction loi fonction variance

    fonction identité g(µ)= µ Normale V(µ)= 1

    fonction réciproque g(µ)=-1/ µ Gamma V(µ)= µ²

    fonction logarithme g(µ)= ln(µ) Poisson V(µ)= µ

    fonction logit g(µ)= ln(µ/(1-µ)) Binomiale ou Bernoulli V(µ)= µ(1-µ)

    Figure 7 : Lois de probabilité principalement utilisées et fonctions de liens associées

  • 29 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    La composante déterministe est ici linéaire ( { }) et la

    fonction de lien est la fonction logarithme. On a ainsi :

    ( ) ⇔ { }

    Afin d’estimer les paramètres , la méthode du maximum de vraisemblance peut être

    appliquée. C’est une méthode classique consistant à optimiser la probabilité d’obtenir les

    données observées. Pour cela il faut maximiser la densité de probabilité jointe du modèle,

    aussi appelée fonction de vraisemblance.

    Les estimations ̂ ̂ et ̂ peuvent conduire au calcul d’un intervalle de confiance pour

    chacun des paramètres .

    Après avoir obtenu l’estimateur ̂ (et son intervalle de confiance), qui résulte de ̂ ̂ et ̂ ,

    la provision totale est estimée comme suit :

    ( ̂ ) ∑ ̂

    ∑ ̂ ̂ ̂

    { }

    ( ̂) ∑ ( ̂ )

    Remarque : Pour ce modèle, la variance des variables aléatoires est égale à leur espérance.

    Le modèle de Poisson sur-dispersé permet de supprimer cette contrainte. Soit

    ⇔ ⁄ et ;

    La moyenne et la variance sont maintenant connues. Il est possible de déterminer un

    intervalle de confiance pour les variables aléatoires , qui permettra de donner une région

    de confiance pour la provision totale.

    2.2.2.3. Le Bootstrap

    C’est une méthode de provisionnement non paramétrique. Cette technique met en avant

    l'estimateur des provisions. Elle consiste à reproduire un échantillon initial par tirage

    aléatoire. La répétition de cet échantillon va permettre des analyses sur la variabilité des

    montants de sinistres. Le Bootstrap permet l’estimation des provisions sans avoir besoin de

    déterminer les valeurs statistiques comme la variance, qui sont difficiles à obtenir

    explicitement. Comme pour toutes les méthodes stochastiques, il est possible de construire

    un intervalle de confiance de la provision totale.

  • 30 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Les étapes du modèle sont énumérées ci-après.

    Détermination du triangle de paiements prédit à partir de celui observé

    Durant cette étape, il suffit en fait de calculer les coefficients de développement selon une

    méthode déterministe telle celle de Chain-Ladder. Il faut ensuite appliquer la technique du

    « backward engineering » qui consiste à prédire les montants des triangles cumulés à partir

    des dernières valeurs observables (éléments de la dernière diagonale) :

    avec { }.

    Calcul des Résidus de Pearson

    L’étape suivante consiste à calculer ce que l’on appelle les résidus de Pearson. Ces résidus

    sont d’espérance nulle. Soient les données du triangle de paiements observé et ̂ les

    valeurs estimées du triangle prédit, on aura ainsi pour les Résidus :

    ̂

    ̂

    √ ̂

    Ré-échantillonnage du triangle de résidus de Pearson

    A partir du triangle des résidus, il faut effectuer un échantillonnage répété. En effet, le

    triangle des résidus va servir de base à la création de nouveaux triangles de résidus,

    étant le nombre de simulations souhaitées. Un tirage aléatoire avec (ou sans) remise est

    effectué sur les données du triangle de résidus et permet la création d’un nouveau triangle.

    Les données du triangle initial sont alors permutées. Le tirage se fait généralement sous une

    loi uniforme.

    Calcul des triangles de paiements et de montants cumulés à partir des nouveaux

    résidus

    Les triangles de paiements sont calculés à partir des échantillons déterminés à l’étape

    précédente. Il suffit d’inverser la formule des résidus pour obtenir les triangles de paiements

    estimés :

    ̂ ̂ √ ̂ ̂

  • 31 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Il est maintenant facile de déterminer les triangles de paiements cumulés qui seront la base

    du provisionnement.

    Application de la méthode déterministe utilisée dans la première étape

    La méthode déterministe utilisée pour le « backward engineering » est reprise à cette étape

    sur chacun des échantillons de triangles de montants cumulés. Les provisions globales à

    effectuer pour chacun des triangles sont calculées comme suit :

    Avec i Є {1,…, n}.

    est le vecteur des provisions globales pour les échantillons.

    Etude statistique sur les échantillons nouvellement créés

    On va maintenant pouvoir étudier ces échantillons de provisions. Il est ici intéressant de faire

    apparaître la moyenne des provisions, l’écart-type, et l’intervalle de confiance.

    Figure 8 : Schéma récapitulatif du Bootstrap

  • 32 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    La méthode du Bootstrap donne une distribution de la loi des provisions et pas uniquement

    une moyenne ou une valeur certaine.

    2.2.2.4. Conclusion

    Les méthodes stochastiques sont des modèles de provisionnement permettant de mesurer

    la volatilité des provisions estimées. Grâce à ces méthodes, il est possible de construire des

    intervalles de confiance par l’étude de la distribution de la provision. L’utilisation des

    modèles stochastiques est justifiée par le besoin d’appréciation d’un Best Estimate sous la

    directive Solvabilité II : sous cette directive, l’incertitude calculée doit être la plus faible

    possible, il est alors indispensable de mettre en place un modèle qui réduise cette

    incertitude le plus possible.

  • 33 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Partie II : Evaluer

    l’incertitude

    Les méthodes conventionnelles présentées dans les chapitres précédents

    comportent un certain degré d’incertitude qui rend parfois ces méthodes inappropriées pour

    le calcul des provisions mathématiques. Les méthodes déterministes, basées sur des

    analyses statistiques, peuvent être biaisées par des facteurs externes, amplifiant

    l’incertitude des estimations de provisions. En outre, même les modèles stochastiques sont

    exposés aux imprécisions, notamment par le biais des intervalles de confiance que ne

    permettent pas d’évaluer complètement l’incertitude du calcul des provisions. De ce fait, les

    résultats exprimés dans ces différentes méthodes sont parfois non fiables. Par ailleurs, une

    erreur dans le calcul des provisions peut augmenter le risque de faillite de l’entreprise, ou du

    moins accroître le risque d’un déficit financier.

    Il est donc nécessaire de quantifier avec précision cette incertitude. Récemment, plusieurs

    études menées sur les ensembles flous (Andrés Sánchez et Terceño Gómez (2003) [24]) ont

    permis l’évaluation de l’incertitude dans les calculs des provisions mathématiques.

    Après une introduction aux ensembles flous, nous étudierons l’application de ces ensembles

    aux méthodes de calcul des provisions pour sinistres à payer. Nous verrons tout d’abord

    l’adaptation de la méthode de Chain Ladder aux ensembles flous, puis nous étudierons les

    méthodes de régression floue, avec notamment la mise en place de la combinaison entre les

    ensembles flous et la méthode London Chain.

  • 34 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    1. Chapitre 1 : Les ensembles flous

    La théorie des ensembles flous est une notion introduite en 1965 par le scientifique

    azéri Lotfi Zadeh [11] en réponse à l’inadaptation de la théorie des ensembles classiques aux

    notions vagues rencontrées dans de nombreux domaines scientifiques. C’est une

    généralisation de la théorie des ensembles classiques. En fait, la théorie des ensembles

    classiques n’est qu’un sous-ensemble de la théorie des ensembles flous.

    Dans la théorie des ensembles classiques, il n’y a que deux situations possibles pour un

    élément : appartenir ou ne pas appartenir à un ensemble. Toutefois, en réalité, due à

    l’insuffisance des connaissances ou à l’imprécision des données, il n’est pas toujours évident

    de déterminer si un élément appartient ou non à un ensemble. La notion développée dans la

    théorie des ensembles flous permet une appartenance « pondérée » d’un élément à

    plusieurs ensembles considérés comme exclusifs en théorie des ensembles classiques. La

    théorie des ensembles flous rend alors possible la prise en compte des imprécisions et

    incertitudes. Ainsi, dans un sous-ensemble flou, une condition peut sortir de la logique

    booléenne : elle n’est pas dans l’absolu soit vraie soit fausse.

    Soit un ensemble non vide. Un sous-ensemble flou ̃ de est caractérisé par sa fonction

    d’appartenance :

    ̃ [ ]

    ̃ représente le degré d’appartenance de l’élément au sous-ensemble ̃ , pour

    tout . La fonction est comparable à la fonction caractéristique dans la théorie des

    ensembles classiques.

    Ainsi pour appartenant à , on aura ̃ si n’appartient pas à ̃, ̃ si

    appartient partiellement à ̃ et ̃ si appartient à ̃. Le sous-ensemble ̃ est

    déterminé par : ̃ {( ̃ )| }

    Par ailleurs, si l’ensemble est un ensemble fini tel que { }, on notera

    ̃ ⁄ ⁄ avec la fonction d’appartenance se rapportant à l’élément ,

    Prenons l’exemple de la fonction d’appartenance représentant l’appréciation « bon

    marché » d’un produit. Cette opinion concernant le prix du produit peut s’étaler sur

  • 35 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    plusieurs valeurs et dépendre de la qualité de vie de la personne qualifiant le produit de

    « bon marché ». De fait, une voiture peut être considérée comme « bon marché » pour un

    prix inférieur à 2 000 €. Puis cette définition « bon marché » diminuera avec l’augmentation

    du prix. On peut ainsi obtenir la fonction d’appartenance de la condition « bon marché » en

    figure 9 :

    Lorsque les ensembles flous représentent des concepts linguistiques, comme la qualité

    « bon marché » dans l’exemple ci-avant, ces ensembles sont appelées variables

    linguistiques. Un des intérêts de la logique floue pour formaliser le raisonnement humain est

    que les règles sont énoncées en langage naturel.

    La forme mathématique de la fonction d’appartenance et ses paramètres sont choisis

    arbitrairement à dires d’experts ou en réalisant des études statistiques. Les fonctions

    d’appartenance sont généralement simples et sont fréquemment linéaires. Il est néanmoins

    nécessaire que ces fonctions soient cohérentes avec la représentation conceptuelle que l’on

    en a : le degré de certitude calculé par la fonction d’appartenance d’un élément considéré

    comme « élevé » ne doit pas être inférieur au degré de certitude d’un élément « faible ». En

    reprenant la notion de « bon marché », il n’est pas envisageable que le degré de certitude

    équivalent à un prix de 12 000 € soit supérieur au degré de certitude équivalent à un prix de

    2 000 €.

    Enfin, les ensembles classiques étant des sous-ensembles d’ensembles flous, on peut

    observer que, si l’ensemble ̃ est classique alors sa fonction d’appartenance est une

    indicatrice :

    ̃ { ̃

    ̃

    Figure 9 : Exemple de fonction d’appartenance de la qualité « bon marché » d’une voiture

  • 36 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    1.1. Définitions importantes

    Les définitions suivantes présentent les caractéristiques usuelles des ensembles flous.

    La hauteur d’un sous-ensemble flou ̃ de l’ensemble correspond à la borne supérieure

    de ̃, on la note généralement ( ̃) : ( ̃) { ̃ }

    Le sous-ensemble ̃ est normalisé si et seulement si il existe un tel que ̃ .

    ̃ est donc normalisé si et seulement si ( ̃) . En pratique, il est extrêmement rare de

    travailler sur des ensembles flous non normalisés.

    Le support du sous-ensemble ̃, noté ( ̃), est l’ensemble des éléments de dont

    l’appartenance à ̃ est non nulle : ( ̃) { ̃ }

    Le noyau de ̃ est défini comme étant l’ensemble des éléments appartenant totalement à

    ̃ : ( ̃) { ̃ }.

    Le cardinal du sous-ensemble flou est le nombre d’éléments appartenant à ̃ pondéré par

    leur degré d’appartenance : | ̃| ∑ ̃ dans le cas où ̃ est un sous-ensemble fini, et

    | ̃| ∫ ̃

    lorsque est continu.

    Une -coupe du sous-ensemble flou ̃ de , noté [ ̃]

    , est un sous-ensemble classique

    défini par :

    [ ̃] { ̃ } ] ]

    Prenons par exemple, l’ensemble fini { }. On définit le sous-

    ensemble flou ̃ ⁄ ⁄ ⁄ ⁄ ⁄ ⁄ ⁄

    [ ̃] {

    { } ] ] { } ] ]{ } ] ]

    L’ -coupe peut être interprétée comme un intervalle fermé :[ ̃] [ ̃ ̃ ] avec

    ̃ { ̃ } et ̃ { ̃ }

    Un ensemble flou ̃ est convexe si l’α-coupe [ ̃]

    est un sous-ensemble convexe de

    [ ] : [ ] ̃ ( ̃ ̃ )

  • 37 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    1.2. Exemples d’ensembles

    On rencontre de nombreux ensembles flous, toutefois, les ensembles les plus

    couramment utilisés sont les représentations triangulaires et trapézoïdales.

    1.2.1. Ensemble trapézoïdal

    Un ensemble flou trapézoïdal ̃ est composé de trois paramètres : l’intervalle de tolérance

    [ ] et les écarts et On notera l’ensemble trapézoïdal ̃ On parlera ici

    d’intervalle flou pour définir les ensembles flous trapézoïdaux. Soit appartenant à ̃, on dit

    que « appartient approximativement à l’intervalle [ ] ».

    Le support d’un ensemble flou trapézoïdal est l’intervalle [ ] et le noyau

    l’intervalle [ ] La fonction d’appartenance ̃ (cf. figure 10) est la suivante :

    ̃

    {

    L’α-coupe [ ̃] de cet ensemble trapézoïdal est de la forme :

    [ ̃] [ ] [ ]

    Noyau

    Figure 10 : Fonction d’appartenance classique d’un ensemble flou trapézoïdal

  • 38 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    1.2.2. Ensemble triangulaire

    A l’instar des ensembles flous trapézoïdaux, l’ensemble triangulaire est fréquemment utilisé

    et comporte là encore 3 paramètres : le centre ou mode , l’écart gauche et l’écart droit

    tels que . Un ensemble flou triangulaire peut être représenté de différentes

    manières. Par exemple, on peut écrire ̃ 〈 〉 Toutefois on préférera la

    notation ̃

    La fonction d’appartenance d’un ensemble flou triangulaire est continue et affine par

    morceaux et . Le noyau de l’ensemble est donc réduit au singleton { }.

    On peut aisément constater que le support d’un ensemble flou triangulaire est l’intervalle

    [ ]

    La fonction d’appartenance (cf. figure 11) est de la forme :

    {

    L’α-coupe [ ̃]

    de l’ensemble se détermine naturellement et se présente sous la forme de

    l’intervalle suivant :

    [ ̃] [ ̃ ̃ ] [ ] [ ]

    On ne parle plus d’intervalle flou mais de nombre flou. Ces nombres flous sont un cas

    particulier des intervalles flous : l’intervalle de tolérance est restreint à un singleton.

    Noyau

    Figure 11 : Fonction d’appartenance d’un ensemble flou triangulaire

  • 39 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Remarque : Les nombres flous font généralement référence à des sous-ensembles flous

    d’ensemble de nombres réels : ainsi les termes comme « proche de zéro »,

    « environ 100 » sont des nombres flous.

    Un nombre flou ̃ est dit « non-négatif » si et positif si . Lorsque les

    écarts sont nuls, le nombre flou ̃ est un nombre réel (cf. figure 12).

    1.3. Propriétés et opérations sur les ensembles

    Il est souvent nécessaire d’effectuer des sommes ou des produits de nombres connus

    de façon imprécise (si les sinistres relevés dans une année sont environ de quel est le

    montant approximatif à provisionner ?). Il faut alors passer les opérations arithmétiques

    classiques sur les nombres réels à des opérations similaires sur les ensembles flous.

    1.3.1. Propriétés classiques

    Soient ̃ et ̃ deux sous-ensembles flous de l’ensemble classique . Comme pour les

    ensembles classiques, ̃ et ̃ sont égaux si ̃ ̃ et ̃ ̃ . Et on aura ̃ ̃ si et

    seulement si ̃ ̃

    Le sous-ensemble flou vide d’un ensemble classique est aussi défini :

    A l’inverse, le plus grand sous-ensemble de , noté , est tel que Cet

    ensemble est appelé l’ensemble universel flou de .

    Soient ̃ et ̃ deux sous-ensembles flous de l’ensemble classique Les opérateurs union et

    intersection des deux ensembles sont définis par leurs fonctions d’appartenance :

    ̃ ̃ ( ̃ ̃ ) ̃ ̃ ( ̃ ̃ )

    Figure 12 : Comparaison de fonctions d’appartenance d’un nombre flou et d’un nombre réel

  • 40 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    En supposant que ̃ et ̃ sont deux nombres flous (sous-ensembles flous triangulaires), on

    peut observer l’union et l’intersection de manière graphique (figure 13) :

    Les propriétés de commutativité, distributivité et associativité sont également vérifiées pour

    les opérateurs flous.

    Par ailleurs, l’α-coupe de l’union (respectivement intersection) des ensembles flous sont

    définies comme étant l’union (respectivement intersection) des α-coupes : [ ̃ ̃]

    [ ̃] [ ̃] et [ ̃ ̃]

    [ ̃]

    [ ̃] .

    On définit aussi le complémentaire d’un ensemble flou ̃ noté ̃ tel que

    ̃ ̃ On a bien ( ̃) ̃ Cependant, l’ensemble

    complémentaire ne vérifie pas les propriétés de l’union et de l’intersection :

    ̃ ̃

    ̃ ̃

    Par exemple, soit ̃ l’ensemble flou de fonction d’appartenance ̃ :

    ̃ ̃ ( ̃ ̃ )

    ̃ ̃ ( ̃ ̃ )

    Un élément peut donc appartenir à un ensemble flou ̃ et à son complémentaire ̃

    Le complémentaire vérifie tout de même les relations de Morgan, à savoir :

    ( ̃ ̃) ( ̃) ( ̃) ( ̃ ̃) ( ̃) ( ̃)

    1.3.2. Principe d’extension

    Les opérations arithmétiques peuvent s’appliquer aux ensembles flous, selon le principe

    d’extension de Zadeh.

    Figure 13 : Union et intersection de deux ensembles flous

  • 41 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    Soient et deux ensembles classiques et une fonction de vers . Si ̃ est un sous-

    ensemble flou de , alors l’image de ̃ par est définie par :

    { ̃ { ̃ }

    Et par généralisation, on peut adapter ce principe pour calculer l’image de plusieurs sous-

    ensembles flous. En posant soient ̃ et ̃ deux sous-ensembles de :

    ̃ ̃ ̃ ̃{ ( ̃ ̃ ) | }

    On peut ainsi définir la somme et la multiplication de deux ensembles flous :

    ̃ ̃ ̃ ̃{ ( ̃ ̃ ) | }

    ̃ ̃ ̃ ̃{ ( ̃ ̃ ) | }

    Ces calculs arithmétiques sont particulièrement utiles dans le développement des nombres

    flous et des intervalles flous.

    En effet, prenons ̃ et ̃ , deux nombres flous positifs, la somme, la

    différence et le produit sont définis de la façon suivante :

    {

    ̃ ̃

    ̃ ̃

    ̃ ̃

    Il est de surcroit possible de calculer l’inverse d’un nombre flou, et donc le quotient de deux

    nombres flous.

    ̃⁄ (

    )

    Les résultats de ces opérations sont prouvés en annexe C.

    Exemple : Soient ̃ et ̃ deux nombres flous,

    ̃ ̃

    ̃ ̃

    ̃ ̃

    ̃ ̃⁄ (

    )

  • 42 M. BERGERON - Mémoire pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA - 2014

    On retrouve ci-dessous (figure 14) la représentation graphique de la somme et la de

    différence entre ̃ et ̃

    1.4. Espérances et incertitudes

    Pour déterminer les différentes mesures de probabilité comme l’espérance ou la

    variance, il est nécessaire de présenter la notion de « variable floue » et de sous-ensemble

    aléatoire flou. D’après Kwakernaak (1978) [13], une variable aléatoire floue est une vague

    perception d’une variable aléatoire réelle.

    Une variable aléatoire floue ̃ est une application d