39
1 Estimation des probabilités et quantiles extrêmes Stéphane Girard INRIA Rhône-Alpes, projet Mistis http ://mistis.inrialpes.fr/˜girard/dissemination.html janvier 2009

Stéphane Girard - mistis.inrialpes.frmistis.inrialpes.fr/people/girard/Fichiers/slidesM2R.pdf · 6 Rappel : Loi des valeurs extrêmes En pratique, P(X n,n ≤ x) ’ H γ x−a n

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

  • 1

    Estimation des probabilités et quantiles extrêmes

    Stéphane Girard

    INRIA Rhône-Alpes, projet Mistishttp ://mistis.inrialpes.fr/˜girard/dissemination.html

    janvier 2009

  • 2

    Estimation des probabilités et quantiles extrêmes

    1 En utilisant le théorème des valeurs extrêmes

    2 En utilisant le théorème de Pickands

    3 Approche semi-paramétrique

  • 3

    Estimation des probabilités et quantiles extrêmes

    1 En utilisant le théorème des valeurs extrêmes

    2 En utilisant le théorème de Pickands

    3 Approche semi-paramétrique

  • 4

    Rappel : théorème des valeurs extrêmes

    [Gnedenko, 43] Sous des conditions générales sur F , il existe troisparamètres an, bn et γ tels que :

    limn→∞

    P(

    Xn,n − anbn

    ≤ x)

    = Hγ(x),

    avec, si γ 6= 0,

    Hγ(x) = exp(−(1 + γx)−1/γ+

    )où y+ = max(0, y) et H0(x) = exp (−e−x) .

    Vocabulaire :Hγ est la loi des valeurs extrêmes (EVD),γ est l’indice des valeurs extrêmes.an et bn sont des paramètres de normalisation.

  • 5

    Illustration sur une loi normale

    −3 −2 −1 0 1 2 30.0

    0.1

    0.2

    0.3

    0.4

    0.5

    0.6

    0.7

    0.8

    0.9

    1.0

    Comparaison entre Hγ(x), P(

    Xn,n−anbn

    ≤ x)

    avec n = 10 et

    P(

    Xn,n−anbn

    ≤ x)

    avec n = 100

  • 6

    Rappel : Loi des valeurs extrêmes

    En pratique,

    P(Xn,n ≤ x) ' Hγ(

    x− anbn

    ),

    on a une loi à trois paramètres :an est un paramètre de position, jouant le rôle de E(X) dansle TCL,bn est un paramètre d’échelle, jouant le rôle de σ(X)/

    √n

    dans le TCL,γ un paramètre de forme, il n’a pas d’équivalent dans le TCL.

    On distingue 3 cas (donc 3 types de lois) :Si γ > 0, on dit que F appartient au domaine d’attraction deFréchet,si γ = 0, on dit que F appartient au domaine d’attraction deGumbel,si γ < 0, on dit que F appartient au domaine d’attraction deWeibull.

  • 7

    Rappel : Loi des valeurs extrêmes

    −4 −3 −2 −1 0 1 2 3 40.0

    0.1

    0.2

    0.3

    0.4

    0.5

    0.6

    0.7

    0.8

    0.9

    1.0

    Exemples de densités associées à la loi des valeurs extrêmes(γ = 0, γ = 1 et γ = −1).

  • 8

    Application à l’extrapolation

    Comme P(Xn,n ≤ x) = Fn(x), on déduit du théorème des valeursextrêmes une approximation de F (x) pour les grandes valeurs dex,

    F (x) = 1− F̄ (x) ' H1/nγ(

    x− anbn

    ),

    et en passant au logarithme

    log(1− F̄ (x)) ' 1n

    log Hγ

    (x− an

    bn

    ).

    Comme x est grand, F̄ (x) est petit, un développement limité au1er ordre de log(1 + u) donne donc

    F̄ (x) ' − 1n

    log Hγ

    (x− an

    bn

    ).

  • 9

    Application à l’extrapolation

    On a donc une approximation de la fonction de survie en queue :

    F̄ (x) ' 1n

    [1 + γ

    (x− an

    bn

    )]−1/γsi γ 6= 0

    ' 1n

    exp(−x− an

    bn

    )si γ = 0

    et de son inverse :

    F̄−1(p) ' an +bnγ

    [(np)−γ − 1

    ]si γ 6= 0

    ' an − bn log(np) si γ = 0.

  • 10

    Illustration sur une loi normale

    2.2 2.4 2.6 2.8 3.0 3.2 3.4 3.6 3.8 4.00.000

    0.002

    0.004

    0.006

    0.008

    0.010

    0.012

    Comparaison entre F̄ (x), 1n exp(−x−anbn

    )avec n = 10 et

    1n exp

    (−x−anbn

    )avec n = 100

  • 11

    Illustration sur une loi normale

    Ici on a utilisé les valeurs théoriques de an, bn et γ connues pour laloi normale centrée-réduite.

    Problème : Les paramètres an, bn et γ sont inconnus dans lapratique puisqu’on ne connait pas F , il faut les estimer.

  • 12

    Estimation des paramètres de la loi des valeursextrêmes

    On souhaite estimer les paramètres de la loi des valeurs extrêmesde fdr

    Hγ,a,b(x)def= Hγ

    (x− a

    b

    )= exp

    {−

    [1 + γ

    (x− a

    b

    )]−1/γ+

    }

    Deux difficultés :Il faut un échantillon de maxima (parfois difficiles à extrairedes données initiales, petit nombre d’observations utilisées).Les estimateurs du maximum de vraisemblance ne sont pasexplicites.

  • 13

    Estimateurs du maximum de vraisemblance

    Soit {Y1, . . . , Yk} un échantillon de k maxima indépendants tousde fdr Hγ,a,b.

    Cas particulier : γ est connu et γ = 0. Système de 2équations à 2 inconnues :

    k∑i=1

    exp(−Yi − a

    b

    )= k,

    k∑i=1

    Yi − ab

    (1− exp

    (−Yi − a

    b

    ))= k,

    Pas de solution explicite, méthodes numériques.Propriétés asymptotiques connues.

    Cas général : Le support de la loi dépend des paramètres,propriétés asymptotiques [Smith, 1985].

  • 14

    Estimateurs des moments pondérés

    [Hosking, Wallis, Wood, 1985]. On peut définir le moment pondéréd’ordre r par

    µr = E[Y Hrγ,a,b(Y )

    ].

    Cette quantité existe pour γ < 1 et est donnée par

    µr =1

    r + 1

    [a− b

    γ{1− (r + 1)γΓ(1− γ)}

    ],

    où Γ est la fonction définie par

    Γ(t) =∫ +∞

    0xt−1 exp(−x)dx.

  • 15

    Estimateurs des moments pondérés

    Pour calculer a, b et γ, trois moments pondérés suffisent :

    µ0 = a−b

    γ{1− Γ(1− γ)}

    2µ1 − µ0 = −b

    γ(1− 2γ)Γ(1− γ)

    3µ2 − µ02µ1 − µ0

    =1− 3γ

    1− 2γ.

    En inversant ces formules, on obtient (a, b, γ) en fonction de(µ0, µ1, µ2). Il reste à estimer ces trois moments.

  • 16

    Estimateurs des moments pondérés

    On remplace l’espérance par une moyenne empirique

    µr '1k

    k∑i=1

    YiHrγ,a,b(Yi) =

    1k

    k∑i=1

    Yi,kHrγ,a,b(Yi,k)

    en ordonnant les observations. On remplace Hγ,a,b par la fdrempirique :

    µr '1k

    k∑i=1

    Yi,kF̂rk (Yi,k) =

    1k

    k∑i=1

    Yi,k

    (i− 1

    k

    )r.

    On obtient alors un estimateur sous forme d’une combinaisonlinéaire :

    µ̂r =1k

    k∑i=1

    Yi,k

    (i− 1

    k

    )r.

  • 17

    Estimation des probabilités et quantiles extrêmes

    1 En utilisant le théorème des valeurs extrêmes

    2 En utilisant le théorème de Pickands

    3 Approche semi-paramétrique

  • 18

    Rappel : définition d’un excès

    Plutôt que de se focaliser sur le maximum, on étudie les valeursdépassant un seuil donné. L’excès Y de la variable X au dessusdu seuil u est défini par X − u quand X ≥ u.

    YY YY Y2

    3

    451

    i6 95 7 84321

    X i

    u

  • 19

    Fonction de survie d’un excès

    La fonction de survie F̄u d’un excès au dessus de u est donnéepour y > 0 par

    F̄u(y) = P(Y ≥ y)= P(X − u ≥ y|X ≥ u)

    =P(X ≥ u + y, X ≥ u)

    P(X ≥ u)

    =F̄ (u + y)

    F̄ (u)

    Lorsque le seuil est grand, on peut approcher cette quantité par lafonction de survie d’une loi de Pareto Généralisée (GPD).

  • 20

    Rappel : Loi de Pareto Généralisée

    Sa fonction de survie est donnée par

    Ḡγ,σ(y) =(1 + γ

    y

    σ

    )−1/γsi γ 6= 0,

    = exp(− y

    σ

    )sinon.

    Son ensemble de définition est R+ si γ ≥ 0 ou [0,−σ/γ[ si γ < 0.Elle dépend de deux paramètres :

    σ > 0 est un paramètre d’échelle,γ ∈ R est un paramètre de forme.

    Deux cas particuliers :γ = 0, loi exponentielle d’espérance σ,γ = −1, loi uniforme sur [0, σ].

  • 21

    Rappel : Théorème de Pickands

    [Pickands, 1975] Il y a équivalence entre la convergence en loi dumaximum vers une EVD et la convergence en loi d’un excès versune GPD :

    limn→∞

    P(

    Xn,n − anbn

    ≤ x)

    = Hγ(x),

    si et seulement si

    limu→xF

    supy∈[0,xF−u]

    |F̄u(y)− Ḡγ,σ(u)(y)| = 0.

    On remarque que le paramètre de forme γ est le même pourl’EVD et la GPD.

  • 22

    Application à l’extrapolation

    En utilisant le théorème de Pickands, on a, pour y ≥ 0,

    F̄u(y) =F̄ (u + y)

    F̄ (u)' Ḡγ,σ(y).

    Avec le changement de variable x = u + y on obtientl’approximation (valable pour x ≥ u) :

    F̄ (x) ' F̄ (u)Ḡγ,σ(x− u).

    Finalement, on introduit la probabilité α que X dépasse u,α = F̄ (u), d’où

    F̄ (x) ' αḠγ,σ(x− F̄−1(α)).

  • 23

    Application à l’extrapolation

    On a donc une approximation de la fonction de survie en queue :

    F̄ (x) ' α[1 + γ

    (x− F̄−1(α)

    σ

    )]−1/γsi γ 6= 0

    ' α exp(−x− F̄

    −1(α)σ

    )si γ = 0

    et de son inverse :

    F̄−1(p) ' F̄−1(α) + σγ

    [( pα

    )−γ− 1

    ]si γ 6= 0

    ' F̄−1(α)− σ log( p

    α

    )si γ = 0.

  • 24

    Comparaison avec l’approche EVD

    Les expressions sont les mêmes, il y a trois paramètres inconnus :l’indice des valeurs extrêmes γ,σ qui joue le rôle de bn dans l’approche EVD,F̄−1(α) qui joue le rôle de an dans l’approche EVD.

    Avantages :Il est plus facile d’avoir un échantillon d’excès que de maxima,F̄−1(α) est un quantile classique, facile à estimer parinversion de la fonction de survie empirique.En pratique : on choisit α = k/n, où k est le nombre d’excès,

    Il reste à estimer γ et σ.

  • 25

    Estimateurs du maximum de vraisemblance

    Soit {Y1, . . . , Yk} un échantillon de k excès indépendants tous defdr Gγ,σ.

    Cas particulier 1 : γ est connu et γ > 0. Une équation en σ :

    k∑i=1

    Yi − σγYi + σ

    = 0.

    Pas de solution explicite, méthodes numériques.Propriétés asymptotiques connues :

    √k

    σ̂k − σσ√

    2γ + 1L−→ N(0, 1)

  • 26

    Estimateurs du maximum de vraisemblance

    Cas particulier 2 : γ est connu et γ = −1. Le support de laloi dépend des paramètres. Estimateur explicite :

    σ̂k = maxi

    Yi

    Propriétés asymptotiques connues :

    kσ̂k − σ

    σ

    L−→ EV D

    Cas général :Le système de 2 équations à 2 inconnues se ramène à 1équation à 1 inconnue par un changement de variableastucieux.Propriétés asymptotiques : [Smith, 1985].

  • 27

    Estimateurs des moments pondérés

    [Hosking, Wallis, 1987]. On peut définir un autre type de momentpondéré d’ordre s par

    νs = E[Y Ḡsγ,σ(Y )

    ].

    Cette quantité existe pour γ < 1 et est donnée par

    νs =σ

    (s + 1)(s + 1− γ).

    Pour obtenir γ et σ, deux moments suffisent

    γ =4ν1 − ν02ν1 − ν0

    et σ =2ν1ν0

    ν0 − 2ν1,

    on estime ensuite ν0 et ν1 classiquement.

  • 28

    Estimation des probabilités et quantiles extrêmes

    1 En utilisant le théorème des valeurs extrêmes

    2 En utilisant le théorème de Pickands

    3 Approche semi-paramétrique

  • 29

    Modèle semi-paramétrique

    On se restreint au domaine d’attraction de Fréchet où l’on a lacaractérisation

    F̄ (x) = x−1/γ`(x),

    avec ` une fonction à variations lentes et γ > 0. Ce modèle defonction de survie comporte :

    une partie paramétrique x−1/γ ne dépendant que d’unparamètre réel (γ).une partie non-paramétrique `(x) sur laquelle on saitseulement que

    limu→∞

    `(tu)`(u)

    = 1,

    pour t > 1.

  • 30

    Application à l’extrapolation

    Pour t > 1,

    limu→∞

    F̄ (tu)F̄ (u)

    = t−1/γ(

    limu→∞

    `(tu)`(u)

    )= t−1/γ .

    On en déduit l’approximation

    F̄ (tu) ' F̄ (u)t−1/γ .

    En posant x = tu et α = F̄ (u), on a

    F̄ (x) ' α(

    x

    F̄−1(α)

    )−1/γF̄−1(p) ' F̄−1(α)

    ( pα

    )−γ,

    pour x > u ou de façon équivalente p ≤ α.

  • 31

    Application à l’extrapolation

    Remarques :Ces approximations sont des cas particuliers de l’approcheGPD avec σ = γF̄−1(α) ;F̄−1(α) s’estime comme nous l’avons déjà vu par une desobservations ordonnées.Il reste uniquement à estimer γ, en se basant encore sur

    F̄−1(p) ' F̄−1(α)( p

    α

    )−γ,

    que l’on peut réécrire

    log F̄−1(p)− log F̄−1(α) ' γ log(α/p).

  • 32

    Estimation semi-paramétrique de γ

    On choisit comme précédemment, α = k/n et on considèreplusieurs valeurs de p = i/n, i = 1, . . . , k − 1. (on doit avoirp < α). On obtient :

    log F̄−1(i/n)− log F̄−1(k/n) ' γ log(k/i),

    et en estimant les fonctions de survies par leurs équivalentsempiriques,

    log Xn−i+1,n − log Xn−k+1,n ' γ log(k/i).

    Il est possible de vérifier graphiquement cette approximation.

  • 33

    Estimation semi-paramétrique de γ

    Simulation de n = 500 réalisations d’une loi de Student à 2 degrésde liberté (γ = 1/2). On a choisi k = 100.

    0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.00.0

    0.5

    1.0

    1.5

    2.0

    2.5

    3.0

    3.5

    En abscisse : log(k/i). En ordonnée : y = x/2 etlog Xn−i+1,n − log Xn−k+1,n pour i = 1, . . . , k − 1.

  • 34

    Estimation semi-paramétrique de γ

    En sommant de part et d’autre sur i = 1, . . . , k − 1, on obtient

    γ '

    k−1∑i=1

    log Xn−i+1,n − log Xn−k+1,n

    k−1∑i=1

    log(k/i)

    Le dénominateur se réécrit log[kk−1/(k − 1)!], en utilisant laformule de Stirling,

    m! ∼√

    2πmm+1/2e−m

    il est équivalent à k au voisinage de l’infini. On obtientl’Estimateur de Hill

    γ̂(k) =1k

    k−1∑i=1

    (log Xn−i+1,n − log Xn−k+1,n),

    [Hill, 1975].

  • 35

    Comportement de l’estimateur de Hill

    Trois simulations de n = 500 réalisations d’une loi de Student à 2degrés de liberté (γ = 1/2).

    0 20 40 60 80 100 120 140 160 180 2000.0

    0.2

    0.4

    0.6

    0.8

    1.0

    1.2

    1.4

    En abscisse : k. En ordonnée : γ̂(k) pour k = 1, . . . , 200.

  • 36

    En pratique ...

    Le choix de k est difficile :Si k est petit, γ̂(k) utilise peu d’observations, il a alors unegrande variance.Si k est grand, le seuil estimé Xn−k+1,n est petit, on sort dela zône où la fonction de survie est approximativement unepuissance, γ̂(k) a alors un grand biais.

  • 37

    Bibliographie

    Livres de référence :P. Embrechts, P., C. Klüppelberg, and T. Mikosch (1997),Modelling extremal events, Springer.

    M. Falk, J. Hüsler and R. Reiss (2004), Laws of smallnumbers : Extremes and rare events, 2nd edition, Birkhäuser.

    R. Reiss and M. Thomas (2001), Statistical analysis ofextreme values, Birkhäuser, Basel.

    N. Bingham, C. Goldie and J. Teugels (1987), Regularvariation, Encyclopedia of Mathematics and its Applications,27, Cambridge University Press.

  • 38

    Bibliographie

    Article fondateur :B. Gnedenko (1943), Sur la distribution limite du termemaximum d’une série aléatoire, The annals of Mathematics,2nd Ser., 44, 423–453.

    Moments pondérés :J.R.M. Hosking, J.R. Wallis and E.F. Wood (1985),Estimation of the Generalized Extreme-Value distribution bythe method of probability-weighted moments, Technometrics,27, 251–261.

    J.R.M. Hosking and J.R. Wallis (1987), Parameter andquantile estimation for the Generalized Pareto Distribution,Technometrics, 29, 1339–1349.

  • 39

    Bibliographie

    Premier estimateur de l’indice des valeurs extrêmes :B.M. Hill (1975), A simple general approach to inferenceabout the tail of a distribution, The Annals of Statistics, 3,1163–1174.

    Comportement théorique du maximum de vraisemblance :R. Smith (1985), Maximum likelihood estimation in a class ofnon regular cases, Biometrika, 72, 67–90.

    Estimation des probabilités et quantiles extrêmesEn utilisant le théorème des valeurs extrêmesEn utilisant le théorème de PickandsApproche semi-paramétrique