Upload
others
View
1
Download
0
Embed Size (px)
Citation preview
1
Estimation des probabilités et quantiles extrêmes
Stéphane Girard
INRIA Rhône-Alpes, projet Mistishttp ://mistis.inrialpes.fr/˜girard/dissemination.html
janvier 2009
2
Estimation des probabilités et quantiles extrêmes
1 En utilisant le théorème des valeurs extrêmes
2 En utilisant le théorème de Pickands
3 Approche semi-paramétrique
3
Estimation des probabilités et quantiles extrêmes
1 En utilisant le théorème des valeurs extrêmes
2 En utilisant le théorème de Pickands
3 Approche semi-paramétrique
4
Rappel : théorème des valeurs extrêmes
[Gnedenko, 43] Sous des conditions générales sur F , il existe troisparamètres an, bn et γ tels que :
limn→∞
P(
Xn,n − anbn
≤ x)
= Hγ(x),
avec, si γ 6= 0,
Hγ(x) = exp(−(1 + γx)−1/γ+
)où y+ = max(0, y) et H0(x) = exp (−e−x) .
Vocabulaire :Hγ est la loi des valeurs extrêmes (EVD),γ est l’indice des valeurs extrêmes.an et bn sont des paramètres de normalisation.
5
Illustration sur une loi normale
−3 −2 −1 0 1 2 30.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
Comparaison entre Hγ(x), P(
Xn,n−anbn
≤ x)
avec n = 10 et
P(
Xn,n−anbn
≤ x)
avec n = 100
6
Rappel : Loi des valeurs extrêmes
En pratique,
P(Xn,n ≤ x) ' Hγ(
x− anbn
),
on a une loi à trois paramètres :an est un paramètre de position, jouant le rôle de E(X) dansle TCL,bn est un paramètre d’échelle, jouant le rôle de σ(X)/
√n
dans le TCL,γ un paramètre de forme, il n’a pas d’équivalent dans le TCL.
On distingue 3 cas (donc 3 types de lois) :Si γ > 0, on dit que F appartient au domaine d’attraction deFréchet,si γ = 0, on dit que F appartient au domaine d’attraction deGumbel,si γ < 0, on dit que F appartient au domaine d’attraction deWeibull.
7
Rappel : Loi des valeurs extrêmes
−4 −3 −2 −1 0 1 2 3 40.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
Exemples de densités associées à la loi des valeurs extrêmes(γ = 0, γ = 1 et γ = −1).
8
Application à l’extrapolation
Comme P(Xn,n ≤ x) = Fn(x), on déduit du théorème des valeursextrêmes une approximation de F (x) pour les grandes valeurs dex,
F (x) = 1− F̄ (x) ' H1/nγ(
x− anbn
),
et en passant au logarithme
log(1− F̄ (x)) ' 1n
log Hγ
(x− an
bn
).
Comme x est grand, F̄ (x) est petit, un développement limité au1er ordre de log(1 + u) donne donc
F̄ (x) ' − 1n
log Hγ
(x− an
bn
).
9
Application à l’extrapolation
On a donc une approximation de la fonction de survie en queue :
F̄ (x) ' 1n
[1 + γ
(x− an
bn
)]−1/γsi γ 6= 0
' 1n
exp(−x− an
bn
)si γ = 0
et de son inverse :
F̄−1(p) ' an +bnγ
[(np)−γ − 1
]si γ 6= 0
' an − bn log(np) si γ = 0.
10
Illustration sur une loi normale
2.2 2.4 2.6 2.8 3.0 3.2 3.4 3.6 3.8 4.00.000
0.002
0.004
0.006
0.008
0.010
0.012
Comparaison entre F̄ (x), 1n exp(−x−anbn
)avec n = 10 et
1n exp
(−x−anbn
)avec n = 100
11
Illustration sur une loi normale
Ici on a utilisé les valeurs théoriques de an, bn et γ connues pour laloi normale centrée-réduite.
Problème : Les paramètres an, bn et γ sont inconnus dans lapratique puisqu’on ne connait pas F , il faut les estimer.
12
Estimation des paramètres de la loi des valeursextrêmes
On souhaite estimer les paramètres de la loi des valeurs extrêmesde fdr
Hγ,a,b(x)def= Hγ
(x− a
b
)= exp
{−
[1 + γ
(x− a
b
)]−1/γ+
}
Deux difficultés :Il faut un échantillon de maxima (parfois difficiles à extrairedes données initiales, petit nombre d’observations utilisées).Les estimateurs du maximum de vraisemblance ne sont pasexplicites.
13
Estimateurs du maximum de vraisemblance
Soit {Y1, . . . , Yk} un échantillon de k maxima indépendants tousde fdr Hγ,a,b.
Cas particulier : γ est connu et γ = 0. Système de 2équations à 2 inconnues :
k∑i=1
exp(−Yi − a
b
)= k,
k∑i=1
Yi − ab
(1− exp
(−Yi − a
b
))= k,
Pas de solution explicite, méthodes numériques.Propriétés asymptotiques connues.
Cas général : Le support de la loi dépend des paramètres,propriétés asymptotiques [Smith, 1985].
14
Estimateurs des moments pondérés
[Hosking, Wallis, Wood, 1985]. On peut définir le moment pondéréd’ordre r par
µr = E[Y Hrγ,a,b(Y )
].
Cette quantité existe pour γ < 1 et est donnée par
µr =1
r + 1
[a− b
γ{1− (r + 1)γΓ(1− γ)}
],
où Γ est la fonction définie par
Γ(t) =∫ +∞
0xt−1 exp(−x)dx.
15
Estimateurs des moments pondérés
Pour calculer a, b et γ, trois moments pondérés suffisent :
µ0 = a−b
γ{1− Γ(1− γ)}
2µ1 − µ0 = −b
γ(1− 2γ)Γ(1− γ)
3µ2 − µ02µ1 − µ0
=1− 3γ
1− 2γ.
En inversant ces formules, on obtient (a, b, γ) en fonction de(µ0, µ1, µ2). Il reste à estimer ces trois moments.
16
Estimateurs des moments pondérés
On remplace l’espérance par une moyenne empirique
µr '1k
k∑i=1
YiHrγ,a,b(Yi) =
1k
k∑i=1
Yi,kHrγ,a,b(Yi,k)
en ordonnant les observations. On remplace Hγ,a,b par la fdrempirique :
µr '1k
k∑i=1
Yi,kF̂rk (Yi,k) =
1k
k∑i=1
Yi,k
(i− 1
k
)r.
On obtient alors un estimateur sous forme d’une combinaisonlinéaire :
µ̂r =1k
k∑i=1
Yi,k
(i− 1
k
)r.
17
Estimation des probabilités et quantiles extrêmes
1 En utilisant le théorème des valeurs extrêmes
2 En utilisant le théorème de Pickands
3 Approche semi-paramétrique
18
Rappel : définition d’un excès
Plutôt que de se focaliser sur le maximum, on étudie les valeursdépassant un seuil donné. L’excès Y de la variable X au dessusdu seuil u est défini par X − u quand X ≥ u.
YY YY Y2
3
451
i6 95 7 84321
X i
u
19
Fonction de survie d’un excès
La fonction de survie F̄u d’un excès au dessus de u est donnéepour y > 0 par
F̄u(y) = P(Y ≥ y)= P(X − u ≥ y|X ≥ u)
=P(X ≥ u + y, X ≥ u)
P(X ≥ u)
=F̄ (u + y)
F̄ (u)
Lorsque le seuil est grand, on peut approcher cette quantité par lafonction de survie d’une loi de Pareto Généralisée (GPD).
20
Rappel : Loi de Pareto Généralisée
Sa fonction de survie est donnée par
Ḡγ,σ(y) =(1 + γ
y
σ
)−1/γsi γ 6= 0,
= exp(− y
σ
)sinon.
Son ensemble de définition est R+ si γ ≥ 0 ou [0,−σ/γ[ si γ < 0.Elle dépend de deux paramètres :
σ > 0 est un paramètre d’échelle,γ ∈ R est un paramètre de forme.
Deux cas particuliers :γ = 0, loi exponentielle d’espérance σ,γ = −1, loi uniforme sur [0, σ].
21
Rappel : Théorème de Pickands
[Pickands, 1975] Il y a équivalence entre la convergence en loi dumaximum vers une EVD et la convergence en loi d’un excès versune GPD :
limn→∞
P(
Xn,n − anbn
≤ x)
= Hγ(x),
si et seulement si
limu→xF
supy∈[0,xF−u]
|F̄u(y)− Ḡγ,σ(u)(y)| = 0.
On remarque que le paramètre de forme γ est le même pourl’EVD et la GPD.
22
Application à l’extrapolation
En utilisant le théorème de Pickands, on a, pour y ≥ 0,
F̄u(y) =F̄ (u + y)
F̄ (u)' Ḡγ,σ(y).
Avec le changement de variable x = u + y on obtientl’approximation (valable pour x ≥ u) :
F̄ (x) ' F̄ (u)Ḡγ,σ(x− u).
Finalement, on introduit la probabilité α que X dépasse u,α = F̄ (u), d’où
F̄ (x) ' αḠγ,σ(x− F̄−1(α)).
23
Application à l’extrapolation
On a donc une approximation de la fonction de survie en queue :
F̄ (x) ' α[1 + γ
(x− F̄−1(α)
σ
)]−1/γsi γ 6= 0
' α exp(−x− F̄
−1(α)σ
)si γ = 0
et de son inverse :
F̄−1(p) ' F̄−1(α) + σγ
[( pα
)−γ− 1
]si γ 6= 0
' F̄−1(α)− σ log( p
α
)si γ = 0.
24
Comparaison avec l’approche EVD
Les expressions sont les mêmes, il y a trois paramètres inconnus :l’indice des valeurs extrêmes γ,σ qui joue le rôle de bn dans l’approche EVD,F̄−1(α) qui joue le rôle de an dans l’approche EVD.
Avantages :Il est plus facile d’avoir un échantillon d’excès que de maxima,F̄−1(α) est un quantile classique, facile à estimer parinversion de la fonction de survie empirique.En pratique : on choisit α = k/n, où k est le nombre d’excès,
Il reste à estimer γ et σ.
25
Estimateurs du maximum de vraisemblance
Soit {Y1, . . . , Yk} un échantillon de k excès indépendants tous defdr Gγ,σ.
Cas particulier 1 : γ est connu et γ > 0. Une équation en σ :
k∑i=1
Yi − σγYi + σ
= 0.
Pas de solution explicite, méthodes numériques.Propriétés asymptotiques connues :
√k
σ̂k − σσ√
2γ + 1L−→ N(0, 1)
26
Estimateurs du maximum de vraisemblance
Cas particulier 2 : γ est connu et γ = −1. Le support de laloi dépend des paramètres. Estimateur explicite :
σ̂k = maxi
Yi
Propriétés asymptotiques connues :
kσ̂k − σ
σ
L−→ EV D
Cas général :Le système de 2 équations à 2 inconnues se ramène à 1équation à 1 inconnue par un changement de variableastucieux.Propriétés asymptotiques : [Smith, 1985].
27
Estimateurs des moments pondérés
[Hosking, Wallis, 1987]. On peut définir un autre type de momentpondéré d’ordre s par
νs = E[Y Ḡsγ,σ(Y )
].
Cette quantité existe pour γ < 1 et est donnée par
νs =σ
(s + 1)(s + 1− γ).
Pour obtenir γ et σ, deux moments suffisent
γ =4ν1 − ν02ν1 − ν0
et σ =2ν1ν0
ν0 − 2ν1,
on estime ensuite ν0 et ν1 classiquement.
28
Estimation des probabilités et quantiles extrêmes
1 En utilisant le théorème des valeurs extrêmes
2 En utilisant le théorème de Pickands
3 Approche semi-paramétrique
29
Modèle semi-paramétrique
On se restreint au domaine d’attraction de Fréchet où l’on a lacaractérisation
F̄ (x) = x−1/γ`(x),
avec ` une fonction à variations lentes et γ > 0. Ce modèle defonction de survie comporte :
une partie paramétrique x−1/γ ne dépendant que d’unparamètre réel (γ).une partie non-paramétrique `(x) sur laquelle on saitseulement que
limu→∞
`(tu)`(u)
= 1,
pour t > 1.
30
Application à l’extrapolation
Pour t > 1,
limu→∞
F̄ (tu)F̄ (u)
= t−1/γ(
limu→∞
`(tu)`(u)
)= t−1/γ .
On en déduit l’approximation
F̄ (tu) ' F̄ (u)t−1/γ .
En posant x = tu et α = F̄ (u), on a
F̄ (x) ' α(
x
F̄−1(α)
)−1/γF̄−1(p) ' F̄−1(α)
( pα
)−γ,
pour x > u ou de façon équivalente p ≤ α.
31
Application à l’extrapolation
Remarques :Ces approximations sont des cas particuliers de l’approcheGPD avec σ = γF̄−1(α) ;F̄−1(α) s’estime comme nous l’avons déjà vu par une desobservations ordonnées.Il reste uniquement à estimer γ, en se basant encore sur
F̄−1(p) ' F̄−1(α)( p
α
)−γ,
que l’on peut réécrire
log F̄−1(p)− log F̄−1(α) ' γ log(α/p).
32
Estimation semi-paramétrique de γ
On choisit comme précédemment, α = k/n et on considèreplusieurs valeurs de p = i/n, i = 1, . . . , k − 1. (on doit avoirp < α). On obtient :
log F̄−1(i/n)− log F̄−1(k/n) ' γ log(k/i),
et en estimant les fonctions de survies par leurs équivalentsempiriques,
log Xn−i+1,n − log Xn−k+1,n ' γ log(k/i).
Il est possible de vérifier graphiquement cette approximation.
33
Estimation semi-paramétrique de γ
Simulation de n = 500 réalisations d’une loi de Student à 2 degrésde liberté (γ = 1/2). On a choisi k = 100.
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.00.0
0.5
1.0
1.5
2.0
2.5
3.0
3.5
En abscisse : log(k/i). En ordonnée : y = x/2 etlog Xn−i+1,n − log Xn−k+1,n pour i = 1, . . . , k − 1.
34
Estimation semi-paramétrique de γ
En sommant de part et d’autre sur i = 1, . . . , k − 1, on obtient
γ '
k−1∑i=1
log Xn−i+1,n − log Xn−k+1,n
k−1∑i=1
log(k/i)
Le dénominateur se réécrit log[kk−1/(k − 1)!], en utilisant laformule de Stirling,
m! ∼√
2πmm+1/2e−m
il est équivalent à k au voisinage de l’infini. On obtientl’Estimateur de Hill
γ̂(k) =1k
k−1∑i=1
(log Xn−i+1,n − log Xn−k+1,n),
[Hill, 1975].
35
Comportement de l’estimateur de Hill
Trois simulations de n = 500 réalisations d’une loi de Student à 2degrés de liberté (γ = 1/2).
0 20 40 60 80 100 120 140 160 180 2000.0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
En abscisse : k. En ordonnée : γ̂(k) pour k = 1, . . . , 200.
36
En pratique ...
Le choix de k est difficile :Si k est petit, γ̂(k) utilise peu d’observations, il a alors unegrande variance.Si k est grand, le seuil estimé Xn−k+1,n est petit, on sort dela zône où la fonction de survie est approximativement unepuissance, γ̂(k) a alors un grand biais.
37
Bibliographie
Livres de référence :P. Embrechts, P., C. Klüppelberg, and T. Mikosch (1997),Modelling extremal events, Springer.
M. Falk, J. Hüsler and R. Reiss (2004), Laws of smallnumbers : Extremes and rare events, 2nd edition, Birkhäuser.
R. Reiss and M. Thomas (2001), Statistical analysis ofextreme values, Birkhäuser, Basel.
N. Bingham, C. Goldie and J. Teugels (1987), Regularvariation, Encyclopedia of Mathematics and its Applications,27, Cambridge University Press.
38
Bibliographie
Article fondateur :B. Gnedenko (1943), Sur la distribution limite du termemaximum d’une série aléatoire, The annals of Mathematics,2nd Ser., 44, 423–453.
Moments pondérés :J.R.M. Hosking, J.R. Wallis and E.F. Wood (1985),Estimation of the Generalized Extreme-Value distribution bythe method of probability-weighted moments, Technometrics,27, 251–261.
J.R.M. Hosking and J.R. Wallis (1987), Parameter andquantile estimation for the Generalized Pareto Distribution,Technometrics, 29, 1339–1349.
39
Bibliographie
Premier estimateur de l’indice des valeurs extrêmes :B.M. Hill (1975), A simple general approach to inferenceabout the tail of a distribution, The Annals of Statistics, 3,1163–1174.
Comportement théorique du maximum de vraisemblance :R. Smith (1985), Maximum likelihood estimation in a class ofnon regular cases, Biometrika, 72, 67–90.
Estimation des probabilités et quantiles extrêmesEn utilisant le théorème des valeurs extrêmesEn utilisant le théorème de PickandsApproche semi-paramétrique