62

Équivalence asymptotique entre une expérience associée à un processus de …irma.math.unistra.fr/~gardes/SEMINAIRE/mariucci.pdf · 2015. 12. 1. · Processus de Lévy à sauts

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Équivalence asymptotique entre une expérienceassociée à un processus de Lévy à sauts purs et

    un bruit blanc gaussien.

    Ester Mariucci

    Institut für Mathematik, Humboldt-Universität zu Berlin

    Université de Strasbourg, 1 décembre 2015

    1 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Table des matières

    1 Comparaison des expériences statistiquesDistance entre modèles statistiquesComment majorer la distance de Le CamExemples

    2 Équivalence asymptotique dans des modèles à sautsIntroductionDé�nition des expériencesRésultats principauxLes grandes lignes de la preuveÉquivalence asymptotique pour des modèles à densité

    3 Conclusions et perspectives

    2 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Distance entre modèles statistiques

    La dé�cience

    Un statisticien dispose de plusieurs expériences pour estimer uncertain paramètre θ. Comment les comparer ?

    Expérience 1 : E1 =(X1, T1, (P1,θ : θ ∈ Θ)

    ),

    Expérience 2 : E2 =(X2, T2, (P2,θ : θ ∈ Θ)

    ).

    Dé�nition

    La dé�cience (le défaut) de E1 par rapport à E2 est dé�nie par

    δ(E1, E2

    )= inf

    Ksupθ∈Θ

    ∥∥P2,θ −KP1,θ∥∥V Toù l'inf est pris sur l'ensemble des �transitions� K possibles.

    Rappel : ‖µ1 − µ2‖V T = supA |µ1(A)− µ2(A)| = 12L1(µ1, µ2).Remarque : en particulier, les noyaux de Markov sont destransitions.

    3 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Distance entre modèles statistiques

    La dé�cience

    Un statisticien dispose de plusieurs expériences pour estimer uncertain paramètre θ. Comment les comparer ?

    Expérience 1 : E1 =(X1, T1, (P1,θ : θ ∈ Θ)

    ),

    Expérience 2 : E2 =(X2, T2, (P2,θ : θ ∈ Θ)

    ).

    Dé�nition

    La dé�cience (le défaut) de E1 par rapport à E2 est dé�nie par

    δ(E1, E2

    )= inf

    Ksupθ∈Θ

    ∥∥P2,θ −KP1,θ∥∥V Toù l'inf est pris sur l'ensemble des �transitions� K possibles.

    Rappel : ‖µ1 − µ2‖V T = supA |µ1(A)− µ2(A)| = 12L1(µ1, µ2).Remarque : en particulier, les noyaux de Markov sont destransitions.

    3 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Distance entre modèles statistiques

    Distance de Le Cam

    Dé�nition

    La distance de Le Cam entre E1 et E2 est dé�nie comme

    ∆(E1, E2

    )= max

    (δ(E1, E2

    ), δ(E2, E1

    )).

    Les expériences E1 et E2 sont dites équivalentes si∆(E1, E2) = 0. Deux suites d'expériences En1 , En2 sontasymptotiquement équivalentes si lim

    n→∞∆(En1 , En2 ) = 0.

    Propriété : ∆ dé�nit une pseudo-métrique sur la classe detoutes les expériences ayant le même espace des paramètres.

    Interprétation : ∆(E1, E2

    )peut être vue comme un indicateur

    numérique du coût nécessaire pour reconstruire, via destransitions, l'expérience E2 à partir de l'expérience E1 et viceversa.

    4 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Distance entre modèles statistiques

    Distance de Le Cam

    Dé�nition

    La distance de Le Cam entre E1 et E2 est dé�nie comme

    ∆(E1, E2

    )= max

    (δ(E1, E2

    ), δ(E2, E1

    )).

    Les expériences E1 et E2 sont dites équivalentes si∆(E1, E2) = 0. Deux suites d'expériences En1 , En2 sontasymptotiquement équivalentes si lim

    n→∞∆(En1 , En2 ) = 0.

    Propriété : ∆ dé�nit une pseudo-métrique sur la classe detoutes les expériences ayant le même espace des paramètres.Interprétation : ∆

    (E1, E2

    )peut être vue comme un indicateur

    numérique du coût nécessaire pour reconstruire, via destransitions, l'expérience E2 à partir de l'expérience E1 et viceversa.

    4 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Distance entre modèles statistiques

    Une caractérisation de la dé�cience

    Théorème (Le Cam, 1986)

    Soit ε > 0 �xé. On a que δ(E1, E2) ≤ ε si et seulement si : pourtoute fonction de perte L bornée et pour toute règle de décisionπ2 dans E2, il existe une règle de décision π1 dans E1 telle que

    Rθ(E1, π1, L) ≤ Rθ(E2, π2, L) + ε, ∀θ ∈ Θ.

    Rappel : le risque est

    Rθ(E , π, L) =∫ (∫

    L(θ, z)π(y, dz)

    )Pθ(dy).

    5 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Distance entre modèles statistiques

    Équivalences asymptotiques

    En1 =(X1,n, T1,n,

    (P f1,n : f ∈ F

    )),

    En2 =(X2,n, T2,n,

    (P f2,n : f ∈ F

    )).

    Si deux suites d'expériences (En1 )n∈N et (En2 )n∈N sontasymptotiquement équivalentes au sens de Le Cam :

    ∆(En1 , En2 )→ 0,

    alors les propriétés asymptotiques des procédures d'estimationsont identiques pour ces expériences=⇒ il su�t de choisir la suite d'expériences la plus simplelorsque l'on étudie ces propriétés.

    6 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Comment majorer la distance de Le Cam

    Distance ∆0

    Soient Ej = (X , T , (Pj,θ : θ ∈ Θ)), j = 1, 2, deux modèlesstatistiques et dé�nissons

    ∆0(E1, E2) := supθ∈Θ‖P1,θ − P2,θ‖V T .

    Propriété

    ∆(E1, E2) ≤ ∆0(E1, E2).

    =⇒ On peut majorer la distance de Le Cam entre expériencesayant le même espace des échantillons en utilisant desmajorations classiques pour la distance en variation totale.

    7 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Comment majorer la distance de Le Cam

    Statistiques exhaustives

    Soit E1 = (X1, T1, (P1,θ : θ ∈ Θ)) un modèle statistique dominépar la mesure µ. Soit S : (X1, T1)→ (X2, T2) une v.a.

    S est dite statistique exhaustive si pour toute v.a.bornée Y sur X1 il existe une version de l'espéranceconditionnelle Eθ[Y |S] qui ne dépend pas de θ et dé�nieµ-p.p.

    Propriété (Le Cam, 1986)

    Soient Ei = (Xi, Ti, (Pi,θ : θ ∈ Θ)), i = 1, 2, deux modèlesstatistiques. Soit S : X1 → X2 une statistique exhaustive telleque la loi de S sous P1,θ est égale à P2,θ. Alors ∆(E1, E2) = 0.

    8 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Exemples

    Résultat de Brown et Low (1996)

    1 Modèle de régression non paramétrique.

    Yi = f( in

    )+ σ

    ( in

    )εi, (εi)1≤i≤n i.i.d. N (0, 1)

    Pn =(Rn,B(Rn), (Pnf : f ∈ F )

    ), Pnf loi de (Y1, . . . , Yn).

    2 Modèle de bruit blanc gaussien.

    dyt = f(t)dt+σ(t)√ndWt, t ∈ [0, 1] (Wt) m.B.s.

    Qn =(C, C, (Qnf : f ∈ F )

    ), Qnf loi de (yt)t∈[0,1].

    Résultat : sous certaines hypothèses sur F , ∆(Pn,Qn)→ 0.

    L. D. Brown, M. G. Low, Asymptotic equivalence of nonparametric re-gression and white noise. Ann. Statist. 24 (6) (1996) 2384�2398.

    9 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Exemples

    Résultat de Nussbaum (1996)

    1 Modèle d'estimation de densité.

    (Yi)1≤i≤n v.a. i.i.d. de densité f : [0, 1]→ R.

    Pn = (Rn,B(Rn), (Pnf : f ∈ F )), Pnf loi de (Y1, . . . , Yn).

    2 Modèle de bruit blanc gaussien.

    dyt =√f(t)dt+

    1

    2√ndWt, t ∈ [0, 1], (Wt) m.B.s.

    Qn =(C, C, (Qnf : f ∈ F )

    ), Qnf loi de (yt)t∈[0,1].

    Résultat : si F = {f : f ≥ ε, |f(x)− f(y)| ≤M |x− y|γ}, lesmodèles Pn et Qn sont asymptotiquement équivalents.

    M. Nussbaum, Asymptotic equivalence of density estimation and Gaus-sian white noise. Ann. Statist. 24 (6) (1996) 2399�2430.

    10 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Exemples

    Bibliographie non exhaustive

    Résultats d'équivalence asymptotique dans un contexte nonparamétrique :

    Régression non paramétrique (Brown et Low 1996 ; Gramaet Nussbaum 1998, 2002 ; Grama et Neumann 2006 ; Carter2006, 2009 ; Reiss 2008 ; Meister et Reiss 2013,Schmidt-Hieber 2014) ;

    Modèles à densité (Nussbaum 1996 ; Carter 2002 ; Brown,Carter, Low et Zhang 2004 ; M. 2015) ;

    Modèles de di�usion (Milstein et Nussbaum 1998 ; Delattreet Ho�mann, 2002 ; Genon-Catalot, Larédo et Nussbaum,2002 ; Dalalyan et Reiss 2006, 2007 ; Reiss 2011,Genon-Catalot et Larédo 2014, M. 2015) ;

    Modèles de processus à sauts (Grama et Nussbaum 2002 ;M. 2015).

    11 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Exemples

    Bibliographie non exhaustive

    Résultats d'équivalence asymptotique dans un contexte nonparamétrique :

    Régression non paramétrique (Brown et Low 1996 ; Gramaet Nussbaum 1998, 2002 ; Grama et Neumann 2006 ; Carter2006, 2009 ; Reiss 2008 ; Meister et Reiss 2013,Schmidt-Hieber 2014) ;

    Modèles à densité (Nussbaum 1996 ; Carter 2002 ; Brown,Carter, Low et Zhang 2004 ; M. 2015) ;

    Modèles de di�usion (Milstein et Nussbaum 1998 ; Delattreet Ho�mann, 2002 ; Genon-Catalot, Larédo et Nussbaum,2002 ; Dalalyan et Reiss 2006, 2007 ; Reiss 2011,Genon-Catalot et Larédo 2014, M. 2015) ;

    Modèles de processus à sauts (Grama et Nussbaum 2002 ;M. 2015).

    11 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Exemples

    Bibliographie non exhaustive

    Résultats d'équivalence asymptotique dans un contexte nonparamétrique :

    Régression non paramétrique (Brown et Low 1996 ; Gramaet Nussbaum 1998, 2002 ; Grama et Neumann 2006 ; Carter2006, 2009 ; Reiss 2008 ; Meister et Reiss 2013,Schmidt-Hieber 2014) ;

    Modèles à densité (Nussbaum 1996 ; Carter 2002 ; Brown,Carter, Low et Zhang 2004 ; M. 2015) ;

    Modèles de di�usion (Milstein et Nussbaum 1998 ; Delattreet Ho�mann, 2002 ; Genon-Catalot, Larédo et Nussbaum,2002 ; Dalalyan et Reiss 2006, 2007 ; Reiss 2011,Genon-Catalot et Larédo 2014, M. 2015) ;

    Modèles de processus à sauts (Grama et Nussbaum 2002 ;M. 2015).

    11 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Introduction

    Processus de Lévy

    Un processus de Lévy est un processus stochastique àaccroissements stationnaires et indépendants, à trajectoiresp.s. càdlàg.

    Les processus de Lévy sont un outil fondamental pourmodéliser des situations où des changements soudainspeuvent se produire.

    Ils sont largement utilisés en �nance mais aussi dansd'autres domaine comme, par exemple, lestélécommunications, la statistiques des valeurs extrêmes, lamécanique quantique et la biologie.

    Les processus de Lévy à sauts purs ont été suggérés etlargement étudiés pour la modélisation des rendements desactifs.

    12 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Introduction

    Processus de Lévy à sauts purs (à variation �nie)

    Xt =∑

    0 0,

    La dynamique des sauts d'un processus de Lévy estentièrement dictée par sa densité de Lévy, notée f .

    La mesure de Lévy

    ν(A) =

    ∫Af(x)dx =

    1

    tE[ ∑

    0 0

    est le nombre moyen des sauts (par unités de temps) dontl'amplitude appartient au borélien A.

    13 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Introduction

    Processus de Lévy à sauts purs (à variation �nie)

    Xt =∑

    0 0,

    La dynamique des sauts d'un processus de Lévy estentièrement dictée par sa densité de Lévy, notée f .

    La mesure de Lévy

    ν(A) =

    ∫Af(x)dx =

    1

    tE[ ∑

    0 0

    est le nombre moyen des sauts (par unités de temps) dontl'amplitude appartient au borélien A.

    13 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Introduction

    Processus de Lévy à sauts purs (à variation �nie)

    Xt =∑

    0 0,

    La dynamique des sauts d'un processus de Lévy estentièrement dictée par sa densité de Lévy, notée f .

    La mesure de Lévy

    ν(A) =

    ∫Af(x)dx =

    1

    tE[ ∑

    0 0

    est le nombre moyen des sauts (par unités de temps) dontl'amplitude appartient au borélien A.

    13 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Introduction

    Le problème

    Supposons que l'on observe {Xt}t≥0 à des instants équidistants0 = t0 < · · · < tn = Tn →∞ tels que

    ∆n =Tnn↓ 0 lorsque n→∞.

    Problème : comment estimer la densité de Lévy f à partir desobservations discrètes (Xti)

    ni=0 ?

    Deux questions se posent :1 Peut-on construire un modèle plus simple d'un point de vue

    mathématique, mais équivalent du point de vue del'information sur f(·), à partir de l'observation de (Xti)ni=1 ?

    2 Quelle quantité d'information sur f(·) perdons-nous enobservant (Xti)

    ni=0 à la place de {Xt}t∈[0,Tn] ?

    14 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Introduction

    Le problème

    Supposons que l'on observe {Xt}t≥0 à des instants équidistants0 = t0 < · · · < tn = Tn →∞ tels que

    ∆n =Tnn↓ 0 lorsque n→∞.

    Problème : comment estimer la densité de Lévy f à partir desobservations discrètes (Xti)

    ni=0 ?

    Deux questions se posent :1 Peut-on construire un modèle plus simple d'un point de vue

    mathématique, mais équivalent du point de vue del'information sur f(·), à partir de l'observation de (Xti)ni=1 ?

    2 Quelle quantité d'information sur f(·) perdons-nous enobservant (Xti)

    ni=0 à la place de {Xt}t∈[0,Tn] ?

    14 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Dé�nition des expériences

    Dé�nition des expériences

    Soit X un processus de Lévy à sauts purs de mesure de Lévyν � ν0, ν0 mesure de Lévy �xée, à support sur I ⊆ R etéventuellement in�nie. On notera f = dνdν0 .

    P fTn : loi du processus {Xt}t∈[0,Tn] sur (D,D),Qfn : loi du vecteur (Xt0 , . . . , Xtn) sur (Rn+1,B(Rn+1)),Wfn : loi induite sur (C, C) par

    dyt =√f(t)dt+

    dWt

    2√Tn√g(t)

    , g =dν0dx

    , t ∈ I.

    Les modèles statistiques considérés sont :

    Pν0n =(D,D , {P fTn : f ∈ F}

    ),

    Qν0n =(Rn+1,B(Rn+1), {Qfn : f ∈ F}

    ),

    W ν0n =(C, C, {Wfn : f ∈ F}

    ).

    15 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Dé�nition des expériences

    Dé�nition des expériences

    Soit X un processus de Lévy à sauts purs de mesure de Lévyν � ν0, ν0 mesure de Lévy �xée, à support sur I ⊆ R etéventuellement in�nie. On notera f = dνdν0 .

    P fTn : loi du processus {Xt}t∈[0,Tn] sur (D,D),Qfn : loi du vecteur (Xt0 , . . . , Xtn) sur (Rn+1,B(Rn+1)),Wfn : loi induite sur (C, C) par

    dyt =√f(t)dt+

    dWt

    2√Tn√g(t)

    , g =dν0dx

    , t ∈ I.

    Les modèles statistiques considérés sont :

    Pν0n =(D,D , {P fTn : f ∈ F}

    ),

    Qν0n =(Rn+1,B(Rn+1), {Qfn : f ∈ F}

    ),

    W ν0n =(C, C, {Wfn : f ∈ F}

    ).

    15 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Dé�nition des expériences

    Espace des paramètres F

    Soit f ∈ F une classe de densités de Lévy par rapport à ν0.(H1) ∃κ,M > 0 : κ ≤ f(y) ≤M , ∀y ∈ I, ∀f ∈ F .

    (H2) limn→∞

    Tn supf∈F

    ∫I\(−εmn ,εmn )

    (√f −

    √f̂mn

    )2dν0 = 0,

    (H3) limn→∞

    Tn supf∈F

    (A2mn(f) +B

    2mn(f) + nC

    2mn(f)

    )= 0,

    pour certaines suites εmn → 0 et mn →∞ quand n→∞. Ici

    f̂m(x) =

    m∑j=1

    Vj(x)

    ∫Jj

    f(s)ν0(ds); f̂m(x∗j ) =

    1

    µm

    ∫Jj

    f(s)ν0(ds);

    Jj

    x∗j0 εmn

    ν0(Jj) = µm

    x∗j =

    ∫Jjxν0(dx)

    µm

    I

    16 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Dé�nition des expériences

    Espace des paramètres

    Pour tout m = mn, on a :

    A2m(f) :=

    ∫I\[−εm,εm

    ] (√̂fm(y)−√f(y))2ν0(dy),B2m(f) :=

    ∑j=−m...,mj 6=−1,0,1.

    (∫Jj

    √f(y)√ν0(Jj)

    ν0(dy)−√ν(Jj)

    )2,

    C2m(f) :=

    ∫ εm−εm

    (√f(t)− 1

    )2ν0(dt).

    17 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Dé�nition des expériences

    Exemples

    Soient γ ∈ (0, 1] et K,κ,M > 0 et soit

    F ⊆{f : κ ≤ f(x) ≤M, |f ′(x)−f ′(y)| ≤ K|x−y|γ , ∀x, y ∈ I

    }.

    1. Le cas ν0 �nie : ν0 ≡ Leb([0, 1]).√∫ 10

    (√f −

    √f̂m

    )2dν0 +Am(f)+Bm(f) = O

    (m−γ−1 +m−

    32

    ),

    uniformément sur f .

    18 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Dé�nition des expériences

    Exemples

    F ⊆{f : κ ≤ f(x) ≤M, |f ′(x)−f ′(y)| ≤ K|x−y|γ , ∀x, y ∈ I

    }.

    2. Le cas ν0 à variation �nie :dν0dx (x) = x

    −1I[0,1](x).Choisissons εm = 1m , µm =

    lnmm−1 et maxj |vj−1 − vj | = O

    (lnmm

    ).

    ∫ 1εm

    (√f(x)−

    √f̂m(x)

    )2ν0(dx)+Am(f)+Bm(f) = O

    (( lnmm

    )γ+1),

    uniformément sur f . Cm(f) dépend du comportement de fproche de 0.

    (Ex : f(x) = e−λx2avec un λ uniformément majoré).

    19 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Résultats principaux

    Théorème (M., 2015)

    Soit m = mn une suite véri�ant les Hypothèses (H1), (H2) et(H3) et εm → 0, m→∞. Pour n assez grand on a :

    ∆(Qν0n ,Wν0n ) = O

    (ν0

    (I \ [−εm, εm]

    )√n∆2n +

    m lnm√n

    +√n∆n sup

    f∈F

    (Am(f) +Bm(f) + L2(f, f̂m)

    )+√n√

    ∆n supf∈F

    Cm(f)

    ).

    ∆(Pν0n ,Wν0n ) = O

    (√n∆n sup

    f∈F

    (Am(f) +Bm(f) +H(f, f̂m)

    )+

    √m2

    n∆nν0(I \ [−εm, εm])

    ).

    E. Mariucci, Asymptotic equivalence for pure jump Lévy processes withunknown Lévy density and Gaussian white noise. À paraître dans S.P.A. 20 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Résultats principaux

    Remarques

    Le résultat précédent reste vrai même dans le cas d'unemesure de Lévy ν0 à variation in�nie. Dans ce cas, (Xt)sera un processus de Lévy à sauts purs de fonctioncaractéristique donnée par :

    E[eiuXt

    ]= exp

    (−t(∫

    I(1−eiuy)ν(dy)+

    ∫II|y|≤1yν0(dy)

    )).

    La majoration de la distance ∆(Qν0n ,Wν0n ) reste valable

    sous des hypothèses plus faibles sur f .

    21 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Résultats principaux

    Le cas d'un processus de Poisson composé

    Pn : Xt =Nt∑i=1

    Yi, t ∈ [0, Tn], densité de Lévy f : [0, 1]→ R;

    Qn : (Xti)ni=0, ti = i

    Tnn, ∆n :=

    Tnn−−−→n→∞

    0 et Tn −−−→n→∞

    ∞;

    Wn : dyt =√f(t)dt+

    dWt

    2√Tn, t ∈ [0, 1];

    f ∈ F ={f : κ ≤ f(x) ≤M, |f ′(x)− f ′(y)| ≤ K|x− y|γ

    }.

    Résultat : les trois modèles Pn, Qn et Wn sontasymptotiquement équivalents.

    22 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Résultats principaux

    Majorations de la distance de Le Cam

    Plus précisément nous obtenons :

    ∆(Pn,Wn) =

    O(

    (n∆n)− γ

    4+2γ

    )si γ ∈

    (0, 12],

    O(

    (n∆n)− 1

    10

    )si γ ∈

    (12 , 1].

    Lorsque ∆n = n−β , 12 < β < 1, une borne supérieure pour lavitesse de convergence de ∆(Qn,Wn) est

    ∆(Qn,Wn) =

    O(n− γ+β

    4+2γ lnn)

    si γ ∈(0, 12)et 2+2γ3+2γ ≤ β < 1,

    O(n

    12−β lnn

    )si γ ∈

    (0, 12)et 12 < β <

    2+2γ3+2γ ,

    O(n−

    2β+110 lnn

    )si γ ∈

    [12 , 1]et 34 ≤ β < 1,

    O(n

    12−β lnn

    )si γ ∈

    [12 , 1]et 12 < β <

    34 .

    23 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Résultats principaux

    Majorations de la distance de Le Cam

    Plus précisément nous obtenons :

    ∆(Pn,Wn) =

    O(

    (n∆n)− γ

    4+2γ

    )si γ ∈

    (0, 12],

    O(

    (n∆n)− 1

    10

    )si γ ∈

    (12 , 1].

    Lorsque ∆n = n−β , 12 < β < 1, une borne supérieure pour lavitesse de convergence de ∆(Qn,Wn) est

    ∆(Qn,Wn) =

    O(n− γ+β

    4+2γ lnn)

    si γ ∈(0, 12)et 2+2γ3+2γ ≤ β < 1,

    O(n

    12−β lnn

    )si γ ∈

    (0, 12)et 12 < β <

    2+2γ3+2γ ,

    O(n−

    2β+110 lnn

    )si γ ∈

    [12 , 1]et 34 ≤ β < 1,

    O(n

    12−β lnn

    )si γ ∈

    [12 , 1]et 12 < β <

    34 .

    23 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Idées principales (cas Poisson composé)

    But : (Xti)ni=0

    ∆⇐⇒ (yt)t∈[0,1], oùX processus de Poisson composé de densité f sur [0, 1],

    dyt =√f(t)dt+ 1

    2√TndWt, t ∈ [0, 1].

    Notation : Jj =( j−1m ,

    jm ], θj =

    ∫Jjf(x)dx, λ =

    ∫ 10 f(x)dx.

    Étape 1. Approximation de Bernoulli :

    (Xti −Xti−1)i∆⇐⇒ (εiYi)i (εi ∼ B(α) avec α = λ∆ne−λ∆n).

    Étape 2. Approximation multinomiale :

    (εiYi)i∆⇐⇒M(n; (γ0, γ1, . . . , γm)), avec γ0 = 1− α et γi := α θiλ

    i = 1, . . . ,m.Étape 3. Approximation gaussienne :

    M(n; (γ0, γ1, . . . γm))∆⇐⇒⊗m

    j=1N (2√Tnθj , 1).

    Étape 4.⊗m

    j=1N (2√Tnθj , 1)

    ∆⇐⇒ (yt)t∈[0,1].

    24 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Idées principales (cas Poisson composé)

    But : (Xti)ni=0

    ∆⇐⇒ (yt)t∈[0,1], oùX processus de Poisson composé de densité f sur [0, 1],

    dyt =√f(t)dt+ 1

    2√TndWt, t ∈ [0, 1].

    Notation : Jj =( j−1m ,

    jm ], θj =

    ∫Jjf(x)dx, λ =

    ∫ 10 f(x)dx.

    Étape 1. Approximation de Bernoulli :

    (Xti −Xti−1)i∆⇐⇒ (εiYi)i (εi ∼ B(α) avec α = λ∆ne−λ∆n).

    Étape 2. Approximation multinomiale :

    (εiYi)i∆⇐⇒M(n; (γ0, γ1, . . . , γm)), avec γ0 = 1− α et γi := α θiλ

    i = 1, . . . ,m.Étape 3. Approximation gaussienne :

    M(n; (γ0, γ1, . . . γm))∆⇐⇒⊗m

    j=1N (2√Tnθj , 1).

    Étape 4.⊗m

    j=1N (2√Tnθj , 1)

    ∆⇐⇒ (yt)t∈[0,1].

    24 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Idées principales (cas Poisson composé)

    But : (Xti)ni=0

    ∆⇐⇒ (yt)t∈[0,1], oùX processus de Poisson composé de densité f sur [0, 1],

    dyt =√f(t)dt+ 1

    2√TndWt, t ∈ [0, 1].

    Notation : Jj =( j−1m ,

    jm ], θj =

    ∫Jjf(x)dx, λ =

    ∫ 10 f(x)dx.

    Étape 1. Approximation de Bernoulli :

    (Xti −Xti−1)i∆⇐⇒ (εiYi)i (εi ∼ B(α) avec α = λ∆ne−λ∆n).

    Étape 2. Approximation multinomiale :

    (εiYi)i∆⇐⇒M(n; (γ0, γ1, . . . , γm)), avec γ0 = 1− α et γi := α θiλ

    i = 1, . . . ,m.

    Étape 3. Approximation gaussienne :

    M(n; (γ0, γ1, . . . γm))∆⇐⇒⊗m

    j=1N (2√Tnθj , 1).

    Étape 4.⊗m

    j=1N (2√Tnθj , 1)

    ∆⇐⇒ (yt)t∈[0,1].

    24 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Idées principales (cas Poisson composé)

    But : (Xti)ni=0

    ∆⇐⇒ (yt)t∈[0,1], oùX processus de Poisson composé de densité f sur [0, 1],

    dyt =√f(t)dt+ 1

    2√TndWt, t ∈ [0, 1].

    Notation : Jj =( j−1m ,

    jm ], θj =

    ∫Jjf(x)dx, λ =

    ∫ 10 f(x)dx.

    Étape 1. Approximation de Bernoulli :

    (Xti −Xti−1)i∆⇐⇒ (εiYi)i (εi ∼ B(α) avec α = λ∆ne−λ∆n).

    Étape 2. Approximation multinomiale :

    (εiYi)i∆⇐⇒M(n; (γ0, γ1, . . . , γm)), avec γ0 = 1− α et γi := α θiλ

    i = 1, . . . ,m.Étape 3. Approximation gaussienne :

    M(n; (γ0, γ1, . . . γm))∆⇐⇒⊗m

    j=1N (2√Tnθj , 1).

    Étape 4.⊗m

    j=1N (2√Tnθj , 1)

    ∆⇐⇒ (yt)t∈[0,1].

    24 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Idées principales (cas Poisson composé)

    But : (Xti)ni=0

    ∆⇐⇒ (yt)t∈[0,1], oùX processus de Poisson composé de densité f sur [0, 1],

    dyt =√f(t)dt+ 1

    2√TndWt, t ∈ [0, 1].

    Notation : Jj =( j−1m ,

    jm ], θj =

    ∫Jjf(x)dx, λ =

    ∫ 10 f(x)dx.

    Étape 1. Approximation de Bernoulli :

    (Xti −Xti−1)i∆⇐⇒ (εiYi)i (εi ∼ B(α) avec α = λ∆ne−λ∆n).

    Étape 2. Approximation multinomiale :

    (εiYi)i∆⇐⇒M(n; (γ0, γ1, . . . , γm)), avec γ0 = 1− α et γi := α θiλ

    i = 1, . . . ,m.Étape 3. Approximation gaussienne :

    M(n; (γ0, γ1, . . . γm))∆⇐⇒⊗m

    j=1N (2√Tnθj , 1).

    Étape 4.⊗m

    j=1N (2√Tnθj , 1)

    ∆⇐⇒ (yt)t∈[0,1].

    24 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Approximation de Bernoulli : étape 1

    ∆(

    (Xti −Xti−1)i, (εiYi)i)

    = O(√n∆2n) : Remarquons que

    Xti −Xti−1L=∑Pi

    j=1 Yj avec Pi v.a. de Poisson de moyenne

    λi = λ∆n. Comme λ =∫ 1

    0 f(x)dx, λi ≤M∆n pour tout i.

    Lemme (M., 2015)

    Soient (Pi)ni=1 v.a. indépendantes de loi Poisson de paramètre

    λi, (Yi)ni=1 v.a. i.i.d. et (εi)

    ni=1 v.a. indépendantes de loi

    Bernoulli de paramètres αi := λie−λi . Les vecteurs (Pi)

    ni=1,

    (Yi)ni=1 et (εi)

    ni=1 sont indépendants entre eux. Si on note par

    Q(Yi,Pi) (resp. Q(Yi,εi)) la loi de∑Pi

    j=1 Yj (resp. εiYi), alors

    ∥∥∥∥ n⊗i=1

    Q(Yi,Pi) −n⊗i=1

    Q(Yi,εi)

    ∥∥∥∥V T

    ≤ 2

    √√√√ n∑i=1

    λ2i .

    25 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Approximation multinomiale : étape 2

    δ((εiYi)i,M(n; (γ0, . . . , γm)) = 0 : il su�t de considérer les v.a.

    Z0 =

    n∑j=1

    I{0}(εjYj); Zi =n∑j=1

    IJi(εjYj), i = 1, . . . ,m.

    ∆((εiYi)i, (εiŶi)i

    )≤√n∆n supf∈F H(f, f̂m), avec Ŷi ∼ f̂m/λ :

    calcul direct de la distance en variation totale.δ(M(n; γ0, . . . , γm), (εiŶi)i

    )= 0 :

    L∗ v.a. concentrée aux points 0, x∗i =2i−12m avec masses γi.

    M(n; γ0, . . . , γm) équivaut à observer n copiesindépendantes de L∗.

    On utilise le noyau :

    x∗i−1 x∗i x∗i+1

    mVi

    K(x∗i , A) =

    {IA(0) si i = 0∫A Vi(x)dx autrement.

    26 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Approximation multinomiale : étape 2

    δ((εiYi)i,M(n; (γ0, . . . , γm)) = 0 : il su�t de considérer les v.a.

    Z0 =

    n∑j=1

    I{0}(εjYj); Zi =n∑j=1

    IJi(εjYj), i = 1, . . . ,m.

    ∆((εiYi)i, (εiŶi)i

    )≤√n∆n supf∈F H(f, f̂m), avec Ŷi ∼ f̂m/λ :

    calcul direct de la distance en variation totale.

    δ(M(n; γ0, . . . , γm), (εiŶi)i

    )= 0 :

    L∗ v.a. concentrée aux points 0, x∗i =2i−12m avec masses γi.

    M(n; γ0, . . . , γm) équivaut à observer n copiesindépendantes de L∗.

    On utilise le noyau :

    x∗i−1 x∗i x∗i+1

    mVi

    K(x∗i , A) =

    {IA(0) si i = 0∫A Vi(x)dx autrement.

    26 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Approximation multinomiale : étape 2

    δ((εiYi)i,M(n; (γ0, . . . , γm)) = 0 : il su�t de considérer les v.a.

    Z0 =

    n∑j=1

    I{0}(εjYj); Zi =n∑j=1

    IJi(εjYj), i = 1, . . . ,m.

    ∆((εiYi)i, (εiŶi)i

    )≤√n∆n supf∈F H(f, f̂m), avec Ŷi ∼ f̂m/λ :

    calcul direct de la distance en variation totale.δ(M(n; γ0, . . . , γm), (εiŶi)i

    )= 0 :

    L∗ v.a. concentrée aux points 0, x∗i =2i−12m avec masses γi.

    M(n; γ0, . . . , γm) équivaut à observer n copiesindépendantes de L∗.

    On utilise le noyau :

    x∗i−1 x∗i x∗i+1

    mVi

    K(x∗i , A) =

    {IA(0) si i = 0∫A Vi(x)dx autrement.

    26 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Approximation gaussienne : étape 3

    Résultats de Carter :Soit N (µ,Σ) la distribution normale multivariée avec lesmêmes moyens et matrice de covariance queM(n; γ0, . . . , γm). Alors,

    ∆(M(n; γ0, . . . , γm),N (µ,Σ)) = O(m lnm√

    n

    ).

    Comment passer de N (µ,Σ) à une expérience àcoordonnées indépendantes :

    (N(µ,Σ

    ),

    m⊗j=0

    N (nγi, nγi))

    = O( m√

    n

    ).

    Des calculs standards combinés avec ces résultats donnent :

    ∆(M(n; γ0, . . . , γm),

    m⊗j=1

    N (2√Tnθj , 1)

    )= O

    (m lnm√n

    +√n∆3n

    ).

    27 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Approximation gaussienne : étape 3

    Résultats de Carter :Soit N (µ,Σ) la distribution normale multivariée avec lesmêmes moyens et matrice de covariance queM(n; γ0, . . . , γm). Alors,

    ∆(M(n; γ0, . . . , γm),N (µ,Σ)) = O(m lnm√

    n

    ).

    Comment passer de N (µ,Σ) à une expérience àcoordonnées indépendantes :

    (N(µ,Σ

    ),

    m⊗j=0

    N (nγi, nγi))

    = O( m√

    n

    ).

    Des calculs standards combinés avec ces résultats donnent :

    ∆(M(n; γ0, . . . , γm),

    m⊗j=1

    N (2√Tnθj , 1)

    )= O

    (m lnm√n

    +√n∆3n

    ).

    27 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Comment passer d'une suite de gaussiennesindépendantes à un bruit blanc : étape 4

    ∆(⊗m

    j=1N (2√Tnθj , 1),

    ⊗mj=1

    (y jm− y j−1

    m

    ))→ 0 : des

    calculs standards donnent une majoration de la distance deLe Cam égale à

    √Tnm

    −γ .

    δ(

    (yt)t∈[0,1],⊗m

    j=1

    (y jm− y j−1

    m

    ))= 0 : évident.

    δ(⊗m

    j=1

    (y jm− y j−1

    m

    ), (yt)t∈[0,1]

    )→ 0 : en construisant une

    transition explicite, on peut trouver la même vitesse deconvergence

    √Tnm

    −γ .

    Ceci entraîne :

    ( m⊗j=1

    N(2√Tnθj , 1

    ), (yt)t∈[0,1]

    )= O

    (√Tnm

    −γ).

    28 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Comment passer d'une suite de gaussiennesindépendantes à un bruit blanc : étape 4

    ∆(⊗m

    j=1N (2√Tnθj , 1),

    ⊗mj=1

    (y jm− y j−1

    m

    ))→ 0 : des

    calculs standards donnent une majoration de la distance deLe Cam égale à

    √Tnm

    −γ .

    δ(

    (yt)t∈[0,1],⊗m

    j=1

    (y jm− y j−1

    m

    ))= 0 : évident.

    δ(⊗m

    j=1

    (y jm− y j−1

    m

    ), (yt)t∈[0,1]

    )→ 0 : en construisant une

    transition explicite, on peut trouver la même vitesse deconvergence

    √Tnm

    −γ .

    Ceci entraîne :

    ( m⊗j=1

    N(2√Tnθj , 1

    ), (yt)t∈[0,1]

    )= O

    (√Tnm

    −γ).

    28 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Comment passer d'une suite de gaussiennesindépendantes à un bruit blanc : étape 4

    ∆(⊗m

    j=1N (2√Tnθj , 1),

    ⊗mj=1

    (y jm− y j−1

    m

    ))→ 0 : des

    calculs standards donnent une majoration de la distance deLe Cam égale à

    √Tnm

    −γ .

    δ(

    (yt)t∈[0,1],⊗m

    j=1

    (y jm− y j−1

    m

    ))= 0 : évident.

    δ(⊗m

    j=1

    (y jm− y j−1

    m

    ), (yt)t∈[0,1]

    )→ 0 : en construisant une

    transition explicite, on peut trouver la même vitesse deconvergence

    √Tnm

    −γ .

    Ceci entraîne :

    ( m⊗j=1

    N(2√Tnθj , 1

    ), (yt)t∈[0,1]

    )= O

    (√Tnm

    −γ).

    28 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Idées principales (cas Poisson composé)

    But : (Xt)t∈[0,Tn]∆⇐⇒ (yt)t∈[0,1], où

    X est un processus de Poisson composé de densité f ,dyt =

    √f(t)dt+ 1

    2√TndWt, t ∈ [0, 1].

    Étape 1. Passer de la densité f à f̂mP fTn

    ∆⇐⇒ P f̂mTn (majoration de la distance en variation totale).

    Étape 2. Approximation poissonienne :

    P f̂mTn∆⇐⇒⊗m

    j=1 P(Tnθj) (transformations de type Esscher,statistique exhaustive, contrôle distance L1, constructionexplicite d'un noyau).

    Étape 3. Approximation gaussienne :⊗mj=1 P(Tnθj)

    ∆⇐⇒⊗m

    j=1N (2√Tnθj , 1) (résultats de Brown,

    Carter, Low et Zhang).

    Étape 4.⊗m

    j=1N (2√Tnθj , 1)

    ∆⇐⇒ (yt)t∈[0,1].

    29 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Idées principales (cas Poisson composé)

    But : (Xt)t∈[0,Tn]∆⇐⇒ (yt)t∈[0,1], où

    X est un processus de Poisson composé de densité f ,dyt =

    √f(t)dt+ 1

    2√TndWt, t ∈ [0, 1].

    Étape 1. Passer de la densité f à f̂mP fTn

    ∆⇐⇒ P f̂mTn (majoration de la distance en variation totale).

    Étape 2. Approximation poissonienne :

    P f̂mTn∆⇐⇒⊗m

    j=1 P(Tnθj) (transformations de type Esscher,statistique exhaustive, contrôle distance L1, constructionexplicite d'un noyau).

    Étape 3. Approximation gaussienne :⊗mj=1 P(Tnθj)

    ∆⇐⇒⊗m

    j=1N (2√Tnθj , 1) (résultats de Brown,

    Carter, Low et Zhang).

    Étape 4.⊗m

    j=1N (2√Tnθj , 1)

    ∆⇐⇒ (yt)t∈[0,1].

    29 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Idées principales (cas Poisson composé)

    But : (Xt)t∈[0,Tn]∆⇐⇒ (yt)t∈[0,1], où

    X est un processus de Poisson composé de densité f ,dyt =

    √f(t)dt+ 1

    2√TndWt, t ∈ [0, 1].

    Étape 1. Passer de la densité f à f̂mP fTn

    ∆⇐⇒ P f̂mTn (majoration de la distance en variation totale).

    Étape 2. Approximation poissonienne :

    P f̂mTn∆⇐⇒⊗m

    j=1 P(Tnθj) (transformations de type Esscher,statistique exhaustive, contrôle distance L1, constructionexplicite d'un noyau).

    Étape 3. Approximation gaussienne :⊗mj=1 P(Tnθj)

    ∆⇐⇒⊗m

    j=1N (2√Tnθj , 1) (résultats de Brown,

    Carter, Low et Zhang).

    Étape 4.⊗m

    j=1N (2√Tnθj , 1)

    ∆⇐⇒ (yt)t∈[0,1].

    29 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Les grandes lignes de la preuve

    Idées principales (cas Poisson composé)

    But : (Xt)t∈[0,Tn]∆⇐⇒ (yt)t∈[0,1], où

    X est un processus de Poisson composé de densité f ,dyt =

    √f(t)dt+ 1

    2√TndWt, t ∈ [0, 1].

    Étape 1. Passer de la densité f à f̂mP fTn

    ∆⇐⇒ P f̂mTn (majoration de la distance en variation totale).

    Étape 2. Approximation poissonienne :

    P f̂mTn∆⇐⇒⊗m

    j=1 P(Tnθj) (transformations de type Esscher,statistique exhaustive, contrôle distance L1, constructionexplicite d'un noyau).

    Étape 3. Approximation gaussienne :⊗mj=1 P(Tnθj)

    ∆⇐⇒⊗m

    j=1N (2√Tnθj , 1) (résultats de Brown,

    Carter, Low et Zhang).

    Étape 4.⊗m

    j=1N (2√Tnθj , 1)

    ∆⇐⇒ (yt)t∈[0,1].29 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Équivalence asymptotique pour des modèles à densité

    Une extension du résultat de Nussbaum (1996)

    Pgn : (Yi)ni=1 v.a. i.i.d. de densité fg : I → R,

    W gn : dyt =√f(t)g(t)dt+

    dWt2√n, t ∈ I.

    g est connue,

    f est inconnue et appartient à une certaine classe F .

    Théorème (M., 2015)

    Sous des conditions appropriées sur F on peut montrer quelimn→∞∆(P

    gn,W

    gn ) = 0.

    E. Mariucci, Asymptotic equivalence for density estimation and Gaussianwhite noise : An extension. À paraître dans Ann. de l'ISUP.

    30 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Équivalence asymptotique pour des modèles à densité

    Une extension du résultat de Nussbaum (1996)

    Pgn : (Yi)ni=1 v.a. i.i.d. de densité fg : I → R,

    W gn : dyt =√f(t)g(t)dt+

    dWt2√n, t ∈ I.

    g est connue,

    f est inconnue et appartient à une certaine classe F .

    Théorème (M., 2015)

    Sous des conditions appropriées sur F on peut montrer quelimn→∞∆(P

    gn,W

    gn ) = 0.

    E. Mariucci, Asymptotic equivalence for density estimation and Gaussianwhite noise : An extension. À paraître dans Ann. de l'ISUP.

    30 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Équivalence asymptotique pour des modèles à densité

    Nouveauté par rapport aux travaux antérieurs

    Remarque : on retrouve le résultat de Nussbaum (1996) au casoù g(x) = 1 et I = [0, 1].

    Avantages :

    Les v.a. Yi sont dé�nies sur un intervalle I ⊆ R, pasforcément borné.

    Nous pouvons traiter le cas des v.a. à densité (h = fg) nonnécessairement bornées ni lisses.

    Techniques de preuve : approximation multinomiale-normalemultivariée (associée à un choix d'une partition adéquate de I),construction explicite des noyaux réalisant l'équivalenceasymptotique.

    31 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Équivalence asymptotique pour des modèles à densité

    Nouveauté par rapport aux travaux antérieurs

    Remarque : on retrouve le résultat de Nussbaum (1996) au casoù g(x) = 1 et I = [0, 1].

    Avantages :

    Les v.a. Yi sont dé�nies sur un intervalle I ⊆ R, pasforcément borné.

    Nous pouvons traiter le cas des v.a. à densité (h = fg) nonnécessairement bornées ni lisses.

    Techniques de preuve : approximation multinomiale-normalemultivariée (associée à un choix d'une partition adéquate de I),construction explicite des noyaux réalisant l'équivalenceasymptotique.

    31 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Équivalence asymptotique pour des modèles à densité

    Nouveauté par rapport aux travaux antérieurs

    Remarque : on retrouve le résultat de Nussbaum (1996) au casoù g(x) = 1 et I = [0, 1].

    Avantages :

    Les v.a. Yi sont dé�nies sur un intervalle I ⊆ R, pasforcément borné.

    Nous pouvons traiter le cas des v.a. à densité (h = fg) nonnécessairement bornées ni lisses.

    Techniques de preuve : approximation multinomiale-normalemultivariée (associée à un choix d'une partition adéquate de I),construction explicite des noyaux réalisant l'équivalenceasymptotique.

    31 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Équivalence asymptotique pour des modèles à densité

    Les grandes lignes de la preuve

    Soit (Jj)1≤j≤m une partition de I telle que∫Jjg(x)dx ne dépend

    pas de j et soit f̂m une approximation adéquate de f .

    Étape 1. Passer de f à f̂m : ∆(Pgn, P̂

    gn)→ 0 où P̂gn est le

    modèle statistique associé aux v.a. i.i.d. Ŷi ayant densité f̂mg.

    Étape 2. Approximation multinomiale :

    (Ŷi)i∆⇐⇒M(n; γ1, . . . , γm), où γi :=

    ∫Jif(x)g(x)dx

    i = 1, . . . ,m.

    Étape 3. Approximation gaussienne :

    M(n; γ1, . . . γm)∆⇐⇒⊗m

    j=1N (2√nγj , 1).

    Étape 4 :⊗m

    j=1N (2√nγj , 1)

    ∆⇐⇒ (yt)t∈I .

    32 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Équivalence asymptotique pour des modèles à densité

    Les grandes lignes de la preuve

    Soit (Jj)1≤j≤m une partition de I telle que∫Jjg(x)dx ne dépend

    pas de j et soit f̂m une approximation adéquate de f .

    Étape 1. Passer de f à f̂m : ∆(Pgn, P̂

    gn)→ 0 où P̂gn est le

    modèle statistique associé aux v.a. i.i.d. Ŷi ayant densité f̂mg.

    Étape 2. Approximation multinomiale :

    (Ŷi)i∆⇐⇒M(n; γ1, . . . , γm), où γi :=

    ∫Jif(x)g(x)dx

    i = 1, . . . ,m.

    Étape 3. Approximation gaussienne :

    M(n; γ1, . . . γm)∆⇐⇒⊗m

    j=1N (2√nγj , 1).

    Étape 4 :⊗m

    j=1N (2√nγj , 1)

    ∆⇐⇒ (yt)t∈I .

    32 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Équivalence asymptotique pour des modèles à densité

    Les grandes lignes de la preuve

    Soit (Jj)1≤j≤m une partition de I telle que∫Jjg(x)dx ne dépend

    pas de j et soit f̂m une approximation adéquate de f .

    Étape 1. Passer de f à f̂m : ∆(Pgn, P̂

    gn)→ 0 où P̂gn est le

    modèle statistique associé aux v.a. i.i.d. Ŷi ayant densité f̂mg.

    Étape 2. Approximation multinomiale :

    (Ŷi)i∆⇐⇒M(n; γ1, . . . , γm), où γi :=

    ∫Jif(x)g(x)dx

    i = 1, . . . ,m.

    Étape 3. Approximation gaussienne :

    M(n; γ1, . . . γm)∆⇐⇒⊗m

    j=1N (2√nγj , 1).

    Étape 4 :⊗m

    j=1N (2√nγj , 1)

    ∆⇐⇒ (yt)t∈I .

    32 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Équivalence asymptotique pour des modèles à densité

    Les grandes lignes de la preuve

    Soit (Jj)1≤j≤m une partition de I telle que∫Jjg(x)dx ne dépend

    pas de j et soit f̂m une approximation adéquate de f .

    Étape 1. Passer de f à f̂m : ∆(Pgn, P̂

    gn)→ 0 où P̂gn est le

    modèle statistique associé aux v.a. i.i.d. Ŷi ayant densité f̂mg.

    Étape 2. Approximation multinomiale :

    (Ŷi)i∆⇐⇒M(n; γ1, . . . , γm), où γi :=

    ∫Jif(x)g(x)dx

    i = 1, . . . ,m.

    Étape 3. Approximation gaussienne :

    M(n; γ1, . . . γm)∆⇐⇒⊗m

    j=1N (2√nγj , 1).

    Étape 4 :⊗m

    j=1N (2√nγj , 1)

    ∆⇐⇒ (yt)t∈I .

    32 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Conclusions et perspectives

    Conclusions.

    Nous avons prouvé un résultat d'équivalence asymptotiqueentre un modèle statistique associé à l'observation discrèted'un processus de Lévy à sauts purs et un modèle de bruitblanc gaussien.

    La preuve est constructive.

    Certaines techniques utilisés dans les preuves peuvent êtreexploités pour obtenir une extension du résultat deNussbaum.

    Perspectives. Des extensions possibles de ce travail sont :

    Estimation non paramétrique de la densité de Lévy.

    Équivalence asymptotique pour des modèles de Lévydépendant aléatoirement du temps.

    33 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Conclusions et perspectives

    Conclusions.

    Nous avons prouvé un résultat d'équivalence asymptotiqueentre un modèle statistique associé à l'observation discrèted'un processus de Lévy à sauts purs et un modèle de bruitblanc gaussien.

    La preuve est constructive.

    Certaines techniques utilisés dans les preuves peuvent êtreexploités pour obtenir une extension du résultat deNussbaum.

    Perspectives. Des extensions possibles de ce travail sont :

    Estimation non paramétrique de la densité de Lévy.

    Équivalence asymptotique pour des modèles de Lévydépendant aléatoirement du temps.

    33 / 34

  • Expériences statistiques Densité de Lévy Conclusions et perspectives

    Merci pour votre attention !

    34 / 34

    Comparaison des expériences statistiquesDistance entre modèles statistiquesComment majorer la distance de Le CamExemples

    Équivalence asymptotique dans des modèles à sautsIntroductionDéfinition des expériencesRésultats principauxLes grandes lignes de la preuveÉquivalence asymptotique pour des modèles à densité

    Conclusions et perspectives