52

Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Savez-vous ce qu'est l'échelonnement optimal ?

1 / 26

Page 2: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Échelonnement Optimal de l'Algorithme

MALA avec Loi Cible Laplace

Stage de M2, Probabilités et Statistiques

Pablo Jimenez

sous la direction d'Alain Durmus

16 septembre 2019

ENS Paris Saclay, CMLA

2 / 26

Page 3: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Plan

Motivations

Algorithme de Metropolis-Hastings

Échelonnement optimal

Résultats du stage

3 / 26

Page 4: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Motivations

Page 5: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Simulation de lois

• Donnée : une densité π sur

Rd .

• Objectif : un échantillon

(X d1 , ...,X

dn )n i.i.d. de loi π.

• Utilité : approcher des

intégrales comme∫Rd h(xd)π(xd)dxd .

• Voir un exemple

4 / 26

Page 6: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Simulation de lois

• Donnée : une densité π sur

Rd .

• Objectif : un échantillon

(X d1 , ...,X

dn )n i.i.d. de loi π.

• Utilité : approcher des

intégrales comme∫Rd h(xd)π(xd)dxd .

• Voir un exemple

4 / 26

Page 7: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Simulation de lois

• Donnée : une densité π sur

Rd .

• Objectif : un échantillon

(X d1 , ...,X

dn )n i.i.d. de loi π.

• Utilité : approcher des

intégrales comme∫Rd h(xd)π(xd)dxd .

• Voir un exemple

4 / 26

Page 8: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Méthodes de Monte Carlo : résumé

• Utilité : approcher des intégrales comme∫Rd h(xd)π(xd)dxd .

• On utilise n−1∑n

k=1 h(X dk ).

• Avantageux en grande dimension −→ inférence bayésienne.

• Problème : (X dn )n∈N∗ i.i.d. de loi π −→ coûteux/impossible.

• Solution : (X dn )n∈N∗ chaîne de Markov approchant π.

Méthodes de Monte Carlo par chaîne de Markov (MCMC)

N. Metropolis

(1915-1999)

• Metropolis et al. (1953)

• Hastings (1970)

W.K. Hastings

(1930-2016)

5 / 26

Page 9: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Méthodes de Monte Carlo : résumé

• Utilité : approcher des intégrales comme∫Rd h(xd)π(xd)dxd .

• On utilise n−1∑n

k=1 h(X dk ).

• Avantageux en grande dimension −→ inférence bayésienne.

• Problème : (X dn )n∈N∗ i.i.d. de loi π −→ coûteux/impossible.

• Solution : (X dn )n∈N∗ chaîne de Markov approchant π.

Méthodes de Monte Carlo par chaîne de Markov (MCMC)

N. Metropolis

(1915-1999)

• Metropolis et al. (1953)

• Hastings (1970)

W.K. Hastings

(1930-2016)

5 / 26

Page 10: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Algorithme de

Metropolis-Hastings

Page 11: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Description de l'algorithme de Metropolis-Hastings

1. Partant de X dn ∈ Rd , simuler la proposition Y d

n+1 de loi

qd(X dn , ·).

2. Calculer la probabilité d'acceptation α(X dn ,Y

dn+1), où

α(xd , yd) = 1 ∧ π(yd)

π(xd)

qd(yd , xd)

qd(xd , yd).

3. Simuler Un+1 uniforme sur [0, 1].

4. Évaluer l'évènement d'acceptation Adn+1, dé�ni par

Adn+1 =

{Un+1 6 α(X d

n ,Ydn+1)

}.

5. Résultat : X dn+1 est donné par

X dn+1 = Y d

n+11Adn+1︸ ︷︷ ︸

acceptation

+ X dn

(1− 1Ad

n+1

)︸ ︷︷ ︸

rejet

.

6 / 26

Page 12: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Mise en pratique de l'algorithme

1. Simuler X d0 .

2. Simuler Y d1 .

3. Calculer la probabilité

d'acceptation

α(X dn ,Y

dn+1).

4. Évaluer si Y d1 est

accepté ou rejeté.

7 / 26

Page 13: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Mise en pratique de l'algorithme

1. Simuler X d0 .

2. Simuler Y d1 .

3. Calculer la probabilité

d'acceptation

α(X dn ,Y

dn+1).

4. Évaluer si Y d1 est

accepté ou rejeté.

7 / 26

Page 14: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Mise en pratique de l'algorithme

1. Simuler X d0 .

2. Simuler Y d1 .

3. Calculer la probabilité

d'acceptation

α(X dn ,Y

dn+1).

4. Évaluer si Y d1 est

accepté ou rejeté.

7 / 26

Page 15: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Algorithme de Metropolis-Hastings : résultats

Théorème : Tierney (1994)

Sous des hypothèses raisonnables sur qd , (X dn )n est une chaîne de

Markov ergodique admettant π comme loi invariante.

Échantillon i.i.d. Échantillon par chaîne de Markov

8 / 26

Page 16: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Algorithme de Metropolis-Hastings : résultats

Théorème : Tierney (1994)

Sous des hypothèses raisonnables sur qd , (X dn )n est une chaîne de

Markov ergodique admettant π comme loi invariante.

Hypothèses: qd et π strictement positives sur Rd .

Quels choix pour la proposition qd?

8 / 26

Page 17: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Exemple : Metropolis à marche aléatoire (RWM)

Étape de Metropolis à marche aléatoire.

• Y dn+1 = X d

n + Zdn+1, avec

Zdn+1 gaussienne centrée.

• Proposition qd(xd , ·)gaussienne centrée

N(xd , σ2d Idd) .

• Calibrer σ2d en fonctionde la cible π :

→ assez grand pour

limiter les corrélations,

→ assez petit pour une

acceptation élevée.

9 / 26

Page 18: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Exemple : dynamique de Langevin

• Supposons π : xd 7→ exp (−V (xd))/Z , avec Z la constante de

normalisation, et V : Rd → R régulière.

• Équation de di�usion du processus (Xdt )t>0 :

dXdt = −∇V

(Xdt

)dt +

√2dBd

t ,

avec Bd un mouvement brownien standard sur Rd .

• Roberts and Tweedie (1996) : (Xdt )t>0 est ergodique avec π

comme loi invariante.

• Problème: di�cile à simuler.

• Idée : discrétiser l'EDS par Euler-Murayama.

10 / 26

Page 19: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Exemple : dynamique de Langevin discrétisée

• Équation de di�usion du processus (Xdt )t>0 :

dXdt = −∇V

(Xdt

)dt +

√2dBd

t ,

avec Bd un mouvement brownien standard sur Rd .

• Discrétisation (Xdk )k>0 d'Euler�Maruyama de pas σ2d > 0

dé�nit une chaîne de Markov:

Xdk+1 = Xd

k − σ2d∇V(Xd

k

)+√2σ2d Z

dk+1 ,

avec les suites {(Zdk )k>1 | d ∈ N∗} indépendantes et (Zd

k )k>1

i.i.d. de loi N(0, Idd) indépendants.

• Problème : π n'est pas invariante pour (Xdk )k>1.

• Idée : utiliser cette dynamique comme proposition dans M-H.

11 / 26

Page 20: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Exemple : algorithme de Langevin ajusté (MALA)

Étape de l'algorithme de Langevin ajusté.

• Propositions (Y dn )n

données par

discrétisation :

Y dn+1 = X d

n − σ2d∇V(X dn

)+√2σ2d Z

dn+1 ,

avec Zdn+1 de loi

N(0, Idd) .

• Proposition

gaussienne biaisée

vers fortes densités.

• Calibrer σ2d en

fonction de la cible π.12 / 26

Page 21: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Comment faire un choix optimal σ2d en fonction de d et π ?

Avant de répondre, donner du sens à "choix optimal".

13 / 26

Page 22: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Comment faire un choix optimal σ2d en fonction de d et π ?

Avant de répondre, donner du sens à "choix optimal".

13 / 26

Page 23: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Échelonnement optimal

Page 24: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Comment choisir la variance de la proposition ?

Dans le cas de RWM et MALA : e�ectuer un bon choix de σ2d et

quanti�er l'e�cacité des méthodes.

Objectifs :

1. approcher le comportement en grande dimension par un objet

plus simple,

2. trouver un critère d'optimalité pour σ2d ,

3. pouvoir comparer les méthodes.

14 / 26

Page 25: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Un cadre asymptotique

• A partir de π densité sur R,construire une suite (πd)d>1

πd(xd) =d∏

i=1

π(xdi

).

• Construire la suite de

chaînes de Markov

{(X dn )n>0 | d > 1},

démarrées à l'équilibre, sur

un même espace probabilisé.

• But : étudier la limite de

P(Ad1 ) lorsque d → +∞.

•Ad1 =

{U1 6 α(X d

0 ,Yd1 )}.

• Problème : Si σ2d constant avec d ,

limd→+∞ P(Ad1

) = 0.

15 / 26

Page 26: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Un premier critère pour σ2d : l'échelonnement

Exemple d'échelonnement en

α = 2/3.

• Choix : σ2d = `2/dα avec

` > 0 et α > 0.

• But : chercher α tel que

a(`) = limd→+∞

P(Ad1 ) ∈]0, 1[

pour tout ` > 0.

• On dit alors que

l'échelonnement de la chaîne

est en 1/dα.

16 / 26

Page 27: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Un résultat de l'échelonnement

• Interpoler et échelonner X d

en Yd , avec

Ydt = (ddαte − dαt)X d

bdαtc

+ (dαt − bdαtc)X dddαte .

• Roberts et al. (1997) : il

existe une di�usion Y tel que

Yd(1)

loi−→d→+∞

Y .

• Y véri�e l'EDS :

dYt = h(`) (log π)′ (Yt)dt

+√2h(`)dBt .

Interpolation et échelonnement de la

chaîne.

17 / 26

Page 28: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Un résultat de l'échelonnement

• Interpoler et échelonner X d

en Yd , avec

Ydt = (ddαte − dαt)X d

bdαtc

+ (dαt − bdαtc)X dddαte .

• Roberts et al. (1997) : il

existe une di�usion Y tel que

Yd(1)

loi−→d→+∞

Y .

• Y véri�e l'EDS :

dYt = h(`) (log π)′ (Yt)dt

+√2h(`)dBt .

17 / 26

Page 29: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Un résultat de l'échelonnement

• Interpoler et échelonner X d

en Yd , avec

Ydt = (ddαte − dαt)X d

bdαtc

+ (dαt − bdαtc)X dddαte .

• Roberts et al. (1997) : il

existe une di�usion Y tel que

Yd(1)

loi−→d→+∞

Y .

• Y véri�e l'EDS :

dYt = h(`) (log π)′ (Yt)dt

+√2h(`)dBt .

17 / 26

Page 30: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Un résultat de l'échelonnement

• Interpoler et échelonner X d

en Yd , avec

Ydt = (ddαte − dαt)X d

bdαtc

+ (dαt − bdαtc)X dddαte .

• Roberts et al. (1997) : il

existe une di�usion Y tel que

Yd(1)

loi−→d→+∞

Y .

• Y véri�e l'EDS :

dYt = h(`) (log π)′ (Yt)dt

+√2h(`)dBt .

17 / 26

Page 31: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Un résultat de l'échelonnement

• Interpoler et échelonner X d

en Yd , avec

Ydt = (ddαte − dαt)X d

bdαtc

+ (dαt − bdαtc)X dddαte .

• Roberts et al. (1997) : il

existe une di�usion Y tel que

Yd(1)

loi−→d→+∞

Y .

• Y véri�e l'EDS :

dYt = h(`) (log π)′ (Yt)dt

+√2h(`)dBt .

17 / 26

Page 32: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Un résultat de l'échelonnement

• Interpoler et échelonner X d

en Yd , avec

Ydt = (ddαte − dαt)X d

bdαtc

+ (dαt − bdαtc)X dddαte .

• Roberts et al. (1997) : il

existe une di�usion Y tel que

Yd(1)

loi−→d→+∞

Y .

• Y véri�e l'EDS :

dYt = h(`) (log π)′ (Yt)dt

+√2h(`)dBt .

17 / 26

Page 33: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Un résultat de l'échelonnement

• Interpoler et échelonner X d

en Yd , avec

Ydt = (ddαte − dαt)X d

bdαtc

+ (dαt − bdαtc)X dddαte .

• Roberts et al. (1997) : il

existe une di�usion Y tel que

Yd(1)

loi−→d→+∞

Y .

• Y véri�e l'EDS :

dYt = h(`) (log π)′ (Yt)dt

+√2h(`)dBt .

17 / 26

Page 34: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Comment choisir la variance de la proposition ?

Objectifs :

1. approcher le comportement en grande dimension par un objet

plus simple,

2. trouver un critère d'optimalité pour σ2d ,

3. pouvoir comparer les méthodes.

18 / 26

Page 35: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Comment choisir la variance de la proposition ?

Objectifs :

1. approcher le comportement en grande dimension par un objet

plus simple, convergence en loi vers une di�usion

2. trouver un critère d'optimalité pour σ2d ,

3. pouvoir comparer les méthodes.

18 / 26

Page 36: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Conséquences de la limite en loi

• Y véri�e l'EDS :

dYt = h(`) (log π)′ (Yt)dt +√2h(`)dBt .

• La vitesse h est la limite de l'e�cacité d'ordre un :

2h(`) = limd→+∞

dαE[(X d

0 − X d1 )2].

• Si Y(1) véri�e la même EDS avec h = 1, alors(Y

(1)h(`)t

)t

loi= (Yt)t .

• Roberts and Tweedie (1996) : Y(1) est ergodique et admet π

comme loi invariante.

• Conséquence : maximiser h donne une meilleure convergence.

• Échelonnement du temps en dα : α est un ordre de grandeur

de la complexité.19 / 26

Page 37: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Comment choisir la variance de la proposition ?

Objectifs :

1. approcher le comportement en grande dimension par un objet

plus simple, convergence en loi vers une di�usion,

2. trouver un critère d'optimalité pour σ2d ,

σ2d = `2/dα où `

maximise h,

3. pouvoir comparer les méthodes.

, on compare la valeur α

donnée par l'échelonnement (meilleur lorsque α petit).

20 / 26

Page 38: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Comment choisir la variance de la proposition ?

Objectifs :

1. approcher le comportement en grande dimension par un objet

plus simple, convergence en loi vers une di�usion,

2. trouver un critère d'optimalité pour σ2d , σ2d = `2/dα où `

maximise h,

3. pouvoir comparer les méthodes.

, on compare la valeur α

donnée par l'échelonnement (meilleur lorsque α petit).

20 / 26

Page 39: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Comment choisir la variance de la proposition ?

Objectifs :

1. approcher le comportement en grande dimension par un objet

plus simple, convergence en loi vers une di�usion,

2. trouver un critère d'optimalité pour σ2d , σ2d = `2/dα où `

maximise h,

3. pouvoir comparer les méthodes, on compare la valeur α

donnée par l'échelonnement (meilleur lorsque α petit).

20 / 26

Page 40: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

État de la recherche : comparaison des méthodes

• RWM : échelonnement en α = 1 pour les densités régulières

par Roberts et al. (1997).

• MALA : échelonnement en α = 1/3 pour les densités

régulières par Roberts and Rosenthal (1997).

• RWM : échelonnement en α = 1 pour les densités peu

régulières (dérivée faible en moyenne Lp) par Durmus et al.

(2017).

• Question : MALA pour densités peu régulières ?

• Étude du cas π : x 7→ e−|x |/2.

21 / 26

Page 41: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

État de la recherche : comparaison des méthodes

• RWM : échelonnement en α = 1 pour les densités régulières

par Roberts et al. (1997).

• MALA : échelonnement en α = 1/3 pour les densités

régulières par Roberts and Rosenthal (1997).

• RWM : échelonnement en α = 1 pour les densités peu

régulières (dérivée faible en moyenne Lp) par Durmus et al.

(2017).

• Question : MALA pour densités peu régulières ?

• Étude du cas π : x 7→ e−|x |/2.

21 / 26

Page 42: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Résultats du stage

Page 43: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Échelonnement de MALA avec loi cible Laplace

• Cible π : x 7→ e−|x |/2.

• Mise à jour de la chaîne :

X dn+1 = X d

n +

(− `

2

dαsgn(X d

n ) +√2

`

dα/2Zdn+1

)1Ad

n+1.

• Rappel : P(Ad1 ) = E

[α(X d

0 ,Yd1 )].

Théorème (valeur d'échelonnement)

Soit σ2d = `2/dα, avec α = 2/3, et Φ la f.d.r. de la loi N(0, 1).

Alors limd→+∞ P[Ad1 ] = a(`), avec a(`) = 2Φ(−`3/2/(3π1/2)1/2).

22 / 26

Page 44: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Illustration

Taux d'acceptation en fonction de ` pour MALA avec cible Laplace.

23 / 26

Page 45: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Échelonnement de MALA avec loi cible Laplace

Théorème (di�usion limite et échelonnement optimal)

• α = 2/3 et (Ydt )t>0 dé�ni par

Ydt =

(dd2/3te − d2/3t

)X dbd2/3tc+

(d2/3t − bd2/3tc

)X ddd2/3te .

• Soit (Yt)t>0 solution de l'EDS

dYt = h(`) sgn(Yt)dt +√2h(`)dBt ,

avec B un mouvement brownien standard sur R.

• Alors {(Ydt,1)t>0 | d ∈ N∗} converge faiblement vers (Yt)t>0.

• De plus h(`) = `2Φ(−`3/2/(3π1/2)1/2),

• h est maximal pour ` tel que a(`) = 0.360.

24 / 26

Page 46: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Illustration

E�cacité d'ordre un multipliée par d2/3 en fonction du taux

d'acceptation, pour MALA avec cible Laplace.

25 / 26

Page 47: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Conclusion

Résultats pour l'échelonnement

de MALA avec cible Laplace :

• Nouvelle valeur de

l'échelonnement α = 2/3.

• Convergence en loi de Yd

vers une di�usion.

• Nouvelle optimisation

a(`) = 0.360.

Perspective : généraliser à des

densités continues mais pas C 1.

26 / 26

Page 48: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Merci de votre attention !

Page 49: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

References

A. Durmus, S. Le Cor�, E. Moulines, and G.O. Roberts. Optimal scaling of the random walk Metropolis

algorithm under Lp mean di�erentiability. Journal of Applied Probability, 54(4):1233�1260, 2017.

doi: 10.1017/jpr.2017.61.

W. K. Hastings. Monte carlo sampling methods using markov chains and their applications. Biometrika,

57(1):97�109, 1970. ISSN 00063444. URL http://www.jstor.org/stable/2334940.

N. Metropolis, A.W. Rosenbluth, M.N. Rosenbluth, and A.H. Teller. Equations of state calculations by

fast computing machine. J. Chem. Phys., 21:1087�1091, 1953.

Gareth O. Roberts and Richard L. Tweedie. Exponential convergence of langevin distributions and their

discrete approximations. Bernoulli, 2(4):341�363, 12 1996. URL

https://projecteuclid.org:443/euclid.bj/1178291835.

G.O. Roberts and J.S. Rosenthal. Optimal scaling of discrete approximations to Langevin di�usions. J.

R. Statist. Soc. B, 60:255�268, 1997.

G.O. Roberts, A. Gelman, and W.R. Gilks. Weak convergence and optimal scaling of random walk

Metropolis algorithms. The Annals of Applied Probability, 7(1):110�120, 1997.

Luke Tierney. Markov chains for exploring posterior distributions. Ann. Statist., 22(4):1701�1728, 12

1994. doi: 10.1214/aos/1176325750. URL https://doi.org/10.1214/aos/1176325750.

Page 50: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Méthodes de Monte Carlo : exemple

• On veut estimer π.

• Alors

π = U([−1, 1]2) et

h = 1B(0,1).

•∫R2 h(x2)π(x2)dx2

= π/4 .

Page 51: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Méthodes de Monte Carlo : exemple

n = 200

• On veut estimer π.

• Alors

π = U([−1, 1]2) et

h = 1B(0,1).

•∫R2 h(x2)π(x2)dx2

= π/4 .

Page 52: Savez-vous ce qu'est l'échelonnement optimalpablo.jimenez-moreno/P... · Échelonnement Optimal de l'Algorithme MALA avec Loi Cible Laplace Stage de M2, Probabilités et Statistiques

Méthodes de Monte Carlo : exemple

n = 10000

• On veut estimer π.

• Alors

π = U([−1, 1]2) et

h = 1B(0,1).

•∫R2 h(x2)π(x2)dx2

= π/4 .