48
Jean Cloutier Estimation bayesienne d'un modèle de volatilité stochastique et application au risque de taux d'intérêt Mémoire présenté À la Faculté des études supérieures de l'Université Laval dans le cadre du programme de maîtrise en économique pour l'obtention du grade de Maîtres es Arts (M.A.) Département d'économique Faculté des sciences sociales UNIVERSITÉ LAVAL QUÉBEC 2011 © Jean Cloutier, 2011

Estimation bayesienne d'un modèle de volatilité

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Estimation bayesienne d'un modèle de volatilité

Jean Cloutier

Estimation bayesienne d'un modèle de volatilité stochastique et

application au risque de taux d'intérêt

Mémoire présenté

À la Faculté des études supérieures de l'Université Laval

dans le cadre du programme de maîtrise en économique

pour l'obtention du grade de Maîtres es Arts (M.A.)

Département d'économique

Faculté des sciences sociales

UNIVERSITÉ LAVAL

QUÉBEC

2011

© Jean Cloutier, 2011

Page 2: Estimation bayesienne d'un modèle de volatilité
Page 3: Estimation bayesienne d'un modèle de volatilité

Résumé

La modélisation de la volatilité des actifs financiers s'est avérée un sujet très

populaire depuis plusieurs années. La performance accrue des ordinateurs a

permis d'appliquer les méthodes bayésiennes à l'estimation de ces modèles. Ce

mémoire traite de l'estimation bayesienne des modèles d'un modèle de volatilité

stochastique dans ses versions univariées et multivariées. L'estimation se fait par

un algorithme MCMC via la technique de l'augmentation des données. Par la

suite, une application au calcul de la valeur-à-risque sur un titre à revenus fixes

est démontrée.

Page 4: Estimation bayesienne d'un modèle de volatilité
Page 5: Estimation bayesienne d'un modèle de volatilité

1.1 Introduction

La mesure du risque sur les actifs financiers est depuis longtemps un sujet

d'intérêt en économétrie. Le risque financier est généralement mesuré en terme

de l'écart-type (ou volatilité) sur les rendements d'un actif ou sur les variations

d'un taux d'intérêt. La classe de modèle généralement utilisée pour mesurer

cette volatilité est celle des modèles à hétéroscédasticité conditionnelle, plutôt

connus sous le nom d'ARCH (qui signifie en anglais AutoRegressive Conditional

Heteroskedasticity) d'après l'article fondateur d'Engle (1982)1. Les modèles ARCH

ont certes l'avantage d'être simples mais sont contraints par la forte hypothèse

d'une fonction de variance déterministe. En d'autres termes, ces modèles

suppose que la variance future est connue de façon certaine ce qui n'est pas

tout-à-fait cohérent avec la réalité.

Une autre classe de modèle, appelles modèles de volatilité stochastique,

permettent de mieux capter les variations dans la volatilité des actifs. Cette

classe de modèles présente toutefois un défi majeur quant à leur estimation. En

effet, comme la volatilité est une variable latente, nous ne pouvons pas estimer

les paramètres du processus aléatoire suivi par celle-ci directement. Pour palier à

ce problème, trois alternatives sont connues. La première est l'estimation par la

méthode des moments généralisées qui consiste à isoler les paramètres du

1 Voir Engle( 1982)

Page 6: Estimation bayesienne d'un modèle de volatilité

modèle en fonction des différents moments de la variable aléatoire étudiée. La

seconde est l'estimation par la méthode de Quasi-Maximum de Vraisemblance

qui n'est autre que l'utilisation du filtre de kalman sur une version linéarisée des

données2. La dernière est l'estimation bayesienne et c'est elle qui sera décrite

dans ce mémoire. Cette méthode, qui sera expliquée plus en détail par la suite,

consiste à générer un échantillon pour chaque paramètre conditionnellement à

l'ensemble des autres paramètres. Pour extraire les volatilités, nous considérons

chacune de celles-ci comme des paramètres que nous estimons

conditionnellement à l'ensemble des autres paramètres (incluant les volatilités

passées et futures).

La plupart des articles scientifiques discutant du modèle de volatilité stochastique

discute d'applications aux actions ordinaires. Dans ce mémoire, je traiterai plutôt

d'applications aux titres à revenus fixes, en d'autres termes, à la volatilité des

taux d'intérêt. Le présent document sera divisé en six sections. La première

section sera une revue de la littérature, la seconde section décrira le modèle de

volatilité stochastique dans sa forme univariée et dans sa forme multivariée, la

troisième section traitera de l'application des méthodes bayésiennes à

l'estimation de ce modèle, la quatrième section traitera du calcul de la valeur-à-

risque sur différents types d'obligations, la cinquième section présentera un

2 Voir Broto et Ruiz (1994)

Page 7: Estimation bayesienne d'un modèle de volatilité

exemple empirique et finalement la dernière section sera une discussion sur les

résultats et la portée de l'information contenue dans ce document.

Page 8: Estimation bayesienne d'un modèle de volatilité

2.1 Revue de littérature

L'intérêt pour les modèles de volatilité stochastique remonte à un article de Clark

(1973)3 dans lequel il spécifie une distribution pour la variance dans le

changement des prix des contrats à terme sur le coton. La difficulté demeure par

contre dans l'estimation des paramètres d'un processus qui dirige le

comportement de cette variance à travers le temps. Engle (1982) et Bollerslev

(1986)4 proposent les modèles ARCH et GARCH qui modélisent la variance future

comme une fonction des termes d'erreur passés suivant le processus suivant :

y, = M + ^ £ t

h, =û)+ f3ht_x +_■•_•,__

Comme on peut le remarquer, la fonction de la variance conditionnelle n'est pas

stochastique.La nature déterministe de ces modèles pose donc un problème

lorsqu'on observe un changement de régime dans les données c'est-à-dire,

lorsque la variance augmente de façon soudaine et importante.

Les modèles de volatilité stochastique présente une alternative très intéressante

aux modèles ARCH/GARCH car ils peuvent s'adapter à un changement de régime

avec l'information contenue dans une seule période précédente. Par contre,

malgré cette capacité notable des modèles de volatilité stochastique, les modèles

ARCH/GARCH ont l'avantage d'être beaucoup plus simples à estimer. Les

3 Voir Clark (1973) 4 Voir Bollerslev (1986)

Page 9: Estimation bayesienne d'un modèle de volatilité

méthodes classiques d'estimation ne peuvent être basées sur la «vraie» fonction

de vraisemblance et sont donc moins précises. Plusieurs articles traitent de ces

méthodes tels que Ruiz et al. (2004) pour les méthodes basées sur le filtre de

Kalman ainsi que l'article de Andersen et Sorensen (1996)5 pour la méthode des

moments généralisée.

La difficulté du traitement d'une variable latente (la volatilité dans le cas qui nous

intéresse) rencontrée avec les méthodes classiques est considérablement

amoindrie lorsqu'on a recours aux méthodes bayesiennes. En effet, des articles

tels que ceux de Jacquier et al. (1994)6 et de Kim et al. (1998) présentent une

approche simplifiée de l'estimation des paramètres du modèle en faisant appel à

la technique de l'augmentation des données. Ces deux derniers articles traitent

de la version univariée du modèle qui, dans la pratique, est plus où moins

informative. Philipov et Glickman (2004)8 proposent l'extension naturelle de

l'article de Jacquier et al. au cas multivarié.

5 Voir Andersen et Sorensen (1996) 6 Voir Jacquier et Al. (1994) 7 Voir Kim et Al. (1998) 8 Voir Philipov et Glickman (2004)

Page 10: Estimation bayesienne d'un modèle de volatilité

3.1 Le modèle de volatilité stochastique univarié

La structure du modèle univarié est très simple. En résumé, nous supposons que

les rendements sur un actif financier suivent une marche aléatoire de moyenne /J

et dont le logarithme de la variance du terme d'erreur est dirigée par un

processus autorégressif d'ordre 1.

y , = p + Jh t -e , avec e, D JV(0,1)

log(h, ) = a + S - log(h,_{ ) + TJ, avec n ,□ N(0, a\ )

Nous avons donc un ensemble de quatre paramètres à estimer pour ce modèle

soient {ju,a,S,o-2h}- Nous verrons plus tard qu'il y a en fait un nombre beaucoup

plus grand de paramètres à estimer car la technique de l'augmentation des

données nécessite que nous traitions chacune des variables latentes (volatilités)

comme un paramètre à estimer.

Ce modèle, comme l'ont démontré Jacquier, Poison et Rossi, s'avère plus

performant que les modèles ARCH par la composante stochastique incorporée

dans la fonction de variance. Cela permet au modèle de s'adapter beaucoup plus

rapidement aux changements de régime dans la volatilité et par conséquent de

donner une mesure du risque plus appropriée. Par contre, l'estimation classique

Page 11: Estimation bayesienne d'un modèle de volatilité

de ce modèle étant plus complexe que celle d'un modèle ARCH a fait en sorte

que son utilisation ne soit pas encore très répandue. L'estimation bayesienne

démontrée plus loin dans le texte rend intéressante la substitution des modèles

ARCH par un modèle de volatilité stochastique.

Page 12: Estimation bayesienne d'un modèle de volatilité

3.2 Le modèle multivarié

La généralisation multivariée du modèle de volatilité stochastique est une

extension naturelle mais beaucoup plus complexe du modèle univarié. En effet,

l'augmentation du nombre de paramètres et la nécessité d'avoir une matrice de

covariance semi-définie positive rend l'estimation moins accessible.

La forme du modèle présenté dans ce mémoire est celle décrite dans l'article de

Glickman et Philipov (2004). Il s'agit en fait d'une généralisation du modèle

présenté à la section précédente. Le principe est exactement le même excepté

que l'on substitue immédiatement la loi log-normale pour une loi de inverse-

Wishart dans la forme du modèle au lieu d'utiliser cette loi pour approximer la

composante log-normale. On décrit le modèle de cette façon :

y , = P + £,

Avec :

ë t~N(P,I.;1)

Et:

Y? ~WisharHp,St_x)

Page 13: Estimation bayesienne d'un modèle de volatilité

Les paramètres u est le nombre de degrés de liberté et le paramètres St est

dépendant de la matrice de covariance Zt, de u, de la matrice-paramètre A et de

d.

s , = -v

2 A 2 fc-r

Les éléments diagonaux de A s'interprètent exactement de la même façon que le

paramètre 5 dans le modèle univarié, c'est-à-dire le coefficient d'autorégression

du processus suivi par la variance des différentes variables du modèle. Les

éléments en dehors de la diagonale sont également des coefficents

d'autorégression mais pour le processus des covariances. Ceux-ci donnent

également une indication de l'importance de la diffusion des chocs sur un actif en

particulier sur les autres actifs.

Pour expliquer plus clairement l'interprétation des paramètres, nous pouvons

calculer l'espérance de la matrice de covariance Z conditionnelle à l'ensemble des

paramètres :

£[_,-'K y, „,_;_,]= y-s, .^ __

A 2 k,r _ A 2

Page 14: Estimation bayesienne d'un modèle de volatilité

On constate que si le paramètre c'est nul, la variance est constante à travers le

temps. On constate également que si celui-ci est plus grand que 1, la variance

espérée sera plus grande d'une période à l'autre, en d'autre termes, le processus

sera non-stationnaire. Pour que le processus soit stationnaire, nous devons

obligatoirement avoir une valeur de d comprise entre 0 et 1. Une valeur de d

élevée indique donc une mémoire plus élevée du processus, et par conséquent

une valeur plus faible révèle que les variances passées contiennent moins

d'information sur les variances futures.

Page 15: Estimation bayesienne d'un modèle de volatilité

4.1 Echantillonnage de Gibbs

L'estimation bayesienne du modèle de volatilité stochastique se fait à l'aide de

l'échantillonnage de Gibbs. Cette technique popularisée par Geman et Geman

(1984)9 consiste à simuler itérab'vement chacun des paramètres du modèle à

partir de sa distribution a posteriori conditionnellement aux données observées

ainsi qu'à l'ensemble des autres paramètres. Si par exemple nous avons

l'ensemble de paramètres d = (di, d __..., d i) et les données x, la distribution du

paramètre 0/étant p(B i l 8 -i,x) nous pouvons effectuer des simulations selon la

chaîne suivante un nombre j de fois :

ei ~P(9x\e[-\ei-\ei-\...,er\x) e* ~P(e_\9>-\ei-\6t\...,9rx,X)

o'i~ P(0,,\6f\o{-\ei-\...,ej:?-,x)

Dans le cas particulier du modèle de volatilité stochastique, un des paramètres,

la volatilité à la période t est en fait une variable latente. Nous devrons donc

inclure chacune des volatilités dans la chaîne de simulation de l'échantillonnage

de Gibbs. Le résultat de cette simulation sera traité par un algorithme de

Metropolis-Hastings avec indépendance. Cette méthode est expliquée en détail

dans la section suivante.

9 Voir Geman et Geman (1984)

Page 16: Estimation bayesienne d'un modèle de volatilité

4.2 Estimation du modèle univarié

Comme nous l'avons dit précédemment, l'estimation du modèle de volatilité

stochastique est effectuée par le biais de la technique de l'augmentation des

données. Nous considérerons donc les volatilités comme faisant partie de notre

ensemble de paramètres. La simulation des paramètres s'effectue dans deux

chaînes cycliques dont l'une est incorporée dans l'autre. C'est l'idée même de la

technique de l'augmentation des données. Voici donc l'énoncé des étapes à

suivre pour la simulation :

1. Simuler le paramètre p conditionnellement aux volatilités observées et au

reste des paramètres. Il s'agit donc de la simulation du paramètre d'un

modèle de régression linéaire standard, sans variable explicative,

conditionnel à une variance connue. En supposant une loi a posteriori

normale, la distribution à posteriori p(pla,ô,o2h,h,y) est également

normale. On simule donc à partir de la distribution suivante :

p(p\a,S,a2h,h,y)=N(/3 l,A l-1)

Où:

Pi est l'estimateur des moindres carrés pour une régression linéaire des

rendements (yt) sur une constante (marche aléatoire).

Page 17: Estimation bayesienne d'un modèle de volatilité

A{x est la variance conditionnelle ht calculée à partir de l'ensemble des

autres paramètres.

2. Simuler les paramètres a et 5. Il s'agit du paramètre constant et du

coefficient d'autorégression d'un processus autorégressif d'ordre 1. La

simulation se fait donc de la même manière que pour le paramètre p via

la densité p(a,ô/p,cr\h,y) qui est une normale multivariée. À noter qu'il

est important de simuler conjointement a et 5 car ceux-ci ne sont pas

indépendants.

p(a,S\p,al,h,y) = N(K,'L)

A = a S

_ = ~ < _ 2

5 0 . _ . a * _ 2

5 0 . _

Où la matrice de covariance Z est calculée comme étant la variance de

l'ensemble des paramètres du processus autorégressif d'ordre 1 calculée

sur les variances conditionnelles.

3. Simuler le paramètre o2.,. En supposant toujours que nous connaissons le

reste des paramètres du modèle ainsi que les volatilités observées à

chaque période, nous sommes en mesure de récupérer les termes d'erreur

rjt = log h t - a - ôlog ht-i. Sachant que / j . ~ N(0, o2/,), et que la somme

des erreurs quadratiques d'une variable normale sur un échantillon de

Page 18: Estimation bayesienne d'un modèle de volatilité

taille Tsuit une distribution X2ret en supposant que la loi a priori de o2

.,

est une gamma de paramètre {ao,b0}, la loi a posteriori est donc :

p(a \ | h) « (a \ )TI2 ■ expHr,2 • S(lh) 12) • ( G \ )"»-' • expH>0 • o \ )

p(o-2h\h)oc(a2

h)TI2+^1 ■exP(-[S(h)l2 + b0)'CT2h)

_ ( / / ! ) _ X (log A, - a - S log à , . , ) 2

1=1

La résultante est donc une loi G(ai,bi) avec :

a, = a 0 + T / 2 bx=b0+S(logh)l2

Dans le cas qui nous intéresse, nous supposons que aO = bO = 0. Dans ce

cas spécial, nous obtenons que l'espérance de la distribution a posteriori

est :

al T/2 T bl S(logh)/2 S(logh)

Page 19: Estimation bayesienne d'un modèle de volatilité

Ce qui correspond à l'inverse de l'estimateur de la variance. Nous

effectuerons donc notre simulation à partir d'une distribution inverse-

gamma de paramètres {T/2,S(loqh)/2_*.

4. Simuler les volatilités ht. La simulation des volatilités doit être faite par un

algorithme de Metropolis-Hastings avec indépendance. Comme le

logarithme de la volatilité suit un processus markovien du premier ordre,

sa distribution conditionnelle ne sera caractérisée que par, hormis

l'ensemble des paramètres du modèle, la valeur présente du rendement

de l'actif sous-jacent y t ainsi que des valeurs passées et futures voisines

immédiates soient /?.._ et ht+1. La probabilité conditionnelle est donc le

produit des trois probabilités conditionnelles suivantes :

P(y,\h t- l,0) = - j=exp yjh,

p(h, \h,_„6) = - exp

p(h l + l \h t ,0)=- exp

2h,

1 2cr;

2cr,

(logh, -a -S logh t _, ) 2

( logh t + l -a-Slogh,) 2

Le produit de ces trois distribution résulte en une distribution jointe

conditionnelle qui s'avère être le produit d'une distribution inverse-gamma

et d'une distribution log-normale :

Page 20: Estimation bayesienne d'un modèle de volatilité

P(h t\h,_vh t+l, y,,0)oc exp _ -

(* - "

)' —exp

h, 1er ■s\ogh,-p,)2

M, = a ( l - ô ) + S(loghl_l+loght+[)

l + â2

a -l + S2

Le problème est de ramener cette distribution hybride à une distribution

plus commune pour faciliter la simulation. C'est d'ailleurs une des

innovations apportées par Jacquier et al. qui suggèrent d'approximer la

composante log-normale par une autre loi inverse-gamma dont la

moyenne et la variance sont égales à celles de la distribution log-normale.

Pour ce faire, nous devons trouver les valeurs des paramètres de la

distribution inverse-gamme a*et b*qu'\ satisfont les équations suivantes :

. l-2exp(<7 ) ° = 7

l-exp(cr ) b* = (5 -1) exp(//r + cr2 / 2)

1 a = ha

2 fc~=_____+i.

2

Page 21: Estimation bayesienne d'un modèle de volatilité

Les paramètres 5 et fcsont les paramètres de la distribution inverse-

gamma résultant du produit de deux distribution inverse-gamma. Une fois

que nous savons la loi à partir de laquelle nous pouvons simuler, nous

devons éprouver chacun des candidats simulés à l'aide d'une techniques

acceptation-rejet. Voici comment procéder :

1. Simuler un candidat h't à partir de la loir IG(a*b*).

2. Retenir le maximum de l'ensemble suivant :

*, 1\ P(h,\h^,h,+l,d,y) IG(hr\â,b) \ a — max< — ; =—,lr \pih;-4\hl.1,hl+1,e,y) iG(h,\â,b) J

3. Simuler Ue {0,1} d'une loi uniforme.

4. S\ U < à , retenir h\ = h,. Sinon, conserver h\ = h'~l.

4.3 Estimation du modèle multivarié

L'estimation du modèle multivarié suit la même logique que celle du modèle

univarié à l'exception que nous introduisons une difficulté supplémentaire avec la

génération des paramètres d et v. Nous devons donc construire un algorithme

Page 22: Estimation bayesienne d'un modèle de volatilité

dans lequel nous allons générer tous les paramètres du modèle comme nous

l'avons fait pour le modèle univarié.

1. Générer le vecteur des rendements moyens inconditionnels p. La densité

a posteriori conditionnelle de celui-ci est la même que celle utilisée dans le

cas univarié à l'exception qu'il est nécessaire de les générer

simultanément pour tenir compte de la corrélation entre ceux-ci comme

nous l'avons fait pour les paramètre a et 5 dans le cas univarié.

2. Générer l'inverse de la matrice-paramètre A à partir de sa distribution a

posteriori conditionnelle. En supposant une loi Wishart a priori et en ayant

une fonction de vraisemblance qui est également d'après une Wishart,

nous obtenons une loi a posteriori qui est également une Wishart :

p(A_11 !_-,//,_, v) « Wishart(y0,Q_)xWishart(y,Q) ïa-k-L i _Tv i

p(A-l\Ir,M,d,v)oc\A-l\ * exp[---fK_S1-A"')]-|/V-,| 2 txn[ - - t r (vÇr ' A"1)]

p(A-* \Z_,fi,d,v)oc Wishart(A-] | y, Q)

Dans ce cas, Q est le paramètre d'échelle défini par la fonction suivante

.'=»_*'+a" Q-1 =_T(2,-1)~Z/-1 •(_;_,)

T ___t d 2

i = l

Page 23: Estimation bayesienne d'un modèle de volatilité

Le paramètre y est quant à lui définit par le nombre d'observations, le

nombre de variables et le paramètre v :

y = y + y 0 - k - l y = T v + k + l ss> y =T-v+r 0

3. Pour simuler les paramètres d et v, Glickman et Philipov suggèrent de

discrétiser les lois a posteriori conditionnelles. Ici je ne présenterai que les

aspects techniques utiles à l'estimation. Le lecteur peut se référer à

l'annexe A. 1.4 de l'article de Glickman et Philipov pour voir la dérivation

complète des distributions a posteriori.

Les distributions a posteriori pour les paramètres d et y sont non-

standards. La distribution de d est définie par l'expression suivante :

p(d | A'1, __., p , v) oc exp -jtnwiil-^-^Q-1] d V L * M 2

Nous savons de la distribution de A que Q est une fonction de d. La

distribution de v correspond à l'expression suivante :

Page 24: Estimation bayesienne d'un modèle de volatilité

p{v\ A ' , I r , f i , d ) < * exp f + k - 1

2-k -1 In(w-A)-|-___(G-')|H

\ v -A-

2* fir v + j - \ xnia- P -n«p[—-"-[A-' •cr']

Voici donc la procédure :

i. La première étape consiste à construire des échantillons discrets

pour les deux paramètres sur un support déterminé arbitrairement.

Pour le paramètre d, nous déterminerons / valeurs entre dmi„ et

dmax. Le nombre de valeurs pour tf comprisent entre dminet dmaxest

déterminé de façon arbitraire par un nombre s. Pour le paramètre

v, Philipov et Glickman suggèrent la même procédure, à l'exception

que les pas entre les valeurs de v soient égales à un, car ce

paramètre doit absoluement appartenir à l'ensemble des entiers,

ii. En deuxième lieu, il faut évaluer les probabilités conditionnelles

pour chaque valeur de l'échantillon fictif :

p(d t \A-\ZT , f i ,v) = p i

p(v i\A~ l ,ZT ,p,d) = p j

Avec / = 1, ..., I e t j = 1 , . . . , J. Par la suite, on normalise les deux

distribution telles que :

Page 25: Estimation bayesienne d'un modèle de volatilité

P i = -p,

Z A

P J = -P j

ZP;

Page 26: Estimation bayesienne d'un modèle de volatilité

Par la suite, nous devons créer des intervalles Ai et Aj qui nous

permettrons d'effectuer des tirages à partir d'une loi uniforme

U[0,1].

A 2 = [ P 1 ^ P l + P l ]

A* = Z A - Z A . i=i ;=i

iv. Finalement, nous pouvons effectuer des tirages s de la loi uniforme

U[0,1] et déterminer les valeurs pour det v tels que :

d = „, si s e A,

v = Vj si s e A.

4. Après avoir défini les distributions a posteriori de tous les paramètres, il

ne reste qu'à simuler des valeurs pour les covariances Z et de les filtrer à

l'aide d'une technique acceptation-rejet. Encore une fois, je présenterai

directement la distribution a posteriori pour Z sans démontrer sa

Page 27: Estimation bayesienne d'un modèle de volatilité

dérivation complète. Cette démonstration est fait dans l'annexe A. 1.1 de

l'article de Philipov et Glickman.

Sachant que la distribution a posteriori conditionnelle à tous les autres

paramètres de Z est :

//■(_"' \d,A'\p,v) = Wishart(i"1 |v,£r__)

Avec

v = v ( l - d ) + l 5,_, = _,"_, + y, ■ y,

Et

5,-, = -v

f _\ A 2

\ J fttf

f M A 2

v >

Page 28: Estimation bayesienne d'un modèle de volatilité

Nous nous servons donc de cette distribution pour déterminer le ratio

d'acceptation-rejet de l'algorithme Metropolis-Hastings :

\n (cand)-l •exp

RA =

1 2 VuA-'ir^]

m 1 - v.t

(cand-\)-\ | 2

exp '-\tr[vA-**T" y%l,]

A partir de ces informations, on procède de la même façon qu'avec le

modèle univarié pour déterminer si on accepte où rejette un candidat.

Page 29: Estimation bayesienne d'un modèle de volatilité

5.1 Calcul de la valeur-à-risque sur une obligation à coupon semestriel

Dans cette section j'expliquerai le calcul de la valeur-à-risque (ci-après VaR) sur

une obligation versant des coupons périodiquement. La méthode de calcul de la

VaR présenté ici est la méthode Monte Carlo. Cette méthode ne présente pas

d'avantages significatifs dans le cas des obligations mais elle est toutefois une

des deux méthodes (avec la VaR dite historique) les plus répandues dans

l'industrie bancaire.

Le risque sur une obligation à coupon dépend de la volatilité des taux le long de

la structure à terme ainsi que de la corrélation entre ces taux. Si nous voulons

par exemple calculer une VaR sur une obligation venant à échéance dans un an

avec une valeur nominale de 1000$ et payant un coupon semestriel à un taux de

5%, nous devons connaître la volatilité des taux six mois et un an ainsi que la

corrélation entre ceux-ci. Par la suite, nous décomposons cette obligation en un

portefeuille d'obligations zéro-coupon, une payant 25$ dans six mois et l'autre

payant 1025$ dans un an. Ensuite, nous simulons les deux taux d'intérêt à partir

de la décomposition en valeur singulière (ci-après SVD) pour créer un échantillon

de rendement de portefeuille duquel nous pourrons extraire la VaR pour le

niveau de confiance désiré10.

10 Voir Mina et Xiao (2001)

Page 30: Estimation bayesienne d'un modèle de volatilité

L'utilisation de la SVD pour simuler des variables corrélées se fait de la façon

suivante :

1. Appliquer la SVD à la matrice de covariance pour obtenir :

I, = U D V '

2. Simuler un vecteur de variables aléatoires indépendantes suivant une loi

normale N(0,1). Ce vecteur s'appelera par exemple s.

3. Calculer le vecteur de rendements r :

r = D2 V s

Le vecteur rsuit une loi normale multivariée avec covariance Z.

4. Répéter la séquence un nombre suffisant d'itérations (exemple 10000

itérations) pour aller chercher le niveau de confiance désiré pour la VaR.

Page 31: Estimation bayesienne d'un modèle de volatilité

Lorsque nous avons les rendements (ou variations dans le cas des taux

d'intérêt) r pour le niveau de confiance désiré, nous réévaluons les actifs

détenus dans le portefeuille, et faisons la différence entre la valeur simulée et

la valeur actuelle pour obtenir la VaR :

VaR(a) = P(r5im(a))-P(r(t))

Où a est le niveau de confiance, rSim(a) correspond aux taux d'intérêts tirés

du vecteur rau niveau de confiance a et r(t) est le niveau des taux actuel.

Pour calculer une VaR sur une obligation, nous devons par contre connaître les

taux zéro-coupon que ne sont pas directement observés sur le marché. Pour ce

faire, nous devons les estimer à partir du prix des obligations dans le marché. La

technique utilisée ici est basée sur le modèle de Svensson (1994)11 qui est une

version étendue du modèle de Nelson et Siegel (1987)12. Le modèle décrit la

structure à terme des taux d'intérêt à l'aide d'un spline exponentiel :

11 Voir Svensson (1994) 12 Voir Nelson et Siegel (1987)

Page 32: Estimation bayesienne d'un modèle de volatilité

R Q \ 0 ) = A + A

l-exp r e \ TXJ

9 +/_• l-exp

( 9\

v V _ -exp

' 0A

V "17 + A

l-exp < 9^

\ Tu f n \

9 -exp e \ X Î J

Où les paramètres fa /3i, /32 et fc sont respectivement les paramètres de niveau,

de pente et de courbature (2 et 3). Pour trouver les taux zéro-coupon qui

reproduisent le mieux le prix des obligations dans le marché, j'utilise la méthode

suggérée par Fong et Vasicek (1982)13 qui consiste à minimiser la fonction

suivante :

2

min V A,./3,.A.A.r,.r2^

P,'-P,' co2

Avec

/j'=£cF,-exp(-_-tf(O,0))

_o_^l 1 d + yj( t ))2

13 Voir Fong et Vasicek (1982)

Page 33: Estimation bayesienne d'un modèle de volatilité

Où P/ est le prix de la /ième obligation au temps t et P/ est le prix théorique

de cette obligation calculé en actualisant les flux monétaires à partir des taux

obtenus par le modèle de Svensson. Les termes D2(t) et yt(t) sont

respectivement le carré de la durée de la /ième obligation et son rendement à

l'échéance ( Yield to maturity). On divise la fonction à minimiser par l'expression

oj2 pour corriger ITiétéroscédasticité et ainsi diminuer les erreurs d'évaluation

sur les obligations de court terme qui augmenterait celles sur les obligations de

long terme. De plus, il est recommandé de contraindre le prix théorique des

obligations benchmark et d'éliminer les obligations dites off the run dont le ratio

du taux de coupon sur le rendement à l'échéance est trop élevé. En d'autres

termes, il faut se concentrer à reproduire le prix des obligations les plus liquides

(benchmark^) car ce sont sur ces obligations que le risque d'arbitrage est le plus

élevé.

Page 34: Estimation bayesienne d'un modèle de volatilité

6.1 Exemple avec une obligation zéro-coupon canadienne de 10 ans

Pour cet exemple de calcul de valeur-à-risque, nous utiliserons un portefeuille

constitué d'une obligation hypothétique zéro-coupon de 10 ans émise par le

gouvernement canadien. Bien que l'obligation sur laquelle j'effectuerai les calculs

ne soit pas réelle, l'historique du taux 10 ans que j'utiliserai pour estimer la

valeur-à-risque sera dérivé d'obligations réelles à l'aide du modèle de Svensson

précédemment énoncé. L'historique est constitué de 93 données soient le prix de

34 obligations et 10 bons du trésors du 2 août au 10 décembre 2010 tirés des

prix publiés à 16h00 par PCBond Analytics. Le résultat de chacune des

calibrations se trouve en annexe de ce document. Les graphiques suivants

montrent respectivement l'allure générale de la structure à terme en date du 10

décembre 2010 ainsi que l'historique des taux 10 ans zéro-coupon utilisé dans

cet exemple. Le choix des dates a été fait au hasard et n'est donc pas en lien

avec quelconque événement de marché.

Structure à terme zéro-coupon : Gouvernement du Canada 10/12/2010

Page 35: Estimation bayesienne d'un modèle de volatilité

Taux zéro-coupon Canada : 02/08/2010 -10/12/2010

0.036

0.035 -0.034 / 0.033 - \ / i / \ N. 0.032 «vv hf \A J V * -0.031 VA / lA-v / \ f * -

1MB i i i i i i i i i 10 20 30 40 50 60 70 80 90 100

Pour s'assurer de la stationnarité de la série étudiée, l'historique des taux sera

différencié c'est-à-dire qu'on soustrait à chaque donnée la donnée qui la précède

ce qui a pour effet de « stationnariser» la série à l'étude. Voici une

représentation graphique de l'historique de la série différenciée :

_.10-i Différenciation du taux zéro-coupon Canada : 02/08/2010 -10/12/20101

TT Tl Ja 11, Jlll m

10 20 40 50 60 70 80 90 100

On peut constater grossièrement en jetant un coup d'oeil au graphique que cette

série semble « souffrir » d'hétéroscédasticité. En effet, on peut remarquer que le

taux d'intérêt 10 ans semble plus volatile au début et à la fin de la série et qu'il

semble y avoir une accalmie dans les données médianes. La prochaine étape

Page 36: Estimation bayesienne d'un modèle de volatilité

consiste à observer la fonction d'autocorrélation du carré de la differentiation des

taux d'intérêt pour avoir une idée de l'information qu'on peut tirer d'un modèle

de volatilité.

Fonction d'autocorrélation

1 1 1 1 1

1 -f 1 1 + 1 + 1

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

i i i i i i i i i î

! ! ! l ' ! » i ■ i ■

i i i i i i i i i

10 Retards

On peut constater que l'autocorrélation est très faible dans cette série. Dans le

cas des modèle GARCH, il est connu que ceux-ci produisent une fonction

d'autocorrélation très adoucie et généralement avec des valeurs très élevées

pour l'autocorrélation. Dans l'article de Jacquier, Poison et Rossi, il est montré

que les volatilités extraites du modèle de volatilité stochastique reproduisaient

avec une plus grande fidélité la fonction d'autocorrélation du carré des erreurs.

Page 37: Estimation bayesienne d'un modèle de volatilité

6.2 Estimation du modèle univarié sur le point 10 ans

L'estimation du modèle univarié présentée ici a été effectuée en suivant la

méthode suggérée par Jacquier, Poison et Rossi tel qu'elle est présentée à la

section 3.1 . La simulation a été effectuée pour 100 000 itérations. On estime

l'espérance et la variance des estimateurs avec une moyenne et une variance

échantillonnale standard. Les graphiques suivants montrent l'allure de la

convergence au fil des simulations pour chacun des paramètres.

Paramètre MU : 100 000 simulations

Paramétre ALPHA : 100 000 simulation»!

Page 38: Estimation bayesienne d'un modèle de volatilité

Paramètre DELTA : 100 000 simulations]

Paramètre SIGMA-h : 100 000 simulations]

im» « n i ii i _ i i _

■___■ 8 9 10

«10*

On peut remarquer la convergence très nette de tous les paramètres à partir

d'environ 30 OOOème itération. On peut donc considérer d'utiliser les 25 000

dernières pour calculer la moyenne et la variance des estimateurs pour être

raisonnablement conservateur. Le tableau ci-bas présente ces statistiques.

M a 5 °-h Moyenne -3.25E-08 -1.85E+01 1.69E-03 2.53E-01

Ecart-type 6.49E-06 6.18E-01 3.36E-02 3.83E-02

Page 39: Estimation bayesienne d'un modèle de volatilité

Comme les volatilités sont estimées comme des paramètres, pour observer les

volatilités extraites à partir de cet ensemble de paramètres, on doit utiliser les

moyennes des 25 000 dernières itérations pour chacune des 92 volatilités de

l'échantillon. Les volatilités sont en fait les racines carrées des variances ht.

JTaux Canada 10 ans 02/08/2010 -10/12/2010 : Volatilités estimées]

70 80 90 100

Le graphique ci-haut montre les volatilités extraites du modèle de volatilité

stochastique comparées à celle calculées avec une moyenne mobile

exponentiellement pondérée comme celle utilisée par le système RiskMetrics

avec un paramètre de lissage de 0.94 dont l'usage est très répandue dans le

calcul de la VaR. Ce modèle s'apparente au modèle « Integrated GARCH»

(IGARCH).

On peut remarquer une différence importante entre les deux modèles soit la

capacité à capter les valeurs extrêmes dans la volatilité. C'est en effet ce qui

ressort souvent des comparaisons entre les deux classes de modèles comme

l'ont fait Kim, Shephard et Chib (1998). Cela porte à croire que le modèle de

Page 40: Estimation bayesienne d'un modèle de volatilité

volatilité stochastique peut ne pas être le meilleur outil de calcul de la VaR. En

effet, la grande sensibilité du modèle comparativement à un modèle de la famille

ARCH fait en sorte que la prédiction de la volatilité peut s'avérer n'être « pas

assez conservatrice » dans un contexte de gestion du risque de sorte que le

modèle est plus apte à capter les valeurs extrêmes mais qu'il n'arrive pas à bien

reproduire la « moyenne des valeurs extrêmes ». Dans le cas qui nous intéresse,

cette explication prend beaucoup de sens. Avec un coefficient d'autorégression

de moins de 0.0017, la log-volatilité prédite à la période suivante ne peut être

que très proche du coefficient constant. Une bonne façon de visualiser cette

capacité à capter les valeurs extrêmes est d'ordonner les volatilités observées

c'est-à-dire la racine carré des erreurs élevées au carré, et d'appliquer l'ordre

ainsi obtenu aux volatilités estimées. Voici la représentation graphique de cet

exercice auquel a été ajouté l'estimation de la moyenne mobile

exponentiellement pondérée (EWMA) de RiskMetrics.

Volatil ité» observés classées en ordre décroissant. Volatilité estimées associées'

-•-EWMA -«-Volatilité Stochastique -r-Volatilités observées

Page 41: Estimation bayesienne d'un modèle de volatilité

On peut facilement remarquer que le modèle de volatilité stochastique réagit

bien dans les grandes variations mais qu'en contrepartie il admet de plus

grandes erreurs dans les cas moins extrêmes. Dans un contexte de VaR, cette

capacité de rejoindre les valeurs extrêmes est un atout remarquable. En effet,

l'objectif de la VaR est de reproduire une distribution de profits et pertes qui

englobent les cas les plus extrêmes et surtout lorsqu'il existe peu

d'autocorrélation dans la volatilité.

Page 42: Estimation bayesienne d'un modèle de volatilité

6.3 Calcul de la Valeur-à-Risque Monte Carlo 99% pour le 13/12/2010

Les modèles de volatilité généralement utilisés pour le calcul de la VaR sont des

modèles déterministes, ce qui implique donc qu'on suppose connaître d'avance

les volatilités des périodes subséquentes. Dans le cas de la volatilité

stochastique, on va chercher la volatilité extrême sur la distribution de la

volatilité. En d'autres termes, on peut aller chercher une variation extrême dans

la variabilité du niveau d'un facteur de risque comme on le fait déjà pour les

variations du niveau de ce facteur elles-mêmes.

La méthode de calcul est la même que celle expliquée dans la section 4.1 en

considérant préalablement une volatilité extrême suivant la distribution estimée.

Dans notre cas, nous choisissons la volatilité correspondant à notre niveau de

confiance c'est-à-dire une probabilité de 99%. Concrètement, on prend la

prédiction de la log-volatilité en t+1 que nous multiplions par le facteur

approprié. Avec la volatilité obtenu, on peut simuler les rendements et réévaluer

l'actif étudié pour chaque variation du niveau du facteur de risque pour obtenir

une distribution de profits et de pertes de laquelle on extrait la perte

correspondant à notre niveau de confiance.

Pour calculer la VaR du 13 décembre 2010, nous utilisons donc la volatilité du 10

décembre (le 13 décembre était un lundi) pour prédire la volatilité de la

Page 43: Estimation bayesienne d'un modèle de volatilité

prochaine période. La volatilité prédite pour le 13 décembre est donc 0.0095%.

Par contre, comme nous voulons la volatilité pour un niveau de confiance de

99%, nous devons ajouter 2.33 fois l'écart-type de la volatilité. Par la suite, nous

faisons 25000 simulation de variation du taux d'intérêt en prenant la moyenne

estimée et la volatilité prédite. On prendra ensuite la 250eme plus forte valeur et

on appliquera cette variation au taux d'intérêt observé le 10 décembre. Voici la

représentation graphique des 25000 simulations.

Variations simulées du taux d'intérêt Canada 10 ans : 25000 itérations

La 250eme plus forte valeur pour cette ensemble est de 3,4549 points de base. Le

taux 10 ans zéro-coupon pour le 10 décembre était de 3,4264%. Le taux

d'intérêt « choqué » sera donc de 3,4610%. Si on suppose une obligation zéro-

coupon payant 1000$ canadien à l'échéance, la Valeur-à-risque 99% pour la

journée de négociation du 13 décembre était donc de :

[ EXP(-10*0.034264)*1000 ] - [ EXP(-(10-3/365)*0.034610)*1000 ] = 2,2507$

Page 44: Estimation bayesienne d'un modèle de volatilité

Il y aurait donc une probabilité de 1% que le détenteur de cette obligation perde

2,2507$ entre le 10 décembre et le 13 décembre 2010.

Page 45: Estimation bayesienne d'un modèle de volatilité

7.0 Conclusion

L'objectif de ce texte était de montrer l'efficacité des méthodes bayesiennes dans

le traitement des modèles à variables latente dans le cas plus précis de

l'estimation des modèles de volatilité stochastique univarié et multivarié et

d'ensuite discuté de l'application du modèle univarié dans un contexte de VaR.

Cet exercice a également permis d'observer que d'incorporer la notion de risque

au niveau de la volatilité et non plus seulement au rendement permet une

analyse plus approfondie de la VaR. De plus, la capacité du modèle de volatilité

stochastique de capter les variations extrêmes dans la variation du niveau d'un

facteur de risque le rend très attrayant comparativement aux techniques

couramment utilisées dans l'industrie.

Le cas du modèle multivarié, bien qu'il n'ait pas été testé ici, pourrait s'avérer

également très intéressant, notamment lorsqu'il s'agit d'analyser les variations

extrêmes dans les corrélations dans les périodes de crash. Cela permettrait

d'évaluer plus en profondeur la réactivité du portefeuille à une situation de crise

que ne le font les moyennes mobiles utilisées en ce moment par l'industrie. Il

pourrait également être utilisé pour estimer les coefficients d'un modèle de

régression linéaire généralisé utilisé pour construire des simulations de crises.

Page 46: Estimation bayesienne d'un modèle de volatilité

Bien qu'on puisse constater les nombreux avantages de ces modèles au niveau

théorique, il est pour l'instant difficile d'imaginer I' « opérationalisation » de ceux-

ci. En effet, les instititutions financières comptent dans leurs portefeuilles de très

grandes quantités de positions qui sont dépendantes d'un nombre presqu'aussi

grand de facteurs de risque. Cela implique la manipulation d'énorme matrices de

covariance, un nombre exponentiel de paramètres à valider et un temps de

calcul certainement trop long pour l'industrie. De plus, l'automatisation de

l'analyse des résultats serait également un défi considérable. Par contre, la

croissance importante de la vitesse de calcul des ordinateurs ainsi que la plus en

plus grande efficacité des algorithmes développés pour automatiser les

processus, permet de croire que l'avenir réserve une place de choix aux

méthodes bayesiennes dans la pratique de l'économétrie financière.

Page 47: Estimation bayesienne d'un modèle de volatilité

8.0 Références

[1] Andersen, T.G. et Sorensen, B., 1986. «GMM estimation of stochastic

volatility models : a Monte Carlo study». Journal of business and economic

statistic, 14, pp.328-352.

[2] Bollerslev, T., 1986. «Generalized autoregressive conditional

heteroskedasticity». Journal of econometrics, pp.307-327.

[3] Broto, C. et Ruiz, E., 2004. «Estimation methods for stochastic volatility

models ». Journal of economic surveys, vol.18, no.5.

[4] Clark, P.K., 1973. «A subordinated stochastic process model with fixed

variance for speculative prices». Econometrica, 41, pp. 135-156.

[5] Engle, R.F., 1982. «Autoregressive conditional heteroskedasticity with

estimation of the United Kingdom inflation». Econometrica, pp.987-1007.

[6] Geman, D. et Geman, S., 1984. «Stochastic relaxation, Gibbs distribution,

and the Bayesian restoration of images». IEEE Transaction on Pattern analysis

and Machine Intelligence, 6, pp.721-741.

[7] Hamilton, J.D., 1994. Time series analysis. Princeton University press.

[8] Hull, J.C., 2002. Fundamentals of futures and options markets. Prentice-Hall.

[9] Jorion, P. , 1996. «Risk2 : Measuring the risk in Value at Risk». Financial

analysts journal, November/December 1996, pp. 47-55.

[10] JP Morgan/Reuters , 1996. «RiskMetrics - Technical document, fourth

edition». Morgan Guaranty Trust Company of New York.

Page 48: Estimation bayesienne d'un modèle de volatilité

[11] Kim, S., Shephard, N. et Chib, S., 1998. «Stochastic volatility : Likelihood

inference and comparison with ARCH models». The review of economic studies,

Vol.65, no.3 pp.361-393.

[12] Mina, J. et Xiao, J.Y., 2001. «Return to RiskMetrics : The evolution of a

standard». RiskMetrics Group Inc.

[13] Nelson, CR. et Siegel, A.F., 1987. «Parsimonious modeling of yield

curves». Journal of business, Vol.60, pp.473-489.

[14] Philipov, A. et Glickman, M.E., 2006. «Multivariate stochastic volatility via

Wishart process ». Journal of business and economic statistics, 24(3) pp.313-

328.

[15] Pitt, M.K. et Shephard, N., 1999. «Filtering via simulation : Auxiliary particle

filters». Journal of the American statistical association, Vol.94, no. 446 pp.590-

599.

[16] Svensson, L., 1994. «Estimating and interpreting foreward rates : Sweden

1992-1994». IMF Working Paper No. 94/114.

[17] Vasicek, O. et Fong, H.G., 1982. «Term structure modeling using

exponential splines ». Journal of the finance, Vol.37, pp.339-348.