145
Université de Montréal Les modèles vectoriels et multiplicatifs avec erreurs non-négatives de séries chronologiques par Emilie Moutran Département de mathématiques et de statistique Faculté des arts et des sciences Mémoire présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en Discipline mai 2014 c Emilie Moutran, 2013

Université de Montréal Les modèles vectoriels et multiplicatifs avec

  • Upload
    lethu

  • View
    220

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Université de Montréal Les modèles vectoriels et multiplicatifs avec

Université de Montréal

Les modèles vectoriels et multiplicatifs avec erreursnon-négatives de séries chronologiques

par

Emilie Moutran

Département de mathématiques et de statistiqueFaculté des arts et des sciences

Mémoire présenté à la Faculté des études supérieuresen vue de l’obtention du grade de

Maître ès sciences (M.Sc.)en Discipline

mai 2014

c© Emilie Moutran, 2013

Page 2: Université de Montréal Les modèles vectoriels et multiplicatifs avec

Université de MontréalFaculté des études supérieures

Ce mémoire intitulé

Les modèles vectoriels et multiplicatifs avec erreursnon-négatives de séries chronologiques

présenté par

Emilie Moutran

a été évalué par un jury composé des personnes suivantes :

Nom du président du jury(président-rapporteur)

Pierre Duchesne(directeur de recherche)

Nom du membre de jury(membre du jury)

Mémoire accepté le:

Date d’acceptation

Page 3: Université de Montréal Les modèles vectoriels et multiplicatifs avec

iii

SOMMAIRE

L’objectif du présent mémoire vise à présenter des modèles de séries chro-nologiques multivariés impliquant des vecteurs aléatoires dont chaque compo-sante est non-négative. Nous considérons les modèles vMEM (modèles vecto-riels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engleet Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une géné-ralisation au cas multivarié des modèles MEM introduits par Engle (2002). Cesmodèles trouvent notamment des applications avec les séries chronologiquesfinancières. Les modèles vMEM permettent de modéliser des séries chronolo-giques impliquant des volumes d’actif, des durées, des variances condition-nelles, pour ne citer que ces applications. Il est également possible de faire unemodélisation conjointe et d’étudier les dynamiques présentes entre les sérieschronologiques formant le système étudié.

Afin de modéliser des séries chronologiques multivariées à composantesnon-négatives, plusieurs spécifications du terme d’erreur vectoriel ont été pro-posées dans la littérature. Une première approche consiste à considérer l’uti-lisation de vecteurs aléatoires dont la distribution du terme d’erreur est telleque chaque composante est non-négative. Cependant, trouver une distribu-tion multivariée suffisamment souple définie sur le support positif est plutôtdifficile, au moins avec les applications citées précédemment. Comme indi-qué par Cipollini, Engle et Gallo (2006), un candidat possible est une distri-bution gamma multivariée, qui impose cependant des restrictions sévères surles corrélations contemporaines entre les variables. Compte tenu que les pos-sibilités sont limitées, une approche possible est d’utiliser la théorie des co-pules. Ainsi, selon cette approche, des distributions marginales (ou marges)peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendanceentre les composantes. Une technique d’estimation possible est la méthode du

Page 4: Université de Montréal Les modèles vectoriels et multiplicatifs avec

iv

maximum de vraisemblance. Une approche alternative est la méthode des mo-ments généralisés (GMM). Cette dernière méthode présente l’avantage d’êtresemi-paramétrique dans le sens que contrairement à l’approche imposant uneloi multivariée, il n’est pas nécessaire de spécifier une distribution multivariéepour le terme d’erreur.

De manière générale, l’estimation des modèles vMEM est compliquée. Lesalgorithmes existants doivent tenir compte du grand nombre de paramètres etde la nature élaborée de la fonction de vraisemblance. Dans le cas de l’estima-tion par la méthode GMM, le système à résoudre nécessite également l’utili-sation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoupd’énergies ont été consacrées à l’élaboration de code informatique (dans le lan-gage R) pour estimer les différents paramètres du modèle.

Dans le premier chapitre, nous définissons les processus stationnaires, lesprocessus autorégressifs, les processus autorégressifs conditionnellement hé-téroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nousprésentons aussi les modèles de durées ACD et les modèles MEM. Dans ledeuxième chapitre, nous présentons la théorie des copules nécessaire pournotre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreursnon-négatives vMEM. Nous discutons également des méthodes possibles d’es-timation. Dans le troisième chapitre, nous discutons les résultats des simula-tions pour plusieurs méthodes d’estimation. Dans le dernier chapitre, des ap-plications sur des séries financières sont présentées. Le code R est fourni dansune annexe. Une conclusion complète ce mémoire.

Page 5: Université de Montréal Les modèles vectoriels et multiplicatifs avec

v

SUMMARY

The objective of this master thesis is to present models for multivariate timeseries involving random vectors where each component is non-negative. Weconsider vMEM models (vector multiplicative error models) presented by Ci-pollini, Engle and Gallo (2006) and Cipollini and Gallo (2010). These modelsrepresent a generalization to the multivariate case of MEM models introducedby Engle (2002). These models are applied especially with financial time series.The vMEM models can be used to model time series involving asset volumes,durations, conditional variances, among these applications. It is also possibleto model the variables jointly and to study the dynamics between these timeseries forming the system under study.

To model multivariate time series with non-negative components, severalspecifications for the term vector error have been proposed in the literature.One approach is to consider the use of random vectors where the distribu-tion of the error term is such that each component is non-negative. However,finding a sufficiently flexible multivariate distribution defined on the positivesupport is rather difficult, at least with the applications mentioned above. Asindicated by Cipollini, Engle and Gallo (2006), a possible candidate is the mul-tivariate gamma distribution, which however imposes severe restrictions onthe contemporaneous correlations between variables. Since the possibilities arelimited, one possible approach is to use the theory of copulas. Thus, accor-ding to this approach, margins can be specified, such that the distributions inquestion have non-negative supports, and a copula function takes into accountthe dependency between components. A possible estimation technique is themethod of maximum likelihood. An alternative approach is the generalizedmethod of moments (GMM). This latter method has the advantage of beingsemi-parametric in the sense that unlike the approach imposing a multivariate

Page 6: Université de Montréal Les modèles vectoriels et multiplicatifs avec

vi

distribution, it is not necessary to specify a multivariate distribution for the er-ror term.

Generally, estimating vMEM models is complicated. Existing algorithmsmust take into account the large number of parameters and the elaborate na-ture of the likelihood function. In the case of the GMM estimation method,solving the system requires the use of solvers for non linear systems. In thisproject, considerable energy has been devoted to the development of compu-ter code (in the R language) to estimate the different parameters of the model.

In the first chapter, we define the stationary processes, autoregressive pro-cesses, the autoregressive conditional heteroskedasticity processes (ARCH) andthe generalized ARCH processes (GARCH). We also present duration modelsACD and MEM models. In the second chapter, we present the theory of copu-las needed for our work, under the vector multiplicative error models vMEM.We also discuss the possible estimation methods. In the third chapter, we dis-cuss the simulation results for several estimation methods. In the last chapter,applications to financial time series are presented. The R code is provided inan Appendix. A conclusion completes this thesis.

Page 7: Université de Montréal Les modèles vectoriels et multiplicatifs avec

vii

TABLE DES MATIÈRES

Sommaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii

Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v

Liste des figures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix

Liste des tableaux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . x

Remerciements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

Chapitre 1. Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1. Séries temporelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2. Notion de stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.3. Modèles ARCH univariés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.3.1. Propriété de stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.3.2. Modèles ARCH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.4. Modèles GARCH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.4.1. Propriété de stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.4.2. GARCH multivariés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.5. Modèles ACD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.5.1. Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.5.2. Modèles ACD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1.6. Modèles MEM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231.6.1. Spécification de εt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251.6.2. Spécification de µt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261.6.3. Estimation et inférence du modèle MEM . . . . . . . . . . . . . . . . . . . . . 29

Chapitre 2. Modèles vMEM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

Page 8: Université de Montréal Les modèles vectoriels et multiplicatifs avec

viii

2.1. Distribution gamma multivariée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.2. Propriétés fondamentales des copules . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.2.1. Définition de la fonction de répartition conjointe et des lois

marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362.2.2. Simuler une copule normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

2.3. Présentation du modèle vMEM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402.3.1. Exemples d’utilisation de l’approche vMEM . . . . . . . . . . . . . . . . . . 412.3.2. Définition et formulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.3.3. Spécification de µt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442.3.4. Spécification de εt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2.3.4.1. Copule normale de distributions marginales gamma . . . . . . 46

2.4. Estimation du modèle vMEM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.4.1. Maximum de vraisemblance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

2.4.1.1. Les dérivées de la log vraisemblance concentrée . . . . . . . . . . 502.4.2. Méthode des moments généralisés (GMM) . . . . . . . . . . . . . . . . . . . 522.4.3. Méthode des erreurs standard associées aux paramètres (WNLS)

55

Chapitre 3. Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

3.1. Déscription de la simulation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 583.1.1. Problèmes numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

3.2. Présentations des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

Chapitre 4. Analyses de données réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

4.1. Analyse et modélisation de chaque série . . . . . . . . . . . . . . . . . . . . . . . . . 72

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

Annexe A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A-i

Annexe B. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B-i

Page 9: Université de Montréal Les modèles vectoriels et multiplicatifs avec

ix

LISTE DES FIGURES

B.1 Graphiques représentant les séries des trois variables relatives àS&P500 : Le rendement absolu, la volatilité réalisée selon la méthodedu noyau et la différence entre le prix le plus élevé et le prix le plusbas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B-ii

B.2 Graphiques représentant les séries des trois variables relatives àS&P400 : Le rendement absolu, la volatilité réalisée selon la méthodedu noyau et la différence entre le prix le plus élevé et le prix le plusbas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .B-iii

B.3 Graphiques représentant les séries des trois variables relatives àFTSE100 : Le rendement absolu, la volatilité réalisée selon la méthodedu noyau et la différence entre le prix le plus élevé et le prix le plusbas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .B-iv

Page 10: Université de Montréal Les modèles vectoriels et multiplicatifs avec

x

LISTE DES TABLEAUX

3.1 Nombre de cas sur 1000 où il y a eu convergence pour les septmodèles de 1000 réalisations par rapport au nombre d’observations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

3.2 Propriétés empiriques des estimations ponctuelles et estimations devariances lors d’une simulation de taille 1000 pour le modèle 1 définipar (3.1.1) pour T = 1000 et 5000. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

3.3 Propriétés empiriques des estimations ponctuelles et estimations devariances lors d’une simulation de taille 1000 pour le modèle 2 définipar (3.1.2) pour T = 1000 et 5000. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

3.4 Propriétés empiriques des estimations ponctuelles et estimations devariances lors d’une simulation de taille 1000 pour le modèle 3 définipar (3.1.3) pour T = 1000 et 5000. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

3.5 Propriétés empiriques des estimations ponctuelles et estimations devariances lors d’une simulation de taille 1000 pour le modèle 4 définipar (3.1.4) pour T = 1000 et 5000. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

3.6 Propriétés empiriques des estimations ponctuelles et estimations devariances lors d’une simulation de taille 1000 pour le modèle 5 définipar (3.1.5) pour T = 1000 et 5000. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

3.7 Propriétés empiriques des estimations ponctuelles et estimations devariances lors d’une simulation de taille 1000 pour le modèle 6 définipar (3.1.6) pour T = 1000 et 5000. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

3.8 Propriétés empiriques des estimations ponctuelles et estimations devariances lors d’une simulation de taille 1000 pour le modèle 7 définipar (3.1.7) pour T = 1000 et 5000. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

4.1 Estimation des paramètres du modèle vMEM(1,1) en utilisant laméthode semi-paramétrique GMM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

Page 11: Université de Montréal Les modèles vectoriels et multiplicatifs avec

xi

4.2 Estimation des paramètres du modèle vMEM(1,1) en utilisant laméthode paramétrique maximum de vraisemblance. . . . . . . . . . . . . . . . 75

4.3 Test de Ljung-Box multivarié des indices boursiers étudiés par laméthode semi-paramétrique GMM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

4.4 Test de Ljung-Box multivarié des indices boursiers étudiés par laméthode paramétrique maximum de vraisemblance. . . . . . . . . . . . . . . . 77

4.5 Estimation des paramètres du modèle vMEM(2,1) en utilisant laméthode semi-paramétrique GMM et la méthode paramétriquemaximum de vraisemblance de l’indice boursier S&P500. . . . . . . . . . . 78

4.6 Estimation des paramètres du modèle vMEM(2,1) en utilisant laméthode semi-paramétrique GMM et la méthode paramétriquemaximum de vraisemblance de l’indice boursier S&P400. . . . . . . . . . . 79

4.7 Estimation des paramètres du modèle vMEM(2,1) en utilisant laméthode semi-paramétrique GMM et la méthode paramétriquemaximum de vraisemblance de l’indice boursier FTSE100. . . . . . . . . . 80

4.8 Test de Ljung-Box multivarié du modèle vMEM(2,1) des indicesboursiers étudiés par la méthode semi-paramétrique. . . . . . . . . . . . . . . 80

4.9 Test de Ljung-Box multivarié du modèle vMEM(2,1) des indicesboursiers étudiés par la méthode paramétrique. . . . . . . . . . . . . . . . . . . . . 81

Page 12: Université de Montréal Les modèles vectoriels et multiplicatifs avec

1

REMERCIEMENTS

Je tiens à remercier de tout cœur mon directeur de recherche, MonsieurPierre Duchesne, pour l’orientation, les précieux conseils, le soutien financier,les encouragements, les motivations, la patience et la confiance durant ce tra-vail.

Je tiens à remercier ma famille, spécialement mon mari Roy pour son sou-tien moral, son encouragement continuel et tout ce qu’il a fait pour moi.

Je tiens à remercier également tous nos enseignants durant les années desétudes, aussi Guillaume Provencher pour le soutien informatique qu’il a pré-senté durant ce projet.

Je tiens à remercier toute personne qui a participé de près ou de loin à l’exé-cution de ce travail.

Enfin, je tiens à remercier également les membres du jury pour l’intérêtqu’ils ont accordé à mon travail.

Page 13: Université de Montréal Les modèles vectoriels et multiplicatifs avec

INTRODUCTION

L’étude du comportement des marchés financiers est souvent basée sur l’ana-lyse de la dynamique des processus dont les valeurs sont non-négatives. Desexemples sont les volumes totaux de transactions au cours d’une période don-née, les volatilités réalisées, la différence entre le prix le plus haut et le prix leplus bas observés au cours d’un intervalle de temps (en anglais range), les ren-dements absolus, les durées financières et le nombre de transactions. Voir parexemple l’ouvrage de Bauwens et Giot (2001).

Les classes de modèles autorégressifs conditionnellement hétéroscédastiques(ARCH) ou leurs généralisations (GARCH) sont souvent utilisées afin de mo-déliser des variances conditionnelles. Ces variances conditionnelles sont en faitdes mesures de volatilité dans la littérature financière. Voir Tsay (2010) pourles applications des séries chronologiques en finance. L’ouvrage de Francq etZakoïan (2009) contient une étude approfondie des modèles GARCH. Les mo-dèles ARCH et GARCH ont été généralisés afin de modéliser des durées. Cesmodèles sont utiles car ils permettent de modéliser le temps entre les transac-tions boursières, qui est en général une variable aléatoire lorsque les transac-tions sont enregistrées en temps réel. Voir Engle et Russell (1998) qui étudientles modèles de durées conditionnellement autorégressives (ACD). Les caracté-ristiques communes des modèles ARCH, GARCH et ACD ont suggéré la classeplus large des modèles multiplicatifs avec erreurs non-négatives (MEM). Cesmodèles ont été introduits par Engle (2002). Ils sont utiles pour la modélisa-tion de séries financières non-négatives caractérisées par des phénomènes deregroupement (en anglais clustering) et de persistance.

Le processus décrivant la dynamique des variables peut être spécifié commele produit d’un facteur d’échelle conditionnellement déterministe qui évolueselon une équation de type GARCH et un terme d’erreur jouant le rôle de l’in-novation qui est souvent supposé un bruit blanc fort constitué de variables

Page 14: Université de Montréal Les modèles vectoriels et multiplicatifs avec

3

aléatoires indépendamment distribuées et de moyennes unitaires. D’autres mo-dèles ont été proposés dans la littérature afin de modéliser les phénomènesdécrits précédemment. On peut consulter Manganelli (2002), Chou (2005) etEngle et Gallo (2006).

Les modèles MEM permettent de modéliser une série chronologique uni-variée, ce qui veut dire qu’ils sont utiles lorsque l’on dispose d’une réalisationfinie d’une variable dans le temps. Cependant, dans les applications, plusieursvariables sont observées dans le temps et il peut être pertinent de procéderà une modélisation simultanée. Parmi les applications évidentes, l’étude desrelations de causalité entre les variables peut s’avérer d’intérêt. De plus, si cer-taines variables sont reliées, elles peuvent être utilisées afin de proposer desprévisions plus précises. De manière générale, la modélisation de plusieurs sé-ries chronologiques univariées amène l’étude des séries chronologiques multi-variées. Afin de simplifier l’estimation, il peut être tentant de procéder à l’es-timation équation par équation, chaque équation étant estimée séparément.L’estimation équation par équation proposée par Manganelli (2002) est simpleet donne des estimateurs convergents sous l’hypothèse de l’indépendance destermes d’innovations. Cependant, les résultats empiriques récents suggèrentune interdépendance dynamique entre plusieurs indicateurs. Ceci impliquequ’une approche vectorielle peut fournir de meilleures inférences statistiqueset des interprétations plus fiables de leurs dynamiques. Voir Cipollini, Engle etGallo (2012).

Les modèles vectoriels et multiplicatifs avec erreurs non-négatives (vMEM)permettent de modéliser des vecteurs aléatoires avec composantes qui sonttoutes non-négatives. Ils ont été introduits par Engle (2002) et développés parEngle et Gallo (2006). Ces modèles représentent une généralisation au cas mul-tivarié des modèles MEM introduits par Engle (2002). Pour ces modèles, lesvariables d’intérêt sont représentées comme le produit élément par élémentd’un vecteur d’espérances conditionnelles par un vecteur de moyenne unitairedes innovations. Le vecteur aléatoire jouant le rôle de l’innovation admet unestructure de covariance générale. Cette particularité permet de modéliser ladépendance entre les séries chronologiques.

Deux approches ont été proposées afin d’estimer les modèles vMEM. Unepremière approche, l’approche paramétrique complète, consiste à compléter lemodèle avec la spécification de la fonction de densité conjointe pour le vecteur

Page 15: Université de Montréal Les modèles vectoriels et multiplicatifs avec

4

des termes d’erreurs. Cependant, trouver une distribution multivariée suffi-samment souple définie sur le support positif est une tâche plutôt difficile, dumoins pour les applications issues de l’économétrie et de la finance. Commeindiqué par Cipollini, Engle et Gallo (2006), une possibilité est une distribu-tion gamma multivariée. Toutefois, elle impose des restrictions sévères sur lescorrélations contemporaines entre les variables. Compte tenu de ces restric-tions, une autre approche a été proposée dans la littérature. En effet, puisqueles distributions multivariées existantes avec composantes non-négatives nesont pas suffisamment flexibles, l’utilisation de la théorie des copules sembletout à fait indiquée. Ainsi, selon cette approche, les distributions marginalespeuvent être spécifiées, dont les supports associés sont non-négatifs, et unefonction de copule permet de tenir compte de la dépendance entre les com-posantes. L’estimation peut se faire en utilisant la théorie du maximum devraisemblance. Les copules elliptiques (par exemple, la copule normale ou lacopule de Student) sont attrayantes parce qu’elles peuvent être utilisées éga-lement pour un nombre d’observations modérément grand. De même, ellespeuvent accommoder la dépendance dans la queue de la distribution. Cepen-dant, elles ont un comportement elliptiquement symétrique qui peut représen-ter une limite dans certains contextes. Voir McNeil, Frey et Embrechts (2005).Au contraire, certaines copules archimédiennes peuvent accommoder les pro-fils de dépendance asymétriques mais semblent moins utilisables lorsque ladimension tend à augmenter (voir McNeil, Frey et Embrechts (2005)). Il fautcependant noter que les copules ne sont pas toujours capables de modéliserde manière adéquate l’association entre les composantes du terme d’erreur.Quelques détails sur certaines spécifications possibles de copules liées à la fa-mille de copules elliptiques sont discutés dans Cipollini, Engle et Gallo (2012).

La spécification complète de la distribution de terme d’erreur peut êtremoins intéressante si l’objectif principal de l’analyse porte sur la dynamique dela moyenne conditionnelle. Ainsi, une approche alternative semi-paramétriquepeut s’avérer prometteuse. La méthode des moments généralisés, notée parGMM, est dans cette catégorie. Cette méthode présente l’avantage d’être semi-paramétrique dans le sens que contrairement à l’approche imposant une loimultivariée, il n’est pas nécessaire de spécifier une distribution multivariéepour le terme d’erreur. Voir Cipollini, Engle et Gallo (2012).

Dans ce mémoire, après avoir introduit ces modèles, nous voulons compa-rer les deux approches dominantes, paramétrique et semi-paramétrique, des

Page 16: Université de Montréal Les modèles vectoriels et multiplicatifs avec

5

modèles vectoriels et multiplicatifs avec erreurs non-négatives. Nous appli-quons trois méthodes d’estimation. Pour l’approche paramétrique complète,nous considérons la méthode du maximum de vraisemblance (plus précisé-ment la méthode du maximum de vraisemblance concentrée), tandis que pourl’approche semi-paramétrique nous présentons la méthode des moments gé-néralisés (GMM) et la méthode des erreurs standard associées aux paramètres(WNLS). Nous simulons des modèles vectoriels et multiplicatifs à erreurs non-négatives et nous appliquons les méthodes d’estimation indiquées ci-dessus.Dans nos expériences de simulation, plusieurs modèles sont considérés, pourplusieurs tailles d’échantillons. Le but est de voir si le nombre d’observationsa une influence sur le biais des estimateurs et ainsi de comparer les deux ap-proches, paramétrique et semi-paramétrique, au niveau du biais, de l’erreurquadratique moyenne, de la variance échantillonale et de la moyenne des es-timateurs de variance. Nous illustrons l’application des modèles vMEM à cesdonnées et nous analysons les résultats de simulations. Finalement, nous effec-tuons une analyse avec des données financières portant sur trois indices bour-siers S&P500, S&P400 et FTSE100. Pour chaque indice boursier, nous considé-rons une série multivariée formée par trois variables : le rendement absolu,la volatilité réalisée et la différence entre le prix le plus élevé et le prix leplus bas. Nous modélisons dans un premier temps trois séries multivariéespour les trois indices boursiers à l’aide des modèles vectoriels et multiplica-tifs avec erreurs non-négatives et nous calculons les statistiques de Ljung-Boxmultivariées pour étudier l’indépendance des résidus estimés. Puis dans undeuxième temps, nous exposons les paramètres estimés par les méthodes para-métriques et semi-paramétriques des modèles vectoriels et multiplicatifs avecerreurs non-négatives mais avec des ordres de modèles différents de la pre-mière analyse, ainsi que l’application du test Ljung-Box multivarié sur les er-reurs estimées de la nouvelle analyse. Comme pour les modèles autorégres-sifs moyennes mobiles ARMA, des ordres de modèles doivent être considérés.Pour les modèles vectoriels et multiplicatifs avec erreurs non-négatives, nousdéfinissons les modèles vMEM(1,1) et vMEM(2,1). Avec les tests diagnosticsmentionnés précédemment, nous constatons qu’une spécification vMEM(2,1)semble supérieure à un modèle vMEM(1,1).

Ce mémoire est constitué de quatre chapitres. Dans le premier chapitre,nous introduisons certaines définitions importantes sur les séries chronolo-giques. Les notions sur la stationnarité ainsi que les modèles des processus

Page 17: Université de Montréal Les modèles vectoriels et multiplicatifs avec

6

autorégressifs conditionnellement hétéroscédastiques (ARCH) et des proces-sus ARCH généralisés (GARCH) sont aussi présentés dans le premier chapitre.Ensuite, nous décrivons les processus ACD avec quelques propriétés ainsi queles modèles multiplicatifs à erreurs non-négatives. Nous présentons les mo-dèles, les conditions de positivité et de stationnarité et les méthodes d’estima-tion. Au chapitre 2, nous définissons les copules ainsi que la théorie nécessairepour la spécification des termes d’erreurs. Ensuite, nous présentons les mo-dèles vectoriels et multiplicatifs à erreurs non-négatives. Nous donnons les ca-ractéristiques principales de ces modèles ainsi que quelques exemples sur l’ap-plication de ces modèles. Enfin, nous décrivons différentes méthodes d’esti-mation possibles dont la méthode du maximum de vraisemblance concentrée.Nous utilisons l’algorithme d’optimisation BHHH proposé par Berndt, Hall,Hall et Hausman (1974), la méthode des moments généralisés et la méthodedes erreurs standard associées aux paramètres. Au chapitre 3, nous décrivonsles différentes étapes de nos simulations afin d’illustrer nos résultats. Les mé-thodes utilisées pour générer les copules, pour simuler un modèle vectoriel etmultiplicatif à erreurs non-négatives et pour estimer les paramètres de diffé-rentes modèles sont décrites à cet endroit. Ainsi, les problèmes de programma-tion rencontrés durant ce travail sont décrits dans cette section. La composanteempirique a été programmée en R et le code utilisé est fourni en annexe. Lesrésultats de simulations sont aussi analysés dans ce chapitre. Finalement, l’ap-plication avec des données financières est discutée dans le chapitre 4. Aprèsune brève description sur l’expérience, la taille et la période des données, plu-sieurs modèles sont ajustés et la qualité de l’ajustement est considérée. Uneconclusion termine ce travail.

Page 18: Université de Montréal Les modèles vectoriels et multiplicatifs avec

Chapitre 1

PRÉLIMINAIRES

Dans ce chapitre, nous présentons en premier lieu, la définition des pro-cessus stochastiques suivie par la définition d’une série temporelle multiva-riée, les notions de stationnarité, le processus autorégressif (AR), le proces-sus autorégressif à moyenne mobile (ARMA) et la différence de martingales.En second lieu, nous exposons les modèles autorégressifs conditionnellementhétéroscédastiques (ARCH) et leurs généralisations (GARCH) qui modélisentles variances conditionnelles. Ensuite, nous présentons les modèles de duréesconditionnellement autorégressives (ACD) qui modélisent les durées commele temps entre des transactions boursières. Enfin, nous exposons les modèlesmultiplicatifs avec erreurs non-négatives (MEM) qui possèdent des caracté-ristiques communes à celles des modèles ARCH, GARCH et ACD. Cette sec-tion présente les définitions essentielles pour la compréhension générale denotre problématique. Plus de détails se trouvent dans Gouriéroux (1992, 1995)et Engle et Russell (1998).

1.1. SÉRIES TEMPORELLES

Un processus stochastique est une suite de variables aléatoires définies surun même espace Ω, appelé espace des états de la nature. On note le processusstochastique Y = Yt; t ∈ Z, où Z est l’ensemble des entiers relatifs, telle queYt = (Yt(1), . . . , Yt(K))

T est de dimension K.

Il est courant dans un contexte de séries chronologiques de supposer que leprocessus stochastique est défini pour tous t. Voir Shumway et Stoffer (2006,p. 28). Une série temporelle multivariée est une réalisation finie de taille T d’unprocessus stochastique multivarié Yt; t ∈ Z, tel que le vecteur aléatoire Yt estde dimension K, avec Yt ∈ RK .

Page 19: Université de Montréal Les modèles vectoriels et multiplicatifs avec

8

La fonction moyenne est définie par :

mt = E(Y t) = (mt(1), . . . ,mt(K))>, t ∈ Z.

La fonction de covariance entre Ys et Yt est définie quant à elle par :

Γ(s, t) = Cov(Ys,Yt) = E(Ys − ms)(Yt − mt)>, s, t ∈ Z.

La matrice des covariances Γ(s, t) est telle que Γ(s, t) = (γij(s, t)) aveci, j ∈ 1, . . . , K. Ainsi elle permet de décrire la dépendance entre les observa-tions de différentes séries (i 6= j), mais aussi la dépendance entre Ys(i) et Yt(i),c’est-à-dire la dépendance pour une même série pour les instants s et t.

Plusieurs processus ont une propriété commune importante. C’est la propriétéde stationnarité. Dans la section suivante, nous présentons la définition d’unprocessus stationnaire.

1.2. NOTION DE STATIONNARITÉ

On distingue deux types de stationnarité, la stationnarité stricte ou forte etla stationnarité au second ordre ou au sens faible. La stationnarité stricte estune propriété portant sur les propriétés d’invariance des distributions. Toutesles définitions fondamentales liées aux concepts de stationnarité se trouventdans Brockwell et Davis (1991).

Définition 1.2.1. Le processus Yt est dit strictement ou fortement stationnaire si ∀N-uplet d’indices temporels t1 < t2 < . . . < tN, tel que ti ∈ Z et pour tout tempsh ∈ Z avec ti+h ∈ Z,∀i, i = 1, . . . ,N, le vecteur aléatoire (Y>t1+h, . . . ,Y

>tN+h)

> a lamême loi de probabilité que celle de (Y>t1 , . . . ,Y

>tN)> .

La stationnarité au sens strict peut être compliquée à vérifier en pratique,mais utile dans l’élaboration des résultats théoriques. Un concept moins exi-geant et qui porte que sur les deux premiers moments est la stationnarité ausecond ordre.

Définition 1.2.2. Un processus Yt est dit stationnaire au second ordre, ou station-naire au sens faible, si les trois conditions suivantes sont satisfaites :

• ∀t ∈ Z, E(Y2t(i)) <∞, i ∈ 1, . . . , K ;

Page 20: Université de Montréal Les modèles vectoriels et multiplicatifs avec

9

• ∀t ∈ Z,mt = m, indépendant de t ;• ∀(s, t) ∈ Z2, Γ(s, t) = Γ(t− s).

On notera dans la Définition 1.2.2 un léger abus de notation où la fonctionΓ est utilisée également dans le cas stationnaire.

Selon la Définition 1.2.2, la moyenne ne dépend pas du temps et les covariancesne dépendent que de la différence entre les indices temporels des deux vecteursaléatoires.

Un processus stationnaire de base dans l’analyse des séries chronologiques estle bruit blanc. La définition de ce processus est la suivante :

Définition 1.2.3. Le processus εt est un bruit blanc si :

• E(εt)=0,• Var(εt)=Σε,• Cov(εt,εs)=0 ; pour t 6= s.

Selon la Définition 1.2.3, le bruit blanc est une suite de vecteurs aléatoirescentrés en zéro, de même matrice des variances et covariances et non-corrélésentre eux.

Si les vecteurs non-corrélés qui constituent le processus bruit blanc sont in-dépendants, alors nous sommes en présence d’un bruit blanc fort. Lorsque lesvecteurs aléatoires sont présumés seulement non-corrélés, alors nous avons unbruit blanc faible.

Nous achevons cette section par la présentation du processus autorégressifd’ordre p et nous introduisons les processus possédant la propriété de diffé-rence de martingales.

Définition 1.2.4. Un processus stochastique Yt est un processus autorégressif d’ordrep, noté AR(p), s’il satisfait l’équation aux différences stochastique suivante :

Yt = φ1Yt−1 + φ2Yt−2 + · · ·+ φpYt−p + εt, ∀t ∈ Z, (1.2.1)

Page 21: Université de Montréal Les modèles vectoriels et multiplicatifs avec

10

où les paramètres autorégressifs (φ1, φ2, . . . , φp) sont des réels avec φp non-nul. Leprocessus εt est un bruit blanc.

Nous remarquons que Yt dépend des variables explicatives Yt−1, Yt−2, . . . ,Yt−p. Donc les variables explicatives sont des valeurs retardées de la variabledépendante Yt.

Le modèle AR(p) peut être généralisé à la classe des modèles ARMA étudiésen profondeur dans Brockwell et Davis (1991). Cependant, nous n’avons be-soin que des modèles autorégressifs, ce qui explique que l’on s’en tient à cettedéfinition.

Le modèle (1.2.1) admet aussi la représentation suivante :

Φ(B)Yt = εt, (1.2.2)

oùΦ(B) est le polynôme autorégressif défini parΦ(Z) = 1−Φ1Z−Φ2Z2− · · ·−

ΦpZp. La quantité B est appelé l’opérateur retard tel que B0 = I et BpYt = Yt−p,

p ≥ 0.

Le processus défini par (1.2.1) est stationnaire si et seulement si les racinesde Φ(z) = 0 sont à l’extérieur du cercle unitaire. Une preuve de ce résultat setrouve dans Brockwell et Davis (1991).

Il existe également une classe de processus très importante qui est un bruitblanc particulier. Il s’agit du processus différence de martingales.

Définition 1.2.5. Un processus stochastique Yt, t ∈ Z est une différence de martin-gales si et seulement si

E(Yt | Ft−1) = 0,

où Ft désigne l’information passée disponible jusqu’à l’instant t inclusivement. On vanoter également E(Yt/Yt−1) = 0.

Dans les deux sections qui suivent, nous présentons une classe de modèlesqui s’inspirent des modèles AR et ARMA mais qui permettent la modélisationdes variances conditionnelles et donc de la volatilité.

Page 22: Université de Montréal Les modèles vectoriels et multiplicatifs avec

11

1.3. MODÈLES ARCH UNIVARIÉS

Les séries monétaires et financières sont caractérisées par des périodes defortes perturbations suivies de périodes de faibles perturbations. On parle icide phénomènes de volatilité survenant par grappes (en anglais clustering). Cephénomène, que nous appelons aussi l’hétéroscédasticité conditionnelle, estfréquent dans les données boursières et les taux de change.

Or, pour ce type de séries, les modèles linéaires standards utilisés souventcomme les processus autorégressifs à moyennes mobiles, sont limités parcequ’ils ne prennent pas en considération les phénomènes de variabilité de la vo-latilité. Par exemple, pour les modèles ARMA avec bruit blanc fort, l’espéranceconditionnelle varie au cours du temps tandis que la variance conditionnellene change pas. Or, en finance, la variabilité dans le temps des variances est unfait bien établi. On peut consulter Andersen, Bollerslev, Christoffersen et Die-bold (2005) pour des travaux sur la modélisation et la prévision de la volatilité.

Face aux déficiences des représentations ARMA(p,q) pour les problèmes fi-nanciers et monétaires, une classe de modèles autorégressifs conditionnelle-ment hétéroscédastiques (ARCH) a été proposée par Engle (1982). Les modèlesARCH sont utilisés couramment dans la modélisation de séries temporellesfinancières qui comportent des volatilités variables. Les modèles ARCH per-mettent de décrire de telles situations. Nous trouvons ici la définition du mo-dèle ARCH(1).

Définition 1.3.1. Le processus Yt est un processus ARCH(1) si

Yt = εt

√(α0 + α1Y2t−1),

où εt est un bruit blanc gaussien, et donc εt ∼ N (0, 1).

On note généralement ht = α0 + α1Y2t−1, et donc Yt = εt

√ht. La quantité

ht désigne une variable positive conditionnelle à l’ensemble d’information desvaleurs passées de Ys, s ≤ t− 1. La première version du modèle spécifiait leprocessus εt comme étant gaussien. Rapidement, des spécifications alterna-tives ont été considérées, et la distribution de εt pourrait être de loi autre quecelle de la normale. Voir Gouriéroux (1992).

Page 23: Université de Montréal Les modèles vectoriels et multiplicatifs avec

12

La spécification ARCH(1) montre que le carré des perturbations suit un pro-cessus autorégressif d’ordre un. Ce modèle permet une forme autorégressivepour la variance conditionnelle telle que la variance conditionnelle aux infor-mations passées est fonction du temps.

Nous exposons dans la suite la notion de stationnarité de ce processus.

1.3.1. Propriété de stationnarité

Pour que le processus Yt soit stationnaire au second ordre, la variance in-conditionnelle de Yt doit être constante.

Or,E(Y2t ) = α0 + α1E(Y

2t−1),

c’est-à-dire que l’on doit avoir α1 < 1, et donc comme E(Yt) = 0,

Var(Yt) =α0

1− α1.

Ainsi, une condition nécessaire pour que Yt soit stationnaire au second ordreest 0 < α0/(1−α1) <∞ . Or ht doit être non-négative. Ainsi, il faut égalementque α0 > 0 et α1 ≥ 0. Ainsi, l’espace paramétrique doit se restreindre à α0 > 0et 0 ≤ α1 < 1.

Le processus ARCH(1) est une différence de martingales car :

E(Yt | Yt−1) = E(εt√ht | Yt−1),

=√htE(εt | Yt−1),

=√htE(εt),

= 0.

De plus, pour t > s, le même genre de raisonnement permet d’établir :

Page 24: Université de Montréal Les modèles vectoriels et multiplicatifs avec

13

E(YtYs) = EE(YtYs | Yt−1),

= EYs√htE(εt | Yt−1,

= EYs√htE(εt),

= E0,

= 0.

Ainsi, on constate que Yt est une suite de variables aléatoires non-corrélées.

De plus, la variance conditionnelle du processus Yt suit un ARCH(1), défi-nie par :

Var(Yt | Yt−1) = E(ε2tht | Yt−1),

= htE(ε2t),

= ht,

= α0 + α1Y2t−1.

La variance conditionnelle du terme Yt dépend du terme Yt au carré décaléed’une période. On note que la variance conditionnelle du terme Yt doit êtretoujours positive, alors il faut que α1 > 0.

Nous pouvons établir les moments conditionnels et inconditionnels d’ordrequatre du processus ARCH(1). En fait, le moment conditionnel centré d’ordrequatre du processus Yt est égal à :

E(Y4t | Yt−1) = 3α0 + α1Y2t−1

2,

et le moment inconditionnel centré d’ordre quatre du processus Yt vérifie :

E(Y4t ) = 3

α20 +

2α1α20

1− α1+ α21E(Y

4t−1)

=

3α20(1+ α1)

(1− 3α21)(1− α1).

La condition d’existence du moment inconditionnel d’ordre quatre est 3α21 < 1.On en déduit alors l’expression de la kurtosis inconditionnelle associée au pro-cessus ARCH(1) :

Page 25: Université de Montréal Les modèles vectoriels et multiplicatifs avec

14

κ =E(Y4t )

E(Y2t )2= 3

1− α211− 3α21

> 3.

Rappelons qu’un coefficient de kurtosis égal à trois correspond au cas de laloi normale. Les queues de la distribution marginale d’un processus ARCH(1)sont donc plus épaisses (distribution leptokurtique) que pour un processusgaussien.

Ainsi, il ressort de ceci que le processus ARCH(1) est constitué de variablesaléatoires non-corrélées qui sont cependant dépendantes. On note que

Yt | Yt−1 ∼ N (0, Var(Yt | Yt−1)).

En particulier, il ressort que Yt est un bruit blanc faible qui ne peut pas êtregaussien (dans ce dernier cas, la non-corrélation et l’indépendance sont équi-valentes).

De la même manière qu’un modèle autorégressif AR(1) n’est pas suffisammentflexible, menant à l’introduction de plusieurs retards additionnels dans les mo-dèles ARCH(1), les modèles ARCH ont été généralisés afin de décrire des mé-canismes de la volatilité plus élaborés. Les propriétés présentées ici pour lesARCH(1) peuvent se généraliser au cas des processus ARCH(q).

1.3.2. Modèles ARCH

Les modèles ARCH(q) sont des extensions des modèles ARCH(1). Les mo-dèles ARCH(q) font intervenir plusieurs retards,

Yt = εt√ht, (1.3.1)

ht = α0 +

q∑i=1

αiY2t−i. (1.3.2)

Souvent, il est supposé que la loi de εt est normale et donc que εt ∼ N (0, 1).Puisque ht est une variance conditionnelle, on doit avoir ht ≥ 0. Des conditionssuffisantes sur l’espace paramétrique sont α0 > 0, αi ≥ 0 pour i = 1, . . . , q.

Page 26: Université de Montréal Les modèles vectoriels et multiplicatifs avec

15

Le processus Yt est stationnaire si∑q

i=1 αi < 1. Alors, la variance du pro-cessus existe et est de la forme :

Var(Yt) =α0

1−∑q

i=1 αi.

On peut alors écrire :

E(Yt | Yt−1) = 0,

E(Y2t | Yt−1) = α0 +

p∑i=1

αiY2t−i = ht.

On montre aussi que Cov(Yt, Ys) = 0, t 6= s.Donc on retrouve les deux proprié-tés vues précédemment, à savoir la propriété de différence de martingales et lapropriété de la variabilité de la variance conditionnelle dans le temps.

De la même façon qu’un modèle ARMA n’est pas suffisamment flexible pourconsidérer la variabilité de la variance conditionnelle, menant à l’introductiondes modèles ARCH, les modèles ARCH ont été étendus afin de modéliser lesphénomènes de persistance de chocs mais avec moins de paramètres à esti-mer. Ces modèles, que nous présentons dans la section suivante, s’appellentles modèles autorégressifs conditionnellement hétéroscédastiques généralisés(GARCH).

1.4. MODÈLES GARCH

Pour de nombreuses applications des séries monétaires et financières, afinde tenir compte de la longue mémoire de la volatilité, l’insertion d’un grandnombre de retards q dans l’équation de la variance conditionnelle du modèleARCH(q) est nécessaire. Cependant, ce nombre important de paramètres peutcompliquer l’estimation et être associée à une perte d’efficacité. Compte tenude ces considérations, une extension importante a été suggérée par Bollers-lev (1986), le modèle autorégressif conditionnellement hétéroscédastique gé-néralisé (GARCH). L’extension des modèles ARCH aux modèles GARCH res-semble à l’extension des modèles AR aux modèles ARMA. Ainsi, une compo-sante de type moyenne mobile est ajoutée. Plus précisément, la variance condi-tionnelle de la variance étudiée est déterminée par le carré des q termes d’er-reurs passés et des p variances conditionnelles retardées.

Page 27: Université de Montréal Les modèles vectoriels et multiplicatifs avec

16

Dans cette section, nous exposons la définition des modèles GARCH etGARCH multivariés, les moments conditionnels et les propriétés de station-narité.

Définition 1.4.1. Le processus Yt est GARCH (q,p) si :

Yt = εt√ht, (1.4.1)

ht = α0 +

q∑i=1

αiY2t−i +

p∑j=1

βjht−j. (1.4.2)

Comme pour les modèles ARCH, une hypothèse souvent faite au niveaude la distribution du terme εt est qu’il est de la loi normale, de sorte queεt ∼ N (0, 1). Des conditions suffisantes pour assurer que ht ≥ 0 sont α0 > 0,αi ≥ 0, βj ≥ 0, i = 1, . . . , q ; j = 1, . . . , p.

L’espérance et la variance conditionnelle des modèles GARCH(q,p) sont :

E(Yt | Yt−1) = 0, (1.4.3)

Var(Yt | Yt−1) = E(Y2t | Yt−1) = ht = α0 +

q∑i=1

αiY2t−i +

p∑j=1

βjht−j. (1.4.4)

Le processus Yt satisfaisant le modèle GARCH(q,p) est une différence de mar-tingales et admet des composantes non-corrélés de moyenne nulle.

Dans la prochaine section, nous étudions les conditions de stationnarité desprocessus admettant une structure GARCH(q,p).

1.4.1. Propriété de stationnarité

Franck et Zakoïan (2009) donnent les conditions nécessaires et suffisantesde la stationnarité au second ordre des modèles GARCH. En fait, le proces-sus GARCH (q,p) est stationnaire au second ordre si la condition suivante estsatisfaite :

q∑i=1

αi +

p∑j=1

βj < 1,

où il est implicitement admis que α0 > 0 et dans ce cas, la variance incondi-tionnelle de Yt s’exprime sous la forme suivante :

Page 28: Université de Montréal Les modèles vectoriels et multiplicatifs avec

17

V(Yt) =α0

1−∑q

i=1 αi −∑p

j=1 βj.

Considérons maintenant, un cas particulier du processus GARCH(q,p), le pro-cessus GARCH(1,1) tel que :

Yt = εt√ht, (1.4.5)

ht = α0 + α1Y2t−1 + β1ht−1, (1.4.6)

où εt est un processus gaussien. Sous la condition de stationnarité de secondordre α1 + β1 < 1, la variance inconditionnelle du processus Yt est définie etconstante dans le temps. La variance inconditionnelle s’exprime sous la formesuivante :

V(Yt) =α0

1− α1 − β1.

Bollerslev (1986) a montré que l’existence du moment d’ordre quatre exigeait(α1 + β1)

2 + 2α21 < 1 et que l’expression du coefficient de kurtosis s’exprimaitcomme suit :

κu =E(Y4t )

E(Y2t )2=3(1− (α1 + β1)

2)

1− (α1 + β1)22α21

.

Le kurtosis est toujours supérieur à trois et donc il peut aussi être utile sur desdonnées à queues de distribution plus épaisses que celle de la loi normale.

Nous achevons cette section par une présentation des modèles GARCH multi-variés.

1.4.2. GARCH multivariés

Le processus Y t est un GARCH multivarié, à K composantes, Yt = (Ylt, l =

1, . . . , K), s’il s’écrit comme Yt = εtH1/2t . Ici, la notationH1/2

t veut dire la racinecarrée de la matriceHt, obtenue à l’aide d’une décomposition spectrale deHt,présumée définie positive. La variance conditionnelle Ht = Var(Y t | Y t−1) estune matrice K × K qui a pour élément hklt. Le processus d’erreur εt est telque les vecteurs aléatoires εt sont indépendants et identiquement distribuésde moyenne 0 et de matrice de covariance la matrice identité I.

L’espérance et la variance conditionnelle des modèles GARCH multivariés

Page 29: Université de Montréal Les modèles vectoriels et multiplicatifs avec

18

sont :

E(Y t | Y t−1) = 0, (1.4.7)

Var(Y t | Y t−1) = Ht, (1.4.8)

hklt = Ckl +

q∑i=1

(∑k ′,l ′

αklk ′l ′iYk ′,t−iYl ′,t−i) +

p∑j=1

(∑k ′,l ′

βklk ′l ′jhk ′,l ′,t−j). (1.4.9)

Les matricesHt−i,Y t−i,Y′t−i sont symétriques telles que :

Ckl = Clk,

αklk ′l ′i = αlkk ′l ′i,

αklk ′l ′i = αkll ′k ′i,

βklk ′l ′j = βlkk ′l ′j,

βklk ′l ′j = βkll ′k ′j.

La forme matricielle de la variance conditionnelle est :

Vech(Ht) = Vech(C) +

q∑i=1

AiVech(Y t−iY′t−i) +

p∑j=1

BjVech(Ht−j). (1.4.10)

Dans l’expression (1.4.10), Vech(H) désigne l’opérateur consistant à présentersous forme vectorielle la portion inférieure de la matrice symétrique H. Lesmatrices de paramètres Ai et Bj contiennent les paramètres α et β.

Les conditions suffisantes pour la positivité sont que les matrices C, Ai; i =1, . . . , q etBj; j = 1, . . . , p soient semi-définies positives. Voir Gouriéroux (1992).

Les modèles ARCH et GARCH ont été généralisés afin de proposer des mo-dèles permettant de décrire le temps entre des transactions boursières. Dans lasection suivante, nous présentons les modèles de durées conditionnellementautorégressives (ACD) et ses propriétés fondamentales.

Page 30: Université de Montréal Les modèles vectoriels et multiplicatifs avec

19

1.5. MODÈLES ACD

1.5.1. Motivation

Le développement rapide des systèmes électroniques et l’informatisationont facilité la création et la diffusion des données à hautes fréquences dans lesmarchés financiers. Les chercheurs ont pu recueillir des données sur des inter-valles de temps réguliers. Dans ce contexte, les données sont habituellementdisponibles à des intervalles de plus en plus fins. Avec les modèles ARMA,les applications spectaculaires modélisaient des données annuelles ou trimes-trielles, et souvent le temps le plus court entre les données était au plus entermes de mois. Avec les modèles ARCH et GARCH, il n’est pas rare de voirdes applications où les données sont observées sur une échelle journalière oumême intra-journalière. Cependant, les données sont toujours régulièrementespacées. En fait, traditionnellement, les séries chronologiques ont été analy-sées pour des variables régulièrement espacées. Cependant, Diamond et Ver-recchia (1987) ont pris en considération le temps comme une source d’infor-mation, en supposant que l’absence de transaction signifie une mauvaise nou-velle. Easley et O’Hara (1992) ont considéré que le temps dépend du processusde prix car l’absence de transaction suggère l’absence d’arrivée d’informationsnouvelles sur le marché. D’où l’importance d’étudier le facteur temps.

En pratique, les données de transaction arrivent à des intervalles de tempsirréguliers. Ainsi, le temps entre deux transactions boursières est en fait une va-riable aléatoire. Ainsi, laprochainetransaction pourrait survenir après quelquessecondes ou quelques minutes, à titre d’exemple. Donc, les techniques écono-métriques standards qui présument que l’intervalle de temps est constant, nesont pas strictement valides. Il ressort de ceci qu’il n’est pas possible d’utili-ser les modèles ARMA ou GARCH sur des données irrégulièrement espacées.Engle et Russel (1998) ont introduit le modèle de durées conditionnellementautorégressives pour analyser des données irrégulièrement espacées.

Par la suite, nous exposons les modèles ACD et ses propriétés.

1.5.2. Modèles ACD

Soit xi = ti−ti−1, la durée qui correspond au temps entre deux transactionsconsécutives i et i− 1. Soit ψi l’espérance conditionnelle de la ième durée sa-chant son passé, telle que ψi = E(xi | xi−1, . . . , x1) = ψi(xi−1, . . . , x1; θ). La

Page 31: Université de Montréal Les modèles vectoriels et multiplicatifs avec

20

définition suivante donne plus précisément ce qu’est un modèle ACD.

Définition 1.5.1. Le modèle ACD est défini de la façon suivante :

xi = ψiεi.

La variable aléatoire ψi est donc l’espérance conditionnelle de la durée sachant sonpassé. Les variables aléatoires εi sont des variables aléatoires positives, indépendanteset identiquement distribuées avec pour densité p(ε) de sorte que E(εi) = 1, Var(εi) =σ2 et E(xi | xi−1) = ψi.

Un peu à la manière des modèles ARMA, il est possible de considérer unmodèle ACD avec ordresm et q, noté ACD(m,q), qui repose sur la paramétris-taion linéaire suivante :

xi = ψiεi,

ψi = w+

m∑j=1

αjxi−j +

q∑j=1

βjψi−j.

Les conditions suffisantes pour assurer la positivité sont w > 0, αj ≥ 0, j =

1, · · · ,m et βj ≥ 0, j = 1, · · · , q.

La moyenne inconditionnelle µ s’écrit :

E(xi) = µ =w

1−∑

(αj + βj).

La moyenne inconditionnelle existe lorsque toutes les racines du polynômecaractéristique associées sont toutes extérieures au cercle unité.

Engle et Russel (1998) ont supposé que la modélisation de la dépendance desdurées a une structure assez similaire à une formulation GARCH et on constateque le modèle ACD(1,1) et GARCH(1,1) ont des propriétés similaires. Toutcomme le GARCH(1,1) est souvent un bon point de départ, l’ACD(1,1) appa-raît comme un point de départ naturel. La connexion avec les modèles GARCHest cependant encore plus profonde. Les théories qui établissent les propriétésde quasi-maximum vraisemblance de GARCH même en présence des racines

Page 32: Université de Montréal Les modèles vectoriels et multiplicatifs avec

21

unitaires peuvent être reportées sur les modèles de ACD avec erreurs expo-nentielles. La structure du modèle ACD avec erreurs exponentielles, ψ0,i =

E(xi | Fi−1) = ω0 + α0xi + β0ψ0,i−1, ressemble à un GARCH avec innovationsnormales. En plus, les résultats de la fonction quasi-maximum vraisemblance,définie par :

L(θ) = −

N(T)∑i=1

log(ψi) +

xi

ψi

,

telle que

ψi =

ω+ αxi + βψi−1, i > 1,

ω/(1− β), pour i = 1,

se déduisent des résultats pour les GARCH. Voir Engle et Russel (1998) qui ob-tiennent un résultat qui est un corollaire d’un résultat de Lee et Hansen (1994).

En choisissant différentes spécifications pour la durée conditionnelle ψi et dif-férentes densités p(ε), nous pouvons obtenir plusieurs formes de modèles dé-crivant la dynamique des durées.

Concernant la densité p(ε), quatre densités ont été utilisées fréquemment pourmodéliser la moyenne conditionnelle des durées. Il s’agit des distributionsgamma généralisée, Weibull, exponentielle et Burr. Voir par exemple Engle etRussel (1994) et l’ouvrage de Tsay(2010).

Pour une distribution gamma généralisée, la fonction de densité est la sui-vante :

f(ε | γ1, γ2) =

γ1ε

γ1γ−12

γγ1γ23 Γ(γ2)exp

[−

γ3

)γ1], si ε > 0.

0, sinon,

avec

γ3 =Γ (γ2)

Γ

(γ2 +

1

γ1

) , et γ1 > 0, γ2 > 0,

Page 33: Université de Montréal Les modèles vectoriels et multiplicatifs avec

22

où Γ(·) est la fonction gamma définie de la façon suivante pour k > 0 :

Γ(k) =

∫∞0

xk−1 exp(−x)dx.

Pour avoir la densité de la distribution Weibull, il faut que γ2 soit égal à un.De même, pour avoir la densité de la distribution exponentielle, il faut que lesparamètres γ1 et γ2 soient égaux à un. Engle et Russell (1994) ont utilisé lesdensités des distributions exponentielles et Weibull résultant des modèles dedurées nommés ACD exponentiel (EACD) et Weibull ACD (WACD). Dans lecas exponentiel EACD(1,1), le modèle s’écrit :

ψi = w+ αxi−1 + βψi−1,

avec α,β ≥ 0,ω > 0, ∀i pour (i = 1, . . . ,N). La variance conditionnelle dece modèle est ψ2i . La variance inconditionnelle (voir Engle et Russel (1998))s’écrit :

σ2 = µ2(

1− β2 − 2αβ

1− β2 − 2αβ− 2α2

).

Pour une preuve détaillée du résultat on peut consulter Engle et Russell (1994).Lorsque le coefficient α est positif, l’écart-type inconditionnel dépassera lamoyenne, présentant un "excès de dispersion" comme documenté dans les en-sembles de données de durées. Voir Engle et Russel (1994, 1998).

En analysant des données empiriques, Engle et Russell (1994) ont rejeté la spé-cification exponentielle car la fonction de hasard d’une distribution exponen-tielle est constante dans le temps alors que pour le modèle WACD, cette fonc-tion est monotone. Il semblait donc préférable d’adopter une spécification plusgénérale.

Bauwens et Giot (2000) ont introduit une version logarithmique du modèleACD qu’ils ont appelé log-ACD et qui est tel que la fonction de durée condi-tionnelle est l’expression suivante :

Page 34: Université de Montréal Les modèles vectoriels et multiplicatifs avec

23

ψi = exp(w+ αεi−1 + βψi−1).

En effet, l’avantage de cette version est qu’elle nous assure la positivité de ladurée conditionnelle sans avoir de restrictions sur les paramètres du modèleACD. La condition de la stationnarité du processus est |β| < 1. Voir Bauwenset Giot (2000).

La modélisation des séries temporelles financières, en particulier les rende-ments boursiers et les différences entre les prix quotidiens les plus hauts etles prix quotidiens les plus bas (en anglais range), peut être abordée avec desmodèles multiplicatifs avec erreurs non-négatives (MEM). Ces modèles im-briquent plusieurs modèles de séries chronologiques bien connus tels que lesmodèles ACD et les GARCH. Dans la section suivante, nous exposons, en dé-tails, les modèles multiplicatifs avec erreurs non-négatives.

1.6. MODÈLES MEM

Dans l’analyse de séries temporelles financières, le problème est souventde modéliser des processus impliquant des variables aléatoires qui sont non-négatives. Cela se produit lorsque nous considérons les variables telles que lesvolumes, les échanges commerciaux, les durées, la volatilité réalisée, la diffé-rence entre le prix le plus haut et le prix le plus bas quotidien. Voir Brown-lees, Cipollini et Gallo (2011). Traditionnellement, on retrouve deux approchesdans un contexte de variables aléatoires non-négatives. D’une part, les mé-thodes standard sont utilisées, en ignorant simplement cette caractéristique denon-négativité. Une autre approche semble de transformer les variables, en ap-pliquant, par exemple, systématiquement des transformations logarithmiques.Les inconvénients de ces approches ont été discutés par Engle (2002, pp. 428-429). Comme solution, le modèle multiplicatif avec erreurs non-négatives estproposé. Le modèle MEM est formulé de telle sorte que la non-négativité duprocessus est explicitement prise en compte dans la formulation du modèle.Nous allons discuter ces modèles en détails dans cette section.

Ces modèles ont été introduits par Engle (2002) et ensuite ils ont été dévelop-pés par Engle et Gallo (2006). Dans cette section, nous présentons la définitiondu modèle MEM, les conditions de stationnarité et de la non-négativité ainsiqu’une méthode d’estimation. Voir aussi Engle et Gallo (2006) pour plus de

Page 35: Université de Montréal Les modèles vectoriels et multiplicatifs avec

24

détails.

Soit xt un processus non-négatif défini sur [0,+∞), t ∈ N, et soit Ft−1 l’en-semble des informations disponibles pour le processus jusqu’au temps t − 1inclusivement.

Définition 1.6.1. Le modèle MEM de xt introduit par Engle (2002) est donné par :

xt = µtεt, (1.6.1)

où conditionnellement à Ft−1, le processus µt est Ft-mesurable et le processus sto-chastique εt est composé de variables aléatoires indépendantes et identiquement dis-tribuées (iid).

L’espérance conditionnelle µt est supposée fonction d’un vecteur de para-mètres θ, selon la structure suivante :

µt = µ(Ft−1,θ).

Dans le modèle (1.6.1), la variable aléatoire εt joue le rôle de l’innovation, etc’est donc une variable aléatoire ayant une densité à support non-négatif, telque conditionnellement à Ft−1,

E(εt) = 1, (1.6.2)

Var(εt) = σ2, (1.6.3)

et telle que la loi de εt est :

εt ∼ D(1, σ2). (1.6.4)

Le paramètre σ2 est habituellement inconnu.

De ce qui précède, nous avons :

E(xt | Ft−1) = µt, (1.6.5)

Var(xt | Ft−1) = σ2µ2t . (1.6.6)

Page 36: Université de Montréal Les modèles vectoriels et multiplicatifs avec

25

La structure du modèle MEM est générale et inclut plusieurs modèles commecas particuliers. Par exemple, le modèle MEM généralise le modèle GARCHdiscuté dans la section 1.4, en posant xt comme étant le carré de log du rende-ment tel que µt est la variance conditionnelle. Nous pouvons le définir comme :

y2t = µtε2t ,

ou encore

yt =√µtεt,

avec

εt | Ft−1 ∼ iid(0, 1).

Un autre cas particulier pour le modèle MEM est le modèle ACD discuté dansla section 1.5.2, où xt représente le processus des durées entre les transactionsfinancières.

Pour compléter le modèle, nous devons spécifier la distribution de la fonctionde densité pour l’innovation εt et spécifier aussi la structure de l’équation µt.Ces considérations sont abordées dans la section suivante.

1.6.1. Spécification de εt

La distribution du terme d’erreur εt peut être en principe n’importe quelledistribution à support positif, satisfaisant cependant les équations (1.6.2) et(1.6.3). Nous pouvons citer les distributions gamma, Weibull, gamma inverséou log-normale.

Bauwens et Giot (2000) ont considéré une distribution Weibull dans l’applica-tion d’un modèle admettant la structure ACD

(Γ(1+ φ)−1, φ

). Voir Brownlees,

Cipollini et Gallo (2011). Engle et Gallo (2006) ont choisi la distribution gammapour εt. Nous présentons en détails le cas où la distribution est de type gammapour εt.

Considérons

εt ∼ gamma(φ,φ),

Page 37: Université de Montréal Les modèles vectoriels et multiplicatifs avec

26

avec E(εt) = 1 et Var(εt) =1

φ. Nous pouvons déduire que, conditionnelle-

ment à Ft−1,

xt | Ft−1 ∼ gamma(φ,φ

µt

).

Il existe des techniques d’estimation qui reposent uniquement sur la spécifi-cation des deux premiers moments. Si la distribution de εt n’est pas spéci-fiée mais seulement les deux moments, nous disons q’une spécification semi-paramétrique du modèle est appliquée.

1.6.2. Spécification de µt

Comme dans Engle (2002) et Engle et Gallo (2006), nous considérons le mo-dèle GARCH le plus simple, dont les ordres sont (1,1) dans la spécification del’équation µt :

µt = ω+ αxt−1 + βµt−1. (1.6.7)

Pour l’ordre (p,q) la spécification de µt est donnée par :

µt = ω+

p∑j=1

αjxt−j +

q∑j=1

βjµt−j, (1.6.8)

avecω > 0, αj ≥ 0, βj ≥ 0, afin d’assurer la positivité de µt.

Ce modèle est approprié si xt est une variable à valeurs positives comme lesvolumes totaux ou les durées financières. En pratique, nous ne disposons pasque des durées de transactions, mais également des rendements. Des modèlestentent d’incorporer des spécifications tenant compte du signe des rendementsfinanciers en fonction du temps. Considérons la série chronologique des ren-dements associés, que l’on note dans la suite rt.

Une spécification générale est donnée par :

µt = ω∗ + α

x

12

t−1signe(rt−1) + δ∗2

+ γxt−1I(rt−1 < 0) + βµt−1. (1.6.9)

Page 38: Université de Montréal Les modèles vectoriels et multiplicatifs avec

27

Dans la spécification (1.6.9), la fonction signe(x) retourne le signe de la va-riable x. De plus, I(A) représente la variable indicatrice de l’ensemble A. Lesparamètres δ∗ et γ ont des interprétations dans la littérature financière liées àdes considérations d’asymétrie. Le modèle (1.6.9) a été proposé par Cipollini,Engle et Gallo (2006) et tient compte de modifications des équations GARCHpar Ding, Granger et Engle (1993) et Glosten, Jaganathan et Runkle (1993).

Puisque µt est une durée conditionnelle, on doit avoir µt ≥ 0, ∀t. Dans la for-mulation (1.6.9), on note que des conditions suffisantes sontω∗ > 0, α ≥ 0, γ ≥0 et β ≥ 0. Le paramètre δ∗ étant dans le carré de (1.6.9), on constate qu’il peutêtre positif ou négatif.

Cependant, le passage du cas univarié au cas multivarié est facilité en considé-rant la formulation alternative suivante qui repose sur la paramétrisation :

µt = ω+ αxt−1 + γx(−)t−1 + δx

(s)t−1 + βµt−1, (1.6.10)

où x(s)t = x12t signe(rt), x

(−)t = xtI(rt < 0),ω = ω∗ + αδ∗2 et δ = 2αδ∗.

En fait, l’équation de la moyenne conditionnelle en (1.6.10) est obtenue sim-plement en développant le carré dans (1.6.9). On peut formuler de manièreencore plus générale le modèle comme suit :

µt = ω+ x∗t−1>α∗ + βµt−1, (1.6.11)

où x∗t = (xt; x(−)t ; x

(s)t )>

et α∗ = (α;γ; δ)>.

La condition suffisante pour la stationnarité au second ordre de xt est :

α+ β+ γ/2 < 1,

qui fut obtenue par Cipollini, Engle et Gallo (2006).

Dans la formulation alternative, il peut être intéressant d’obtenir des condi-tions sur les coefficientsω, α, γ, δ et β. On remarque que la positivité est obte-nue si β ≥ 0 et si on impose que :

Page 39: Université de Montréal Les modèles vectoriels et multiplicatifs avec

28

ω+ αxt + γxtI(rt < 0) + δx12t signe(rt) ≥ 0, (1.6.12)

et ce quelque soit xt et rt. Afin d’étudier cette question, le lemme suivant estutile.Lemme 1.6.1. La relation

T∑i=1

(aix2i + bixi) + c ≥ 0

est satisfaite pour tous les xi ∈ [0,+∞), i = 1, . . . , T, si et seulement si les coefficientsai, bi et c satisfont les conditions suivantes :

C1. Les ai sont positifs, c’est-à-dire ai ≥ 0, i = 1, . . . , T ;

C2. Les bi sont positifs, bi ≥ 0, i = 1, . . . , T , pour tous les i tels que ai = 0;

C3. c−1

4

T∑i=1

b2iaiI(bi < 0)I(ai > 0) ≥ 0.

La preuve de ce résultat se trouve dans Cipollini, Engle et Gallo (2006).

En utilisant le lemme 1.6.1, on trouve les conditions suffisantes pour la non-négativité de µt :

(1) β ≥ 0, α ≥ 0, α+ γ ≥ 0;

(2) Si α = 0 alors δ ≥ 0. Si α+ γ = 0 alors δ ≤ 0;

(3) ω−δ2

4

I(δ < 0)I(α > 0)

α+I(δ > 0)I(α+ γ > 0)

α+ γ

≥ 0.

En effet, distinguons dans (1.6.12) les cas rt ≥ 0 et rt < 0. Si rt ≥ 0, alors nousdevons étudier quand

ω+ δx12t + αxt ≥ 0.

Une utilisation du lemme 1.6.1 avec T = 1 donne :

Page 40: Université de Montréal Les modèles vectoriels et multiplicatifs avec

29

(1) α ≥ 0 ;

(2) Si α = 0 alors δ ≥ 0 ;

(3) ω−1

4

δ2

αI(δ < 0)I(α > 0) ≥ 0.

Si maintenant rt < 0, alors nous devons étudier quand :

ω− δx12t + (α+ γ)xt ≥ 0.

Une autre utilisation du lemme 1.6.1 donne les conditions :

(1) α+ γ ≥ 0 ;

(2) Si α+ γ = 0 alors δ ≤ 0 ;

(3) ω−1

4

δ2

(α+ γ)I(δ > 0)I(α+ γ > 0) ≥ 0.

Quand on combine les deux ensembles des conditions, on trouve que les condi-tions suffisantes pour la non-négativité de µt sont celles avancées précédem-ment.

Passons maintenant à la méthode d’estimation des paramètres.

1.6.3. Estimation et inférence du modèle MEM

Considérons une spécification gamma(φ,φ) pour la loi de l’innovation εt.Ainsi, on déduit que :

xt | Ft−1 ∼ gamma(φ,φ

µt

).

La fonction de vraisemblance, notée Lt, de xt est donnée par l’expression sui-vante :

Lt =

µt

)φΓ(φ)

xφ−1t exp

(−φ

xt

µt

),

et son logarithme, noté lt, est égal à l’expression :

Page 41: Université de Montréal Les modèles vectoriels et multiplicatifs avec

30

lt = ln Lt = φ lnφ− ln Γ(φ) + (φ− 1) ln xt − φ(

lnµt +xt

µt

).

Considérons λ = (θ>;φ>)>, le vecteur λ contient deux sous-vecteurs θ et φ, cequi revient à résoudre les deux sous-systèmes :

5λlt = 0⇐⇒ 5θlt = 0,5φlt = 0.

L’opérateur 5λ représente les dérivées par rapport aux composantes de λ.Donc,

5θlt = φ5θ µt(xt − µtµ2t

),

5φlt = lnφ+ 1− Ψ(φ) + ln

(xt

µt

)−xt

µt.

où Ψ(φ) =Γ

′(φ)

Γ(φ)est la fonction parfois nommée digamma. Voir Cipollini,

Engle et Gallo (2006).

Ainsi, le système du premier ordre revient à résoudre les équations suivantes :

1

T

T∑t=1

5θµtxt − µtµ2t

= 0,

lnφ+ 1− Ψ(φ) +1

T

T∑t=1

[ln(xt

µt

)−xt

µt

]= 0.

Un examen des conditions du premier ordre mène à la remarque suivante :le système est indépendant du paramètre φ dans la distribution gamma. Ceciimplique que quelque soit la valeur de φ, toute distribution gamma dans la fa-mille gamma(φ,φ), φ > 0 pour le terme d’erreur d’un modèle MEM mèneraaux même estimations ponctuelles.

La contribution de xt à la matrice Hessienne est donnée par l’expression sui-vante :

Ht =

(Ht,θθ ′ Ht,θφ

H>t,θφ Ht,φφ

),

Page 42: Université de Montréal Les modèles vectoriels et multiplicatifs avec

31

dont les différentes matrices blocs sont précisément données par les expres-sions :

Ht,θθ ′ = 5θθ ′lt = φ

(−2xt + µt

µ3t5θ µt5θ ′ µt +

xt − µtµ2t

5θθ ′ µt

),

Ht,θφ = 5θφlt =xt − µtµ2t

5θ µt,

Ht,φφ = 5φφlt =1

φ− Ψ ′(φ),

où la fonction Ψ ′(φ) est la fonction trigamma.Voir Cipollini, Engle et Gallo(2006). La matrice des variances et covariances asymptotique de l’estimationpar maximum de vraisemblance est obtenue selon certaines conditions de ré-gularité par l’expression suivante :

V∞ =

φ limt→∞ 1

T

T∑t=1

1

µ2t5θ µt5θ ′ µt 0

0 Ψ ′(φ) −1

φ

−1

.

Notons que même si φ n’est pas impliqué dans l’estimation de θ, la variance

de θ est proportionnelle à1

φ. Notons aussi que les estimateurs θ et φ obtenus

par maximum de vraisemblance sont asymptotiquement non-corrélés.

Dans le chapitre suivant, nous présentons les modèles vectoriels et multipli-catifs avec erreurs non-négatives vMEM qui sont une simple généralisationdes modèles MEM. Dans un cadre multivarié, nous introduisons la définitiondu processus et la notion de stationnarité de xt, la notion de la non-négativitéde µt, ainsi que les méthodes d’estimation existantes pour ces modèles.

Page 43: Université de Montréal Les modèles vectoriels et multiplicatifs avec

Chapitre 2

MODÈLES vMEM

Dans ce chapitre, nous introduisons la classe de modèles vMEM. Commementionné précédemment, un tel modèle nécessite la spécification d’une loimultivariée dont toutes les composantes sont non-négatives. Nous présentonsdans un premier lieu la distribution gamma multivariée proposée et étudiéedans Cheriyan (1941) et Ramabhadran (1951). Cependant, compte tenu deslimites de cette loi, nous considérons l’utilisation des copules. Nous rappe-lons quelques définitions de base qui nous permettront de décrire le conceptde copule. Puis, nous résumons les concepts et les propriétés des copules lesplus importants dans l’étude qui seront nécessaires pour la spécification dela distribution des innovations dans le cas des modèles d’erreurs multivariés.Ensuite, nous présentons en détail les modèles vMEM introduits par Engle(2002) et développés par Engle et Gallo (2006). Nous présentons ensuite troisméthodes d’estimation. Pour l’approche paramétrique, nous considérons laméthode du maximum de vraisemblance (plus précisément la méthode dumaximum de vraisemblance concentrée), tandis que pour l’approche semi-paramétrique nous présentons la méthode des moments généralisés (GMM)et la méthode des erreurs standard associées aux paramètres (WNLS).

2.1. DISTRIBUTION GAMMA MULTIVARIÉE

Une approche naturelle consiste à spécifier directement la distribution duvecteur aléatoire εt. Cependant, comme les composantes doivent être non-négatives, on ne peut pas utiliser une distribution comme la normale multi-variée. En fait, compte tenu des propriétés de la loi gamma, il peut être utilede considérer la loi gamma multivariée. La littérature suggère que plusieursgénéralisations sont possibles. On trouve par exemple la loi gamma bivariéedéveloppée par Cheriyan (1941). Elle a été généralisée au cas complètementmultivarié par Ramabhadran (1951). Cette distribution, notée GammaCR, est

Page 44: Université de Montréal Les modèles vectoriels et multiplicatifs avec

33

détaillée dans l’ouvrage de Johnson, Kotz et Balakrishnan (2000), qui portesur les propriétés de plusieurs lois multivariées continues. Cette distribution aaussi été considérée par Cipollini, Engle et Gallo (2006, Annexe C).

Afin de construire un vecteur aléatoire εt = (ε1t, · · · , εKt)> selon la loi Gam-maCR, on considère les variables aléatoires Y0t, Y1t, . . . , YKt indépendantes etde distribution gamma. On a alors :

Y0t ∼ gamma(φ0, 1), (2.1.1)

Yit ∼ gamma(φi − φ0, 1), (2.1.2)

et ce pour i = 1, . . . , K. Les paramètresφ0 etφidoivent être spécifiés et satisfontles contraintes 0 < φ0 < φi, i = 1, . . . , K. Posons

εit =Yit + Y0tφi

, i = 1, . . . , K.

On dira que εt admet une distribution GammaCR avec paramètres φ0 et φ =

(φ1, . . . , φk)>.

On note cette distribution :

εt ∼ GammaCR(φ0,φ).

Cipollini, Engle et Gallo (2006) présentent une version plus générale de la dis-tribution de Cheriyan et Ramabhadran, qui repose sur un paramètre addition-nel de dimensionK. Cependant, ils considèrent la distribution GammaCR(φ,φ)dans leurs développements et motivations.

On note que la dépendance est introduite compte tenu de la variable aléatoireY0t.

La fonction de densité est donnée par :

f(εt) =1

Γ(φ0)

K∏i=1

φi

Γ(φi − φ0)e−

∑Ki=1 φiεi,t

∫ v0

yφ0−10 e(K−1)y0

K∏i=1

(φiεi,t − y0)φi−φ0−1dy0,

où v = min(φ1ε1,t, · · · , φKεK,t). Remarquons que la fonction de densité de

Page 45: Université de Montréal Les modèles vectoriels et multiplicatifs avec

34

cette distribution est formulée en fonction de produits et d’une intégrale. Cettefonction de densité devient rapidement compliquée à calculer à mesure que Kdevient grand.

Comme mentionné par Cipollini, Engle et Gallo (2006), toutes les lois mar-ginales de la distribution GammaCR sont gamma, c’est-à-dire que :

εit ∼ gamma(φi, φi).

On peut facilement déterminer la structure de dépendance entre les compo-santes de εt. En effet

Cov(εi,t, εj,t) = Cov

(Yit + Y0tφi

,Yjt + Y0tφj

), (2.1.3)

=1

φiφjCov(Y0t, Y0t), (2.1.4)

=Var(Y0t)

φiφj, (2.1.5)

=φ0

φiφj. (2.1.6)

On note que ces covariances sont toutes strictement positives, ce qui peut êtreconsidéré comme un désavantage.

La corrélation entre εi,t et εj,t, i 6= j, est donnée par :

ρ(εi,t, εj,t) =φ0√φiφj

.

Puisque εit ∼ gamma(φi, φi), on trouve que Var(εit) = 1/φi, i = 1, . . . , K. Onremarque ainsi une dépendance de la mesure de corrélation avec les variancesdes marges. Ainsi, si les marges sont toutes gamma(1,1), avec φ0 = 0, 5, alorsla corrélation entre deux composantes est toujours de 50%. Ces restrictions surla structure de corrélation sont suffisamment importantes pour considérer unesolution alternative reposant sur la théorie des copules.

2.2. PROPRIÉTÉS FONDAMENTALES DES COPULES

Dans cette partie, après un bref historique du concept de copule, nous dé-finissons ce qu’est une copule, et nous fournissons les propriétés les plus im-portantes pour notre étude.

Page 46: Université de Montréal Les modèles vectoriels et multiplicatifs avec

35

Le concept de copule est lié à un théorème qui a été exposé dans Sklar (1959),dans un article rédigé en français. Les copules sont des fonctions qui relient en-semble les distributions univariées afin de créer des distributions multivariées.Avec une fonction de copule, il est possible de distinguer les rôles respectifs desfonctions de distributions multivariés avec les distributions marginales univa-riées (les marges). Un ouvrage qui fait un survol des débuts de cette théorieà 1999 est Nelsen (1999). On note que l’étude des copules et leur applicationsen statistique a vraiment connu des développements ces quinze dernières an-nées. En plus des applications en statistique multivariée, la finance, l’actuariatet l’économétrie font maintenant appel à ces méthodes. Une simple applicationde Google avec les mots-clés "copula Sklar" donne plus de 25000 résultats.

Le terme copule en soi (ou copula en anglais) vient du mot latin "copulæ", quisignifie liaison, lien, alliance ou union. On peut consulter le dictionnaire Cas-sell’s Latin Dictionnary.

La définition suivante stipule qu’une copule n’est rien d’autre qu’une fonc-tion de répartition avec marges uniformes.

Définition 2.2.1. Une copule est définie comme étant une fonction de répartition mul-tivariée ayant des lois marginales uniformes sur [0, 1].

La théorie des copules est un ensemble de techniques très puissantes afinde comprendre la dépendance de distributions à plusieurs dimensions. Il estpossible de construire des distributions, et de les simuler, et de considérer ainsides familles de distributions bidimensionnelles et multidimensionnelles dontles marges sont choisies arbitrairement par l’analyste.

La théorie de la statistique a longtemps considéré la loi normale comme étantcentrale. De plus, l’extension de la loi normale univariée au cas multivariédonne une distribution multivariée aux propriétés tout à fait remarquables. Siun vecteur est de distribution multinormale, alors les marges sont normaleset même les lois conditionnelles sont également de lois normales. Voir parexemple Johnson et Wichern (1992).

Avant de présenter les propriétés des copules à n dimensions, nous rappelonsla définition de la fonction de répartition conjointe et des lois marginales qui

Page 47: Université de Montréal Les modèles vectoriels et multiplicatifs avec

36

nous permettront de décrire le concept de copule.

2.2.1. Définition de la fonction de répartition conjointe et des lois margi-nales

Soit X un vecteur aléatoire en K-dimensions X = (X1, X2, . . . , XK)>. On ap-

pelle alors fonction de répartition conjointe de X, la fonction de K variablesréelles définie par :

F(x1, x2, . . . , xK) = P(X1 ≤ x1, . . . , XK ≤ xK).

Cette fonction de répartition conjointe nous permet d’établir les fonctions derépartition F1, . . . , FK des variables aléatoires marginales X1, . . . , XK (donc lesfonctions de répartition marginales) comme suit :

Fi(xi) = P(Xi ≤ xi) = F(∞, . . . ,∞, xi, . . . ,∞, . . . ,∞).

Dans la suite, nous allons donner la définition d’une copule de dimension K.

Définition 2.2.2. Une copule de dimension K (ou K-copule) est une fonction C définiede IK dans I avec I = [0, 1] telle que :

(1) Pour tout vecteur aléatoire u = (u1, . . . , uK) ∈ IK, C(u) = 0 si au moins unedes coordonnées est nulle.

(2) Si toutes les coordonnées de u sont un à l’exception de uk alors :C(u) = C(1, . . . , 1, uk, 1, . . . , 1) = uk pour tout k ∈ 1, . . . , K.

Nous présentons maintenant le théorème de Sklar, qui comme mentionnéest central dans l’étude des distributions multivariées .

Théorème 2.2.1 (Le théorème de Sklar). Soit H une fonction de répartition en Kdimensions ayant des distributions marginales F1, F2, . . . , FK. Alors il existe une K-copule C telle que pour tout x ∈ [−∞,∞]K :

H(x1, x2, . . . , xK) = C(F1(x1), . . . , FK(xK)).

Page 48: Université de Montréal Les modèles vectoriels et multiplicatifs avec

37

Si les marginales sont continues alors C est unique ; sinon C est uniquement détermi-née en fonction de RanF1∗ RanF2 ∗ . . . ∗ RanFK, où l’expression Ran est l’abréviationdu support (ou range) de F qui est un sous-ensemble de [−∞,+∞].

Inversement, si C est une copule à K dimensions et que F1, . . . , FK sont des fonctionsde distribution, alors la fonction H définie comme ci-dessus est une fonction de répar-tition à K-dimensions ayant pour marginales F1, F2, . . . , FK.

Avant d’aborder le corollaire du théorème de Sklar qui utilise des fonc-tions inverses généralisées, il convient tout d’abord de donner une définitionde celle-ci.

Définition 2.2.3. Si F est une fonction de répartition, alors une fonction inverse gé-néralisée de F pourra être toute fonction F(−1) définie sur I = [0, 1] telle que :

(1) Si t ∈ RanF, alors F(−1)(t) est un nombre x ∈ [−∞,∞] tel que F(x) = t.Donc, pour tout t ∈ RanF, F( F(−1)(t)) = t.

(2) Si t /∈ RanF alors F(−1)(t) = inf x | F(x) ≥ t = sup x | F(x) ≤ t.

Corollaire 2.2.1 (Inversion du théorème de Sklar). Définissons H, C, F1, . . . , FKcomme dans le théorème de Sklar précédent et notons F(−1)1 , . . . , F

(−1)K les fonctions in-

verses généralisées de F1, . . . , FK . Alors, pour tout vecteur u ∈ [0, 1]K :

C(u1, · · · , uK) = H(F(−1)1 (u1), · · · , F(−1)K (uK)).

Le théorème de Sklar est utilisé pour construire des copules à partir desdistributions multidimensionnelles.

Les propriétés suivantes d’une copule multivariée sont particulièrement im-portantes.

Théorème 2.2.2 (Les bornes de Fréchet-Hoeffding). Les bornes d’une copule dedimension K s’énoncent comme suit :

max

(K∑i=1

ui + 1− K, 0

)≤ C(u) ≤ min (u1, . . . , uK).

Page 49: Université de Montréal Les modèles vectoriels et multiplicatifs avec

38

Les bornes de Fréchet-Hoeffding sont utiles car elles stipulent les cas ex-trêmes pour la fonction de copule C. Une question naturelle consiste à savoirsi ces bornes sont atteintes et s’il y a des interprétations intéressantes à ces caslimites. L’ouvrage de Joe (1997) est utile à cette fin. Il ressort que la borne su-périeure est toujours une fonction de répartition, et donc peut servir afin deconstruire des lois multivariées. Voir le théorème 3.2 dans Joe (1997, p. 58). Lecas de la borne inférieure est beaucoup plus compliqué. Pour les distributionsbivariées, la borne inférieure de Fréchet-Hoeffding est une fonction de répar-tition. Cependant, ce résultat n’est plus vrai dans le cas K > 3. Cependant desconditions peuvent être formulées pour que la borne inférieure soit une fonc-tion de répartition. Voir Joe (1997, pp. 60-65).

Dans le théorème qui suit, nous abordons la copule associée à l’indépendanceentre les composantes du vecteur aléatoire.

Théorème 2.2.3 (Notion d’indépendance). Pour K ≥ 2, soient X1, X2, . . . , XK desvariables aléatoires continues. Alors :

(1) X1, X2, . . . , XK sont indépendantes si et seulement si la K-copule deX1, X2, . . . , XK est

∏K(u) = u1u2 · · ·uK.

(2) Chacune des variables aléatoires X1, X2, . . . , XK est une fonction absolumentcroissante de n’importe quelle des autres si et seulement si la K-copule deX1, X2, . . . , XK a K-copule égale à min(u1, u2, . . . , uK).

Ce résultat est énoncé dans Nelsen (1999, p.43). Dans le cas de distributionscontinues, il est utile de présenter la densité d’une copule multivariée. Ceci faitl’objet de la prochaine définition.

Définition 2.2.4 (Densité de la copule multivariée). La densité f d’une fonction derépartition F est définie comme suit :

f(x1, . . . , xK) =∂F(x1, . . . , xK)

∂x1 . . . ∂xK.

La densité de la copule, fonction que l’on note c(u1, . . . , uK), s’exprime donc commesuit :

c(u1, . . . , uK) =∂C(u1, . . . , uK)

∂u1 . . . ∂uK.

Page 50: Université de Montréal Les modèles vectoriels et multiplicatifs avec

39

Si nous appelons fi la densité de la i-ème marginale, alors la densité f de F s’exprimealors comme suit :

f(x1, . . . , xK) = c(F1(x1), . . . , FK(xK))×K∏i=1

fi(xi).

Cette formule est très importance lorsque la méthode du maximum de vrai-semblance est adoptée dans le contexte pleinement paramétrique. Ce résultatimportant est très utile dans Cipollini, Engle et Gallo (2006).

Il existe plusieurs types de copules. On peut énoncer les copules archimé-diennes, les copules elliptiques et les copules à valeurs extrêmes. Nous nousintéressons aux copules elliptiques qui sont associées aux distributions ellip-tiques. Cette famille de copules contient la copule gaussienne ou normale ainsique la copule de Student. Les copules elliptiques sont attrayantes parce qu’ellespeuvent être utilisées également lorsque le nombre d’observations est modé-rément grand. De même, elles peuvent décrire la dépendance dans les queuesdes distributions. Voir McNeil, Frey et Embrechts (2005).

Nous nous intéressons à présenter la densité de la copule gaussienne ainsi quela méthode pour la simuler.

Théorème 2.2.4 (Densité d’une copule normale multivariée). La densité d’unecopule normale multivariée s’écrit comme suit :

c(u) = |R|−12exp[−

1

2q>(R−1 − I)q],

où le terme R est la matrice de corrélation, la valeur de qi est qi = Φ−1(ui) tel queΦ(·) représente la fonction de répartition de la loi normale N (0, 1).

Dans notre étude de simulations, il sera particulièrement important de si-muler une copule gaussienne dont les marges sont gamma. Nous considéronsdans la prochaine section la simulation d’une copule normale multivariée dontles marges sont premièrement de distributions arbitraires, deuxièmement nor-males et troisièmement lorsque les marges sont de distributions gamma.

2.2.2. Simuler une copule normale

L’algorithme que nous avons mis en œuvre afin de simuler une copulegaussienne multivariée repose sur les étapes suivantes.

Page 51: Université de Montréal Les modèles vectoriels et multiplicatifs avec

40

(1) Choisir une matrice de corrélation arbitraire Σ telle que Σ est une ma-trice carrée symétrique de diagonale 1 et qui a comme élément ρij = ρji.Le coefficient ρij représente la corrélation entre la variable i et la va-riable j.

(2) Calculer la décomposition de Cholesky qui consiste à trouver une ma-trice A telle que Σ = A>A.

(3) Générer K variables aléatoires centrées réduites iid X1, . . . , XK.

(4) Calculer (X1, . . . , XK)> = X = AX où X = (X1, . . . , Xk)>.

(5) Poser Ui = Φ(Xi), i = 1, . . . , K, où Φ(·) est la fonction de répartition deloi normale N (0, 1) et U = (Φ(X1), . . . , Φ(XK))

>.

(6) Soit Xi = Φ−1(Ui), où Ui ∼ U(0, 1). Alors la fonction de répartition de Xiest une loi normale N (0, 1). Ce résultat classique permet donc de trou-ver les marges.

Dans l’algorithme précédent, s’il est souhaité que les distributions marginalessoient normales, il suffit de faire les quatre premières étapes et de calculer l’in-verse de la fonction de répartition de la loi normale. Ceci correspond à utili-ser la fonction qnorm(·) en R. Cependant, si une copule gaussienne avec desmarges de lois gamma est ce qui doit être simulée, alors c’est l’inverse de lafonction de répartition d’une loi gamma qui doit être calculé, en utilisant lafonction qgamma(·) en R. Voir aussi McNeil, Frey et Embrechts (2005) pourplus de détails.

Dans la prochaine section, nous présenterons la définition des modèles vMEMet nous exposerons les principales caractéristiques de ces modèles.

2.3. PRÉSENTATION DU MODÈLE VMEM

Dans le chapitre précédent, nous avons présenté les modèles MEM qui per-mettent de modéliser une série chronologique univariée. Donc les modèles

Page 52: Université de Montréal Les modèles vectoriels et multiplicatifs avec

41

MEM sont utiles lorsque l’on dispose d’une réalisation finie d’une variabledans le temps. Cependant, dans les applications, plusieurs variables sont ob-servées dans le temps et il peut être pertinent de procéder à une modélisationsimultanée. Parmi les applications évidentes, l’étude des relations de causalitéentre les variables peut s’avérer d’intérêt. De plus, si certaines variables sontreliées, elles peuvent être utilisées afin de proposer des prévisions plus pré-cises. De manière générale, la modélisation de plusieurs séries chronologiquesunivariées amène l’étude des séries chronologiques multivariées.

Les modèles vectoriels et multiplicatifs avec erreurs non-négatives (vMEM)permettent de modéliser des vecteurs aléatoires avec composantes qui sonttoutes non-négatives. Ils ont été introduits par Engle (2002) et développés parEngle et Gallo (2006). Ces modèles représentent une généralisation au cas mul-tivarié des modèles MEM introduits par Engle (2002). Il s’agit d’une représen-tation appropriée des processus non-négatifs qui ont des interactions dyna-miques entre eux. La prochaine section décrit des exemples d’utilisation de laclasse des modèles vMEM.

2.3.1. Exemples d’utilisation de l’approche vMEM

Il est souvent d’intérêt de modéliser conjointement la dynamique de deuxou plusieurs séries temporelles non-négatives. Nous présentons dans cette par-tie quatre exemples où une approche multivariée MEM semble plus naturelle.

(1) Étude de la volatilité

Une vaste littérature porte sur les données à haute fréquence où les sé-ries financières sont des rendements dont on veut décrire la volatilité.Un objectif pourrait être de mesurer les interactions dynamiques entredifférentes mesures financières telles la volatilité réalisée, la différenceentre le prix le plus haut et le prix le plus bas (donc étudier l’étendueou le range en anglais), les rendements absolus, etc. Ces mesures ex-pliquent l’information contenue dans l’activité intra-journalière de lavolatilité. Ainsi, avec les modèles vMEM, on peut considérer un mo-dèle global où ces mesures peuvent interagir. Plus précisément, nouspouvons étudier si ces mesures sont indépendantes des autres, si cesmesures s’expliquent en fonction de leur propre passé, où encore si ces

Page 53: Université de Montréal Les modèles vectoriels et multiplicatifs avec

42

mesures sont expliquées par des variables retardées d’autres mesures.

(2) Transfert de volatilité

Une vaste littérature tente de décrire des mécanismes de transmissionde la volatilité (en anglais, volatility spillover). Par transfert de volatilité,il est question de transfert ou de contagion à travers les marchés. Avecles modèles vMEM, nous pouvons construire un modèle d’interdépen-dance où nous utilisons un proxy de la volatilité (par exemple la varia-tion journalière) pour les différents marchés et où l’on tente d’analyserles interactions selon le modèle choisi.

(3) Dynamique de l’exécution des commandes

Dans les marchés boursiers, il y a un compromis entre la possibilité desoumettre une commande au meilleur prix contre le risque que ces com-mandes ne soient jamais exécutées. On pourrait s’intéresser alors à ladistribution de la quantité de stocks qui vont s’exécuter dans une pé-riode de temps donnée à une distance donnée du prix courant. On parlealors de profondeur d’exécution. La présence de zéros est possible icicar il y a des situations où la quantité de stocks pouvant être exécutésà une certaine distance donnée pour le prix actuel est tout simplementnulle. Il peut être pertinent d’étudier la dynamique entre les quantités,les prix, etc. Il pourrait être pertinent de procéder à une modélisationvMEM dans un contexte de prévision. Voir Noss (2007).

(4) Dynamiques entre les transactions, les durées, les volumes et la volati-lité

Dans un contexte où les données sont observées à ultra haute fréquence,les transactions surviennent à des instants irréguliers. On a déjà intro-duit les modèles ACD afin de décrire les durées. De façon réaliste, lesanalystes ne disposeraient pas seulement des durées, mais égalementdes mesures de volume et les mesures de rendement. Cette situationsuggère un modèle multivarié pour les quantités en cause. Une modéli-sation possible a été proposée par Manganelli (2002). Une question na-turelle porte sur la dynamique existante entre les différentes mesures.

Page 54: Université de Montréal Les modèles vectoriels et multiplicatifs avec

43

Plus spécifiquement, il peut être pertinent de vérifier si l’interactionentre les variables en cause peut finalement révéler la vitesse de trans-mission de l’information privée dans les prix. En utilisant une modéli-sation vMEM, le vecteur aléatoire pourrait avoir comme composantesles durées, les volumes et les volatilités. Dans le modèle vMEM, on peutintégrer les retards des variables en cause dans le système, et la matricede variance du terme d’erreur permet de tenir compte de corrélationscontemporaines entre les composantes du terme d’erreur.

Dans la prochaine section, nous présentons la définition du modèle vMEM.Nous étudions les conditions de stationnarité ainsi que les conditions de non-négativité. Des méthodes d’estimation sont aussi discutées. Les résultats expo-sés dans ce qui suit proviennent de Cipollini, Engle et Gallo (2006).

2.3.2. Définition et formulation

Soit xt un processus dont les composantes sont non-négatives. Le vecteuraléatoire xt est de dimension K× 1, tel que xt = (x1,t, . . . , xK,t)

>, et donc xi,t ≥ 0avec probabilité un. On observe la série chronologique xt, t = 1, . . . , T . Ondira que xt suit un modèle MEM vectoriel, ou encore vMEM, s’il s’exprimecomme :

xt = µt εt, (2.3.1)

= diag(µt)εt, (2.3.2)

où le symbole ′ ′ désigne le produit d’Hadamard. On rappelle que pour deuxmatrices A et B, chacune de dimension n×m, alors

A B = C,

où C est de dimension n ×m et telle que C = (cij), cij = aijbij, avec A = (aij)

et B = (bij). C’est donc simplement le produit élément par élément de deuxmatrices de même dimension. Pour un vecteur K × 1 a, diag(a) représente lamatrice diagonale K×K avec les composantes de a sur la diagonale principale.

Conditionnellement à l’information disponible jusqu’à l’instant t − 1, notéeencore Ft−1, la moyenne conditionnelle est µt, que l’on suppose satisfaire lastructure :

Page 55: Université de Montréal Les modèles vectoriels et multiplicatifs avec

44

µt = µ(Ft−1,θ),

où µt est un vecteur aléatoire de dimension K×1. Le vecteur de paramètres estcontenu dans θ.

Le terme d’erreur εt est un processus stochastique que l’on peut supposeriid, tel que εt est de dimension K × 1. Le support de εt est [0,+∞)K. On sup-pose que E(εt) = 1 où le vecteur 1 est tel que 1 = (1, . . . , 1)> et Var(εt) = Σ.

On note

εt ∼ D(1, Σ). (2.3.3)

Ainsi, on obtient que

E(xt | Ft−1) = E(diag(µt)εt | Ft−1), (2.3.4)

= diag(µt)E(εt | Ft−1), (2.3.5)

= diag(µt)1, (2.3.6)

= µt. (2.3.7)

De même

Var(xt | Ft−1) = Var(diag(µt)εt | Ft−1), (2.3.8)

= diag(µt)Var(εt | Ft−1)diag(µt), (2.3.9)

= diag(µt)Σdiag(µt), (2.3.10)

= µtµ>t Σ, (2.3.11)

où l’on utilise la relation bien connue Var(Ax) = AVar(x)A> et les propriétésdu produit d’Hadamard.

2.3.3. Spécification de µt

Comme dans le cas univarié des modèles vMEM, la spécification la plussimple d’ordre (1,1) de la moyenne conditionnelle µt est la suivante :

µt =ω+ αxt−1 + βµt−1,

où le vecteur ω a comme dimension K × 1 et les matrices α et β ont pour di-mension K× K.

Page 56: Université de Montréal Les modèles vectoriels et multiplicatifs avec

45

Si nous sommes intéressé à étudier les rendements, il est pertinent de tenircompte du signe de rendements financiers en fonction du temps. Considéronsla série chronologique des rendements associés, que l’on note rt. La spécifica-tion générale de la moyenne conditionnelle est la suivante :

µt =ω+ αxt−1 + γx(−)t−1 + δx

(s)t−1 + βµt−1. (2.3.12)

Dans la spécification (2.3.12), les fonctions x(−)t et x(s)t sont égales à x(−)

t =

xtI(rt < 0) et x(s)t = x1/2t signe(rt), avec I(B) représentant la variable indicatrice

de l’ensemble B. Les matrices δ et γ ont des interprétations dans la littératurefinancière liées à des considérations d’asymétrie. Les matrices α, β, γ et δ ontpour dimension K× K. On note que le vecteurω a pour dimension K× 1.

La spécification générale de µt peut être écrite de la manière suivante :

µt =ω+ α∗x∗t−1 + βµt−1,

tel que le vecteur x∗t = (xt; x(−)t ; x

(s)t ) a pour dimension 3K × 1 et la matrice

α∗ = (α;γ;β) a pour dimension K × (3K). Soit le vecteur θ = (ω;α∗;β).Comme dans le cas univarié des modèles MEM, l’espace des paramètres pourles vMEM doit être restreint afin de s’assurer que µt ≥ 0. Pour un vecteur x, lanotation x ≥ 0 veut dire que chaque composante du vecteur est non-négative.

Pour un processus stochastique admettant une structure vMEM, la conditionsuffisante de stationnarité est que toutes les valeurs propres de

A = α+ β+ γ/2

soient plus petites que un en module.

Les conditions suffisantes de non-négativité des composantes de µt reposentsur les résultats déjà obtenus dans le cadre des modèles MEM. Ainsi,µt ≥ 0,∀t,si les conditions suivantes sont satisfaites pour tout i, j = 1, . . . , K.

(1) Pour tout j, βij ≥ 0, αij ≥ 0, αij + γij ≥ 0 ;

(2) Si αij = 0 alors δij ≥ 0 ; Si αij + γij = 0 alors δij ≤ 0 ;

Page 57: Université de Montréal Les modèles vectoriels et multiplicatifs avec

46

(3) ωi −1

4

k∑j=1

δ2ij

[I(δij < 0)I(αij > 0)

αij+I(δij > 0)I(αij + γij > 0)

αij + γij

]≥ 0.

Pour plus de détails, voir Cipollini, Engle et Gallo (2006). Il semble assez évidentque ces conditions étaient déjà difficiles à utiliser pour les MEM. Les choses secompliquent substantiellement dans le cas multivarié. À mesure que K devientgrand, les conditions précédentes sont très compliquées à vérifier en pratique.

2.3.4. Spécification de εt

Dans cette section, nous considérons la spécification de la distribution duterme d’erreur εt pour le modèle vMEM. L’extension naturelle est de considé-rer :

εi,t | Ft−1 ∼ gamma(φi, φi), i = 1, . . . , K.

Comme mentionné dans la section 2.1, une possibilité est d’utiliser une distri-bution gamma multivariée, qui est telle que les distributions marginales sontgamma. Cependant, compte tenu des restrictions sur la structure de dépen-dance, une autre possibilité est d’utiliser les copules. Dans ce qui suit, on consi-dère l’utilisation de la copule normale avec marges gamma.

2.3.4.1. Copule normale de distributions marginales gamma

Une autre manière valide pour définir la distribution de εt est de suppo-ser que tous les densités marginales univariées ont comme distribution unegamma(φi, φi), i = 1, . . . , K et d’utiliser les copules. La copule est l’outil per-mettant d’extraire la structure de dépendance et le comportement marginal.Plusieurs copules ont été proposées dans des travaux théoriques et appliqués(Embrechts, Lindskog et McNeil (2001) et Bouyé, Durrleman, Nikeghbali, Ri-boulet et Roncalli (2000)). Les copules, normale ou student, provenant de lafamille elliptique, sont flexibles et possèdent de nombreuses propriétés inté-ressantes comme la résolubilité analytique et la facilité de la simulation.

Dans notre étude, nous considérons la copule normale. Nous supposons que :

εt ∼ N (R) −∏K

igamma(φi, φi).

Cette notation veut simplement dire que la structure de dépendance est celle

Page 58: Université de Montréal Les modèles vectoriels et multiplicatifs avec

47

d’une copule normale, mais que les distributions marginales sont :

gamma(φi, φi), i = 1, . . . , K.

La matrice R permet de spécifier la matrice de corrélation.

La variance-covariance conditionnelle de εt a un élément global approxima-tivement égal à :

C(εi,t, εj,t) 'Rij√φiφj

.

De plus, les corrélations sont approximativement :

ρ(εi,t, εj,t) ' Rij.

Contrairement à la distribution gamma multivariée, la copule normale avecmarges gamma permet une structure de covariance et corrélation plus souple.En particulier, des corrélations négatives sont possibles. De plus, les corréla-tions ne dépendent plus des variances des distributions marginales, et il y amoins de contraintes complexes sur les paramètres de la distribution. De façonintéressante, l’écriture de la fonction de densité est relativement aisée, ce quirend possible l’écriture de fonctions de vraisemblance. L’estimation dans lesmodèles vMEM est abordée à la prochaine section.

2.4. ESTIMATION DU MODÈLE VMEM

Plusieurs méthodes sont possibles pour estimer les modèles MEM multiva-riés. Si nous spécifions la distribution de εt, nous pouvons utiliser la méthodedu maximum de vraisemblance. Si nous ne spécifions pas la distribution de εt,alors il est possible de considérer des méthodes semi-paramétriques telles quela méthode des moments généralisés (GMM).

Nous commençons par présenter la méthode du maximum de vraisemblance.

Page 59: Université de Montréal Les modèles vectoriels et multiplicatifs avec

48

2.4.1. Maximum de vraisemblance

Soit εt tel que leur fonction de densité est donnée par :

f(εt) = c(F1(ε1,t), . . . , FK(εK,t))

K∏i=1

fi(εi,t),

avec fi(·) et Fi(·) qui indiquent respectivement la fonction de densité et la fonc-tion de répartition de la ième composante de εt, et c(·) est la fonction de densitéde la copule choisie.

Dans notre étude, nous utilisons une copule normale et des marginales dontleurs distributions univariées sont gamma(φi,φi), i = 1, . . . , K.

Pour chaque i, les fonctions de densité et de répartition sont respectivement :

fi(εi,t) =φφi

i

Γ(φi)εφi−1i,t exp(−φiεi,t),

et

Fi(εi,t) = Γ(φi;φiεi,t),

où la fonction Γ(ζ; x) indique la fonction de répartition d’une distributiongamma(ζ,1) calculée à x.

La densité de la copule normale est :

c(ut) = |R|−1/2 exp[−1

2q>t (R

−1 − I)qt

],

oùqt = (Φ−1(F1(ε1,t)); . . . ;Φ

−1(FK(εK,t))).

Dans l’expression précédente, Φ−1(x) indique la fonction quantile de la distri-bution normale de moyenne 0 et de variance 1 calculée à x. Le vecteur ut =(F1(ε1,t), . . . , FK(εK,t))

> représente un vecteur de dimension K des fonctions derépartition univariées de εi,t avec i = 1, . . . , K.

Page 60: Université de Montréal Les modèles vectoriels et multiplicatifs avec

49

Ainsi, la fonction de densité de xt | Ft−1 est la suivante :

f(xt | Ft−1) = c(F1(x1,t/µ1,t), . . . , FK(xK,t/µK,t))K∏i=1

fi(xi,t/µi,t)

µi,t,

où la fonctionfi(xi,t/µi,t)

µi,tindique la fonction de densité d’une loi gamma(φi,

φi/µi,t).

La log-vraisemblance pour un échantillon de taille T se détaille comme suit :

l =

T∑t=1

lt,

=

T∑t=1

ln f(xt | Ft−1),

=

T∑t=1

ln c(F1(x1,t/µ1,t), . . . , FK(xK,t/µK,t)),

+

T∑t=1

K∑i=1

[ln fi(xi,t/µi,t) − lnµi,t].

Puisque la copule est normale, nous pouvons écrire :

lt =1

2ln |R−1|−

1

2q>t R

−1qt +1

2q>t qt

+

K∑i=1

[φi lnφi − ln Γ(φi) − ln xi,t + φi(ln xi,t + φi

(ln xi,t − lnµi,t −

xi,t

µi,t

)],

= (Contribution de la copule)t+ (Contribution des marginales)

t.

La contribution des marginales dépend de θ et φ, tandis que la contributionde la copule normale dépend de R, θ etφ. Ça implique

∂l

∂R−1=1

2(TR− q>q) = 0⇒ R =

q>q

T,

où la matrice T × K notée q est telle que q> = (q1, . . . ,qT). Cependant, l’esti-mateur de R ci-dessus est obtenu sans imposer aucune contrainte par rapportà sa nature comme une matrice de corrélation (par exemple que les éléments

Page 61: Université de Montréal Les modèles vectoriels et multiplicatifs avec

50

diagonaux sont un et que R est une matrice définie positive). D’un autre côté,une maximisation directe de la contribution de la copule normale en tenantcompte des contraintes que les éléments diagonaux sont un et que R est unematrice définie positive ne donne pas une solution explicite et complique lamise en œuvre empirique.

Un compromis acceptable qui devrait accroître l’efficacité, bien que formel-lement il ne peut pas être interprété comme un estimateur du maximum devraisemblance, est de normaliser l’estimateur obtenu ci-dessus, R, afin de letransformer en une matrice de corrélation :

R = D− 1

2

Q QD− 1

2

Q ,

avec

Q =q>q

T, oùDQ = diag(Q11, . . . , QKK).

En utilisant le nouvel estimateur de R, on obtient la log-vraisemblance concen-trée suivante :

lc =T

2

[− ln |R|− trace(RQ) + trace(Q)

]+ (contribution des marginales),

= −T

2

[ln |q>q|−

K∑i=1

ln(q>·iq·i)

]+ (contribution des marginales).

Plus de détails sur cette construction se trouve dans Cipollini, Engle et Gallo(2006). Un aspect important de cette méthode porte sur le calcul des dérivéesde la fonction de vraisemblance. Nous exposons les quantités utiles dans laprochaine section.

2.4.1.1. Les dérivées de la log vraisemblance concentrée

Les paramètres à estimer sont φ et θ, où le vecteur φ est un vecteur quireprésente les paramètres de la distribution gamma des εt. Le vecteur θ se re-trouve dans l’équation de µt. La dérivée de la log vraisemblance concentréesera donc par rapport àφ et θ. On trouve :

Page 62: Université de Montréal Les modèles vectoriels et multiplicatifs avec

51

5θ lc =T∑t=1

5θµ>t at, (2.4.1)

at = (a1,t, . . . , aK,t)>, (2.4.2)

et le vecteur at a pour composantes :

ai,t =

f(1)i

(xi,t

µi,t;φi

)bi,t + f

(2)i

(xi,t

µi,t;φi

)µi,t

, (2.4.3)

i = 1, . . . , K. Les fonctions f(1)i et f(2)i satisfont :

f(1)i (xi,t/µi,t;φi) = dgamma

(xi,t

µi,t;φi + 1;φi

), (2.4.4)

f(2)i (xi,t/µi,t;φi,t) = φi

(xi,t

µi,t− 1

), (2.4.5)

bi,t = −(Cqt)iφ(qi,t)

. (2.4.6)

Dans la formule (2.4.6), la matrice C est :

C = Q−1D1/2Q QD

1/2Q Q

−1 −Q−1 + IK − R−1 +D−1

Q −D−1/2Q diag(Q−1D

1/2Q Q).

Ainsi, on trouve l’expression suivante :

5φilc =

T∑t=1

[−5φi

Fi

(xi,t

µi,t;φi

)bi,t + ln(φi) −ψ(φi) + ln

(xi,t

µi,t

)−xi,t

µi,t+ 1

].

(2.4.7)

Les dérivées de 5φiFi(xi,t/µi,t;φi) doivent être calculées numériquement. Ce-

pendant, estimer les paramètres à l’aide du maximum de vraisemblance concen-trée n’est pas facile, particulièrement si le nombre de paramètres K est grand.

Parfois nous nous intéressons à analyser la dynamique de la moyenne condi-tionnelle µt sans spécifier la distribution multivariée pour le terme d’erreur.

Page 63: Université de Montréal Les modèles vectoriels et multiplicatifs avec

52

Pour cela, une approche alternative semi-paramétrique est possible. Cette ap-proche est semi-paramétrique dans le sens que contrairement à l’approche im-posant une loi multivariée, il n’est pas nécessaire de spécifier une distributionmultivariée pour le terme d’erreur. Voir Cipollini, Engle et Gallo (2012). Lesparamètres d’intérêt sont donc les paramètres du vecteur θ de dimension pqui mesurent la dynamique de µt. Elle est basée sur les moments d’ordre un etdeux de la variable xt | Ft−1 qui sont tels que :

E(xt | Ft−1) = µt, (2.4.8)

Var(xt | Ft−1) = µtµ>t Σ = diag(µt)Σdiag(µt). (2.4.9)

Nous allons présenter dans la prochaine section deux méthodes d’estimationqui sont dans cette catégorie : la méthode des moments généralisés (GMM) etaussi la méthode des erreurs standard associées aux paramètres (WNLS).

2.4.2. Méthode des moments généralisés (GMM)

La méthode des moments généralisés (GMM) a été introduite pour estimerdes paramètres définis par des conditions de moments. Le principe de la mé-thode des moments généralisés consiste à choisir une valeur de θ permettantde rendre la moyenne empirique la plus proche possible de zéro. Nous com-mençons par décrire cette méthode.

Soit la variable ut telle que :

ut = xt µt − 1, (2.4.10)

où le signe ′ ′ représente la division élément par élément. Plus particulière-ment, pour deux matrices A = (aij) et B = (bij) de même dimensions tellesque bij > 0, on définit A B = C = (cij) où cij = aij/bij. D’après les équations(2.4.8) et (2.4.9), la variable ut est une différence de martingales conditionnellehomoscédastique telle que :

E(ut | Ft−1) = 0, (2.4.11)

Var(ut | Ft−1) = Σ. (2.4.12)

Page 64: Université de Montréal Les modèles vectoriels et multiplicatifs avec

53

Le moment conditionnel d’ordre un peut être une clé pour l’estimation (voirWooldridge (1994)), mais il ne suffit pas pour estimer k paramètres du vec-teur θ. Cependant, une matriceGt qui dépend de Ft−1 et non-corrélée avec ut,donne le résultat suivant :

E(Gtut | Ft−1) = 0. (2.4.13)

Dans la littérature sur les méthodes de type GMM la matrice Gt est appeléeinstrument.

La structure des modèles vMEM permet des simplifications considérables, liéeen particulier àut étant une différence de martingales. Cette caractéristique im-plique queGtut est une différence de martingales (voir Wooldridge (1994)), etle théorème de la double espérance donne donc E(Gtut) = 0. Selon la méthodedes moments généralisés, on doit résoudre en utilisant les versions empiriquesle système :

1

T

T∑t=1

Gtut = 0. (2.4.14)

L’équation (2.4.14) nous donne L moments conditionnels à résoudre. Si L = k,nous avons autant d’équations que la dimension k où le nombre k représentela dimension du vecteur θ.

Selon Wooldridge (1994), la matrice des variances et covariances est la sui-vante :

Avar(θT) =1

T(S>V−1S)−1, (2.4.15)

où les matrices S et V sont :

Page 65: Université de Montréal Les modèles vectoriels et multiplicatifs avec

54

S = limT→∞

1

T

T∑t=1

E(5θ>Gtut), (2.4.16)

V = limT→∞

1

TVar

(T∑t=1

Gtut

), (2.4.17)

= limT→∞

1

T

T∑t=1

E(Gtut)(Gtut)

>. (2.4.18)

Puisque la fonction Gtut est une différence de martingales, alors on peut pas-ser de (2.4.17) à (2.4.18).

La structure de différence de martingales de ut donne aussi une simple for-mulation pour un choix efficace de l’instrumentGt, où le terme efficace signifieproduire la plus petite variance asymptotique entre les estimateurs de GMMposée par les fonctionsGtut comme en (2.4.14). Alors, le choix efficace de l’ins-trumentGt est le suivant :

G∗t = −E(5θu>t | Ft−1)Var(ut | Ft−1)−1. (2.4.19)

En utilisant l’équation (2.4.10), on trouve que

5θ u>t = −5θ µ>t diag(µt)−1diag(ut + 1). (2.4.20)

Et donc l’instrumentG∗t sera égal à :

G∗t = −5θ µ>t diag(µt)−1Σ−1. (2.4.21)

Retournons maintenant à l’équation (2.4.14) et remplaçant l’instrumentGt parl’instrument G∗t . Donc on peut estimer le vecteur θ en résolvant le systèmenon-linéaire suivant :

1

T

T∑t=1

5θµ>t diag(µt)−1Σ−1ut = 0. (2.4.22)

La matrice de variance asymptotique est :

Page 66: Université de Montréal Les modèles vectoriels et multiplicatifs avec

55

Avar(θT ) =1

T

[limT→∞

1

T

T∑t=1

E(5θµ>t diag(µt)Σdiag(µt))−15θ> µt

]−1. (2.4.23)

Remarquons que l’équation (2.4.22) dépend de Σ dont les éléments sont incon-nus. Pour estimer les paramètres de la moyenne conditionnelle, nous devonsconsidérer les deux étapes suivantes :

Dans la première étape, on considèreΣ = IK telle que la matrice IK est la matriceidentité d’ordre K, où le nombre K représente le nombre de variables étudiées.Nous résolvons ensuite le système non-linéaire suivant :

1

T

T∑t=1

5θµ>t diag(µt)−1ut = 0. (2.4.24)

Nous obtenons alors un estimateur θ pour le vecteur θ.

Dans la deuxième étape, nous utilisons le vecteur θ estimé afin de calculertout d’abord ut (2.4.10) et ensuite pour déterminer Σ = 1

T

∑Tt=1 utu

>t . Enfin,

nous remplaçons dans l’équation 2.4.22 la matrice Σ telle que le système non-linéaire à résoudre est le suivant :

1

T

T∑t=1

5θµ>t diag(µt)−1Σ−1ut = 0. (2.4.25)

Les deux étapes sont répétées de manière itérative jusqu’à convergence. Doncla méthode semi-paramétrique GMM consiste à estimer le vecteur θ en ré-solvant l’équation (2.4.22) par les deux étapes décrites ci-dessus. Toutefois, lamême condition peut également être obtenue au moyen d’autres méthodesd’inférence. Une de ces méthodes est la méthode des erreurs standard asso-ciées aux paramètres (WNLS).

2.4.3. Méthode des erreurs standard associées aux paramètres (WNLS)

Comme la méthode des moments généralisés, la méthode des erreurs stan-dard associées aux paramètres peut être utilisée pour les modèles vectorielset multiplicatifs avec erreurs non-négatives afin d’estimer les paramètres dela moyenne conditionnelle µt sans spécifier la distribution du terme d’erreur.Cette méthode, notée WNLS, est détaillée dans l’ouvrage de Wooldridge (1994).Elle prend en considération les moments conditionnels d’espérance (2.4.8) ainsi

Page 67: Université de Montréal Les modèles vectoriels et multiplicatifs avec

56

que la variance (2.4.9) de xt.

Selon Wooldridge (1994), cette méthode consiste à minimiser le système non-linéaire suivant :

minθ

1

2T

T∑t=1

(xt − µt)>W

−1

t (xt − µt), (2.4.26)

où la matriceWt est définie positive, symétrique et dépend de Ft−1, le vecteurθ est un vecteur qui contient tous les paramètres de la moyenne conditionnelleà estimer.

Pour avoir un estimateur optimal du vecteur θ, ceci nécessite de trouver unevaleur convenable et efficace pour la matrice Wt. Selon Wooldridge (1994), lamatriceWt est égale à la variance conditionnelle (2.3.8) de xt.

En remplacant Wt par diag(µt)Σdiag(µt), la nouvelle équation à minimiserest la suivante :

minθ

1

2T

T∑t=1

(xt − µt)>(diag(µt)Σdiag(µt))

−1(xt − µt), (2.4.27)

Or l’équation (2.4.27) dépend de la matrice inconnue Σ. Alors, il est nécessairetout d’abord d’estimer la matrice Σ et ensuite l’utiliser pour estimer l’équation(2.4.27). Afin de faire cette estimation, nous devons considérer deux étapes.

Dans la première étape, on pose Wt = diag(µt)Ikdiag(µt) tel que Σ = IK

où IK est la matrice identité d’ordre K, et le nombre K représente le nombre devariables étudiées. Puis nous minimisons l’équation suivante :

minθ

1

2T

T∑t=1

(xt − µt)>(diag(µt)IKdiag(µt))

−1(xt − µt). (2.4.28)

Dans la deuxième étape, nous utilisons le vecteur θ estimé dans la premièreétape pour calculer la matrice inconnue Σ. Une fois que la matrice Σ est calcu-lée, nous minimisons le système non-linéaire suivant :

Page 68: Université de Montréal Les modèles vectoriels et multiplicatifs avec

57

minθ

1

2T

T∑t=1

(xt − µt)>(diag(µt)Σdiag(µt))

−1(xt − µt). (2.4.29)

Dans cette section, nous avons exposé la méthode du maximum de vraisem-blance concentrée, la méthode des moments généralisés (GMM) et la méthodedes erreurs standard associées aux paramètres (WNLS). Toutes ces méthodesd’estimation ont été programmées dans le langage R, et le code principal estfourni en Annexe. Dans le prochain chapitre, nous allons étudier empirique-ment les trois méthodes d’estimation à l’aide d’une brève étude de simulationsMonte Carlo.

Page 69: Université de Montréal Les modèles vectoriels et multiplicatifs avec

Chapitre 3

SIMULATIONS

Dans les chapitres précédents, nous avons introduit les modèles MEM etplus particulièrement les modèles multivariés vMEM. Nous avons discuté endétails d’un aspect particulièrement important, à savoir comment spécifier laloi du terme d’erreur, qui est une distribution multivariée dont toutes les com-posantes sont non-négatives. Nous avons présenté plusieurs méthodes d’esti-mation dans ce contexte. Une contribution importante du mémoire est la com-paraison empirique de ces méthodes d’estimation. Ainsi, les biais des estima-teurs, en plus de l’efficacité des estimateurs, sont étudiés dans ce chapitre. Unediscussion importante porte sur la convergence des méthodes d’estimation.En fait, c’est vraiment à ce niveau que nous avons rencontré le plus de difficul-tés, car dans plusieurs situations les algorithmes éprouvaient des difficultés deconvergence. Ceci semble en accord avec les articles discutant des propriétésempiriques de ces méthodes.

3.1. DÉSCRIPTION DE LA SIMULATION

Plusieurs processus ont été considérés, s’exprimant tous comme des mo-dèles vMEM(1,1) de la forme suivante :

µt =ω+ αxt−1 + βµt−1,

oùω a pour dimension 3× 1, et α et β sont des matrices de paramètres 3× 3.Les matrices de paramètres ont été choisies en s’inspirant d’autres études em-piriques. Voir Cipollini et Gallo (2010) et Cipollini, Engle et Gallo (2012).

Nous devons insister sur le fait que nous avons considéré des modèles tri-variés, donc avec K = 3, ce qui a entraîné des complications numériques.

Page 70: Université de Montréal Les modèles vectoriels et multiplicatifs avec

59

Les tailles échantillonales nécessaires étaient relativement grandes, à savoirT = 1000 et T = 5000. Compte tenu que les modèles trivariés reposent surun maximum possible de 22 paramètres indépendants, les tailles considéréessont raisonnables. Rappelons qu’une modélisation GARCH univariée reposesouvent sur un grand nombre d’observations. Une modélisation vMEM à troisdimensions nécessite également des tailles échantillonales assez grandes.

Concernant la loi du terme d’erreur, nous avons considéré dans tous les casune copule gaussienne avec des marges diverses. Pour les distributions mar-ginales, nous avons considéré des lois gamma avec plusieurs choix de para-mètres et des lois exponentielles. La copule gaussienne repose sur la matrice Rtelle que :

R =

1 0.37 0.21

0.37 1 0.18

0.21 0.18 1

.

Dans cette situation, les composantes du vecteur εt sont dépendantes sans êtrefortement dépendantes. Nous avons essayé d’autres choix de matrice R sansqu’il y ait des changements majeurs.

Les processus vMEM(1,1) et les lois marginales sont décrits comme suit :

(avtbvtcvt

)=

[(0.02060.07720.1172

)+(0 0.1564 00 0.1283 00 0 0.2418

)( avt−1

bvt−1cvt−1

)+(0.7900

0.77950.6450

)( µavtt−1

µbvtt−1

µcvtt−1

)](εav,tεbv,tεcv,t

);

(3.1.1)

(εav,tεbv,tεcv,t

)∼

(gamma(4.0,4.0)gamma(5.5,5.5)gamma(3.1,3.1)

);

(dvtevtfvt

)=

[(0.02060.07720.1172

)+(0 0.1564 00 0.1283 00 0 0.2418

)(dvt−1evt−1

fvt−1

)+(0.7900

0.77950.6450

)( µdvtt−1

µevtt−1

µfvtt−1

)](εdv,tεev,tεfv,t

);

(3.1.2)

(εdv,tεev,tεfv,t

)∼

(gamma(27.9853,27.9853)gamma(28.6715,28.6715)gamma(36.3381,36.3381)

);

Page 71: Université de Montréal Les modèles vectoriels et multiplicatifs avec

60

( gvthvtivt

)=

[(0.02060.07720.1172

)+(0 0.1564 00 0.1283 00 0 0.2418

)( gvt−1

hvt−1

ivt−1

)+(0.7900

0.77950.6450

)( µgvtt−1

µhvtt−1

µivtt−1

)](εgv,tεhv,tεiv,t

);

(3.1.3)

(εgv,tεhv,tεiv,t

)∼

(exponentielle(1)exponentielle(1)exponentielle(1)

);

(jvtkvtlvt

)=

[(0.02060.04060.0982

)+(0.1961 0.0529 00.1864 0.0694 00.0775 0 0.1770

)( jvt−1

kvt−1

lvt−1

)+(0.6675

0.67150.6618

)( µjvtt−1

µkvtt−1

µlvtt−1

)](εjv,tεkv,tεlv,t

);

(3.1.4)

(εjv,tεkv,tεlv,t

)∼

(gamma(27.0821,27.0821)gamma(28.1324,28.1324)gamma(35.8882,35.8882)

);

(mvtnvtovt

)=

[(0.02060.04060.0982

)+(0.1961 0.0529 00.1864 0.0694 00.0775 0 0.1770

)(mvt−1nvt−1ovt−1

)+(0.6675

0.67150.6618

)( µmvtt−1

µnvtt−1

µovtt−1

)](εmv,tεnv,tεov,t

);

(3.1.5)

(εmv,tεnv,tεov,t

)∼

(gamma(24.50,24.50)gamma(35.63,35.63)gamma(12.98,12.98)

);

(pvtqvtrvt

)=

[(0.02060.04060.0982

)+(0.1961 0.0529 00.1864 0.0694 00.0775 0 0.1770

)(pvt−1qvt−1rvt−1

)+(0.6675

0.67150.6618

)( µpvtt−1

µqvtt−1

µrvtt−1

)](εpv,tεqv,tεrv,t

);

(3.1.6)

(εpv,tεqv,tεrv,t

)∼

(exponentielle(1)exponentielle(1)exponentielle(1)

);

(svttvtuvt

)=

[(0.0200.0770.120

)+(0.61

0.540.4

)( svt−1tvt−1uvt−1

)+(0.20

0.100.25

)( µsvtt−1

µtvtt−1

µuvtt−1

)](εsv,tεtv,tεuv,t

);

(3.1.7)

(εsv,tεtv,tεuv,t

)∼

(gamma(27.9853,27.9853)gamma(28.6715,28.6715)gamma(36.3381,36.3381)

).

Les processus (3.1.1), (3.1.2) et (3.1.3) sont des modèles vMEM(1,1) qui ont lamême structure au niveau de la moyenne conditionnelle µt. Ces modèles sedistinguent par le terme d’erreur. Ainsi les lois marginales sont différentes.

Page 72: Université de Montréal Les modèles vectoriels et multiplicatifs avec

61

Les variances diffèrent ainsi que les corrélations entre les composantes. Voir lasous-section 2.3.4.1.

Les processus (3.1.4), (3.1.5) et (3.1.6) sont des modèles vMEM(1,1) assez simi-laires aux modèles (3.1.1), (3.1.2) et (3.1.3), sauf que le nombre de paramètresnon-nuls à estimer est plus important.

Finalement, le processus (3.1.7) est un modèle vMEM(1,1) tel que la diagonalede la matrice β a des coefficients plus petits que 0, 5. Comparativement auxautres modèles, moins de persistance est donc considérée.

Afin de simuler les modèles, nous avons dû déterminer les moyennes initialesµ0 et µ1. Elles satisfont :

µ0 = (I− α− β)−1ω, (3.1.8)

µ1 =ω+ (α+ β)µ0. (3.1.9)

Par la suite, nous avons calculé

x1 = diag(µ1)ε1,

pour ε1 un vecteur aléatoire selon la loi considérée. Par la suite, nous avonscalculé récursivement :

µt =ω+ αxt−1 + βµt−1,

etxt = µtεt.

Pour chaque réalisation, nous avons simulé T1 = 2T + 1 observations, et nousavons conservé les T dernières observations, pour T ∈ 1000, 5000.

Les trois méthodes d’estimation exposées dans le chapitre 2 ont été program-mées : la méthode pleinement paramétrique du maximum de vraisemblance,où tous les paramètres sont estimés, incluant les paramètres dans la loi duterme d’erreur ; les méthodes semi-paramétriques GMM ainsi que WNLS ontaussi été incluses dans notre étude.

Page 73: Université de Montréal Les modèles vectoriels et multiplicatifs avec

62

Toute la programmation a été réalisée avec le logiciel R. Tous les codes sonten Annexe. La prochaine section fait état de quelques constatations liées à desproblèmes de convergence.

3.1.1. Problèmes numériques

De manière générale, l’estimation des modèles vMEM était particulière-ment compliquée. La méthode du maximum de vraisemblance reposait surle calcul des dérivées premières, et la méthode n’était pas très stable. Cipolliniet Gallo (2010, p. 2485) abordent ces questions, et eux-mêmes ont dû combinerdes approches numériques afin d’obtenir la convergence. Cette constatationn’était pas très pratique dans un contexte de simulation. Basée sur une seuleréalisation, il était possible d’ajuster de diverses façons des estimateurs afinde trouver l’optimum. Cependant, automatiser cela pour un grand nombrede simulations était particulièrement difficile. Pour le maximum de vraisem-blance, nous avons utilisé l’algorithme BHHH (voir Berndt, Hall, Hall et Haus-man (1974)). Nous avons rencontré des messages d’erreur suggérant que l’al-gorithme errait à trouver un optimum (local). La forme de la vraisemblancesemblait particulièrement plate à certains endroits.

Pour la méthode GMM, un système non-linéaire devait être résolu. Cepen-dant, compte tenu des restrictions sur l’espace paramétrique, les calculs desmatrices inverses diag(µt) et diag(µt)Σ

−1 n’étaient pas toujours possible. Ilsemblait que la matrice diag(µt) ou Σ convergeait vers des matrices singu-lières. Ce problème était plus prononcé pour T = 1000 que T = 5000, ce quiétait rassurant (mais ne résolvait pas toujours la convergence pour T = 1000).Concernant la méthode WNLS, il n’y avait pas beaucoup de problème. Ce-pendant, pour T = 1000, il était parfois difficile de calculer la matrice inverse(diag(µt)Σdiag(µt)).

Le tableau 3.1 ci-dessous présente le nombre de cas où la convergence a étéobtenue, basé sur 1000 simulations.

Puisque nous réalisons des simulations, nous connaissons les vraies valeursdes modèles que l’on a pu utiliser comme valeurs initiales. Bien entendu, enpratique, le choix des valeurs initiales peut être problématique.

D’après le tableau 3.1, nous remarquons l’importance d’augmenter le nombre

Page 74: Université de Montréal Les modèles vectoriels et multiplicatifs avec

63

TABLE 3.1. Nombre de cas sur 1000 où il y a eu convergencepour les sept modèles de 1000 réalisations par rapport au nombred’observations .

Nombre effectif de Réalisations pour les trois méthodesModèles T = 1000 T = 5000

BHHH GMM WNLS BHHH GMM WNLSModèle 1 198 613 1000 598 987 1000Modèle 2 289 288 1000 706 981 1000Modèle 3 226 433 992 632 661 991Modèle 4 171 106 1000 559 961 1000Modèle 5 160 173 1000 412 996 1000Modèle 6 99 524 997 478 966 1000Modèle 7 494 327 1000 905 883 1000

d’observations. Par exemple, pour le modèle 4, le nombre de réalisations sanserreur sur 1000 est 106 pour T = 1000 et 961 pour T = 5000. Plus T augmente,plus le nombre de messages d’erreurs a diminué dans nos simulations.

3.2. PRÉSENTATIONS DES RÉSULTATS

Nous commençons par analyser les résultats des estimations pour les pro-cessus simulés. Les résultats des trois premiers modèles (3.1.1), (3.1.2) et (3.1.3)se trouvent dans les tableaux 3.2, 3.3 et 3.4. Pour tous les processus, nous avonscalculé le biais, l’erreur quadratique moyenne (EQM), la variance échantillo-nale (VÉ) et la moyenne des estimateurs de variance (MVE).

D’après les résultats des simulations, nous trouvons que si T augmente, le biaisdes paramètres de la moyenne conditionnelle et la variance échantillonnale di-minuent pour les trois méthodes d’estimation et ainsi automatiquement l’er-reur quadratique moyenne MSE diminue, car elle s’exprime en fonction dubiais de l’estimateur et de sa variance. Aussi les résultats nous montrent queplus les φi sont petits, plus le biais et la variance échantillonnale et la moyennedes estimateurs de variance des φi sont réduits. En comparant les méthodes,au niveau des paramètres de la moyenne conditionnelle et pour chaque T , noustrouvons que la méthode paramétrique a le plus petit biais parmi les trois mé-thodes et que la méthode GMM a la variance échantillonnale la plus petiteparmi les trois méthodes. De plus, plus lesφi sont élevés pour le modèle (3.1.2),plus les méthodes GMM et WNLS ont un biais et une variance échantillonnaleplus petites pour chaque T .Tandis que pour la méthode BHHH, cela est validejustement pour la variance échantillonnale. Passons maintenant au processusvMEM (3.1.4), (3.1.5) et (3.1.6).

Page 75: Université de Montréal Les modèles vectoriels et multiplicatifs avec

64

Les résultats des processus vMEM (3.1.4), (3.1.5) et (3.1.6) se trouvent dans lestableaux 3.5, 3.6 et 3.7. D’après les résultats des simulations pour les modèles(3.1.4), (3.1.5) et (3.1.6), nous trouvons aussi que si T augmente, le biais des pa-ramètres de la moyenne conditionnelle, la variance échantillonnale et l’erreurquadratique moyenne diminuent pour les trois méthodes d’estimation. Parmiles trois méthodes, pour chaque T , nous trouvons que la méthode GMM est laméthode qui donne la variance échantillonnale et la moyenne des estimateursde variance les plus petites. Pour les processus vMEM (3.1.4), (3.1.5) et (3.1.6),il n’existe pas une méthode précise qui a le plus petit biais pour tous les para-mètres de la moyenne conditionnelle. Ils sont divisés entre la méthode BHHHet GMM. Donc la méthode paramétrique n’est pas toujours la meilleure mé-thode à utiliser pour estimer un processus vMEM. Concernant les valeurs deφi, nous trouvons que plus les φi sont petits, plus le biais, la variance échan-tillonnale et la moyenne des estimateurs de variance des paramètres φi sontréduits.

Pour le dernier modèle simulé (3.1.7), les paramètres β sont très petits (infé-rieur à 0, 5). Nous remarquons que si les valeurs du paramètre β sont petites,le nombre de cas où il y a convergence de la méthode paramétrique est prochede 50% pour T = 1000, et est égale à 90, 5% pour T = 5000 (voir tableau 3.1).

À partir des résultats, nous pouvons dire que le plus remarquable est que siT augmente le nombre de situations où il y a convergence augmente, tandisque le biais, l’erreur quadratique moyenne, la variance échantillonnalle et lamoyenne des estimateurs de variance diminuent. De plus, pour chaque T , auniveau des paramètres de la moyenne conditionnelle, la méthode GMM donneles plus petites variances échantillonnales et moyennes des estimateurs de va-riances parmi les trois méthodes, au moins dans nos études empiriques.

Page 76: Université de Montréal Les modèles vectoriels et multiplicatifs avec

65

TAB

LE

3.2.

Prop

riét

ésem

piri

ques

des

esti

mat

ions

ponc

tuel

les

etes

tim

atio

nsde

vari

ance

slo

rsd’

une

sim

ula-

tion

deta

ille1000

pour

lem

odèl

e1

défin

ipar

(3.1

.1)p

ourT=1000

et5000.

Mod

èle

1;T

=1000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

φ1=4

3,48

0651

,94

2897

,70

20,0

242

,43

φ2=5,5

6,29

20-7

9,20

7172

,92

90,0

985

,98

φ3=3,1

3,31

43-2

1,43

652,

5919

,32

24,1

1=0,0206

0,02

43-0

,37

3,62

0,35

1,85

0,02

75-0

,69

3,68

0,32

0,37

0,04

35-2

,29

19,8

41,

461,

70ω

2=0,0772

0,08

56-0

,84

11,2

71,

061,

860,

0894

-1,2

28,

090,

660,

900,

1212

-4,4

042

,27

2,29

3,75

ω3=0,1172

0,12

15-0

,43

9,73

0,95

1,01

0,12

44-0

,72

8,87

0,83

0,85

0,18

92-7

,20

81,2

42,

943,

18α12=0,1564

0,16

16-0

,52

8,45

0,82

3,66

0,16

47-0

,83

8,86

0,82

0,72

0,25

74-1

0,10

128,

422,

633,

05α22=0,1283

0,13

00-0

,17

7,25

0,72

1,13

0,13

38-0

,55

5,08

0,48

0,56

0,17

46-4

,63

34,5

01,

312,

13α33=0,2418

0,24

21-0

,03

9,70

0,97

1,02

0,24

030,

158,

290,

830,

800,

3691

-12,

7318

8,31

2,63

3,01

β11=0,7900

0,78

210,

7919

,28

1,87

9,19

0,77

381,

6222

,26

1,96

1,89

0,77

421,

5831

,57

2,91

3,34

β22=0,7795

0,76

581,

3733

,31

3,14

5,40

0,75

792,

1625

,09

2,04

2,66

0,75

882,

0741

,07

3,68

5,98

β33=0,6450

0,63

790,

7124

,95

2,44

2,52

0,63

730,

7721

,54

2,10

2,17

0,63

481,

0232

,20

3,12

3,48

Mod

èle

1;T

=5000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

φ1=4

3,43

5656

,44

3233

,68

4,87

9,14

φ2=5,5

6,26

30-7

6,30

5978

,16

15,7

117

,16

φ3=3,1

3,27

29-1

7,29

339,

204,

034,

79ω

1=0,0206

0,02

16-0

,10

0,91

0,09

0,30

0,02

19-0

,13

0,61

0,06

0,06

0,03

47-1

,41

0,41

0,21

0,26

ω2=0,0772

0,07

83-0

,11

1,55

0,15

0,28

0,07

84-0

,12

1,28

0,13

0,14

0,10

51-2

,79

1,08

0,31

0,53

ω3=0,1172

0,11

73-0

,01

2,14

0,21

0,17

0,11

82-0

,10

1,54

0,15

0,15

0,18

00-6

,28

4,45

0,51

0,55

α12=0,1564

0,15

93-0

,29

2,01

0,19

0,72

0,15

95-0

,31

1,47

0,14

0,14

0,25

14-9

,50

9,54

0,51

0,59

α22=0,1283

0,12

750,

081,

350,

130,

220,

1278

0,05

1,06

0,11

0,11

0,17

12-4

,29

2,09

0,25

0,41

α33=0,2418

0,24

000,

182,

230,

220,

200,

2403

0,15

1,64

0,16

0,16

0,36

68-1

2,50

16,2

20,

590,

60β11=0,7900

0,78

830,

174,

990,

501,

650,

7876

0,24

3,42

0,34

0,33

0,78

660,

340,

500,

490,

57β22=0,7795

0,77

730,

225,

280,

520,

890,

7769

0,26

4,22

0,42

0,44

0,77

630,

320,

560,

550,

95β33=0,6450

0,64

440,

065,

880,

590,

470,

6431

0,19

4,26

0,42

0,40

0,64

280,

220,

650,

640,

64V

al.in

i=V

aleu

rsin

itia

les;

Est.

=Es

tim

ateu

rs;E

QM

=Er

reur

quad

rati

que

moy

enne

;VÉ

=V

aria

nce

écha

ntil

lona

le;M

VE=

Moy

enne

des

esti

mat

eurs

deva

rian

ce.

Page 77: Université de Montréal Les modèles vectoriels et multiplicatifs avec

66

TAB

LE

3.3.

Prop

riét

ésem

piri

ques

des

esti

mat

ions

ponc

tuel

les

etes

tim

atio

nsde

vari

ance

slo

rsd’

une

sim

ulat

ion

deta

ille1000

pour

lem

odèl

e2

défin

ipar

(3.1

.2)p

ourT=1000

et5000.

Mod

èle

2;T

=1000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

φ1=27,9853

24,2

254

375,

9915

0803

,40

943,

1715

84,6

2=28,6715

32,8

293

-415

,78

1955

59,0

922

68,7

023

20,2

3=36,3381

38,8

290

-249

,09

9172

9,00

2968

,22

3125

,66

ω1=0,0206

0,02

33-0

,27

2,78

0,27

1,91

0,02

22-0

,16

1,49

0,15

0,23

0,02

52-0

,46

3,20

0,30

0,84

ω2=0,0772

0,08

72-1

,00

12,2

01,

122,

730,

0798

-0,2

64,

130,

410,

700,

0912

-1,4

012

,69

1,07

2,86

ω3=0,1172

0,12

04-0

,32

9,78

0,97

1,01

0,11

99-0

,27

6,06

0,60

0,75

0,12

97-1

,25

11,1

50,

962,

51α12=0,1564

0,15

92-0

,28

5,40

0,53

3,60

0,15

90-0

,26

4,05

0,40

0,48

0,16

81-1

,17

7,06

0,57

1,54

α22=0,1283

0,13

18-0

,35

6,75

0,66

1,65

0,13

25-0

,42

4,55

0,44

0,51

0,13

51-0

,68

6,59

0,61

1,64

α33=0,2418

0,23

940,

248,

410,

840,

850,

2430

-0,1

26,

270,

630,

660,

2506

-0,8

88,

400,

762,

05β11=0,7900

0,78

340,

6614

,63

1,42

9,41

0,78

510,

498,

660,

841,

230,

7843

0,57

13,5

81,

323,

69β22=0,7795

0,76

371,

5835

,09

3,26

7,70

0,77

190,

7615

,32

1,47

2,15

0,76

691,

2629

,04

2,74

7,34

β33=0,6450

0,64

420,

0823

,48

2,35

2,39

0,64

110,

3915

,39

1,52

1,85

0,63

740,

7621

,06

2,05

5,55

Mod

èle

2;T

=5000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

φ1=27,9853

23,8

568

412,

8517

2758

231,

7632

8,70

φ2=28,6715

32,8

328

-416

,13

1776

83,8

045

1,81

469,

17φ

3=36,3381

38,5

070

-216

,89

5308

1,23

604,

0861

3,41

ω1=0,0206

0,02

16-0

,10

0,65

0,06

0,34

0,02

15-0

,09

0,46

0,05

0,04

0,02

28-0

,22

0,60

0,06

0,14

ω2=0,0772

0,07

86-0

,14

1,81

0,18

0,43

0,07

87-0

,15

1,30

0,13

0,13

0,08

24-0

,52

1,77

0,15

0,43

ω3=0,1172

0,11

86-0

,14

1,72

0,17

0,18

0,11

88-0

,16

1,48

0,15

0,14

0,12

33-0

,61

2,01

0,16

0,44

α12=0,1564

0,15

73-0

,09

1,38

0,14

0,74

0,15

71-0

,07

0,96

0,10

0,10

0,16

74-1

,10

2,41

0,12

0,31

α22=0,1283

0,12

85-0

,02

1,46

0,15

0,32

0,12

85-0

,02

1,01

0,10

0,10

0,13

47-0

,64

1,60

0,12

0,32

α33=0,2418

0,24

120,

061,

600,

160,

170,

2415

0,03

1,31

0,13

0,13

0,25

06-0

,88

2,25

0,15

0,41

β11=0,7900

0,78

800,

203,

550,

351,

830,

7883

0,17

2,51

0,25

0,24

0,78

810,

192,

700,

270,

68β22=0,7795

0,77

730,

225,

920,

591,

340,

7772

0,23

4,14

0,41

0,42

0,77

740,

214,

410,

441,

21β33=0,6450

0,64

400,

104,

250,

420,

460,

6436

0,14

3,68

0,37

0,36

0,64

340,

163,

940,

391,

03V

al.in

i=V

aleu

rsin

itia

les;

Est.

=Es

tim

ateu

rs;E

QM

=Er

reur

quad

rati

que

moy

enne

;VÉ

=V

aria

nce

écha

ntil

lona

le;M

VE=

Moy

enne

des

esti

mat

eurs

deva

rian

ce.

Page 78: Université de Montréal Les modèles vectoriels et multiplicatifs avec

67

TAB

LE

3.4.

Prop

riét

ésem

piri

ques

des

esti

mat

ions

ponc

tuel

les

etes

tim

atio

nsde

vari

ance

slo

rsd’

une

sim

ulat

ion

deta

ille1000

pour

lem

odèl

e3

défin

ipar

(3.1

.3)p

ourT=1000

et5000.

Mod

èle

3;T

=1000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

φ1=1,0000

0,88

3511

,65

146,

371,

071,

83φ

2=1,0000

1,11

67-1

1,67

159,

142,

292,

39φ

3=1,0000

1,05

40-5

,40

46,5

91,

741,

95ω

1=0,0206

0,02

33-0

,27

2,62

0,25

0,65

0,02

62-0

,56

2,29

0,20

0,23

0,16

69-1

4,63

446,

8823

,27

2,14

ω2=0,0772

0,08

43-0

,71

13,1

21,

261,

830,

0923

-1,5

111

,09

0,88

1,05

0,40

79-3

3,07

1530

,21

43,6

88,

17ω

3=0,1172

0,11

660,

0610

,02

1,00

1,02

0,12

32-0

,60

8,91

0,86

0,91

0,47

53-3

5,81

1563

,15

28,0

64,

18α12=0,1564

0,16

60-0

,96

8,97

0,81

2,07

0,17

01-1

,37

8,19

0,63

0,68

0,85

45-6

9,81

5074

,87

20,1

45,

92α22=0,1283

0,12

610,

2210

,48

1,04

1,32

0,13

67-0

,84

7,65

0,69

0,76

0,53

56-4

0,73

1908

,72

25,0

04,

65α33=0,2418

0,23

690,

4913

,62

1,34

1,35

0,24

120,

0611

,95

1,19

1,14

0,89

62-6

5,44

4430

,42

14,7

85,

51β11=0,7900

0,78

600,

4013

,78

1,36

4,11

0,77

741,

2612

,82

1,12

1,39

0,76

952,

0536

,56

3,24

0,43

β22=0,7795

0,76

301,

6549

,61

4,69

6,20

0,74

673,

2841

,84

3,11

3,40

0,73

284,

6710

6,74

8,50

1,50

β33=0,6450

0,64

240,

2633

,26

3,32

3,07

0,63

361,

1427

,80

2,65

2,68

0,64

230,

2738

,86

3,88

0,71

Mod

èle

3;T

=5000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

φ1=1,0000

0,87

8412

,16

150,

440,

250,

37φ

2=1,0000

1,11

54-1

1,54

137,

480,

440,

48φ

3=1,0000

1,04

80-4

,80

26,4

70,

340,

38ω

1=0,0206

0,02

19-0

,13

0,53

0,05

0,11

0,02

27-0

,21

0,41

0,04

0,04

0,12

22-1

0,16

128,

022,

470,

27ω

2=0,0772

0,07

530,

191,

770,

170,

260,

0794

-0,2

21,

280,

120,

150,

3200

-24,

2864

7,58

5,80

0,89

ω3=0,1172

0,11

660,

062,

120,

210,

180,

1168

0,04

1,72

0,17

0,16

0,45

72-3

4,00

1203

,22

4,69

0,68

α12=0,1564

0,16

49-0

,85

2,49

0,18

0,39

0,16

66-1

,02

2,36

0,13

0,13

0,85

99-7

0,35

5023

,23

7,44

1,16

α22=0,1283

0,12

340,

492,

010,

180,

240,

1278

0,05

1,22

0,12

0,14

0,50

95-3

8,12

1503

,51

5,04

0,85

α33=0,2418

0,23

820,

363,

090,

300,

260,

2384

0,34

2,65

0,25

0,22

0,92

28-6

8,10

4685

,52

4,76

1,12

β11=0,7900

0,78

920,

083,

570,

360,

720,

7865

0,35

2,77

0,26

0,26

0,78

430,

576,

050,

570,

07β22=0,7795

0,77

820,

136,

670,

670,

960,

7698

0,97

5,40

0,45

0,56

0,77

010,

9413

,17

1,23

0,19

β33=0,6450

0,64

240,

267,

100,

700,

570,

6424

0,26

5,76

0,57

0,49

0,64

470,

038,

190,

820,

12V

al.in

i=V

aleu

rsin

itia

les;

Est.

=Es

tim

ateu

rs;E

QM

=Er

reur

quad

rati

que

moy

enne

;VÉ

=V

aria

nce

écha

ntil

lona

le;M

VE=

Moy

enne

des

esti

mat

eurs

deva

rian

ce.

Page 79: Université de Montréal Les modèles vectoriels et multiplicatifs avec

68

TAB

LE

3.5.

Prop

riét

ésem

piri

ques

des

esti

mat

ions

ponc

tuel

les

etes

tim

atio

nsde

vari

ance

slo

rsd’

une

sim

ulat

ion

deta

ille1000

pour

lem

odèl

e4

défin

ipar

(3.1

.4)p

ourT=1000

et5000.

Mod

èle

4;T

=1000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4×10−3×10−3

×10−2×10−4×10−3×10−3

×10−2×10−4×10−3×10−3

φ1=27,0821

23,5

182

356,

3913

6468

,27

945,

6414

25,9

6φ2=28,1324

32,5

289

-439

,65

2139

43,2

520

64,9

822

23,0

7φ3=35,8882

38,3

465

-245

,83

9578

2,82

3535

,11

3068

,91

ω1=0,0206

0,02

29-0

,23

0,71

0,07

0,79

0,02

030,

030,

310,

030,

040,

0242

-0,3

60,

740,

060,

16ω

2=0,0406

0,04

36-0

,30

1,46

0,14

0,47

0,03

980,

080,

630,

060,

070,

0446

-0,4

01,

230,

110,

28ω

3=0,0982

0,10

13-0

,31

8,52

0,84

1,42

0,08

830,

994,

350,

340,

580,

1102

-1,2

011

,13

0,97

2,58

α11=0,1961

0,19

530,

088,

180,

829,

940,

2011

-0,5

05,

680,

540,

690,

2060

-0,9

99,

820,

882,

26α21=0,1864

0,18

99-0

,35

11,3

91,

134,

180,

1896

-0,3

25,

850,

570,

730,

1994

-1,3

010

,68

0,90

2,42

α31=0,0775

0,07

96-0

,21

12,5

41,

254,

550,

0806

-0,3

18,

690,

860,

890,

0841

-0,6

612

,91

1,25

3,33

α12=0,0529

0,05

52-0

,23

6,47

0,64

4,06

0,05

48-0

,19

5,13

0,51

0,54

0,05

87-0

,58

6,78

0,64

1,76

α22=0,0694

0,06

880,

067,

640,

762,

000,

0669

0,25

6,04

0,60

0,62

0,06

880,

067,

740,

772,

02α33=0,177

0,17

520,

187,

290,

730,

860,

1769

0,01

7,13

0,71

0,62

0,18

22-0

,52

7,81

0,75

2,00

β11=0,6675

0,65

800,

9523

,95

2,30

16,2

70,

6626

0,49

11,8

81,

161,

720,

6612

0,63

20,0

61,

975,

36β22=0,6715

0,66

031,

1231

,22

3,00

7,03

0,67

34-0

,19

15,7

61,

571,

780,

6667

0,48

22,8

52,

265,

63β33=0,6618

0,65

830,

3534

,77

3,46

4,53

0,67

37-1

,19

21,9

32,

052,

480,

6510

1,08

35,4

23,

439,

09

Mod

èle

4;T

=5000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4×10−3×10−3

×10−2×10−4×10−3×10−3

×10−2×10−4×10−3×10−3

φ1=27,0821

23,1

546

392,

7515

6433

,13

217,

9830

2,50

φ2=28,1324

32,2

594

-412

,70

1742

44,8

739

2,11

446,

63φ3=35,8882

38,0

517

-216

,35

5241

3,19

560,

4459

5,93

ω1=0,0206

0,02

14-0

,08

0,14

0,01

0,16

0,02

12-0

,06

0,09

0,01

0,01

0,02

26-0

,20

0,14

0,01

0,03

ω2=0,0406

0,04

08-0

,02

0,20

0,02

0,09

0,04

08-0

,02

0,15

0,01

0,02

0,04

29-0

,23

0,22

0,02

0,05

ω3=0,0982

0,10

01-0

,19

1,81

0,18

0,28

0,09

99-0

,17

1,49

0,15

0,14

0,10

38-0

,56

1,90

0,16

0,44

α11=0,1961

0,19

68-0

,07

1,98

0,20

2,27

0,19

600,

011,

340,

130,

140,

2093

-1,3

23,

380,

170,

45α21=0,1864

0,18

72-0

,08

1,99

0,20

0,91

0,18

66-0

,02

1,43

0,14

0,15

0,19

60-0

,96

2,56

0,16

0,48

α31=0,0775

0,07

89-0

,14

2,51

0,25

1,01

0,07

79-0

,04

2,06

0,21

0,19

0,08

10-0

,35

2,43

0,23

0,61

α12=0,0529

0,05

35-0

,06

1,50

0,15

0,83

0,05

37-0

,08

1,13

0,11

0,11

0,05

72-0

,43

1,57

0,14

0,35

α22=0,0694

0,06

860,

081,

760,

170,

400,

0689

0,05

1,28

0,13

0,13

0,07

23-0

,29

1,59

0,15

0,40

α33=0,177

0,17

71-0

,01

1,58

0,16

0,17

0,17

670,

031,

400,

140,

130,

1832

-0,6

21,

840,

150,

40β11=0,6675

0,66

420,

335,

660,

563,

190,

6654

0,21

3,74

0,37

0,35

0,66

510,

244,

050,

401,

01β22=0,6715

0,67

050,

105,

070,

511,

340,

6707

0,08

3,82

0,38

0,37

0,67

070,

083,

920,

391,

07β33=0,6618

0,65

840,

347,

370,

730,

870,

6595

0,23

6,12

0,61

0,57

0,65

940,

246,

210,

621,

65V

al.in

i=V

aleu

rsin

itia

les;

Est.

=Es

tim

ateu

rs;E

QM

=Er

reur

quad

rati

que

moy

enne

;VÉ

=V

aria

nce

écha

ntil

lona

le;M

VE=

Moy

enne

des

esti

mat

eurs

deva

rian

ce.

Page 80: Université de Montréal Les modèles vectoriels et multiplicatifs avec

69

TAB

LE

3.6.

Prop

riét

ésem

piri

ques

des

esti

mat

ions

ponc

tuel

les

etes

tim

atio

nsde

vari

ance

slo

rsd’

une

sim

ulat

ion

deta

ille1000

pour

lem

odèl

e5

défin

ipar

(3.1

.5)p

ourT=1000

et5000.

Mod

èle

5;T

=1000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4×10−3×10−3

×10−2×10−4×10−3×10−3

×10−2×10−4×10−3×10−3

φ1=24,5

21,3

488

315,

1210

8606

,11

930,

3114

16,5

9φ2=35,63

40,8

609

-523

,09

2927

48,5

619

12,3

735

31,6

1φ3=12,98

14,0

100

-103

,00

1700

2,92

639,

4846

1,51

ω1=0,0206

0,02

30-0

,24

85,8

88,

580,

850,

0208

-0,0

20,

390,

040,

050,

0244

-0,3

80,

820,

070,

17ω

2=0,0406

0,04

24-0

,18

89,4

38,

940,

230,

0409

-0,0

30,

440,

040,

060,

0439

-0,3

30,

880,

080,

20ω

3=0,0982

0,10

07-0

,25

383,

5938

,35

2,28

0,08

850,

974,

850,

390,

730,

1166

-1,8

417

,50

1,41

3,34

α11=0,1961

0,19

170,

4431

1,26

31,1

110

,18

0,20

32-0

,71

6,14

0,56

0,70

0,20

81-1

,20

10,5

10,

912,

28α21=0,1864

0,18

610,

0327

2,96

27,3

02,

180,

1933

-0,6

95,

530,

500,

530,

1976

-1,1

27,

540,

631,

73α31=0,0775

0,08

08-0

,33

587,

4558

,73

14,9

00,

0842

-0,6

716

,66

1,62

2,02

0,09

04-1

,29

33,9

83,

238,

20α12=0,0529

0,05

64-0

,35

306,

7830

,67

4,40

0,05

38-0

,09

5,61

0,56

0,77

0,06

00-0

,71

9,62

0,91

2,46

α22=0,0694

0,06

850,

0928

2,49

28,2

51,

300,

0655

0,39

4,86

0,47

0,63

0,06

860,

087,

470,

751,

98α33=0,177

0,17

110,

5927

6,85

27,6

50,

800,

1753

0,17

5,44

0,54

0,65

0,19

27-1

,57

11,6

50,

922,

19β11=0,6675

0,65

970,

7852

0,20

51,9

614

,04

0,66

010,

7415

,52

1,50

1,93

0,66

040,

7122

,56

2,20

5,86

β22=0,6715

0,66

740,

4144

5,94

44,5

83,

560,

6687

0,28

11,8

01,

171,

450,

6684

0,31

17,7

21,

764,

45β33=0,6618

0,66

25-0

,07

665,

0566

,50

4,36

0,67

38-1

,20

19,4

51,

802,

840,

6490

1,28

42,8

94,

129,

67

Mod

èle

5;T

=5000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4×10−3×10−3

×10−2×10−4×10−3×10−3

×10−2×10−4×10−3×10−3

φ1=24,5

21,0

345

346,

5512

1940

,64

184,

5033

3,68

φ2=35,63

40,9

364

-530

,64

2893

07,0

977

2,91

721,

15φ3=12,98

13,7

541

-77,

4167

58,6

776

,68

95,2

1=0,0206

0,02

11-0

,05

0,16

0,02

0,17

0,02

12-0

,06

0,10

0,01

0,01

0,02

28-0

,22

0,16

0,01

0,03

ω2=0,0406

0,04

08-0

,02

0,15

0,02

0,04

0,04

09-0

,03

0,11

0,01

0,01

0,04

26-0

,20

0,16

0,01

0,04

ω3=0,0982

0,09

83-0

,01

2,77

0,28

0,43

0,10

02-0

,20

1,84

0,18

0,17

0,10

95-1

,13

3,62

0,23

0,56

α11=0,1961

0,19

550,

061,

820,

182,

220,

1961

0,00

1,40

0,14

0,14

0,21

13-1

,52

4,02

0,17

0,45

α21=0,1864

0,18

68-0

,04

1,47

0,15

0,45

0,18

68-0

,04

1,07

0,11

0,11

0,19

49-0

,85

1,88

0,12

0,34

α31=0,0775

0,07

560,

196,

900,

693,

100,

0793

-0,1

84,

950,

490,

450,

0853

-0,7

86,

950,

631,

49α12=0,0529

0,05

31-0

,02

1,94

0,19

0,86

0,05

40-0

,11

1,60

0,16

0,15

0,05

79-0

,50

2,24

0,20

0,48

α22=0,0694

0,06

97-0

,03

1,71

0,17

0,26

0,06

930,

011,

220,

120,

130,

0720

-0,2

61,

530,

150,

39α33=0,177

0,17

650,

051,

940,

190,

170,

1772

-0,0

21,

440,

140,

140,

1933

-1,6

34,

520,

190,

43β11=0,6675

0,66

680,

074,

960,

502,

530,

6647

0,28

4,30

0,42

0,39

0,66

490,

264,

550,

451,

10β22=0,6715

0,67

000,

153,

960,

390,

650,

6701

0,14

3,15

0,31

0,30

0,67

100,

053,

140,

310,

86β33=0,6618

0,66

25-0

,07

9,60

0,96

0,78

0,65

770,

417,

040,

690,

650,

6590

0,28

7,62

0,75

1,74

Val

.ini=

Val

eurs

init

iale

s;Es

t.=

Esti

mat

eurs

;EQ

M=

Erre

urqu

adra

tiqu

em

oyen

ne;V

É=

Var

ianc

eéc

hant

illo

nale

;MV

E=M

oyen

nede

ses

tim

ateu

rsde

vari

ance

.

Page 81: Université de Montréal Les modèles vectoriels et multiplicatifs avec

70

TAB

LE

3.7.

Prop

riét

ésem

piri

ques

des

esti

mat

ions

ponc

tuel

les

etes

tim

atio

nsde

vari

ance

slo

rsd’

une

sim

ulat

ion

deta

ille1000

pour

lem

odèl

e6

défin

ipar

(3.1

.6)p

ourT=1000

et5000.

Mod

èle

6;T

=1000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2×10−4×10−3×10−3

×10−2×10−4×10−3×10−3

×10−2×10−4×10−3

×10−3

φ1=1

0,88

7011

,30

139,

691,

211,

84φ2=1

1,11

21-1

1,21

149,

362,

362,

39φ3=1

1,05

59-5

,59

49,9

21,

861,

97ω

1=0,0206

0,02

28-0

,22

0,68

0,06

0,16

0,02

37-0

,31

0,65

0,06

0,05

0,12

18-1

0,12

142,

384,

010,

67ω

2=0,0406

0,04

32-0

,26

1,86

0,18

0,22

0,04

24-0

,18

0,87

0,08

0,11

0,17

30-1

3,24

237,

426,

210,

97ω

3=0,0982

0,10

22-0

,40

11,1

31,

101,

160,

1094

-1,1

211

,72

1,05

0,99

0,42

31-3

2,49

1399

,41

34,3

75,

96α11=0,1961

0,20

36-0

,75

12,8

51,

233,

550,

2080

-1,1

912

,85

1,14

1,14

0,92

08-7

2,47

5415

,66

16,4

414

,20

α21=0,1864

0,19

19-0

,55

14,6

01,

432,

380,

1916

-0,5

29,

530,

931,

170,

7168

-53,

0431

09,5

629

,63

11,2

4α31=0,0775

0,08

56-0

,81

20,5

41,

991,

960,

0862

-0,8

713

,94

1,32

1,43

0,30

72-2

2,97

935,

5040

,79

15,7

3α12=0,0529

0,05

75-0

,46

8,04

0,78

1,90

0,05

91-0

,62

6,34

0,60

0,65

0,34

11-2

8,82

1205

,99

37,5

34,

58α22=0,0694

0,06

130,

8112

,12

1,15

1,45

0,06

700,

247,

880,

780,

760,

2794

-21,

0072

1,97

28,0

94,

35α33=0,177

0,16

980,

7213

,26

1,28

1,18

0,18

31-0

,61

11,2

91,

091,

030,

6863

-50,

9328

54,8

026

,11

4,78

β11=0,6675

0,66

110,

6423

,63

2,32

6,61

0,65

641,

1121

,08

1,99

2,16

0,66

620,

1342

,99

4,30

0,67

β22=0,6715

0,65

122,

0342

,69

3,86

5,49

0,65

541,

6125

,65

2,31

2,55

0,65

641,

5175

,60

7,33

1,03

β33=0,6618

0,65

161,

0255

,11

5,41

4,95

0,63

412,

7750

,61

4,29

4,06

0,63

992,

1986

,08

8,13

1,31

Mod

èle

6;T

=5000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2×10−4×10−3×10−3

×10−2×10−4×10−3×10−3

×10−2×10−4×10−3

×10−3

φ1=1

0,87

9512

,05

147,

730,

250,

37φ2=1

1,11

53-1

1,53

137,

330,

440,

48φ3=1

1,04

69-4

,69

25,5

10,

350,

38ω

1=0,0206

0,02

20-0

,14

0,15

0,01

0,03

0,02

22-0

,16

0,13

0,01

0,01

0,11

04-8

,98

86,4

90,

590,

11ω

2=0,0406

0,03

890,

170,

260,

020,

030,

0394

0,12

0,18

0,02

0,02

0,15

88-1

1,82

148,

330,

870,

15ω

3=0,0982

0,09

85-0

,03

2,40

0,24

0,19

0,09

86-0

,04

1,82

0,18

0,16

0,38

76-2

8,94

891,

345,

380,

90α11=0,1961

0,20

59-0

,98

4,29

0,33

0,67

0,20

67-1

,06

3,36

0,22

0,22

0,98

20-7

8,59

6193

,21

1,67

2,87

α21=0,1864

0,17

930,

713,

260,

280,

400,

1803

0,61

2,27

0,19

0,22

0,70

87-5

2,23

2793

,81

6,61

2,13

α31=0,0775

0,07

78-0

,03

3,60

0,36

0,31

0,07

700,

052,

610,

260,

240,

2951

-21,

7654

7,68

7,43

2,50

α12=0,0529

0,05

55-0

,26

1,79

0,17

0,36

0,05

64-0

,35

1,43

0,13

0,13

0,30

89-2

5,60

747,

009,

140,

87α22=0,0694

0,06

580,

362,

040,

190,

260,

0666

0,28

1,59

0,15

0,15

0,27

44-2

0,50

479,

105,

870,

84α33=0,177

0,17

410,

292,

860,

280,

230,

1748

0,22

2,51

0,25

0,20

0,68

38-5

0,68

2636

,96

6,87

0,94

β11=0,6675

0,66

640,

115,

910,

591,

170,

6645

0,30

4,46

0,44

0,41

0,67

57-0

,82

8,24

0,76

0,12

β22=0,6715

0,67

24-0

,09

6,09

0,61

0,87

0,67

020,

134,

570,

460,

480,

6720

-0,0

510

,70

1,07

0,19

β33=0,6618

0,65

760,

4211

,36

1,12

0,88

0,65

790,

398,

850,

870,

740,

6579

0,39

16,0

01,

580,

22V

al.in

i=V

aleu

rsin

itia

les;

Est.

=Es

tim

ateu

rs;E

QM

=Er

reur

quad

rati

que

moy

enne

;VÉ

=V

aria

nce

écha

ntil

lona

le;M

VE=

Moy

enne

des

esti

mat

eurs

deva

rian

ce.

Page 82: Université de Montréal Les modèles vectoriels et multiplicatifs avec

71

TAB

LE

3.8.

Prop

riét

ésem

piri

ques

des

esti

mat

ions

ponc

tuel

les

etes

tim

atio

nsde

vari

ance

slo

rsd’

une

sim

ulat

ion

deta

ille1000

pour

lem

odèl

e7

défin

ipar

(3.1

.7)p

ourT=1000

et5000.

Mod

èle

7;T

=1000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

φ1=27,9853

24,1

070

387,

8315

9885

,92

947,

0916

56,3

2=28,6715

32,8

818

-421

,03

2004

61,2

623

19,8

423

97,8

3=36,3381

38,8

987

-256

,06

9720

7,28

3164

,13

3184

,99

ω1=0,02

0,02

06-0

,06

0,08

0,01

0,03

0,02

01-0

,01

0,07

0,01

0,01

0,02

19-0

,19

0,12

0,01

0,02

ω2=0,077

0,07

80-0

,10

0,81

0,08

0,17

0,07

690,

010,

670,

070,

070,

0815

-0,4

50,

980,

080,

22ω

3=0,12

0,11

760,

243,

130,

310,

360,

1173

0,27

2,65

0,26

0,27

0,12

19-0

,19

3,38

0,33

0,85

α11=0,61

0,60

780,

2210

,53

1,05

5,59

0,61

07-0

,07

8,22

0,82

0,87

0,64

70-3

,70

24,1

71,

052,

72α22=0,54

0,53

740,

2610

,26

1,02

2,24

0,53

770,

239,

540,

950,

900,

5636

-2,3

616

,33

1,08

2,78

α33=0,4

0,39

980,

0211

,11

1,11

1,27

0,40

84-0

,84

13,3

11,

260,

950,

4140

-1,4

013

,37

1,14

2,93

β11=0,2

0,19

820,

1817

,74

1,77

8,30

0,19

990,

0114

,49

1,45

1,54

0,19

760,

2416

,60

1,65

4,31

β22=0,1

0,09

630,

3728

,89

2,87

5,98

0,10

18-0

,18

22,6

12,

262,

610,

0977

0,23

25,7

82,

577,

37β33=0,25

0,24

180,

8247

,76

4,71

5,21

0,23

551,

4545

,56

4,35

3,93

0,24

270,

7346

,96

4,64

11,5

8M

odèl

e7

;T=5000

Val

.ini

Mét

hode

BH

HH

Mét

hode

GM

MM

étho

deW

NLS

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

Est.

Bia

isEQ

MV

ÉM

VE

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

×10−2

×10−4

×10−3

×10−3

φ1=27,9853

23,8

230

416,

2317

8087

,75

483,

6533

4,55

φ2=28,6715

32,7

904

-411

,89

1763

25,2

966

7,17

472,

86φ

3=36,3381

38,5

253

-218

,72

5546

1,37

762,

1161

6,43

ω1=0,02

0,02

02-0

,02

12,2

21,

220,

010,

0202

-0,0

20,

010,

000,

000,

0215

-0,1

50,

040,

000,

00ω

2=0,077

0,07

71-0

,01

40,1

54,

020,

030,

0770

0,00

0,16

0,02

0,01

0,08

08-0

,38

0,31

0,02

0,04

ω3=0,12

0,11

530,

4779

,08

7,89

0,07

0,11

550,

450,

830,

060,

050,

1196

0,04

0,57

0,06

0,16

α11=0,61

0,61

10-0

,10

143,

4414

,34

1,14

0,61

11-0

,11

1,79

0,18

0,17

0,65

03-4

,03

18,3

80,

210,

55α22=0,54

0,53

890,

1114

6,40

14,6

40,

440,

5387

0,13

2,17

0,21

0,18

0,56

53-2

,53

8,60

0,22

0,56

α33=0,4

0,39

960,

0415

3,31

15,3

30,

250,

3996

0,04

2,44

0,24

0,19

0,41

40-1

,40

4,21

0,22

0,59

β11=0,2

0,19

880,

1219

4,70

19,4

71,

630,

1987

0,13

3,18

0,32

0,31

0,19

870,

133,

350,

330,

85β22=0,1

0,09

920,

0824

8,59

24,8

61,

150,

1000

0,00

6,14

0,61

0,52

0,09

940,

065,

690,

571,

46β33=0,25

0,24

920,

0830

9,02

30,9

01,

010,

2483

0,17

9,73

0,97

0,80

0,24

960,

048,

430,

842,

28V

al.in

i=V

aleu

rsin

itia

les;

Est.

=Es

tim

ateu

rs;E

QM

=Er

reur

quad

rati

que

moy

enne

;VÉ

=V

aria

nce

écha

ntil

lona

le;M

VE=

Moy

enne

des

esti

mat

eurs

deva

rian

ce.

Page 83: Université de Montréal Les modèles vectoriels et multiplicatifs avec

Chapitre 4

ANALYSES DE DONNÉES RÉELLES

Dans ce chapitre, nous illustrons la théorie vue au deuxième chapitre surdes données financières. Les séries sont présentées dans la section 4.1. Les don-nées choisies sont tirées de l’article de Cipollini, Engle et Gallo (2012) et sontdisponibles sur le site de Journal of Applied Econometrics 1. Trois indices bour-siers sont considérés, à savoir le S&P500, le S&P400 et le FTSE100. Chaquesérie financière est composée de trois indices, impliquant des séries trivariées.La période d’observation s’étend de janvier 1996 à février 2009.

4.1. ANALYSE ET MODÉLISATION DE CHAQUE SÉRIE

Les indices boursiers sont calculés comme dans Cipollini, Engle et Gallo(2012). Plus précisément, nous définissons trois variables annualisées définiescomme suit :

|rt| = |rendementt|×√252× 100, (4.1.1)

rvt =√variance réaliséet ×

√252× 100, (4.1.2)

hlt = ln(

prix le plus élevét

prix le plus bast

)×√252× 100. (4.1.3)

Ainsi, la variable |rt| designe le rendement absolu (Absolute return en anglais)au temps t. Il est bien connu qu’une étude de la volatilité repose sur le com-portement des rendements carrés. Une mesure alternative peut être les ren-dements absolus. En effet, dans le cas où X ∼ N(0, σ2), on peut montrer queE|X| = σ

√2/π, qui est une fonction de σ2. Voir Hogg et Craig (1978, p. 115).

C’est le genre de mesure qui a été étudiée dans Cipollini, Engle et Gallo (2012).Les rendements ont été obtenus directement du Oxford-Man Institute (OMI).

1. http ://qed.econ.queensu.ca/jae/datasets/cipollini001/.

Page 84: Université de Montréal Les modèles vectoriels et multiplicatifs avec

73

La variable rvt désigne la mesure de volatilité de type volatilité réalisée se-lon la méthode du noyau développée par Barndoff-Nielsen, Hansen, Lunde etShephard (2008). Dans sa version la plus simple et naturelle, la volatilité réali-sée est calculée en utilisant la somme des carrés des rendements intrajourna-liers pour un jour donné. Voir Andersen, Bollerslev, Christoffersen et Diebold(2006). La variable hlt désigne quant à elle la différence entre le prix le plusélevé et le prix le plus bas (range en anglais) au temps t. Notons que pour uneannée donnée, il y a 252 jours ouvrables en bourse.

Après exclusion des données manquantes dues pour la plupart aux jours fé-riés, nous avons retenu 3261 observations pour l’indice boursier S&P500, 2840observations pour l’indice boursier S&P400 et 3251 observations pour l’indiceboursier FTSE100. Il est à noter que ces variables sont déjà traitées dans la basede données sur le site du Journal of Applied Econometrics.

Dans l’annexe B, les différentes séries financières sont présentées. Les troisindices boursiers S&P500, S&P400 et FTSE100 sont représentés visuellementdans les graphiques B.1, B.2 et B.3, respectivement. Pour chaque graphique,on trouve la série de rendement absolu, la variance réalisée selon la méthodedu noyau et la différence entre le prix le plus élevé et le prix le plus bas. Onremarque que ces séries affichent des caractéristiques courantes des séries fi-nancières, comme les regroupements en paquets (ou en grappes) de fortes va-riations, ainsi que de faibles variations. Ces phénomènes sont souvent appeléesdes effets ARCH (ou des effets de grappes ARCH ou GARCH). Ces constata-tions suggèrent donc qu’une spécification du modèle comme un vMEM avecdes dynamiques GARCH serait potentiellement utile.

L’analyse qui a été faite en premier lieu consiste à considérer le modèle vec-toriel et multiplicatif avec erreurs non-négatives le plus simple vMEM(1,1).Nous modélisons conjointement pour chaque indice boursier les trois sériesformées par le rendement absolu, la volatilité réalisée selon la méthode dunoyau et l’étendue. Les paramètres à estimer α, γ et β de la moyenne condi-tionnelle sont des matrices carrées diagonales d’ordre trois. Ainsi, la moyenne

Page 85: Université de Montréal Les modèles vectoriels et multiplicatifs avec

74

conditionnelle a la forme suivante :(µ|r|t

µrvtµhlt

)=ω+ α

(|r|t−1rvt−1

hlt−1

)+ γr

(−)t−1 + β

(µ|r|t−1

µrvt−1

µhlt−1

), (4.1.4)

=(ω1ω2ω3

)+(α11

α22α33

)(|r|t−1rvt−1

hlt−1

)+(γ11

γ22γ33

)r(−)t−1 +

(β11

β22

β33

)(µ|r|t−1

µrvt−1

µhlt−1

),

(4.1.5)

= µ0 + (α+ γ/2+ β)

(µ|r|t−1−µ

|r|0

µrvt−1−µrv0

µhlt−1−µ

hl0

)+ α

(|r|t−1−µ

|r|t−1

rvt−1−µrvt−1

hlt−1−µhlt−1

)+ γ

(|r|

(−)t−1−µ

|r|t−1/2

rv(−)t−1−µ

rvt−1/2

hl(−)t−1−µ

hlt−1/2

);

(4.1.6)

où le vecteurω est égal àω = [I− (α+γ+β)]µ0 et le terme γr(−)t−1 vise à saisir

les effets asymétriques associés avec le signe de la variable rendement. Le vec-

teur r(−)t−1 contient le vecteur

(|r|t−1rvt−1

hlt−1

)multiplié par une variable indicatrice. Si

le rendement journalier est négatif alors cette variable vaut un sinon elle vautzéro.

Dans la première analyse, la forme de la moyenne conditionnelle retenue cor-respond à la formule (4.1.6). L’estimation des paramètres a été effectuée enutilisant deux méthodes. Nous avons retenu la méthode semi-paramétriqueGMM, ainsi que la méthode paramétrique reposant sur la copule normale. Lesparamètres estimés du modèle vMEM(1,1) pour les trois indices boursiers sontprésentés dans les tables 4.1 et 4.2, respectivement.

TABLE 4.1. Estimation des paramètres du modèle vMEM(1,1)en utilisant la méthode semi-paramétrique GMM.

Param. S&P500 S&P400 FTSE100Val. Val. g(θ) Val. Val. g(θ) Val. Val. g(θ)init. est. ×10−8 init. est. ×10−8 init. est. ×10−8

α11 0,0037 0,0103 -0,59 -0,0033 0,0107 0,22 -0,0075 0,0023 0,45α22 0,2110 0,2218 -0,79 0,1960 0,2267 0,87 0,1434 0,1714 -8,24α33 0,0538 0,0640 0,06 0,0508 0,0623 2,71 0,0457 0,0590 4,79γ11 0,0815 0,0783 -0,12 0,0859 0,0874 0,96 0,1001 0,0851 0,56γ22 0,0798 0,0756 -1,17 0,0760 0,0626 2,57 0,0745 0,0602 -5,69γ33 0,0890 0,0841 -0,08 0,0909 0,0887 0,15 0,0904 0,0746 2,02β11 0,9392 0,9319 -0,13 0,9395 0,9221 0,49 0,9408 0,9434 0,50β22 0,7221 0,7100 -0,71 0,7321 0,7228 0,71 0,8003 0,7835 -8,10β33 0,8799 0,8691 -0,24 0,8762 0,8697 4,67 0,8909 0,8899 0,55Param.=Paramètres ; Val. init.= Valeurs initiales ; Val. est.=Valeurs estimées.

Page 86: Université de Montréal Les modèles vectoriels et multiplicatifs avec

75

TABLE 4.2. Estimation des paramètres du modèle vMEM(1,1)en utilisant la méthode paramétrique maximum de vraisem-blance.

Param. S&P500 S&P400 FTSE100Val. init. Val. est. Val. init. Val. est. Val. init. Val. est.

φ1 1,2600 1,2599 1,3100 1,3338 1,3700 1,3200φ2 13,9000 13,9024 15,0800 15,4617 15,6400 18,5945φ3 6,1000 6,1006 5,8800 6,0342 7,2100 7,1089α11 0,0037 0,0038 -0,0033 -0,0036 -0,0075 0,0464α22 0,2110 0,2110 0,1960 0,1735 0,1434 0,0915α33 0,0538 0,0540 0,0508 0,0140 0,0457 0,0206γ11 0,0815 0,0812 0,0859 0,0600 0,1001 -0,0717γ22 0,0798 0,0795 0,0760 0,0445 0,0745 0.0497γ33 0,0890 0,0894 0,0909 0,0812 0,0904 0,0175β11 0,9392 0,9391 0,9395 0,9532 0,9408 0,9032β22 0,7221 0,7221 0,7321 0,7840 0,8003 0,8656β33 0,8799 0,8804 0,8762 0,9245 0,8909 0,9504Param.= Paramètres ; Val. init.= Valeurs initiales ; Val. est.= Valeurs estimées.

Les paramètres estimés sont très proches des valeurs initiales. De plus, sion remplace le vecteur des valeurs initiales θ par le vecteur des paramètresestimés θ dans le système non-linéaire suivant :

g(θ) =1

T

T∑t=1

5θµ>t diag(µt)−1Σ−1ut, (4.1.7)

nous trouvons les résultats de g(θ) dans le tableau 4.1. D’après les résultats,nous remarquons que les paramètres estimés annulent bien le système non-linéaire, suggérant que l’estimation obtenue est bien solution au système à ré-soudre selon la méthode des moments généralisés (GMM).

Une fois les modèles estimés, nous avons pu déterminer les résidus :

ε = X/µ.

Sous la spécification correcte du modèle, la série multivariée ε doit être iid avecla distribution D(·). Les statistiques de portemanteau comme la statistique deLjung-Box multivariée fondée sur les résidus du modèle vMEM peuvent êtreutilisés pour analyser si la spécification est capable de capturer les propriétésdynamiques du processus. En fonction de s délais, la statistique de Ljung-Boxmultivariée est définie par :

Page 87: Université de Montréal Les modèles vectoriels et multiplicatifs avec

76

LB(s) = T(T + 2)

s∑j=1

(1

T − j

)trace

[C0jC

−100 C

>0jC

−100

],

où le nombre d’observation est T et le terme C0j est comme suit :

C0j = T−1

T∑t=j+1

εtε>t−j.

Sous l’hypothèse nulle H0, cette statistique suit la loi χ21−α,h où le nombre dedegrés de liberté h est égal à (nombre de séries)2 × nombre de délais. Notonsque la littérature sur les vMEM s’est contentée jusqu’à maintenant d’utiliserdes statistiques de diagnostic pour séries univariées, appliquées par exempleà chaque série. Il nous semble préférable d’utiliser des statistiques permettantde valider des modèles multivariés.

Dans notre analyse, les statistiques de Ljung-Box multivariées ont été calcu-lées. D’après les tableaux 4.3 et 4.4, nous pouvons constater qu’on rejette pourtous les délais l’hypothèse nulle, c’est-à-dire les résidus ne sont pas indépen-dants. Et donc, une amélioration du modèle sera nécessaire pour chacun desindices boursiers. Bref, une nouvelle analyse a été faite en second lieu maisavec des ordres de modèles différents de la première analyse.

TABLE 4.3. Test de Ljung-Box multivarié des indices boursiersétudiés par la méthode semi-paramétrique GMM.

m S&P500 S&P400 FTSE100Q(m) D.d.l VP Q(m) D.d.l VP Q(m) D.d.l VP

1 240,5612 9 0 168,2936 9 0 158,1225 9 02 303,8516 18 0 206,204 18 0 186,0608 18 06 381,3356 54 0 286,0369 54 0 257,9064 54 012 473,1189 108 0 369,6323 108 0 357,6720 108 022 582,8857 198 0 433,7651 198 0 433,0275 198 032 672,0003 288 0 516,9439 288 0 540,7688 288 046 824,5094 414 0 650,2106 414 0 647,9470 414 0m = délais ; Q(m)= statistique de Ljung-Box multivariée ; D.d.l = Degré de liberté ; VP=Valeur-P.

Page 88: Université de Montréal Les modèles vectoriels et multiplicatifs avec

77

TABLE 4.4. Test de Ljung-Box multivarié des indices boursiersétudiés par la méthode paramétrique maximum de vraisem-blance.

m S&P500 S&P400 FTSE100Q(m) D.d.l VP Q(m) D.d.l VP Q(m) D.d.l VP

1 231,9886 9 0 223,406 9 0 495,0769 9 02 292,4416 18 0 293,8604 18 0 923,1369 18 06 375,6917 54 0 484,5746 54 0 2287,5697 54 012 469,0426 108 0 643,2882 108 0 3613,5179 108 022 580,7734 198 0 739,3924 198 0 4971,0142 198 032 671,6154 288 0 847,4767 288 0 5958,6990 288 046 816,7298 414 0 997,7667 414 0 6680,7772 414 0m = délais ; Q(m)= statistique de Ljung-Box multivariée ; D.d.l = Degré de liberté ; VP=Valeur-P.

En nous inspirant des essais faits par Cipollini, Engle et Gallo (2012) sur lechoix convenable des modèles vMEMs des trois indices boursiers, nous avonsappliqué un modèle vMEM(2,1) pour chaque indice boursier étudié où les ma-trices carrées α1, α2, γ et β sont des matrices non diagonales dont les coef-ficients en dehors de la diagonale principale ne sont pas nuls. La moyenneconditionnelle µt a la forme suivante :

(µ|r|t

µrvtµhlt

)=ω+ α1

(|r|t−1rvt−1

hlt−1

)+ α2

(|r|t−2rvt−2

hlt−2

)+ γr

(−)t−1 + β

(µ|r|t−1

µrvt−1

µhlt−1

). (4.1.8)

L’estimation des paramètres de la deuxième analyse a été effectuée en utilisantla méthode semi-paramétrique GMM et la méthode paramétrique maximumde vraisemblance pour les trois indices boursiers (voir tableaux 4.5, 4.6 et 4.7).Pour la méthode GMM, nous avons rencontré le même message d’erreur déjàvu dans la simulation concernant les calculs des matrices inverses diag(µt)et diag(µt)Σ

−1 qui n’étaient pas possible. Dans ces cas, nous avons utilisé lamatrice inverse généralisée au lieu de la matrice inverse. D’après les tableaux4.5, 4.6 et 4.7, nous remarquons que les valeurs estimés sont très proches desvaleurs initiales et aussi les valeurs de g(θ) sont très proches de zéros. Donc,les méthodes paramétrique et semi-paramétrique estiment bien les modèlesvMEM(2,1) malgré l’existence de plusieurs paramètres.

Ensuite, à partir des résidus estimés pour les différents indices boursiers, lesstatistiques de test de Ljung-Box multivariées ont été calculées et présentées

Page 89: Université de Montréal Les modèles vectoriels et multiplicatifs avec

78

dans les tableaux 4.7 et 4.9. Cette fois-ci, nous trouvons, à l’aide des deux mé-thodes paramétrique et non-paramétrique, que les résidus semblent compa-tibles avec l’indépendance pour la majorité des délais m au niveau de 5%.Notons que les valeurs-p sont les probabilités correspondantes des valeursdes statistiques. Donc l’amélioration des valeurs-p montre que les modèlesvMEM(2,1) décrivent mieux les séries trivariées utilisées.

TABLE 4.5. Estimation des paramètres du modèle vMEM(2,1)en utilisant la méthode semi-paramétrique GMM et la méthodeparamétrique maximum de vraisemblance de l’indice boursierS&P500.

S&P500Param. Val. init. Val. est. I g(θ)× 10−8 Val. est. IIα111 -0,1045 -0,1080 -1,70 -0,1033α121 0,0166 0,0179 -3,40 0,0165α112 0,3956 0,3852 -6,94 0,4029α122 0,2849 0,2873 -6,10 0,2870α132 0,3548 0,3561 0,37 0,3348α113 -0,0559 -0,0414 -4,76 -0,0581α123 0,0506 0,0445 -5,28 0,0494α133 -0,0931 -0,0939 -0,17 -0,0801α211 0,0771 0,0786 -2,95 0,0771α221 0,0226 0,0311 -2,36 0,0236α212 -0,1395 -0,1434 -6,50 -0,1427α222 -0,1587 -0,1433 -5,46 -0,1589α232 -0,1934 -0,1906 0,59 -0,1828α223 0,0618 0,0593 -4,63 0,0597α233 0,0987 0,1001 1,19 0,0940γ11 0,0464 0,0501 -3,06 0,0437γ22 0,0751 0,0784 -11,85 0,0741γ33 0,0719 0,0723 0,23 0,0756β11 0,8132 0,8123 -3,96 0,8117β21 0,3274 0,3977 -3,09 0,3240β22 0,2795 0,1779 -3,20 0,2847β33 0,7898 0,7862 0,80 0,7894φ1 1,3000 1,3002φ2 14,6600 14,6571φ3 6,4300 6,4339Param. = Paramètres ; Val. init.= Valeurs initiales ;

Val. est. = Valeurs estimées ; I = méthode semi-paramétrique ;

II = méthode paramétrique.

Page 90: Université de Montréal Les modèles vectoriels et multiplicatifs avec

79

TABLE 4.6. Estimation des paramètres du modèle vMEM(2,1)en utilisant la méthode semi-paramétrique GMM et la méthodeparamétrique maximum de vraisemblance de l’indice boursierS&P400.

S&P400Param. Val. init. Val. est. I g(θ)× 10−5 Val. est. IIα111 0,0012 0,0035 5,50 0,0015α112 0,3422 0,3458 4,72 0,3435α122 0,3151 0,3244 2,62 0,3151α132 0,3517 0,3514 5,40 0,3390α123 0,0652 0,0663 6,78 0,0654α133 0,0692 0,0782 1,74 0,0704α222 -0,132 -0,1369 7,11 -0,1323α232 -0,1105 -0,1023 3,09 -0,1000α213 0,047 0,0523 0,98 0,0463α223 -0,0552 -0,0571 2,88 -0,0558β11 0,9245 0,9150 3,31 0,9247β21 -0,0224 -0,0212 4,00 -0,0219β12 -0,3336 -0,3348 0,62 -0,3343β22 0,8209 0,8167 6,13 0,8214β32 -0,2112 -0,2146 1,19 -0,2106β33 0,8901 0,8771 3,97 0,8896φ1 1,3100 1,3107φ2 15,5600 15,5605φ3 5,8500 5,8550Param. = Paramètres ; Val. init.= Valeurs initiales ;

Val. est. = Valeurs estimées ; I = méthode semi-paramétrique ;

II = méthode paramétrique.

Page 91: Université de Montréal Les modèles vectoriels et multiplicatifs avec

80

TABLE 4.7. Estimation des paramètres du modèle vMEM(2,1) enutilisant la méthode semi-paramétrique GMM et la méthode pa-ramétrique maximum de vraisemblance de l’indice boursierFTSE100.

FTSE100Param. Val. init. Val. est. I g(θ)× 10−7 Val. est. IIα111 -0,0470 -0,0470 6,35 -0,0383α121 0,0163 0,0154 -35,30 0,0338α112 0,3594 0,3672 8,60 0,3188α122 0,2984 0,2954 -113,61 0,3230α132 0,3333 0,3314 31,28 0,3292α123 0,0838 0,0875 -52,56 0,0591α133 0,0487 0,0506 2,59 0,0516α211 0,0741 0,0714 6,68 0,1768α231 0,0277 0,0264 -3,74 0,0671α222 -0,1757 -0,1714 -119,90 -0,2303α232 -0,1504 -0,1431 27,88 -0,1849α223 -0,0592 -0,0625 -72,79 -0,0334β11 0,8258 0,8179 6,66 0,7761β12 -0,2154 -0,2113 3,98 -0,2740β22 0,9772 0,9770 -104,52 0,9756β23 -0,1322 -0,1323 -62,20 -0,1261β33 0,7573 0,7523 30,34 0,7423φ1 1,3500 1,3654φ2 16,5000 17,1221φ3 7,1300 7,3078Param. = Paramètres ; Val. init.= Valeurs initiales ;

Val. est. = Valeurs estimées ; I = méthode semi-paramétrique ;

II = méthode paramétrique.

TABLE 4.8. Test de Ljung-Box multivarié du modèle vMEM(2,1)des indices boursiers étudiés par la méthode semi-paramétrique.

m S&P500 S&P400 FTSE100Q(m) D.d.l VP Q(m) D.d.l VP Q(m) D.d.l VP

1 6,41 9 0,70 21,32 9 0,01 6,00 9 0,742 17,49 18 0,49 33,60 18 0,01 16,73 18 0,546 51,06 54 0,59 56,98 54 0,36 40,07 54 0,9212 103,39 108 0,61 119,74 108 0,21 110,95 108 0,4022 211,32 198 0,25 188,18 198 0,68 191,07 198 0,6332 301,28 288 0,28 261,72 288 0,86 292,61 288 0,4146 444,99 414 0,14 379,25 414 0,89 406,03 414 0,60m = délais ; Q(m)= statistique de Ljung-Box multivariée ; D.d.l=Degré de liberté ; VP=Valeur-P.

Page 92: Université de Montréal Les modèles vectoriels et multiplicatifs avec

81

TABLE 4.9. Test de Ljung-Box multivarié du modèle vMEM(2,1)des indices boursiers étudiés par la méthode paramétrique.

m S&P500 S&P400 FTSE100Q(m) D.d.l VP Q(m) D.d.l VP Q(m) D.d.l VP

1 7,34 9 0,60 21,44 9 0,01 6,54 9 0,692 18,69 18 0,41 34,47 18 0,01 43,03 18 0,006 51,48 54 0,57 60,64 54 0,25 74,14 54 0,0412 102,15 108 0,64 122,09 108 0,17 147,69 108 0,0122 207,19 198 0,31 190,94 198 0,63 229,77 198 0,0632 293,95 288 0,39 263,47 288 0,85 339,32 288 0,0246 433,89 414 0,24 381,71 414 0,87 455,16 414 0,08m = délais ; Q(m)= statistique de Ljung-Box multivariée ; D.d.l=Degré de liberté ; VP=Valeur-P.

Page 93: Université de Montréal Les modèles vectoriels et multiplicatifs avec

CONCLUSION

Dans ce mémoire, nous nous sommes intéressés aux modèles vectoriels etmultiplicatifs avec erreurs non-négatives pour des séries chronologiques mul-tivariées à composantes non-négatives. En premier lieu, nous avons exposéles modèles GARCH et ACD qui constituent des cas particuliers des modèlesMEM. Ainsi, nous avons présenté les modèles MEM et leurs généralisationsvMEM introduits par Engle (2002) et developpés par Engle et Gallo (2006).Pour estimer les modèles vMEM, nous avons exposé deux approches d’estima-tion présentés par Cipollini, Engle et Gallo (2006). La première approche pro-posée était l’approche paramétrique qui consistait à compléter le modèle avecla spécification de la fonction de densité conjointe pour le vecteur des termesd’erreurs. La méthode paramétrique utilisée était la méthode du maximum devraisemblance. La deuxième approche était l’approche semi-paramétrique quiconsistait à estimer les paramètres de la moyenne conditionnelle sans spéci-fier une distribution multivariée pour le terme d’erreur. Deux méthodes semi-paramétriques ont été présentées à savoir la méthode des moments généralisés(GMM) et la méthode des erreurs standard associées aux paramètres (WNLS).

En second lieu, des simulations Monte Carlo ont été réalisées pour analyserles résultats théoriques. Nous avons considéré sept modèles vMEM(1,1) pourdeux tailles échantillonnales différentes T = 1000 et T = 5000. Le but était decomparer les deux approches, paramétrique et semi-paramétrique, et de véri-fier si la taille de l’échantillon a une influence sur les paramètres estimés. Lessimulations ont montré que si le nombre d’observations T augmente le biais,l’erreur quadratique moyenne, la variance échantillonnalle et la moyenne desestimateurs de variance diminuent. De plus, pour chaque T , au niveau desparamètres de la moyenne conditionnelle, la méthode GMM donne les pluspetites variances échantillonnales et moyennes des estimateurs de variancesparmi les trois méthodes, au moins dans nos études empiriques.

Page 94: Université de Montréal Les modèles vectoriels et multiplicatifs avec

83

En troisième lieu, nous avons appliqué les méthodes d’estimation à desdonnées financières de trois indices boursiers S&P500, S&P400 et FTSE100.Pour chaque indice boursier, nous avons considéré une série multivariée for-mée par trois séries chronologiques qui sont le rendement absolu, la volati-lité réalisée selon la méthode du noyau et la différence entre le prix le plusélevé et le prix le plus bas. Tout d’abord, nous avons estimé pour chaque in-dice boursier un modèle vMEM(1,1) à l’aide des méthodes paramétrique etsemi-paramétrique. Après avoir calculé les séries résiduelles estimées, nousavons constaté qu’elles n’étaient pas compatibles avec l’hypothèse d’indépen-dance. Ensuite, une deuxième analyse a été appliquée mais cette fois-ci avecun modèle vMEM(2,1). Les résultats trouvés montrent que les paramètres es-timés sont très proches des valeurs initiales et que les erreurs estimées dumodèle vMEM(2,1) sont maintenant compatibles avec l’hypothèse d’indépen-dance pour les trois indices étudiés.

Page 95: Université de Montréal Les modèles vectoriels et multiplicatifs avec

BIBLIOGRAPHIE

[1] Andersen, T. G., Bollerslev, T., Christoffersen, P. F. et Diebold, F. X. (2005),”Volatility forecasting”. NBER working paper No. 11188.

[2] Andersen, T. G., Bollerslev, T., Christoffersen, P. F. et Diebold, F. X. (2006),”Volatility and correlation forecasting”. Dans : Elliott G., Granger C. W. J.et Timmermann A., Éditeurs, Handbook of Economic Forecasting, North-Holland : Amsterdam, pp. 777- 878.

[3] Barndorff-Nielsen, O. E., Hansen, P. R., Lunde, A. et Shephard, N. (2008),”Designing realised kernels to measure the ex-post variation of equity pricesin the presence of noise”. Econometrica 76, 1481-1536.

[4] Bauwens, L. et Giot, P. (2000), ”The logarithmic ACD model : an applicationto the bid-ask quote process of three NYSE stocks”. Annales d’Économie et deStatistique 60, 117-149.

[5] Bauwens, L. et Giot, P. (2001), Econometric Modelling of Stock Market IntradayActivity, Advanced Studies in Theoretical and Applied Econometrics, Klu-wer : Dordrecht.

[6] Berndt, E., Hall, B., Hall, R. et Hausman, J. (1974), ”Estimation and Inferencein Nonlinear Structural Models”. Annals of Economic and Social Measurement3, 653-665.

[7] Bollerslev, T. (1986), ”Generalized autoregressive conditional heteroskedas-ticity ”. Journal of Econometrics 31, 307-327.

[8] Bouyé, E., Durrleman, V., Nikeghbali, A., Riboulet, G. et Roncalli, T. (2000),”Copulas for finance : A reading guide and some applications”. Rapporttechnique, groupe de recherche opérationnelle, Crédit Lyonnais, Paris.

[9] Brockwell, P. J. et Davis, R. A. (1991), Time Series : Theory and Methods,Springer-Verlag : New York.

[10] Brownlees, C. T., Cipollini, F. et Gallo, G. M. (2011), ”Multiplicative errormodels”. Econometrics Working Papers Archive 2011_03.

[11] Cheriyan, K. (1941), ”A bivariate correlated gamma-type distributionfunction”. Journal of the Indian Mathematical Society 5, 133-144.

Page 96: Université de Montréal Les modèles vectoriels et multiplicatifs avec

85

[12] Chou, R. Y. (2005), ”Forcasting financial volatilities with extreme values :The conditional autoregressive range (carr) model”. Jounal of Money, Creditand Banking 37, 561-582.

[13] Cipollini, F., Engle, R. F. et Gallo, G. M. (2006), ”Vector multiplicative errormodels : representation and inference”. NBER Working Paper No. 12690.

[14] Cipollini, F., Engle, R. F. et Gallo, G. M. (2007), ”A model for multivariatenon-negative valued processes in financial econometrics”. Econometrics Wor-king Papers Archive wp200716.

[15] Cipollini, F., Engle, R. F. et Gallo, G. M. (2012), ”Semi parametric vectormem”. Journal of Applied Econometrics, doi :10.1002/jae.2292.

[16] Cipollini, F. et Gallo, G. M. (2010), ”Automated variable selection in vec-tor multiplicative error models”. Computational Statistics & Data Analysis 54,2470-2486.

[17] Diamond, D. W. et Verrecchia, R. E. (1987), ”Constraints on short-selling andasset price adjustments to private information”. Journal of Financial Economics18, 277-311.

[18] Ding, Z., Granger, C. W. J. et Engle, R. F. (1993), ”A long memory property ofstock market returns and a new model”. Journal of Empirical Finance 1, 83-106.

[19] Easley, D. et O’Hara, M. (1992), ”Time and the process of security priceadjustment”. The Journal of Finance 19, 69-90.

[20] Embrechts, P., Lindskog, F. et McNeil, A. J. (2001). ”Modelling dependencewith copulas”. Rapport technique, Département de mathématiques, InstitutFédéral de Technologie de Zurich, Zurich.

[21] Engle, R. F. (2002), ”New frontiers for ARCH models”. Journal of Applied Eco-nometrics 17, 425-446.

[22] Engle, R. F. et Gallo, G. M. (2006), ”A multiple indicators model for volatilityusing intra-daily data”. Journal of Econometrics 131, 3-27.

[23] Engle, R. F., Gallo, G. M. et Velucchi, M. (2012), ”Volatility spillovers in EastAsian financial markets : a MEM based approach”. The Review of Economicsand Statistics 94, 222-233.

[24] Engle, R. F. et Russell, J. R. (1994), ”Forecasting transaction rates : the auto-regressive conditional duration model”. NBER Working Papers No. 4966.

[25] Engle, R. F. et Russell, J. R. (1998), ”Autoregressive conditional duration : anew model for irregularly spaced transaction data”. Econometrica 66, 1127-1162.

[26] Engle, R. F., Gallo, G. M. et Velucchi, M. (2005), ”An mem-based investiga-tion of dominance and interdependence across markets”. The ComputationalStatistics and Data Analysis World Conference, Cyprus.

Page 97: Université de Montréal Les modèles vectoriels et multiplicatifs avec

86

[27] Francq, C. et Zakoïan, J. M. (2009), Modèles GARCH : structure, inférence sta-tistique et applications financières, Economica : Paris.

[28] Glosten, L., Jaganathan, R. et Runkle, D. (1993), ”On the relation between theexpected value and volatility of the nominal excess return on stocks”. Journalof Finance 48, 1779-1801.

[29] Gouriéroux, C. (1992), Modèles ARCH et applications financières, Economica :Paris.

[30] Gouriéroux, C. (1995), Séries temporelles et modèles dynamiques, 2ième édition,Economica : Paris.

[31] Hogg, R. V. et Craig, A. T. (1978), Introduction to Mathematical Statistics, 4ièmeédition, Macmillan : New York.

[32] Joe, H. (1997), Multivariate Models and Dependence Concepts, Chapman & Hall :New York.

[33] Johnson, N., Kotz, S. et Balakrishnan, N. (2000), Continuous Multivariate Dis-tributions, John Wiley & Sons : New York.

[34] Johnson, R. A. et Wichern, D. W. (1992), Applied Multivariate Statistical Analy-sis, 3ième édition, Prentice Hall : New Jersey.

[35] Lee, S. et Hansen, B. (1994), ”Asymptotic theory for the GARCH(1,1) quasi-maximum likelihood estimator”. Econometric Theory 10, 29-52.

[36] Manganelli, S. (2002), ”Duration, volume and volatility impact of trades”.Journal of Financial Markets 8, 377-399.

[37] McNeil, A. J., Frey, R. et Embrechts, P. (2005), Quantitative Risk Management :Concepts, Techniques, and Tools, Princeton University Press, Princeton.

[38] Nelsen, R. B. (1999), An Introduction to Copulas, Lecture Notes in Statistics139. Springer-Verlag : New York.

[39] Noss, J. (2007), ”The Econometrics of Optimal Execution in an order-drivenmarket”. Rapport technique, Nuffield College, Oxford University, mémoirede maîtrise.

[40] Ramabhadran, V. (1951), ”A multivariate gamma-type distribution”.Sankhya, the Indian Journal of Statistics 11, 45-46.

[41] Schmidt, T. ( 2006), Coping With Copulas, Risk Books, J. Rank, Editor.

[42] Shumway, R. M. et Stoffer, D. S. (2006), Time Series Analysis and Its Applica-tions, with R Examples, 2ième édition, Springer : New York.

[43] Sklar, A. (1959), ”Fonctions de répartition à n dimensions et leurs marges”.Publications de l’Institut de Statistique de l’Université de Paris 8, 229-231.

[44] Tsay, R. S. (2010), Analysis of Financial Time Series, 3ième édition, Wiley : NewYork.

Page 98: Université de Montréal Les modèles vectoriels et multiplicatifs avec

87

[45] Wooldridge, J. M. (1994), ”Estimation and Inference for DependentProcesses”, Dans : Robert F. Engle et Daniel L. McFadden, Éditeurs, Hand-book of Econometrics, Chapitre 45, Vol 4, Elsevier, New York, pp. 2639-2738.

Page 99: Université de Montréal Les modèles vectoriels et multiplicatifs avec

Annexe A

Nous présentons ici le programme développé en R qui a été utilisé pournos simulations.

library ( stats )

library ( MASS )

library ( rootSolve ) # pour la méthode de GMM#

library ( maxLik ) # pour la méthode du Log de vraisemblance#

#Fonction pour simuler le processus MEM.#

#Simulation des modèles 1, 2 et 3 est la suivante:

simulation <- function(N,phi,omega,alpha,beta0)

#p représente le nombre de variables#

p <- 3

#Initialisation des paramètres et des variables#

moy <- rep(0,p)

Y <- matrix( rep(0,N * p),ncol = 3 )

X <- matrix( rep(0,N * p),ncol = 3 )

mu_t <- matrix( rep(0,N * p),ncol = 3 )

phi <- c(phi[1], phi[2], phi[3])

omega <- c( omega[1], omega[2], omega[3] )

alpha <- matrix(c(0,0,0,alpha[1],alpha[2],0,0,0,alpha[3]),

nrow =3, ncol =3)

beta0 <- c(beta0[1], beta0[2], beta0[3])

beta <- diag( beta0 )

I <- diag(3)

Page 100: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-ii

#Matrice de corrélation#

rho <- matrix(c(1,0.37,0.21,0.37,1,0.18,0.21,0.18,1),3,3)

#Génère trois variables aléatoires centrés réduites iid#

for(i in 1:p)

Y[,i] = rnorm(N,0,1)

out <- t(Y)

#Multiplier la décomposition Cholesky par le vecteur des v.a#

q <- chol( rho ) %*% out

#Génère une copule normale#

U <- pnorm(q,mean = 0, sd = 1)

#Extraction des innovations de la copule normale #

#L’espérance est égale à shape/rate=1#

epsilon1 <- qgamma(U[1,],shape = phi[1],rate = phi[1])

epsilon2 <- qgamma(U[2,],shape = phi[2],rate = phi[2])

epsilon3 <- qgamma(U[3,],shape = phi[3],rate = phi[3])

epsilon <- matrix(c(epsilon1,epsilon2,epsilon3),ncol = 3)

mu0 <- solve ( I - alpha - beta ) %*% omega

mu_t[1,] <- omega + ( alpha + beta ) %*% mu0

X[1,] <- mu_t[1,] * epsilon[1,]

for(i in 2:N)

mu_t[i,] <- omega + alpha %*% X[i-1,] + beta %*% mu_t[i-1,]

X[i,] <- mu_t[i,] * epsilon[i,]

X

Page 101: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-iii

# Nombre d’observations n#

n <- 1000

N <- 2*n+1

#Nombre de variables p#

p <- 3

#Nombre de réalisations asim#

asim <- 1000

#Méthode paramétrique en utilisant l’algorithme BHHH#

#Déclaration des paramètres et initialisations des paramètres#

#Matrice des paramètres estimés#

ML_BHHH <- matrix(rep( NA,12*asim ),ncol = 12)

#Matrice des paramètres estimés et le nombre de convergence#

ML_BHHH1 <- matrix(rep( NA,13*asim ),ncol = 13)

#Matrice des variances échantillonnales #

varasympML <- matrix(rep( NA ),nrow = 12 * asim,ncol = 12)

#Matrice totale des informations#

ML_BHHH_FINAL <- matrix(rep( NA,25*asim ),ncol = 25)

s <- 1

#Valeur initial du modèle 1

valeur_initial <- c( 4 , 5.5 , 3.1 , 0.0206 , 0.0772 , 0.1172 ,

0.1564 , 0.1283 , 0.2418 , 0.79 , 0.7795 , 0.645 )

#Valeur initial du modèle 2

valeur_initial<-c(27.9853, 28.6715, 36.3381, 0.0206,

0.0772, 0.1172, 0.1564, 0.1283, 0.2418, 0.79,

0.7795, 0.645)

Page 102: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-iv

#Valeur initial du modèle 3

valeur_initial<-c(1, 1, 1, 0.0206, 0.0772, 0.1172, 0.1564,

0.1283, 0.2418, 0.79, 0.7795, 0.645)

while(s <= asim)

(...)

#Dans cette partie du code, disponible sur demande,

les itérations où le code ne convergeait pas ont été retirées#

print ( s )

set.seed ( s )

oo <- (12 * s) - 11

rr <- 12 * s

#Prendre les n dernières observations des 3 variables simulées#

simul <- simulation(N,valeur_initial[1:3],valeur_initial[4:6]

,valeur_initial[7:9],valeur_initial[10:12])

maSerie <- simul[(n+2):N,]

X <- t( maSerie )

mu_t <- function( theta )

moy <- matrix(rep( NA,n * 3 ),ncol = 3)

omega <- c(theta[1],theta[2],theta[3])

alpha <- matrix(c(0,0,0,theta[4],theta[5],0,0,0,theta[6])

,nrow = 3)

beta0 <- c(theta[7],theta[8],theta[9])

beta <- diag( beta0 )

I <- diag( 3 )

mu0 <- colMeans( maSerie ) #moyenne initiale de p variables#

moy[1,] = omega + ( alpha + beta ) %*% mu0

for (t in 1:(n-1))

Page 103: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-v

moy[t+1,] = omega + alpha %*% X[,t]+beta %*% moy[t,]

return( t( moy ) )

gradient_de_mu <- function( theta ) gradient( mu_t,theta )

fonction_densite <- function(i,t,phi,theta)

phi <- c(phi[1],phi[2],phi[3])

mu <- mu_t( theta )

fonction <- dgamma(X[i,t]/mu[i,t],shape = phi[i],rate = phi[i])

return( fonction )

#Fonction de répartition des epsilons#

repartition <- function( i,t,phi,theta )

phi <- c(phi[1],phi[2],phi[3])

mu <- mu_t( theta )

r <- pgamma(phi[i] * X[i,t] / mu[i,t],shape = phi[i],rate = 1)

return( r )

#Quantiles des epsilons#

vect_q_it <- function( i,t,phi,theta )

qnorm(repartition( i,t,phi,theta ),0,1)

q_t <- function( t,par )

sapply(1:3,vect_q_it,t = t,phi = par[1:3],theta = par[4:12])

quantile <- function( par )

sapply(1:3,vect_q_it,phi = par[1:3],theta = par[4:12])

Q <- function( par )

quant <- quantile( par )

x <- (t( quant ) %*% quant) / n

Page 104: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-vi

return( x )

D_Q <- function( par )

z <- diag (diag ( Q (par) ) )

return( z )

Rtilde <- function( par )

Q <- Q( par )

DQ <- solve(D_Q( par ) )

F <- DQ^(0.5) %*% Q %*% DQ^(0.5)

return( F )

#Calcul du LOG VRAISEMBLANCE#

somme <- function( par )

quant <- quantile( par )

s <- 0

for(i in ( 1:3 ) )

s <- s+log( t( quant[,i] ) %*% quant[,i] )

return( s )

copulacontribution <- function( par )

quant <- quantile( par )

som <- somme ( par )

cu <- - 0.5 * (log( det( t(quant) %*% quant ) ) - som )

return( cu )

Page 105: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-vii

marginalscontribution <- function( par )

phi <- par[1:3]

theta <- par[4:12]

t <- 1:n

l <- matrix(rep(0,3),nrow = 3,ncol = n)

for(i in (1:3))

l[i,] <-

l[i,]+log(fontion_densite(i,t,phi,theta) / mu_t(theta)[i,t])

return( colSums( l ) )

log_vrais <- function( par )

sum( copulacontribution(par) + marginalscontribution(par) )

#Calcul de dérivée du Log vrais.###

#Constante C#

C <- function( par )

Q = Q ( par )

DQ = D_Q ( par )

R = Rtilde( par )

c = solve( Q ) %*% DQ^(0.5) %*% Q %*% DQ^(0.5) %*% solve( Q )-

solve( Q )+ diag(3) - solve( R ) + solve( DQ )-

(solve( DQ ))^(0.5) %*% diag( diag( solve( Q ) %*%

DQ^(0.5) %*% Q ) )

return( c )

f_1 <- function( phi,theta )

fonction <- matrix(rep(0,3),nrow=n,ncol=3)

phi <- c(phi[1],phi[2],phi[3])

mu <- mu_t(theta)

for(i in (1:3))

fonction[,i] <- dgamma(X[i,] / mu[i,],shape = phi[i]+1,

Page 106: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-viii

rate = phi[i])

return(fonction)

f_2 <- function( phi,theta )

mu <- mu_t( theta )

j <- matrix(rep(0,3),nrow=n,ncol=3)

for(i in (1:3))

j[,i] <- phi[i] * (X[i,]/mu[i,]-1)

return(j)

b <- function( par )

c <- C( par )

q <- quantile( par )

v <- matrix(rep(0,3),nrow = 3,ncol = n)

for(t in (1:n))

v[,t] <- -(c%*%q[t,]) / dnorm(q[t,])

return( v )

a <- function( par )

phi <- par[1:3]

theta <- par[4:12]

f1 <- f_1( phi,theta )

f2 <- f_2( phi,theta )

a <- matrix(rep(0,3),nrow = n,ncol = 3)

b <- b( par )

mu <- mu_t( theta )

for(t in (1:n))

a[t,] <- (f1[t,] %*% b[,t] + f2[t,]) / mu[,t]

Page 107: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-ix

return( a )

numerical.derivative <- function(phi,theta)

h <- 1e-7

i <- 1:3

t <- 1:n

der <- ( repartition(i,t,phi[i]+h,theta) -

repartition(i,t,phi[i],theta) ) / h

return(der)

p_1 <- function( par )

phi <- par[1:3]

theta <- par[4:12]

p <- matrix(rep(0,3),nrow = n,ncol = 3)

b <- b( par )

der <- numerical.derivative(phi,theta)

for( t in (1:n) )

p[t,] <- - diag( der[,t] ) %*% b[,t]

return( p )

p_2 <- function( phi,theta )

mu <- mu_t( theta )

p <- matrix(rep(0,3), nrow = n,ncol = 3)

for( i in (1:3))

u <- X[i,] / mu[i,]

p[,i] <- log( phi[i] ) - digamma( phi[i] ) + log( u )- u + 1

return( p )

gradient_vecteur <- function( par )

Page 108: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-x

phi <- par[1:3]

theta <- par[4:12]

u <- rep(0,12)

gradientt <- gradient_de_mu( theta )

p1 <- p_1( par )

p2 <- p_2( phi,theta )

a <- a( par )

u[1:3] <- colSums( p1 + p2 )

for(t in (1:n))

r <- t + 2 * (t - 1)

v <- t * 3

u[4:12] <- u[4:12] + t(gradientt[r:v,]) %*% a[t,]

return( u )

#OPG#

hessien_inverse<-function( par )

phi <- par[1:3]

theta <- par[4:12]

u <- matrix(rep(0,12),nrow = n,ncol = 12)

gradientt<- gradient_de_mu( theta

p1 <- p_1( par )

p2 <- p_2( phi,theta )

a <- a( par )

u[,1:3] <- ( p1+p2 )

for(t in (1:n))

r <- t+2*(t-1)

v <- t*3

u[t,4:12] <- t( gradientt[r:v,] ) %*% a[t,]

return( solve( t( u ) %*% u ) )

grvrais<-function( par )

phi <- par[1:3]

Page 109: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xi

theta <- par[4:12]

u <- matrix(rep(0,12),nrow = n,ncol = 12)

gradientt <- gradient_de_mu(theta)

p1 <-p_1( par )

p2 <-p_2( phi,theta )

a <-a( par )

u[,1:3] <-( p1+p2 )

for(t in (1:n))

r <- t + 2 *( t-1 )

v <- t * 3

u[t,4:12] <- t( gradientt[r:v,]) %*% a[t,]

return( u )

hessien<-function( par )

phi <- par[1:3]

theta <- par[4:12]

u <- matrix(rep(0,12),nrow = n,ncol = 12)

gradientt <- gradient_de_mu( theta )

p1 <-p_1( par )

p2 <-p_2( phi,theta )

a <-a( par )

u[,1:3] <-( p1+p2 )

for(t in (1:n))

r <- t + 2 * ( t-1 )

v <- t * 3

u[t,4:12] <- t( gradientt[r:v,]) %*% a[t,]

return( - ( t( u ) %*% u ) )

bhhh <- maxBHHH(log_vrais,grad = grvrais,

hess = hessien,start = valeur_initial)

summary( bhhh )

hessien_inverse( summary(bhhh)$estimate[,1] )

ML_BHHH[s,] <- summary( bhhh )$estimate[,1]

Page 110: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xii

ML_BHHH1[s,] <- c(ML_BHHH[s,],summary( bhhh )$code)

varasympML[oo:rr,] <- hessien_inverse(ML_BHHH[s,])

ML_BHHH_FINAL[s,] <- c( ML_BHHH1[s,],diag( varasympML[oo:rr,] ) )

print(ML_BHHH1[s,])

s = s+1

ML_BHHH

ML_BHHH1

varasympML

ML_BHHH_FINAL

#Méthode GMM#

#Matrice des paramètres #

GMM <- matrix( rep(0,9*asim),ncol = 9 )

#Matrice des variances échantillonnales#

varasympGMM <- matrix( rep(0),nrow = 9*asim,ncol = 9 )

#Matrice totale des résultats#

GMMFINAL <- matrix( rep(0,18*asim),ncol = 18 )

s <- 1

while(s <= asim)

(...)

Dans cette partie du code, disponible sur demande,

les itérations où le code ne convergeait pas ont été retirées

Page 111: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xiii

print ( s )

set.seed ( s )

o <- ( 9 * s ) - 8

r <- 9 * s

#Prendre les n dernières observations des 3 variables simulées#

simul <- simulation(N,valeur_initial[1:3],valeur_initial[4:6]

,valeur_initial[7:9],valeur_initial[10:12])

maSerie <- simul[(n+2):N,]

X <- t( maSerie )

mu_t <- function( theta )

moy <- matrix(rep( NA,n * 3 ),ncol = 3)

omega <- c(theta[1],theta[2],theta[3])

alpha <- matrix(c(0,0,0,theta[4],theta[5],0,0,0,theta[6])

,nrow = 3)

beta0 <- c(theta[7],theta[8],theta[9])

beta <- diag( beta0 )

I <- diag( 3 )

mu0 <- colMeans( maSerie ) #moyenne initiale de p variables#

moy[1,] = omega + ( alpha + beta ) %*% mu0

for (t in 1:(n-1))

moy[t+1,] = omega + alpha %*% X[,t]+beta %*% moy[t,]

return( t( moy ) )

gradient_de_mu <- function( theta ) gradient( mu_t,theta )

#deux étapes#

#si sigma = identité #

Page 112: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xiv

g <- function( theta )

b <- matrix( c( 1,1,1 ),nrow = 1 )

output <- matrix( rep( 0 ),nrow = 9,ncol = 1 )

gradient <- gradient_de_mu( theta )

mu <- mu_t( theta )

for(t in 1:n)

r <- t + 2 * ( t - 1 )

v <- t * 3

output <- output + t( gradient[r:v,] ) %*%

solve( diag( mu[,t] ) ) %*% t( X[,t] / mu[,t] - b )

return( as.vector( output / n ) )

#Résoudre l’équation g#

ss <- multiroot( g,valeur_initial[4:12] )

parametre <- ss$root

#Calul de sigma pour passer à la deuxième étape#

sigma <- function( theta )

u <- matrix( rep(0),nrow =3 ,ncol = 3 )

mu <- mu_t( theta )

for(t in 1:n)

a <- X[,t]/mu[,t]-rep( 1,3 )

u <- u+( a %*% t( a ) )

return ( u / n )

#Si sigma = Sigma( parametre ) #

#Deuxième étape#

g1 <- function( theta )

Page 113: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xv

b <- matrix( c(1,1,1),nrow = 1 )

output <- matrix( rep( 0 ),nrow = 9,ncol = 1 )

Sigma <- sigma( parametre )

gradient <- gradient_de_mu( theta )

mu <- mu_t( theta )

for(t in 1:n)

r <- t + 2 * ( t - 1 )

v <- t * 3

output <- output + t ( gradient[r:v,] ) %*%

solve( diag( mu[,t] ) %*% Sigma ) %*% t( X[,t] / mu[,t] - b )

return( as.vector( output / n ))

GMM[s,] <- multiroot( g1,valeur_initial [4:12] )$root

#Calcul de la variance asymptotique#

avarGMM <- function( theta )

output <- matrix( rep( 0 ),nrow = 9,ncol = 9 )

gradient <- gradient_de_mu( theta )

mu <- mu_t ( theta )

Sigma <- sigma( theta )

for(t in 1:n)

r <- t + 2 * ( t - 1 )

v <- t * 3

output <- output + t( gradient[r:v,] ) %*% solve( diag( mu[,t] )

%*% Sigma %*% diag( mu[,t]) ) %*% gradient[r:v,]

return( solve( output ) )

varasympGMM[o:r,] <- avarGMM( GMM[s,] )

GMMFINAL[s,] <- c( GMM[s,],diag( varasympGMM[o:r,] ) )

print( GMMFINAL[s,] )

Page 114: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xvi

s = s+1

GMM

varasympGMM

GMMFINAL

#FIN METHODE GMM

#Méthode WNLS #

#Déclaration des paramètres et initialisations des paramètres #

WNLSparam <- matrix( rep( 0, 9 * asim ),ncol = 9 )

WNLSparam1 <- matrix( rep( 0, 11 * asim ),ncol = 11 )

varasyWNLS <- matrix( rep( 0 ),nrow = 9 * asim,ncol = 9 )

WNLSFINAL <- matrix( rep( 0, 20 * asim ),ncol = 20 )

s <- 1

while(s <= asim)

print ( s )

set.seed ( s )

o <- ( 9 * s ) - 8

r <- 9 * s

oo <- (12*s)-11

rr <- 12*s

simul <- simulation( N,valeur_initial[1:3],valeur_initial[4:6]

,valeur_initial[7:9],valeur_initial[10:12] )

maSerie <- simul[ (n+2):N, ]

X <- t( maSerie )

Page 115: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xvii

mu_t <- function( theta )

omega <- c( theta[1],theta[2],theta[3] )

alpha <- matrix( c(0,0,0,theta[4],theta[5],0,0,0,theta[6] )

,nrow = 3,ncol = 3 )

beta0 <- c(theta[7],theta[8],theta[9])

beta <- diag( beta0 )

I <- diag( 3 )

#moyennes initiales des 3 variables #

mu0 <- colMeans( maSerie )

moy <- matrix( rep( 0,n * 3),ncol = 3 )

moy[1,] <- omega+(alpha + beta) %*% mu0

for (t in 1:(n-1))

moy[t+1,] = omega + alpha %*% X[,t] + beta %*% moy[t,]

return( t( moy ) )

gradient_de_mu<-function(theta) gradient( mu_t,theta )

#methode WNLS#

#Étape 1#

#Sigma=identité#

WNLS <- function( theta )

mu <- mu_t( theta )

d <- 0

for(t in 1:n)

d <- d + t( X[,t]-mu[,t] ) %*% solve( diag( mu[,t] )

%*% diag( mu[,t] ) ) %*% ( X[,t] - mu[,t] )

return( d/( 2 * n ) )

S <- 1e-6

min <- nlminb( valeur_initial[4:12],WNLS,lower = rep(S^2),

upper = rep(1-S),control = list(maxit = 100))

Page 116: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xviii

#Étape 2#

#Sigma estimé#

sigma <- function( theta )

u <- matrix( rep(0),nrow = 3,ncol = 3 )

mu <- mu_t( theta )

for(t in 1:n)

a <- X[,t] / mu[,t] - rep( 1,3 )

u <- u + ( a %*% t( a ) )

return( u / n )

theta0 <- min$par

WNLS1 <- function( theta )

mu <- mu_t( theta )

Sigma <- sigma( theta0 )

d <- 0

for(t in 1:n)

d <- d + t( X[,t] - mu[,t]) %*% solve( diag ( mu[,t] ) %*% Sigma

%*% diag( mu[,t] ) ) %*% ( X[,t] - mu[,t] )

return( d /( 2 * n ) )

min1 <- nlminb( valeur_initial[4:12],WNLS1,lower = rep(S^2),

upper = rep(1-S),control = list(maxit = 100))

avarWNLSa <- function( theta )

outputa <- matrix( rep(0),nrow = 9,ncol = 9 )

gradient <- gradient_de_mu( theta )

mu <- mu_t( theta )

Sigma <- sigma( theta )

for(t in 1:n)

Page 117: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xix

r<-t + 2 * ( t-1 )

v<-t * 3

outputa<-outputa + t( gradient[r:v,] ) %*% solve( diag(mu[,t] )

%*% Sigma %*% diag( mu[,t] ) ) %*% gradient[r:v,]

return( solve( outputa ) )

avarWNLSb <- function( theta )

outputb <- matrix( rep(0),nrow = 9,ncol = 9 )

gradient <- gradient_de_mu( theta )

mu <- mu_t( theta )

Sigma <- sigma( theta )

for(t in 1:n)

r <- t + 2 * ( t-1 )

v <- t * 3

outputb <- outputb + as.vector(t ( X[,t] - mu[,t] )

%*% solve( diag(mu[,t]) %*% Sigma %*% diag(mu[,t]))

%*% ( X[,t] - mu[,t] ) ) * t( gradient[r:v,] )

%*% solve( diag(mu[,t] ) %*% Sigma

%*% diag(mu[,t])) %*% gradient[r:v,]

return( outputb )

avarWNLS <- function( theta )

output <- avarWNLSa( theta ) %*% (avarWNLSb( theta ))

%*% avarWNLSa( theta )

return( output )

WNLSparam[s,] <- min1$par

WNLSparam1[s,] <- c(min1$par,min$message,min1$message)

varasyWNLS[o:r,] <- avarWNLS( WNLSparam[s,] )

Page 118: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xx

WNLSFINAL[s,] <- c(WNLSparam1[s,],diag(varasyWNLS[o:r,]))

print( WNLSFINAL[s,] )

s = s+1

#FIN METHODE WNLS

WNLSparam

WNLSparam1

varasyWNLS

WNLSFINAL

# Pour les modèles 4,5 et 6, la forme de la matrice alpha

a été changé donc nous présentons juste la simulation,

la moyenne mu_t et les valeurs initiales

simulation <- function(N,phi,omega,alpha,beta0)

#p représente le nombre de variables#

p <- 3

#Initialisation des paramètres et des variables#

moy <- rep(0,p)

Y <- matrix( rep(0,N * p),ncol = 3 )

X <- matrix( rep(0,N * p),ncol = 3 )

mu_t <- matrix( rep(0,N * p),ncol = 3 )

phi <- c(phi[1], phi[2], phi[3])

omega <- c( omega[1], omega[2], omega[3] )

alpha <- matrix( c( alpha[1], alpha[2], alpha[3], alpha[4],

alpha[5], 0,0,0, alpha[6] ), nrow = 3, ncol = 3)

beta0 <- c(beta0[1], beta0[2], beta0[3])

beta <- diag( beta0 )

I <- diag(3)

#Matrice de corrélation#

rho <- matrix(c(1,0.37,0.21,0.37,1,0.18,0.21,0.18,1),3,3)

Page 119: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxi

#Génère trois variables aléatoires centrés réduites iid#

for(i in 1:p)

Y[,i] = rnorm(N,0,1)

out <- t(Y)

#Multiplier la décomposition Cholesky par le vecteur des v.a#

q <- chol( rho ) %*% out

#Génère une copule normale#

U <- pnorm(q,mean = 0, sd = 1)

#Extraction des innovations de la copule normale #

#L’espérance est égale à shape/rate=1#

epsilon1 <- qgamma(U[1,],shape = phi[1],rate = phi[1])

epsilon2 <- qgamma(U[2,],shape = phi[2],rate = phi[2])

epsilon3 <- qgamma(U[3,],shape = phi[3],rate = phi[3])

epsilon <- matrix(c(epsilon1,epsilon2,epsilon3),ncol = 3)

mu0 <- solve ( I - alpha - beta ) %*% omega

mu_t[1,] <- omega + ( alpha + beta ) %*% mu0

X[1,] <- mu_t[1,] * epsilon[1,]

for(i in 2:N)

mu_t[i,] <- omega + alpha %*% X[i-1,] + beta %*% mu_t[i-1,]

X[i,] <- mu_t[i,] * epsilon[i,]

X

Page 120: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxii

mu_t <- function( theta )

omega <- c( theta[1],theta[2],theta[3] )

alpha <- matrix( c(theta[4], theta[5], theta[6], theta[7],

theta[8], 0,0,0, theta[9] ), nrow = 3, ncol = 3)

beta0 <- c(theta[10],theta[11],theta[12])

beta <- diag( beta0 )

I <- diag( 3 )

#moyennes initiales des 3 variables #

mu0 <- colMeans( maSerie )

moy <- matrix( rep( 0,n * 3),ncol = 3 )

moy[1,] <- omega+(alpha + beta) %*% mu0

for (t in 1:(n-1))

moy[t+1,] = omega + alpha %*% X[,t] + beta %*% moy[t,]

return( t( moy ) )

#Valeur initial du modèle 4

valeur_initial<-c(27.0821, 28.1324, 35.8882, 0.0206, 0.0406,

0.0982, 0.1961, 0.1864, 0.0775, 0.0529, 0.0694, 0.1770,

0.6675, 0.6715, 0.6618)

#Valeur initial du modèle 5

valeur_initial<-c(24.5, 35.63, 12.98, 0.0206, 0.0406 ,0.0982,

0.1961, 0.1864, 0.0775, 0.0529, 0.0694, 0.1770, 0.6675, 0.6715,

0.6618)

#Valeur initial du modèle 6

valeur_initial<-c(1, 1, 1, 0.0206, 0.0406, 0.0982, 0.1961, 0.1864,

0.0775, 0.0529, 0.0694, 0.1770, 0.6675, 0.6715, 0.6618)

# Pour le modèle 7, les matrices alpha et beta sont diagonales

donc nous présentons juste la simulation,

la moyenne mu_t et les valeurs initiales

simulation <- function(N,phi,omega,alpha0,beta0)

#p représente le nombre de variables#

p <- 3

Page 121: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxiii

#Initialisation des paramètres et des variables#

moy <- rep(0,p)

Y <- matrix( rep(0,N * p),ncol = 3 )

X <- matrix( rep(0,N * p),ncol = 3 )

mu_t <- matrix( rep(0,N * p),ncol = 3 )

phi <- c(phi[1], phi[2], phi[3])

omega <- c( omega[1], omega[2], omega[3] )

alpha0 <- c( alpha0[1], alpha0[2], alpha0[3])

alpha <-diag( alpha0 )

beta0 <- c(beta0[1], beta0[2], beta0[3])

beta <- diag( beta0 )

I <- diag(3)

#Matrice de corrélation#

rho <- matrix(c(1,0.37,0.21,0.37,1,0.18,0.21,0.18,1),3,3)

#Génère trois variables aléatoires centrés réduites iid#

for(i in 1:p)

Y[,i] = rnorm(N,0,1)

out <- t(Y)

#Multiplier la décomposition Cholesky par le vecteur des v.a#

q <- chol( rho ) %*% out

#Génère une copule normale#

U <- pnorm(q,mean = 0, sd = 1)

#Extraction des innovations de la copule normale #

#L’espérance est égale à shape/rate=1#

epsilon1 <- qgamma(U[1,], shape = phi[1], rate = phi[1])

epsilon2 <- qgamma(U[2,], shape = phi[2], rate = phi[2])

epsilon3 <- qgamma(U[3,], shape = phi[3], rate = phi[3])

epsilon <- matrix(c(epsilon1,epsilon2,epsilon3),ncol = 3)

Page 122: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxiv

mu0 <- solve ( I - alpha - beta ) %*% omega

mu_t[1,] <- omega + ( alpha + beta ) %*% mu0

X[1,] <- mu_t[1,] * epsilon[1,]

for(i in 2:N)

mu_t[i,] <- omega + alpha %*% X[i-1,] + beta %*% mu_t[i-1,]

X[i,] <- mu_t[i,] * epsilon[i,]

X

mu_t <- function( theta )

omega <- c( theta[1],theta[2],theta[3] )

alpha0 <- c( theta[4], theta[5], theta[6])

alpha <-diag( alpha0 )

beta0 <- c(theta[7],theta[8],theta[9])

beta <- diag( beta0 )

I <- diag( 3 )

#moyennes initiales des 3 variables #

mu0 <- colMeans( maSerie )

moy <- matrix( rep( 0,n * 3),ncol = 3 )

moy[1,] <- omega+(alpha + beta) %*% mu0

for (t in 1:(n-1))

moy[t+1,] = omega + alpha %*% X[,t] + beta %*% moy[t,]

return( t( moy ) )

#Valeur initial du modèle 7

valeur_initial<-c(27.9853, 28.6715, 36.3381, 0.02, 0.077,

0.12, 0.61, 0.54, 0.4, 0.2, 0.1, 0.25)

Page 123: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxv

Nous présentons ici le programme développé en R qui a été utilisé pour nos appli-cations.

library(stats)

library(MASS)

#calculer le gradient et Résoudre un système non-linéaire#

library(rootSolve)

# Algorithme BHHH#

library(maxLik)

#test de Ljung-Box#

library(portes)

#Résoudre le système non-linéaire#

library(nleqslv)

SPCOMP<-read.table("C:\\ ...\\SP500.txt",header=T,sep="\t")

SP400 <-read.table("C:\\ ...\\SP400.txt",header=T,sep="\t")

FTSE100<-read.table("C:\\ ...\\FTSE.txt",header=T,sep="\t")

SP500_date <- as.character(SPCOMP$date)

SP500_dates <- as.Date(SP500_date,format=’%Y%m%d’)

SP500_return <- SPCOMP$ret

SP500_absolute_return <- SPCOMP$ret.abs

SP500_realized_kernel_volatility <- SPCOMP$rk.vol

SP500_daily_range <- SPCOMP$hl

SP400_date <- as.character(SP400$date)

SP400_dates <- as.Date(SP400_date,format=’%Y%m%d’)

SP400_absolute_return <- SP400$ret.abs

SP400_realized_kernel_volatility <- SP400$rk.vol

SP400_daily_range <-SP400$hl

SP400_return <-SP400$ret

FTSE100_date <- as.character(FTSE100$date)

FTSE100_dates <- as.Date(FTSE100_date,format=’%Y%m%d’)

FTSE100_return <- FTSE100$ret

FTSE100_absolute_return <- FTSE100$ret.abs

FTSE100_realized_volatility<- FTSE100$rk.vol

FTSE100_daily_range <- FTSE100$hl

Page 124: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxvi

#Construire les graphiques#

par(mfrow=c(3,1))

plot(SP500_dates,SP500_absolute_return,type ="l")

plot(SP500_dates,SP500_realized_kernel_volatility,type ="l")

plot(SP500_dates,SP500_daily_range,type ="l")

par(mfrow=c(3,1))

plot(SP400_dates,SP400_absolute_return,type="l")

plot(SP400_dates,SP400_realized_kernel_volatility,type="l")

plot(SP400_dates,SP400_daily_range,type ="l")

par(mfrow=c(3,1))

plot(FTSE100_dates,FTSE100_absolute_return,type ="l")

plot(FTSE100_dates,FTSE100_realized_volatility,type ="l")

plot(FTSE100_dates,FTSE100_daily_range,type ="l")

Serie_SP500 <- as.matrix(cbind(SP500_absolute_return,

SP500_realized_kernel_volatility,SP500_daily_range),

length(SP500_return),3)

Serie_SP400 <- as.matrix(cbind(SP400_absolute_return,

SP400_realized_kernel_volatility,SP400_daily_range),

length(SP400_return),3)

Serie_FTSE100 <- as.matrix(cbind(FTSE100_absolute_return,

FTSE100_realized_volatility,FTSE100_daily_range),

length(FTSE100_return),3)

#Variable indicatrice pour étudier l’asymétrie des données#

EFFET <- function(i,return)

OUT <- c(0)

if(return[i] < 0)

OUT[i] <- 1

else

OUT[i] <- 0

Page 125: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxvii

OUT[i]

#Première analyse en utilisant vMEM(1,1)#

#Moyenne conditionnelle utilisée

pour les trois indices boursiers #

mu_t <- function( theta, return, maSerie )

alpha <- c(theta[1],theta[2],theta[3])

alpha1 <- diag(alpha)

gama <- c(theta[4],theta[5],theta[6])

gamma <- diag(gama)

bet <- c(theta[7],theta[8],theta[9])

betaetoile <- diag(bet)

betaa <- c(theta[7] - theta[1] - theta[4]/2,

theta[8] - theta[2] - theta[5]/2,

theta[9] - theta[3] - theta[6]/2)

beta <- diag(betaa)

I <- diag(3)

betaetoile <- beta + alpha1 + gamma/2

X <- t(maSerie)

mu0 <- rowMeans(X) #moyenne initiale#

moy <- matrix(rep(0,length(return)*3),ncol = 3)

moy[1,] <- mu0

for (t in 2:length(return))

moy[t,] = mu0 + betaetoile %*% ( moy[t-1,] - mu0 )+

alpha1 %*% ( X[,t-1] - moy[t-1,] ) + gamma %*%

( X[,t-1] * c(EFFET(t-1,return),EFFET(t-1,return),

EFFET(t-1, return) ) - moy[ t-1, ]/2 )

return( t( moy ) )

#Méthode semi-paramétrique GMM#

gradient_de_mu <- function(theta, return , maSerie)

Page 126: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxviii

gradient(mu_t,theta, return=return, maSerie=maSerie )

g <- function( theta, return, maSerie )

b <- matrix(c(1,1,1),nrow = 1)

output <- matrix(rep(0),nrow = length(valeur_initial),

ncol = 1)

X <- t(maSerie)

gradient <- gradient_de_mu(theta, return , maSerie )

mu <- mu_t(theta,return, maSerie )

for(t in 1:length(return))

r <- t+2*(t-1)

v <- t*3

output<- output + t( gradient[r:v,] )%*% solve( diag(mu[,t]) )

%*% t( X[,t]/mu[,t]-b )

return( as.vector( output/length(return) ) )

sss <- multiroot( g,valeur_initial,return = return,

maSerie = maSerie )

parametre <- sss$root

sigma <- function( theta, return, maSerie )

u <- matrix( rep(0), nrow = 3, ncol = 3 )

mu <- mu_t( theta, return, maSerie )

X <- t(maSerie)

for(t in 1:length(return))

a <- X[,t] / mu[,t] - rep(1,3)

u <- u + ( a %*% t(a) )

return( u/length(return) )

Page 127: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxix

g1 <- function(theta, return, maSerie)

b <- matrix(c(1,1,1),nrow = 1)

output <- matrix(rep(0),nrow = length(valeur_initial)

,ncol = 1)

Sigma <- sigma( parametre, return = return,

maSerie = maSerie )

gradient <- gradient_de_mu( theta,return , maSerie )

X <- t(maSerie)

mu <- mu_t( theta,return, maSerie )

for(t in 1:length(return))

r <- t + 2 * (t-1)

v <- t*3

output <- output + t( gradient[r:v,] ) %*%

solve( diag( mu[,t] ) %*% Sigma )%*%

t( X[,t]/mu[,t] - b )

return( as.vector( output/length( return) ) )

GMM <- multiroot(g1,valeur_initial,return = return,

maSerie = maSerie )

# Test de Ljung-Box #

# Calculons les résidus estimés

epsilon <- t(maSerie)/mu_t(GMM$root,return = return ,

maSerie = maSerie )

#Tester l’indépendance des résidus estimés

portest( t(epsilon), lag = c(1,2,6,12,22,32,46),

test = "LjungBox", MonteCarlo = FALSE )

Page 128: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxx

#Deuxième analyse en utilisant vMEM(2,1)#

#Les moyennes conditionnelles utilisées

pour les trois indices boursiers #

mu_t_SP500 <- function( theta, return = SP500_return,

maSerie = Serie_SP500 )

alpha1 <- matrix(c(theta[1],theta[2],0,theta[3],theta[4],

theta[5],theta[6],theta[7],theta[8]),nrow=3,ncol=3)

alpha2 <- matrix(c(theta[9],theta[10],0,theta[11],theta[12],

theta[13],0,theta[14],theta[15]),nrow=3,ncol=3)

gama <- c(theta[16],theta[17],theta[18])

gamma <- diag(gama)

beta <- matrix(c(theta[19],theta[20],0,0,theta[21],0,0,0,

theta[22]),nrow=3,ncol=3)

I <- diag(3)

X <- t(maSerie)

#moyenne des 3 variables initiale#

mu0 <- rowMeans(X)

omega <- ( I- ( beta + gamma/2 + alpha1 + alpha2 ) )

%*% mu0

moy <- matrix(rep(0,length(return)*3),ncol = 3)

moy[1,] <- mu0

moy[2,] <- omega + beta %*% moy[1,] + alpha1 %*% X[,1] +

alpha2 %*% mu0 + gamma %*% (X[,1] *c(EFFET(1,return),EFFET(1,return),EFFET(1,return)))

for (t in 3:length(return))

moy[t,] = omega + beta %*% moy[t-1,] + alpha1 %*% X[,t-1] +

alpha2 %*% X[,t-2] + gamma %*% ( X[,t-1] *c(EFFET(t-1,return),EFFET(t-1,return),

EFFET(t-1,return)))

return( t( moy ) )

Page 129: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxxi

mu_t_SP400 <- function(theta, return = SP400_return,

maSerie = Serie_SP400 )

alpha1 <- matrix(c(theta[1],0,0,theta[2],theta[3],theta[4],0,

theta[5],theta[6]),nrow = 3,ncol = 3)

alpha2 <- matrix(c(0,0,0,0,theta[7],theta[8],theta[9],

theta[10],0),nrow = 3,ncol = 3)

beta <- matrix(c(theta[11],theta[12],0,theta[13],theta[14],

theta[15],0,0,theta[16]),nrow = 3,ncol = 3)

I <- diag(3)

X <- t(maSerie)

#moyenne des 3 variables initiale#

mu0 <- rowMeans(X)

omega <- (I - ( alpha1 + alpha2 + beta ) ) %*% mu0

moy <- matrix(rep(0,length(return)*3),ncol = 3)

moy[1,] <- mu0

moy[2,] <- omega + alpha1 %*% X[,1] + alpha2 %*% mu0 +

beta %*% moy[1,]

for (t in 2:(length(return)-1))

moy[t+1,]=omega + alpha1 %*% X[,t] + alpha2 %*% X[,t-1] +

beta %*% moy[t,]

return( t( moy ) )

mu_t_FTSE100 <- function(theta, return = FTSE100_return,

maSerie = Serie_FTSE100 )

alpha1 <- matrix(c(theta[1],theta[2],0,theta[3],theta[4],

theta[5],0,theta[6],theta[7]),nrow = 3,ncol = 3)

alpha2 <- matrix(c(theta[8],0,theta[9],0,theta[10],theta[11],

0,theta[12],0),nrow = 3,ncol = 3)

beta <- matrix(c(theta[13],0,0,theta[14],theta[15],0,0,

theta[16],theta[17]),nrow = 3,ncol = 3)

I <- diag(3)

X <- t(maSerie)

Page 130: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxxii

#moyenne des 3 variables initiale#

mu0 <- rowMeans(X)

omega <- (I - ( alpha1 + alpha2 + beta ) ) %*% mu0

moy <- matrix(rep(0,length(return)*3),ncol = 3)

moy[1,] <- mu0

moy[2,] <- omega + alpha1 %*% X[,1] + alpha2 %*% mu0 +

beta %*% moy[1,]

for (t in 2:(length(return)-1))

moy[t+1,] = omega + alpha1 %*% X[,t] + alpha2 %*% X[,t-1] +

beta %*% moy[t,]

return( t( moy ) )

gradient_de_mu <- function(theta, mu_t) gradient(mu_t,theta)

g <- function( theta, maSerie, return, mu_t )

b <- matrix(c(1,1,1),nrow = 1)

output <- matrix(rep(0),nrow = length(valeur_initial),

ncol = 1)

X <- t(maSerie)

gradient <- gradient_de_mu(theta, mu_t)

mu <- mu_t(theta)

for(t in 1:length(return))

r <- t+2*(t-1)

v <- t*3

output<- output + t( gradient[r:v,] )%*% ginv(diag(mu[,t]))

%*% t( X[,t]/mu[,t]-b )

return( as.vector( output/length(return) ) )

ss<-nleqslv(valeur_initial,return = return,maSerie = maSerie,

mu_t= mu_t, g, method = c("Broyden", "Newton"),

Page 131: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxxiii

control = list(trace=1))

parametre<-ss$x

sigma <- function( theta, return, maSerie ,mu_t)

u <- matrix( rep(0), nrow = 3, ncol = 3 )

mu <- mu_t( theta )

X <- t(maSerie)

for(t in 1:length(return))

a <- X[,t] / mu[,t] - rep(1,3)

u <- u + ( a %*% t(a) )

return( u/length(return) )

g1 <- function(theta, return, maSerie, mu_t)

b <- matrix(c(1,1,1),nrow = 1)

output <- matrix(rep(0),nrow = length(valeur_initial),

ncol = 1)

Sigma <- sigma( parametre, return, maSerie ,mu_t)

gradient <- gradient_de_mu( theta,mu_t )

X <- t(maSerie)

mu <- mu_t( theta )

for(t in 1:length(return) )

r <- t + 2 * (t-1)

v <- t*3

output <- output + t( gradient[r:v,] ) %*% ginv( diag( mu[,t] )

%*% Sigma )%*% t( X[,t]/mu[,t] - b )

return( as.vector( output/length( return) ) )

sss<-nleqslv( valeur_initial, return = return,

maSerie = maSerie, mu_t = mu_t, g1,

Page 132: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxxiv

method = c("Broyden", "Newton"),

control = list(trace = 1) )

# Test de Ljung-Box #

# Calculons les résidus estimés

epsilon <- t(maSerie)/mu_t( sss$x )

#Tester l’indépendance des résidus estimés

portest( t( epsilon ), lag = c(1,2,6,12,22,32,46),

test = "LjungBox", MonteCarlo = FALSE )

# Méthode paramétrique utilisée dans les deux analyses #

fontion_densite <-

function( i, phi, theta, return ,maSerie, mu_t )

phi <- c( phi[1],phi[2],phi[3] )

mu <- mu_t( theta )

X <- t(maSerie)

fonction <- dgamma( X[i,] / mu[i,], shape=phi[i],rate=phi[i] )

for( s in ( 1:length( return ) ) )

if( fonction[s] == Inf)

fonction[s] <- 10^(-12)

return( fonction )

##fonction de répartition des épsilons##

repartition <- function( i, t, phi, theta, return ,maSerie, mu_t )

Page 133: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxxv

phi <- c(phi[1],phi[2],phi[3])

mu <- mu_t( theta )

X <- t(maSerie)

r <- c(0)

r <-pgamma( phi[i]*X[i,t]/mu[i,t],shape = phi[i], rate = 1 )

if( r >= 1 )

r == 1-10^(-6)

if(r <= 0)

r == 10^(-6)

return( r )

repartitioni <- function(i,phi,theta, return ,maSerie, mu_t )

r <- rep(0,n)

phi <- c(phi[1],phi[2],phi[3])

mu <- mu_t(theta)

X <- t(maSerie)

r <- pgamma(phi[i]*X[i,]/mu[i,],shape = phi[i],rate = 1)

for(s in (1:length( return )))

if( r[s] >= 1 )

r[s] = 1 - 10^(-6)

if( r[s] <= 0 )

r[s] = 10^(-6)

return ( r )

##vecteurs des quantiles##

Page 134: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxxvi

quantilei <- function( i, par, return , maSerie , mu_t )

phi <- par[1:3]

theta <- par[4:length(valeur_initial)]

t <- qnorm(repartitioni(i,phi,theta,return ,maSerie, mu_t )

,0,1)

return( t )

quantile<-function(par, return , maSerie , mu_t )

sapply(1:3, quantilei , par = par, return = return,

maSerie = maSerie, mu_t = mu_t)

Q <- function( par, return , maSerie , mu_t )

quant <- quantile( par, return , maSerie , mu_t )

x <- (t(quant) %*% quant)/length( return )

return(x)

D_Q <- function(par, return , maSerie , mu_t )

z <- diag( diag( Q(par,return , maSerie , mu_t ) ) )

return ( z )

Rtilde <- function ( par, return , maSerie , mu_t )

Q <- Q(par, return , maSerie , mu_t )

DQ <- solve( D_Q(par, return , maSerie , mu_t ) )

F <- DQ^(0.5) %*% Q %*% DQ^(0.5)

return(F)

#LOG VRAISEMBLANCE#

#Décomposition de contribution de copule

somme <- function(par, return , maSerie , mu_t )

Page 135: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxxvii

quant <- quantile(par, return , maSerie , mu_t )

s <- 0

for(i in (1:3))

s <- s + log( t( quant[,i] ) %*% quant[,i] )

return ( s )

copulacontribution <-

function(par, return , maSerie , mu_t )

quant <- quantile(par, return , maSerie , mu_t )

som <- somme(par , return , maSerie , mu_t )

cu <- -0.5 * ( log( det( t(quant) %*% quant ) ) - som )

return(cu)

marginalscontributioni <-

function(i,par, return , maSerie , mu_t )

phi <- par[1:3]

theta <- par[4:length(valeur_initial)]

l <- matrix(rep(0,3),nrow = 3, ncol = length(return))

for( t in ( 1:length(return) ) )

r <- fontion_densite(i,phi,theta, return , maSerie , mu_t )

if(r[t] <= 0)

r[t] = 10^(-6)

if(r[t] == Inf)

r[t] = 10^(-12)

return(r)

l[i,] <- l[i,] + log( r/mu_t(theta)[i,] )

return ( l )

Page 136: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxxviii

marginalscontribution <- function(par, return , maSerie , mu_t )

rowSums( sapply( 1:3, marginalscontributioni,par = par,

return=return , maSerie=maSerie , mu_t=mu_t ))

log_vrais<-function(par, return , maSerie , mu_t )

sum(copulacontribution( par, return , maSerie , mu_t ) +

marginalscontribution( par, return , maSerie , mu_t ))

#Calcul du gradient###

#constante C#

C <- function(par, return , maSerie , mu_t )

Q = Q(par, return , maSerie , mu_t )

DQ = D_Q(par, return , maSerie , mu_t )

R = Rtilde(par, return , maSerie , mu_t )

c = solve( Q ) %*% DQ^(0.5) %*% Q %*% DQ^(0.5) %*% solve( Q )

- solve( Q )+ diag(3) - solve( R ) + solve( DQ )

- (solve( DQ ))^(0.5) %*% diag( diag( solve( Q )

%*% DQ^(0.5) %*% Q ) )

return( c )

gradient_de_mu <- function(theta,mu_t) gradient(mu_t,theta)

f_1 <- function (phi,theta, return , maSerie , mu_t )

phi <- c(phi[1],phi[2],phi[3])

mu <- mu_t( theta )

X <- t(maSerie)

fonction <- matrix(rep(0,3),nrow = length(return), ncol = 3)

for(i in (1:3))

Page 137: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xxxix

fonction[,i] = dgamma(X[i,]/mu[i,],shape = phi[i]+1,

rate = phi[i])

return( fonction )

f_2 <- function( phi,theta , return , maSerie , mu_t )

mu <- mu_t(theta)

j <- matrix(rep(0,3), nrow = length(return), ncol = 3)

X<-t(maSerie)

for(i in (1:3))

j[,i] <- phi[i] * (X[i,]/mu[i,] - 1)

return( j )

b <- function( par, return , maSerie , mu_t )

c <- C(par, return , maSerie , mu_t )

q <- quantile(par, return , maSerie , mu_t )

v <- matrix(rep(0,3), nrow = 3, ncol = length(return))

for(t in (1:length(return)))

v[,t] = -( c %*% q[t,] )/dnorm( q[t,] )

return( v )

a <- function(par, return , maSerie , mu_t )

phi <- par[1:3]

theta <- par[4:length(valeur_initial)]

f1 <- f_1(phi,theta, return , maSerie , mu_t )

f2 <- f_2(phi,theta, return , maSerie , mu_t )

Page 138: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xl

a <- matrix(rep(0,3), nrow = length(return), ncol = 3)

b <- b( par , return , maSerie , mu_t )

mu <- mu_t( theta )

for(t in (1:length(return)))

a[t,] <- ( f1[t,] %*% b[,t] + f2[t,] )/mu[,t]

return( a )

numerical.derivative <-

function(phi,theta,return ,maSerie ,mu_t )

der <- matrix( rep(0,3), nrow = 3, ncol = length(return) )

h <- 1e-7

for(i in (1:3))

der[i,] <- ( repartitioni(i, phi + h, theta, return ,

maSerie , mu_t )

- repartitioni(i, phi, theta, return ,

maSerie , mu_t ) ) / h

return( der )

p_1 <- function(par, return , maSerie , mu_t )

phi <- par[1:3]

theta <- par[4:length(valeur_initial)]

p <- matrix( rep(0,3), nrow = length(return), ncol = 3 )

b <- b( par , return , maSerie , mu_t )

der <- numerical.derivative(phi,theta,return ,maSerie ,mu_t )

for( t in (1:length(return)) )

p[t,]<- - diag(der[,t]) %*% b[,t]

return( p )

Page 139: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xli

p_2 <- function(phi,theta, return , maSerie , mu_t )

mu <- mu_t( theta )

p <- matrix(rep(0,3), nrow = length(return), ncol = 3)

X<-t(maSerie)

for( i in (1:3))

u <- X[i,]/mu[i,]

for(s in(1:length(return)))

if(u[s] <= 0)

u[s] <- 10^(-6)

p[,i] = log( phi[i] ) - digamma( phi[i] ) +

log( u ) - u + 1

return( p )

gradient_vecteur <- function(par, return , maSerie , mu_t )

phi <- par[1:3]

theta <- par[4:length(valeur_initial)]

u <- rep(0,length(valeur_initial))

gradientt <- gradient_de_mu( theta,mu_t )

p1 <- p_1( par , return , maSerie , mu_t )

p2 <- p_2(phi,theta, return , maSerie , mu_t )

a <- a( par , return , maSerie , mu_t )

u[1:3] <- colSums( p1 + p2 )

for(t in (1:length(return)))

r <- t + 2 * ( t - 1 )

v <- t * 3

u[4:length(valeur_initial)] <- u[4:length(valeur_initial)]

+ t(gradientt[r:v,]) %*% a[t,]

Page 140: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xlii

return( u )

#OPG#

grvrais <- function(par, return , maSerie , mu_t )

phi <- par[1:3]

theta <- par[4:length(valeur_initial)]

u <- matrix(rep(0,length(valeur_initial)),

nrow=length(return),ncol=length(valeur_initial))

gradientt <- gradient_de_mu(theta,mu_t)

p1 <- p_1( par, return , maSerie , mu_t )

p2 <- p_2(phi, theta, return , maSerie , mu_t )

a <- a( par , return , maSerie , mu_t )

u[,1:3] <- ( p1 + p2 )

for(t in (1:length(return)))

r <- t + 2 * ( t - 1 )

v <- t * 3

u[t,4:length(valeur_initial)] <- t( gradientt[r:v,] )

%*% a[t,]

return( u )

hessien<-function(par, return , maSerie , mu_t )

phi <- par[1:3]

theta <- par[4:length(valeur_initial)]

u <- matrix(rep(0,length(valeur_initial)),

nrow=length(return),ncol=length(valeur_initial))

gradientt <- gradient_de_mu(theta,mu_t)

p1 <- p_1(par, return , maSerie , mu_t )

p2 <- p_2(phi,theta, return , maSerie , mu_t )

a <- a(par, return , maSerie , mu_t )

u[,1:3] <- (p1+p2)

for(t in (1:length(return)))

Page 141: Université de Montréal Les modèles vectoriels et multiplicatifs avec

A-xliii

r <- t+2*(t-1)

v <- t*3

u[t,4:length(valeur_initial)] <- t(gradientt[r:v,])%*%a[t,]

return( - ( t( u ) %*% u ) )

bhhh <- maxBHHH(log_vrais, return = return , maSerie = maSerie ,

mu_t = mu_t,grad = grvrais, hess = hessien,

start = valeur_initial, print.level = 2)

summary( bhhh )

# Test de Ljung-Box #

# Calculer les résidus estimés

epsilon_parametrique <- X /

mu_t(summary( bhhh )$estimate[,1][4:length( valeur_initial )])

#Tester l’indépendance des résidus estimés

portest( t( epsilon_parametrique ),lag = c(1,2,6,12,22,32,46),

test = "LjungBox", MonteCarlo = TRUE )

Page 142: Université de Montréal Les modèles vectoriels et multiplicatifs avec

Annexe B

Nous présentons dans cette partie les graphiques représentant les séries des troisvariables relatives aux indices boursiers S&P500, S&P400 et FTSE100 : Le rendementabsolu, la volatilité réalisée selon la méthode du noyau et la différence entre le prix leplus élevé et le prix le plus bas.

Page 143: Université de Montréal Les modèles vectoriels et multiplicatifs avec

B-ii

FIGURE B.1. Graphiques représentant les séries des trois va-riables relatives à S&P500 : Le rendement absolu, la volatilité réa-lisée selon la méthode du noyau et la différence entre le prix leplus élevé et le prix le plus bas.

Page 144: Université de Montréal Les modèles vectoriels et multiplicatifs avec

B-iii

FIGURE B.2. Graphiques représentant les séries des trois va-riables relatives à S&P400 : Le rendement absolu, la volatilité réa-lisée selon la méthode du noyau et la différence entre le prix leplus élevé et le prix le plus bas.

Page 145: Université de Montréal Les modèles vectoriels et multiplicatifs avec

B-iv

FIGURE B.3. Graphiques représentant les séries des trois va-riables relatives à FTSE100 : Le rendement absolu, la volatilitéréalisée selon la méthode du noyau et la différence entre le prixle plus élevé et le prix le plus bas.