182
© Amenan Christiane Chukunyere, 2019 Les modèles VAR(p) Mémoire Amenan Christiane Chukunyere Maîtrise en statistique - avec mémoire Maître ès sciences (M. Sc.) Québec, Canada

Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

© Amenan Christiane Chukunyere, 2019

Les modèles VAR(p)

Mémoire

Amenan Christiane Chukunyere

Maîtrise en statistique - avec mémoire

Maître ès sciences (M. Sc.)

Québec, Canada

Page 2: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Résumé

Ce mémoire a pour objectif d’étudier une famille de méthodes pour modéliser de façon conjointe

plusieurs séries temporelles. Nous nous servons de ces méthodes pour prédire le comportement de

cinq séries temporelles américaines et de ressortir les liens dynamiques qui pourraient exister entre

elles. Pour ce faire, nous utilisons les modèles de vecteurs autorégressifs d’ordre p proposés par Sims

(1980) qui sont une généralisation multivariée des modèles de Box et Jenkins. Tout d’abord, nous

définissons un ensemble de concepts et outils statistiques qui seront utiles à la compréhension de

notions utilisées par la suite dans ce mémoire. S’ensuit la présentation des modèles et de la méthode

de Box et Jenkins. Cette méthode est appliquée à chacune des cinq séries en vue d’avoir des modèles

univariés. Puis, nous présentons les modèles VAR(p) et nous faisons un essai d’ajustement de ces

modèles à un vecteur dont les composantes sont les cinq séries. Nous discutons de la valeur ajoutée

de l’analyse multivariée par rapport à l’ensemble des analyses univariées.

ii

Page 3: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Abstract

This thesis aims to study a family of methods to jointly model several time series. We use these meth-

ods to predict the behavior of five US time series and to highlight the dynamic links that might exist

between them. To do this, we use the p-order autoregressive vector models proposed by Sims (1980),

which are a multivariate generalization of the Box and Jenkins models. First, we define a set of con-

cepts and statistical tools that will be useful for the understanding of notions used later in this thesis.

Follows the presentation of the models and the method of Box and Jenkins. This method is applied to

each of the five series in order to have univariate models. Then, we present the VAR(p) models and

we test the fit of these models to a vector series whose components are the five aforementioned series.

We discuss the added value of multivariate analysis compared to the five univariate analyzes.

iii

Page 4: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Table des matières

Résumé ii

Abstract iii

Table des matières iv

Liste des tableaux vi

Liste des figures ix

Remerciements xiii

Introduction 1

1 QUELQUES OUTILS ET DÉFINITIONS STATISTIQUES 31.1 Processus stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3 Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.4 Autocovariance et autocorrélation . . . . . . . . . . . . . . . . . . . . . . . . . 51.5 Estimation de la moyenne et des fonctions d’autocovariance, d’autocorrélation et

d’autocorrélation partielle d’un processus stationnaire . . . . . . . . . . . . . . . 71.6 Opérations sur les séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.7 Transformation de Box et Cox . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.8 Processus linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 LES MODÈLES DE BOX ET JENKINS 142.1 Les modèles ARIMA(p,d,q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.2 Les processus multiplicatifs saisonniers (SARIMA(P,D,Q)(p,d,q)) . . . . . . . 232.3 La méthode de Box et Jenkins : ses étapes . . . . . . . . . . . . . . . . . . . . . 25

3 APPLICATION UNIVARIÉE 303.1 Analyse descriptive des séries . . . . . . . . . . . . . . . . . . . . . . . . . . . 303.2 La série « taux de chômage » . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.3 La série « produit national brut » . . . . . . . . . . . . . . . . . . . . . . . . . . 373.4 La série « consommation » . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413.5 La série « investissements privés en capitaux » . . . . . . . . . . . . . . . . . . . 473.6 La série « investissements gouvernementaux » . . . . . . . . . . . . . . . . . . . 523.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

iv

Page 5: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

4 MODÈLES VAR(p) 574.1 Stationnarité d’un processus K-vectoriel . . . . . . . . . . . . . . . . . . . . . . 584.2 Écriture moyenne mobile d’un processus K-vectoriel et décomposition de Wold . 624.3 Les processus VAR(p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 644.4 Estimation d’un VAR(p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 764.5 Choix de l’ordre p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 814.6 Validation de modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 844.7 Prévisions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 864.8 Analyse structurelle d’un processus VAR(p) . . . . . . . . . . . . . . . . . . . . 884.9 Construction d’un modèle VAR . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

5 RETOUR À L’APPLICATION : ANALYSE MULTIVARIÉE 1025.1 Observation graphique des cinq séries transformées . . . . . . . . . . . . . . . . 1025.2 Analyse multivariée : 5 variables . . . . . . . . . . . . . . . . . . . . . . . . . . 1035.3 Analyse multivariée : Modèle à 4 variables . . . . . . . . . . . . . . . . . . . . . 113

Conclusion 121

A Algèbre vectorielle et notion statistique 123A.1 Algèbre vectorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123A.2 Les coefficients d’aplatissement et d’asymétrie . . . . . . . . . . . . . . . . . . 125

B Tableaux et graphiques 126B.1 Tableaux section taux de chômage . . . . . . . . . . . . . . . . . . . . . . . . . 126B.2 Tableaux section produit national brut . . . . . . . . . . . . . . . . . . . . . . . 128B.3 Tableaux section consommation . . . . . . . . . . . . . . . . . . . . . . . . . . 128B.4 Tableaux section investissements privés . . . . . . . . . . . . . . . . . . . . . . 130B.5 Tableaux section investissements gouvernementaux . . . . . . . . . . . . . . . . 132B.6 Tableaux de décomposition de la variance des erreurs de prédiction . . . . . . . . 132B.7 Graphiques de prévisions du chapitre 5 . . . . . . . . . . . . . . . . . . . . . . . 140

C Code informatique 142C.1 Code SAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142C.2 Code R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

Bibliographie 165

v

Page 6: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Liste des tableaux

3.1 Tableau des estimateurs des paramètres du modèle de départ AR(1) avec constantepour la série « taux de chômage » différenciée . . . . . . . . . . . . . . . . . . . . . 33

3.2 Comparaison des modèles candidats sans constante-Test Portmanteau sur les résidus,AIC, BIC-série « taux de chômage » . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.3 Tableau des estimateurs des paramètres du modèle candidat AR(12) sans constanteavec p=1,4,8,12 pour la série « taux de chômage » différenciée . . . . . . . . . . . . 34

3.4 Matrice de corrélation des estimateurs pour le modèle final SARIMA(1,1,0)(3,0,0) . 343.5 Test Portmanteau sur les résidus du modèle final SARIMA(1,1,0)(3,0,0)-série « taux

de chômage » . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353.6 Tableau des estimateurs des paramètres du modèle MA(2) avec constante pour la série

« produit national brut » transformée et différenciée . . . . . . . . . . . . . . . . . . 383.7 Matrice de corrélation des estimateurs pour le modèle final MA(2) . . . . . . . . . . 383.8 Test Portmanteau sur les résidus du modèle final MA(2) - série « produit national brut » 393.9 Tableau des estimateurs des paramètres du modèle de départ MA(3) pour la série

« consommation » transformée et différenciée . . . . . . . . . . . . . . . . . . . . . 433.10 Comparaison des modèles candidats-P-valeurs du test Portmanteau sur les résidus,

AIC, BIC-série « consommation » . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.11 Tableau des estimateurs des paramètres du modèle final MA(2,3,8) pour la série « consom-

mation » transformée et différenciée . . . . . . . . . . . . . . . . . . . . . . . . . . 433.12 Matrice de corrélation des estimateurs pour le modèle final MA(2,3,8) pour la série

« consommation » transformée et différenciée . . . . . . . . . . . . . . . . . . . . . 443.13 Test Portmanteau sur les résidus du modèle final MA(2,3,8) pour la série « consom-

mation » transformée et différenciée . . . . . . . . . . . . . . . . . . . . . . . . . . 453.14 Tableau des estimateurs des paramètres du modèle de départ AR(1) avec constante

pour la série « investissements privés » transformée et différenciée . . . . . . . . . . 483.15 Comparaison des modèles candidats sans constante-Test Portmanteau sur les résidus,

AIC, BIC-série « investissements privés » . . . . . . . . . . . . . . . . . . . . . . . 483.16 Tableau des estimateurs des paramètres du modèle candidat AR(12) sans constante

avec p=1,4,8,12 pour la série « investissements privés » transformée et différenciée . 493.17 Matrice de corrélation des estimateurs pour le modèle final SARIMA4((1,1,0)(3,0,0)) 493.18 Test Portmanteau sur les résidus du modèle final SARIMA4((1,1,0)(3,0,0))-série

« investissements privés » . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493.19 Tableau des estimateurs des paramètres du modèle de départ AR(1) avec constante

pour la série « investissements gouvernementaux » différenciée . . . . . . . . . . . 533.20 Tableau des estimateurs des paramètres du modèle final ARIMA(12,1,0) avec p=1,3,12

pour la série « investissements gouvernementaux » différenciée . . . . . . . . . . . 54

vi

Page 7: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

3.21 Matrice de corrélation des estimateurs pour le modèle final ARIMA(12,1,0) avec co-efficients non nuls à p=1,3,12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3.22 Test Portmanteau sur les résidus du modèle final ARIMA(12,1,0) avec coefficientsnon nuls à p=1,3,12-série « investissements gouvernementaux » . . . . . . . . . . . 54

5.1 Critère BIC de modèles concurrents selon l’ordre . . . . . . . . . . . . . . . . . . . 1045.2 Représentation schématique de l’autorégression partielle . . . . . . . . . . . . . . . 1045.3 Représentation schématique des paramètres estimés . . . . . . . . . . . . . . . . . . 1055.4 Matrice des corrélations des innovations estimée . . . . . . . . . . . . . . . . . . . . 1055.5 Représentation schématique des corrélations croisées des résidus . . . . . . . . . . . 1065.6 Test du Portemanteau pour corrélations croisées des résidus . . . . . . . . . . . . . . 1065.7 Test du bruit blanc du modèle à une variable . . . . . . . . . . . . . . . . . . . . . . 1075.8 Diagnostics ANOVA du modèle à une variable . . . . . . . . . . . . . . . . . . . . . 1075.9 Test de Wald de la causalité au sens de Granger . . . . . . . . . . . . . . . . . . . . 1105.10 Tableau de comparaison des modèles univariés et multivarié pour chaque série selon la

valeur de l’erreur quadratique prévisionnelle aux 4, 8 et 12 dernières périodes tronquées 1155.11 Test de causalité de Granger dans le cadre d’un test de Wald . . . . . . . . . . . . . 118

B.1 Tableau des estimateurs des paramètres du modèle de départ AR(1)avec constantepour la série « taux de chômage » différenciée . . . . . . . . . . . . . . . . . . . . . 126

B.2 Tableau des estimateurs des paramètres du modèle de départ AR(1)sans constante pourla série « taux de chômage » différenciée . . . . . . . . . . . . . . . . . . . . . . . 126

B.3 Tableau des estimateurs des paramètres du modèle candidat AR(4)sans constante avecp=1,4 pour la série « taux de chômage » différenciée . . . . . . . . . . . . . . . . . 126

B.4 Tableau des estimateurs des paramètres du modèle candidat AR(8)sans constante avecp=1,8 pour la série « taux de chômage » différenciée . . . . . . . . . . . . . . . . . 126

B.5 Tableau des estimateurs des paramètres du modèle candidat AR(8)sans constante avecp=1,4,8 pour la série « taux de chômage » différenciée . . . . . . . . . . . . . . . . 127

B.6 Tableau des estimateurs des paramètres du modèle candidat AR(12)sans constanteavec p=1,4,8,12 pour la série « taux de chômage » différenciée . . . . . . . . . . . . 127

B.7 Matrice de corrélation des estimateurs pour le modèle final SARIMA(1,1,0)(3,0,0) . 127B.8 Test Portmanteau sur les résidus du modèle final SARIMA(1,1,0)(3,0,0)-série « taux

de chômage » . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127B.9 Comparaison des modèles candidats sans constante-Test Portmanteau sur les rési-

dus,AIC, BIC-série « taux de chômage » . . . . . . . . . . . . . . . . . . . . . . . . 127B.10 Tableau des estimateurs des paramètres du modèle MA(2)avec constante pour la série

« produit national brut » transformée et différenciée . . . . . . . . . . . . . . . . . . 128B.11 Matrice de corrélation des estimateurs pour le modèle final MA(2) . . . . . . . . . . 128B.12 Test Portmanteau sur les résidus du modèle final MA(2)-série « produit national brut » 128B.13 Tableau des estimateurs des paramètres du modèle de départ MA(3) pour la série

« consommation » transformée et différenciée . . . . . . . . . . . . . . . . . . . . . 128B.14 Tableau des estimateurs des paramètres du modèle final MA(2,3,8)pour la série « consom-

mation » transformée et différenciée . . . . . . . . . . . . . . . . . . . . . . . . . . 129B.15 Matrice de corrélation des estimateurs pour le modèle final MA(2,3,8)pour la série

« consommation » transformée et différenciée . . . . . . . . . . . . . . . . . . . . . 129B.16 Test Portmanteau sur les résidus du modèle final MA(2,3,8)pour la série « consomma-

tion » transformée et différenciée . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

vii

Page 8: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

B.17 Comparaison des modèles candidats-Test Portmanteau sur les résidus,AIC, BIC-série« consommation » . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

B.18 Tableau des estimateurs des paramètres du modèle de départ AR(1)avec constantepour la série « investissements privés » transformée et différenciée . . . . . . . . . . 130

B.19 Tableau des estimateurs des paramètres du modèle de départ AR(1)sans constante pourla série « investissements privés » transformée et différenciée . . . . . . . . . . . . . 130

B.20 Tableau des estimateurs des paramètres du modèle candidat AR(4)sans constante avecp=1,4 pour la série « investissements privés » transformée et différenciée . . . . . . 130

B.21 Tableau des estimateurs des paramètres du modèle candidat AR(8)sans constante avecp=1,4,8 pour la série « investissements privés » transformée et différenciée . . . . . 130

B.22 Tableau des estimateurs des paramètres du modèle candidat AR(12)sans constanteavec p=1,4,8,12 pour la série « investissements privés » transformée et différenciée . 131

B.23 Matrice de corrélation des estimateurs pour le modèle final SARIMA(1,1,0)(3,0,0) . 131B.24 Test Portmanteau sur les résidus du modèle final SARIMA(1,1,0)(3,0,0)-série « inves-

tissements privés » . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131B.25 Comparaison des modèles candidats sans constante-Test Portmanteau sur les rési-

dus,AIC, BIC-série « investissements privés » . . . . . . . . . . . . . . . . . . . . . 131B.26 Tableau des estimateurs des paramètres du modèle de départ AR(1)avec constante

pour la série « investissements gouvernementaux » différenciée . . . . . . . . . . . 132B.27 Tableau des estimateurs des paramètres du modèle AR(3) avec p=1,3 pour la série

« investissements gouvernementaux » différenciée . . . . . . . . . . . . . . . . . . 132B.28 Tableau des estimateurs des paramètres du modèle final ARIMA(12,1,0) avec p=1,3,12

pour la série « investissements gouvernementaux » différenciée . . . . . . . . . . . 132B.29 Matrice de corrélation des estimateurs pour le modèle final ARIMA(12,1,0) avec co-

efficients non nuls à p=1,3,12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132B.30 Test Portmanteau sur les résidus du modèle final ARIMA(12,1,0)avec coefficients non

nuls à p=1,3,12-série « investissements gouvernementaux » . . . . . . . . . . . . . . 133B.31 Comparaison des modèles candidats-Test Portmanteau sur les résidus,AIC, BIC-série

« investissements gouvernementaux » . . . . . . . . . . . . . . . . . . . . . . . . . 133B.32 Décomposition en proportions de la variance des erreurs de prévision associées à

l’ordre d’entrée y1, y2, y3, y4 et y5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 134B.33 Décomposition en proportions de la variance des erreurs de prévision associées à

l’ordre d’entrée y4, y3, y2, y1 et y5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 135B.34 Décomposition en proportions de la variance des erreurs de prévision . . . . . . . . 136B.35 Décomposition en proportions de la variance des erreurs de prévision . . . . . . . . 137B.36 Décomposition en proportions de la variance des erreurs de prévision . . . . . . . . 138B.37 Décomposition en proportions de la variance des erreurs de prévision . . . . . . . . 139

viii

Page 9: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Liste des figures

2.1 Exemples d’ACF et de PACF théoriques d’un AR(1) et d’un AR(2) . . . . . . . . . . 172.2 Exemples d’ACF et de PACF théoriques d’un MA(1) et d’un MA(2) . . . . . . . . . 192.3 Exemple d’ACF et de PACF théoriques d’un ARMA(1,1) . . . . . . . . . . . . . . . 222.4 Exemples d’ACF et de PACF d’un AR(2), d’un MA(1) et d’un ARMA(2,1) saisonniers 25

3.1 Graphiques des 5 séries (Taux de chômage,Produit national brut, Consommation, In-vestissements privés, Investissements gouvernementaux) . . . . . . . . . . . . . . . 31

3.2 La série « taux de chômage » (à gauche) de 1948-II à 1988-II et autocorrélationssimples (à droite) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3.3 Série « taux de chômage » différenciée et corrélogrammes . . . . . . . . . . . . . . 323.4 Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieur

droit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit) . . . 353.5 Comparaison des prévisions et valeurs réelles pour le modèle SARIMA4((1,1,0)(3,0,0))

appliqué à la série « taux de chômage différenciée » . . . . . . . . . . . . . . . . . . 363.6 Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières

valeurs de la série « chômage » . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363.7 Produit national brut de 1948-II à 1988-II . . . . . . . . . . . . . . . . . . . . . . . 373.8 Série « produit national brut » transformée puis différenciée et corrélogrammes associés 383.9 Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieur

droit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit) . . . 393.10 Comparaison des prévisions et valeurs réelles du « Produit national brut » pour le

modèle MA(2) appliqué à la série « Produit national brut » transformée puis différenciée 403.11 Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières

valeurs de la série « produit national brut » . . . . . . . . . . . . . . . . . . . . . . 413.12 Série « consommation » de 1948-II à 1988-II . . . . . . . . . . . . . . . . . . . . . 413.13 Série « consommation » transformée et différenciée et corrélogrammes associés . . . 423.14 Graphiques des résidus du modèle de départ . . . . . . . . . . . . . . . . . . . . . . 423.15 Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieur

droit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit) . . . 443.16 Comparaison des prévisions et valeurs réelles pour le modèle MA(3) appliqué à la

série « consommation » transformée puis différenciée . . . . . . . . . . . . . . . . . 453.17 Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières

valeurs de la série « consommation » . . . . . . . . . . . . . . . . . . . . . . . . . 463.18 La série « investissements privés en capitaux » (à gauche) de 1948-II à 1988-II et

autocorrélations simples (à droite) . . . . . . . . . . . . . . . . . . . . . . . . . . . 473.19 Série « Investissements privés » transformée et différenciée . . . . . . . . . . . . . . 473.20 Série « Investissements privés » transformée et différenciée . . . . . . . . . . . . . . 48

ix

Page 10: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

3.21 Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieurdroit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit) . . . 50

3.22 Comparaison des prévisions et valeurs réelles pour le modèle SARIMA4((1;1;0)(3;0;0))appliqué à la série « Investissements privés » transformée puis différenciée . . . . . . 51

3.23 Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernièresvaleurs de la série « investissements privés » . . . . . . . . . . . . . . . . . . . . . 51

3.24 La série « investissements gouvernementaux » (à gauche) de 1948-II à 1988-II et au-tocorrélations simples (à droite) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3.25 Série différenciée d’un ordre et corrélogrammes . . . . . . . . . . . . . . . . . . . . 523.26 Autocorrélations simples (à gauche) et autocorrélations partielles (à droite) des résidus 533.27 Autocorrélations simples (à gauche) et autocorrélations partielles (à droite) des résidus 553.28 Comparaison des prévisions et valeurs réelles pour le modèle ARIMA(12,1,0) avec

p=1,3,12 appliqué à la série « investissements gouvernementaux » différenciée . . . . 563.29 Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières

valeurs de la série « investissements gouvernementaux » . . . . . . . . . . . . . . . 56

4.1 Réponses aux chocs unitaires de l’exemple ( 4.13) . . . . . . . . . . . . . . . . . . . 944.2 Réponses cumulatives aux chocs unitaires de l’exemple 4.15 . . . . . . . . . . . . . 964.3 Réponses aux chocs orthogonaux de l’exemple 4.16 . . . . . . . . . . . . . . . . . 99

5.1 Graphe des 5 séries transformées mais non différenciées . . . . . . . . . . . . . . . 1035.2 Diagnostics graphiques de normalité des erreurs de prévision associées à la série "pro-

duit national brut" stationnarisée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1075.3 Diagnostics graphiques de normalité des erreurs de prévision associées à la série "In-

vestissements privés" stationnarisée . . . . . . . . . . . . . . . . . . . . . . . . . . 1085.4 Réponses à l’impact sur les erreurs orthogonalisées de la série "investissements gou-

vernementaux" stationnarisée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1105.5 Réponses à l’impact sur les erreurs orthogonalisées de la série "investissements gou-

vernementaux" stationnarisée (suite) . . . . . . . . . . . . . . . . . . . . . . . . . . 1115.6 Réponses à l’impact sur les erreurs orthogonalisées de la série " investissements gou-

vernementaux" stationnarisée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1115.7 Réponses à l’impact sur les erreurs orthogonalisées de la série " investissements gou-

vernementaux" stationnarisée (suite) . . . . . . . . . . . . . . . . . . . . . . . . . . 1125.8 Prévisions de la série "taux de chômage"-ligne et cercles rouges (tracé de la série)-

ligne et cercles bleus (modèle VAR)-ligne et cercles verts(modèle univarié) . . . . . 1155.9 Prévisions de la série "produit national brut"-ligne et cercles rouges (tracé de la série)-

ligne et cercles bleus (modèle VAR)-ligne et cercles verts(modèle univarié) . . . . . 1165.10 Prévisions de la série "consommation"-ligne et cercles rouges (tracé de la série)-ligne

et cercles bleus (modèle VAR)-ligne et cercles verts(modèle univarié) . . . . . . . . 1175.11 Prévisions de la série "investissements privés"-ligne et cercles rouges (tracé de la

série)-ligne et cercles bleus (modèle VAR)-ligne et cercles verts(modèle univarié) . . 118

B.1 Prévisions de la série "produit national brut" . . . . . . . . . . . . . . . . . . . . . . 140B.2 Prévisions de la série "investissements privés" . . . . . . . . . . . . . . . . . . . . . 141

x

Page 11: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

À toi Dieu, mon Père

xi

Page 12: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Mieux vaut la fin d’une chose queson commencement.

Ecclésiaste 7 :8

xii

Page 13: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Remerciements

Rendre à César ce qui est à César...

Il est primordial de savoir reconnaître à chacun sa contribution dans ce travail de longue haleine, non

sans difficultés, mais qui a pu voir le jour et prendre fin à ce jour. Je tiens à exprimer toute ma grati-

tude :

À celui qui a accepté de diriger mes travaux, pour ses remarques, corrections et suggestions per-

tinentes : mon Directeur, le Professeur Thierry Duchesne. Je vous remercie pour votre patience,

votre compréhension, votre accueil chaleureux dans votre bureau qui était toujours ouvert, même

sans rendez-vous. Je ne saurais sans doute oublier le financement de mes travaux de recherche.

À celui qui a su, par son expertise en la matière, me faire des commentaires pointus et à propos : mon

codirecteur, le Professeur Michel Carbon. Vous avez toujours été tel un père, prêt à me fournir toutes

les bonnes références afin de faire de ce mémoire un travail de qualité. Vos stylos, quelques furent

leurs couleurs ont laissé une marque indélébile sur ce mémoire.

À tout le département de Mathématiques et Statistique et tous les Professeurs, collègues et l’adminis-

tration qui le composent, particulièrement Messieurs Guenette, Rivest, Lakhal-Chaieb et Mesdames

Emmanuelle Reny-Nolin, Anne-Sophie Charest et Sylvie Drolet.

À Monsieur Jean-Claude Mirassou de la Présidence de la République de Côte d’Ivoire. Les années de

soutien financier sont innombrables.

À ma mère, la championne en chef, N’Da Amani pour qui j’ai toujours été une championne, mon papa

chéri Dibi Georges Emmanuel, à celui qui m’a donné la vie, Feu Chukunyère Patrick et à mes soeurs

Diane, Marlène, Phoebé, Ange, Claudia et Ruth et grands-frères. Merci Maman pour tes conseils, tes

prières.

À mes précieux Danielle et Emmanuel Akaffou, Rachelle et Angelin Kouadio, Alice et Yves Odia, à

Pasteur Benoît, Pasteurs Michel et Diane, à Eunice Nono Kamga, à mes colocataires Adèle, Elfried,

Chancelle, Mariam, Thomas, Dimitri, Edouard, Laurent et Rebecca, à Franck Mpodé, Bénédicte et

Jean-Paul, Sara, Nora, Aurore, Secondine, Jessy, Elodie, Anemone, à Bertha, Iris, Francia, Glein,

Christophe, Maman Joyce, Anita, Angela, Acsa, Hervé, Grace, Calixte, M. Bouda et toute ma famille

en Christ. Vous ne pouvez savoir à quel point votre présence m’a aidée à grandir. Nos larmes de cha-

grin se transformées en larmes d’allégresse.

Enfin, à Celui qui donne au-delà de mon entendement, celui qui a toujours pourvu à mes besoins, qui

m’a donné son Amour inconditionnel et qui m’a fait découvrir la vraie vie : mon Sauveur Jésus-Christ.

xiii

Page 14: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Merci car sans Toi, j’aurais décroché mais tu as placé sur mon chemin toutes ces personnes extraor-

dinaires qui ont su m’encourager et m’ont aidée dans bien de domaines. Je te remercie d’ores et déjà

pour cette nouvelle saison qui commence pour moi.

... et à Dieu ce qui est à Dieu.

xiv

Page 15: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Introduction

En économie, des modèles énoncés par les théoriciens ne sont pas souvent basés sur des hypothèses

statistiques, mais plutôt sur des a priori, des idées ou hypothèses "arrêtées" qui n’ont pas quelques fois

des preuves qui sont vérifiables. Cependant, Sims (1996) a affirmé :"Méfiez-vous des a priori

théoriques. Laissez parler les données" 1. Les a priori sont certes importants car ils sont

une bonne base sur laquelle s’appuyer pour "débuter" une étude ou même avoir des connaissances

utiles sur les paramètres étudiés, mais il ne faudrait pas s’y limiter. Au contraire, il faut se servir

des données dont on dispose pour effectuer des tests et produire des résultats vérifiables et quanti-

fiables. Ces résultats nous permettent de parvenir à des conclusions sur les hypothèses énoncées : les

confirmer ou les infirmer. Les conclusions obtenues seront ainsi plus fiables et mèneront de ce fait à

des prises de décision sur des politiques plus appropriées. L’analyse des séries temporelles fait partie

des tâches auxquelles s’adonnent économètres et statisticiens, c’est-à-dire, se servir de leur expertise

afin d’obtenir des modèles qui s’ajusteraient au mieux aux données étudiées, ressortir "le meilleur"

de celles-ci et parvenir de ce fait à donner les informations pertinentes aux demandeurs, employeurs,

clients intéressés par leurs recherches mathématiques et statistiques sur ces données économiques.

Plusieurs approches de modélisation adaptées selon les séries étudiées, dont deux que nous présen-

tons, ont été utilisées pour faire de la modélisation des séries chronologiques. Une première est de

modéliser et prédire un ensemble de séries individuellement à partir de leur propre passé. Ainsi, dans

les années 70, Box et Jenkins proposent une approche univariée en s’inspirant des travaux introduits

par Yule (1926) (autorégressifs AR), Slutzky (1937) (moyenne mobile MA) et Wold (1938) (au-

torégressifs moyenne mobile ARMA) pour développer les modèles ARIMA (autorégressifs moyenne

mobile intégrés).

Différentes études 2 avaient montré à l’époque que ces modèles ARIMA pouvaient être meilleurs com-

parés aux modèles économétriques jugés lourds et complexes, du point de vue du nombre d’équations

et de la quantité de paramètres. Par ailleurs, les modèles économétriques des années 70, qui étaient

des modèles à équations simultanées, se sont avérés médiocres suite aux chocs de ces années-là parce

qu’ils ne parvenaient pas à produire de bonnes prévisions. Cette situation a favorisé l’utilisation ac-

crue de l’approche univariée qui est devenue populaire au détriment des modèles économétriques

1. (Gossé and Guillaumin, 2011, p. 3)2. Voir Makridakis and Hibon (1997, p. 2)

1

Page 16: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

keynesiens qui ont reçu beaucoup de critiques.

Une seconde approche multivariée permet de modéliser simultanément plusieurs séries, ce qui permet

en outre d’étudier les liens entre ces dernières. Christopher Sims (1980) , dans sa critique des modèles

macroéconométriques keynesiens, a proposé un type de modèle multivarié de séries temporelles ap-

pelé les vecteurs autorégressifs, ou VAR. Ces processus K-vectoriels (vecteur de K composantes) sont

représentés par K équations linéaires, chaque équation d’une série étant une combinaison linéaire des

valeurs passées de celle-ci et des valeurs passées des K-1 autres composantes. Selon Stock and Wat-

son (2001), cet outil statistique, facile à utiliser et à interpréter, s’avérait être une solution alternative

adéquate pour répondre aux quatre missions d’un macroéconomètre, soit la description des données,

la prévision, l’inférence structurelle et l’analyse des politiques. Les modèles VAR seraient donc la

voie afin de décéler les liens dynamiques entre les séries. Gossé and Guillaumin (2011) affirment que

les processus VAR produisent des prévisions qui sont meilleures que celles obtenues des modèles

macroéconométriques, ce que confirme Litterman (1986). À partir de ces modèles, on peut non seule-

ment améliorer la prévision mais aussi arriver à répondre à des questions d’ordre structurel. En effet,

l’on est capable de ressortir les relations de causalité notamment la notion d’exogénéité faible, forte

ou stricte des variables et mesurer l’impact des chocs subis par chacune des variables sur les autres.

L’objectif de ce mémoire est d’étudier cette modélisation multivariée à travers l’utilisation du proces-

sus VAR. Tout d’abord, nous allons le définir, présenter et interpréter ses composantes. Nous allons

aussi étudier les méthodes d’inférence sur les paramètres du modèle. Par ailleurs, nous allons ap-

prendre comment spécifier une structure adéquate du modèle mais aussi identifier les liens dynamiques

entre les séries et mesurer la force de ces liens par l’analyse structurelle. Cette analyse structurelle se

traduit par l’étude des liens de causalité entre les séries. Ne se limitant pas à observer des liens de cau-

salité, nous voudrions connaître le sens de cette causalité par la fonction de réponse impulsionnelle ou

impact d’une impulsion en faisant subir un choc à une série et en analysant les effets immédiats et/ou

temporels existants ou non de ce choc sur les autres composantes du processus. Par la décomposition

de la variance de l’erreur de prédiction, nous observerons la part attribuable à chaque composante

dans le calcul de l’erreur de prédiction. Enfin, nous allons analyser la valeur ajoutée de l’analyse mul-

tivariée par les processus VAR comparativement à l’analyse univariée grâce au calcul d’une mesure

d’erreur et à l’observation de graphiques de prévisions. Pour ce faire, nous allons essayer de prédire

un vecteur de cinq séries temporelles économiques trimestrielles dans un contexte multivarié et de

vérifier si leur prévision est meilleure que celle de la modélisation univariée.

Le mémoire se compose de cinq chapitres. Dans le premier, nous définissons les divers concepts et

outils statistiques qui seront fort utilisés dans les chapitres suivants. Le chapitre 2 présente les modèles

de Box et Jenkins et la méthodologie proposée pour l’analyse univariée des séries. Une application de

cette méthode à un jeu de données réelles composé de cinq séries est proposée dans le chapitre 3. Dans

le quatrième chapitre, nous abordons le sujet des modèles VAR(p). Au chapitre 5, nous appliquons

cette méthode au même jeu de données qu’au chapitre 3. Enfin, nous terminons ce mémoire par une

conclusion.

2

Page 17: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Chapitre 1

QUELQUES OUTILS ETDÉFINITIONS STATISTIQUES

1.1 Processus stochastique

Le cours hebdomadaire d’une action, les précipitations journalières ou le taux d’inflation mensuel

sont des ensembles de suites de valeurs indexées par le temps appelées séries temporelles. Une série

temporelle est un processus, une suite d’opérations ou d’événements. Lorsque l’occurence de ces

événements n’est pas déterministe, on parle de processus stochastique. Dans cette section, il s’agira

de définir ce qu’est un processus stochastique, d’en énumérer quelques caractéristiques importantes

et d’étudier quelques classes de processus stochastiques qui nous seront plus utiles dans ce mémoire,

comme par exemple un processus du second ordre.

Définition 1.1 Un processus stochastique est une famille de variables aléatoires (X(t), t ∈ T ), toutes

définies sur l’espace de probabilité (Ω,A ,P) et à valeurs dans un même espace mesurable (E,E ).

Souvent, E = R ou Rn et E est sa tribu borélienne. La loi du processus est l’image Px de P par X

(où X = (X(t), t ∈ T )). (E,E ) est appelé l’espace d’états du processus. Si E =R, alors le processus

est dit réel unidimensionnel (ou univarié). Si E = Rn, alors le processus est multidimensionnel de

dimension n. T est appelé aussi espace des temps. T est soit R (ou un intervalle de R) et dans ce cas,

le processus sera dit continu, soit Z (ou un sous-ensemble de Z comme 1,2, . . . ,n) et le processus

sera dit discret.

Proposition 1.1 (Théorème de Kolmogorov) Soit µJ : B(R|J|)→ [0;1]J ⊂ I une famille de mesures

de probabilité indexée par les parties finies J de I et vérifiant la condition suivante :

Pour toute partie J = t1, . . . ,tn de I telle que t1 < t2 < · · ·< tn et pour 1≤ i≤ n et A1, . . . ,An ∈B(R),

µJ(A1×·· ·×An) = µJ−ti(A1× . . .Ai−1×Ai+1×·· ·×An) si At =R.

3

Page 18: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Alors, il existe un espace probabilisé (Ω,A ,P) et un processus stochastique Xt ; t ∈ I tel que, pour

toute partie finie J ⊂ I, la loi image de P par (Xt1 , . . . ,Xtn) coïncide avec µJ .

Dans la suite, notre étude portera sur des processus (X(t), t ∈ T ) à espace des temps discret. En

d’autres termes, T sera soitZ, soit un sous-ensemble deZ. Nous nous concentrerons sur les processus

du second ordre, qui sont définis comme suit.

Définition 1.2 Un processus stochastique X = (X(t), t ∈ T ) est dit du second ordre si et seulement si

E(X2t )< ∞, ∀ t ∈ T , c’est-à-dire si son moment d’ordre deux existe.

Grâce à l’inégalité de Schwarz, pour les variables du processus du second ordre, la moyenne existe,

ainsi que les covariances γ(s,t) = Cov(Xs,Xt). On pourra noter L2 = L2(Ω,A ,P), l’ensemble des

variables aléatoires définies sur (Ω,A ,P), de carré intégrable. Et on notera X ∈ L2, le fait que X est

un processus du second ordre.

Tous les processus abordés dans la suite de ce mémoire seront considérés de second ordre.

1.2 Stationnarité

La modélisation du comportement aléatoire d’une série temporelle est beaucoup plus simple lorsque

certains aspects de la loi de (X(t), t ∈Z) ne changent pas lorsque t varie. On parle alors de processus

ou de séries ayant certaines propriétés de stationnarité. Plus formellement, il existe deux types de

stationnarité : celle au sens strict, celle au sens faible.

Définition 1.3 Un processus (X(t), t ∈ Z) est dit stationnaire au sens strict si les lois des vecteurs

finis dimensionnels (Xt1 ,Xt2 ,. . . ,Xtk) et (Xt1+h,Xt2+h,. . . ,Xtk+h) coïncident ∀ k ∈N∗,∀ t1,. . . , tk ∈Z et

∀ h ∈N.

Définition 1.4 Un processus (X(t), t ∈Z) est dit stationnaire au sens faible si et seulement si :

– Son espérance est constante au cours du temps, c’est-à-dire, E[Xt ] = µ,∀ t ∈Z ;

– Sa fonction d’autocovariance dépend seulement de l’écart de temps t2−t1, c’est-à-dire, Cov(Xt1 ,Xt2)=

Cov(Xt1+c,Xt2+c) = γ(t2− t1) avec c, une constante quelconque. Dans ce cas, E(X2t ) = γ(0)+ µ2

est une constante,∀ t ∈Z.

Pour la suite de cet ouvrage, (X(t), t ∈Z) sera dit stationnaire s’il l’est au sens faible.

La stationnarité implique non seulement une absence de tendance, mais aussi une variance constante

ou homoscédasticité. La stationnarité au sens strict implique celle au sens faible. Ces deux notions

coïncident uniquement dans le cas d’un processus gaussien.

4

Page 19: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

1.3 Bruit blanc

Définition 1.5 (Bruit blanc faible) Un bruit blanc faible est un processus (εt , t ∈Z) centré (E(εt) =

0), dont les variables sont non corrélées, c’est-à-dire que Cov(εt1 ,εt2) = 0 , ∀ t1 6= t2 .

Le bruit blanc est dit fort si ses variables sont indépendantes.

Dans ce mémoire, on fera toujours référence à la notion de bruit blanc faible lorsqu’on énoncera le

concept de bruit blanc.

Définition 1.6 (Bruit blanc gaussien) Un processus (εt , t ∈Z) est un bruit blanc gaussien s’il s’agit

d’un bruit blanc dont les variables sont indépendantes et identiquement distribuées de loi normale de

moyenne nulle.

1.4 Autocovariance et autocorrélation

Dans cette section, nous présentons les fonctions d’autocorrélation et d’autocovariance qui sont des

outils bien utiles à différentes étapes des études de séries temporelles.

Définition 1.7 La fonction d’autocovariance d’un processus (X(t), t ∈Z), notée γ(.), est définie par :

∀ t1, t2 ∈Z, γ(t1,t2) =Cov(Xt1 ,Xt2).

En supposant t2 = t1 +h, la fonction d’autocovariance d’un processus stationnaire est :

∀ h ∈Z, γ(t1,t1 +h) = γ(h) = E[(Xt1−µ)(Xt1+h−µ)] = γ(−h),

où µ = E[Xt ] est l’espérance du processus.

Remarque : La fonction γ(.) est paire.

Pour t1 = t2 = t, on a en particulier pour un processus stationnaire :

γ(t, t) =Var(Xt) = γ(0),

ce qui montre que la variance est bien constante dans le cas stationnaire.

Définition 1.8 La fonction d’autocorrélation d’un processus (X(t), t ∈Z), notée ρ(.), est définie par :

ρ(t1,t2) =γ(t1,t2)√

γ(t1,t1) · γ(t2,t2),∀ (t1, t2) ∈Z2

5

Page 20: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

La fonction d’autocorrélation simple (ACF) d’un processus stationnaire, notée ρ(h), est définie par :

ρ(h) =γ(t1,t1 +h)√

γ(t1,t1)γ(t1 +h,t1 +h)=

γ(h)γ(0)

,∀ h ∈Z.

Remarque : La fonction ρ(.) est paire.

Définition 1.9 La fonction d’autocorrélation partielle d’un processus (X(t), t ∈ Z), notée r(.), est

définie par

r(t1,t2) =Cov(Xt1−X∗t1 ,Xt2−X∗t2)√

Var(Xt1−X∗t1) ·Var(Xt2−X∗t2).

où X∗t1 et X∗t2 sont respectivement les meilleures estimations linéaires affines de Xt1 et Xt2 en fonction

des valeurs Xt1+1, . . . ,Xt2−1, t2 > t1 .

Lorsque t2 = t1, r(t1,t2) = r(t1,t1) = r(t2,t2) = 1.

Et la fonction d’autocorrélation partielle (PACF) d’un processus stationnaire, notée r(h), est

r(h) =Cov(Xt −X∗t ,Xt+h−X∗t+h)√

Var(Xt −X∗t )Var(Xt+h−X∗t+h), ∀ h ∈Z,

où X∗t+k est la meilleure estimation linéaire affine de Xt+k en fonction des valeurs Xt+1, . . . ,Xt+k−1,

k 6 2. Dans ce cas, r(h) est le coefficient de corrélation entre Xt et Xt+k lorsqu’on ôte à Xt et Xt+k

toute l’information linéaire affine en termes de variables intermédiaires. Lorsque h = 0, r(0) = 1.

Remarque : La fonction r(.) est paire.

Remarque : On a que r(1) = ρ(1). Ceci s’explique bien par le fait qu’il n’existe aucune variable

intermédiaire entre deux variables consécutives.

Définition 1.10 (Définition équivalente de la fonction d’autocorrélation partielle) La fonction d’au-

tocorrélation partielle d’un processus stationnaire, notée r(h), peut être aussi définie comme le der-

nier coefficient φhh dans la projection linéaire de Xh+1 sur ses h dernières valeurs 1. Cette projection

linéaire s’exprime par ∑hj=1 φh jXh+1− j. Dans ce cas, r(h) = φhh est obtenue en résolvant le système

d’équations suivant :

1. Voir (Brockwell and Davis, 2009, p. 102)

6

Page 21: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

ρ(0) ρ(1) . . . ρ(h−2) ρ(h−1)

ρ(1) ρ(0) . . . ρ(h−3) ρ(h−2)... . . .

. . . . . ....

ρ(h−2) ρ(h−3) . . . ρ(0) ρ(1)

ρ(h−1) ρ(h−2) . . . ρ(1) ρ(0)

φh1

φh2...

φhh−1

φhh

=

ρ(1)

ρ(2)...

ρ(h−1)

ρ(h)

De la résolution de ce système d’équations, on obtient :

r(h) =

det

ρ(0) ρ(1) . . . ρ(h−2) | ρ(1)

ρ(1) ρ(0) . . . ρ(h−3) | ρ(2)... . . .

. . . . . . |...

ρ(h−2) ρ(h−3) . . . ρ(0) |...

ρ(h−1) ρ(h−2) . . . ρ(1) | ρ(h)

det

ρ(0) ρ(1) . . . ρ(h−2) ρ(h−1)

ρ(1) ρ(0) . . . ρ(h−3) ρ(h−2)... . . .

. . . . . ....

ρ(h−2) ρ(h−3) . . . ρ(0) ρ(1)

ρ(h−1) ρ(h−2) . . . ρ(1) ρ(0)

(1.1)

où det(M) est le déterminant de la matrice M.

Remarque : Cette propriété est la conséquence du théorème de Frisch and Waugh (1933).

1.5 Estimation de la moyenne et des fonctions d’autocovariance,d’autocorrélation et d’autocorrélation partielle d’un processusstationnaire

La plupart du temps, la vraie valeur des paramètres associés à une population n’est pas connue. Des

échantillons sont alors tirés en vue d’avoir une idée, la plus proche possible, de la réalité. Ces para-

mètres sont alors estimés. Dans cette partie, il s’agira de définir certains estimateurs, dont ceux des

fonctions présentées à la dernière section, et quelques unes de leurs propriétés.

Dans tout ce qui suit, on observe un échantillon X1,. . . ,Xn de taille n d’un processus stationnaire

(X(t), t ∈ Z) dont µ est la moyenne, γ(.) sa fonction d’autocovariance, ρ(.) sa fonction d’autocorré-

lation et r(.) sa fonction d’aucorrélation partielle.

Définition 1.11 (Un estimateur de la moyenne) On estime la moyenne µ du processus (X(t), t ∈Z)par :

7

Page 22: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

X =1n

n

∑t=1

Xt . (1.2)

Proposition 1.2 (Convergence et loi asymptotique) X converge en moyenne quadratique vers µ ,

c’est-à-dire, lorsque n→ ∞,

Var[X ] = E[(X−µ)2]→ 0, si γ(n)→ 0

et

nVar[X ]−→∞

∑h=−∞

γ(h), si∞

∑h=−∞

|γ(h)|< ∞.

De plus, si Xt = µ +∑∞j=−∞ ψ jZt− j où Zt est une suite de variables indépendantes et identiquement

distribuées de moyenne 0 et de variance σ2, ∑∞j=−∞ |ψ j|< ∞ et ∑

∞j=−∞ ψ j 6= 0 alors,

X est asymptotiquement normale de moyenne µ et de variance ∑∞h=−∞

γ(h)n = σ2(∑∞

j=−∞ ψ j)2.

Cette proposition est tirée des pages 218 et 219 de Brockwell and Davis (2009).

Définition 1.12 (Un estimateur de la fonction d’autocovariance) On estime la fonction d’autoco-

variance γ(h) de (X(t), t ∈Z) par :

γ(h) =1n

n−h

∑t=1

(Xt − X)(Xt+h− X),∀ h = 0, . . . ,n−1, n≥ 1. (1.3)

Cet estimateur est biaisé. Pour en obtenir un qui ne l’est pas, on remplacera 1n par 1

n−h .

Proposition 1.3 (Loi asymptotique de la fonction d’autocovariance) Si Xt = µ+∑∞j=−∞ ψ jZt− j où

Zt est une suite de variables indépendantes et identiquement distribuées de moyenne 0 et de va-

riance σ2, ∑∞j=−∞ |ψ j|< ∞ et E[Z4] = ησ4 < ∞, alors même si γ(h) est biaisé, sa loi asymptotique est

de moyenne γ(h) sous certaines conditions de régularité (proposition 7.3.4, page 230 de Brockwell

and Davis (2009)).

Définition 1.13 (Un estimateur de la fonction d’autocorrélation et loi asymptotique) On estime la

fonction d’autocorrélation d’un processus stationnaire, notée ρ(h) par :

ρ(h) =γ(h)γ(0)

,∀ h = 0, . . . ,n−1. (1.4)

Si de plus, Xt = µ +∑∞j=−∞ ψ jZt− j, où Zt est une suite de variables indépendantes et identiquement

distribuées de moyenne 0 et de variance σ2, ∑∞j=−∞ |ψ j|<∞ et ∑

∞j=−∞ ψ2

j | j|<∞, alors ∀h∈ 1,2,...,

8

Page 23: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

le vecteur ρ(h) a une loi asymptotique normale de moyenne ρ(h) et de variance n−1w avec

ρ(h) = [ρ(1), . . . ,ρ(h)] ,

ρ(h) = [ρ(1), . . . ,ρ(h)] ,

et w est la matrice de variances-covariances donnée par la formule de Bartlett mentionnée à la page

221 de Brockwell and Davis (2009)).

On peut aussi écrire :

Var[ρ(h)]≈ n−1, (h > q),

où les ACF des q premiers retards sont significativement non nuls.

Définition 1.14 (Un estimateur de la fonction d’autocorrélation partielle) On estime la fonction d’au-

tocorrélation partielle d’un processus stationnaire (X(t), t ∈ Z) en remplaçant toutes les autocorré-

lations ρ(.) par leurs estimateurs respectifs dans la formule ( 1.1). On a donc :

r(h) =

det

ρ(0) ρ(1) . . . ρ(h−2) | ρ(1)

ρ(1) ρ(0) . . . ρ(h−3) | ρ(2)... . . .

. . . . . . |...

ρ(h−2) ρ(h−3) . . . ρ(0) |...

ρ(h−1) ρ(h−2) . . . ρ(1) | ρ(h)

det

ρ(0) ρ(1) . . . ρ(h−2) ρ(h−1)

ρ(1) ρ(0) . . . ρ(h−3) ρ(h−2)... . . .

. . . . . ....

ρ(h−2) ρ(h−3) . . . ρ(0) ρ(1)

ρ(h−1) ρ(h−2) . . . ρ(1) ρ(0)

(1.5)

Proposition 1.4 (Propriétés asymptotiques de la fonction d’autocorrélation partielle) Si Xt est

un bruit blanc (respectivement un processus autorégressif AR(p)), alors

Var[ ˆr(h)]≈ n−1, (h > p),

où les PACF de retards 1 à p sont significativement non nulles.

La notion de processus autorégressif sera abordée dans le chapitre 2. Ces propriétés asymptotiques

nous permettront de définir des bandes de confiance pour les paramètres présentés dans la section

précédente.

9

Page 24: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

1.6 Opérations sur les séries

Dans cette section, nous allons définir l’opérateur retard et l’opérateur différenciation. Ces opérateurs

seront très utiles car ils nous permettront de définir plusieurs types de modèles à l’aide d’une notation

compacte et efficace.

Définition 1.15 (Opérateur retard) Soit B, l’opérateur retard, (Xt , t ∈Z) , une série de valeurs et k,

l’ordre du retard. Alors

BkXt = Xt−k,∀t ∈Z, ∀k ∈N.

L’opérateur B permet donc de reculer de k pas à partir d’une position t.

Bien entendu, si Xt =C,∀t ∈Z, alors

BkXt = BkC =C, ∀k ∈N,

car, une constante ne peut varier.

L’observation des autocorrélations simples (ACF) et du graphique d’une série permet de détecter

la présence ou non de problèmes de stationnarité tels que la tendance. Celle-ci, lorsqu’elle existe,

démontre un lien plus ou moins important entre les réalisations de la série. Elle est détectée quand les

autocorrélations simples ne décroissent pas vers 0 exponentiellement (très rapidement). Par ailleurs,

elle peut être décélée lorsque le graphique de la série montre des valeurs qui suivent un certain schéma

(courbe, croissance ou décroissance, etc.) général d’évolution dans le temps. Dans le cas échéant,

il y a une forte autocorrélation alors qu’on désire travailler avec une série qui soit stationnaire. La

différenciation se veut une solution pour faire disparaître une tendance, et ainsi faire décroître les ACF

vers 0 exponentiellement. Une autre façon de vérifier la nécessité d’une différenciation est d’ajuster

la série à un processus autoregressif d’ordre 1 noté AR(1) (voir chapitre 2) et de vérifier si la valeur

absolue du coefficient associé au modèle trouvé est voisine de 1 mais est inférieure à 1.

Définition 1.16 (Différenciation) Soit ∇, l’opérateur différenciation, (X(t), t ∈ T ), une série de n

valeurs et d, l’ordre de différenciation.

On a

∇dXt =

d

∑k=0

(−1)kCdk Xt−k,∀d ≥ 1,d ≤ n−1.

Exemple 1.1 Pour des ordres de 1 et de 2, la définition 1.16 nous donne

∇Xt = Xt −Xt−1,

10

Page 25: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

∇2Xt = (Xt −Xt−1)− (Xt−1−Xt−2) = Xt −2Xt−1 +Xt−2.

L’ordre d représente donc le nombre de différenciations appliquées à la série et le nombre de valeurs

de la série obtenue sera donc égal à n− d. Lorsqu’elle est d’ordre 1, la différenciation élimine une

tendance linéaire. Une différenciation d’ordre 2 peut être nécessaire dans le cas d’une tendance qua-

dratique. La différenciation est certes utile, cependant il faut éviter la surdifférenciation car elle crée

plus de problèmes qu’elle n’en règle. En effet, elle rajoute de la dépendance là où il n’en existe au-

cune, alors que l’objectif visé est d’obtenir une série stationnaire. Il faut donc s’assurer d’appliquer

le nombre adéquat de différenciations, d’avoir ainsi l’ordre optimal. Une manière d’identifier la sur-

différenciation d’une série est de vérifier si la valeur de l’estimateur ρ(1) avoisine -0.5 pendant que

celles des autres ρ(h) sont petites 2.

En notant I, l’opérateur identité, on peut remarquer que ∇ = I−B car,

∇Xt = Xt −Xt−1 = Xt −BXt = (I−B)Xt .

Une autre forme de différenciation est avérée lorsqu’on observe une tendance saisonnière de la série,

c’est-à-dire, la présence, à des intervalles réguliers, de pics. Le caractère saisonnier peut être observé

grâce au graphique de la série et à l’autocorrélogramme simple. On remarquera pour ce dernier que

les ACF ne décroissent pas vers 0 très rapidement aux multiples de la saison. À titre d’exemple, les

températures sont saisonnières.

Définition 1.17 (Opérateur de différenciation saisonnière) L’opérateur ∇s est défini par

∇sXt = Xt −Xt−s,

où s est la saison.

En d’autres termes

∇s = I−Bs.

Et pour une différenciation saisonnière d’ordre D,

∇D

s = (I−Bs)D.

Il faut différencier autant que nécessaire tout en évitant de surdifférencier. De plus, le nombre de

valeurs de la série différenciée sera réduit de l’ordre multiplié par la saison. Par exemple, si on observe

50 valeurs trimestrielles d’une série avec saisonnalité annuelle (s = 4), la série obtenue après une

différenciation saisonnière aura 46 valeurs. Il est possible d’observer plus d’une sorte de tendance.

Une ou des différenciation(s) saisonnière(s) et simple(s) s’avèreront alors nécessaires.

2. Voir (Vandaele, 1983, p. 67)

11

Page 26: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

1.7 Transformation de Box et Cox

Dans bien des situations, il arrive que la variable dépendante étudiée présente des variations impor-

tantes et irrégulières dans ses valeurs. Sa variance n’est donc pas homogène : c’est l’hétéroscédasticité.

Afin de régler ce problème, il est proposé d’appliquer une transformation à notre variable. Dans les

prochaines lignes, nous allons discuter de la transformée de Box-Cox, laquelle a été proposée par Box

and Cox (1964).

Définition 1.18 La fonction g de la transformée de Box-Cox appliquée à une variable aléatoire posi-

tive Y est définie par

g(y;λ ) =

yλ−1

λ, si λ 6= 0,

lny, si λ = 0.

Le paramètre λ sera estimé par la méthode du maximum de vraisemblance en même temps que

d’autres paramètres. S’il est proche de 1, il n’y aura pas lieu d’appliquer une transformation de Box

et Cox sur les données initiales. S’il est proche de 0, la transformation logarithmique est conseillée.

Cette dernière est souvent utilisée à cause de sa tendance à supprimer ou réduire fortement les grandes

fluctuations.

1.8 Processus linéaire

Définition 1.19 (Xt , t ∈ Z) est un processus linéaire s’il est une combinaison linéaire des variables

d’un bruit blanc (εt , t ∈Z). Il s’écrit :

Xt = µ +∞

∑k=−∞

ψkεt−k,∞

∑k=0

ψ2k < ∞,

où µ = E[Xt ].

Cette définition nous permet d’introduire le théorème de la décomposition de Wold.

Définition 1.20 Tout processus (Xt , t ∈Z) stationnaire faible non déterministe de moyenne nulle peut

être décomposé en deux composantes mutuellement non corrélées. L’une est une combinaison linéaire

des variables d’un bruit blanc et l’autre est un processus déterministe, c’est-à-dire, qui peut être

exactement prédit par une fonction linéaire de ses observations passées. On écrit (Xt , t ∈ Z) sous la

forme

Xt =∞

∑k=0

ψkεt−k +dt ,

1. ψ0 = 1 et ∑∞k=0 ψ2

k < ∞ ;

12

Page 27: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

2. εt , t ∈Z est un bruit blanc de variance σ2ε ;

3. La suite de coefficients (ψk) et la suite εt ,∈Z sont uniques ;

4. Le processus dt , t ∈Z est déterministe ;

5. εt ∈M xt ,M

xn étant l’ensemble de toutes les combinaisons linéaires des Xs, s 6 n ;

6. E[dsεt ] = 0, ∀ t, s.

Lorsque la composante déterministe est nulle, le processus est dit purement non déterministe.

Notons qu’on peut remplacer ∑∞k=0 ψ2

k < ∞ par ∑∞k=0 |ψk| < ∞ parce que la seconde implique la pre-

mière. Par ailleurs, cette dernière fait appel à la condition d’absolue sommabilité d’une suite ψk qui

est satisfaite lorsqu’un processus Xt est stationnaire. Elle garantit aussi l’unicité du processus Xt .

Ce théorème implique qu’on peut représenter tout processus purement non déterministe sous la forme

d’un processus ARMA(p,q), lequel sera l’objet du prochain chapitre.

13

Page 28: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Chapitre 2

LES MODÈLES DE BOX ET JENKINS

Dans l’histoire des séries temporelles, des scientifiques ont introduit différentes manières d’aborder

le sujet de leur ajustement à des séries observées. Pour ne citer que ceux-ci, Yule (1926) est celui

qui, le premier, a introduit le concept des processus autorégressifs (AR(p)). Slutzky (1937) a, quant à

lui, en 1937, présenté les processus moyenne mobile (MA(q)). C’est enfin en 1938 que Wold (1938)

combina ces deux concepts et montra que les modèles autorégressifs moyenne mobile (ARMA(p,q))

pouvaient être utilisés pour modéliser les séries stationnaires. En 1970, Box and Jenkins (1970) ont

proposé une méthode en 3 étapes afin d’appliquer ces modèles à des séries réelles comme le cours

d’une action ou des données économiques. Ces étapes sont l’identification, l’estimation et les tests

d’adéquation. Par ailleurs, il arrive qu’une série ait une composante saisonnière et/ou non stationnaire.

Dans les prochaines lignes, nous allons non seulement décrire ces étapes qui s’appliquent tout aussi

bien aux processus non stationnaires que stationnaires, mais aussi donner de plus amples détails sur

ces modèles, plus commnunément connus sous le nom de modèles de Box et Jenkins.

2.1 Les modèles ARIMA(p,d,q)

2.1.1 Les processus autorégressifs d’ordre p (AR(p))

Soit Xt , un processus de moyenne µ . Nous pouvons définir X , la version centrée de Xt , en prenant

Xt = Xt −µ .

Définition 2.1 Un processus Xt = Xt −µ autorégressif d’ordre p, noté AR(p), s’écrit comme

Φ(B)Xt = Xt −ϕ1Xt−1−ϕ2Xt−2−·· ·−ϕpXt−p = εt ,ϕp 6= 0;

La valeur Xt dépend des p dernières variables Xt−1, · · · ,Xt−p et du bruit blanc εt .

Par exemple, dans un AR(3), Xt est prédite par ses 3 valeurs précédentes. Sa formule est Xt = ϕ1Xt−1+

ϕ2Xt−2 +ϕ3Xt−3 + εt .

14

Page 29: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

De par la définition d’un processus autorégressif, on s’attend logiquement à ce que le présent et le

futur soient prédits par le passé. En effet, puisque "l’on récolte ce que l’on sème", l’effet ne peut que

suivre sa cause et non l’inverse. La condition de causalité, qui induit des restrictions sur des paramètres

du modèle autorégressif, a été introduite afin de parer le problème des processus explosifs, c’est-à-

dire, ceux qui dépendent du futur. Prenons l’exemple d’un AR(1) explosif, qui dépend du futur, dont

|ϕ| > 1. L’objectif est de trouver une manière de l’exprimer mathématiquement afin de retrouver la

forme d’un processus causal, lequel sera présenté plus tard dans cette section.

En partant de l’écriture générale d’un processus AR(1), on a

Xt = ϕXt−1 + εt = ϕ(ϕXt−2 + εt−1)+ εt .

Par récursivité, on obtient :

Xt =∞

∑k=0

ϕkεt−k.

Cependant, puisque |ϕ|> 1, lorsque k→ ∞, |ϕ|k aura tendance à augmenter au point où ∑j−1k=0 ϕkεt−k

ne convergera pas en moyenne quadratique lorsque j→ ∞.

En lieu et place de la forme usuelle, car on ne peut exprimer les processus explosifs selon la formule

obtenue précédemment, on va écrire le processus en fonction des valeurs futures :

Xt = ϕXt−1 + εt ⇐⇒ Xt−1 = ϕ−1Xt −ϕ

−1εt .

On peut alors écrire :

Xt = ϕ−1Xt+1−ϕ

−1εt+1

Xt+1 = ϕ−1Xt+2−ϕ

−1εt+2

...

Xt+k−1 = ϕ−1Xt+k−ϕ

−1εt+k.

Par récursivité, on obtient :

Xt = ϕ−kXt+k−

k

∑i=1

ϕ−i

εt+i.

Par convergence, l’expression ci-dessus se réduit à

Xt =−∞

∑k=1

ϕ−k

εt+k

En effet, |ϕ−k|< 1,∀ k ∈N∗ et −∑∞k=1 ϕ−kεt+k convergera en moyenne quadratique.

En généralisant au cas AR(p), on impose que les modules des racines du polynôme caractéristique

Φ(B) soient tous supérieurs à 1.

Nous allons maintenant définir ce qu’est un processus causal.

15

Page 30: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Définition 2.2 (Processus causal) Un processus AR(p), défini par Φ(B)Xt = εt , est dit causal s’il

peut être exprimé sous forme d’un processus linéaire :

Xt =∞

∑k=0

φkεt−k = ψ(B)εt ,

où εt , t ∈Z est un bruit blanc, ψ(B) = ∑∞k=0 ψkBk, et ∑

∞k=0 |ψk|< ∞ ; on fixe ψ0 = 1.

Proposition 2.1 Un processus AR(p) est causal si et seulement si Φ(z) 6= 0 pour tout complexe z

dont le module est inférieur ou égal à 1. Les coefficients du processus linéaire lui correspondant sont

déterminés en résolvant l’équation :

ψ(z) =∞

∑k=0

ψkzk =1

Φ(z), |z| ≤ 1.

Donc (X , t ∈Z) est causal si et seulement si les racines du polynôme autorégressif sont hors du disque

unité.

Or 1Φ(z) =

11−ϕ1z−ϕ2z2−···−ϕpzp . On en déduit que ψ0 = 1.

Les propriétés ci-dessous sont caractéristiques des processus AR(p).

Proposition 2.2 (Propriétés des processus AR(p)) Les autocorrélations simples (ACF) d’un proces-

sus AR(p) décroissent exponentiellement vers 0 alors que les autocorrélations partielles (PACF) s’an-

nulent à partir du rang p+1.

Les modules des racines de l’équation caractéristique associée au polynôme Φ(B) doivent être situés

hors du disque unité, donc, supérieurs à 1. L’équation caractéristique associée à Φ(B) est

φ(z) = 1−ϕ1z−ϕ2z2−·· ·−ϕpzp = 0.

Les graphiques de la figure ( 2.1) sont un exemple d’illustration des propriétés des AR(p) énoncées

ci-dessus. Dans notre cas, nous avons deux processus AR(1) et AR(2). Les coefficients associés sont

donnés sur le graphique. Les PACF respectifs s’annulent précisement après les premier et second

rangs.

2.1.2 Les processus moyenne mobile d’ordre q (MA(q))

Définition 2.3 Un processus est dit moyenne mobile d’ordre q, noté MA(q), s’il s’écrit :

Xt = Θ(B)εt = εt +θ1εt−1 +θ2εt−2 + · · ·+θqεt−q.

Xt est est une combinaison linéaire de ses q chocs aléatoires précédents et du choc aléatoire courant.

16

Page 31: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 2.1: Exemples d’ACF et de PACF théoriques d’un AR(1) et d’un AR(2)

Par exemple, lorsque Xt suit un processus MA(2), le choc aléatoire au temps t est déterminé par

ses 2 derniers chocs aléatoires et par la valeur du choc aléatoire au temps t. Sa formule est Xt =

εt −θ1εt−1−θ2εt−2.

Il peut arriver que deux processus de même ordre aient les mêmes fonctions d’autocorrélation et

d’autocovariance. De ce fait, le choix du bon modèle basé sur le critère d’inversibilité, que nous allons

définir à la suite d’un exemple, se veut la solution adéquate à ce problème de non-unicité du modèle

candidat.

Exemple 2.1 : Pour un processus MA(1), l’autocorrélation est la même, qu’on ait comme coefficient

θ ou 1θ

.

La formule de l’autocorrélation pour un processus MA(1) de coefficient α est

ρx(h) =

1,si h = 0,

α

1+α2 ,si h = 1,

0,si h > 1.

À partir de cette formule, on peut aisément prouver que les autocorrélations de deux processus MA(1),

dont les coefficients sont des inverses, sont égales. Car, pour α = θ ,ρx(h) = θ

1+θ 2 lorsque h = 1, et

pour α = 1θ

, ρx(h) =1θ

1+( 1θ)2 =

θ

1+θ 2

17

Page 32: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Définition 2.4 (Processus inversible) Un processus MA(p,q) est dit inversible si on peut l’exprimer

par :

π(B)Xt =∞

∑k=0

πkXt−k = εt ,

où εt , t ∈Z est un bruit blanc, π(B) = ∑∞k=0 πkBk, et ∑

∞k=0 |πk|< ∞ ; on fixe π0 = 1.

Proposition 2.3 Un processus (Xt , t ∈Z), MA(q) est inversible si et seulement si Θ(z) 6= 0 pour tout

complexe z dont le module est inférieur ou égal à 1. Les coefficients πk sont déterminés en résolvant

l’équation :

π(z) =∞

∑k=0

πkzk =1

Θ(z), |z| ≤ 1.

Donc un processus MA(q) est inversible si et seulement si les racines du polynôme caractéristique

associées au polynôme Θ(B) sont situées hors du disque unité.

Or 1Θ(z) =

11+θ1z+θ2z2+···+θqzq . On en déduit que π0 = 1.

Remarque : Les propriétés ci-dessous sont caractéristiques des processus MA(q) réguliers.

Proposition 2.4 (Propriétés des processus MA(q)) Les autocorrélations partielles (PACF) décroissent

exponentiellement vers 0 alors que les autocorrélations simples (ACF) s’annulent à partir du rang

q+1.

Les modules des racines de l’équation caractéristique associée au polynôme Θ(B) doivent être situés

hors du disque unité, donc, supérieurs à 1. L’équation caractéristique associée à Θ(B) est

θ(z) = 1+θ1z+θ2z2 + · · ·+θqzq = 0.

Les graphiques de la figure ( 2.2) sont un exemple d’illustration des propriétés des MA(q) énoncées

ci-dessus. Dans notre cas, nous avons deux processus MA(1) et MA(2). Les coefficients associés sont

donnés sur le graphique. Les ACF respectifs s’annulent précisement après les premier et second rangs.

2.1.3 Les processus ARMA(p,q)

Définition 2.5 Un processus ARMA(p,q) s’écrit :

Φ(B)Xt = Θ(B)εt .

ou

Xt = ϕ1Xt−1 +ϕ2Xt−2 + · · ·+ϕpXt−p + εt +θ1εt−1 +θ2εt−2 + · · ·+θqεt−q, ϕp 6= 0, θq 6= 0,

où εt , t ∈Z est un bruit blanc et les polynômes Φ(.) et Θ(.) n’ont pas de racines communes.

18

Page 33: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 2.2: Exemples d’ACF et de PACF théoriques d’un MA(1) et d’un MA(2)

Xt dépend directement, non seulement de ses p dernières valeurs et de son bruit blanc courant, mais

aussi des q chocs aléatoires précédents. Un processus ARMA(2,2) est donc un processus dont la va-

riable centrée est déterminée par ses 2 plus récentes valeurs et la réalisation courante ainsi que les deux

valeurs précédentes de son bruit blanc. Autrement dit, Xt = ϕ1Xt−1 +ϕ2Xt−2 + εt −θ1εt−1−θ2εt−2.

Définition 2.6 (Processus causal) Un processus ARMA(p,q), défini par Φ(B)Xt = Θ(B)εt , est dit

causal s’il peut être exprimé sous forme d’un processus linéaire :

Xt =∞

∑k=0

ψkεt−k = ψ(B)εt ,

où εt , t ∈Z est un bruit blanc, ψ(B) = ∑∞k=0 ψkBk, et ∑

∞k=0 |ψk|< ∞ ; on fixe ψ0 = 1.

Proposition 2.5 Soit (Xt , t ∈ Z), un processus ARMA(p,q) dont les polynômes Φ(.) et Θ(.) n’ont

aucune racine commune. (Xt , t ∈ Z) est causal si et seulement si Φ(z) 6= 0 pour tout complexe z

dont le module est inférieur ou égal à 1. Les coefficients du processus linéaire lui correspondant sont

déterminés en résolvant l’équation :

ψ(z) =∞

∑k=0

ψkzk =Θ(z)Φ(z)

, |z| ≤ 1.

19

Page 34: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Or Θ(z)Φ(z) =

1+θ1z+θ2z2+···+θqzq

1−ϕ1z−ϕ2z2−···−ϕpzp . On en déduit que ψ0 = 1.

Définition 2.7 (Processus inversible) Un processus ARMA(p,q) est dit inversible s’il peut être ex-

primé comme :

π(B)Xt =∞

∑k=0

πkXt−k = εt ,

où π(B) = ∑∞k=0 πkBk, et ∑

∞k=0 |πk|< ∞ ; on fixe π0 = 1.

Proposition 2.6 Soit (Xt , t ∈ Z), un processus ARMA(p,q) dont les polynômes Φ(.) et Θ(.) n’ont

aucune racine commune. (Xt , t ∈ Z) est inversible si et seulement si Θ(z) 6= 0 pour tout complexe z

dont le module est inférieur ou égal à 1. Les coefficients πk sont déterminés en résolvant l’équation :

π(z) =∞

∑k=0

πkzk =Φ(z)Θ(z)

, |z| ≤ 1.

Or Φ(z)Θ(z) =

1−ϕ1z−ϕ2z2−···−ϕpzp

1+θ1z+θ2z2+···+θqzq . On en déduit que π0 = 1.

Exemple 2.2 Observons un processus qui s’écrit :

Xt = 0.3Xt−1 +0.01Xt−2 + εt − εt−1 +0.25εt−2.

Sous cette forme, c’est un processus ARMA(2,2). En effectuant une factorisation, nous obtenons :

(1−0.3B−0.01B2)Xt = (1−B+0.25B2)εt .

On a donc :

Φ(z) = (1−0.3z−0.01z2) = (1+0.2z)(1−0.5z) et Θ(z) = (1− z+0.25z2) = (1−0.5z)2.

Les polynômes Φ(z) et Θ(z) ont une racine commune. C’est un cas de surparamétrisation. L’objec-

tif est d’obtenir un processus le plus parcimonieux possible sans redondance de racines, donc un

ARMA(p,q) minimal. Le bon modèle est un ARMA(1,1) qui s’écrit :

(1+0.2B)Xt = (1−0.5B)εt .

Cet exemple 2.2 justifie bien le fait d’imposer des restrictions aux racines des polynômes caractéris-

tiques. En effet, il ne doit pas avoir de racines communes à ceux-ci.

Les exemples cités dans l’illustration des concepts de causalité, d’inversibilité et d’unicité des racines

des polynômes caractéristiques plus haut sont inspirés des pages 87, 91-93 et 95-96 de Shumway and

Stoffer (2011). Tous ces concepts ont été introduits car on veut conserver la propriété de stationnarité.

20

Page 35: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Proposition 2.7 [Propriétés des processus ARMA(p,q)]

Les autocorrélations simples (ACF) et les autocorrélations partielles (PACF) des résidus décroissent

exponentiellement vers 0 mais ne permettent pas de distinguer ce type de modèles mixtes, c’est-à-dire

qu’on ne peut trouver les ordres p et q à partir de ces fonctions.

Les modules des racines des équations caractéristiques associées aux polynômes Φ(B) et Θ(B) sont

tous supérieurs à 1. Par ailleurs, ces racines ne sont pas communes.

Il existe des méthodes, comme la méthode du coin 1, pour identifier les ordres p et q simultanément.

1. Voir (Gourieroux and Monfort, 1990, pp. 232-235)

21

Page 36: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 2.3: Exemple d’ACF et de PACF théoriques d’un ARMA(1,1)

Les graphiques de la figure ( 2.3) sont un exemple d’illustration des propriétés des ARMA(p,q) énon-

cées ci-dessus. Dans notre cas, nous avons un processus ARMA(1,1). Les coefficients associés sont

donnés sur le graphique. On remarque bien que les propriétés sont respectées, c’est-à-dire que les

PACF et ACF décroissent exponentiellement vers 0.

2.1.4 Les processus ARIMA(p,d,q)

Quand une série n’est pas stationnaire, on a recours à un ensemble de transformations pour la rendre

stationnaire. L’une de ces opérations est la différenciation. Un type de processus pour lesquels cette

technique est utilisée sont les processus ARIMA(p,d,q).

Définition 2.8 Un processus ARIMA(p,d,q) est obtenu en quatre étapes :

1. Le centrage Xt = Xt −µ ;

2. La différenciation d’ordre d, ∇d ;

3. L’application de l’opérateur autorégressif d’ordre p à la série différenciée :

Φ(B) = I−ϕ1B−ϕ2B2−·· ·−ϕpBp, ϕp 6= 0;

22

Page 37: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

4. L’application de l’opérateur moyenne mobile d’ordre q au bruit blanc εt :

Θ(B) = I +θ1B+θ2B2 + · · ·+θqBq, θq 6= 0.

Définition 2.9 Un processus centré X dit ARIMA(p,d,q) s’écrit :

Φ(B)∇dXt = Θ(B)εt ,

avec,

Φ(z) = 1−ϕ1z−ϕ2z2−·· ·−ϕpzp,

le polynôme autorégressif de degré p, et

Θ(z) = 1+θ1z+θ2z2 + · · ·+θqzq,

le polynôme moyenne mobile de degré q. Les polynômes Φ(z) et Θ(z) n’ont pas de racines communes.

Par exemple, un processus ARIMA(3,1,2) est un processus qui a été centré et différencié une fois dont

la valeur à un certain moment t dépend de sa valeur précédente et de ses deux derniers bruits blancs.

Sa formule est ∇Xt = ϕ1∇Xt−1 +ϕ2∇Xt−2 +ϕ3∇Xt−3 + εt −θ1εt−1−θ2εt−2.

Proposition 2.8 Un processus centré X est dit ARIMA(p,d,q) si ∇dX est un processus ARMA(p,q).

Toutes les propriétés et définitions d’un processus ARMA(p,q) citées plus haut s’appliquent donc à

∇dX .

Cas particuliers

Lorsque d et q sont nuls, le processus est dit autorégressif d’ordre p et est noté AR(p).

Lorsque d et p sont nuls, il est dit moyenne mobile d’ordre q et est noté MA(q).

Lorsque d est nul, il est dit autorégressif moyenne mobile d’ordres p et q et est noté ARMA(p,q).

2.2 Les processus multiplicatifs saisonniers (SARIMA(P,D,Q)(p,d,q))

Dans la liste des processus non stationnaires, il en existe des saisonniers. La saisonnalité s’illustre par

la présence, sur le corrélogramme simple, de pics à des intervalles réguliers multiples de la saison de

la série. Par exemple, une série présentant la température quotidienne sur un horizon de 5 ans révèlera

des similitudes au niveau des valeurs de température par saison. Ce processus est dit saisonnier. Dans

cette section, nous allons présenter les processus saisonniers SARIMA(P,D,Q)(p,d,q).

23

Page 38: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Définition 2.10 Un processus Xt , dit SARIMA(P,D,Q)(p,d,q), s’écrit :

Φp(B)ΦP(Bs)∇d∇

DXt = Θq(B)ΘQ(Bs)εt ,

avec :

– D et d, respectivement les ordres de différenciation saisonnière et non saisonnière ;

– s, la saison ;

– Φp(B) et ΦP(Bs) sont les opérateurs autorégressifs non saisonnier et saisonnier d’ordres p et P ;

– Θq(B) et ΘQ(Bs) sont les opérateurs moyenne mobile non saisonnier et saisonnier d’ordres q et Q,

et

– εt , t ∈Z est un bruit blanc.

Lorsqu’il est purement saisonnier, les valeurs d, p et q sont nulles et il s’exprime ainsi :

ΦP(Bs)∇DXt = ΘQ(Bs)εt .

Avec, ΦP(Bs) = 1−Φ1Bs−Φ2B2s−·· ·−ΦpBPs et ΘQ(Bs) = 1+Θ1Bs +Θ2B2s + · · ·+ΘQBQs, les

opérateurs saisonniers autorégressif d’ordre P et moyenne mobile d’ordre Q.

Il faut noter que les conditions d’inversibilité et de causalité sont aussi appliquables dans le cas des

processus ARMA(P,Q) purement saisonniers. Les restrictions sont faites dans ce cas sur les modules

des racines des polynômes ΦP(zs) et ΘQ(zs) et ces modules doivent être situés hors du cercle unitaire

de façon équivalente aux processus non saisonniers. Il va sans dire que les processus saisonniers purs

présentent des propriétés similaires aux processus ARMA.

Proposition 2.9 (Propriétés des processus ARs(P), MAs(Q) et ARMAs(P,Q)) Les autocorrélations théo-

riques simples (ACF) aux temps ou retards multiples de la saison décroissent exponentiellement vers

0 lorsque le processus est autorégressif alors que les autocorrélations théoriques partielles (PACF)

multiples de la saison s’annulent à partir du rang P+1.

Les autocorrélations théoriques partielles (PACF) aux temps ou retards multiples de la saison dé-

croissent exponentiellement vers 0 lorsque le processus est moyenne mobile alors que les autocorré-

lations théoriques simples (ACF) multiples de la saison s’annulent à partir du rang Q+1.

Dans le cas d’un processus mixte saisonnier ARMA(P,Q), les autocorrélations théoriques simples

(ACF) aux temps ou retards multiples de la saison décroissent exponentiellement vers 0 pendant que

les autocorrélations théoriques partielles (PACF) aux temps ou retards multiples de la saison dé-

croissent exponentiellement vers 0.

Il ne faut pas oublier que les ACF et PACF aux temps autres que ceux multiples de la saison sont

toutes nulles car les réalisations ne sont corrélées qu’aux temps multiples de s.

24

Page 39: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 2.4: Exemples d’ACF et de PACF d’un AR(2), d’un MA(1) et d’un ARMA(2,1) saisonniers

Grâce aux graphiques de la figure ( 2.4), on démontre aisément les propriétés énoncées ci-haut. Dans

le cas de notre exemple de début de section sur la température quotidienne, si la température est prédite

grâce à ses valeurs saisonnières des deux dernières années, le modèle approprié pour cette série est un

SAR4(2) ou SARIMA(2,0,0)(0,0,0).

2.3 La méthode de Box et Jenkins : ses étapes

Cette méthode s’applique à un processus stationnaire ou non en vue de déterminer le modèle qui s’y

ajuste le mieux. Elle consiste en différentes étapes : l’identification, l’estimation et le diagnostic. Des

détails sur celles-ci seront donnés dans les prochaines lignes.

2.3.1 Identification

Comme son nom l’indique, cette étape consiste à identifier, de par leurs ordres, plusieurs modèles

susceptibles de bien s’ajuster à la série à l’étude. Il faudra tout d’abord s’assurer de sa stationnarité en

variance et en tendance. La première se détecte par l’analyse graphique des observations de la série

au cours du temps. Si elle présente des fluctuations importantes et/ou irrégulières, on peut conclure

à l’hétéroscédasticité de la série et régler ce problème à l’aide de la transformation de Box-Cox. La

tendance, elle, est présente lorsque le corrélogramme simple (ACF) montre que les autocorrélations

ne s’annulent pas très rapidement. On peut aussi observer constater la tendance par l’observation

25

Page 40: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

graphique de la série. Par ailleurs, si, en ajustant les données de la série à un processus AR(1), la valeur

absolue du coefficient estimé est supérieure à 1, alors la série n’est pas stationnaire en tendance. Dans

ce cas, il faudra appliquer la différenciation, parfois même plusieurs fois, jusqu’à ce qu’on obtienne la

stationnarité en moyenne. Il faudra veiller à éviter de surdifférencier. Puis, en se servant des propriétés

des processus citées dans la section précédente, on sera en mesure de proposer des modèles candidats.

Par exemple, pour une série dont les autocorrélations simples décroissent exponentiellement vers 0 et

dont les autocorrélations partielles s’annulent à partir du rang p+1, on pourra considérer un modèle

autorégressif d’ordre p (AR(p)).

Après avoir identifié un ou des modèle(s) candidat(s), il s’agira de choisir le meilleur modèle parmi

ceux proposés à la phase d’identification.

Les critères d’information

La sélection se fait à l’aide de critères d’information tels que le critère d’Akaike (AIC), le critère

Bayesien de Schwarz (BIC), le critère RMSE, le critère MAPE, lesquels sont à minimiser. Cette liste

de critères n’est pas exhaustive.

– L’écart absolu moyen en pourcentage (MAPE) 100T ∑

Tt=1 |Xt −Xt |

– La racine de l’erreur quadratique moyenne (RMSE) ( 1T ∑

Tt=1(Xt −Xt)

2)12

– Le critère d’Akaike (AIC) log(σ2ε )+

2nT

– Le critère bayesien de Schwarz (BIC) log(σ2ε )+n logT

T ,

où T représente la taille de l’échantillon, Xt , la prévision de Xt selon le modèle choisi (en fonction de

l’échantillon), n, le nombre de paramètres du modèle et σ2ε , la variance de l’erreur associée au modèle.

Dans la suite, nous n’allons utiliser que le BIC et l’AIC. Le BIC a tendance à sélectionner des modèles

d’ordre inférieurs à ceux choisis par l’AIC. Pour l’application (au chapitre 3), le choix du modèle sera

basé sur un ensemble d’informations que sont les valeurs des critères d’information (principalement

l’AIC) mais aussi les statistiques obtenues à l’issue de certains des tests de diagnostic présentés à la

section 2.3.3 comme les tests du Portemanteau et sur les résidus.

2.3.2 Estimation

À cette étape, nous estimons les coefficients θk et/ou ϕk et la variance des bruits blancs, σ2ε du modèle

choisi.

Les méthodes d’estimation

Le modèle choisi (ordre(s) choisi(s)), il s’agira d’estimer ses paramètres. Il existe différentes mé-

thodes d’estimation : la méthode des moments de laquelle découlent les équations de Yule-Walker, la

méthode du maximum de vraisemblance, la méthode des moindres carrés inconditionnels et la mé-

thode des moindres carrés conditionnels. Nous allons mettre l’emphase sur celles du maximum de

vraisemblance et des moindres carrés conditionnels.

26

Page 41: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

La méthode du maximum de vraisemblanceSoit un processus ARMA(p,q) dont les bruits blancs sont gaussiens. Les estimateurs obtenus sont les

valeurs des paramètres qui maximisent la vraisemblance, c’est-à-dire, la fonction de densité conjointe

des valeurs observées de la série.

Définition 2.11 Soit un modèle ARMA(p,q), β = (µ,ϕ1, . . . ,ϕp,θ1, . . . ,θq), le vecteur de ses para-

mètres et T , la taille de la série associée au modèle. La fonction de vraisemblance s’écrit :

L(β ,σ2ε ) = f (X1)

T

∏t=2

f (Xt |Xt−1, . . . ,X1),

où Xt |Xt−1, . . . ,X1 suit une loi gaussienne de moyenne X t−1t (X0

1 = µ et de variance Pt−1t égale à :

Pt−1t = σ

[∞

∑j=0

ψ2j

][t−1

∏j=1

(1− r( j)2)

]= σ

2ε rt .

X t−1t est le meilleur prédicteur linéaire de Xt sachant l’échantillon observé X1, . . . ,Xt−1. La fonction

de vraisemblance devient donc :

L(β ,σ2ε ) = (2πσ

2ε )−n/2 [r1(β )r2(β ) . . .rn(β )]

−1/2 exp[−S(β )

2σ2ε

],

rt(β ) =

[∞

∑j=0

ψ2j

][t−1

∏j=1

(1− r( j))

]et

S(β ) =n

∑t=1

(Xt −X t−1t (β ))2

rt(β )

et où r( j) est l’autocorrélation partielle à j retards.

L’estimateur du maximum de vraisemblance est le vecteur (β ,σ2ε ) qui maximise la fonction de vrai-

semblance.

Cette définition est tirée des pages 127 et 128 de Shumway and Stoffer (2011).

La méthode des moindres carrés inconditionnels

En se basant sur la définition précédente, l’estimateur des moindres carrés inconditionnels est le vec-

teur (β ,σ2ε ) qui permet de minimiser S(β ). S(β ) est appelée la somme des carrés inconditionnels.

La méthode des moindres carrés conditionnels

L’estimateur des moindres carrés conditionnels est, quant à lui, le vecteur (β ,σ2ε ) qui permet de mi-

nimiser S(β ), et les valeurs prédites ainsi que les erreurs de prédiction résultantes sont obtenues en

conditionnant sur les valeurs initiales de la série.

27

Page 42: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Du fait de la complexité des formules et de la difficulté à avoir des formules explicites en fonction

des paramètres pour les modèles ARMA(p,q), des méthodes numériques comme celle de Newton-

Raphson 2 sont souvent utilisées pour estimer les paramètres.

Après avoir choisi le bon modèle et estimé les paramètres qui lui sont associés, il convient d’effectuer

des tests pour vérifier si ce modèle respecte tous les postulats dont nous aurons les détails dans la

prochaine section.

2.3.3 Tests

Plusieurs tests doivent être effectués pour tester l’adéquation du modèle proposé. En effet, les coeffi-

cients estimés doivent être non nuls. Les valeurs absolues des statistiques de test de nullité des coeffi-

cients doivent être supérieures en valeur absolue au quantile (1−α/2)100% d’une loi de Student. Si

la conclusion du test de Student est la nullité de l’un des coefficients, il faut enlever ce coefficient et

refaire le test jusqu’à ce que les conditions requises soient respectées. Les longueurs des séries étant

parfois grandes (supérieures à 30) 3, le nombre de degrés de liberté associés aux statistiques de test est

élevé et la loi sous l’hypothèse nulle s’approxime bien par la loi normale. De ce fait, lorsque le seuil

α désiré est égal à 5%, nous comparons la valeur de statistiques de test à 1.96.

Par ailleurs, par l’analyse de la matrice des corrélations entre les estimateurs des coefficients, on peut

conclure à la robustesse des estimateurs. Un estimateur est dit robuste si sa valeur ne connait qu’une

légère modification lorsque le modèle ou les données connaissent un changement. En pratique, cette

condition est remplie lorsque les corrélations sont inférieures en valeur absolue à 0,9. Lorsque certains

estimateurs sont fortement corrélés et qu’au moins l’un d’entre eux est nul à l’issue des tests de nullité

de coefficients, il faudrait penser à simplifier le modèle. Si, dans le cas d’un processus AR(p), c’est le

coefficient associé à Xt−p qui est nul, on peut réévaluer le modèle en éliminant ce coefficient. Sinon,

on peut évaluer des modèles en omettant l’un et/ou l’autre (les autres) coefficient(s). L’idée est de

trouver le meilleur modèle qui soit et qui remplit toutes les exigences d’un bon modèle, celles que

nous citons dans cette section.

Il faut aussi s’assurer que les modules des racines des polynômes caractéristiques se situent hors du

cercle unité par leur calcul. Le cas contraire indique que ces polynômes ne sont pas causaux et/ ou

inversibles et un autre modèle qui respecte cette condition doit être choisi.

De plus, il faut effectuer des tests pour savoir si les résidus sont des bruits blancs. Leur moyenne

doit être nulle, leur variance, constante. Aussi, doivent-ils être non correlés. La vérification de la

nullité de la moyenne des résidus se fait à l’aide d’un test t et leur non-corrélation à l’aide de leur

autocorrélogramme simple qui doit, dans ce cas, montrer que les autocorrélations sont nulles, donc

à l’intérieur de la bande de confiance autour de 0. Dans le cas des grands échantillons, Box and

Pierce (1970) affirment que les autocorrélations résiduelles ont pour écart-type

√1n

. Lorsque qu’il y

2. Voir les pages 127-128 de Shumway and Stoffer (2011) pour un exemple3. Voir Hamisultane (2002, p.14)

28

Page 43: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

a présence d’autocorrélation à un ou plusieurs retard(s) k, il faut l’éliminer. Pour ce faire, on rajoute

dans le modèle le ou les retard(s) k concerné(s) et un test de nullité du ou des coefficient(s) associé(s)

est effectué pour confirmer ou infirmer la pertinence de le(s) rajouter.

Une autre méthode, plus conservatrice, est celle du Portmanteau. Elle assume que les K premières

autocorrélations résiduelles simples sont nulles. L’adéquation du modèle sera questionnée si la statis-

tique utilisée, Q, donnée à l’équation (2.1), appelée statistique de Ljung et Box ou statistique modifiée

de Box et Pierce, est inférieure au quantile (1−α)100% d’une distribution χ2 à K− p−q degrés de

liberté, p+q étant le nombre de paramètres estimés du modèle. On a :

Q = T (T +2)K

∑k=1

ρ2k (ε)

T − k, (2.1)

ρ2k (ε) étant les autocorrélations estimées des résidus et T , le nombre d’observations après la différen-

ciation. Généralement, K est choisi entre 18 et 24.

Une autre façon de vérifier si les résidus sont des bruits blancs est de les différencier et de calculer

l’estimateur ρ(1) et de le comparer à -0,5. En effet, la différenciation d’un bruit blanc devrait produire

un processus MA(1) de coefficient égal à 1 donc de valeur ρ(1) égale à -0,5.

Un test dont la conclusion est le rejet de l’une des hypothèses nulles des tests effectués plus haut

renvoie aux étapes précédentes, ceci pour trouver le meilleur modèle, le plus parcimonieux possible,

qui respectera tous les postulats cités ci-dessus.

29

Page 44: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Chapitre 3

APPLICATION UNIVARIÉE

Dans cette partie, il s’agira de bâtir une modélisation de Box et Jenkins sur un jeu de données de

5 séries économiques 1 trimestrielles provenant des États-Unis. Ce sont en tout 161 mesures qui ont

été prises entre le deuxième trimestre de l’année 1948 et le deuxième trimestre de l’année 1988. Les

variables étudiées sont :

– Unemp - Le taux de chômage en pourcentage (%) ;

– Gnp - Le produit national brut en milliards de dollars ;

– Consum - La consommation en milliards de dollars ;

– Prinv - Les investissements privés en capitaux en milliards de dollars ;

– Govinv - Les investissements gouvernementaux en biens et services en milliards de dollars.

Cette analyse nous permettra de savoir quels modèles univariés sont appropriés pour chacune des

variables étudiées. Dans le chapitre 5, nous pourrons comparer les 5 modèles choisis de manière uni-

variée au modèle autorégressif vectoriel d’ordre p ou VAR(p) qui aura été bâti de manière multivariée.

Nous saurons si ce dernier est meilleur.

3.1 Analyse descriptive des séries

À la figure ( 3.1), on remarque que le taux de chômage et les investissements privés connaissent

beaucoup de fluctuations dans leurs valeurs et semblent même varier de manière analogue pendant

que le produit national brut, la consommation et les investissements gouvernementaux ne varient pas

beaucoup. Toutes nos variables à l’étude évoluent globalement selon une tendance linéaire, même si

certaines ont des pentes un peu plus faibles que les autres. Cette observation première laisse supposer

des liens entre nos différentes variables. Ci-dessous sont tracées les 5 séries brutes à la figure ( 3.1).

On remarque que "consum" et "gnp" suivent une tendance plus ou moins similaire. Aussi, on a l’im-

pression que le taux de chômage et les investissements privés sont négativement corrélés puisqu’une

1. Ce jeu de données, dont le nom est econ5, est intégré au package R astsa. Il a été utilisé par Young and Pedregal(1999).

30

Page 45: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.1: Graphiques des 5 séries (Taux de chômage,Produit national brut, Consommation, Inves-tissements privés, Investissements gouvernementaux)

augmentation du taux de chômage a l’air de signifier une baisse des valeurs de l’autre variable. Aussi,

le taux de chômage connait-il beaucoup de fluctuations même s’il a l’air de graviter autour d’une

certaine moyenne. Enfin, on peut constater que les investissements gouvernementaux semblent peu

hétéroscédastiques même si on remarque deux pics. Cette affirmation concernant leur stationnarité en

variance sera bien-sûr vérifiée dans la suite de notre analyse.

3.2 La série « taux de chômage »

3.2.1 Identification

La figure ( 3.2) montre que le taux de chômage a une tendance globale linéaire croissante tout en

ayant une sorte de pseudo-saisonnalité. En effet, on a l’impression d’apercevoir une répétition d’un

schéma de valeurs. Par ailleurs, le corrélogramme révèle que les autocorrélations simples estimées

baissent très lentement et indiquent la présence d’une tendance. Dans le même sens, les p-valeurs de

test d’indépendance du bruit blanc sont tous inférieurs à 0.0001. Il appert clairement et sans ambages

que la série n’est pas stationnaire.

Après une différenciation d’ordre 1, la série résultante est stationnaire. En effet, à la figure ( 3.3), nous

observons que les valeurs de la série différenciée gravitent autour d’une tendance moyenne horizon-

31

Page 46: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.2: La série « taux de chômage » (à gauche) de 1948-II à 1988-II et autocorrélations simples(à droite)

tale.

FIGURE 3.3: Série « taux de chômage » différenciée et corrélogrammes

3.2.2 Estimation

La méthode d’estimation utilisée dans le cadre de cette analyse est la méthode des moindres carrés

conditionnels 2. Il en sera ainsi pour les autres variables qui seront étudiées dans les sections suivantes.

2. C’est la méthode choisie par défaut par SAS que nous avons utilisée

32

Page 47: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Le modèle de départ identifié est un AR(1). La constante, dans ce modèle, n’est pas significative au

seuil de 5% car la statistique t du test est inférieure à 1.96 (voir tableau 3.1 ci-dessous).

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 0.0009256 0.01379 0.07 0.9466

ϕ1 0.46429 0.07066 6.57 < 0.0001

TABLE 3.1: Tableau des estimateurs des paramètres du modèle de départ AR(1) avec constante pourla série « taux de chômage » différenciée

La constante est donc ôtée. De plus, les valeurs absolues des autocorrélations partielles aux retards 4,

8 et 12 décroissent lentement vers 0. Il semble qu’il y a présence d’une saisonnalité annuelle car 4, 8

et 12 sont des multiples de 4 et nos données sont trimestrielles. On peut supposer que nous sommes

face à un processus saisonnier, laquelle hypothèse est à confirmer ou infirmer. Si cette supposition

s’avère vérifiée, les ordres du modèle SARIMA seront donnés.

L’ajout des coefficients associés à ces trois périodes a amélioré le modèle puisque le critère AIC

diminue en passant de -301.917 (modèle AR(1)) à -310.118 (p=1, 4 inclus) puis à -311.98 (p=1, 4 et

8 inclus) enfin à -315.293 (p=1,4,8 et 12 inclus).

Le modèle final est donc un SARIMA4((1,1,0)(3,0,0)) sans constante, écrit de la façon suivante :

∇Xt = εt +0.42242∇Xt−1−0.28934∇Xt−4−0.18958∇Xt−8−0.16358∇Xt−12

Retard K 12 18 24 AIC BIC

p-valeur

Modèle 1 (p=1 sans constante ) 0.11 0.14 0.24 -301.917 -298.842Modèle 2 (p=1,4 sans constante ) 0.24 0.32 0.43 -310.118 -303.968Modèle 3 (p=1,8 sans constante ) 0.02 0.03 0.07 -300.933 -294.782

Modèle 4 (p=1,4,8 sans constante ) 0.36 0.32 0.44 -311.98 -302.755Modèle final (p=1,4,8,12 sans constante ) 0.58 0.54 0.54 -315.293 -302.993

TABLE 3.2: Comparaison des modèles candidats sans constante-Test Portmanteau sur les résidus,AIC, BIC-série « taux de chômage »

Le tableau 3.2 présente une comparaison de modèles candidats au modèle final via leurs AIC, BIC

et seuils observés du test de Portmanteau. On constate que le modèle final est le meilleur de tous

(p-valeurs des tests Portmanteau les plus grandes et critère AIC minimal). Par ailleurs, les modules

des racines du polynôme autorégressif associé sont tous strictement supérieurs à 1. Le modèle trouvé

est donc causal. On trouvera en annexe des tableaux qui présentent les estimateurs des paramètres de

ces modèles, leurs écarts-types, statistiques de Student ainsi que les p-valeurs des tests de nullité de

ces coefficients-là. Dans la prochaine sous-section, nous nous intéresserons à l’adéquation du modèle

choisi.

33

Page 48: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

3.2.3 Diagnostic

Tests sur les coefficients

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testϕ1 0.42242 0.06772 6.24 < 0.0001ϕ4 -0.28934 0.07092 -4.08 < 0.0001ϕ8 -0.18958 0.07331 -2.58 0.0106ϕ12 -0.16358 0.07127 -2.30 0.0231

TABLE 3.3: Tableau des estimateurs des paramètres du modèle candidat AR(12) sans constante avecp=1,4,8,12 pour la série « taux de chômage » différenciée

Le tableau 3.3 montre que tous les coefficients sont significativement différents de 0 au seuil de 5%.

En effet, leurs statistiques de test t sont supérieures en valeur absolue à 1.96. De ce fait, les p-valeurs

sont inférieures au seuil de 5%.

Par ailleurs, au tableau ( 3.4),on remarque que la corrélation entre ces coefficients est inférieure en

valeur absolue à 0.9. On peut alors affirmer qu’ils sont robustes, c’est-à-dire que leurs valeurs sont

faiblement influencées par une petite modification dans les données. Le tableau 3.4, qui présente la

matrice des corrélations entre les estimateurs des coefficients montre bien que notre affirmation est

fondée.

Paramètre ϕ1 ϕ4 ϕ8 ϕ12

ϕ1 1.000 0.102 0.133 0.091ϕ4 0.102 1.000 0.303 0.196ϕ8 0.133 0.303 1.000 0.302ϕ12 0.091 0.196 0.302 1.000

TABLE 3.4: Matrice de corrélation des estimateurs pour le modèle final SARIMA(1,1,0)(3,0,0)

Tests sur les résidus

Dans cette sous-section, nous allons vérifier si les résidus sont des bruits blancs et ne sont pas corrélés.

La figure 3.4 montre que les autocorrélations simples estimées des résidus sont approximativement

nulles et qu’on ne peut pas rejeter l’hypothèse nulle selon laquelle ils sont des bruits blancs (valeurs

p supérieures à 5%). Il est à noter que nous n’allons pas nous attarder (et ce lors de l’étude des

autres séries) sur l’interprétation des graphiques IACF (autocorrélations simples inverses estimées)

puisqu’ils traduisent de façon analogue les mêmes concepts que les 2 autres graphiques (ACF et

PACF) présentent.

Par ailleurs, le test Portmanteau (cf. tableau 3.5) suggère qu’il n’y a pas d’autocorrélation globale. Les

valeurs p aux retards 12, 18 et 24 sont respectivement 0.5765 (Q=6.63), 0.5349 (Q=12.89) et 0.5400

(Q=18.72). Elles sont toutes supérieures au seuil 5%.

34

Page 49: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.4: Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieurdroit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit)

Retard K 12 18 24Statistique Q 6.63 12.89 18.72

Valeur p du test 0.5765 0.5349 0.5400

TABLE 3.5: Test Portmanteau sur les résidus du modèle final SARIMA(1,1,0)(3,0,0)-série « taux dechômage »

3.2.4 Prévision

Un graphique de prévisions pour les 4 périodes suivantes est donné à la figure 3.5 3.

Les valeurs estimées avec ce modèle sur une période de 5 ans entre avril 1983 et avril 1988 sont très

proches des valeurs observées. Nous pouvons conclure que notre modèle produit de bonnes estima-

tions retrospectives des vraies valeurs.

Une autre manière de vérifier la capacité de prévision du modèle consistera à ajuster le modèle trouvé

à notre jeu de données en ne tenant pas compte de ces 4 dernières valeurs. Ce procédé montre que

notre modèle est robuste. La comparaison de leurs prévisions obtenues d’avec celles-ci nous permet de

conclure qu’elles ne sont pas approximativement différentes même s’il est vrai qu’elles ont tendance

3. Même si nous ne l’avons pas montré dans ce chapitre, tous les résidus associés à chacune des 5 séries sont gaussiens.Le lecteur pourra se référer au code informatique pour voir les histogrammes et graphiques QQ-plot associés aux résidus dechacun des modèles trouvés dans le cadre de cette analyse.

35

Page 50: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.5: Comparaison des prévisions et valeurs réelles pour le modèle SARIMA4((1,1,0)(3,0,0))appliqué à la série « taux de chômage différenciée »

à s’éloigner les unes des autres aux deux derniers trimestres.

FIGURE 3.6: Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières valeursde la série « chômage »

36

Page 51: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

3.3 La série « produit national brut »

3.3.1 Identification

FIGURE 3.7: Produit national brut de 1948-II à 1988-II

Le graphique montré à la figure 3.7 de la série « produit national brut » illustre la présence d’une

tendance linéaire globale à la hausse et une variance qui n’est pas constante.

Pour pallier au problème d’hétéroscédasticité, nous utiliserons la méthode de transformation de type

Box Cox, qui elle, nous suggère une puissance de 0,20. Par la suite, la série transformée est différen-

ciée d’ordre 1. Après ces deux démarches, on obtient la stationnarité (voir figure 3.8). Nous pouvons

maintenant chercher un ou des modèles candidats qui s’ajustent le mieux à la série stationnaire résul-

tante.

Les autocorrélations simples estimées de la série transformée puis différenciée s’annulent à partir de

l’ordre 3. Un processus « moyenne mobile » d’ordre 2 ou MA(2) nous servira donc de modèle de

départ. Le module des racines de son polynôme caractéristique Θ(B) est 2.002967, valeur strictement

supérieure à 1. Notre processus est donc inversible. On passe à la phase d’estimation.

3.3.2 Estimation

Le modèle de départ proposé est un MA(2). Il constituera aussi le modèle finalement choisi puisque

l’observation de la figure 3.9 nous fait remarquer que les autocorrélations simples et partielles esti-

mées des résidus sont toutes approximativement nulles.

Le processus obtenu s’écrit :

∇X0.2t = εt +0.2963εt−1 +0.24926εt−2.

3.3.3 Diagnostic

Le processus final choisi, nous allons effectuer des tests pour vérifier s’il est adéquat.

37

Page 52: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.8: Série « produit national brut » transformée puis différenciée et corrélogrammes associés

Tests sur les coefficients

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 0.0074873 0.0011466 6.53 < 0.0001

θ1 -0.29630 0.07729 -3.83 0.0002θ2 -0.24926 0.07733 -3.22 0.0015

TABLE 3.6: Tableau des estimateurs des paramètres du modèle MA(2) avec constante pour la série« produit national brut » transformée et différenciée

Le tableau 3.6 montrent que les coefficients sont significativement non nuls au seuil de 5% car les

statistiques de test associées aux trois paramètres sont grandes en valeur absolue.

Aussi, les estimateurs des coefficients sont robustes puisque les corrélations entre ceux-ci sont infé-

rieures à 0.9.

Paramètre constante θ1 θ2

Constante 1.000 -0.001 0.000θ1 -0.001 1.000 0.236θ2 0.000 0.236 1.000

TABLE 3.7: Matrice de corrélation des estimateurs pour le modèle final MA(2)

38

Page 53: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.9: Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieurdroit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit)

Tests sur les résidus

La figure 3.9 montre que les autocorrélations simples estimées des résidus sont approximativement

nulles et qu’on ne peut pas rejeter l’hypothèse nulle selon laquelle ils sont des bruits blancs (valeurs p

supérieures à 5%).

Retard K 12 18 24Statistique Q 10.34 13.61 15.19

Valeur p du test 0.4109 0.6279 0.8539

TABLE 3.8: Test Portmanteau sur les résidus du modèle final MA(2) - série « produit national brut »

Par ailleurs, le test Portmanteau (cf. tableau 3.8) ne détecte pas de corrélation significative entre

les résidus. Les valeurs p aux retards 12, 18 et 24 sont respectivement 0.4109 (Q=10.34), 0.6279

(Q=13.61) et 0.8539 (Q=15.19). Elles sont toutes supérieures au seuil 5%.

Le modèle s’ajuste bien puisque toutes les hypothèses sont respectées.

3.3.4 Prévision

Les valeurs estimées avec ce modèle sur une période de 5 ans entre avril 1983 et avril 1988 sont très

proches des valeurs observées. Nous pouvons conclure que notre modèle produit de bonnes estima-

39

Page 54: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.10: Comparaison des prévisions et valeurs réelles du « Produit national brut » pour le mo-dèle MA(2) appliqué à la série « Produit national brut » transformée puis différenciée

tions retrospectives des vraies valeurs.

40

Page 55: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.11: Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières valeursde la série « produit national brut »

La figure 3.11 démontre la robustesse du modèle choisi car les valeurs prédites suite à l’exclusion des

quatre dernières valeurs de la série ne sont pas significativement différentes des vraies valeurs.

3.4 La série « consommation »

3.4.1 Identification

FIGURE 3.12: Série « consommation » de 1948-II à 1988-II

La série « consommation » connaît une tendance linéaire globale tout en étant hétéroscédastique. Elle

a augmenté avec le temps et a varié beaucoup à partir du milieu des années 70.

La stationnarité est atteinte quand la variable consommation est élevée à la puissance 1/3, valeur

suggérée par la méthode Box-Cox pour pallier le manque de constance de la variance et quand elle est

différenciée à l’ordre 1.

41

Page 56: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

La figure 3.13 montre que la série transformée puis différenciée d’ordre 1 est raisonnablement sta-

tionnaire. On peut maintenant passer à la phase d’estimation.

FIGURE 3.13: Série « consommation » transformée et différenciée et corrélogrammes associés

3.4.2 Estimation

À la phase d’estimation, un processus MA(3) est le modèle de départ proposé par la minimisation du

critère d’information BIC.

FIGURE 3.14: Graphiques des résidus du modèle de départ

Successivement, les opérateurs de retards 8 et 1 sont ajoutés et retranchés à cause d’une forte autocor-

rélation au retard 8 d’une part (voir les graphiques 3.14), et de la nullité du coefficient θ1 d’autre part

(voir tableau 3.9).

Le modèle final obtenu est donc un MA(8) avec contraintes, c’est-à-dire :

θ1 = θ4 = θ5 = θ6 = θ7 = 0,

42

Page 57: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE 3.9: Tableau des estimateurs des paramètres du modèle de départ MA(3) pour la série« consommation » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 0.03072 0.0031955 9.51 < 0.0001

θ1 -0.05433 0.07935 -0.68 0.4945θ2 -0.23171 0.07738 -2.99 0.0032θ3 -0.13484 0.08000 -1.69 0.0939

dont le polynôme caractéristique s’écrit comme suit :

Θ(B) = 1+0.27617B2 +0.14514B3 +0.31524B8.

Le modèle final est donc :

∇X1/3t = εt +0.27617εt−2 +0.14514εt−3 +0.31524εt−8.

Le tableau 3.10 présente une comparaison des deux modèles candidats du point de vue des tests

Portmanteau, AIC et BIC. On constate que le modèle final est le meilleur. Ses critères AIC et BIC sont

les minimum. Les p-valeurs de son test Portmanteau sont nettement supérieures à celle du modèle de

départ. Enfin, lorsqu’ils sont calculés, les modules des racines du polynôme moyenne mobile associé

au modèle final sont tous strictement supérieurs à 1. Le modèle trouvé est donc inversible.

TABLE 3.10: Comparaison des modèles candidats-P-valeurs du test Portmanteau sur les résidus, AIC,BIC-série « consommation »

Retard K 12 18 24 AIC BIC

p-valeurModèle 1 (q=3) 0.1704 0.1769 0.1223 -679.494 -667.194

Modèle final (q=2,3,8) 0.8921 0.7306 0.5369 -692.506 -680.206

Nous pouvons maintenant vérifier si le modèle final est adéquat.

3.4.3 Diagnostic

Tests sur les coefficients

TABLE 3.11: Tableau des estimateurs des paramètres du modèle final MA(2,3,8) pour la série« consommation » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 0.03079 0.0024186 12.73 < 0.0001

θ2 -0.27617 0.07232 -3.82 0.0002θ3 -0.14514 0.07115 -2.04 0.0430θ8 -0.31524 0.07331 4.30 < 0.0001

43

Page 58: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Au tableau 3.11, on peut observer que tous les coefficients estimés sont significativement non nuls car

toutes les valeurs de p sont inférieures au seuil 5%. De plus, ils sont robustes, ce qu’illustre la matrice

de corrélation entre ceux-ci (tableau 3.12) puisque les corrélations sont nettement inférieures à 0.9.

TABLE 3.12: Matrice de corrélation des estimateurs pour le modèle final MA(2,3,8) pour la série« consommation » transformée et différenciée

Paramètre Constante θ2 θ3 θ8

Constante 1.000 -0.004 0.004 -0.015θ2 -0.004 1.000 -0.094 0.220θ3 0.004 -0.094 1.000 -0.046θ8 -0.015 0.220 -0.046 1.000

Tests sur les résidus

FIGURE 3.15: Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieurdroit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit)

La figure 3.15 montre que les autocorrélations simples estimées des résidus sont approximativement

nulles et qu’on ne peut pas rejeter l’hypothèse nulle selon laquelle ils sont des bruits blancs (valeurs p

supérieures à 5%).

Par ailleurs, le test Portmanteau (cf. tableau 3.13) ne s’objecte pas à la non-corrélation entre les

résidus. Les valeurs p aux retards 12, 18 et 24 sont respectivement 0.8921 (Q=4.28), 0.7306 (Q=11.28)

et 0.5369 (Q=19.75). Elles sont toutes supérieures au seuil 5%.

44

Page 59: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE 3.13: Test Portmanteau sur les résidus du modèle final MA(2,3,8) pour la série « consomma-tion » transformée et différenciée

Retard K 12 18 24Statistique Q 4.28 11.31 19.75

Valeur p du test 0.8921 0.7306 0.5369

Le modèle s’ajuste bien puisque toutes les hypothèses sont respectées.

3.4.4 Prévision

Les valeurs estimées avec ce modèle sur une période de 5 ans entre avril 1983 et avril 1988 sont très

proches des valeurs observées au point de se confondre presque. Nous pouvons conclure que notre

modèle produit de bonnes estimations rétrospectives des vraies valeurs.

En ne tenant pas compte des valeurs de la série sur la dernière année (4 derniers trimestres de la série),

on remarque que le modèle est malgré tout adéquat. Les prévisions sont toujours proches de la réalité.

Les prévisions aux 4 derniers trimestres suivent la même tendance que les vraies valeurs de la série

aux mêmes dates.

On conclut alors que notre modèle est assez robuste.

FIGURE 3.16: Comparaison des prévisions et valeurs réelles pour le modèle MA(3) appliqué à la série« consommation » transformée puis différenciée

45

Page 60: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.17: Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières valeursde la série « consommation »

46

Page 61: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

3.5 La série « investissements privés en capitaux »

3.5.1 Identification

FIGURE 3.18: La série « investissements privés en capitaux » (à gauche) de 1948-II à 1988-II et auto-corrélations simples (à droite)

Les investissements privés en capitaux, selon la figure 3.18, évoluent de façon croissante tout en ayant

un éventail de valeurs s’élargissant au fil du temps. Par ailleurs, la décroissance des autocorrélations

simples vers 0 est lente. Cette série est hétéroscédastique et présente une tendance marquée.

Après avoir transformé notre variable (Box-Cox suggère d’utiliser sa racine cinquième) et différencié

à l’ordre 1, nous semblons atteindre la stationnarité comme on peut le voir à la figure 3.19. Il faut

noter qu’il y a un nombre plutôt négligeable de valeurs aberrantes.

FIGURE 3.19: Série « Investissements privés » transformée et différenciée

3.5.2 Estimation

L’analyse initiale suggère un processus AR(1) comme modèle de départ.

Comme le montre le tableau 3.14, le test de Student sur la nullité de la constante conclut que celle-

ci n’est pas significative. On l’ôte du modèle. Par la suite, nous ajoutons le coefficient ϕ4 puisque

l’autocorrélation simple estimée résiduelle au retard 4 est non-nulle , ce qu’illustre le graphique 3.20.

47

Page 62: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE 3.14: Tableau des estimateurs des paramètres du modèle de départ AR(1) avec constante pourla série « investissements privés » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 0.0050405 0.0037388 1.35 0.1795

ϕ1 0.23594 0.07731 3.05 0.0027

Puis, nous introduisons ϕ8 et ϕ12 puisque les autocorrélations simples résiduelles sortent de la bande

de confiance.

FIGURE 3.20: Série « Investissements privés » transformée et différenciée

Cette approche améliore bien le modèle : l’AIC baisse. Il prend les valeurs -606.01 puis -614.263,

puis -615.795 puis -618.048 selon les modèles spécifiés.

En somme, le modèle final est un SARIMA4((1,1,0)(3,0,0)) sans constante qui s’écrit comme suit :

∇X0.2t =−0.24976∇X0.2

t−1 +0.3031∇X0.2t−4 +0.18896∇X0.2

t−8 +0.16086∇X0.2t−12 + εt

On remarque à la lumière du tableau 3.15, que le modèle final est le meilleur de tous ceux qui avaient

été choisis. Son AIC est le plus petit et ses valeurs p de test Portmanteau sont les plus élevées à chaque

valeur de K associée.

TABLE 3.15: Comparaison des modèles candidats sans constante-Test Portmanteau sur les résidus,AIC, BIC-série « investissements privés »

Retard K 12 18 24 AIC BIC

p-valeur

Modèle 1 (p=1 sans constante ) 0.0503 0.1470 0.2697 -606.01 -602.935Modèle 2 (p=1,4 sans constante ) 0.2245 0.5203 0.5797 -614.263 -608.113

Modèle 3 (p=1,4,8 sans constante ) 0.2848 0.5169 0.5289 -615.795 -606.569Modèle final (p=1,4,8,12 sans constante ) 0.4438 0.7337 0.7645 -618.048 -605.747

48

Page 63: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE 3.16: Tableau des estimateurs des paramètres du modèle candidat AR(12) sans constante avecp=1,4,8,12 pour la série « investissements privés » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testϕ1 0.24976 0.07356 3.40 0.0009ϕ4 -0.30310 0.07703 -3.93 0.0001ϕ8 -0.18896 0.07948 -2.38 0.0187ϕ12 -0.16086 0.07847 -2.05 0.0420

3.5.3 Diagnostic

Tests sur les coefficients

Les statistiques de test de nullité des coefficients sont toutes grandes en valeur absolue à un seuil de

5%. Tous les coefficients sont donc significativement non-nuls. Par ailleurs, ils sont non corrélés car

le tableau 3.17 nous permet de constater que toutes les valeurs absolues des corrélations entre les

coefficients estimés sont inférieures à 0.9.

TABLE 3.17: Matrice de corrélation des estimateurs pour le modèle final SARIMA4((1,1,0)(3,0,0))

Paramètre ϕ1 ϕ4 ϕ8 ϕ12

ϕ1 1.000 -0.002 0.056 -0.048ϕ4 -0.002 1.000 0.268 0.167ϕ8 0.056 0.268 1.000 0.272ϕ12 -0.048 0.167 0.272 1.000

Tests sur les résidus

La figure 3.21 montre que les autocorrélations simples estimées des résidus sont approximativement

nulles et qu’on ne peut pas rejeter l’hypothèse nulle selon laquelle ils sont des bruits blancs (valeurs p

supérieures à 5%).

TABLE 3.18: Test Portmanteau sur les résidus du modèle final SARIMA4((1,1,0)(3,0,0))-série « in-vestissements privés »

Retard K 12 18 24Statistique Q 7.89 10.38 15.21

Valeur p du test 0.4438 0.7337 0.7645

Les résidus sont non-corrélés. En effet, toutes les valeurs p du test Portmanteau aux valeurs K égales

à 12, 18 et 24 sont supérieures au seuil égal à 5%.

Comme toutes les postulats sont respectés, alors le modèle finalement choisi est adéquat.

49

Page 64: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.21: Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieurdroit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit)

3.5.4 Prévision

Les valeurs prédites à partir de ce modèle sur une période de 5 ans entre avril 1983 et avril 1988 sont

proches des valeurs observées. Nous pouvons conclure que notre modèle produit de bonnes estima-

tions rétrospectives des vraies valeurs.

Le fait d’enlever les quatre dernières valeurs de la série a conduit à avoir un nouveau modèle moins

précis en général mais les prévisions sont près des valeurs observées.

50

Page 65: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.22: Comparaison des prévisions et valeurs réelles pour le modèleSARIMA4((1;1;0)(3;0;0)) appliqué à la série « Investissements privés » transformée puis dif-férenciée

FIGURE 3.23: Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières valeursde la série « investissements privés »

51

Page 66: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

3.6 La série « investissements gouvernementaux »

3.6.1 Identification

FIGURE 3.24: La série « investissements gouvernementaux » (à gauche) de 1948-II à 1988-II et auto-corrélations simples (à droite)

Le graphique 3.24 présente une tendance linéaire croissante et connait des variations en certains

points. Cependant, une différenciation sera suffisante pour rendre notre série stationnaire même s’il y

a quelques chocs.

FIGURE 3.25: Série différenciée d’un ordre et corrélogrammes

52

Page 67: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE 3.19: Tableau des estimateurs des paramètres du modèle de départ AR(1) avec constante pourla série « investissements gouvernementaux » différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 3.66224 1.11379 3.29 0.0012

ϕ1 0.45111 0.07111 6.34 < 0.0001

3.6.2 Estimation

L’analyse initiale suggère un processus AR(1) comme modèle de départ. En estimant les paramètres

associés à ce modèle, on réalise que tous les coefficients sont significatifs. On peut encore améliorer

ce modèle en ajoutant les opérateurs de retard 3 et 12 car les autocorrélations partielles résiduelles

associées sont significativement non-nulles (voir graphiques 3.26 ci-dessous).

FIGURE 3.26: Autocorrélations simples (à gauche) et autocorrélations partielles (à droite) des résidus

Ces ajouts nous permettent d’avoir notre modèle final. Notre modèle final est autorégressif d’ordre 12

sous contrainte ϕ2 = ϕ5 = ϕ6 = ϕ7 = ϕ8 = ϕ9 = ϕ10 = ϕ11 = 0.

L’équation du polynôme caractéristique dont les modules des racines sont supérieurs à 1 est :

Φ(B) = 1−0.39381B−0.15991B3 +0.16454B12,

et le modèle s’écrit :

∇Xt = 0.39381∇Xt−1 +0.15991∇Xt−3−0.16454∇Xt−12.

53

Page 68: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Les modules des racines du polynôme autorégressif sont tous supérieurs à 1.

3.6.3 Diagnostic

Tests sur les coefficients

TABLE 3.20: Tableau des estimateurs des paramètres du modèle final ARIMA(12,1,0) avec p=1,3,12pour la série « investissements gouvernementaux » différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 3.59217 0.99356 3.62 0.0004

ϕ1 0.39381 0.07239 5.44 <0.0001ϕ3 0.15991 0.07219 2.22 0.0282ϕ12 -0.16454 0.07450 -2.21 0.0287

Tous les coefficients estimés sont non-nuls selon les résultats du test de Student. Aussi, sont-ils très

faiblement corrélés deux à deux comme le montre le tableau 3.21.

TABLE 3.21: Matrice de corrélation des estimateurs pour le modèle final ARIMA(12,1,0) avec coef-ficients non nuls à p=1,3,12

Paramètre Constante ϕ1 ϕ3 ϕ12

Constante 1.000 -0.010 -0.009 0.024ϕ1 -0.010 1.000 0.262 0.110ϕ3 -0.009 0.262 1.000 -0.039ϕ12 0.024 0.110 -0.039 1.000

Tests sur les résidus

La figure 3.27 montre que les autocorrélations simples estimées des résidus sont approximativement

nulles et qu’on ne peut pas rejeter l’hypothèse nulle selon laquelle ils sont des bruits blancs (valeurs p

supérieures à 5%).

TABLE 3.22: Test Portmanteau sur les résidus du modèle final ARIMA(12,1,0) avec coefficients nonnuls à p=1,3,12-série « investissements gouvernementaux »

Retard K 12 18 24Statistique Q 7.46 9.67 11.06

Valeur p du test 0.5889 0.8401 0.9616

Les résidus sont non-corrélés comme le montre leur test Portmanteau. Les valeurs de p du test sont

très élevées lorsque K prend les valeurs 18 (p-valeur=0.8401) et 24 (p-valeur=0.9616).

On peut déduire de tous ces tests que le modèle final est adéquat.

54

Page 69: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.27: Autocorrélations simples (à gauche) et autocorrélations partielles (à droite) des résidus

3.6.4 Prévision

Enfin, les prévisions comparées aux vraies valeurs sont bonnes (voir graphique 3.28). Par conséquent,

notre modèle s’ajuste correctement.

Le graphique 3.29 montre que le modèle choisi précédemment est très robuste. Les prédictions des

quatres derniers trimestres et les vraies valeurs sont proches les unes des autres.

3.7 Conclusion

Dans cette partie, l’on a été en mesure d’atteindre l’objectif de déterminer des modèles qui s’ajustent

le mieux à chacune de ces séries. On a constaté que les séries dont les tracés présentaient un schéma

similaire d’évolution des valeurs étaient ajustées par le même type de modèle (par exemple séries

« chômage » et « investissements privés », modèles autorégressifs saisonniers). Cette observation lais-

serait présupposer un lien entre ces séries. Devant non seulement les imperfections de modèle mais

le fait qu’il existerait fort probablement des liens entre les variables à l’étude, la question de trouver

un meilleur modèle se pose. Un modèle conjoint serait-il approprié et réduirait-il les imperfections ?

Ou devrait-on juste se limiter à prédire nos variables par leurs propres valeurs passées et / ou des

bruits blancs passés ? Dans les prochains chapitres, nous allons étudier de façon plus approfondie la

possibilité d’améliorer la prédiction et de trouver des liens intéressants grâce à un ajustement par un

modèle conjoint de type vecteur autorégressif (VAR).

55

Page 70: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 3.28: Comparaison des prévisions et valeurs réelles pour le modèle ARIMA(12,1,0) avecp=1,3,12 appliqué à la série « investissements gouvernementaux » différenciée

FIGURE 3.29: Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières valeursde la série « investissements gouvernementaux »

56

Page 71: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Chapitre 4

MODÈLES VAR(p)

Au chapitre 2, nous avons étudié le fait qu’une variable pouvait être prédite grâce à son passé. Cepen-

dant, dans bien des systèmes, par exemple dans le domaine économique, il est impossible de croire

qu’une variable "s’autoprédise" parfaitement. En effet, la plupart du temps, la prédiction est souvent

meilleure lorsqu’on inclut d’autres variables dans le modèle étudié. Ce chapitre présente les proces-

sus VAR (vecteurs autorégressifs) qui sont des modèles à plusieurs variables. Ces variables sont les

composantes d’un vecteur dont la longueur équivaut au nombre de variables étudiées. L’étude de ces

modèles répond à deux objectifs que sont la prédiction et l’analyse structurelle. L’analyse structu-

relle permet d’interpréter un modèle VAR. Dans ce chapitre, il s’agira non seulement de présenter ces

modèles mais aussi leurs différentes représentations. Ces formes seront utiles dans la définition de

certaines notions de ce chapitre et des calculs associés à celles-ci comme celui de la moyenne et des

fonctions d’autocovariance et d’autocorrélation. Les paramètres de ces modèles peuvent être estimés

par les méthodes des moindres carrés multivariée et du maximum de vraisemblance. Nous verrons

aussi comment choisir l’ordre du processus, valider le modèle choisi et faire des prévisions. Ensuite,

nous définirons divers concepts reliés aux relations dynamiques qui pourraient exister entre les va-

riables du système. Ces concepts, qui sont des éléments de l’analyse structurelle, sont entre autres

la causalité, l’impact d’une impulsion et la décomposition des covariances des erreurs de prédiction.

L’analyse de causalité, qui est un concept lié à la corrélation, permet de conclure si l’inclusion d’une

ou plusieurs variables dans l’analyse d’une série ou d’un vecteur de séries améliorera la prévision

de celle(s)-ci selon certains critères. Plusieurs définitions de ce concept existent mais nous n’en pré-

senterons que deux : la causalité au sens de Granger et la causalité instantanée. Nous verrons aussi

le test de Wald associé à la première. Par ailleurs, faire subir un choc exogène à une variable, tout

en gardant les autres composantes du système intactes et vérifier l’influence que ce choc aura sur les

autres à l’étude est la méthode appelée l’analyse de l’impact d’une impulsion. La décomposition des

covariances de l’erreur de prédiction permet de connaître la part jouée par chaque composante dans

le calcul de l’erreur de prédiction d’une composante en particulier. Enfin, nous faisons un résumé des

étapes de la construction d’un modèle VAR adéquat lorsqu’on doit en ajuster un à un jeu de données.

57

Page 72: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

4.1 Stationnarité d’un processus K-vectoriel

On généralise la notion de stationnarité faible ou de second ordre vue au chapitre 1 au cas vectoriel.

Définition 4.1 (Stationnarité faible d’un processus K-vectoriel) Un processus K-vectoriel yt est dit

stationnaire si et seulement si :

E[yt ] = µ, ∀ t ∈Z,

E[yty′t ]< ∞, ∀ t ∈Z,

et

E[(yt −µ)(yt−h−µ)′] = Γy(h) = Γ′y(−h), ∀ t ∈Z et h = 0,1, . . .

Comme mentionné dans le chapitre 1, c’est la définition de la stationnarité ci-dessus que nous utili-

serons lorsque nous ferons mention de cette notion. Γy(.) est la fonction matrice de covariances du

processus stationnaire yt .

Définition 4.2 (Définition de γi j(.)) 1 Soit un processus K-vectoriel yt . La fonction matrice de cova-

riances Γy(.) s’exprime sous la forme :

Γy(h) = [γi j(h)]i, j=1,...,K =

γ11(h) γ12(h) . . . γ1K(h)

. . . γ22(h) . . . γ2K(h)...

.... . .

...

γK1(h) . . . . . . γKK(h)

L’élément γi j(.) présente :

– les variances des K composantes du processus yt : γii(0), ∀i = 1, . . . ,K ;

– les liens instantanés entre yit et y jt : γi j(0) =Cov(yit ,y jt),∀i 6= j = 1, . . . ,K ;

– la fonction d’autocovariance de chacune des K composantes du processus yt : γii(h)=Cov(yit ,yi,t−h), ∀i=1, . . . ,K, ∀h 6= 0 ;

– la fonction de covariance croisée entre les composantes i et j du processus yt :γi j(h)=Cov(yit ,y j,t−h),∀i 6=j = 1, . . . ,K, ∀h 6= 0.

Proposition 4.1 La fonction d’autocovariance d’un processus K-vectoriel yt stationnaire notée Γ(.)

a les propriétés suivantes :

– Γ(h) = Γ(−h)′, ∀h = 0,1 . . . ;

– |γi j(h)| ≤ [γii(0)γ j j(0)]12 , ∀h = 0,1 . . . ,∀ i et j = 1, . . . ,K ;

– γii(.) est la fonction d’autocovariance de la composante i, i = 1, . . . ,K ;

1. Cette définition est inspirée de Lardic and Mignon (2002, pp. 62-63)

58

Page 73: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

– γi j(h) est la fonction de covariance croisée entre les composantes yi,t et y j,t−h du processus yt , ∀ i et j =

1, . . . ,K ;

– ∑nj=1 a′jΓ( j− k)ak ≥ 0, ∀ n ∈N∗ et a1, . . . ,an ∈RK .

La stationnarité du processus K-dimensionnel implique la stationnarité de chacune des composantes

du processus K-vectoriel. En effet, le vecteur µ est composé de valeurs constantes qui représentent les

moyennes de chaque composante du processus. Par ailleurs, la fonction d’autocovariance (dont nous

définirons les propriétés plus bas) d’un processus K-vectoriel stationnaire à l’horizon h dépend uni-

quement de l’écart de temps h. Ceci entraine que chacun des éléments de la matrice d’autocovariance

dépend uniquement de h. La diagonale de cette matrice K×K comporte les fonctions d’autocova-

riance des K composantes du processus qui dépendent, donc elles-aussi, du retard h. Ainsi, on peut

conclure que la stationnarité d’un processus K-vectoriel implique la stationnarité de chacune de ses K

composantes. Par contre, la stationnarité marginale des K composantes n’entraine pas leur stationna-

rité conjointe. En voici un exemple illustratif :

Contre-exemple 4.1 2 Supposons deux processus stationnaires y1,t et y2,t et un processus bivarié

yt =

y1,t = ε1,t

y2,t = ε2,t +(−1)tε1,t, ∀ t ∈ Z,

où ε1,t et ε2,t sont des bruits blancs faibles (voir définition 1.5 au chapitre 1) indépendants.

E[y1t ] = 0 et

Cov(y1,t+h,y1,t) = E[y1,t+hy1,t ] = E[ε1,t+hε1,t ] = γε1(h)

donc y1t est stationnaire.

E[y2t ] = 0 et

Cov(y2,t+h,y2,t) = E[y2,t+hy2,t ] = E[(ε2,t+h +(−1)t+hε1,t+h)(ε2,t +(−1)t

ε1,t)] = γε2(h)+(−1)hγε1(h)

car ε1t et ε2t sont indépendants. Par conséquent, y2t est stationnaire.

2. Exemple tiré des notes du Professeur Carbon (2017)

59

Page 74: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Le processus bivarié yt est-il stationnaire ?

E[(yt+h−µ)(yt −µ)′] = E[yt+hy′t ]

= E

[ [y1,t+h

y2,t+h

] [y1,t y2,t

] ]

= E

[y1,t+hy1,t y1,t+hy2,t

y2,t+hy1,t y2,t+hy2,t

]

= E

[ε1,t+hε1,t ε1,t+h(ε2,t +(−1)tε1t)

(ε2,t+h +(−1)t+hε1,t+h)ε1,t (ε2,t+h +(−1)t+hε1,t+h)(ε2,t +(−1)tε1,t)

]

=

[γε1(h) (−1)tγε1(h)

(−1)t+hγε1(h) γε2(h)+(−1)h)γε1(h)

]

Comme E[(yt+h−µ)(yt −µ)′] dépend de t, alors le processus bivarié yt n’est pas stationnaire.

Nous pouvons aussi définir la matrice d’autocorrélation d’un processus stationnaire yt .

Définition 4.3 La matrice d’autocorrélation d’un processus stationnaire yt est notée R(.) = [ρi j(.)]

et ρii(0) = 1. On a :

ρi j(.) =γi j(.)

(γii(0)γ j j(0))12

(4.1)

Exemple 4.1 [Exemple d’application : fonctions d’autocovariance et d’autocorrélation] À partir de

cet exemple 3, nous allons calculer les fonctions d’autocovariance et d’autocorrélation d’un proces-

sus. Soit un processus bivarié yt tel que :

yt =

y1t = ut

y2t = ut +34 ut−10

, ∀ t ∈ Z,

avec (ut , t ∈ Z), un bruit blanc gaussien (voir définition 1.6 au chapitre 1) stationnaire de variance

égale à 1. Alors :

Γy(h) = E[(yt −µ)(yt−h−µ)′] = E

[[ut

ut +34 ut−10

][u′t−h u′t−h +

34 u′t−h−10

]]

Γy(h) =

[γu(h) γu(h)+ 3

4 γu(10+h)

γu(h)+ 34 γu(h−10) (1+ 9

16)γu(h)+ 34 γu(10+h)+ 3

4 γu(h−10)

]3. Tiré de Brockwell and Davis (2009, pp. 403-404)

60

Page 75: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Pour h = 0,

Γy(0) =

[γu(0) γu(0)

γu(0) (1+ 916)γu(0)

]=

[1 1

1 1.5625

],

Ry(0) =

1 1

1.562512

1

1.562512

1.56251.5625

=

[1 0.8

0.8 1

],

pour h = 10,

Γy(10) =

[0 034

34

],

Ry(10) =

[0 03

4∗1.562512

34∗1.5625

]=

[0 0

0.6 0.48

],

pour h =−10,

Γy(−10) =

[0 3

4

0 34

],

et

Ry(−10) = Ry(10)′ =

[0 0.6

0 0.48

],

et

Ry(h) = 0, ∀|h| 6= 0,10

Nous allons aussi définir la notion de bruit blanc vectoriel puisque nous l’utiliserons dans la définition

d’un processus VAR(p).

Définition 4.4 (Bruit blanc vectoriel) Soit ut , un processus K-dimensionnel qui s’écrit :

ut =

u1t

u2t...

uKt

, ∀ t ∈ Z.

Ce processus est appelé un bruit blanc K-vectoriel faible si

– E[ut ] = 0, ∀t ∈Z ;

– E[utu′s] = 0, ∀s 6= t ∈Z ;

– E[utu′t ] = Σu, ∀ t ∈Z.

où Σu est la matrice de variances-covariances constantes des K composantes du processus ut .

61

Page 76: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Il faut noter que Σu n’est pas nécessairement diagonale. En effet, deux composantes uit et u jt du bruit

blanc vectoriel ut peuvent être linéairement dépendantes au même temps t. Cependant, il n’existe

pas de lien temporel entre ces composantes-là, c’est-à-dire, leur covariance est nulle lorsqu’il y a un

espace de temps entre ces deux composantes (par exemple uit et u j,t+h avec h non-nul).

4.2 Écriture moyenne mobile d’un processus K-vectoriel etdécomposition de Wold

Soit yt = (y1t , . . . ,yKt)′. Sous l’hypothèse de stationnarité, on a E[yt ] = µ = (µ1, . . . ,µK)

′ et Σyt =

E[(yt − µ)(yt− j− µ)′], j ∈N. On a que Σy0 est symétrique mais pas nécessairement Σyt . En effet, la

covariance entre y1,t et y2,t− j n’est pas obligatoirement égale à la covariance entre y2,t et y1,t− j. Mais,

on a tout de même Σy j = E[(yt − µ)(yt− j− µ)′] = E[(yt+ j− µ)(yt − µ)′] à cause de la stationnarité,

d’où, Σ′y j= E[(yt −µ)(yt+ j−µ)′] = Σy− j .

Il peut être utile d’introduire la notion de décomposition de Wold au cas multivarié sous la condition

de stationnarité.

Proposition 4.2 (Décomposition de Wold d’un processus multivarié stationnaire) Tout processus

K-vectoriel stationnaire yt non déterministe peut être décomposé en deux composantes mutuellement

non corrélées xt et zt , c’est-à-dire,

yt = xt + zt , t ∈ Z,

où xt est un processus déterministe, c’est-à-dire, qui peut être exactement prédit par une fonction

linéaire de ses observations passées et zt est un processus ayant une forme moyenne mobile infinie et

s’écrivant donc :

zt =∞

∑i=0

ψiut−i = (I +ψ1B+ . . .)ut , t ∈Z,

où ut est un bruit blanc vectoriel.

Dans notre contexte, si

yt = µ +∞

∑i=0

ψiut−i, (4.2)

alors xt = µ est la composante déterministe puisque µ est un vecteur de valeurs constantes et (I +

ψ1B+ . . .)ut est la composante non déterministe.

4.2.1 V MA(q)

Il se peut que l’écriture moyenne mobile de yt soit finie, c’est-à-dire que ψi = 0 si i> q dans l’équation

( 4.2). On a alors un V MA(q) qui s’écrit

yt = µ +ψ1ut−1 + · · ·+ψqut−q.

62

Page 77: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Dans ce cas, on a

Σy0 = Σu +ψ1Σuψ′1 + · · ·+ψqΣuψ

′q

et

Σy j =

ψ jΣu +ψ j+1Σuψ ′1 + · · ·+ψqΣuψ ′q− j, ∀ j = 1,2, . . . ,q

ψ− jΣu +ψ ′1Σuψ− j+1 + · · ·+ψq+ jΣuψ ′q, ∀ j =−1,−2, . . . ,−q

0,∀| j|> q.

Ainsi, tout V MA(q) est stationnaire car les 2 premiers moments ne dépendent pas de t.

Démonstration du calcul de Σy j

yt = µ +ψ1ut−1 + · · ·+ψqut−q.

⇒yt −µ = ψ1ut−1 + · · ·+ψqut−q et yt−h−µ = ψ1ut−h−1 + · · ·+ψqut−h−q.

Alors : Σy j = Γy( j) = E [(yt −µ)(yt−h−µ)′]

Σy j = E[(∑

qi=0 ψiut−i)(∑

qh=0 u′t− j−hψ ′h)

]⇒Σy j = E

[∑

qi= j ψiut−iu′t−iψ

′i− j

]car E[utu′s] = 0, ∀t 6= s et puisque E[utu′t ] = Σu,

Σy j = ∑qi= j ψiΣuψ ′i− j.

Ainsi :

pour j = 0,

Σy0 = ∑qi=0 ψiΣuψ ′i = Σu +ψ1Σuψ ′1 + · · ·+ψqΣuψ ′q, avec ψ0 = IK

pour j = 1,2, . . . ,q,

Σy j = ψ jΣu +ψ j+1Σuψ ′1 + · · ·+ψqΣuψ ′q− j

pour j =−1,−2, . . . ,−q,

Σy j = ψ− jΣu +ψ ′1Σuψ− j+1 + · · ·+ψq+ jΣuψ ′q car Σy− j = Σ′y j

et pour | j|> q,

Σy j = 0.

4.2.2 V MA(∞)

Pour sa définition, une condition de convergence similaire au cas univarié et suffisante que l’on doit

imposer pour garantir l’existence des moments d’ordre 2 de y j est la sommabilité absolue de la suite

de matrices ψy j∞j=0.

En effet,

Σy j =∞

∑s=0

ψ j+sΣuψ′s, j ∈ N.

63

Page 78: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

4.3 Les processus VAR(p)

Un processus vectoriel autorégressif d’ordre (p), dit VAR(p), est une généralisation des processus

AR(p) au cas multivarié. La dimension de ce processus représente le nombre de variables étudiées

qui composent ce processus vectoriel et pour lequel on cherche à établir des relations linéaires entre

les variables. Selon le besoin, on l’exprime sous une forme particulière. Nous allons présenter ces

diverses formes qui serviront à introduire et définir certaines propriétés de ce type de processus et

seront utiles à l’analyse du processus. Nous allons utiliser la notation de Lütkepohl (2006).

Exemple 4.2 Un exemple de VAR(2) bivarié serait :

yt =

[y1t

y2t

]=

[1

5

]+

[0.7 0.4

1 0.2

][y1,t−1

y2,t−1

]+

[0.1 0.87

0.25 0.98

][y1,t−2

y2,t−2

]+

[u1t

u2t

], t ∈Z

On peut aussi écrire :y1t = 1+0.7y1,t−1 +0.4y2,t−1 +0.1y1,t−2 +0.87y2,t−2 +u1t

y2t = 5+ y1,t−1 +0.2y2,t−1 +0.25y1,t−2 +0.98y2,t−2 +u2t

4.3.1 Formes d’un processus VAR(p)

Dans cette section, il s’agira de présenter différentes réprésentations toutes équivalentes d’un proces-

sus VAR(p).

Forme usuelle ou standard

Définition 4.5 Soit yt , un processus K-dimensionnel. yt est un processus VAR(p) s’il s’écrit sous la

forme

yt = ν +A1yt−1 +A2yt−2 + · · ·+Apyt−p +ut , t ∈Z (4.3)

– yt = (y1t ,y2t , · · · ,yKt) est le vecteur de dimensions (K×1) des variables à l’étude ;

– ν = (ν1,ν2, · · · ,νK) est un vecteur (K× 1) de constantes associées respectivement à chaque va-

riable ;

– Ai sont des matrices (K×K) de coefficients fixes, (i = 1,2, · · · ,p) ;

– ut = (u1t ,u2t , · · · ,uKt)′ est un vecteur (K×1) de bruits blancs, ou bruit blanc vectoriel, appelé aussi

processus d’innovations K-dimensionnel avec E[ut ] = 0, E[utus] = 0 ∀s 6= t et E[utu′t ] = Σu, Σu étant

la matrice non singulière de variances-covariances des innovations.

On a donc un processus dans lequel K variables sont chacune des fonctions de leurs propres valeurs

passées et des valeurs passées des K− 1 autres variables. Il peut être utile d’utiliser l’une ou l’autre

des formes suivantes.

64

Page 79: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Forme VAR(1) d’un processus VAR(p)

Dans cette sous-section, nous allons écrire un processus VAR(p) sous la forme d’un processus VAR(1).

Rappelons que, sous sa forme usuelle, un VAR(1) s’écrit :

yt = ν +A1yt−1 +ut , t ∈Z (4.4)

Proposition 4.3 [Forme VAR(1) d’un processus VAR(p)] Un processus VAR(p) yt peut s’écrire sous

la forme d’un VAR(1), qu’on notera Yt . Ainsi :

Yt = C+AYt−1 +Ut , t ∈Z (4.5)

Yt =

yt

yt−1...

yt−p+1

C =

ν

0...

0

Ut =

ut

0...

0

A =

A1 A2 . . . Ap−1 Ap

IK 0 . . . 0 0

0 IK. . . 0 0

.... . . . . . . . .

...

0 0 . . . IK 0

Yt , C et Ut sont des vecteurs de dimensions (K p× 1) et la matrice A de dimensions (K p×K p) est

appelée la matrice compagnon du processus VAR(p). IK est la matrice identité de dimensions (K×K),

yt = JYt où J est la matrice de dimensions (K×K p) qui s’exprime de la façon suivante :

J =[

IK : 0 : 0 : . . . 0]

Remarque concernant les écritures yt et Yt : Yt est l’écriture du processus VAR(p) yt sous la forme

VAR(1). Il est donc nécessaire de distinguer ces deux formes. La plupart du temps, on utilisera la

réprésentation usuelle yt .

65

Page 80: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Exemple 4.3 Pour les objectifs de ce chapitre, nous allons choisir un processus bivarié VAR(2) qui

s’écrit :

yt = ν +A1yt−1 +A2yt−2 +ut , t ∈Z

où yt =

[y1t

y2t

], ν =

[0

1

], A1 =

[0.6 0.2

0.3 0.7

], A2 =

[−0.3 0

0.1 0.1

], et

Σu =

[σ2

1 σ12

σ12 σ22

]=

[E[u2

1t ] E[u1tu2t ]

E[u1tu2t ] E[u22t ]

]=

[0.25 0

0 0.09

].

Dans ce cas :

Pour la forme VAR(1), C =

0

1

0

0

et

A =

0.6 0.2 −0.3 0

0.3 0.7 0.1 0.1

1 0 0 0

0 1 0 0

.

Donc :

Yt =C+AYt−1+Ut =

y1t

y2t

y1,t−1

y2,t−1

=

0

1

0

0

+

0.6 0.2 −0.3 0

0.3 0.7 0.1 0.1

1 0 0 0

0 1 0 0

y1,t−1

y2,t−1

y1,t−2

y2,t−2

+

u1t

u2t

u1,t−1

u2,t−1

, t ∈Z.

Forme moyenne mobile d’un processus VAR(p) et décomposition de Wold

Considérons tout d’abord un VAR(1). Un processus K-dimensionnel VAR(1) est un vecteur de K

variables dont chacune est une fonction linéaire de sa dernière valeur passée et des valeurs passées et

courantes des K−1 autres variables. Sous sa forme usuelle, il s’écrit

yt = ν +A1yt−1 +ut , t ∈Z. (4.6)

On a successivement (décomposition avant) :

y1 = ν +A1y0 +u1

y2 = ν +A1y1 +u2 = ν +A1(ν +A1y0 +u1)+u2 = (IK +A1)ν +A21y0 +A1u1 +u2

...

yt = (IK +A1 + · · ·+At−11 )ν +At

1y0 +∑t−1i=0 Ai

1ut−i, où A01 = IK

On voit alors que yt dépend de y0 et des bruits blancs passés et courant.

Précédemment, on a supposé que le processus avait pour origine le temps 0. Nous allons généraliser

cette expression, c’est-à-dire, en supposant que t = 0,±1,±2, · · · . On a alors, en itérant vers le passé,

66

Page 81: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

l’expression (décomposition arrière)

yt = ν +A1yt−1 +ut

yt = ν +A1(ν +A1yt−2 +ut−1)+ut

yt = (IK +A1)ν +A21yt−2 +A1ut−1 +ut

yt = (IK +A1 +A21)ν +A3

1yt−3 +A21ut−2 +A1ut−1 +ut

...

yt = (IK +A1 + · · ·+A j1)ν +A j+1

1 yt− j−1 +j

∑i=0

Ai1ut−i, t ∈Z. (4.7)

Si les modules de toutes les valeurs propres de la matrice A1 sont inférieurs à 1, alors la suite Ai1 est

absolument sommable et par conséquent A j+11 converge vers 0 lorsque j→ ∞,

(IK +A1 + · · ·+A j1)ν −−−→j→∞

(IK−A1)−1ν ,

(IK−A1)−1ν = µ et ∑

∞i=0 Ai

1ut−i existe en moyenne quadratique.

L’expression ( 4.7) est donc réduite à

yt = µ +∞

∑i=0

Ai1ut−i, t ∈Z.

Cette expression est appelée la forme moyenne mobile infinie d’un processus VAR(1).

Proposition 4.4 (Moyenne mobile infinie d’un processus VAR(1)) Si les modules de toutes les va-

leurs propres de la matrice A1 d’un processus VAR(1) sont inférieurs à 1, alors on peut exprimer yt

sous la forme suivante :

yt = µ +∞

∑i=0

Ai1ut−i, t ∈Z (4.8)

où µ = (IK−A1)−1ν .

Exemple 4.4 Supposons le processus VAR(1) bivarié suivant :

yt =

[0.7 0.1

0.6 0.25

]yt−1 +ut , ∀ t ∈Z.

Les modules des valeurs propres de la matrice A1 sont 0.8076 et 0.1424. Comme ces valeurs sont

inférieures à 1, alors le processus peut s’écrire sous la forme moyenne mobile infinie :

yt = µ +∞

∑i=0

Ai1ut−i =

∑i=0

[0.7 0.1

0.6 0.25

]i

ut−i.

67

Page 82: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Par exemple A01 = I2, A2

1 =

[0.55 0.0950

0.57 0.1225

], et A3

1 =

[0.4420 0.078750

0.4725 0.087625

].

Aussi, A101 =

[0.0989350 0.01774290

0.1064574 0.01909196

]et A20

1 =

[0.01167700 0.002094140

0.01256484 0.002253366

].

On peut noter que les éléments des matrices Ai1 diminuent et tendent vers 0, lorsque la valeur i aug-

mente.

En se servant de la forme VAR(1) d’un processus VAR(p) et en définissant certaines conditions, nous

allons généraliser l’expression ( 4.8) au cas VAR(p).

Proposition 4.5 (Représentation moyenne mobile infinie d’un processus VAR(p)) Si les modules

des valeurs propres de la matrice compagnon A sont tous inférieurs à 1, alors :

Yt = µ+∞

∑i=0

AiUt−i, t ∈Z, (4.9)

µ= (IK p−A)−1C,

et Yt , C et Ut sont des vecteurs de dimensions (K p×1) et la matrice A de dimensions (K p×K p) est

appelée la matrice compagnon du processus VAR(p).

La contrainte sur les modules des valeurs propres de la matrice compagnon A dans le cas d’un proces-

sus VAR(p) est appelée la condition de stabilité. La stabilité est une généralisation au cas multivarié

de l’inversion possible d’opérateurs des processus MA(q) et ARMA(p,q).

Définition 4.6 (Stabilité d’un processus VAR(p)) Un processus VAR(p) yt est stable si les modules

de toutes les valeurs propres de la matrice compagnon A sont inférieurs à 1, c’est-à-dire

det(IK p−Az) 6= 0 ∀ |z| ≤ 1

ou de façon équivalente, si

det(IK−A1z−A2z2−·· ·−Apzp) 6= 0, ∀ |z| ≤ 1;

où det(IK p) est appelé le polynôme caractéristique inverse.

En effet,

det(IK p−Az) = det(IK−A1z−A2z2−·· ·−Apzp).

68

Page 83: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Cette notion nous fait penser à celle de la stationnarité, laquelle a été maintes fois mentionnée au

chapitre 2 puisqu’étant une des conditions sine qua non à l’ajustement d’une série à l’un des mo-

dèles proposés par Box et Jenkins. La stabilité implique la stationnarité. Cependant, un processus

stationnaire n’est pas obligatoirement stable. Cette proposition sera prouvée lorsque nous définirons,

de manière explicite, la moyenne et la fonction d’autocovariance d’un processus VAR(p) stable.

Exemple 4.5 Toujours en se servant du même processus qu’à l’exemple 4.3, on va vérifier la stabilité

du processus et par ricochet, sa stationnarité.

A =

0.6 0.2 −0.3 0

0.3 0.7 0.1 0.1

1 0 0 0

0 1 0 0

est la matrice compagnon de notre processus. Les valeurs propres de A sont 0.9319 et -0.1174834. Les

modules respectifs de ces valeurs propres sont 0.9319 et 0.1174834. Comme ils sont tous inférieurs à

1, alors ce processus VAR(2) est stable, donc stationnaire. Et pour vérification :

det(I4−A∗0.9319) =−2.165881 = det(I2−A1 ∗0.9319−A2 ∗0.93192)

det(I4−A∗ (−0.1174834)) = 0.1490471 = det(I2−A1 ∗ (−0.1174834)−A2 ∗ (−0.1174834)2).

Le théorème de décomposition de Wold s’applique aussi aux processus VAR(p) stables puisque la

stabilité implique la stationnarité. De plus, on voit bien que son écriture sous la forme moyenne mobile

infinie (expression ( 4.9)) représente bien un processus décomposé selon Wold. En effet, on est capable

d’identifier ses deux composantes. Sa partie déterministe est le vecteur moyenne et sa partie non

déterministe est la somme pondérée infinie de processus formant un bruit blanc vectoriel.

Rappelons que :

Yt = µ+∞

∑i=0

AiUt−i, avec t ∈Z et µ= (IK p−A)−1C,

yt = JYt et

J =[

IK : 0 : 0 : . . . 0].

Dans ce contexte, µ représente la partie déterministe et ∑∞i=0 AiUt−i constitue la partie non détermi-

niste.

Formes moyenne mobile canonique ou fondamentale et moyenne mobile orthogonale

Dans la section précédente, nous avons mentionné la représentation moyenne mobile d’un processus

Yt . Ici, nous allons en présenter deux formes issues de la première mais qui auront des utilités dif-

férentes dans les démonstrations liées aux concepts de l’analyse structurelle, à savoir la causalité au

69

Page 84: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

sens de Granger, la causalité instantanée. La propriété de stabilité du processus est nécessaire avant

de les énoncer.

Définition 4.7 (Représentation moyenne mobile canonique ou fondamentale) La représentation moyenne

mobile fondamentale ou canonique d’un processus VAR(p) yt stable s’écrit

yt = µ +∞

∑i=0

Φiut−i, t ∈Z. (4.10)

Cette forme est obtenue en posant yt = JYt , µ = Jµ, Φi = JAiJ′ et ut−i = JUt−i avec

J =[

IK : 0 : 0 : . . . 0]

Yt , C et Ut étant des vecteurs de dimensions (K p× 1) et la matrice A, la matrice compagnon de

dimensions (K p×K p) définis à la proposition 4.3.

Définition 4.8 (Représentation moyenne mobile orthogonale) La représentation moyenne mobile

orthogonale d’un processus VAR(p) yt stable s’écrit

yt = µ +∞

∑i=0

Θiwt−i, t ∈Z, (4.11)

où Θi = ΦiP, wt−i = P−1ut−i et P est une matrice triangulaire inférieure avec valeurs positives telle

que Σu = PP′. P est obtenue à partir de la décomposition de Choleski.

Cette représentation est dite orthogonale car les vecteurs de bruits blancs wt sont orthogonaux. En

effet, leur matrice de variances-covariances Σw = P−1ΣuP′−1 = IK . Leurs composantes sont donc non

corrélées.

Exemple 4.6 : (suite) Toujours en se servant du processus de l’exemple 4.3, on a Φ0 = I2, Φ1 =[0.6 0.2

0.3 0.7

], Φ2 =

[0.12 0.26

0.49 0.65

],

Φ3 =

[−0.010 0.226

0.469 0.623

],

Φ4 =

[0.0518 0.1822

0.3863 0.5949

],

µ =

[3.333333

11.66667

],

et

70

Page 85: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

yt =

[3.333333

11.66667

]+ut +

[0.6 0.2

0.3 0.7

]ut−1 +

[0.12 0.26

0.49 0.65

]ut−2 +

[−0.010 0.226

0.469 0.623

]ut−3 +[

0.0518 0.1822

0.3863 0.5949

]ut−4 + . . .

Θ0 = P =

[0.5 0

0 0.3

],

Θ1 = Φ1P =

[0.30 0.06

0.15 0.21

],

Θ2 = Φ2P =

[0.060 0.078

0.245 0.195

],

Θ3 = Φ3P =

[−0.0050 0.0678

0.2345 0.1869

]et

Θ4 = Φ4P =

[0.02590 0.05466

0.19315 0.17847

].

yt =

[3.333333

11.66667

]+

[0.5 0

0 0.3

]wt +

[0.30 0.06

0.15 0.21

]wt−1+[

0.060 0.078

0.245 0.195

]wt−2 +

[−0.0050 0.0678

0.2345 0.1869

]wt−3 +

[0.02590 0.05466

0.19315 0.17847

]wt−4 + . . .

4.3.2 Moyenne et fonctions d’autocovariance et d’autocorrélation d’un processusVAR(p) stable

Comme dans le cas univarié, on peut définir la moyenne et les fonctions d’autocovariance et d’au-

tocorrélation d’un processus VAR(p) stable. La condition de stabilité est nécessaire pour obtenir les

résultats suivants.

Définition 4.9 (Moyenne d’un processus VAR(p) stable) La moyenne µ d’un processus VAR(p) stable

yt est l’espérance de ce processus. On a

µ = E[yt ] = (IK−A1−·· ·−Ap)−1

ν , ∀ t ∈ Z (4.12)

où ν est tel que

yt = ν +A1yt−1 +A2yt−2 + · · ·+Apyt−p +ut , t ∈Z.

Preuve : On a, pour un processus VAR(p) stable yt :

yt = ν +A1yt−1 +A2yt−2 + · · ·+Apyt−p +ut , t ∈Z

71

Page 86: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

yt = ν +(A1B+A2B2 + · · ·+ApBp)yt +ut

yt = (IK−A1B−A2B2 + · · ·−ApBp)−1ν +(IK−A1B−A2B2 + · · ·−ApBp)−1ut

si et seulement si le polynôme (IK − A1z− A2z2 − ·· · − Apzp) est inversible. Or ce polynôme est

inversible ∀|z| ≤ 1, donc quand le processus yt est un VAR(p) stable.

Donc, en supposant que |z| ≤ 1, on peut écrire yt sous la forme fondamentale, c’est-à-dire :

yt = µ +∞

∑i=0

Φiut−i = µ +∞

∑i=0

ΦiBiut , t ∈Z.

Ainsi :∞

∑i=0

ΦiBi = (IK−A1B−A2B2 + · · ·−ApBp)−1

µ =∞

∑i=0

Φiν = (IK−A1−A2−·· ·−Ap)−1

ν

car ν est un vecteur de scalaires.

Exemple 4.7 (suite) Toujours en se servant du même processus de l’exemple 4.3, on a

µ =(I2−A1−A2)−1

ν =

([1 0

0 1

]−

[0.6 0.2

0.3 0.7

]−

[−0.3 0

0.1 0.1

])−1[0

1

]=

[3.333333

11.66667

].

Définition 4.10 (Fonction d’autocovariance d’un processus VAR(p) stable) La fonction d’autoco-

variance Γy(h) d’un processus VAR(p) stable yt est :

E[(yt −µ)(yt−h−µ)′] = Γy(h).

Pour |h| < p, on obtient les Γy(h) à partir de vec(ΓY (0)) = (I(K p)2 −A⊗A)−1vec(ΣU) où Yt et Ut ,

étant les mêmes vecteurs définis sous la forme VAR(1) 4, ΣU = E[UtU ′t ] et

ΓY (0) =

Γy(0) Γy(1) . . . Γy(p−1)

Γy(p−1) Γy(0) . . . Γy(p−2)...

.... . .

...

Γy(−p+1) Γy(−p+2) . . . Γy(0)

.Ici, la fonction vec transforme une matrice en un vecteur colonne selon la méthode de la définition

A.6 5 et ⊗ représente le produit de Kronecker 6.

Pour h≥ p

Γy(h) = A1Γy(h−1)+ · · ·+ApΓy(h− p). (4.13)

4. Voir proposition 4.35. Voir l’exemple A.2 pour une application6. Voir la définition A.5 et l’exemple A.1

72

Page 87: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

En particulier

Γy(0) = A1Γ′y(1)+ · · ·+ApΓ

′y(p)+Σu. (4.14)

Les deux dernières expressions ( 4.13) et ( 4.14) sont appelées les équations de Yule-Walker.

Démonstration du calcul de la fonction d’autocovariance dans le cas d’un VAR(1) stable :

E[(yt −µ)(yt−h−µ)′] = Γy(h)

Supposons le cas particulier d’un processus VAR(1) stable yt . On a, sous la forme usuelle,

yt = ν +A1yt−1 +ut , t ∈Z, ⇐⇒ yt −µ = A1(yt−1−µ)+ut t ∈Z,

car ν = (IK−A1)µ sous la propriété de stabilité et sous la forme fondamentale :

yt = µ +∞

∑i=0

Φiut−i, t ∈Z.

On a donc

Γy(h)=E[(yt−µ)(yt−h−µ)′] =A1E[(yt−1−µ)(yt−h−µ)′]+E[ut(yt−h−µ)′] =A1Γy(h−1)+∞

∑i=0

E[utu′t−h−i]Φ′i.

Pour h = 0,

Γy(0) = A1Γy(−1)+Σu

car E[utu′t ] = Σu et E[utu′t−i] = 0, i 6= 0 et Φ0 = IK .

Alors

Γy(0) = A1Γy(1)′+Σu

et

Γy(h) = A1Γy(h−1).

On peut déduire que

Γy(0) = A1Γy(0)A′1 +Σu.

Pour obtenir Γy(0), on va utiliser la fonction vec et les règles (1) et (3) de Lütkepohl (2006, pp. 661-

662), c’est-à-dire :

vec(Γy(0)) = vec(A1Γy(0)A′1)+ vec(Σu) = (A1⊗A1)vec(Γy(0))+ vec(Σu).

Ainsi

vec(Γy(0)) = (IK2−A1⊗A1)−1vec(Σu). (4.15)

73

Page 88: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Après avoir calculé vec(Γy(0)), on obtient Γy(0) en transformant le vecteur colonne en une matrice et

les Γy(h) sont calculés de façon récursive à partir de la formule Γy(h) = A1Γy(h−1).

En généralisant à un processus VAR(p) stable et en utilisant la forme VAR(1) de yt , on a

Yt = µ+∞

∑i=0

AiUt−i, ∀ t ∈Z.

Ceci nous permet d’écrire de façon analogue :

ΓY (0) = AΓY (0)A′+ΣU ,

et

ΓY (h) = AΓY (h−1).

On utilise le même procédé que dans notre cas particulier (VAR(1), expression ( 4.15)), c’est-à-dire

vec(ΓY (0)) = (I(K p)2−A⊗A)−1vec(ΣU).

On déduit ΓY (0) du calcul de vec(ΓY (0)), ce qui nous permet de trouver Γy(h) pour |h| ≤ p−1. Pour

|h| ≥ p, les Γy(h) sont obtenus de façon récursive grâce à la formule ( 4.13), c’est-à-dire

Γy(h) = A1Γy(h−1)+ · · ·+ApΓy(h− p).

Exemple 4.8 Toujours en se servant du même processus qu’à l’exemple 4.3, on a

ΓY (0) =

0.4032451 0.2471912 0.2241425 0.2154561

0.2471912 0.8426578 0.3379673 0.7753495

0.2241425 0.3379673 0.4032451 0.2471912

0.2154561 0.7753495 0.2471912 0.8426578

,

Γy(0) =

[0.4032451 0.2471912

0.2471912 0.8426578

],

Γy(1) =

[0.2241425 0.2154561

0.3379673 0.7753495

],

Γy(2) = A1Γy(1)+A2Γy(0) =

[0.08110544 0.2101862

0.36886347 0.7163664

].

Preuve : Stabilité et stationnarité

Nous avions affirmé que la stabilité impliquait la stationnarité. Selon les expressions ( 4.12), ( 4.14)

et ( 4.13), la moyenne d’un processus VAR(p) stable est constante dans le temps et sa fonction d’au-

tocovariance dépend uniquement de l’écart de temps h. Rappelons que

74

Page 89: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

µ = E[yt ] = (IK−A1−·· ·−Ap)−1ν , ∀ t ∈ Z,

Γy(h) = A1Γy(h−1)+ · · ·+ApΓy(h− p) et

Γy(0) = A1Γ′y(1)+ · · ·+ApΓ′y(p)+Σu.

La réciproque n’est toutefois pas toujours vraie. Un contre-exemple serait de choisir un processus

VAR(p) stationnaire dont au moins l’un des modules des valeurs propres de sa matrice compagnon est

supérieur à 1. Le processus VAR(1) bivarié stationnaire centré (de moyenne 0) tel que

yt = A1yt−1 +ut =

[1.7 0.5

0.1 3

]yt−1 +ut

n’est pas stable puisque les modules des valeurs propres de la matrice A1 sont supérieurs à 1. Ils sont

égaux à 3.037386 et 1.662614.

Définition 4.11 (Fonction d’autocorrélation d’un processus VAR(p) stable) La fonction d’autocor-

rélation Ry(h) d’un processus VAR(p) stable yt est

Ry(h) = D−1Γy(h)D−1, (4.16)

où D est une matrice diagonale composée des racines carrées des éléments de la diagonale de Γy(0),

donc les écarts-types des K variables composant le processus vectoriel yt .

Toutes ces définitions sont des généralisations des cas univariés étudiés précédemment. Ici, nous

sommes au contexte multivarié.

Exemple 4.9 Toujours avec le processus de l’exemple 4.3, on obtient

D =

[0.6350158 0

0 0.917964

],

Ry(0) = D−1Γy(0)D−1 =

[1 0.4240556

0.4240556 1

],

Ry(1) = D−1Γy(1)D−1 =

[0.5558469 0.3696142

0.5797816 0.9201238

]

et Ry(2) = D−1Γy(2)D−1 =

[0.2011319 0.3605737

0.6327840 0.8501273

]

75

Page 90: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

4.4 Estimation d’un VAR(p)

Supposons, y1, . . . ,yn, un échantillon de taille n, d’un processus K-vectoriel yt . Nous allons aussi sup-

poser que nous avons p valeurs initiales y−p+1, . . . ,y0. Nous supposons donc que l’ordre p de notre

processus est connu d’avance.

Mais en pratique, les paramètres d’un VAR(p) ne sont pas connus. Ces paramètres sont les coefficients

de régression, c’est-à-dire, le vecteur de constantes ν et les éléments des matrices A1, . . . ,Ap. Il faut

donc les estimer. On peut être aussi intéressé à estimer la matrice des variances covariances des bruits

blancs vectoriels appelée Σu. Différentes méthodes existent. Celles que nous allons présenter sont la

méthode des moindres carrés et la méthode du maximum de vraisemblance.

4.4.1 La méthode des moindres carrés multivariée (GLS)

La méthode des moindres carrés généralisée permet d’estimer les paramètres du modèle étudié en

minimisant la somme pondérée des carrés résiduels. Pour définir cette méthode, nous allons utiliser

certaines notations. Soit Y = (y1, . . . ,yn) de dimensions (K×n). Sur la k-ème ligne de cette matrice,

se trouvent les n observations de la k-ème composante du processus K-vectoriel. Une ligne de sa

transposée Y ′ est alors une observation de notre processus. En d’autres termes, on trouve la première

observation des K composantes sur la première ligne de cette matrice Y ′, et ainsi de suite. Soit B =

(ν ,A1, . . . ,Ap) de dimensions K× (K p+1), la matrice des coefficients de régression,

Zt =

1

yt...

yt−p+1

de dimensions (K p+ 1)× 1, Z = (Z0, . . . ,Zn−1) de dimensions (K p+ 1)× n. C’est l’ensemble des

p premières valeurs et de l’échantillon tiré. Soit U = (u1, . . . ,un), de dimensions (K× n), la matrice

des bruits blancs vectoriels associés à chaque observation de notre échantillon. On peut donc écrire le

processus sous la forme

Y = BZ +U. (4.17)

En appliquant la fonction vec et la règle 3 de Lütkepohl (2006, pp. 662-663), ( 4.17) devient

vec(Y ) = vec(BZ)+ vec(U) = (Z′⊗ IK)vec(B)+ vec(U). (4.18)

L’expression ( 4.18) sera appelée la représentation " par observation" pendant que vec(Y ′) sera appelée

la représentation "par équation". De ces deux représentations, nous allons trouver des estimateurs

mutuellement équivalents puisque nous retrouvons les mêmes valeurs dans les deux vecteurs, mais

disposées différemment.

76

Page 91: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Si on note y = vec(Y ), β = vec(B), et u = vec(U) des matrices de dimensions (Kn×1), ((K2 p+K)×1) et ((K2 p+K)×1) respectivement, on peut écrire une formule équivalente à ( 4.18) qui est

y = (Z′⊗ IK)β +u. (4.19)

L’estimateur du vecteur β par la méthode des moindres carrés généralisée est la valeur qui minimise

S(β ) donnée par

S(β ) = u′(In⊗Σu)−1u = tr[(Y −BZ)′Σ−1

u (Y −BZ)],

où tr(M) représente la trace d’une matrice M. On peut montrer que (Lütkepohl, 2006, p. 71)

S(β ) = y′(In⊗Σ−1u )y+β

′(ZZ′⊗Σ−1u )β −2β

′(Z⊗Σ−1u )y.

Après avoir dérivé S(β ) par rapport à β , on a

∂S(β )∂β

= 2(ZZ′⊗Σ−1u )β −2(Z⊗Σ

−1u )y.

En égalant cette dérivée à 0, on obtient l’estimateur des moindres carrés généralisés (GLS) de β qui

est

β = vec(B) = ((ZZ′)−1Z⊗ IK)y = ((ZZ′)−1Z⊗ IK)vec(Y ). (4.20)

Comme la matrice hessienne de S(β ) qui est égale à 2(ZZ′⊗Σ−1u ) est définie positive, alors l’estima-

teur obtenu est bel et bien un minimum. Il faut noter que ces résultats sont valides si la matrice ZZ′

est non singulière. Sous cette forme, nous avons l’estimateur des GLS selon la représentation " par

observation".

On peut écrire de façon équivalente à ( 4.20), sans la fonction vec, que l’estimateur des GLS de B,

noté B, est

B = Y Z′(ZZ′)−1. (4.21)

Ou encore selon la représentation par "équation", nous avons :

b = vec(B′) = (IK⊗ (ZZ′)−1Z)vec(Y ′). (4.22)

De cette dernière équation, on voit qu’il est facile de démontrer que chacun des éléments (lignes) du

système d’équations est l’estimateur des moindres carrés ordinaires de chacune des K composantes

de notre processus. En effet, l’estimateur des moindres carrés ordinaires (MCO) qui est obtenu en

minimisant

77

Page 92: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

u′u = [y− (Z′⊗ IK)β )]′[y− (Z′⊗ IK)β )]

est égal à b j = (ZZ′)−1Zy( j), pour la variable y( j) = (y j1,. . . y jn) , j = 1 . . . ,K.

Il faut noter que cela est vrai parce que les régresseurs de la méthode des moindres carrés généralisés

sont les mêmes que ceux de la méthode des moindres carrés ordinaires 7.

Lardic and Mignon (2002) affirment qu’il faut que les séries soient stationnaires pour utiliser la mé-

thode des moindres carrés ordinaires.

Un estimateur des GLS de Σu = E[utu′t ] découlant de celui de B est Σu =1n

∑nt=1 ut u′t =

1n

Y (In −Z′(ZZ′)−1Z)Y.

On peut aussi définir un autre estimateur non biaisé de Σu qui est Σu =1

n−K p−1Y (In−Z′(ZZ′)−1Z)Y.

4.4.2 Propriétés asymptotiques des estimateurs des GLS

Nous étudions les propriétés asymptotiques de l’estimateur des GLS de notre processus K-vectoriel

sous le postulat qu’il est stable. De plus, son bruit blanc vectoriel doit être indépendant et ses 4

premiers moments doivent exister et être bornés. Il faut noter que les bruits blancs vectoriels gaussiens

remplissent ces conditions.

Proposition 4.6 (Propriétés asymptotiques de B) Si yt est un processus stable et B = Y Z′(ZZ′)−1

est l’estimateur des GLS de B,

ZZ′

np−→

n→+∞Γ

existe et est non singulière,

1√n

n

∑t=1

vec(utZ′t−1)l−→

n→+∞N (0,Γ⊗Σu)

et sous les conditions énoncées sur les bruits blancs vectoriels de yt , on a :

Bp−→

n→+∞B.

De plus√

n(β −β )l−→

n→+∞N (0,Γ−1⊗Σu),

et

7. On peut trouver une démonstration détaillée de cette affirmation de Neusser (2016, p. 228)

78

Page 93: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

√n(b−b) l−→

n→+∞N (0,Σu⊗Γ

−1).

Ces propriétés sont tirées de Lütkepohl (2006, pp. 73-74). Elles permettront de faire de l’inférence

sur le paramètre β comme calculer des intervalles de confiance pour β ou procéder à des tests d’hy-

pothèses comme les tests t et de Fisher.

Proposition 4.7 (Propriétés asymptotiques de Σu et Σu) Si yt est un processus stable et B=Y Z′(ZZ′)−1

est l’estimateur des GLS de B, et siZZ′

np−→

n→+∞Γ

existe et est non singulière,

1√n

n

∑i=1

vec(utZ′t−1)l−→

n→+∞N (0,Γ⊗Σu)

et sous les conditions énoncées sur le bruit blanc vectoriel de yt , on a

Σup−→

n→+∞Σu et Σu

p−→n→+∞

Σu.

4.4.3 La méthode du maximum de vraisemblance

Une condition nécessaire à l’estimation par la méthode du maximum de vraisemblance (MV) est que le

bruit blanc vectoriel soit gaussien, donc que le processus VAR(p) soit gaussien ; nous allons supposer

qu’elle est respectée. Considérons le cas centré.

Le bruit blanc vectoriel est gaussien donc u = vec(U) a comme fonction de densité

fu(u) =1

(2π)Kn/2 |In⊗Σu|−1/2 exp[−1

2u′(In⊗Σ

−1u )u

],

où |M| désigne la valeur absolue du déterminant d’une matrice M.

Soit y = vec(Y ), µK p = (µ ′, . . . ,µ ′), un vecteur de K p lignes, α = vec(A) où A = (A1, . . . ,Ap) est la

matrice des coefficients de régression de dimensions (K×K p), Y0 = (y′0, . . . ,y−p+1)′, et en posant :

u = y−µKp− (X ′⊗ IK)α , où X = (Y 00 , . . . ,Y

0n−1) est une matrice de dimensions (K p×n).

On obtient la fonction de densité de y, notée fy(y), qui est

fy(y) =1

(2π)Kn/2 |In⊗Σu|−1/2 exp[−1

2y−µK p− (X ′⊗ IK)α

′(In⊗Σ−1u )y−µK p− (X ′⊗ IK)α

](4.23)

79

Page 94: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

On peut en déduire la fonction de logvraisemblance 8 qui est

ln l(µ,α,Σu) = ln( fy(y)) =−Kn2

ln(2π)− n2

ln|Σu|−12

tr[(Y 0−AX)′Σ−1u (Y 0−AX).] (4.24)

Proposition 4.8 (Estimateurs du maximum de vraisemblance) Soit yt , un processus VAR(p) stable,

avec des bruits blancs vectoriels ut gaussiens. On a

Y 0 = AX +U,

où y0 = (X ′⊗ IK)α +u et U = (u1, . . . ,un).

Les estimateurs du maximum de vraisemblance de µ , α = vec(A) et Σu sont obtenus à partir des

équations suivantes et sont respectivement :

µMV =1n(IK−∑

iAMV )

−1∑

t(yt −∑

iAMV yt−i) (4.25)

αMV = ((XMV X ′MV )−1XMV ⊗ IK)(y−µKn) (4.26)

ΣuMV =1n(Y 0

MV −AMV XMV )(Y 0MV −AMV XMV )

′ (4.27)

avec µKn = (µ ′, . . . ,µ ′) est un vecteur de Kn lignes, XMV est l’estimateur de X et Y 0MV , celui de Y 0 en

remplaçant µ par µMV dans X = (Y 00 , . . . ,Y

0n−1) et dans Y 0 = Y −µ .

Proposition 4.9 (Propriétés asymptotiques des estimateurs du maximum de vraisemblance) Soit

yt , un processus VAR(p) stable gaussien. On a

Y 0 = AX +U,

où y0 = (X ′⊗ IK)α +u.

Soit les estimateurs du maximum de vraisemblance donnés par les expressions ( 4.25), ( 4.26) et

( 4.27), σMV = vechΣuMV . La fonction vech est expliquée à la définition A.7. Si ces estimateurs sont

asymptotiquement indépendants deux à deux, on a :

√n

µMV −µ

αMV −α

σMV −σ

l−→n→+∞

N

0,

ΣµMV 0 0

0 ΣαMV 0

0 0 ΣσMV

, (4.28)

ΣµMV = (IK−∑i

Ai)−1

Σu(IK−∑i

A′i)−1,

8. Voir Lütkepohl (2006, pp. 88-89) pour les détails de calculs

80

Page 95: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

ΣαMV = ΓY (0)−1⊗Σu,

ΣσMV = 2D+K (Σu⊗Σu)D+

K ,

et D+K est appelée l’inverse généralisée de Moore-Penrose 9 de la matrice "de duplication" DK de

dimensions K2×K(K +1)/2. Ces matrices qui sont les matrices de covariance peuvent être estimées

si on remplace les inconnues dans leurs expressions par leurs estimateurs respectifs du maximum de

vraisemblance.

On remarque que les estimateurs du maximum de vraisemblance et des moindres carrés sont les

mêmes pour µ et α ou A.

L’on pourra se référer à Lütkepohl (2006, pp. 87-93) pour des détails sur les calculs des estimateurs.

4.5 Choix de l’ordre p

Différents tests sont proposés pour choisir le bon ordre du modèle.

4.5.1 La statistique du rapport de vraisemblance et tests séquentiels

L’objectif de ce test est de comparer deux modèles, l’un qui est dit contraint et l’autre qui est le modèle

complet.

Rappelons que la statistique du rapport de vraisemblance, notée λRV , est :

λRV = 2(ln l(δMV )− ln l(δMV,c))

où l(δMV ) représente la fonction de vraisemblance associée au modèle complet et l(δMV,c), celle du

modèle contraint selon l’hypothèse nulle.

Dans notre contexte, on a :

H0 : Le modèle VAR(p−1) est vrai ou Ap = 0

H1 : Le modèle VAR(p) est vrai ou Ap 6= 0

Par la suite, nous utiliserons cette statistique pour effectuer des tests séquentiels conditionnels jusqu’à

ce qu’on obtienne le bon ordre de modèle. Ils sont conditionnels parce qu’ils dépendent des résultats

des tests précédents. Le nombre de tests effectués au total sera donc fonction du nombre d’hypothèses

nulles non rejetées. On définit de ce fait, un ordre p maximal qu’on note Mmax. Les matrices Ai sont

les matrices de coefficients déjà définies dans les sections précédentes (définition 4.5) .

Le premier test effectué sera donc :

H10 : Le modèle VAR(Mmax−1) est vrai ou AMmax = 0

9. Voir Définition A.1

81

Page 96: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

H11 : Le modèle VAR(Mmax) est vrai ou AMmax 6= 0.

Si l’hypothèse nulle n’est pas rejetée, on effectuera le test suivant :

H20 : Le modèle VAR(Mmax−2) est vrai ou AMmax−1 = 0

H21 : Le modèle VAR(Mmax−1) est vrai ou AMmax−1 6= 0|AMmax = 0,

et, ainsi de suite, jusqu’à ce qu’on trouve un ordre appelé m qui est tel que le résultat du test d’hypo-

thèses

H0 : Am+1 = 0

H1 : Am+1 6= 0|AMmax = 0, . . . ,Am+2 = 0

est que l’hypothèse nulle n’est pas rejetée, mais celui de

H0 : Am = 0

H1 : Am 6= 0|AMmax = 0, . . . ,Am+1 = 0

rejette l’hypothèse nulle ; notons que m est compris entre 0 et Mmax.

Dans le cas d’un VAR(p), la statistique du rapport de vraisemblance pour la i-ème hypothèse nulle est

notée λRV et est donnée par

λRV = n(ln |ΣµMV (Mmax− i)|− ln |ΣµMV (Mmax− i+1)|), (4.29)

où ln |ΣµMV (Mmax− i)| est la log-vraisemblance associée à la variance de l’erreur de prévision d’un

modèle VAR(Mmax− i) estimée selon la méthode du maximum de vraisemblance. La statistique λRV

donnée par l’expression ( 4.29) suit une loi khi-carrée avec K2 degrés de liberté lorsque H0 est vraie. En

effet, le nombre de contraintes équivaut au nombre d’éléments de la dernière matrice de coefficients,

c’est-à-dire K2 car elle est une matrice carrée avec K lignes.

Les modèles choisis grâce à cette méthode ont tendance à être moins parcimonieux que ceux sélec-

tionnés par les critères d’information.

4.5.2 Les critères d’information

Dans le processus de sélection de modèle, diverses méthodes parmi lesquelles figurent les critères

d’information sont mises à la disposition de l’analyste. Il est important de tenir compte de l’objectif

que l’on cherche à atteindre lorsqu’on sélectionne l’ordre du modèle VAR(p). Nous allons présenter

4 critères qui sont à minimiser et les comparer en fonction des propriétés qu’ils possèdent. En effet,

l’ordre choisi pour un critère est celui du modèle VAR(p) qui a la plus petite valeur du critère parmi

les modèles candidats.

On définit Mmax, l’ordre maximum que notre modèle ajusté devrait avoir.

82

Page 97: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

1. L’erreur finale de prédiction ou FPE : ce critère a été proposé par Akaike (1969, 1971). Il pro-

pose de baser le choix du modèle sur la minimisation de l’erreur quadratique moyenne prédite

à l’horizon 1. On a

FPE(m) =

∣∣∣∣n+Km+1T

Tn−Km−1

ΣµMV (m)

∣∣∣∣= [n+Km+1n−Km−1

]K

|ΣµMV (m)|

où ΣµMV (m)) est l’estimateur du maximum de vraisemblance de Σu lorsqu’un ordre égal à m est

choisi, c’est-à-dire si on a ajusté un VAR(m). L’ordre p(FPE) est la valeur de l’ordre du modèle

dont le critère FPE est le plus petit parmi les candidats (m = 0,1, . . . ,Mmax) ;

2. Le critère d’information d’Akaike ou AIC. Il a été proposé par Akaike (1973, 1974) et

AIC(m) = ln |ΣµMV (m)|+ 2mK2

n,

pour (m = 0,1, . . . ,Mmax). On choisit l’ordre p(AIC) du modèle dont le critère AIC est mini-

misé ;

3. Le critère d’information Bayesien ou BIC. Proposé par Schwarz et al. (1978), il est égal à

BIC = ln |ΣµMV (m)|+ 2mK2 lnnn

,

pour (m = 0,1, . . . ,Mmax). On choisit l’ordre p(BIC) du modèle dont le critère BIC est mini-

misé ;

4. Le critère d’information de Hannan-Quinn ou HQ. Il a été proposé par Hannan and Quinn

(1979) . On a

HQ = ln |ΣµMV (m)|+ 2mK2 ln lnnn

,

pour (m = 0,1, . . . ,Mmax). On choisit l’ordre p(HQC) du modèle dont le critère HQC est mini-

misé.

Ces critères peuvent être comparés selon différentes propriétés. En effet, la notion de performance

d’un critère dépend de la définition que l’on donne à cette performance ou optimalité. Tout d’abord,

lorsque l’objectif de l’analyse est la prédiction, on choisira le FPE ou l’AIC car ils préservent l’effica-

cité asymptotique, ce que BIC et HQ ne font pas. On a que lnFPE(m) = AIC(m)+2K/n+O(n−2),

ce qui permet d’affirmer que ces deux critères ont tendance à sélectionner le même modèle pour des

échantillons plus ou moins larges puisque la valeur 2K/n ne dépend pas de l’ordre m.

Déterminer la consistance d’un estimateur revient à déterminer si les probabilités asymptotiques de

sous-estimer et de surparamétrer un modèle sont toutes les deux nulles. En d’autres termes, les esti-

mateurs des ordres donnés par un critère sont dits consistants si ce critère sélectionne la plupart du

temps le vrai modèle. En ce sens, les critères BIC et HQ sont fortement consistants contrairement à

l’AIC et le FPE. Le premier est convergent en probabilité et presque sûrement pendant que le second,

qui peut avoir une vitesse de convergence faible 10, l’est en probabilité. Il serait un compromis 11 entre

10. Olivier et al. (1997)11. Olivier et al. (1997)

83

Page 98: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

l’AIC et le BIC. L’AIC et le FPE ont tendance à surestimer le vrai ordre du modèle. Cependant, des

études ont prouvé que lorsque le vrai ordre est infini, l’AIC semble plus performant lorsqu’on ajuste

un modèle d’ordre fini. Par exemple, Paulsen and Tjøstheim (1985, p. 224) affirment que le bon ordre

est choisi si le nombre de composantes est élevé (K ≥ 5). Mais, Galbraith and Zinde-Walsh (2004)

concluent, dans leur étude, que le BIC est de loin plus performant que l’AIC lorsque l’on choisit la

distance de Hilbert entre le vrai modèle et le modèle estimé comme condition de performance des

critères, et ce même si le vrai processus est d’ordre infini. Les critères FPE et HQ, quant à eux, sont

aussi performants mais moins bons que le BIC. En somme, l’AIC et le FPE font choisir des ordres

supérieurs à ceux du BIC et de HQ, mais on accordera une préférence à l’AIC et au FPE dans le cas

des échantillons de petite taille car le BIC choisit des modèles sousparamétrés et fortement biaisés.

Proposition 4.10 Soit un échantillon de taille n du processus K-vectoriel yt et y−M+1, . . . ,y0, un en-

semble de valeurs connues à l’avance. Si on ajuste des modèles VAR(m) d’ordres égaux à 1, . . . ,M à

notre échantillon, alors :

p(SC)≤ p(HQ)≤ p(AIC)pour n≥ 16;

p(HQ)≤ p(AIC)pour 8≤ n≤ 16 et

p(SC)≤ p(HQ)pour n≤ 7.

Toutes ces comparaisons nous conduisent à affirmer que le critère choisi pour la sélection de modèle

dépend de l’objectif de l’analyse et des informations dont on dispose sur les données. Ces informations

peuvent être la taille de l’échantillon, la complexité du modèle, les modèles candidats, la présence du

vrai modèle parmi ceux-ci, etc. Au lieu d’avoir une préférence pour un seul critère, il sera intéressant

de comparer les modèles selon différents critères et de choisir le modèle minimisant une majorité des

critères d’information.

4.6 Validation de modèle

Après avoir sélectionné le meilleur ordre de modèle et procédé à des estimations des paramètres

associés à celui-ci, nous allons le valider. Il faudrait qu’il respecte les hypothèses sous-jacentes au

modèle. Dans cette section, nous allons présenter les tests sur les résidus du modèle afin de vérifier

s’ils sont bel et bien des bruits blancs.

4.6.1 Les résidus sont-ils des bruits blancs ? Les tests Portmanteau

On veut vérifier si les erreurs de prévision ut résultant de l’estimation de notre modèle sont des réa-

lisations d’un bruit blanc vectoriel. Comme dans le cas univarié, des tests Portemanteau multivariés

existent. Nous allons présenter la statistique de test de Portmanteau modifiée proposée par Hosking

(1980).

84

Page 99: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Supposons que le modèle a été estimé par la méthode des moindres carrés et est stable 12. L’hypothèse

nulle est l’absence d’autocorrélation jusqu’à un certain retard "h" des corrélations croisées. On teste :

H0 : Rh = (R1, . . . ,Rh) = 0 contre H1 : Rh = (R1, . . . ,Rh) 6= 0,

où Ri, i ∈ 0, . . . ,h représente la matrice d’autocorrélation correspondant à la matrice d’autocovariance

Γi et Ru est la matrice de corrélation correspondant à la matrice de covariances Σu.

On a Ri = D−1CiD−1 où D est la matrice diagonale composée des racines carrées des éléments de la

diagonale de Γy(0) selon l’expression ( 4.16) où Ci est l’estimateur de la matrice d’autocovariance

d’un processus VAR estimé au retard i et

Ci =1T

∑Tt=i+1 ut u′t , i = 0, . . . ,h.

Définition 4.12 (Statistique de test de Portmanteau multivarié modifiée) La statistique de Portman-

teau modifiée, notée Qh, est définie par

Qh = T 2T

∑i=1

(T − i)−1tr(C′iC−10 CiC−1

0 ). (4.30)

Si H0 est vraie,

Qh ≈ χ2(K2(h− p)). (4.31)

Cette statistique est une meilleure alternative à Qh =T ∑Ti=1 tr(C′iC

−10 CiC−1

0 ) même si elles sont asymp-

totiquement équivalentes 13 parce que certains chercheurs ont constaté que la puissance du test relié à

Qh est faible dans le cas des petits échantillons.

4.6.2 Le test de normalité de Jarque-Bera

Il s’agit de tester l’hypothèse de normalité des résidus. Plus formellement, ce test est basé sur le coef-

ficient d’aplatissement (kurtosis, K) et le coefficient d’asymétrie (skewness, S). L’idée est de vérifier si

ces coefficients sont égaux à ceux d’une variable qui suit une loi normale, c’est-à-dire, respectivement

3 et 0. On a alors

12. Voir conditions énoncées à la proposition 4.5 de Lütkepohl (2006, p. 165)13. Notons que T (T − i)−1 −→

T→+∞1

85

Page 100: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

H(0) : S = 0 et K = 3 contre H(1) : S 6= 0 ou K 6= 3.

Définition 4.13 (Test de Jarque-Bera) Sous l’hypothèse de normalité√

n(K−3)√24

∼N (0,1),√

nS√6∼

N (0,1) et S et K sont indépendants, dont les formules se trouvent à l’annexe A.1 et A.2 et la statis-

tique de Jarque-Bera

JB =n6

(S2 +

(K−3)2

4

)≈ χ

22 , (4.32)

où n est la taille de l’échantillon.

On rejette l’hypothèse nulle pour des valeurs élevées de JB ou encore lorsque les valeurs p sont

inférieures au seuil de significativité du test.

Remarque : Nous pouvons aussi vérifier la normalité des résidus à l’aide de graphiques tels que les

histogrammes et les Q-Q plots.

4.7 Prévisions

L’un des objectifs de l’analyse VAR est la prévision. En effet, l’analyste peut être intéressé à une

certaine période de référence t à prédire à un horizon h les composantes de la série étudiée en se

basant sur les informations disponibles. Ces informations sont l’ensemble des valeurs jusqu’au temps

t. Nous définirons t comme étant le temps de référence ou l’origine de prévision et h est appelé

l’horizon de prévision. La détermination du meilleur prédicteur, ou prédicteur optimal, sera basée sur

la minimisation de l’erreur quadratique moyenne. On considère que les paramètres du processus dont

la moyenne µ sont connus.

Soit un processus VAR(p) stable dont les variables composant le bruit blanc vectoriel sont non corré-

lées dont les paramètres sont connus qui s’écrit sous sa forme moyenne mobile infinie fondamentale :

yt = µ +∞

∑i=0

Φiut−i, t ∈Z.

De cette formule, on déduit la valeur théorique yt+h de notre processus au temps t+h qui est inconnue :

yt+h = µ +∞

∑i=0

Φiut+h−i.

On désire faire la prévision à l’horizon h à partir de l’origine de temps t, c’est-à-dire prédire yt+h.

86

Page 101: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

En pratique, puisque nous ne disposons que d’une information limitée, c’est-à-dire, de l’ensemble des

valeurs du processus avant et au temps t (yi, i ≤ t), les bruits blancs vectoriels ut+1, . . . ,ut+h ne sont

pas connus.

Le meilleur prédicteur linéaire à l’horizon h que l’on puisse obtenir se définit en fonction des erreurs.

Définition 4.14 Soit yt , un processus VAR(p) stable dont les composantes du bruit blanc vectoriel ut

sont non corrélées tel que

yt = µ +∞

∑i=0

Φiut−i, t ∈Z.

Le meilleur prédicteur linéaire à l’horizon h est

yt(h) = µ +∞

∑i=h

Φiut+h−i.

Proposition 4.11 (Erreur de prévision à l’horizon h) Soit yt , un processus VAR(p) stable dont les

composantes du bruit blanc vectoriel ut sont non corrélées.

L’erreur de prévision à l’horizon h est

yt+h− yt(h) =h−1

∑i=0

Φiut+h−i, (4.33)

L’espérance de l’erreur de prévision à l’horizon h est nulle et l’erreur quadratique moyenne (MSE(yt(h)))

est l’erreur quadratique moyenne sans l’information connue, c’est-à-dire

MSE(yt(h)) =h−1

∑i=0

ΦiΣuΦ′i.

L’espérance de l’erreur de prévision à l’horizon h est nulle car l’espérance du bruit blanc vectoriel est

nulle.

Il faut noter qu’à long terme, MSE(yt(h)) tend vers la variance de yt ou Γy(0) pendant que le meilleur

estimateur linéaire tend vers la moyenne µ lorsque celle-ci constitue l’unique composante déterministe

du modèle dans sa représentation moyenne mobile.

Dans le cas indépendant, l’espérance conditionnelle, qui est le prédicteur optimal, est non biaisée et

son erreur quadratique moyenne équivaut à l’erreur quadratique moyenne conditionnelle ou sachant

l’information disponible, ys|s≤ t. Mathématiquement, elle équivaut à MSE[Et(yt+h)|yt ,yt−1, . . . ]. Dans

cette situation, nous pourrons prédire notre série en se servant de la représentation standard de notre

processus VAR(p), c’est-à-dire :

yt = ν +A1yt−1 + · · ·+ yt−p +ut ,

87

Page 102: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Proposition 4.12 Soit yt , un processus VAR(p) stable de bruit blanc vectoriel ut indépendant tel que

yt = ν +A1yt−1 + · · ·+ yt−p +ut .

Le prédicteur optimal à l’horizon h est obtenu de façon recursive :

Et [yt+h] = ν +A1Et [yt+h−1]+ · · ·+ApEt [yt+h−p],

où Et [yt+i] = yt+i, ∀i≤ 0.

Si, de plus, les bruits blancs sont gaussiens, des intervalles de confiance pourront être obtenus.

Proposition 4.13 Soit yt , un processus VAR(p) stable de bruit blanc vectoriel ut gaussien.

L’erreur de prévision à l’horizon h est yt+h− yt(h) = ∑h−1i=0 Φiut+h−i ∼N (0,Σy(h)).

Les erreurs de prévision de chacune des composantes peuvent être aussi calculées.

Proposition 4.14 Soit yt , un processus VAR(p) stable de bruit blanc vectoriel ut gaussien.

L’erreur de prévision à l’horizon h pour une composante yk(k = 1, . . . ,K)

yk,t+h− yk,t(h)∼N (0,σk(h)2),

où σh(h)2 représente le kème élément de la diagonale de la matrice Σy(h).

4.8 Analyse structurelle d’un processus VAR(p)

Lorsque nous tentons d’ajuster un processus K-dimensionnel VAR(p), on désire plus qu’évaluer les

paramètres de ce modèle. L’analyse VAR permet de déterminer les corrélations entre K variables. On

peut aussi se permettre de déduire des relations dynamiques entre les variables du système, entre autres

vérifier s’il existe des relations de cause à effet entre celles-ci. Nous ferons donc référence à l’analyse

structurelle qui décrit un ensemble de ces méthodes. Dans la suite, nous allons présenter les concepts

de causalité au sens de Granger et de causalité instantanée. Nous allons aussi présenter comment un

changement survenu sur une variable peut en influencer une autre ainsi que la décomposition des

covariances des erreurs de prédiction.

88

Page 103: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Considérons un processus K-dimensionnel VAR(p) noté yt . Pour les objectifs de cette partie, nous

allons partitionner le vecteur yt en deux sous-processus, respectivement M et M−K dimensionnels zt

et xt . On a alors

yt =

[zt

xt

], t ∈Z.

L’exemple 4.2 est un cas particulier de partitionnement de processus. En effet, xt et zt sont respecti-

vement représentés par y2t et y1t .

4.8.1 Causalité au sens de Granger

Au chapitre 2, dans le contexte univarié, nous avons évoqué la notion de processus autorégressif cau-

sal qui se voulait une contrainte imposée sur les paramètres du modèle. En effet, l’on désirait éviter un

modèle dit explosif, c’est-à-dire prédit par le futur car, dit-on, « la cause précède l’effet ». On voulait

plutôt que le futur soit prédit par le passé. On serait tenté de confondre causalité et corrélation qui

sont, pourtant, des concepts différents et ce, même s’ils ne sont pas étrangers l’un de l’autre. Dans

le cas bivarié, par exemple, constater une corrélation entre les deux variables ne fait pas nécessaire-

ment conclure une relation de causalité entre celles-ci même si l’inverse est vrai car il peut exister une

tierce variable, les influençant toutes les deux, et qui serait de ce fait le facteur de cette corrélation. Par

exemple, dans un jeu de billards 14, le lancer de la boule peut conduire à la chute d’une ou plusieurs

quilles. Les chutes sont donc corrélées mais c’est la boule qui les entraîne. Il est donc intéressant, au

constat d’une corrélation, de vérifier la causalité et même le sens de celle-ci. Plusieurs ( philosophes

(Aristote), physiciens (Newton), sociologues, etc.) ont défini ce concept. Par ailleurs, dans le contexte

économique, Granger (1969) et Wiener (1956) l’ont introduit. Sims (1980) propose lui aussi sa défi-

nition. Dans les deux prochaines sous-sections, nous allons présenter les notions de causalité au sens

de Granger et instantanée dans un contexte multivarié.

Définition 4.15 (Causalité au sens de Granger) xt cause zt au sens de Granger à la date t si le fait

de tenir compte des informations passées de xt améliore la prévision de zt à tout horizon de temps

h ∈N. Mathématiquement,

E[zt |zt−1,zt−2, . . . ] 6= E[zt |zt−1,zt−2, . . . ,xt−1,xt−2, . . . ], t ∈Z.

Selon la représentation moyenne mobile canonique, on a

yt = µ +∞

∑i=0

Φiut−i = µ +Φ(B)ut , t ∈Z où Φ(0) = IK et B, est l’opérateur retard.

14. inspiré de l’exemple de Krikorian (1934, p. 319)

89

Page 104: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

En partitionnant yt , on obtient

yt =

[zt

xt

]=

[µ1

µ2

]+

[Φ11(L) Φ12(L)

Φ21(L) Φ22(L)

][u1t

u2t

], t ∈Z,

où µ1 = E[zt ], µ2 = E[xt ] et la matrice

[Φ11(L) Φ12(L)

Φ21(L) Φ22(L)

]est la matrice Φ(L) partitionnée selon

les sous-processus zt et xt et où u1t et u2t sont les vecteurs de bruits blancs correspondant aux sous-

processus zt et xt .

Proposition 4.15 (Identification de la non-causalité au sens de Granger) Si le processus yt est un

VAR(p) stable, la variable xt ne cause pas zt au sens de Granger si et seulement si

Φ12,i = 0, ∀ i = 1,2, . . . ⇐⇒ A12,i = 0,∀ i = 1,2, . . . ,p.

En effet, pour que xt ne cause pas zt , il faut que tous les paramètres associés à ce processus ne soient

pas inclus dans la prévision de zt . Or, zt = µ1 + Φ11(L)u1t + Φ12(L)u2t = µ1 + ∑∞i=0 Φ11,iu1,t−i +

∑∞i=0 Φ12,iu2,t−i, ce qui implique que tous les coefficients Φ12,i doivent être nuls, d’où la proposition

précédente.

De plus, cette proposition montre que l’observation des matrices de coefficients Ai d’un processus

VAR(p) stable est suffisante pour prouver qu’il existe un lien de causalité au sens de Granger entre

deux partitions de ce processus. Ainsi, si on peut vérifier si xt ne cause pas zt , alors on peut aussi

vérifier si zt ne cause pas xt . Dans ce cas, on s’attend à ce que

Φ21,i = 0, ∀i = 1,2, . . . ⇐⇒ A21,i = 0,∀ i = 1,2, . . . ,p

pour un processus VAR(p) stable.

Un système dans lequel les variables se causent mutuellement au sens de Granger est appelé un sys-

tème de rétroaction. Le type de système dans lequel aucune des variables ne cause l’autre sera donc

présenté comme suit :

yt =

[zt

xt

]=

[µ1

µ2

]+

[Φ11(L) 0

0 Φ22(L)

][u1t

u2t

]

=

[ν1

ν2

]+

[A11,1 0

0 A22,1

][zt−1

xt−1

]+ . . . +

[A11,p 0

0 A22,p

][zt−p

xt−p

]+

[u1t

u2t

]

Exemple 4.10 (Suite de l’exemple 4.2) Comme

A1 =

[0.6 0.2

0.3 0.7

]et A2 =

[−0.3 0

0.1 0.1

], alors

A12,1 = 0.2 6= 0, A21,1 = 0.3 6= 0 et A21,2 = 0.1 6= 0. On en déduit que y1t cause y2t au sens de Granger

car A12,1 6= 0. y2t cause y1t au sens de Granger car A21,i 6= 0 ∀ i = 1,2.

90

Page 105: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

4.8.2 Causalité instantanée

Définition 4.16 (Causalité instantanée) xt cause zt instantanément à la date t si et seulement si

E[zt |zt−1,zt−2, . . . ,xt ,xt−1, . . . ] 6= E[zt |zt−1,zt−2, . . . ,xt−1,xt−2, . . . ], t ∈Z.

Autrement dit, inclure l’information contenue dans xt au système déjà composé du passé de xt et zt

améliore la prédiction de zt . La causalité instantanée est symétrique. En effet, si xt cause instantané-

ment zt , alors zt cause instantanément xt .

Proposition 4.16 (Identification de la non-causalité instantanée) Une variable xt ne cause pas ins-

tantanément zt si et seulement si

E[u1tu′2t ] = 0, t ∈Z.

Ceci signifie qu’il n’existe pas de corrélation entre les vecteurs de bruits blancs u1t et u2t associés aux

sous-processus dont on cherche à évaluer la causalité.

Preuve : Pour ce faire, nous allons utiliser la représentation moyenne mobile orthogonale (expression

( 4.11)). On a

yt = µ +∞

∑i=0

Θiwt−i, t ∈Z.

On sait que les bruits blancs wt sont non correlés. On obtient alors

yt =

[zt

xt

]=

[µ1

µ2

]+

[Θ11,0 0

Θ21,0 Θ22,0

][w1,t

w2,t

]+

[Θ11,1 Θ12,1

Θ21,1 Θ22,1

][w1,t−1

w2,t−1

]+ . . .

Il n’existe pas de causalité instantanée entre xt et zt à condition que Θ21,0 = 0,

xt = µ2 +Θ21,0w1,t +Θ22,0w2,t + . . . .

Ce qui conduit à affirmer que la matrice triangulaire inférieure P est une matrice bloc-diagonale car

Θ0 = Φ0P = IKP = P avec deux blocs de 0 de dimensions ((K−M)×M) et (M× (K−M)), respecti-

vement aux coins gauche inférieur et droit supérieur de celle-ci. La matrice des variances-covariances

Σu sera donc elle aussi bloc-diagonale avec les mêmes caractéristiques que P. Il n’existera donc pas

de corrélation entre u1t et u2t .

L’analyse de la matrice des variances-covariances Σu, si elle est connue, suffira donc à confirmer ou

non l’existence d’un lien de causalité instantanée entre les deux sous-processus xt et zt .

Exemple 4.11 (Suite de l’exemple 4.2) Toujours en se servant du processus de l’exemple 4.2, on

peut déduire que y1t ne cause pas instantanément y2t car E[u1tu′2t ] = 0, t ∈ Z, selon la matrice

Σu =

[0.25 0

0 0.09

].

91

Page 106: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

4.8.3 Tests de causalité

Dans le contexte d’un modèle VAR(p) estimé, on peut conduire des tests de causalité en remplaçant

les paramètres testés par leurs estimateurs des moindres carrés ou du maximum de vraisemblance.

Pour identifier l’absence de causalité au sens de Granger (instantanée), il faut vérifier la nullité de

certaines valeurs (ou blocs de valeurs) des matrices A1, . . . ,Ap. Un test que nous choisissons pour ce

faire est le test de Wald.

On veut tester :

H0 : Cβ = c contre H1 : Cβ 6= c,

où C est une matrice de dimensions (N× (K2 p+K)) et de rang N et c est un vecteur de dimensions

(N×1). N est le nombre de contraintes à tester.

Proposition 4.17 (Test de Wald-Causalité au sens de Granger) 15 Soit β , le vecteur de coefficients

à estimer et β , un estimateur de β et supposons√

T (β − β )l−→

T→+∞N (0,Γ−1 ⊗ Σu). Si les ma-

trices ZZ′/T et Σu convergent en probabilité respectivement vers Γ et Σu et sont non singulières et

si H0 : Cβ = c est vraie, où C est une matrice de dimensions (N× (K2 p+K)) et de rang N, alors

λW = T (Cβ − c)′[C(Γ−1⊗Σu)C′]−1(Cβ − c)) l−→T→+∞

χ2(N), (4.34)

où λW est appelée la statistique de Wald.

Le fait que cette statistique soit distribuée selon une loi khi-carrée découle du fait que√

T (β −β )

l−→T→+∞

N (0,Γ−1⊗Σu) implique√

T (Cβ −Cβ )l−→

T→+∞N (0,C(Γ−1⊗Σu)C′). On en déduit ainsi

l’expression ( 4.34).

Si on tient compte du fait que les matrices Γ−1 et Σu sont estimées, on peut ajuster la statistique de

Wald et une nouvelle statistique λF = λW/N est créée. Cette statistique suit une loi de Fisher à N et

KT −K2 p−K degrés de liberté 16.

On comparera donc ces statistiques à leurs valeurs critiques afin de rejeter ou non l’hypothèse nulle

de non-causalité au sens de Granger qui est testée.

Un test similaire de Wald est proposé pour tester la causalité instantanée. Rappelons que la non-

causalité instantanée est caractérisée par une absence de corrélation entre les composantes du bruit

blanc concernées par le test. Nous référons le lecteur à Lütkepohl (2006, pp. 104-105) pour plus de

détails.

15. Inspirée de la proposition 3.5 de Lütkepohl (2006, p. 103)16. On peut aussi utiliser T −K p−1, voir Lütkepohl (2006, p. 103)

92

Page 107: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

4.8.4 Impact d’une impulsion

Prouver qu’une variable (vecteur d’une certaine dimension) ne cause pas une autre variable du système

ne signifie pas qu’il n’existe aucun lien de cause à effet entre celles-ci. Prouver le contraire ne permet

pas non plus de situer l’origine de ce lien et ce que produit cette cause. Que se passerait-il si un

choc exogène était induit à une variable du système ? Les autres variables réagiront-elles et comment

cela se fera-t-il ? Dans cette section, nous allons présenter l’impact d’une impulsion, une méthode de

l’analyse structurelle d’un processus VAR(p) stable. Deux types de chocs exogènes seront utilisés :

un choc unitaire sur les erreurs de prévision ut et un choc sur les erreurs orthogonales wt .

Choc unitaire sur les erreurs de prévision ut

Exemple 4.12 Pour illustrer cette partie, nous allons nous baser sur un exemple. Nous utiliserons le

processus VAR(1) bivarié stable de l’exemple 4.3 qui est

yt =

[y1,t

y2,t

]=

[0.7 0.1

0.6 0.25

]yt−1 +ut , ∀ t ∈Z.

On impose que yt = µ, t < 0. Comme ν =

[0

0

], alors µ =

[0

0

], u1,0 = 1, c’est-à-dire on impose

un choc unitaire à l’erreur associée à y1,t , u2,0 = 0 et ut = 0, ∀ t 6= 0.

On a alors

y0 = A1y−1 +u0 =

[0.7 0.1

0.6 0.25

][0

0

]+

[1

0

]=

[1

0

]

y1 = A1y0 +u1 = A1y0 =

[0.7 0.1

0.6 0.25

][1

0

]=

[0.7

0.6

]= première colonne de A1

y2 = A1y1 +u2 = A1y1 = A21y0 =

[0.55 0.0950

0.57 0.1225

][1

0

]=

[0.55

0.57

]= première colonne de A2

1

...

On constate que la réponse au choc unitaire imposé à l’erreur de prédiction u1,t , après i périodes,

correspond à la première colonne de la matrice Ai1 = Φi.

Si, plutôt, on choisissait d’imposer le choc unitaire à u2,t , l’impact de cette impulsion, après i périodes,

serait la deuxième colonne de la matrice Ai1 = Φi. La matrice Φi comporte donc les impacts des

impulsions sur les erreurs de prédiction après i périodes, chacune de ces colonnes correspondant à

respectivement chacune des K (dans notre exemple ( 4.12)) variables du processus yt dans le même

ordre que le vecteur yt .

93

Page 108: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Maintenant, nous allons généraliser ce concept au cas où l’ordre de notre processus VAR(p) stable est

supérieur à 1 en utilisant les conclusions de notre exemple ( 4.12) et sa représentation VAR(1).

Rappelons J =[

IK : 0 : 0 : . . . 0].

Proposition 4.18 (Impact d’un choc unitaire) Si yt est un processus K-vectoriel VAR(p) stable alors

la matrice Φi = JAiJ comprend les impacts des impulsions de chacune des K variables de yt , après i

périodes, chacune de ses colonnes correspondant respectivement aux K composantes de yt . A est la

matrice compagnon. L’élément φ jk,i de Φi représente la réaction de la j-ème variable du système au

choc unitaire subi par la variable k, après i période(s).

Exemple 4.13 (Suite de l’exemple 4.2) Φ2 =

[0.12 0.26

0.49 0.65

]comprend les impacts des impulsions

de y1,t et y2,t après 2 périodes et 0.49 est la réaction de y2,t au choc unitaire sur y1,t au temps 0 après

2 périodes.

Les impacts des impulsions peuvent être observés graphiquement.

Graphiques Les 4 graphiques de la figure ( 4.1) représentent les impacts des impulsions de l’exemple

FIGURE 4.1: Réponses aux chocs unitaires de l’exemple ( 4.13)

( 4.13). Par exemple, la réaction de y1 suite à un choc unitaire sur l’erreur u2 n’est pas immédiate,

c’est-à-dire, qu’au temps 0, la valeur de y1 reste la même. À partir de la première période après le

moment du choc, on constate une augmentation de la valeur de y1. Celle-ci commence à baisser après

la deuxième période et semble se stabiliser à partir de la cinquième période.

Proposition 4.19 (Identification de la non-existence d’un impact à l’impulsion) Si yt est un pro-

cessus K-vectoriel VAR(p) stable alors pour j 6= k

φ jk,i = 0, ∀ i = 1,2, . . . ⇐⇒ φ jk,i = 0,∀ i = 1,2, . . . ,p(K−1).

94

Page 109: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Cette proposition nous fait comprendre qu’il suffit d’observer s’il n’existe aucun impact sur la variable

j après une impulsion sur la variable k sur les p(K−1) premières périodes pour conclure que le fait

d’imposer un choc à la première n’aura aucun effet sur la seconde au fil du temps.

Remarque : Lorsque les composantes du processus yt ont des échelles différentes, il est recommandé

d’observer des chocs d’un multiple (le plus souvent une fois) de l’écart-type des erreurs. Les réponses

seront comprises dans une matrice (que nous appellerons ΦΣuk,i) dont l’élément φΣuk, jk,i est obtenu en

multipliant l’élément φ jk,i par l’écart-type des erreurs correspondant à la composante k.

Exemple 4.14 (choc d’un écart-type) En se servant de l’exemple illustratif du début de cette section

(exemple 4.12) et en supposant que x est l’écart-type de u1,t , on a

y0 = A1y−1 +u0 =

[0.7 0.1

0.6 0.25

][0

0

]+

[x

0

]=

[x

0

]

y1 = A1y0 +u1 = A1y0 =

[0.7 0.1

0.6 0.25

][x

0

]=

[0.7x

0.6x

]= x× première colonne de A1

y2 =A1y1+u2 =A1y1 =A21y0 =

[0.55 0.0950

0.57 0.1225

][x

0

]=

[0.55x

0.57x

]= x× première colonne de A2

1

...

Il peut arriver qu’on cherche à observer l’effet cumulatif du choc après n périodes. Nous allons main-

tenant définir ce que nous appelons l’impact cumulatif ou les réponses cumulatives à l’impulsion.

Nous restons toujours dans le contexte d’un choc unitaire sur les erreurs de prédiction.

Proposition 4.20 Si yt est un processus K-vectoriel VAR(p) stable alors la matrice Ψn = ∑ni=0 Φi

comprend les impacts cumulatifs des impulsions de chacune des K variables de yt , après n périodes,

chacune de ses colonnes correspondant respectivement aux K composantes de yt .

L’élément ψn, jk de Ψn représente la réponse cumulative de la j-ième variable du système au choc

unitaire subi par la variable k après n période(s).

ψn, jk =n

∑i=0

φ jk,i.

La matrice Ψ∞ = ∑∞i=0 Φi est appelée la matrice d’effets à long terme et

Ψ∞ = (IK−A1−·· ·−Ap)−1.

95

Page 110: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

[ ψn, jk et Ψ∞ ]

ψn, jk =n

∑i=0

φ jk,i

car la somme de deux matrices de mêmes dimensions produit une matrice dont le ( j,k)-ème élément

est la somme des ( j,k)-ème éléments respectifs des deux matrices. De l’expression ( 4.12), on peut

prouver la formule de la matrice des effets à long terme. En effet, µ = ∑∞i=0 Φiν = (IK −A1−A2−

·· ·−Ap)−1ν ←→ ∑

∞i=0 Φi = (IK−A1−A2−·· ·−Ap).

Exemple 4.15 (Suite de l’exemple 4.2) Ψ0 = Φ0 = I2

Ψ1 = Φ0 +Φ1 =

[1 0

0 1

]+

[0.6 0.2

0.3 0.7

]=

[1.6 0.2

0.3 1.7

]

Ψ2 = Φ0 +Φ1 +Φ2 = Ψ1 +Φ2 =

[1.6 0.2

0.3 1.7

]+

[0.12 0.26

0.49 0.65

]=

[1.72 0.46

0.79 2.35

]

Graphiques cumulatifs

Les impacts cumulatifs des impulsions peuvent être observés graphiquement. Les quatre graphiques

de la figure ( 4.2) représentent les effets à long terme des chocs unitaires sur chacune des variables.

Par exemple, suite au choc unitaire sur l’erreur de y1, la valeur de y1 augmente instantanement (au

temps 0) d’une unité comme prévu, continue d’augmenter dans le temps, semble se stabiliser entre

les temps 1 et 4 puis augmente à nouveau. Après 8 périodes, comme le montre le graphique ( 4.2), la

valeur de y1 continue d’augmenter. Il semble que ce choc a non seulement un impact instantané mais

aussi un effet de long terme sur y1 si l’on considère 8 périodes comme du long terme.

FIGURE 4.2: Réponses cumulatives aux chocs unitaires de l’exemple 4.15

Choc unitaire sur les erreurs orthogonales wt

Dans la section sur les chocs unitaires sur les erreurs de prévision, nous avons supposé qu’une seule

des variables subit un choc. Pour ce faire, nous devons croire que les chocs subis par les variables sont

96

Page 111: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

indépendants.

Mais, la plupart du temps, il existe une probabilité non nulle qu’il y ait un lien entre les variables

étudiées. Il est donc impensable d’imposer une valeur nulle aux autres erreurs au temps 0 car cela

pourrait conduire à des conclusions « erronées » sur les vraies relations dynamiques entre les variables.

En pratique, ces variables ont quelque chose de commun qui ne peut être attribué à uniquement l’une

d’entre elles. Une façon de procéder serait d’associer toute cette composante commune à la pre-

mière variable selon l’ordre défini par le modèle VAR. Ainsi, l’innovation de la première englobe

toute la composante et l’(les) autre(s) est(sont) transformée(s) de telle sorte qu’elle(s) est(sont) « dé-

pouillée(s) » de cette composante-là. L’idée serait d’ordonner les variables de la plus exogène à la plus

endogène. On pourrait se référer à Gourieroux and Monfort (1995) pour un test sur l’exogénéité.

Il faut tenir compte de l’ordre « causal » des variables lorsqu’on définit le vecteur de bruits blancs.

En effet, celle qu’on définit comme étant la première est celle qui a le plus grand effet immédiat sur

les autres et la seconde est celle qui devrait avoir le deuxième plus grand impact instantané sur les

suivantes, mais pas sur la première, et ainsi de suite. Le modèle ordonné selon ce raisonnement est

dit "récursif" (Theil (1971)) dans le domaine de l’économétrie. Cette manière d’ordonner peut être

appelée l’ordonnancement causal de Wold. Certaines connaissances théoriques pourraient aussi être

utiles pour ordonner les variables.

Après avoir défini le bon vecteur ut , c’est-à-dire, ordonné selon les critères d’exogénéité ou d’ordre de

causalité de Wold, on utilisera la décomposition de Choleski de la matrice des variances covariances

Σu = PP′. De cette décomposition, on parvient à la forme « orthogonale » d’un VAR(p) stable qui est :

yt = µ +∞

∑i=0

Θiwt−i, t ∈Z.

De façon analogue, ce sont les éléments des matrices Θi ( i = 0, . . . ,) qui représentent les réponses aux

impulsions aux innovations. La matrice Θ0 = P montre l’ensemble des effets instantanés. L’élément

θ jk,i de Θi représente donc la réaction de la j-ième variable du système au choc d’innovation subi par

la variable k, après i période(s) (i = 0, . . . ,).

Il faut mentionner que la forme triangulaire de la matrice Θ0 = P explique les raisons pour lesquelles

il faut prendre le temps nécessaire pour bien ordonner les composantes du processus étudié. En effet,

si ces composantes sont bien ordonnées, on remarquera que les valeurs à l’extérieur de la diagonale de

cette matrice les plus élevées se trouvent sur la première ligne, puis sur la deuxième ligne, et ainsi de

suite. L’interprétation des fonctions de réponses résultantes s’en verra influencée et sera bien meilleure

si l’ordre est bien établi.

Proposition 4.21 (Identification de la non-existence d’un impact à l’impulsion orthogonale) Si yt

est un processus K-vectoriel VAR(p) stable, alors, pour j 6= k

97

Page 112: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

θ jk,i = 0, ∀ i = 0,1,2, . . . ⇐⇒ θ jk,i = 0,∀ i = 0,1,2, . . . ,p(K−1).

En d’autres termes, il suffit d’observer la réponse immédiate et l’impact sur les p(K− 1) premières

réponses pour conclure l’absence totale de réponse sur les erreurs orthogonales.

Exemple 4.16 (Suite de l’exemple 4.3) Supposons le processus VAR(1) stable yt bivarié tel que

yt =

[y1,t

y2,t

]=

[0.7 0.1

0.6 0.25

]yt−1 +ut , ∀ t ∈Z.

On suppose que

Σu =

[0.49 0.21

0.21 0.25

].

La matrice P, obtenue par la décomposition de Choleski, est

P =

[0.7 0

0.3 0.4

]

et représente l’ensemble des effets immédiats au temps 0. Selon la propriété ( 4.21), nous avons juste

besoin de connaître les p(K−1) premières réponses afin de conclure l’absence de réponse impulsion-

nelle orthogonale. Ainsi, nous observerons juste la matrice Θ1 = P en sus de la matrice Θ0 = P.

Φi = Ai et Θi = ΦiP.

Donc l’impact d’un choc unitaire sur les y2,t au temps 0 après une période est

Θ1 = Φ1P =

[0.52 0.04

0.495 0.1

]

et est la réaction de y2,t au choc orthogonal sur y1,t au temps 0 après une période.

Selon cet exemple, il y a présence de réponse impulsionnelle. On peut observer graphiquement ces

fonctions à la figure ( 4.3) :

98

Page 113: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 4.3: Réponses aux chocs orthogonaux de l’exemple 4.16

Limites de la méthode

Il existe des limites à cette méthode de l’impulsion. En effet, la plupart du temps, toutes les variables

du système ne sont pas incluses dans le modèle. Le modèle VAR à l’étude serait donc une résul-

tante du choix du nombre de composantes et peut s’avérer incomplet parce que certaines variables

importantes pourraient avoir été omises. Le fait d’omettre d’importantes variables peut influencer les

réponses impulsionnelles de façon considérable et rendre les interprétations structurelles inutilisables.

Cependant, on peut toujours faire de la prévision. L’interprétation peut être aussi rendue ardue à cause

des problèmes d’échelle, le type de séries utilisées (ajustement, désaisonnalisation, agrégation, etc.)

4.8.5 Décomposition des covariances des erreurs de prédiction

Dans cette section, nous allons présenter un autre outil qui permet d’interpréter les modèles VAR. En

effet, si on est capable de ressortir les éléments d’erreurs qui influencent le système, on peut utiliser

un outil qui est la décomposition des covariances des erreurs de prédiction.

Pour ce faire, nous allons nous servir de la forme moyenne mobile orthogonale d’un processus VAR(p)

qui s’écrit yt = µ +∑∞i=0 Θiwt−i, t ∈ Z. Il faut rappeler que sous cette forme, les erreurs ne sont pas

corrélées et leur matrice de variances covariances est la matrice identité IK .

Sous cette forme (orthogonale) 17, l’erreur associée au meilleur prédicteur de y à l’horizon h à partir

de l’origine t est

yt+h− yt(h) =h−1

∑i=0

Θiwt+h−i.

L’erreur associée au meilleur prédicteur de yk,t , où y j,t est la j-ème composante du processus K-

17. Voir l’expression ( 4.33) pour une formule équivalente d’erreur de prévision

99

Page 114: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

vectoriel, est

yk,t+h− yk,t(h) =h−1

∑i=0

(θ j1,iw1,t+h−i + · · ·+θkK,iwK,t+h−i) =K

∑k=1

(θ jk,0w1,t+h + · · ·+θ jk,h−1wK,t+1),

où θ jk,i est jk-ème élément de la matrice Θi.

L’erreur quadratique moyenne de cette composante est égale à

MSE(y j,t(h)) =K

∑k=1

(θ 2jk,0 + · · ·+θ

2jk,h−1) =

K

∑k=1

h−1

∑i=0

(e′jΘiek)2, (4.35)

car les erreurs wt sont non corrélées, ont une moyenne nulle et leur matrice de variances-covariances

est la matrice identité IK . Le vecteur e′j est la j-ème colonne de cette matrice.

Cette expression ( 4.35) est vue comme la participation (contribution) à la variance des erreurs de

prévision de la variable y j des erreurs wk,t associées à la composante yk.

En termes de proportions, on obtient

ω jk,h =∑

h−1i=0 (e

′jΘiek)

2

MSE(y j,t(h)). (4.36)

Chacune des proportions ω jk,h est interprétée comme la portion de la variance des erreurs de prédiction

de y j qui est influencée par la variance des erreurs de yk.

Proposition 4.22 (Décomposition des covariances des erreurs de prédiction) Soit yt , un processus

K-vectoriel stable qui s’écrit yt = µ +∑∞i=0 Θiwt−i, t ∈ Z. La participation ou contribution à la va-

riance des erreurs de prévision de la variable y j des erreurs wk,t associées à la composante yk est

MSE(y j,t(h)) =K

∑k=1

(θ 2jk,0 + · · ·+θ

2jk,h−1) =

K

∑k=1

h−1

∑i=0

(e′jΘiek)2, (4.37)

et, en termes de proportions, est

ω jk,h =∑

h−1i=0 (e

′jΘiek)

2

MSE(y j,t(h)). (4.38)

Interprétation : Ici, on veut mesurer l’influence que chaque variable a sur l’autre dans sa prévision. Plus

grande sera la proportion, plus grand sera considéré son impact. Selon Stock and Watson (2001), cette

proportion ressemble à une sorte de coefficient de détermination partiel pour l’erreur de prévision.

4.9 Construction d’un modèle VAR

Dans cette section, nous faisons un récapitulatif des étapes de la modélisation VAR. Bâtir un modèle

VAR répond à deux objectifs principaux que sont la prévision et l’analyse structurelle. Tout d’abord,

100

Page 115: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

l’analyste doit trouver, à l’aide de méthodes telles que les critères de sélection et les matrices de cor-

rélation, le bon ordre du VAR. Par la suite, on estime la ou les matrices de coefficients ainsi que

le vecteur de constantes s’il y a lieu. On peut même estimer la matrice des covariances des innova-

tions. Après la phase d’estimation, vient l’étape de l’adéquation du modèle. À cette étape, on vérifie

si les résidus du modèle sont des bruits blancs. On veut savoir si la moyenne est nulle, la variance

est constante. On peut aussi vérifier l’autocorrélation en faisant un test de Portmanteau. La norma-

lité n’étant pas "obligatoire", le fait que les résidus soient des bruits blancs vectoriels n’étant pas une

condition nécessaire, nous n’allons pas être rigoureux si ces postulats ne sont pas respectés. On peut

aussi vérifier la stabilité du modèle en analysant les modules des valeurs propres de la matrice compa-

gnon. Une fois le modèle adéquat, nous procédons aux phases de prévision et d’analyse structurelle.

L’analyse structurelle consiste en l’analyse des liens dynamiques entre les variables du modèle en fai-

sant les tests de causalité au sens de Granger et instantanée, les fonctions de réponse impulsionnelles

et la décomposition des covariances des erreurs de prédiction.

101

Page 116: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Chapitre 5

RETOUR À L’APPLICATION :ANALYSE MULTIVARIÉE

Au chapitre 3, nous avons analysé cinq séries à l’aide de la méthode univariée de Box et Jenkins.

Dans ce chapitre, nous allons essayer d’ajuster un modèle de type VAR au processus vectoriel dont

les composantes sont les cinq variables étudiées au chapitre 3. Après avoir validé le modèle obtenu

à l’aide des méthodes décrites au chapitre 4, nous allons évaluer les liens entre les 5 séries à l’aide

de l’analyse structurelle qui regroupe les méthodes de causalité au sens de Granger, de réponse à

l’impulsion et de décomposition de la variance des erreurs de prédiction. Par ailleurs, tout en vérifiant

si le modèle final obtenu produit de bonnes prévisions, nous allons le comparer à chacun des modèles

univariés obtenus au chapitre 3 et conclure si le fait d’utiliser les modèles VAR(p) apporte une valeur

ajoutée à la prévision. Pour ce faire, nous allons utiliser des méthodes d’observations de graphiques de

prévisions et de calcul de mesure d’erreurs à minimiser. L’analyse de la causalité au sens de Granger

nous permettra de vérifier s’il existe des liens de cause à effet entre les variables (ou vecteurs de

variables) à l’étude. Dans la partie sur l’impact de l’impulsion, nous allons mesurer l’effet d’un choc

subi par les investissements gouvernementaux sur les autres variables. Les décisions d’investissements

gouvernementales influencent-elles les variables reliées au taux de chômage, au produit national brut,

aux consommations, aux investissements privés et aux investissements gouvernementaux ? Ces effets

sont-ils à court terme ? à long terme ? inexistants ? Les objectifs de ce chapitre comportent donc deux

volets principaux : l’analyse structurelle (décrite plus haut) et la comparaison des modèles univariés et

multivarié via les prévisions, laquelle conduira en la conclusion de la valeur ajoutée de la modélisation

VAR par rapport à la modélisation de Box et Jenkins.

5.1 Observation graphique des cinq séries transformées

Avant de commencer notre analyse, il est important de s’assurer que les séries utilisées sont toutes

stationnaires. Du chapitre 3 sur l’analyse univariée, nous utilisons les séries transformées ou non

selon la méthode de Box-Cox. Nous voulons être comparer les modèles univariés du chapitre 3 à celui

102

Page 117: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 5.1: Graphe des 5 séries transformées mais non différenciées

de ce chapitre en appliquant la modélisation VAR au même vecteur de variables, d’où l’utilisation des

mêmes séries stationnaires.

Nous observons, sur ce graphique 5.1, les variables transformées mais non encore différenciées√

taux de chômage, produit national brut0.2, consommation1/3, investissements privés0.2 et investisse-

ments gouvernementaux/100. Nous avons changé l’échelle de la dernière variable (celle des inves-

tissements gouvernementaux) pour le but de la représentation graphique. Cependant, dans l’analyse,

nous utiliserons la variable investissements gouvernementaux telle quelle car c’est la variable utilisée

dans le chapitre 3. Par ailleurs, nous allons différencier ces séries transformées comme au chapitre

3 pour obtenir la stationnarité. Il faut signifier que seule la série "investissements gouvernementaux"

n’est pas transformée, c’est-à-dire qu’on ne lui applique pas de transformée de Box-Cox, comme au

chapitre 3.

5.2 Analyse multivariée : 5 variables

Soit yt , le processus faisant l’objet de l’analyse. yt représente l’ensemble des 5 composantes sta-

tionnaires y1,t , y2,t , y3,t , y4,t et y5,t . Elles sont respectivement les séries√

taux de chômage diffé-

renciée, produit national brut0.2 différenciée, consommation1/3 différenciée, investissements privés0.2

différenciée et investissements gouvernemen- taux différenciée.

103

Page 118: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

5.2.1 Choix de l’ordre et estimation

Nous choisirons le modèle à l’aide des critères d’information vus à la section 4.5.2. Le tableau 5.1

nous permet de choisir un VAR(1).

TABLE 5.1: Critère BIC de modèles concurrents selon l’ordre

Décalage MA(0) MA(1) MA(2)AR(0) -24.79735 -24.51729 -23.82163AR(1) -25.26752 -25.00627 -24.51367AR(2) -24.71623 -24.52099 -24.01617

Nous constatons que le critère BIC du modèle VAR(1) sélectionné est le minimum de toutes les valeurs

présentées dans le tableau. Pour confirmer ce choix ou l’infirmer, nous allons le comparer au modèle

VAR(4), qui, lui, a été proposé par la représentation schématique de l’autorégression partielle (tableau

5.2). L’écriture du signe + ( respectivement -) signifie que le coefficient est > (respectivement < - )

2* erreur-type, . signifie qu’il est compris entre -2* erreur-type et 2* erreur-type. On remarque que

l’autorégression partielle est non significative à partir du retard 5, d’où le choix du VAR(4). En effet,

nous n’avons que des "points" à partir du retard 5.

TABLE 5.2: Représentation schématique de l’autorégression partielle

Variable/Retard 1 2 3 4 5 6y1 ..-.. .-... ..... ..-.+ ..... .....y2 ..+.. +.... ..... ..... ..... .....y3 ...+. ..... ..+.. ..... ..... .....y4 ..++. +.... +.... +.+.. ..... .....y5 ....+ ..... .+–+ .+–. ..... .....

Nous poursuivrons l’analyse avec un VAR(1) car, non seulement certains de ses critères d’informa-

tion sont plus petits que ceux du VAR(4) (BIC=-3146.5 1 et HQC= -3228.52 pour le VAR(1) contre

BIC=-2959.73 et HQC=-3177.06) mais aussi il est beaucoup plus parcimonieux. Nous aurons donc

30 valeurs à estimer, c’est-à-dire, la matrice des coefficients (25 valeurs) ainsi que le vecteur des

constantes (5 valeurs) au lieu de 105 valeurs pour un VAR(4). Nous pourrons aussi estimer la matrice

des covariances des innovations.

Nous obtenons le système d’équations suivant :

1. Dans SAS, Proc VARMAX utilise deux formules de calculs des critères d’information. Une valeur est calcu-lée pour la détermination de l’ordre (OPTION=MINIC, voir http://support.sas.com/documentation/cdl/en/

etsug/68148/HTML/default/viewer.htm#etsug_varmax_details17.htm) et l’autre est utilisée pour les comparai-sons de modèles (voir http://support.sas.com/documentation/cdl/en/etsug/68148/HTML/default/viewer.htm#etsug_varmax_details40.htm#etsug.varmax.varmmdc). Cette valeur ainsi que celles des autres critères présen-tés sont donc les résultats des calculs de la deuxième méthode.

104

Page 119: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

yt =

0.04994

0.00357

0.02872

−0.01219

2.02665

+

0.17311 −2.06806 −0.91612 −0.50244 −0.00042

−0.00475 0.12653 0.07930 0.03055 −0.00010

0.01576 −0.52652 0.09073 0.34211 0.00042

0.04083 −0.79804 0.68561 0.34137 0.00006

0.65153 129.82695 −22.60118 −44.70421 0.44250

yt−1+ut ,

(5.1)

où le processus yt représente l’ensemble des 5 composantes stationnaires y1,t , y2,t , y3,t , y4,t et y5,t . Elles

sont respectivement les séries√

taux de chômage différenciée, produit national brut0.2 différenciée,

consommation1/3 différenciée, investissements privés0.2 différenciée et investissements gouvernemen-

taux différenciée. Cette équation nous permet par la même occasion d’observer les valeurs de la ma-

trice compagnon de dimensions (5 × 5). La matrice compagnon est tout simplement la matrice des

coefficients puisque nous avons un VAR(1). Les modules des racines du polynôme caractéristique

associé à cette matrice sont tous inférieurs à 1. Ils sont égaux à 0.5068, 0.5148, 0.5148, 0.0359 et

0.2865. On peut conclure que le processus obtenu est stable.

On constate dans le tableau 5.3 que seulement quelques uns des coefficients sont significatifs. Par

exemple, pour y1,t (la variable reliée au taux de chômage), on constate que la constante et les coeffi-

cients associés à y1,t−1 et y3,t−1 sont significatifs, donc non nuls.

TABLE 5.3: Représentation schématique des paramètres estimés

Variable/Retard Constante AR1y1 + +.-..y2 + ..+..y3 + ...+.y4 - ..++.y5 . ....+

Un modèle réduit obtenu à partir de l’omission de certains coefficients dont les valeurs p des tests de

nullité sont supérieures au seuil de 5% pourrait s’avérer meilleur. Pour l’instant, nous allons analyser

le modèle obtenu et vérifier s’il est adéquat.

TABLE 5.4: Matrice des corrélations des innovations estimée

Variable u1 u2 u3 u4 u5

u1 1.00000000 -0.5398246 -0.24001330 -0.4542489 0.07266148u2 -0.53982456 1.0000000 0.48448140 0.7844645 -0.10814709u3 -0.24001330 0.4844814 1.00000000 0.1754116 0.05247045u4 -0.45424890 0.7844645 0.17541160 1.0000000 -0.13200471u5 0.07266148 -0.1081471 0.05247045 -0.1320047 1.00000000

On donne la matrice de corrélations des innovations au tableau 5.4. On constate que les innovations

sont toutes corrélées entre elles avec des valeurs faibles pour les corrélations entre les innovations de

105

Page 120: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

la variable y5 et celles des autres composantes. Par ailleurs, u2 est assez fortement corrélée avec trois

des quatres autres innovations de variables. Nous avons des valeurs assez importantes pour u2 avec

des valeurs qui sont supérieures à 0.1 en valeur absolue, la plupart d’entre elles (3 plus précisément)

étant supérieures à 0.48. u3 est la plus fortement corrélée à u2 (valeur de 0.4845). Les coefficients de

corrélation croisée entre les innovations de y4 et celles de y1 et y2 sont assez élevées. Nous vérifierons

aux sections sur l’analyse structurelle notamment aux sections 5.2.3, 5.3.3 et 5.3.4 si ces liens sont

assez importants pour influencer les résultats des analyses que nous faisons.

5.2.2 Validation du modèle

Des tests sur les résidus nous permettront de valider si ce modèle est satisfaisant. En effet, on veut

vérifier s’ils forment un bruit blanc vectoriel.

Selon le tableau 5.5, la plupart des corrélations croisées sont significatives entre les résidus aux retards

2 et 4. On constate que u5,t est seulement corrélé à u1,t−3. Par ailleurs, les valeurs de la statistique

Portemanteau de Hosking de test de nullité des corrélations jusqu’à l’ordre i, i = 2, . . . ,5 ont été

repertoriées dans le tableau 5.6. À un seuil de 5%, l’hypothèse nulle d’absence de corrélation entre

les résidus est rejetée. On conclut qu’il existe des liens entre les séries à l’étude.

TABLE 5.5: Représentation schématique des corrélations croisées des résidus

Variable/Retard 0 1 2 3 4 5y1 +—. ..... ....- ..... ...+. .....y2 -+++. ..... -.... ..... ....+ .....y3 -+++. ..... ..... ..... ..... +....y4 -+++. ..... -...+ ..... ...-. .....y5 ....+ ..... ..... -.... ..... .....

TABLE 5.6: Test du Portemanteau pour corrélations croisées des résidus

Jusqu’au retard DDL Statistique khi-2 p-valeur2 25 42.40 0.01633 50 75.54 0.01134 75 167.47 <0.0015 100 191.56 <0.0001

On a aussi effectué des tests de normalité de Jarque-Bera et ARCH sur les résidus. Du tableau 5.7, on

déduit que seulement u2,t et u4,t sont gaussiens. Cette normalité est confirmée à l’aide des graphiques

5.2 et 5.3. Les histogrammes et QQ-plots montrent bien qu’une loi normale de moyenne nulle s’ajuste

bien aux erreurs de prévision u2,t et u4,t . Le manque de normalité empêche la construction d’intervalles

de prévision pour les variables dont les résidus ne sont pas gaussiens. Une méthode, celle du bootstrap

est une solution pour construire des intervalles non-paramétriques. On peut se référer à Hyndman and

Athanasopoulos (2018), Bühlmann (1997), Vogel and Shallcross (1996), Politis and Romano (1994)

pour diverses approches de cette méthode. Par ailleurs, il n’y a pas de variance hétéroscédastique

106

Page 121: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

selon le test ARCH. Les p-valeurs des tests ARCH sur chacun des résidus des 5 variables ne sont pas

significatives. En effet, elles sont toutes supérieures au seuil de 5%.

TABLE 5.7: Test du bruit blanc du modèle à une variable

Variable Statistique khi-2 (Normalité) p-valeur Statistique F (test ARCH) p-valeury1 61.79 <0.0001 1.00 0.3199y2 0.77 0.6791 0.53 0.4690y3 33.52 <0.0001 1.10 0.2967y4 2.55 0.2794 0.24 0.6243y5 26.62 <0.0001 3.12 0.0794

FIGURE 5.2: Diagnostics graphiques de normalité des erreurs de prévision associées à la série "produitnational brut" stationnarisée

Enfin, l’analyse de la variance de chacun des modèles univariés estimés (tableau 5.8) permet de

conclure qu’ils sont tous adéquats car les statistiques F sont toutes significatives. On a voulu tester

si chacun des modèles représentés par chacune des équations du système d’équations 5.1de notre

processus yt est adéquat. En effet, les p-valeurs sont significatives.

TABLE 5.8: Diagnostics ANOVA du modèle à une variable

Variable R-carré Écart-type Valeur F p-valeury1 0.3936 0.08395 19.87 <0.0001y2 0.1720 0.00942 6.36 <0.0001y3 0.1024 0.02826 3.49 0.0051y4 0.2752 0.03224 11.62 <0.0001y5 0.2182 7.83646 8.54 <0.0001

Les tests effectués montrent que les résidus ne forment pas un bruit blanc vectoriel. (Lütkepohl, 2006,

p. 157) affirme que l’on ne doit pas être rigoureux par rapport au fait que les résidus ne forment pas

107

Page 122: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 5.3: Diagnostics graphiques de normalité des erreurs de prévision associées à la série "Inves-tissements privés" stationnarisée

un bruit blanc vectoriel si l’objectif de l’analyste est la prévision et tant que le modèle obtenu produit

de bonnes prévisions.

108

Page 123: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

5.2.3 Causalité au sens de Granger et impact d’une impulsion

Nous avions remarqué que les tests sur les résidus montraient qu’ils étaient corrélés. Nous allons donc

nous attarder sur les impacts orthogonaux de l’ordre de deux écarts-types et leurs réponses. L’ordre

dans lequel se trouvent les variables a été déterminé tout d’abord de façon arbitraire puis en se ba-

sant sur les équations du modèle obtenu et la plupart des coefficients significatifs car peu importe

l’ordre des variables, les équations demeurent les mêmes . Nous avons relevé, pour chaque équation,

les variables qui influençaient significativement la variable dépendante et essayé de les ordonner se-

lon "leurs forces d’impact". Nous allons tout d’abord procéder dans l’ordre suivant : dunempmod 2,

dgnpmod 3, dconsummod 4, dprinvmod 5 et dgovinvmod 6. Puis nous allons utiliser l’ordre dprinvmod,

dconsummod, dgnpmod, dunempmod et dgovinvmod. Il devrait peut-être y avoir une différence mais

nous allons nous en assurer en procédant à des vérifications.

Dans cette section, nous allons seulement nous focaliser sur l’analyse de l’impact des décisions d’in-

vestissements gouvernementaux sur les composantes de notre système. Nous avions remarqué que

dans le modèle obtenu, les coefficients associés à la variable "investissements gouvernementaux"

n’étaient pas significatifs. Il semble donc qu’elle n’a pas d’influence mais cette affirmation sera véri-

fiée à travers les tests. Pour connaître l’impact des autres composantes, le lecteur pourra se référer au

code informatique présent à l’annexe pour observer et constater les résultats obtenus. Mais avant cela,

nous allons tester la causalité au sens de Granger.

Causalité au sens de Granger

Pour confirmer les suppositions faites sur la variable "investissements gouvernementaux", nous avons

testé deux hypothèses nulles qui sont :

1. Le vecteur constitué des variables associées au taux de chômage (y1,t), au produit national brut

(y2,t), aux consommations (y3,t) et aux investissements privés (y4,t) ne cause pas le vecteur

constitué de la variable associée aux investissements gouvernementaux (y5,t).

2. Le vecteur constitué de la variable associée aux investissements gouvernementaux (y5,t) ne

cause pas le vecteur constitué des variables associées au taux de chômage (y1,t), au produit

national brut (y2,t), aux consommations (y3,t) et aux investissements privés (y4,t).

Les résultats du test de causalité présents dans le tableau 5.9 montrent qu’il n’y a pas de lien de cause

à effet entre les sous-vecteurs sus-mentionnés.

2. (1−B)√

(unemp)3. (1−B)gnp0.2

4. (1−B)consum1/3

5. (1−B)prinv0.2

6. (1−B)govinv

109

Page 124: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE 5.9: Test de Wald de la causalité au sens de Granger

Test DDL Statistique khi-2 p-valeur1 4 2.96 0.56492 4 3.20 0.5253

Impact sur l’erreur orthogonalisée associée à la série "investissements gouvernementaux"

Les graphiques 5.4 et 5.5 montrent les réponses de chacune des composantes à un choc de deux

erreurs-types sur les erreurs orthogonalisées w5,t sur un espace de temps de 12 retards lorsque nous

avons cet ordre : taux de chômage, produit national brut, consommations, investissements privés,

investissements gouvernementaux. Nous changerons l’ordonnancement des composantes tout en gar-

dant notre variable d’intérêt en cinquième position. Cette méthode nous permettra de démontrer que

l’ordre dans lequel les variables sont placées a une importance.

FIGURE 5.4: Réponses à l’impact sur les erreurs orthogonalisées de la série "investissements gouver-nementaux" stationnarisée

À cause de l’ordre, les impacts instantanés sont nuls sur les 4 premières composantes. Par ailleurs,

on remarque même qu’aucun effet sur celles-ci n’est significatif par la suite. Par ailleurs, on constate

que les réactions de la variable associée au taux de chômage sont positives et le demeurent tout en

diminuant et convergeant vers l’équilibre de 0. Elles sont significatives aux périodes 0, 1 et 2.

Les graphiques 5.6 et 5.7 montrent les réponses de chacune des composantes à un choc de deux

erreurs-types sur les erreurs orthogonalisées w1,t sur un espace de temps de 12 retards dans le second

cas.

110

Page 125: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 5.5: Réponses à l’impact sur les erreurs orthogonalisées de la série "investissements gouver-nementaux" stationnarisée (suite)

FIGURE 5.6: Réponses à l’impact sur les erreurs orthogonalisées de la série " investissements gouver-nementaux" stationnarisée

À cause de l’ordre, les impacts instantanés des 4 premières composantes sont nuls. Par ailleurs, on

remarque même qu’aucun effet sur celles-ci n’est significatif.

111

Page 126: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 5.7: Réponses à l’impact sur les erreurs orthogonalisées de la série " investissements gouver-nementaux" stationnarisée (suite)

On constate que nous avons la même courbe de fonction de réponse impulsionnelle qu’au cas 1 pour la

variable y5,t . Comme l’a montré l’équation univariée associée à y5,t dans le modèle final, cette compo-

sante n’est influencée que par elle-même et n’influence aucune autre composante du modèle et ce, peu

importe l’ordre dans lequel les autres composantes sont placées. L’augmentation de deux erreurs-types

des erreurs de prévision entraîne des réactions qui ne sont significatives que sur 2 périodes.

5.2.4 Décomposition de la variance de l’erreur de prédiction

L’analyse de la décomposition de la variance des erreurs de prédiction 7 a permis de constater que

y58 demeure isolée quelque soit l’ordre. En observant le tableau B.32, on peut conclure que y1

9 a un

impact sur y1, y210, y3

11 et y412 . y2 est causal pour y1, y2, y3 et y4. y3 a une influence considérable

sur y3 et y4. Enfin, y4 a un effet important sur y4 et a beaucoup moins d’impact sur y3 avec une part

maximale égale à 4.573%. y5 n’influence pas et n’est pas influencée. Du tableau B.33, nous constatons

le rôle prépondérant de y4 mais aussi celui de y3 dans la participation à la variance des innovations des

cinq composantes. y2 et y1 n’influencent qu’elles-mêmes mais y1 a un impact faible sur y3.

7. Voir tableaux B.32 et B.33 en annexe8. La variable associée aux investissements gouvernementaux ou dgovinvmod9. La variable associée au taux de chômage ou dunempmod

10. La variable associée au produit national brut ou dgnpmod11. La variable associée aux consommations ou dconsummod12. La variable associée aux investissements privés ou dprinvmod

112

Page 127: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

5.2.5 Conclusion

En somme, on constate que la composante « investissements gouvernementaux » n’impacte pas les

autres composantes. Ceci confirme bien les raisons pour lesquelles cette variable n’est prédite que par

elle-même dans le système d’équations du modèle final car tous les coefficients du modèle associés

aux autres variables ne sont pas significatifs. Elle ne s’influence qu’elle-même. Les résultats du test

de causalité au sens de Granger le confirment bien aussi. On conclut alors qu’il faudrait l’étudier

séparement (étude faite au chapitre 3) et procéder à une analyse conjointe des 4 autres composantes.

5.3 Analyse multivariée : Modèle à 4 variables

5.3.1 Choix de l’ordre, estimation et validation du modèle

En suivant les mêmes méthodes que précédemment, nous avons ajusté un VAR(1) 13.

yt =

0.04869

0.00386

0.02999

−0.01201

+

−2.06470 0.17115 −0.92894 −0.49089

0.12575 −0.00429 0.08227 0.02788

−0.52992 0.01775 0.10372 0.33041

−0.79853 0.04112 0.68750 0.33967

yt−1 +ut , (5.2)

où le processus yt représente l’ensemble des 4 composantes stationnaires y1,t , y2,t , y3,t et y4,t . Elles

sont respectivement les séries√

taux de chômage différenciée, produit national brut0.2 différenciée,

consommation1/3 différenciée, et investissements privés0.2 différenciée.

Les tests de validation ont conduit aux mêmes conclusions qu’à la section sur le modèle à 5 va-

riables 14.

5.3.2 Prévisions

Sur les graphiques 5.8, 5.9, 5.10 et 5.11, on observe que le modèle produit de bonnes prévisions. Par

ailleurs, en comparant les prévisions des modèles obtenus selon la méthode de Box et Jenkins (ligne

et cercles verts) au chapitre 3 à notre modèle VAR(1) (ligne et cercles bleus), nous constatons que ce

dernier est, de façon générale, meilleur. Les ligne et cercles rouges de chaque graphique représentent

le tracé de la série correspondant à l’énoncé. Les bandes de confiance sont celles obtenues à partir du

modèle VAR qui semblent moins larges que celles des modèles univariés 15. Il faut noter que, selon les

tests de validation, seuls les résidus des variables "produit national brut" et "investissements privés"

sont gaussiens. Nous traçons donc uniquement les bandes de confiance de ces variables. La plupart du

temps, les prédictions de celui-ci sont plus proches des observations que celles des modèles univariés

13. Le lecteur pourra se référer au code SAS pour plus de détails sur l’analyse et les résultats obtenus14. Pour plus de détails, voir le code informatique15. Voir graphiques en annexe

113

Page 128: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

de Box et Jenkins. Il est possible d’obtenir des intervalles de prévision pour les résidus non gaussiens

grâce à des méthodes non paramétriques comme le bootstrap.

114

Page 129: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 5.8: Prévisions de la série "taux de chômage"-ligne et cercles rouges (tracé de la série)-ligneet cercles bleus (modèle VAR)-ligne et cercles verts(modèle univarié)

Nous calculons l’écart quadratique prévisionnel entre les prévisions et les valeurs réelles correspon-

dantes. Nous avons tronqué les séries originales de 4, 8 et 12 dernières périodes et nous comparons

les modèles univariés et multivarié dans chaque cas. Ces valeurs sont résumées dans le tableau 5.10.

TABLE 5.10: Tableau de comparaison des modèles univariés et multivarié pour chaque série selon lavaleur de l’erreur quadratique prévisionnelle aux 4, 8 et 12 dernières périodes tronquées

Univarié Var(1)Longueur de troncature 4 8 12 4 8 12

Taux de chômage 0.4679 4.0829 3.6931 0.1262 2.2431 1.4024Produit national brut 2763.56 4462.88 1930.38 2122.99 3149.09 1653.32

Consommations 281.41 469.54 1701.71 105.09 186.49 1135.82Investissements privés 1726.75 5512.43 5423.99 753.40 613.14 1871.82

L’erreur quadratique prévisionnelle 16 de notre méthode multivariée est toujours inférieure à celle de

chacun des modèles univariés. Nous pouvons conclure, au vu des graphiques de prévisions et du calcul

de la mesure d’erreur que le modèle VAR(1) a amélioré la prévision de nos séries comparativement

aux modèles univariés du chapitre 3.

Il serait possible d’effectuer une comparaison de ces modèles basée sur l’erreur moyenne de prévi-

16. Elle est égale à1

cardT∑t∈T (yi,t − yi,t)

2, où T est la taille de la série tronquée

115

Page 130: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 5.9: Prévisions de la série "produit national brut"-ligne et cercles rouges (tracé de la série)-ligne et cercles bleus (modèle VAR)-ligne et cercles verts(modèle univarié)

sion 17 qui, elle, implique de calculer des intervalles de confiance. Les résidus obtenus du modèle

VAR(1) de deux de nos séries n’étant pas gaussiens, les intervalles de confiance calculés n’ont aucune

interprétabilité et ne sont donc pas valides. Par contre, il est possible d’employer une technique de

rééchantillonnage, celle du bootstrap afin de calculer des intervalles de confiance. Le lecteur intéressé

pourra notamment se référer à Hyndman and Athanasopoulos (2018), Bühlmann (1997), Vogel and

Shallcross (1996), Politis and Romano (1994) pour une connaissance plus approfondie de diverses

approches de cette méthode dont le "moving block bootstrap", le "sieve bootstrap" et le "stationary

bootstrap".

5.3.3 Causalité au sens de Granger

Nous avons effectué des tests de causalité au sens de Granger. Sachant que dans un modèle théorique

VAR(1), l’absence de causalité est traduite par la nullité de certains coefficients ou sous-matrices de

la matrice compagnon, nous nous sommes quelque peu basés sur la représentation schématique des

paramètres estimés de la table 5.3 selon la significativité afin de déterminer la subdivision du vecteur

yt en sous-vecteurs xt et zt .

Nous avons donc testé quelques hypothèses nulles qui sont :

17. Elle est égale à1

cardT∑t∈T qi,t , où qi,t est la demi-longueur de l’intervalle de prévision pour chaque t ∈ T

116

Page 131: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE 5.10: Prévisions de la série "consommation"-ligne et cercles rouges (tracé de la série)-ligneet cercles bleus (modèle VAR)-ligne et cercles verts(modèle univarié)

1. Le vecteur constitué de la variable associée au produit national brut (y2,t) ne cause pas le vecteur

constitué des variables associées au taux de chômage (y1,t), aux consommations (y3,t) et aux

investissements privés (y4,t) ;

2. Le vecteur constitué des variables associées au taux de chômage (y1,t), aux consommations (y3,t)

et aux investissements privés (y4,t) ne cause pas le vecteur constitué de la variable associée au

produit national brut (y2,t) ;

3. Le vecteur constitué des variables associées au taux de chômage (y1,t) et au produit national

brut (y2,t) ne cause pas le vecteur constitué des variables associées aux consommations (y3,t) et

aux investissements privés (y4,t) ;

4. Le vecteur constitué des variables associées aux consommations (y3,t) et aux investissements

privés (y4,t) ne cause pas le vecteur constitué des variables associées au taux de chômage (y1,t)

et au produit national brut (y2,t) ;

5. Le vecteur constitué de la variable associée au taux de chômage (y1,t) ne cause pas le vecteur

constitué de la variable associée au produit national brut (y2,t) ;

6. Le vecteur constitué de la variable associée au produit national brut (y2,t) ne cause pas le vecteur

constitué de la variable associée au taux de chômage (y1,t) ;

7. Le vecteur constitué de la variable associée aux consommations (y3,t) ne cause pas le vecteur

constitué de la variable associée aux investissements privés (y4,t) ;

117

Page 132: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

8. Le vecteur constitué de la variable associée aux investissements privés (y4,t) ne cause pas le

vecteur constitué de la variable associée aux consommations (y3,t).

Les résultats du test de causalité sont présents dans le tableau 5.11 ci-dessous.

TABLE 5.11: Test de causalité de Granger dans le cadre d’un test de Wald

Test DDL Statistique khi-2 p-valeur1 3 10.22 0.01682 3 7.07 0.06973 4 7.93 0.09404 4 12.63 0.01325 1 0.13 0.71816 1 31.44 <.00017 1 38.99 <0.00018 1 10.54 0.0012

On remarque que les tests 1 et 2 ont des conclusions contraires. En effet, alors qu’on rejette l’hypothèse

nulle selon laquelle y2,t ne cause pas le vecteur constitué de y1,t , y3,t et de y4,t , celle du test 2 n’est pas

rejetée. En effet, le vecteur constitué de y1,t , y3,t et de y4,t ne cause pas y2,t . Le vecteur constitué des

variables associées au taux de chômage (y1,t) et au produit national brut (y2,t) ne cause pas le vecteur

constitué des variables associées aux consommations (y3,t) et aux investissements privés (y4,t) mais

FIGURE 5.11: Prévisions de la série "investissements privés"-ligne et cercles rouges (tracé de la série)-ligne et cercles bleus (modèle VAR)-ligne et cercles verts(modèle univarié)

118

Page 133: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

l’inverse est vrai. y1,t ne cause pas y2,t mais y2,t cause y1,t . Les tests 7 et 8 montrent que y3,t et y4,t se

causent mutuellement. Nous avons un effet de rétroaction.

Les conclusions de ces tests nous conduisent à penser que les ordres d’ordonnancement des variables

que sont (y3,t , y4,t ,y2,t ,y1,t) et (y4,t , y3,t ,y2,t ,y1,t) que nous appellerons respectivement l’ordre 3421 et

l’ordre 4321 seraient les meilleurs. Les deux ordres retenus nous font croire que y3 et y4 causent y2

qui cause à son tour y1. Cette supposition reste à être confirmée ou infirmée lorsque nous analyserons

les tableaux de décomposition de la variance des erreurs de prédiction.

5.3.4 Décomposition de la covariance de l’erreur de prédiction

Dans cette section, nous analyserons les 24 permutations d’ordre des variables et feront des conclu-

sions à l’issue de l’observation des résultats obtenus. Nous verrons que l’ordre est important. Quatre

tableaux ( B.34, B.35, B.36 et B.37) présentent les parts attribuables à chaque composante dans

les variances des erreurs de prédiction des quatre composantes. Aux variables associées au taux de

chômage, au produit national brut, aux consommations et aux investissements privés correspondent

respectivement les numéros 1, 2, 3 et 4.

On a remarqué que y3 semble être la variable qui est la moins influencée par les autres variables, la

plupart du temps. Par ailleurs, c’est cette composante qui a de l’effet sur toutes les composantes de

notre système. Il faut aussi noter que y2 et y4 ont l’air d’exercer un effet tel qu’elles "absorbent" les

effets que y1 pourrait avoir sur les autres lorsque y2 et y4 sont placées avant y1 et même lorsqu’elle

n’est pas en dernière position. En d’autres termes, y1 n’a plus d’effet sur les autres composantes. On

constate aussi ce même événement "d’aspiration" des causes de y4 sur y2, quand y4 est mis avant y2.

y1 cause rarement y3. y2 et y4 influent quelques fois sur y3.

En somme, l’ordre d’ordonnancement des variables est d’une grande importance. Ainsi, l’ordre que

nous préconisons est 3421. Cela signifie que la variable associée aux consommations cause la variable

associée aux investissements privés qui cause à son tour la variable associée au produit national brut.

En somme, la variable associée au taux de chômage qui se trouve en dernière position, est donc causée

par celle associée au produit national brut et par les deux autres.

5.3.5 Conclusion

À l’issue de cette modélisation, nous constatons que la série investissements gouvernementaux ne se

prédit que par elle-même et nous remarquons que les autres variables se prédisent bien mutuellement.

Nous n’avons pas d’équation "complète", c’est-à-dire une équation composée des cinq variables. Il se

peut qu’il existe dans notre système d’équations des variables redondantes et que d’autres du système

économique américain aient été omises. On sait que le fait d’omettre certaines variables importantes

peut affecter les résultats de l’analyse et donc les prévisions obtenues. On serait de ce fait tentés d’en-

lever la variable investissements gouvernementaux du système d’équations afin d’essayer de trouver

un meilleur modèle. Les analyses conduites à l’aide de 4 variables ont l’air de produire un meilleur

119

Page 134: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

modèle du point de vue des critères d’information 18. Nous avons aussi remarqué qu’il existe des liens

intéressants entre nos cinq composantes. En effet, l’analyse de l’impact des impulsions a permis de

conclure que l’effet est la plupart du temps instantané ou nul. Il est de courte durée pour la compo-

sante "taux de chômage", soit deux à trois périodes. On a aussi été capable de constater que le fait

de changer l’ordre des composantes du vecteur à l’étude a conduit à des résultats différents. On a pu

voir que pour l’ordre par défaut, y1 et y2 jouaient des rôles importants alors que pour l’ordre 2, c’est

plutôt y4 mais aussi y3 qui exercent une plus grande influence. Le rôle joué par y5 ne change pas et ce,

quelque soit l’ordonnancement des variables. Les décisions d’investissements gouvernementaux n’ont

donc aucune influence sur les autres composantes à part le taux de chômage. Ceci est aussi confirmé

par l’analyse de la décomposition des covariances des erreurs de prédiction. Par ailleurs, lorsque nous

effectuons l’analyse du modèle à 4 variables, nous constatons les rôles prépondérants de y4 et y3 et

l’influence que y2 et/ou y4 exercent sur y1. L’analyse de la causalité au sens de Granger et de la décom-

positon de la variance de l’erreur de prédiction ont montré que le meilleur ordre d’ordonnancement

des variables est 3421. Cela signifie que, dans l’ordre, la variable y3 cause y4 qui influence à son tour

y2 et y2 a de l’impact uniquement sur y1. 19 L’ajustement d’un modèle VAR(1) à notre vecteur de 4

séries a permis d’améliorer la prévision de ces séries comparativement aux modèles univariés trouvés

au chapitre 3 du point de vue de l’erreur quadratique prévisionnelle. Le fait que les résidus de deux

des quatres composantes ne soient pas gaussiens ne permet pas de calculer des intervalles de confiance

pour ces séries. Une solution serait d’utiliser la technique de rééchantillonnage du bootstrap afin de

les obtenir.

18. Même si nous ne l’avons pas montré dans ce chapitre, les valeurs associées au modèle à 4 variables sont inférieures àcelles du modèle à 5 variables. Nous référons le lecteur au code informatique pour plus de détails

19. L’analyse de l’impact sur l’erreur orthogonale de y3 aurait, fort probablement, été un élément complémentaire pourconfirmer l’ordre de causalité que nous préconisons (voir code informatique)

120

Page 135: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Conclusion

Dans ce mémoire, nous avons vu que le modèle VAR est un excellent outil de modélisation de séries

multivariées lorsque les variables à l’étude sont toutes pertinentes. La pertinence se mesure aux liens

dynamiques existant ou non entre elles. Nous l’avons évaluée à l’aide de l’analyse structurelle. Celle-

ci est constituée d’un ensemble de méthodes et concepts que sont la causalité au sens de Granger

et la causalité instantanée ainsi que l’impact des impulsions et la décomposition de la variance des

erreurs de prédiction. Nous avons, à l’aide de ces méthodes, ressorti des relations entre les variables.

Par contre, les résultats des tests sur les résidus des composantes du modèle ont permis de conclure

que ceux-ci étaient individuellement des bruits blancs. Cependant, l’existence de la corrélation croisée

entre ces résidus nous conduit à affirmer qu’ils ne forment pas un bruit blanc vectoriel faible. Cepen-

dant, l’on n’est pas rigoureux sur ce fait car l’un de nos objectifs est la prévision et on peut obtenir des

prédictions bonnes sans toutefois respecter ce postulat. Par ailleurs, nous avons remarqué que l’une

des variables aurait pu être ôtée de notre jeu de données afin d’obtenir un modèle à 4 variables et

des prévisions meilleures. Cette démarche a été fructueuse puisque les critères d’information de ce

dernier ont été minimisés. Nous avons voulu comparer les modèles univariés du chapitre 3 au modèle

multivarié du chapitre 5. En se basant sur une observation graphique des prévisions, on peut conclure

que le modèle VAR(p) est meilleur que les modèles univariés obtenus au chapitre 3. Nous avons aussi

comparé ces types de modèles par le calcul de l’erreur quadratique prévisionnelle et constaté que les

déductions faites plus tôt n’étaient pas erronées. En effet, cette mesure d’erreur est plus petite dans

le cas multivarié comparativement au cas univarié. Certains des résidus n’étant pas gaussiens, nous

n’avons pu calculer d’intervalles de confiance pour toutes les composantes du modèle, ce qui nous

aurait permis de calculer l’erreur moyenne de prévision et de certainement confirmer la supériorité du

modèle VAR par rapport aux modèles de Box et Jenkins.

En somme, les modèles VAR ont été utiles parce qu’ils ont permis de conclure que quatre des cinq

variables de notre modèle de départ à cinq variables pouvaient être mieux prédites. Ce type de modèle

est donc beaucoup plus approprié que les modèles de Box et Jenkins dans le cadre de la modélisation

de séries économiques. Il est impossible de croire qu’une variable est "autosuffisante" et la détermi-

nation d’un système composé de variables pertinentes conduira donc à des interprétations appropriées

et sensées. Nous avons pu décéler des relations de causalité qui ont été confirmées par l’analyse des

chocs et de la décomposition des variances des erreurs de prédiction. Cependant, le fait que les tests

de diagnostic aient donné des résultats qui permettaient de rejeter certaines des hypothèses nulles,

121

Page 136: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

notamment celle de normalité, n’a pas permis de calculer des intervalles de confiance pour toutes

les variables. Cette insuffisance suggère qu’il pourrait être intéressant de considérer la technique non

paramétrique du bootstrap pour pallier ce problème.

À l’issue de cette analyse, nous proposons des avenues à explorer. Étant donné qu’il s’agit de variables

économiques, dans l’éventualité où il existerait des théories ou hypothèses quant aux liens entre celles-

ci, un VAR structurel serait de mise pour mieux les interpréter. Selon Stock and Watson (2001), les

VAR structurels se servent de raisonnements économiques afin de décéler les relations de causalité

entre les variables.

Par ailleurs, les caractéristiques des variables utilisées et les opérations effectuées sur elles dont la dif-

férenciation, suggèrent l’utilisation de modèle de vecteur à correction d’erreur (VECM) dans l’éven-

tualité où les séries sont cointégrées. Il en ressortirait, probablement, un meilleur modèle.

122

Page 137: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Annexe A

Algèbre vectorielle et notion statistique

A.1 Algèbre vectorielle

A.1.1 Matrice inverse généralisée de Moore-Penrose

Définition A.1 (Matrice inverse généralisée de Moore-Penrose) Une matrice M de dimensions ( j×i) est appelée la matrice inverse généralisée de Moore-Penrose d’une matrice A de dimensions (i× j)

si toutes les conditions suivantes sont respectées :

– AMA = A ;

– MAM = M ;

– (AM)′ = AM ;

– (MA)′ = MA.

Il n’existe qu’une seule matrice inverse généralisée de Moore-Penrose associée à une matrice quel-

conque A de dimensions (i× j) et elle est notée A+.

Définition A.2 (Matrice définie positive (négative)) Une matrice M symétrique de dimensions (m×m) est définie positive(négative) si pour tout vecteur v 6= 0 de m lignes v′Mv > 0 (v′Mv < 0). v′Mv est

appelée la forme quadratique en v.

Remarque : Une matrice qui est soit définie positive soit définie négative est non singulière.

Définition A.3 (Matrice non singulière) Une matrice M symétrique de dimensions (m×m) est dite

non singulière ou inversible si et seulement si son déterminant est non-nul.

Définition A.4 (Suite absolument sommable) Une suite Ai, i = 0,±1,±2,±3, . . . , est absolument

sommable si

lim ∑i=−n

= lim∑ < ∞

123

Page 138: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Définition A.5 (Produit de Kronecker) M1⊗M2 est le produit de Kronecker de 2 matrices M1 et M2

de dimensions respectives (d11×d12) et (d21×d22)qui donne le résultat suivant : Si M1 =

[m11 m12

m13 m14

]

et M2 =

[m21 m22

m23 m24

], alors M1⊗M2 =

[m11M2 m12M2

m13M2 m14M2

]où m1iM2 est une matrice obtenue à

partir du produit entre m1i et chacun des éléments de M2. Les dimensions de la matrice obtenue sont

((d11×d21)× (d12×d22)).

Exemple A.1 Soit les deux matrices A1 et A2 de l’exemple 4.3, on a :

A1⊗A2 =

−0.18 0 −0.06 0

0.06 0.06 0.02 0.02

−0.09 0 −0.21 0

0.03 0.03 0.07 0.07

.

Définition A.6 (Fonction vec) La fonction vec transforme une matrice en un vecteur colonne.

Exemple A.2 : Soit une matrice M =

[1 2

3 4

], alors vec(M) =

1

3

2

4

.

Définition A.7 (Fonction vech) La fonction vech transforme une matrice carrée non singulière M en

un vecteur colonne en ne sélectionnant que les éléments de sa diagonale et ceux en dessous, colonne

par colonne.

Le vecteur résultant de cette transformation n’est composé que de m(m+ 1)/2 éléments, m étant le

nombre de lignes et de colonnes de la matrice M.

Exemple A.3 Soit une matrice M =

1 2 3

4 5 6

7 8 9

, alors vech(M) =

1

4

7

5

8

9

.

Proposition A.1 (Lien entre vec et vech et matrice de duplication) Soit une matrice carrée non sin-

gulière M de dimensions (m×m).

vec(M) = Dmvech(M),

124

Page 139: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

et Dm est appelée la matrice de duplication. Cette matrice est de dimensions m2×m(m+1)/2.

A.2 Les coefficients d’aplatissement et d’asymétrie

Définition A.8 (Le coefficient d’asymétrie) Le coefficient d’asymétrie estimé noté S s’écrit

S =√

n∑

ni=1(Xi− X)3

∑ni=1(Xi− X)2 (A.1)

Sous l’hypothèse de normalité, S = 0.

Définition A.9 (Le coefficient d’aplatissement) Le coefficient d’aplatissement estimé noté K s’écrit

K = n∑

ni=1(Xi− X)4

∑ni=1(Xi− X)2 (A.2)

Sous l’hypothèse de normalité, K = 3.

125

Page 140: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Annexe B

Tableaux et graphiques

B.1 Tableaux section taux de chômage

TABLE B.1: Tableau des estimateurs des paramètres du modèle de départ AR(1)avec constante pourla série « taux de chômage » différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 0.0009256 0.01379 0.07 0.9466

ϕ1 0.46429 0.07066 6.57 < 0.0001

TABLE B.2: Tableau des estimateurs des paramètres du modèle de départ AR(1)sans constante pourla série « taux de chômage » différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testϕ1 0.46449 0.07041 6.60 <0.0001

TABLE B.3: Tableau des estimateurs des paramètres du modèle candidat AR(4)sans constante avecp=1,4 pour la série « taux de chômage » différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testϕ1 0.45142 0.06854 6.59 <0.0001ϕ4 -0.22137 0.06864 -3.23 0.0015

TABLE B.4: Tableau des estimateurs des paramètres du modèle candidat AR(8)sans constante avecp=1,8 pour la série « taux de chômage » différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testϕ1 0.45792 0.07071 6.48 <0.0001ϕ8 -0.07119 0.07099 -1.00 0.3174

126

Page 141: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE B.5: Tableau des estimateurs des paramètres du modèle candidat AR(8)sans constante avecp=1,4,8 pour la série « taux de chômage » différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testϕ1 0.43650 0.06836 6.39 < 0.0001ϕ4 -0.25740 0.07048 -3.65 0.0004ϕ8 -0.13871 0.07082 -1.96 0.0519

TABLE B.6: Tableau des estimateurs des paramètres du modèle candidat AR(12)sans constante avecp=1,4,8,12 pour la série « taux de chômage » différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testϕ1 0.42242 0.06772 6.24 < 0.0001ϕ4 -0.28934 0.07092 -4.08 < 0.0001ϕ8 -0.18958 0.07331 -2.58 0.0106ϕ12 -0.16358 0.07127 -2.30 0.0231

TABLE B.7: Matrice de corrélation des estimateurs pour le modèle final SARIMA(1,1,0)(3,0,0)

Paramètre ϕ1 ϕ4 ϕ8 ϕ12

ϕ1 1.000 0.102 0.133 0.091ϕ4 0.102 1.000 0.303 0.196ϕ8 0.133 0.303 1.000 0.302ϕ12 0.091 0.196 0.302 1.000

TABLE B.8: Test Portmanteau sur les résidus du modèle final SARIMA(1,1,0)(3,0,0)-série « taux dechômage »

Retard K 12 18 24Statistique Q 6.63 12.89 18.72

Valeur p du test 0.5765 0.5349 0.5400

TABLE B.9: Comparaison des modèles candidats sans constante-Test Portmanteau sur les rési-dus,AIC, BIC-série « taux de chômage »

Retard K 12 18 24 AIC BIC

p-valeur

Modèle 1 (p=1 sans constante ) 0.1096 0.1347 0.2418 -301.917 -298.842Modèle 2 (p=1,4 sans constante ) 0.2420 0.3166 0.4301 -310.118 -303.968Modèle 3 (p=1,8 sans constante ) 0.0241 0.0293 0.0706 -300.933 -294.782

Modèle 4 (p=1,4,8 sans constante ) 0.3572 0.3182 0.4417 -311.98 -302.755Modèle final (p=1,4,8,12 sans constante ) 0.5765 0.5349 0.5400 -315.293 -302.993

127

Page 142: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

B.2 Tableaux section produit national brut

TABLE B.10: Tableau des estimateurs des paramètres du modèle MA(2)avec constante pour la série« produit national brut » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 0.0074873 0.0011466 6.53 < 0.0001

θ1 -0.29630 0.07729 -3.83 0.0002θ2 -0.24926 0.07733 -3.22 0.0015

TABLE B.11: Matrice de corrélation des estimateurs pour le modèle final MA(2)

Paramètre constante θ1 θ2

Constante 1.000 -0.001 0.000θ1 -0.001 1.000 0.236θ2 0.000 0.236 1.000

TABLE B.12: Test Portmanteau sur les résidus du modèle final MA(2)-série « produit national brut »

Retard K 12 18 24Statistique Q 10.34 13.61 15.19

Valeur p du test 0.4109 0.6279 0.8539

B.3 Tableaux section consommation

TABLE B.13: Tableau des estimateurs des paramètres du modèle de départ MA(3) pour la série« consommation » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 0.03072 0.0031955 9.51 < 0.0001

θ1 -0.05433 0.07935 -0.68 0.4945θ2 -0.23171 0.07738 -2.99 0.0032θ3 -0.13484 0.08000 -1.69 0.0939

128

Page 143: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE B.14: Tableau des estimateurs des paramètres du modèle final MA(2,3,8)pour la série« consommation » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 0.03079 0.0024186 12.73 < 0.0001

θ2 -0.27617 0.07232 -3.82 0.0002θ3 -0.14514 0.07115 -2.04 0.0430θ8 -0.31524 0.07331 4.30 < 0.0001

TABLE B.15: Matrice de corrélation des estimateurs pour le modèle final MA(2,3,8)pour la série« consommation » transformée et différenciée

Paramètre Constante θ2 θ3 θ8

Constante 1.000 -0.004 0.004 -0.015θ2 -0.004 1.000 -0.094 0.220θ3 0.004 -0.094 1.000 -0.046θ8 -0.015 0.220 -0.046 1.000

TABLE B.16: Test Portmanteau sur les résidus du modèle final MA(2,3,8)pour la série « consomma-tion » transformée et différenciée

Retard K 12 18 24Statistique Q 4.28 11.31 19.75

Valeur p du test 0.8921 0.7306 0.5369

TABLE B.17: Comparaison des modèles candidats-Test Portmanteau sur les résidus,AIC, BIC-série« consommation »

Retard K 12 18 24 AIC BIC

p-valeurModèle 1 (q=3) 0.1704 0.1769 0.1223 -679.494 -667.194

Modèle final (q=2,3,8) 0.8921 0.7306 0.5369 -692.506 -680.206

129

Page 144: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

B.4 Tableaux section investissements privés

TABLE B.18: Tableau des estimateurs des paramètres du modèle de départ AR(1)avec constante pourla série « investissements privés » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 0.0050405 0.0037388 1.35 0.1795

ϕ1 0.23594 0.07731 3.05 0.0027

TABLE B.19: Tableau des estimateurs des paramètres du modèle de départ AR(1)sans constante pourla série « investissements privés » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testϕ1 0.24978 0.07680 3.25 0.0014

TABLE B.20: Tableau des estimateurs des paramètres du modèle candidat AR(4)sans constante avecp=1,4 pour la série « investissements privés » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testϕ1 0.25251 0.07462 3.38 0.0009ϕ4 -0.24307 0.07517 -3.23 0.0015

TABLE B.21: Tableau des estimateurs des paramètres du modèle candidat AR(8)sans constante avecp=1,4,8 pour la série « investissements privés » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testϕ1 0.24255 0.07422 3.27 0.0013ϕ4 -0.27678 0.07672 -3.61 0.0004ϕ8 -0.14462 0.07726 -1.87 0.0631

130

Page 145: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE B.22: Tableau des estimateurs des paramètres du modèle candidat AR(12)sans constante avecp=1,4,8,12 pour la série « investissements privés » transformée et différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testϕ1 0.24976 0.07356 3.40 0.0009ϕ4 -0.30310 0.07703 -3.93 0.0001ϕ8 -0.18896 0.07948 -2.38 0.0187ϕ12 -0.16086 0.07847 -2.05 0.0420

TABLE B.23: Matrice de corrélation des estimateurs pour le modèle final SARIMA(1,1,0)(3,0,0)

Paramètre ϕ1 ϕ4 ϕ8 ϕ12

ϕ1 1.000 -0.002 0.056 -0.048ϕ4 -0.002 1.000 0.268 0.167ϕ8 0.056 0.268 1.000 0.272ϕ12 -0.048 0.167 0.272 1.000

TABLE B.24: Test Portmanteau sur les résidus du modèle final SARIMA(1,1,0)(3,0,0)-série « inves-tissements privés »

Retard K 12 18 24Statistique Q 7.89 10.38 15.21

Valeur p du test 0.4438 0.7337 0.7645

TABLE B.25: Comparaison des modèles candidats sans constante-Test Portmanteau sur les rési-dus,AIC, BIC-série « investissements privés »

Retard K 12 18 24 AIC BIC

p-valeur

Modèle 1 (p=1 sans constante ) 0.0503 0.1470 0.2697 -606.01 -602.935Modèle 2 (p=1,4 sans constante ) 0.2245 0.5203 0.5797 -614.263 -608.113

Modèle 3 (p=1,4,8 sans constante ) 0.2848 0.5169 0.5289 -615.795 -606.569Modèle final (p=1,4,8,12 sans constante ) 0.4438 0.7337 0.7645 -618.048 -605.747

131

Page 146: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

B.5 Tableaux section investissements gouvernementaux

TABLE B.26: Tableau des estimateurs des paramètres du modèle de départ AR(1)avec constante pourla série « investissements gouvernementaux » différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 3.66224 1.11379 3.29 0.0012

ϕ1 0.45111 0.07111 6.34 < 0.0001

TABLE B.27: Tableau des estimateurs des paramètres du modèle AR(3) avec p=1,3 pour la série« investissements gouvernementaux » différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 3.61449 1.37529 2.63 0.0094

ϕ1 0.41144 0.07284 5.65 <0.0001ϕ3 0.15364 0.07302 2.10 0.0370

TABLE B.28: Tableau des estimateurs des paramètres du modèle final ARIMA(12,1,0) avec p=1,3,12pour la série « investissements gouvernementaux » différenciée

Paramètre Valeur estimée Erreur-type Statistique t Valeur p du testConstante 3.59217 0.99356 3.62 0.0004

ϕ1 0.39381 0.07239 5.44 <0.0001ϕ3 0.15991 0.07219 2.22 0.0282ϕ12 -0.16454 0.07450 -2.21 0.0287

TABLE B.29: Matrice de corrélation des estimateurs pour le modèle final ARIMA(12,1,0) avec coef-ficients non nuls à p=1,3,12

Paramètre Constante ϕ1 ϕ3 ϕ12

Constante 1.000 -0.010 -0.009 0.024ϕ1 -0.010 1.000 0.262 0.110ϕ3 -0.009 0.262 1.000 -0.039ϕ12 0.024 0.110 -0.039 1.000

B.6 Tableaux de décomposition de la variance des erreurs deprédiction

B.6.1 Pour le modèle à 5 variables

Aux variables associées au taux de chômage, au produit national brut, aux consommations, aux inves-

tissements privés et aux investissements gouvernementaux correspondent respectivement les numéros

1, 2, 3, 4 et 5.

132

Page 147: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE B.30: Test Portmanteau sur les résidus du modèle final ARIMA(12,1,0)avec coefficients nonnuls à p=1,3,12-série « investissements gouvernementaux »

Retard K 12 18 24Statistique Q 7.46 9.67 11.06

Valeur p du test 0.5889 0.8401 0.9616

TABLE B.31: Comparaison des modèles candidats-Test Portmanteau sur les résidus,AIC, BIC-série« investissements gouvernementaux »

Retard K 12 18 24 AIC BIC

p-valeurModèle 1 (p=1) 0.2458 0.4568 0.7569 1112.908 1119.058

Modèle 2 (p=1,3) 0.4745 0.6345 0.8752 1110.46 1119.686Modèle final (p=1,3,12) 0.5889 0.8401 0.9616 1107.531 1119.832

B.6.2 Pour le modèle à 4 variables

Aux variables associées au taux de chômage, au produit national brut, aux consommations et aux

investissements privés correspondent respectivement les numéros 1, 2, 3 et 4.

133

Page 148: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE B.32: Décomposition en proportions de la variance des erreurs de prévision associées à l’ordred’entrée y1, y2, y3, y4 et y5

Variable Horizon y1 y2 y3 y4 y5

y1 1 1.00000 0.00000 0.00000 0.00000 0.000002 0.81947 0.13841 0.03361 0.00751 0.001013 0.76764 0.16222 0.04800 0.01715 0.005004 0.75321 0.16446 0.05327 0.02146 0.007615 0.75028 0.16407 0.05435 0.02269 0.00861

y2 1 0.29830 0.70170 0.00000 0.00000 0.000002 0.29449 0.66659 0.03082 0.00265 0.005453 0.28923 0.65837 0.03530 0.00697 0.010144 0.28728 0.65519 0.03739 0.00823 0.011915 0.28705 0.65429 0.03765 0.00854 0.01246

y3 1 0.05872 0.19168 0.74960 0.00000 0.000002 0.05647 0.19514 0.69422 0.04166 0.012503 0.05621 0.19253 0.69223 0.04440 0.014634 0.05747 0.19174 0.68952 0.04571 0.015575 0.05817 0.19168 0.68874 0.04573 0.01568

y4 1 0.20514 0.42687 0.06433 0.30365 0.000002 0.15947 0.38888 0.19343 0.25805 0.000173 0.15598 0.37981 0.19160 0.26990 0.002704 0.15776 0.37594 0.19297 0.27009 0.003245 0.15910 0.37524 0.19248 0.26984 0.00335

y5 1 0.00528 0.00684 0.01509 0.00064 0.972152 0.00704 0.00879 0.01322 0.01099 0.959963 0.00686 0.01063 0.01385 0.01751 0.951154 0.00697 0.01098 0.01444 0.02083 0.946795 0.00733 0.01097 0.01469 0.02196 0.94505

134

Page 149: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TABLE B.33: Décomposition en proportions de la variance des erreurs de prévision associées à l’ordred’entrée y4, y3, y2, y1 et y5

Variable Horizon y4 y3 y2 y1 y5

y4 1 1.00000 0.00000 0.00000 0.00000 0.000002 0.79561 0.18288 0.01530 0.00605 0.000173 0.77647 0.18060 0.02987 0.01036 0.002704 0.76868 0.18026 0.03527 0.01255 0.003245 0.76694 0.17981 0.03675 0.01315 0.01568

y3 1 0.03105 0.96895 0.00000 0.00000 0.000002 0.07776 0.89799 0.01023 0.00151 0.012503 0.07617 0.88966 0.01557 0.00396 0.014634 0.07586 0.88590 0.01784 0.00484 0.015575 0.07612 0.88478 0.01834 0.00508 0.01246

y2 1 0.63150 0.13306 0.23543 0.00000 0.000002 0.59889 0.18842 0.20621 0.00103 0.005453 0.59410 0.19387 0.20082 0.00107 0.010144 0.59104 0.19533 0.20031 0.00140 0.011915 0.59022 0.19526 0.20047 0.00159 0.01246

y1 1 0.20514 0.02726 0.06745 0.70015 0.000002 0.31139 0.13771 0.06190 0.48798 0.001013 0.32601 0.16355 0.05703 0.44841 0.005004 0.32502 0.16898 0.05792 0.44047 0.007615 0.32385 0.16935 0.05906 0.43913 0.00861

y5 1 0.01743 0.00593 0.00438 0.00010 0.972152 0.02964 0.00497 0.00526 0.00017 0.959963 0.03371 0.00639 0.00828 0.00047 0.951154 0.03452 0.00690 0.01081 0.00098 0.946795 0.03450 0.00700 0.01212 0.00134 0.94505

135

Page 150: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TAB

LE

B.3

4:D

écom

posi

tion

enpr

opor

tions

dela

vari

ance

des

erre

urs

depr

évis

ion

Ord

re12

3412

4313

2413

4214

2314

32H

oriz

on1

51

51

51

51

51

5y 17−→

y 11.

0000

00.

7533

21.

0000

00.

7533

21.

0000

00.

7533

21.

0000

00.

7533

21.

0000

00.

7533

21.

0000

00.

7533

2y 17−→

y 20.

2996

10.

2908

90.

2996

10.

2908

90.

2996

10.

2908

90.

2996

10.

2908

90.

2996

10.

2908

90.

2996

10.

2908

9y 17−→

y 30.

0603

70.

0603

30.

0603

70.

0603

30.

0603

70.

0603

30.

0603

70.

0603

30.

0603

70.

0603

30.

0603

70.

0603

3y 17−→

y 40.

2053

60.

1593

70.

2053

60.

1593

70.

2053

60.

1593

70.

2053

60.

1593

70.

2053

60.

1593

70.

2053

60.

1593

7y 27−→

y 10.

0000

00.

1689

30.

0000

00.

1689

30.

0000

00.

0697

90.

0000

00.

0096

60.

0000

00.

0701

70.

0000

00.

0096

6y 27−→

y 20.

7003

90.

6618

80.

7003

90.

6618

80.

5546

70.

4890

00.

2137

20.

1828

50.

3268

60.

3130

60.

2137

20.

1828

5y 27−→

y 30.

1955

00.

1997

10.

1955

00.

1997

10.

0000

00.

0156

90.

0000

00.

0121

60.

3233

90.

2984

40.

0000

00.

0121

6y 27−→

y 40.

4238

00.

3751

80.

4238

00.

3751

80.

4856

60.

3576

20.

0000

00.

0223

30.

0000

00.

0347

30.

0000

00.

0223

3y 37−→

y 10.

0000

00.

0532

70.

0000

00.

0743

40.

0000

00.

1524

10.

0000

00.

1524

10.

0000

00.

0743

40.

0000

00.

1348

5y 37−→

y 20.

0000

00.

0369

00.

0000

00.

0442

10.

1457

20.

2097

70.

1457

20.

2097

70.

0000

00.

0442

10.

1131

50.

1744

1y 37−→

y 30.

7441

30.

6932

20.

6108

40.

5835

60.

9396

30.

8772

40.

9396

30.

8772

40.

6108

40.

5835

60.

9342

30.

8698

3y 37−→

y 40.

0664

30.

1941

80.

0000

00.

1839

70.

0045

70.

2117

40.

0045

70.

2117

40.

0000

00.

1839

70.

0000

00.

1963

7y 47−→

y 10.

0000

00.

0244

90.

0000

00.

0034

10.

0000

00.

0244

90.

0000

00.

0846

10.

0000

00.

1021

70.

0000

00.

1021

7y 47−→

y 20.

0000

00.

0103

40.

0000

00.

0030

30.

0000

00.

0103

40.

3409

60.

3164

90.

3735

30.

3518

40.

3735

30.

3518

4y 47−→

y 30.

0000

00.

0467

50.

1332

90.

1564

10.

0000

00.

0467

50.

0000

00.

0502

70.

0054

00.

0576

80.

0054

00.

0576

8y 47−→

y 40.

3044

20.

2712

70.

3708

50.

2814

70.

3044

20.

2712

70.

7900

80.

6065

50.

7946

40.

6219

20.

7946

40.

6219

2

136

Page 151: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TAB

LE

B.3

5:D

écom

posi

tion

enpr

opor

tions

dela

vari

ance

des

erre

urs

depr

évis

ion

Ord

re21

3421

4323

1423

4124

1324

31H

oriz

on1

51

51

51

51

51

5y 17−→

y 10.

7003

90.

4389

70.

7003

90.

4389

70.

6991

50.

4395

70.

6988

20.

4390

80.

6994

00.

4384

80.

6988

20.

4390

8y 17−→

y 20.

0000

00.

0013

20.

0000

00.

0013

20.

0000

00.

0015

50.

0000

00.

0015

70.

0000

00.

0014

60.

0000

00.

0015

7y 17−→

y 30.

0013

20.

0066

50.

0013

20.

0066

50.

0000

00.

0049

20.

0000

00.

0054

90.

0005

10.

0066

30.

0000

00.

0054

9y 17−→

y 40.

0005

30.

0159

00.

0005

30.

0159

00.

0001

40.

0124

70.

0000

00.

0134

40.

0000

00.

0161

00.

0000

00.

0134

4y 27−→

y 10.

2996

10.

4832

80.

2996

10.

4832

80.

2996

10.

4832

80.

2996

10.

4832

80.

2996

10.

4832

80.

2996

10.

4832

8y 27−→

y 21.

0000

00.

9514

51.

0000

00.

9514

51.

0000

00.

9514

51.

0000

00.

9514

51.

0000

00.

9514

51.

0000

00.

9514

5y 27−→

y 30.

2545

50.

2533

80.

2545

50.

2533

80.

2545

50.

2533

80.

2545

50.

2533

80.

2545

50.

2533

80.

2545

50.

2533

8y 27−→

y 40.

6286

30.

5186

50.

6286

30.

5186

50.

6286

30.

5186

50.

6286

30.

5186

50.

6286

30.

5186

50.

6286

30.

5186

5y 37−→

y 10.

0000

00.

0532

70.

0000

00.

0743

40.

0012

40.

0526

70.

0012

40.

0526

70.

0000

00.

0743

40.

0005

90.

0737

4y 37−→

y 20.

0000

00.

0369

00.

0000

00.

0442

10.

0000

00.

0366

60.

0000

00.

0366

60.

0000

00.

0442

10.

0000

00.

0440

9y 37−→

y 30.

7441

30.

6932

20.

6108

40.

5835

60.

7454

50.

6949

60.

7454

50.

6949

60.

6108

40.

5835

60.

6113

50.

5847

0y 37−→

y 40.

0664

30.

1941

80.

0000

00.

1839

70.

0668

10.

1976

20.

0668

10.

1976

20.

0000

00.

1839

70.

0000

00.

1866

3y 47−→

y 10.

0000

00.

0244

90.

0000

00.

0034

10.

0000

00.

0244

90.

0003

30.

0249

70.

0009

90.

0039

00.

0009

90.

0039

0y 47−→

y 20.

0000

00.

0103

40.

0000

00.

0030

30.

0000

00.

0103

40.

0000

00.

0103

20.

0000

00.

0028

90.

0000

00.

0028

9y 47−→

y 30.

0000

00.

0467

50.

1332

90.

1564

10.

0000

00.

0467

50.

0000

00.

0461

80.

1341

10.

1564

30.

1341

10.

1564

3y 47−→

y 40.

3044

20.

2712

70.

3708

50.

2814

70.

3044

20.

2712

70.

3045

60.

2703

00.

3713

70.

2812

80.

3713

70.

2812

8

137

Page 152: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TAB

LE

B.3

6:D

écom

posi

tion

enpr

opor

tions

dela

vari

ance

des

erre

urs

depr

évis

ion

Ord

re31

2431

4232

1432

4134

1234

21H

oriz

on1

51

51

51

51

51

5y 17−→

y 10.

9396

30.

6506

50.

9396

30.

6506

50.

6991

50.

4395

70.

6988

20.

4390

80.

7663

50.

4896

90.

6988

20.

4390

8y 17−→

y 20.

1907

80.

1753

10.

1907

80.

1753

10.

0000

00.

0015

50.

0000

00.

0015

70.

0206

50.

0210

70.

0000

00.

0015

7y 17−→

y 30.

0000

00.

0068

70.

0000

00.

0068

70.

0000

00.

0049

20.

0000

00.

0054

90.

0000

00.

0124

20.

0000

00.

0054

9y 17−→

y 40.

1786

50.

1426

10.

1786

50.

1426

10.

0001

40.

0124

70.

0000

00.

0134

40.

0000

00.

0281

50.

0000

00.

0134

4y 27−→

y 10.

0000

00.

0697

90.

0000

00.

0096

60.

2404

80.

2808

70.

2404

80.

2808

70.

0000

00.

0096

60.

0675

30.

0602

7y 27−→

y 20.

5546

70.

4890

00.

2137

20.

1828

50.

7454

50.

6627

60.

7454

50.

6627

60.

2137

20.

1828

50.

2343

70.

2023

5y 27−→

y 30.

0000

00.

0156

90.

0000

00.

0121

60.

0000

00.

0176

40.

0000

00.

0176

40.

0000

00.

0121

60.

0000

00.

0191

0y 27−→

y 40.

4856

60.

3576

20.

0000

00.

0223

30.

6641

60.

4877

60.

6641

60.

4877

60.

0000

00.

0223

30.

0000

00.

0370

5y 37−→

y 10.

0603

70.

2550

80.

0603

70.

2550

80.

0603

70.

2550

80.

0603

70.

2550

80.

0603

70.

2550

80.

0603

70.

2550

8y 37−→

y 20.

2545

50.

3253

50.

2545

50.

3253

50.

2545

50.

3253

50.

2545

50.

3253

50.

2545

50.

3253

50.

2545

50.

3253

5y 37−→

y 31.

0000

00.

9307

01.

0000

00.

9307

01.

0000

00.

9307

01.

0000

00.

9307

01.

0000

00.

9307

01.

0000

00.

9307

0y 37−→

y 40.

0312

80.

2285

00.

0312

80.

2285

00.

0312

80.

2285

00.

0312

80.

2285

00.

0312

80.

2285

00.

0312

80.

2285

0y 47−→

y 10.

0000

00.

0244

90.

0000

00.

0846

10.

0000

00.

0244

90.

0003

30.

0249

70.

1732

80.

2455

70.

1732

80.

2455

7y 47−→

y 20.

0000

00.

0103

40.

3409

60.

3164

90.

0000

00.

0103

40.

0000

00.

0103

20.

5110

90.

4707

20.

5110

90.

4707

2y 47−→

y 30.

0000

00.

0467

50.

0000

00.

0502

70.

0000

00.

0467

50.

0000

00.

0461

80.

0000

00.

0447

10.

0000

00.

0447

1y 47−→

y 40.

3044

20.

2712

70.

7900

80.

6065

50.

3044

20.

2712

70.

3045

60.

2703

00.

9687

20.

7210

10.

9687

20.

7210

1

138

Page 153: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

TAB

LE

B.3

7:D

écom

posi

tion

enpr

opor

tions

dela

vari

ance

des

erre

urs

depr

évis

ion

Ord

re41

2341

3242

1342

3143

1243

21H

oriz

on1

51

51

51

51

51

5y 17−→

y 10.

7946

40.

5272

60.

7946

40.

5272

60.

6994

00.

4384

80.

6988

20.

4390

80.

7663

50.

4896

90.

6988

20.

4390

8y 17−→

y 20.

0445

10.

0474

40.

0445

10.

0474

40.

0000

00.

0014

60.

0000

00.

0015

70.

0206

50.

0210

70.

0000

00.

0015

7y 17−→

y 30.

0345

00.

0403

50.

0345

00.

0403

50.

0005

10.

0066

30.

0000

00.

0054

90.

0000

00.

0124

20.

0000

00.

0054

9y 17−→

y 40.

0000

00.

0136

60.

0000

00.

0136

60.

0000

00.

0161

00.

0000

00.

0134

40.

0000

00.

0281

50.

0000

00.

0134

4y 27−→

y 10.

0000

00.

0701

70.

0000

00.

0096

60.

0952

40.

1589

60.

0952

40.

1589

60.

0000

00.

0096

60.

0675

30.

0602

7y 27−→

y 20.

3268

60.

3130

60.

2137

20.

1828

50.

3713

70.

3590

40.

3713

70.

3590

40.

2137

20.

1828

50.

2343

70.

2023

5y 27−→

y 30.

3233

90.

2984

40.

0000

00.

0121

60.

3573

80.

3321

60.

3573

80.

3321

60.

0000

00.

0121

60.

0000

00.

0191

0y 27−→

y 40.

0000

00.

0347

30.

0000

00.

0223

30.

0000

00.

0322

90.

0000

00.

0322

90.

0000

00.

0223

30.

0000

00.

0370

5y 37−→

y 10.

0000

00.

0743

40.

0000

00.

1348

50.

0000

00.

0743

40.

0005

90.

0737

40.

0283

00.

1724

30.

0283

00.

1724

3y 37−→

y 20.

0000

00.

0442

10.

1131

50.

1744

10.

0000

00.

0442

10.

0000

00.

0440

90.

1370

00.

2007

70.

1370

00.

2007

7y 37−→

y 30.

6108

40.

5835

60.

9342

30.

8698

30.

6108

40.

5835

60.

6113

50.

5847

00.

9687

20.

8977

60.

9687

20.

8977

6y 37−→

y 40.

0000

00.

1839

70.

0000

00.

1963

70.

0000

00.

1839

70.

0000

00.

1866

30.

0000

00.

1818

80.

0000

00.

1818

8y 47−→

y 10.

2053

60.

3282

20.

2053

60.

3282

20.

2053

60.

3282

20.

2053

60.

3282

20.

2053

60.

3282

20.

2053

60.

3282

2y 47−→

y 20.

6286

30.

5953

00.

6286

30.

5953

00.

6286

30.

5953

00.

6286

30.

5953

00.

6286

30.

5953

00.

6286

30.

5953

0y 47−→

y 30.

0312

80.

0776

50.

0312

80.

0776

50.

0312

80.

0776

50.

0312

80.

0776

50.

0312

80.

0776

50.

0312

80.

0776

5y 47−→

y 41.

0000

00.

7676

41.

0000

00.

7676

41.

0000

00.

7676

41.

0000

00.

7676

41.

0000

00.

7676

41.

0000

00.

7676

4

139

Page 154: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

B.7 Graphiques de prévisions du chapitre 5

Ces graphiques présentent les prévisions des séries "produit national brut" et "investissements privés"

lorsque les bandes de confiance sont celles des modèles univariés.

FIGURE B.1: Prévisions de la série "produit national brut"

140

Page 155: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

FIGURE B.2: Prévisions de la série "investissements privés"

141

Page 156: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Annexe C

Code informatique

C.1 Code SAS

C.1.1 Analyse univariée

data Useconomic2 ; infile "E :

USeconomic.txt" firstobs=2 expandtabs ; input no unemp gnp consum govinv prinv ; retain date ’30jun48’d ;

date=intnx(’qtr’,date,1) ; format date yyqc7. ; run ; /* Tracé de la série chômage :unemp */ proc sgplot

data=Useconomic2 ; series x=date y=unemp /markers markerattrs=(symbol=circle color=blue) ; run ;

/* Essai d’identification pour la série chômage */ proc arima data=USeconomic2 ; identify var=unemp ;

run ; /*Différenciation car problème de tendance selon le correlogramme*/

proc arima data=USeconomic2 ; identify var=unemp(1)minic ; run ;

/* Après avoir utilisé boxcox, nous allons utiliser la racine carrée de unemp*/

data Useconomic205 ; set Useconomic2 ; unemp1=unemp**0.5 ; run ;

proc arima data=USeconomic205 ; identify var=unemp1(1)minic ; run ;

/* Un AR(1) est proposé*/ proc arima data=USeconomic205 ; identify var=unemp1(1)minic ; estimate

p=1 ; run ;

/* La constante est nulle*/

proc arima data=USeconomic205 ; identify var=unemp1(1)minic ; estimate p=1 noint ; run ;

/* L’autocorrelation à k=4 sort de la bande de confiance*/ proc arima data=USeconomic205 ; identify

var=unemp1(1)minic ; estimate p=(1,4) noint ; run ;

proc arima data=USeconomic205 ; identify var=unemp1(1)minic ; estimate p=(1,8) noint ; run ;

/* L’autocorrelation à k=8 sort de la bande de confiance*/ proc arima data=USeconomic205 ; identify

142

Page 157: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

var=unemp1(1)minic ; estimate p=(1,4,8) noint ; run ;

/* Essayons avec p=1,4,8,12*/

proc arima data=USeconomic205 ; identify var=unemp1(1)minic ; estimate p=(1,4,8,12) noint ; run ;

/*Le modèle final est un SARIMA[(1,1,0),(3,0,0)], meilleur au précédent. Son AIC est meilleur.*/

proc arima data=USeconomic205 ; identify var=unemp1(1)minic ; estimate p=(1,4,8,12) noint ; fore-

cast out= b lead=4 interval=quarter id=date ; run ;

data b1 ; set b ; unemp = unemp1**2 ; forecast = forecast**2 + std**2 ; l95 = l95**2 ; u95 = u95**2 ;

run ; /* Prévisions et valeurs observées*/

proc sgplot data=b1 ; where date >= ’30jun83’d ; band Upper=u95 Lower=l95 x=date / Legend-

Label="95series x=date y=unemp /markers markerattrs=(symbol=circle color=red) ; series x=date

y=forecast /markers markerattrs=(symbol=circle color=blue) ; refline ’1jul88’d /axis=x ; run ;

proc print data=b1 ; run ;

/* Tracé de la série Produit national brut : gnp*/ proc sgplot data=Useconomic2 ; series x=date y=gnp

/markers markerattrs=(symbol=circle color=blue) ; run ;

/* Essai d’identification pour la série gnp */ proc arima data=USeconomic2 ; identify var=gnp ; run ;

/*Différenciation car problème de tendance selon le correlogramme*/

proc arima data=USeconomic2 ; identify var=gnp(1)minic ; run ;

/*La variance augmente vers les dernières périodes nous allons essayer BOXCOX .*/

run ;

/* Avec lambda=0.2, la logvraisemblance est la deuxième plus grande valeur et les critères SBC et

RMSE sont minimisés. Le critère AIC est le deuxième plus petit(différence de 0.01).*/ data Usecono-

mic3 ; set Useconomic2 ; gnp1=gnp**0.2 ; run ;

/* Identification à nouveau*/ proc arima data=USeconomic3 ; identify var=gnp1 ; run ;

/*Différenciation car problème de tendance selon le correlogramme*/

proc arima data=USeconomic3 ; identify var=gnp1(1)minic ; run ;

/*Nous avons un modèle MA(2)*/

/* On passe à la phase d’estimation */

proc arima data=USeconomic3 ; identify var=gnp1(1) ; estimate q=2 ; forecast out= c1 lead=4 inter-

val=quarter id=date ; run ;

143

Page 158: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

/*Le modèle MA(2) est approprié. Rien à ajouter pour améliorer le modèle*/ data c ; set c1 ; gnp =

gnp1**5 ; forecast = 15*forecast*std**4 +10*(forecast**3)*std**2 + forecast**5 ; l95 = l95**5 ; u95

= u95**5 ; run ; /* Un graphique...*/ proc sgplot data=c ; where date >= ’30jun83’d ; band Upper=u95

Lower=l95 x=date / LegendLabel="95series x=date y=gnp /markers markerattrs=(symbol=circle co-

lor=red) ; series x=date y=forecast /markers markerattrs=(symbol=circle color=blue) ; refline ’1jul88’d

/axis=x ; run ; /* Tracé de la série consommation : consum*/ proc sgplot data=Useconomic2 ; series

x=date y=consum /markers markerattrs=(symbol=circle color=blue) ; run ; /* Essai d’identification

pour la série consum */ proc arima data=USeconomic2 ; identify var=consum ; run ;

/*Différenciation car problème de tendance selon le correlogramme*/

proc arima data=USeconomic2 ; identify var=consum(1)minic ; run ;

/*problème de variance selon le correlogramme*/ run ;

/* Avec lambda=0.375, la logvraisemblance est maximisée et les critères AIC et SBC sont minimisés.

Cependant,pour des raisons pratiques, nous allons choisir une valeur de lambda de 0.33*/

data Useconomic4 ; set Useconomic2 ; consum1=consum**(1/3) ; run ;

/* Identification à nouveau*/ proc arima data=USeconomic4 ; identify var=consum1 ; run ;

/*Différenciation car problème de tendance selon le correlogramme*/

proc arima data=USeconomic4 ; identify var=consum1(1)minic ; run ;

/*Nous avons un modèle MA(3)*/

/* On passe à la phase d’estimation */

proc arima data=USeconomic4 ; identify var=consum1(1) ; estimate q=3 ; run ;

/* Il y a présence d’autocorrelation à k=8*/ proc arima data=USeconomic4 ; identify var=consum1(1) ;

estimate q=(2,3,8) ; run ;

/* Il semble qu’à k=1, le coefficient soit testé nul. Enlevons-le.*/ proc arima data=USeconomic4 ;

identify var=consum1(1) ; estimate q=(2,3,8) ; run ;

/*Le modèle retenu est un MA(2,3,8)*/ proc arima data=USeconomic4 ; identify var=consum1(1) ;

estimate q=(2,3,8) ; forecast out= d1 lead=4 interval=quarter id=date ; run ; data d ; set d1 ; consum =

consum1**3 ; forecast = 3*forecast*std**2 + forecast**3 ; l95 = l95**3 ; u95 = u95**3 ; run ;

/*Le graphique*/ proc sgplot data=d ; where date >= ’30jun85’d ; band Upper=u95 Lower=l95 x=date

/ LegendLabel="95series x=date y=consum /markers markerattrs=(symbol=circle color=red) ; series

x=date y=forecast /markers markerattrs=(symbol=circle color=blue) ; refline ’1jul88’d /axis=x ; run ;

/* Tracé de la série prinv*/ proc sgplot data=Useconomic2 ; series x=date y=prinv /markers markerat-

trs=(symbol=circle color=blue) ; run ;

144

Page 159: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

/* Essai d’identification pour la série prinv */ proc arima data=USeconomic2 ; identify var=prinv ;

run ;

/*Il semble avoir un problème de variance. Trouvons le lambda avec BOXCOX*/ run ;

/* Avec lambda=0.2, la logvraisemblance est maximisée et les critères AIC et SBC sont minimisés.

Ce qui n’est pas le cas pour le RMSE*/ data Useconomic5 ; set Useconomic2 ; prinv1=prinv**0.2 ;

run ;

/* Réidentification */ proc arima data=USeconomic5 ; identify var=prinv1 ; run ;

/* Différentiation */ proc arima data=USeconomic5 ; identify var=prinv1(1)minic ; run ;

/*Nous avons un modèle AR(1)*/ /* On passe à la phase d’estimation */

proc arima data=USeconomic5 ; identify var=prinv1(1) ; estimate p=1 ; run ;

/*Sans mu, le modèle sera meilleur*/ proc arima data=USeconomic5 ; identify var=prinv1(1) ; esti-

mate p=1 noint ; run ;

/* à k=4 il y a autocorrelation*/ proc arima data=USeconomic5 ; identify var=prinv1(1) ; estimate

p=(1,4) noint ; run ; /* à k=8 il y a autocorrelation*/ proc arima data=USeconomic5 ; identify var=prinv1(1) ;

estimate p=(1,4,8) noint ; run ; /* à k=12 il y a autocorrelation*/ proc arima data=USeconomic5 ; iden-

tify var=prinv1(1) ; estimate p=(1,4,8,12) noint ; run ;

/* Nous terminons avec un modèle SARIMA((1,1,0),(3,0,0)).*/ proc arima data=USeconomic5 ; iden-

tify var=prinv1(1) ; estimate p=(1,4,8,12) noint ; forecast out= e1 lead=4 interval=quarter id=date ;

run ;

data e ; set e1 ; prinv = prinv1**5 ; forecast = 15*forecast*std**4 +10*(forecast**3)*std**2 + fore-

cast**5 ; l95 = l95**5 ; u95 = u95**5 ; run ; /*Le graphique*/ proc sgplot data=e ; where date >=

’30jun85’d ; band Upper=u95 Lower=l95 x=date / LegendLabel="95series x=date y=prinv /markers

markerattrs=(symbol=circle color=red) ; series x=date y=forecast /markers markerattrs=(symbol=circle

color=blue) ; refline ’1jul88’d /axis=x ; run ;

/* Tracé de la série govinv*/ proc sgplot data=Useconomic2 ; series x=date y=govinv /markers mar-

kerattrs=(symbol=circle color=blue) ; run ;

/* Essai d’identification pour la série govinv */ proc arima data=USeconomic2 ; identify var=govinv ;

run ;

/*Il semble avoir un problème de variance a certains points. Trouvons le lambda avec BOXCOX*/

run ;

/* Nous n’allons pas transformer la variable mais plutôt la différencier car présence d’une tendance*/

proc arima data=USeconomic2 ; identify var=govinv(1)minic ; run ;

145

Page 160: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

/*Nous avons un modèle AR(1)*/ /* On passe à la phase d’estimation */

proc arima data=USeconomic2 ; identify var=govinv(1) ; estimate p=1 ; run ;

/* Un meilleur modèle */

proc arima data=USeconomic2 ; identify var=govinv(1) ; estimate p=(1,3) ; run ;

proc arima data=USeconomic2 ; identify var=govinv(1) ; estimate p=(1,12) ; run ;

proc arima data=USeconomic2 ; identify var=govinv(1) ; estimate p=(3,12) ; run ; /* Un meilleur mo-

dèle */ proc arima data=USeconomic2 ; identify var=govinv(1) ; estimate p=(1,3,12) ; run ; /* Ce mo-

dèle est meilleur. le critère AIC est le plus petit.*/ proc arima data=USeconomic2 ; identify var=govinv(1) ;

estimate p=(1,3,12) ; forecast out= f lead=4 interval=quarter id=date ; run ; /*Le graphique*/ proc sg-

plot data=f ; where date >= ’30jun83’d ; band Upper=u95 Lower=l95 x=date / LegendLabel="95series

x=date y=govinv /markers markerattrs=(symbol=circle color=red) ; series x=date y=forecast /markers

markerattrs=(symbol=circle color=blue) ; refline ’1jul88’d /axis=x ; run ;

data Useconomic3 ; infile "E :

USecom4.txt" firstobs=2 expandtabs ; input no unemp gnp consum govinv prinv ; retain date ’30jun48’d ;

date=intnx(’qtr’,date,1) ; format date yyqc7. ; run ;

* Vérification de la robustesse des modèles ajustés aux 5 séries ;

* Série chômage ; data Useconomic3205 ; set USeconomic3 ; unemp1 = unemp**0.5 ; run ;

proc arima data=USeconomic3205 ; identify var=unemp1(1) ; estimate p=(1,4,8,12) noint ; forecast

out= b lead=4 interval=quarter id=date ; run ;

data b1 ; set b ; unemp = unemp1**2 ; forecast = forecast**2 + std**2 ; l95 = l95**2 ; u95 = u95**2 ;

run ;

Data bb ; merge b Useconomic2 ; by date ; run ; proc sgplot data=bb ; where date >= ’30jun83’d ;

band Upper=u95 Lower=l95 x=date / LegendLabel="95series x=date y=unemp /markers markerat-

trs=(symbol=circle color=red) ; series x=date y=forecast /markers markerattrs=(symbol=circle co-

lor=blue) ; refline ’1jul87’d /axis=x ; run ;

* Le modèle est approprié. Aucun coefficient n’est testé nul. Les données prédites des quatres der-

nières observations ne sont pas significativement différentes. Cependant, on voit bien que les prévi-

sions ont tendance à diminuer pendant que les vraies valeurs augmentent. ;

* Série Produit national brut ;

data Useconomic4 ; set Useconomic3 ; gnp1=gnp**0.2 ; run ; proc arima data=USeconomic4 ; identify

var=gnp1(1) ; estimate q=2 ; forecast out= c1 lead=4 interval=quarter id=date ; run ;

data c ; set c1 ; gnp = gnp1**5 ; forecast = 15*forecast*std**4 +10*(forecast**3)*std**2 + fore-

146

Page 161: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

cast**5 ; l95 = l95**5 ; u95 = u95**5 ; run ;

Data cc ; merge c Useconomic2 ; by date ; run ; /* Un graphique...*/ proc sgplot data=cc ; where date

>= ’30jun83’d ; band Upper=u95 Lower=l95 x=date / LegendLabel="95series x=date y=gnp /markers

markerattrs=(symbol=circle color=red) ; series x=date y=forecast /markers markerattrs=(symbol=circle

color=blue) ; refline ’1jul87’d /axis=x ; run ;

* Le modèle est approprié. ;

* Série consommation ; data Useconomic5 ; set Useconomic3 ; consum1=consum**(1/3) ; run ;

proc arima data=USeconomic5 ; identify var=consum1(1) ; estimate q=(2,3,8) ; forecast out= d1 lead=4

interval=quarter id=date ; run ; data d ; set d1 ; consum = consum1**3 ; forecast = 3*forecast*std**2 +

forecast**3 ; l95 = l95**3 ; u95 = u95**3 ; run ; Data dd ; merge d Useconomic2 ; by date ; run ; /*Le

graphique*/ proc sgplot data=dd ; where date >= ’30jun83’d ; band Upper=u95 Lower=l95 x=date

/ LegendLabel="95series x=date y=consum /markers markerattrs=(symbol=circle color=red) ; series

x=date y=forecast /markers markerattrs=(symbol=circle color=blue) ; refline ’1jul87’d /axis=x ; run ;

* Le modèle est approprié mais l’un des coefficients est testé significativement nul. Les prévisions

sont assez rapprochées des vraies valeurs. ;

* Série investissements privés ; data Useconomic6 ; set Useconomic3 ; prinv1=prinv**0.2 ; run ; proc

arima data=USeconomic6 ; identify var=prinv1(1) ; estimate p=(1,4,8,12) noint ; forecast out= e1 lead=4

interval=quarter id=date ; run ;

data e ; set e1 ; prinv = prinv1**5 ; forecast = 15*forecast*std**4 +10*(forecast**3)*std**2 + fo-

recast**5 ; l95 = l95**5 ; u95 = u95**5 ; run ; Data ee ; merge e Useconomic2 ; by date ; run ; /*Le

graphique*/ proc sgplot data=ee ; where date >= ’30jun85’d ; band Upper=u95 Lower=l95 x=date / Le-

gendLabel="95series x=date y=prinv /markers markerattrs=(symbol=circle color=red) ; series x=date

y=forecast /markers markerattrs=(symbol=circle color=blue) ; refline ’1jul87’d /axis=x ; run ; * Tous

les coefficients sont testés significativement non-nuls et les prévisions sont bonnes.

* Série investissements gouvernementaux ; proc arima data=USeconomic3 ; identify var=govinv(1) ;

estimate p=(1,3,12) ; forecast out= f lead=4 interval=quarter id=date ; run ; Data ff ; merge f Useco-

nomic2 ; by date ; run ; /*Le graphique*/ proc sgplot data=ff ; where date >= ’30jun83’d ; band Up-

per=u95 Lower=l95 x=date / LegendLabel="95series x=date y=govinv /markers markerattrs=(symbol=circle

color=red) ; series x=date y=forecast /markers markerattrs=(symbol=circle color=blue) ; refline ’1jul87’d

/axis=x ; run ;

* Un seul coefficient est testé nul. La valeur du test est assez proche de 1.96. De plus les prévisions

sont très proches des vraies valeurs. ;

147

Page 162: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

C.1.2 Analyse multivariée

data Useconomic2 ; infile "C :

Users

Ty-Ann Esther

Desktop

DOCS MEMOIRE

CODES 27-10

CODES

USeconomic.txt" firstobs=2 expandtabs ; input no unemp gnp consum govinv prinv ; retain date ’30jun48’d ;

date=intnx(’qtr’,date,1) ; format date yyqc7. ; run ;

data Useconomic3 ; infile "C :

Users

Ty-Ann Esther

Desktop

DOCS MEMOIRE

CODES 27-10

CODES

USecom4.txt" firstobs=2 expandtabs ; input no unemp gnp consum govinv prinv ; retain date ’30jun48’d ;

date=intnx(’qtr’,date,1) ; format date yyqc7. ; run ;

data USeconomic4 ; set USeconomic3 ; unemp1=unemp**0.5 ; gnp1=gnp**0.2 ; consum1=consum**(1/3) ;

prinv1=prinv**0.2 ; run ;

data USeconomic5 ; set USeconomic2 ; unemp1=unemp**0.5 ; gnp1=gnp**0.2 ; consum1=consum**(1/3) ;

prinv1=prinv**0.2 ; run ; /* Modèle à 5 variables */ proc varmax data=USeconomic5 ; model unemp1

gnp1 consum1 prinv1 govinv / minic=(type=SBC) dif=(unemp1(1) gnp1(1) consum1(1) prinv1(1) go-

vinv(1)) print=(parcoef pcorr pcancorr corry) ; run ;

/* Etude de la causalité - préparation des données */ data USeconomic6 ; set USeconomic2 ; du-

nempmod=dif(unemp**0.5) ; dgnpmod=dif(gnp**0.2) ; dconsummod=dif(consum**(1/3)) ; dprinv-

mod=dif(prinv**0.2) ; dgovinv=dif(govinv) ; run ;

/* Etude de la causalité de Granger : Modèle à 5 variables */ proc varmax data=USeconomic6 ;

model dunempmod dgnpmod dconsummod dprinvmod dgovinv / p=1 ; causal group1=(dprinvmod

dconsummod) group2=(dunempmod dgnpmod dgovinv) ; causal group1=(dunempmod dgnpmod dgo-

vinv)group2=(dprinvmod dconsummod) ; causal group1=(dgovinv) group2=(dunempmod dgnpmod

dconsummod dprinvmod) ; causal group1=(dunempmod dgnpmod dconsummod dprinvmod) group2=(dgovinv) ;

run ;

/* Etude de l’impact d’une impulsion */

148

Page 163: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

/*Modèle à 5 variables*/ proc varmax data=USeconomic6 plot=impulse ; model dunempmod dgnp-

mod dconsummod dprinvmod dgovinv / p=1 print=(impulse=(all)) ; run ;

proc varmax data=USeconomic6 plot=impulse ; model dprinvmod dconsummod dgnpmod dunemp-

mod dgovinv / p=1 print=(impulse=(all)) ; run ;

/* Etude de la causalité de Granger : Modèle à 4 variables */

proc varmax data=USeconomic6 ; id date interval=quarter ; model unemp1 gnp1 consum1 prinv1 /

p=1 lagmax=5 dif=(unemp1(1) gnp1(1) consum1(1) prinv1(1)) ; output out=for1 lead=4 ; run ;

/* Etude de la causalité de Granger : Modèle à 4 variables */ proc varmax data=USeconomic6 ; model

dunempmod dgnpmod dconsummod dprinvmod / p=1 ; causal group1=(dgnpmod) group2=(dunempmod

dconsummod dprinvmod) ; causal group1=(dunempmod dconsummod dprinvmod) group2=(dgnpmod) ;

causal group1=(dunempmod ) group2=( dgnpmod dconsummod dprinvmod) ; causal group1=(dgnpmod

dconsummod dprinvmod) group2=(dunempmod) ; causal group1=(dconsummod ) group2=(dunempmod

dgnpmod dprinvmod) ; causal group1=(dunempmod dgnpmod dprinvmod) group2=(dconsummod) ;

causal group1=(dprinvmod) group2=(dunempmod dconsummod dgnpmod) ; causal group1=(dunempmod

dconsummod dgnpmod) group2=(dprinvmod) ;

causal group1=(dgnpmod dunempmod) group2=( dconsummod dprinvmod) ; causal group1=(dconsummod

dprinvmod) group2=(dgnpmod dunempmod) ; causal group1=(dunempmod dconsummod) group2=(

dgnpmod dprinvmod) ; causal group1=(dgnpmod dprinvmod) group2=(dunempmod dconsummod) ;

causal group1=( dunempmod dprinvmod) group2=( dgnpmod dconsummod ) ; causal group1=(dgnpmod

dconsummod ) group2=(dunempmod dprinvmod) ;

causal group1=(dgnpmod)group2=(dunempmod) ; causal group1=(dunempmod) group2=(dgnpmod) ;

causal group1=(dprinvmod)group2=(dunempmod) ; causal group1=(dunempmod) group2=(dprinvmod) ;

causal group1=(dconsummod)group2=(dunempmod) ; causal group1=(dunempmod) group2=(dconsummod) ;

causal group1=(dgnpmod) group2=(dconsummod) ; causal group1=(dconsummod) group2=(dgnpmod) ;

causal group1=(dgnpmod) group2=(dprinvmod) ; causal group1=(dprinvmod) group2=(dgnpmod) ;

causal group1=(dconsummod) group2=(dprinvmod) ; causal group1=(dprinvmod) group2=(dconsummod) ;

causal group1=(dgnpmod dconsummod) group2=(dunempmod) ; causal group1=(dprinvmod) group2=(dconsummod

dunempmod) ;

run ;

/* Etude de l’impact d’une impulsion */

/*Modèle à 4 variables. Essayer les 24 permutations : 1234, 1243, 1324, 1342, 1423, 1432, 2134,

2143, 2314, 2413, 2431, 3124, 3142, 3214, 3241, 3412, 3421, 4123, 4132, 4213, 4231, 4312, 4321 */

*1234 ; proc varmax data=USeconomic6 plot=impulse ; model dunempmod dgnpmod dconsummod

149

Page 164: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

dprinvmod / p=1 print=(impulse=(orth)) ; run ;

/* Décomposition des covariances de l’erreur de prédiction*/

/*Modèle à 4 variables : essayer les 24 permutations : 1234, 1243, 1324, 1342, 1423, 1432, 2134,

2143, 2314, 2413, 2431, 3124, 3142, 3214, 3241, 3412, 3421, 4123, 4132, 4213, 4231, 4312, 4321 */

*1234 ; proc varmax data=USeconomic6 ; model dunempmod dgnpmod dconsummod dprinvmod /

p=1 print=(decompose(5)) ; run ;

/* Prévisions : modèle à 4 variables*/ /* Sans les 4 dernières observations*/

/* On va dessiner sur un même graphique les prévisions des modèles univariés et multivarié. On

compare les prévisions */

/* LE MODÈLE VAR*/

proc varmax data=USeconomic4 ; id date interval=quarter ; model unemp1 gnp1 consum1 prinv1 /

p=1 lagmax=5 dif=(unemp1(1) gnp1(1) consum1(1) prinv1(1)) ; output out=for1 lead=4 ; run ;

/*Taux de chômage*/ proc arima data=USeconomic4 ; identify var=unemp1(1)minic ; estimate p=(1,4,8,12)

noint ; forecast out= b1 lead=4 interval=quarter id=date ; run ;

data b ; set b1 ; unemp = unemp1**2 ; forecastu = forecast**2 + std**2 ; l95u = l95**2 ; u95u =

u95**2 ; run ;

data h ; set for1 ; unemp = unemp1**2 ; forecastv = for1**2 + std1**2 ; l95v = lci1**2 ; u95v =

uci1**2 ; run ;

/* Graphiques ensemble*/

Data uv1 ; merge b h USeconomic2 ; by date ; run ;

/* Prévisions sans la bande de confiance*/

proc sgplot data=uv1 ; title ’Série Taux de chômage’ ; where date >= ’30jun83’d ; /*band Upper=u95v

Lower=l95v x=date / LegendLabel="95series x=date y=unemp /markers markerattrs=(symbol=circle

color=red) ; series x=date y=forecastv /markers markerattrs=(symbol=circle color=blue) ; series x=date

y=forecastu /markers markerattrs=(symbol=circle color=green) ; refline ’1jul87’d / axis=x ; run ;

/*gnp*/

proc arima data=USeconomic4 ; identify var=gnp1(1) ; estimate q=2 ; forecast out= c1 lead=4 inter-

val=quarter id=date ; run ;

data c ; set c1 ; gnp = gnp1**5 ; forecastu = 15*forecast*std**4 +10*(forecast**3)*std**2 + fore-

cast**5 ; l95u = l95**5 ; u95u = u95**5 ; run ;

150

Page 165: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

data i ; set for1 ; gnp = gnp1**5 ; forecastv = 15*for2*std2**4 +10*(for2**3)*std2**2 + for2**5 ;

l95v = lci2**5 ; u95v = uci2**5 ; run ;

/* Graphiques ensemble*/

Data uv2 ; merge c i USeconomic2 ; by date ; run ; /* Avec la bande de confiance du modèle univarié*/

proc sgplot data=uv2 ; title ’Série Produit national brut’ ; where date >= ’30jun83’d ; band Upper=u95u

Lower=l95u x=date / LegendLabel="95series x=date y=gnp /markers markerattrs=(symbol=circle co-

lor=red) ; series x=date y=forecastv /markers markerattrs=(symbol=circle color=blue) ; series x=date

y=forecastu /markers markerattrs=(symbol=circle color=green) ; refline ’1jul87’d / axis=x ; run ;

/* Avec la bande de confiance du modèle VAR*/ proc sgplot data=uv2 ; title ’Série Produit national

brut’ ; where date >= ’30jun83’d ; band Upper=u95v Lower=l95v x=date / LegendLabel="95series

x=date y=gnp /markers markerattrs=(symbol=circle color=red) ; series x=date y=forecastv /markers

markerattrs=(symbol=circle color=blue) ; series x=date y=forecastu /markers markerattrs=(symbol=circle

color=green) ; refline ’1jul87’d / axis=x ; run ;

/*consum*/

/*Le modèle retenu est un MA(2,3,8)*/ proc arima data=USeconomic4 ; identify var=consum1(1) ;

estimate q=(2,3,8) ; forecast out= d1 lead=4 interval=quarter id=date ; run ; data d ; set d1 ; consum =

consum1**3 ; forecastu = 3*forecast*std**2 + forecast**3 ; l95u = l95**3 ; u95u = u95**3 ; run ;

/* Prévisions et valeurs observées : univarié*/

data j ; set for1 ; consum = consum1**3 ; forecastv = 3*for3*std3**2 + for3**3 ; l95v = lci3**3 ; u95v

= uci3**3 ; run ;

/* Prévisions et valeurs observées : multivarié*/ /*proc print data=j ; run ;*/

/* Graphiques ensemble*/

Data uv3 ; merge d j USeconomic2 ; by date ; run ;

/* Prévisions sans la bande de confiance*/

proc sgplot data=uv3 ; title ’Série Consommation’ ; where date >= ’30jun83’d ; series x=date y=consum

/markers markerattrs=(symbol=circle color=red) ; series x=date y=forecastv /markers markerattrs=(symbol=circle

color=blue) ; series x=date y=forecastu /markers markerattrs=(symbol=circle color=green) ; refline

’1jul87’d / axis=x ; run ;

/*prinv*/

/* Nous avons un modèle SARIMA((1,1,0),(3,0,0)).*/ proc arima data=USeconomic4 ; identify var=prinv1(1) ;

estimate p=(1,4,8,12) noint ; forecast out= e1 lead=4 interval=quarter id=date ; run ;

151

Page 166: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

data e ; set e1 ; prinv = prinv1**5 ; forecastu = 15*forecast*std**4 +10*(forecast**3)*std**2 + fore-

cast**5 ; l95u = l95**5 ; u95u = u95**5 ; run ;

/* Prévisions et valeurs observées : univarié*/

data k ; set for1 ; prinv = prinv1**5 ; forecastv = 15*for4*std4**4 +10*(for4**3)*std4**2 + for4**5 ;

l95v = lci4**5 ; u95v = uci4**5 ; run ;

/* Prévisions et valeurs observées : multivarié*/

/* Graphiques ensemble*/

Data uv4 ; merge e k USeconomic2 ; by date ; run ;

/* Avec la bande de confiance du modèle univarié*/

proc sgplot data=uv4 ; title ’Série Investissements privés’ ; where date >= ’30jun83’d ; band Up-

per=u95u Lower=l95u x=date / LegendLabel="95series x=date y=prinv /markers markerattrs=(symbol=circle

color=red) ; series x=date y=forecastv /markers markerattrs=(symbol=circle color=blue) ; series x=date

y=forecastu /markers markerattrs=(symbol=circle color=green) ; refline ’1jul87’d /axis=x ; run ;

/* Avec la bande de confiance du modèle VAR*/

proc sgplot data=uv4 ; title ’Série Investissements privés’ ; where date >= ’30jun83’d ; band Up-

per=u95v Lower=l95v x=date / LegendLabel="95series x=date y=prinv /markers markerattrs=(symbol=circle

color=red) ; series x=date y=forecastv /markers markerattrs=(symbol=circle color=blue) ; series x=date

y=forecastu /markers markerattrs=(symbol=circle color=green) ; refline ’1jul87’d /axis=x ; run ;

/* Calcul de l’erreur quadratique prévisionnelle. Exemple de la série tronquée de 4 périodes*/

/*Série Taux de chômage*/ data uv1 ; set uv1 ; eqpu=(unemp-forecastu)**2 ; eqpv=(unemp-forecastv)**2 ;

run ;

proc sql ; create table eqp1 as select no, sum(eqpu)/4 as eqpu4, sum(eqpv)/4 as eqpv4 from uv1

WHERE no>=158 ; quit ;

/*Série Produit national brut*/

data uv2 ; set uv2 ; eqpu=(forecastu-gnp)**2 ; eqpv=(forecastv-gnp)**2 ; run ; proc sql ; create table

eqp2 as select no, sum(eqpu)/4 as eqpu4, sum(eqpv)/4 as eqpv4 from uv2 WHERE no>=158 ; quit ;

/*Série Consommation*/ data uv3 ; set uv3 ; eqpu=(forecastu-consum)**2 ; eqpv=(forecastv-consum)**2 ;

run ;

proc sql ; create table eqp3 as select no, sum(eqpu)/4 as eqpu4, sum(eqpv)/4 as eqpv4 from uv3

WHERE no>=158 ; quit ;

/*Série Investissements privés*/ data uv4 ; set uv4 ; eqpu=(forecastu-prinv)**2 ; eqpv=(forecastv-

152

Page 167: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

prinv)**2 ; run ; proc sql ; create table eqp4 as select no, sum(eqpu)/4 as eqpu4, sum(eqpv)/4 as eqpv4

from uv4 WHERE no>=158 ; quit ;

C.2 Code R

C.2.1 Chapitre 2

Graphiques pour représenter les ACF et PACF d’un AR(p) et d’un MA(q)

Un AR(1) avec coefficient 0.9

ACF<-ARMAacf(ar=0.9,ma=0,30)[-1]

PACF<-ARMAacf(ar=0.9,ma=0,30,pacf=TRUE)

par(mfrow=c(2,2))

plot(ACF,type="h", xlab="lag",ylim=c(-0.8,1),main="ACF d’un AR(1) avec coefficient 0.9") ;abline(h=0)

plot(PACF,type="h", xlab="lag",ylim=c(-0.8,1),main="PACF d’un AR(1) avec coefficient 0.9") ;abline(h=0)

Un AR(2) avec coefficients 0.2 et -0.5

ACF<-ARMAacf(ar=c(0.2,-0.5),ma=0,30)[-1]

PACF<-ARMAacf(ar=c(0.2,-0.5),ma=0,30,pacf=TRUE)

plot(ACF,type="h", xlab="lag",ylim=c(-0.8,1), main="ACF d’un AR(2) avec coefficients 0.2 et -0.5") ;abline(h=0)

plot(PACF,type="h", xlab="lag",ylim=c(-0.8,1),main="PACF d’un AR(2) avec coefficients 0.2 et -

0.5") ;abline(h=0)

Un AR(3) avec coefficients

Un MA(1) avec coefficient 0.5

153

Page 168: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

ACF<-ARMAacf(ar=0,ma=0.5,30)[-1]

PACF<-ARMAacf(ar=0,ma=0.5,30,pacf=TRUE)

par(mfrow=c(2,2))

plot(ACF,type="h", xlab="lag",ylim=c(-0.8,1),main="ACF d’un MA(1) avec coefficient 0.5") ;abline(h=0)

plot(PACF,type="h", xlab="lag",ylim=c(-0.8,1),main="PACF d’un MA(1) avec coefficient 0.5") ;abline(h=0)

Un MA(2) avec coefficients 0.6 et 0.3

ACF<-ARMAacf(ar=0,ma=c(0.6,0.3),30)[-1]

PACF<-ARMAacf(ar=0,ma=c(0.6,0.3),30,pacf=TRUE)

plot(ACF,type="h", xlab="lag",ylim=c(-0.8,1),main="ACF d’un MA(2) avec coefficients 0.6 et 0.3") ;abline(h=0)

plot(PACF,type="h", xlab="lag",ylim=c(-0.8,1),main="PACF d’un MA(2) avec coefficients 0.6 et 0.3") ;abline(h=0)

Un ARMA(1,1) avec coefficients 0.2 et -0.5

ACF<-ARMAacf(ar=0.2, ma=-0.5,30)[-1]

PACF<-ARMAacf(ar=0.2, ma=-0.5,30,pacf=TRUE)

par(mfrow=c(1,2))

plot(ACF,type="h", xlab="lag",ylim=c(-0.8,1), main="ACF d’un ARMA(1,1) avec coefficients 0.2 et

-0.5") ;abline(h=0)

154

Page 169: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

plot(PACF,type="h", xlab="lag",ylim=c(-0.8,1),main="PACF d’un ARMA(1,1) avec coefficients 0.2

et -0.5") ;abline(h=0)

Illustrer les propriétés des AR, MA et ARMA saisonniers

Un AR(2) saisonnier avec s=4 de coefficients 0.2 et 0.1

autocor1<-ARMAacf(ar=c(0,0,0,0.2,0,0,0,0.1),ma=0,30)[-1]

pautocor1<-ARMAacf(ar=c(0,0,0,0.2,0,0,0.1),ma=0,30,pacf=TRUE)

Un MA(1) saisonnier avec s=4 de coefficient 0.3

ma<-rep(0,3)

ma<-c(ma,0.3)

autocorm<-ARMAacf(ma=ma,ar=0,30)[-1]

pautocorm<-ARMAacf(ma=ma,ar=0,30,pacf=TRUE)

Un ARMA saisonnier avec s=4

ar<-c(0,0,0,0.2,0,0,0,0.1)

autocoram<-ARMAacf(ma=ma,ar=ar,30)[-1]

pautocoram<-ARMAacf(ma=ma,ar=ar,30,pacf=TRUE)

C.2.2 Analyse univariée

library(car)

eco<-read.table("C :/Users/Ty-Ann Esther/Desktop/Statistiques/MEMOIRE/Bon code/USeconomic.txt",

sep="", header=TRUE)

155

Page 170: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

install.packages("astsa") library(astsa)

econ5

par(mfrow=c(5,1))

Série chômage

unemp<-ts(econ5$unemp,start=1948.25, frequency=4)

plot(unemp, col="blue", xlab="Date", main="Taux de chômage") points(unemp, col="blue")

Série gnp

(gnp<-ts(econ5$gnp,start=1948.25, frequency=4))

plot(gnp, col="blue", xlab="Date", main="Produit national brut") points(gnp, col="blue")

Série consum

(consum<-ts(econ5$consum,start=1948.25, frequency=4))

plot(consum, col="blue", xlab="Date", main="Consommation") points(consum, col="blue")

Série prinv

prinv<-ts(econ5$prinv,start=1948.25, frequency=4)

plot(prinv, col="blue", xlab="Date", main="Investissements privés") points(prinv, col="blue")

Série govinv

(govinv<-ts(econ5$govinv,start=1948.25, frequency=4))

156

Page 171: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

plot(govinv, col="blue", xlab="Date", main="Dépenses gouvernementales") points(govinv, col="blue")

par()

C.2.3 Chapitre 4 :exemples

Exemple de VAR(1) bivarié

var1<-matrix(c(0.7,0.1,0.6,0.25),byrow=T,nrow=2)

abs(eigen(var1)$values)

var1%*%var1

var1%*%var1%*%var1%*%var1%*%var1%*%var1%*%var1%*%var1%*%var1%*

%var1%*%var1%*%var1%*%var1%*%var1%*%var1%*%var1%*%var1%*%var1%*%var1%*%var1

Non stabilité d’un processus stationnaire

ma<-matrix(c(1.7,0.5,0.1,3),byrow=T,nrow=2)

abs(eigen(ma)$values))

EXEMPLE 1 avec un VAR(2) bi-dimensionnel

Les matrices A1 et A2 du processus

mat1

(mat1<-matrix(ncol=2,nrow=2, byrow=TRUE,c(0.6,0.2,0.3,0.7)))

mat2

157

Page 172: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

(mat2<-matrix(ncol=2,nrow=2, byrow=TRUE,c(-0.3,0,0.1,0.1)))

La matrice compagnon

(mat<-matrix(nrow=4,ncol=4,byrow=TRUE,c(0.6,0.2,-0.3,0,0.3,0.7,0.1,0.1,1,0,0,0,0,1,0,0)))

Valeurs propres de la matrice compagnon

eigen(mat)

Modules des valeurs propres de la matrice compagnon

abs(eigen(mat)$values)

(val<-eigen(mat)$values)

val[1]

Re(val[1])

Démonstration de la stabilité par le calcul du déterminant de Ikp-la matrice compagnon

determinant(diag(1,4)-Re(val[1])*mat)

determinant(diag(1,2)-Re(val[1])*mat1-(Re(val[1])2)*mat2)

determinant(diag(1,4)-val[2]*mat) valeur complexe

determinant(diag(1,4)-val[3]*mat) valeur complexe

determinant(diag(1,4)-Re(val[4])*mat)

158

Page 173: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

determinant(diag(1,2)-Re(val[4])*mat1-(Re(val[4])2)*mat2)

polyroot(c(1, -1.3,0.56,-0.17,0.04)) Les racines

abs(polyroot(c(1, -1.3,0.56,-0.17,0.04)))

Les modules sont égaux à 1.292023 2.930777 2.930777 et 2.252704. Les modules sont tous supérieurs

à 1.

Calcul de µ

ident<-matrix(ncol=2,nrow=2, byrow=TRUE,c(1,0,0,1))

ident-mat1-mat2

invverse<-solve(ident-mat1-mat2)

invverse%*%c(0,1)

Soit sigmau<-matrix(c(0.25,0,0,0.09),nrow=2)

(sigmau<-matrix(c(0.25,0,0,0.09),nrow=2))

Calcul d’autocovariance

(Sigmau<-rbind(cbind(sigmau,matrix(rep(0,4),ncol=2)),matrix(rep(0,8),nrow=2)))

c(Sigmau) Transformer en vecteur

GammaY0vec<-solve(diag(1,16)- (mat %x% mat))%*%c(Sigmau)

(GammaY0<-matrix(GammaY0vec, ncol=4, byrow=F))

159

Page 174: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

(Gammay0<-matrix(c(GammaY0[1,1],GammaY0[1,2],GammaY0[2,1],GammaY0[2,2]),nrow=2,byrow=T))

h=0

(Gammay1<-matrix(c(GammaY0[1,3],GammaY0[1,4],GammaY0[2,3],GammaY0[2,4]),nrow=2,byrow=T))

h=1

(Gammay2<-mat1%*%Gammay1+mat2%*%Gammay0) h=2

Calcul d’autocorrélation

(matD<-diag(sqrt(diag(Gammay0)))) matrice D

(Ry0<-solve(matD)%*%Gammay0%*%t(solve(matD))) matrice autocorr0

(Ry1<-solve(matD)%*%Gammay1%*%t(solve(matD))) matrice autocorr1

(Ry2<-solve(matD)%*%Gammay2%*%t(solve(matD))) matrice autocorr2(h=2)

Soit sigmau<-matrix(c(0.25,0,0,0.09),nrow=2)

sigmau<-matrix(c(0.25,0,0,0.09),nrow=2)

(matriceP<-chol(sigmau)) matrice P pour vérifier l’affirmation (preuve proposition 4.2)

Soit J(2x4), la matrice J(I2 :0)

matJ<-matrix(c(1,0,0,0,0,1,0,0),byrow=TRUE,nrow=2)

Calcul de forme canonique fondamentale

(phi1<-matJ%*%mat%*%t(matJ))

(phi2<-matJ%*%(mat%*%mat)%*%t(matJ))

160

Page 175: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

(phi3<-matJ%*%(mat%*%mat%*%mat)%*%t(matJ))

(phi4<-matJ%*%(mat%*%mat%*%mat%*%mat)%*%t(matJ))

Calcul de forme orthogonale

(theta1<-phi1%*%matriceP)

(theta2<-phi2%*%matriceP)

(theta3<-phi3%*%matriceP)

(theta4<-phi4%*%matriceP)

Trouver une matrice Sigmau et faire la décomposition de Choleski pour obtenir P

sigmau<-matrix(c(0.25,0,0,0.09),nrow=2)

matriceP<-t(chol(sigmau))

(theta0<-matriceP) Il n’existe pas de causalité instantanée.

Fonction vec()

c(mat1)

Produit de Kronecker

mat1%x%mat2

161

Page 176: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Processus stationnaire mais non stable

Exemple de processus VAR(1) stable

var1<-matrix(c(0.7,0.1,0.6,0.25),byrow=T,nrow=2)

Choc unitaire sur les erreurs de prédiction

(phi0<-diag(2))

(phi1<-matJ%*%mat%*%t(matJ))

(phi2<-matJ%*%(mat%*%mat)%*%t(matJ))

(phi3<-matJ%*%(mat%*%mat%*%mat)%*%t(matJ))

(phi4<-matJ%*%(mat%*%mat%*%mat %*%mat)%*%t(matJ))

(phi5<-matJ%*%(mat%*%mat%*%mat%*%mat%*%mat)%*%t(matJ))

(phi6<-matJ%*%(mat%*%mat%*%mat%*%mat%*%mat%*%mat)%*%t(matJ))

(phi7<-matJ%*%(mat%*%mat%*%mat%*%mat%*%mat%*%mat%*%mat)%*%t(matJ))

(phi8<-matJ%*%(mat%*%mat%*%mat%*%mat%*%mat%*%mat%*%mat%*%mat)%*%t(matJ))

Graphiques choc erreurs de prédiction

par(mfrow=c(2,2))

plot(x=(0 :8), y=c(phi0[1],phi1[1],phi2[1],phi3[1],phi4[1], phi5[1], phi6[1], phi7[1], phi8[1]), type="b",

xlab="périodes",ylab="réponses de y1", main="Choc sur y1")

plot(x=(0 :8), y=c(phi0[1,2], phi1[1,2], phi2[1,2], phi3[1,2], phi4[1,2], phi5[1,2], phi6[1,2], phi7[1,2],

phi8[1,2]), type="b", xlab="périodes",ylab="réponses de y1", main="Choc sur y2")

plot(x=(0 :8), y=c(phi0[2,1],phi1[2,1],phi2[2,1],phi3[2,1],phi4[2,1], phi5[2,1], phi6[2,1], phi7[2,1],

phi8[2,1]), type="b", xlab="périodes",ylab="réponses de y2", main="Choc sur y1")

plot(x=(0 :8), y=c(phi0[2,2],phi1[2,2],phi2[2,2],phi3[2,2],phi4[2,2], phi5[2,2], phi6[2,2], phi7[2,2],

phi8[2,2]), type="b", xlab="périodes",ylab="réponses de y2", main="Choc sur y2")

dev.off

Graphiques cumulatifs choc erreurs de prédiction

par(mfrow=c(2,2))

plot(x=(0 :8), y=cumsum(c(phi0[1],phi1[1],phi2[1],phi3[1],phi4[1], phi5[1], phi6[1], phi7[1], phi8[1])),

type="b", xlab="périodes",ylab="réponses cumulatives de y1", main="Choc sur y1")

plot(x=(0 :8), y=cumsum(c(phi0[1,2], phi1[1,2], phi2[1,2], phi3[1,2], phi4[1,2], phi5[1,2], phi6[1,2],

phi7[1,2], phi8[1,2])), type="b", xlab="périodes",ylab="réponses cumulatives de y1", main="Choc

162

Page 177: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

sur y2")

plot(x=(0 :8), y=cumsum(c(phi0[2,1],phi1[2,1],phi2[2,1],phi3[2,1],phi4[2,1], phi5[2,1], phi6[2,1], phi7[2,1],

phi8[2,1])), type="b", xlab="périodes",ylab="réponses cumulatives de y2", main="Choc sur y1")

plot(x=(0 :8), y=cumsum(c(phi0[2,2],phi1[2,2],phi2[2,2],phi3[2,2],phi4[2,2], phi5[2,2], phi6[2,2], phi7[2,2],

phi8[2,2])), type="b", xlab="périodes",ylab="réponses cumulatives de y2", main="Choc sur y2")

dev.off

Chocs erreurs wt

sigmau1<-matrix(c(0.49,0.21,0.21,0.25),nrow=2)

matriceP1<-t(chol(sigmau1))

(phi11<-var1)

(phi21<-var1%*%var1)

(phi31<-var1%*%var1%*%var1)

(phi41<-var1%*%var1%*%var1%*%var1)

(phi51<-var1%*%var1%*%var1%*%var1%*%var1)

(phi61<-var1%*%var1%*%var1%*%var1%*%var1%*%var1)

(phi71<-var1%*%var1%*%var1%*%var1%*%var1%*%var1%*%var1)

(phi81<-var1%*%var1%*%var1%*%var1%*%var1%*%var1%*%var1%*%var1)

(theta0<-matriceP1)

(theta1<-phi11%*%matriceP1)

(theta2<-phi21%*%matriceP1)

(theta3<-phi31%*%matriceP1)

(theta4<-phi41%*%matriceP1)

(theta5<-phi51%*%matriceP1)

(theta6<-phi61%*%matriceP1)

(theta7<-phi71%*%matriceP1)

(theta8<-phi81%*%matriceP1)

Graphiques choc erreurs wt

par(mfrow=c(2,2))

plot(x=(0 :8), y=c(theta0[1],theta1[1],theta2[1],theta3[1],theta4[1], theta5[1], phi6[1], phi7[1], theta8[1]),

type="b", xlab="périodes",ylab="réponses de y1", main="Choc sur y1")

163

Page 178: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

plot(x=(0 :8), y=c(theta0[1,2], theta1[1,2], theta2[1,2], theta3[1,2], theta4[1,2], phi5[1,2], theta6[1,2],

theta7[1,2], theta8[1,2]), type="b", xlab="périodes",ylab="réponses de y1", main="Choc sur y2")

plot(x=(0 :8), y=c(theta0[2,1],theta1[2,1],theta2[2,1],theta3[2,1],theta4[2,1], theta5[2,1], theta6[2,1],

theta7[2,1], theta8[2,1]), type="b", xlab="périodes",ylab="réponses de y2", main="Choc sur y1")

plot(x=(0 :8), y=c(theta0[2,2],theta1[2,2],theta2[2,2],theta3[2,2],theta4[2,2], theta5[2,2], theta6[2,2],

theta7[2,2], theta8[2,2]), type="b", xlab="périodes",ylab="réponses de y2", main="Choc sur y2")

dev.off

Graphiques cumulatifs erreurs wt

par(mfrow=c(2,2))

plot(x=(0 :8), y=cumsum(c(theta0[1],theta1[1],theta2[1],theta3[1],theta4[1], theta5[1], phi6[1], phi7[1],

theta8[1])), type="b", xlab="périodes",ylab="réponses de y1", main="Choc sur y1")

plot(x=(0 :8), y=cumsum(c(theta0[1,2], theta1[1,2], theta2[1,2], theta3[1,2], theta4[1,2], phi5[1,2],

theta6[1,2], theta7[1,2], theta8[1,2])), type="b", xlab="périodes",ylab="réponses de y1", main="Choc

sur y2")

plot(x=(0 :8), y=cumsum(c(theta0[2,1],theta1[2,1],theta2[2,1],theta3[2,1],theta4[2,1], theta5[2,1], theta6[2,1],

theta7[2,1], theta8[2,1])), type="b", xlab="périodes",ylab="réponses de y2", main="Choc sur y1")

plot(x=(0 :8), y=cumsum(c(theta0[2,2],theta1[2,2],theta2[2,2],theta3[2,2],theta4[2,2], theta5[2,2], theta6[2,2],

theta7[2,2], theta8[2,2])), type="b", xlab="périodes",ylab="réponses de y2", main="Choc sur y2")

dev.off

164

Page 179: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Bibliographie

Hirotugu Akaike. Fitting autoregressive models for prediction. Annals of the Institute of Statistical

Mathematics, 21(1) :243–247, 1969.

Hirotugu Akaike. Autoregressive model fitting for control. Annals of the Institute of Statistical Ma-

thematics, 23(1) :163–180, 1971.

Hirotugu Akaike. Information theory and an extension of the maximum likelihood principle. In Proc.

2nd International Symposium on Information Theory, pages 267–281, 1973.

Hirotugu Akaike. A new look at the statistical model identification. IEEE Transactions on Automatic

Control, 19(6) :716–723, 1974.

Peter Bühlmann. Sieve bootstrap for time series. Bernoulli, 3(2) :123–148, 06 1997.

Abraham Bovas and Johannes Ledolter. Statistical Methods for Forecasting. John Wiley & Sons, New

York, 1re edition, 1983.

George EP Box and David R Cox. An analysis of transformations. Journal of the Royal Statistical

Society. Series B (Methodological), 26(2) :211–252, 1964.

George EP Box and Gwilym M Jenkins. Time series analysis forecasting and control. Technical

report, Wisconsin Univ Madison Dept Of Statistics, 1970.

George EP Box and David A Pierce. Distribution of residual autocorrelations in autoregressive-

integrated moving average time series models. Journal of the American statistical Association,

65(332) :1509–1526, 1970.

Peter J Brockwell and Richard A Davis. Time Series : Theory and Methods. Springer-Verlag New

York, 2e edition, 2009.

Michel Carbon. personal communication, March 2017.

Lawrence J Christiano. Christopher a. sims and vector autoregressions. The Scandinavian Journal of

Economics, 114(4) :1082–1104, 2012.

165

Page 180: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Gilbert Colletaz. Les critères de sélection. Cours, Université d’Orléans, Master ESA, 2007. URL

https://www.univ-orleans.fr/deg/masters/ESA/GC/sources/CritSel.pdf.

Gilbert Colletaz. Les processus var. Cours, Université d’Orléans, Master ESA, 2018. URL https:

//www.univ-orleans.fr/deg/masters/ESA/GC/sources/VAR.pdf.

Ragnar Frisch and Frederick V Waugh. Partial time regressions as compared with individual trends.

Econometrica : Journal of the Econometric Society, 1(4) :387–401, 1933.

John Galbraith and Victoria Zinde-Walsh. Évaluation de critères d’information pour les modèles de

séries chronologiques. L’Actualité économique, 80(2-3) :207–227, 2004.

Jean-Baptiste Gossé and Cyriac Guillaumin. Christopher a. sims et la représentation var. Technical

report, HAL, 2011.

John M. Gottman. TIME-SERIES ANALYSIS : A Comprehensive Introduction for Social Scientists.

Cambridge University Press, Cambridge, 1re edition, 2009.

Christian Gourieroux and Alain Monfort. Series Temporelles et Modèles Dynamiques. Economica,

Paris, 1re edition, 1990.

Christian Gourieroux and Alain Monfort. Series Temporelles et Modeles Dynamiques. Economica,

Paris, 2e edition, 1995.

Clive WJ Granger. Investigating causal relations by econometric models and cross-spectral methods.

Econometrica : Journal of the Econometric Society, 37(3) :424–438, 1969.

Hélène Hamisultane. Econometrie des series temporelles. Lecture, 2002.

Edward J Hannan and Barry G Quinn. The determination of the order of an autoregression. Journal

of the Royal Statistical Society. Series B (Methodological), 41 :190–195, 1979.

Jonathan RM Hosking. The multivariate portmanteau statistic. Journal of the American Statistical

Association, 75(371) :602–608, 1980.

R.J. Hyndman and G. Athanasopoulos. Forecasting : principles and practice, 2018. URL OTexts.

com/fpp2. Accessed : Feb. 21, 2019.

Rob J Hyndman. Arima processes. Datajobs : Data science knowledge, 2001a.

Rob J Hyndman. Box-jenkins modelling. In Regional Symposium on Environment and Natural

http ://www. itl. nist. gov/div898/handbook/pmc/secti Resources, Apr, pages 10–11, 2001b.

Yervant H Krikorian. Causality. Philosophy, 9(35) :319–327, 1934.

Sandrine Lardic and Valérie Mignon. Econométrie des Séries Temporelles Macroénonomiques et

Financières. Economica, Paris, 1re edition, 2002.

166

Page 181: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Emilie Lebarbier and Tristan Mary-Huard. Le critère BIC : fondements théoriques et interprétation.

PhD thesis, INRIA, 2004.

Robert B Litterman. Forecasting with bayesian vector autoregressions—five years of experience.

Journal of Business & Economic Statistics, 4(1) :25–38, 1986.

Helmut Lütkepohl. New Introduction To Multiple Time Series Analysis. Springer-Verlag Berlin, 2e

edition, 2006.

Mélina Mailhot. Puissances asymptotiques et à tailles finies de tests de normalité sous des alternatives

locales. PhD thesis, Université du Québec à Trois-Rivières, 2009.

Spyros Makridakis. A survey of time series. International Statistical Review / Revue Internationale

de Statistique, 44(1) :29–70, 1976.

Spyros Makridakis and Michele Hibon. Arma models and the box–jenkins methodology. Journal of

Forecasting, 16(3) :147–163, 1997.

Alexandre Mathis, Georges Fiori, and Claude Deniau. Sélection du nombre de retards dans un modèle

var : conséquences éventuelles du choix des critères. Économie & prévision, 106(5) :61–69, 1992.

Klaus Neusser. Time Series Econometrics. Springer International Publishing AG, Switzerland, Cham,

1re edition, 2016.

Christian Olivier, Frédéric Jouzel, Abdelaziz El Matouat, and Pierre Courtellemont. Un nouveau

critère pour la sélection de l’ordre d’un modèle. In 16° Colloque sur le traitement du signal et des

images, FRA, 1997. GRETSI, Groupe d’Etudes du Traitement du Signal et des Images, 1997.

Jostein Paulsen and Dag Tjøstheim. On the estimation of residual variance and order in autoregressive

time series. Journal of the Royal Statistical Society. Series B (Methodological), 47(2) :216–228,

1985.

Dimitris N Politis and Joseph P Romano. The stationary bootstrap. Journal of the American Statistical

association, 89(428) :1303–1313, 1994.

Gideon Schwarz et al. Estimating the dimension of a model. The annals of statistics, 6(2) :461–464,

1978.

Robert H. Shumway and David S. Stoffer. Time Series Analysis and Its Applications : With R

Examples. Springer New York, 3e edition, 2011.

Christopher A Sims. Macroeconomics and reality. Econometrica : Journal of the Econometric Society,

48(1) :1–48, 1980.

Christopher A. Sims. Macroeconomics and methodology. Journal of Economic Perspectives, 10(1) :

105–120, 1996.

167

Page 182: Les modèles VAR(p) - Université Laval...Abstract This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior

Eugen Slutzky. The summation of random causes as the source of cyclic processes. Econometrica :

Journal of the Econometric Society, 5 :105–146, 1937.

James H Stock and Mark W Watson. Vector autoregressions. Journal of Economic Perspectives, 15

(4) :101–115, 2001.

Henri Theil. Principles of econometrics. Hoboken, NJ : John Wiley and Sons, 1971.

Ruey S. Tsay. Analysis of Financial Time Series. John Wiley & Sons, Inc., Cambridge, Mass, 3e

edition, 2010.

Walter Vandaele. Applied Time Series and Box-Jenkins Models. Academic Press, New York, 1983.

Richard M Vogel and Amy L Shallcross. The moving blocks bootstrap versus parametric time series

models. WATER RESOURCES RESEARCH, 32(6) :1875–1882, 1996.

Norbert Wiener. The theory of prediction. Modern mathematics for engineers, 1956.

Herman Wold. A study in the analysis of stationary time series. PhD thesis, Almqvist & Wiksell,

1938.

Peter C Young and Diego J Pedregal. Macro-economic relativity : government spending, private

investment and unemployment in the usa 1948–1998. Structural Change and Economic Dynamics,

10(3-4) :359–380, 1999.

G. Udny Yule. Why do we sometimes get nonsense-correlations between time-series ?–a study in

sampling and the nature of time-series. Journal of the Royal Statistical Society, 89(1) :1–63, 1926.

168