Polycop M2 TSA Oct12
Polycop M2 TSA Oct12
Polycop M2 TSA Oct12
1
Laurent FERRARA
1
EconomiX - Université Paris Ouest Nanterre et Banque de France.
Email : laurent.ferrara@u–paris10.fr ou [email protected].
Site web : http://lo.ferrara.free.fr
2
Contents
3
4 CONTENTS
Chapter 1
Introduction
L’objet de ce cours est de fournir les outils et méthodes nécessaires à l’étude de la dy-
namique des séries temporelles économiques et financières. Le cours débute par une
présentation détaillée et progressive des bases de l’économétrie des séries temporelles
stationnaires en rappelant d’abord différents concepts de séries chronologiques (fonction
d’auto-corrélation, stationnarité, tests Ě), puis en dérivant les processus univariés de type
ARMA (autorégressifs et moyenne mobile). Le cours se poursuit par l’étude conjointe de
plusieurs séries au travers de la présentation des modèles VAR (autorégressifs vectoriels),
largement utilisés aujourd’hui en pratique. L’inférence statistique de ce type de mod-
èles sera développée et des extensions récentes seront présentées. La plupart des séries
économiques et financières étant non stationnaires, la suite du cours est consacrée aux
tests de racine unitaire (stationnarité et non stationnarité) ainsi qu’à la théorie de la
cointégration et aux modèles à correction d’erreur. Enfin, de nombreuses séries macroé-
conomiques et financières étant affectées par des chocs structurels, nous proposons une
revue des différents modèles linéaires à paramètres non constants au cours du temps qui
permettent une modélisation plus flexible. Ce cours a une dimension appliquée très im-
portante ; chaque chapitre théorique est ainsi systématiquement illustré d’applications
empiriques à la macroéconomie et à la finance.
Bibliographie sommaire :
Brockwell P.J. et Davis R.A. (1991), Time Series: Theory and Methods, Springer
Verlag.
Hamilton J.D. (1994), Time Series Analysis, Princeton University Press.
Lardic S. et Mignon V. (2002), Econométrie des séries temporelles macroéconomiques
et financières, Economica.
Ferrara L. et Guégan D. (2002), Analyser les Séries Chronologiques avec S-Plus : une
approche Paramétrique, Collection " Pratique de la Statistique ", Presses Universitaires
5
6 CHAPTER 1. INTRODUCTION
Plan du cours :
CHAPITRE 1 : Concepts de séries chronologiques
Définitions : série temporelle et processus aléatoire
Stationnarité et transformation des séries temporelles
Caractéristiques d’une série temporelle
Application : Faits stylisés de séries d’indices boursiers européens
Concepts de cointégration
Caractéristiques et simulations
Représentation des séries cointégrées : les modèles à correction d’erreur
Estimation des relations de cointégration : méthode d’estimation en deux étapes
Tests de cointégration
Application : Cointégration entre la croissance économique et certains secteurs en
France
Definition 2.1.1 Un processus (Xt )t∈Z est une famille de variables aléatoires à valeurs
réelles indéxée par t ∈ Z.
Pour une valeur de ω fixée dans Ω, la fonction qui associe à chaque date t la réalisation
Xt (ω) est la trajectoire du processus au point ω. De même, pour une date t fixée dans
Z, la fonction qui associe à chaque ω associe la réalisation Xt (ω) est l’état du processus
à la date t. L’objectif du praticien va être alors d’identifier le processus ayant généré la
trajectoire observée. Cette identification se fera à l’aide d’outils statistiques présentés plus
loin dans ce document. En termes mathématiques, cela revient à rechercher un certain
ω0 ∈ Ω ayant engendré la trajectoire observée.
Si le processus a été spécifié, estimé et validé, on peut alors l’utiliser pour effectuer une
prévision. On construit alors l’estimateur X̂T (h) qui est le prédicteur de la variable aléa-
toire XT +h . Comme tout estimateur, ce prédicteur est à son tour une variable aléatoire,
en tant que fonction mesurable de v.a.. Ainsi, X̂T (h) possède une loi de distribution,
qu’il conviendra de spécifier dans la mesure du possible. En utilisant cette v.a., on pourra
donc calculer la prévision x̂T (h) comme étant la réalisation de X̂T (h), calculée à partir
des données de la trajectoire.
9
10 CHAPTER 2. CONCEPTS DE SÉRIE CHRONOLOGIQUE
Cependant, dans la pratique, le coefficient de corrélation linéaire reste utile pour carac-
tériser le degré de dépendance d’un processus. En particulier, on utilisera la fonction
d’autocorrélation décrite dans la définition suivante :
Definition 2.2.1 Soit (Xt )t∈Z un processus du second ordre (i.e. : E(Xt2 ) < ∞).
(i) La fonction moyenne, notée m(.), du processus (Xt )t∈Z est l’espérance non condi-
tionnelle du processus, i.e.: m(t) = E(Xt ), pour tout t ∈ Z.
(ii) La fonction d’autocovariance au retard k, notée γ(k), du processus (Xt )t∈Z est
définie de la manière suivante, pour tout t ∈ Z et k ∈ Z, :
γ(k) = cov(Xt , Xt+k ) = E [(Xt − E(Xt ))(Xt+k − E(Xt+k ))] . (2.1)
(iii) La fonction d’autocorrélation au retard k, notée ρ(k), du processus (Xt )t∈Z , que
l’on note ACF (AutoCorrelation Function), est définie de la manière suivante, pour tout
t ∈ Z et k ∈ Z, :
γ(k)
ρ(k) = , (2.2)
σXt σXt+k
p
où σXt est l’écart type du processus au temps t, pour t ∈ Z, tel que : σXt = γ(0) .
2.2. COMMENT SE PRÉSENTE L’INFORMATION DANS UNE TRAJECTOIRE ?11
Ainsi, pour un retard k fixé, le nombre ρ(k) ∈ [−1, 1] mesure la corrélation linéaire entre
les variables Xt et Xt+k . En particulier, on remarque que ρ(0) = 1. Dans une optique
prévisionnelle, on s’attachera à mettre en évidence les retards k pour lesquels l’ACF est
la plus élevée.
où, pour tout t, Xt∗ est la régression affine de Xt sur Xt+1 , Xt+2 , . . . , Xt+k−1 et Xt+k
∗
est
la régression affine de Xt+k sur Xt+k−1 , Xt+k−2 , . . . , Xt+1 .
Ainsi, pour un retard k fixé, le nombre r(k) est le coefficient de corrélation linéaire entre
la variable Xt − E(Xt |Xt+1 , Xt+2 , . . . , Xt+k−1 ) et la variable
Xt − E(Xt+k |Xt+1 , . . . , Xt+k−2 , Xt+k−1 ). Ce coefficient mesure en fait la liaison entre les
variables Xt et Xt+k , une fois que l’on a retranché l’influence des variables intermédiaires.
La proposition suivante permet de calculer facilement r(k), pour un retard k fixé.
Proposition 2.1 Le coefficient r(k) défini par l’équation ?? est le coefficient de Xt dans
la régression linéaire de Xt+k sur 1, Xt , Xt+1 , . . . , Xt+k−1 .
On remarque que γ̂(k) est divisée par le nombre total d’observations T , et non pas par
T − k. Par conséquent, cet estimateur est biaisé mais la matrice de variance-covariance
12 CHAPTER 2. CONCEPTS DE SÉRIE CHRONOLOGIQUE
estimée Γ̂ = [γ̂(i − j)]i,j=1,...,T , calculée à partir de cet estimateur, est alors définie positive
et inversible.
De même, l’ACF est estimée par l’ACF empirique, notée ρ̂(.) et définie, pour 0 ≤ k < T ,
par :
γ̂(k)
ρ̂(k) = . (2.5)
σˆXt σXˆt+k
On remarque également que la matrice de corrélation estimée, R̂ = [ρ̂(i − j)]i,j=1,...,T , est
définie positive.
Le principal outil d’analyse dont on dispose pour estimer empiriquement la densité spec-
trale théorique du processus est le périodogramme IT , défini sur l’intervalle [0, 2π[ par:
2
T
1 X −iλt
IT (λ) = e Xt , (2.7)
2πT
t=1
En général, on considère des processus centrés pour lesquels la moyenne empirique est
nulle. On note que, dans la pratique, les fréquences λ sur l’intervalle [0, 2π[ sont rem-
placées par les fréquences de Fourier, λj , définies, pour j = 0, . . . , T −1, par : λj = 2πj/T .
cette persistence. Nous allons caractériser trois de types de mémoire : mémoire longue,
mémoire courte et sans mémoire.
Il existe des processus sans mémoire, pour lesquels la v.a. à la date t, Xt , n’est pas corrélée
aux v.a. aux dates précédentes Xt−1 , Xt−2 , . . .. Ce sont les processus de type bruit blanc
faible définis ci-dessous.
Definition 2.3.1 Un processus d’ordre 2 (εt )t∈Z est un processus bruit blanc faible si :
(i) ∀t, E(εt ) = 0
(ii) ∀t,∀s, E(εt εs ) = σε2 × I[t=s]
On généralisera la notion de bruit blanc faible à celle de bruit blanc fort en posant que
(εt )t∈Z est un processus bruit blanc fort si (εt )t∈Z est un processus indépendant. C’est
à dire que la v.a. à la date t, εt , est indépendante de toute v.a. à la date s 6= t, εs .
Un processus bruit blanc fort est un processus bruit blanc faible, mais, en général, un
processus bruit blanc faible n’est pas un processus bruit blanc fort (la non-corrélation
n’implique pas l’indépendance). Par contre, un processus bruit blanc faible Gaussien est
un processus bruit blanc fort.
Le processus bruit blanc est le processus de base à partir duquel tous les processus stochas-
tiques sont définis. Le dénomination de bruit vient du fait que ce processus ne contient
aucune information, l’information étant représentée par l’auto-corrélation. Ainsi, aucun
signal déterministe ne peut être extrait de ce processus. L’objectif de toute tentative de
modélisation statistique étant d’extraire le signal afin qu’il ne reste que le bruit dans les
résidus du modèle. La qualité d’un modèle statistique de série chronologique se mesure, en
partie, au fait que les résidus forment un bruit blanc. L’adjectif blanc vient de l’analogie
avec la lumière blanche pour laquelle le spectre est constant pour toute fréquence, ce qui
est le cas d’un bruit blanc pour lequel on montre que la densité spectrale est égale à
σε2
fε (λ) = 2π pour toute fréquence λ.
Il existe également des processus dont l’ACF est géométriquement bornée et décroit rapi-
dement vers zéro, on parle alors de processus à mémoire courte. C’est le cas des processus
de type ARMA.
Definition 2.3.2 Un processus est dit à mémoire courte s’il possède une ACF, ρ(k), telle
que :
ρ(k) ≤ Cr−k , → ∞, (2.8)
où C > 0, 0 < r < 1 et k = 1, 2, . . ..
Exemple 2.3 Le processus fractionnaire intégré introduit par Hosking (1980) et Granger
et Joyeux (1981) de la forme suivante :
(I − B)d Xt = εt
où B est l’opérateur retard tel que B(Xt ) = Xt−1 et B k (Xt ) = Xt−k et d est un réel
fractionnaire tel que 0 < d < 1, est un processus à mémoire longue.
On remarque également, sans s’étendre sur le sujet que la mémoire des processus se
retrouve également dans les caractéristiques de la densité spectrale du processus. Ainsi,
la densité spectrale d’un processus bruit blanc est une constante et celle d’un processus
longue mémoire tend vers l’infini lorsque les fréquences tendent vers zéro.
2.4. NON INDÉPENDANT, MAIS IDENTIQUEMENT DISTRIBUÉ ? 15
Definition 2.4.1 Un processus (Xt )t∈Z est dit fortement stationnaire si, ∀t1 , . . . , tn ∈ Z,
∀k ∈ Z et n = 1, 2, . . ., la loi du vecteur (Xt1 , . . . , Xtn ) est identique à la loi du vecteur
(Xt1 +k , . . . , Xtn +k ), i.e. toutes les lois de dimension finie du processus sont identiques.
En particulier, pour un processus fortement stationnaire les variables Xt , ∀t, sont iden-
tiquement distribuées. Un processus particulier, que l’on retrouve souvent en statistique,
est le processus Gaussien pour lequel toutes ses lois de dimension finie sont Gaussiennes.
En pratique, cette hypothèse de stationnarité forte ne peut pas être testée à l’aide de la
trajectoire. On introduit donc une condition de stationnarité moins restrictive qui pourra
être testée à partir des observations.
Definition 2.4.2 Un processus du second ordre (Xt )t∈Z est dit faiblement stationnaire si
:
(i) la moyenne du processus est constante au cours du temps,
i.e. : pour tout t ∈ Z, E(Xt ) = µ,
(ii) la covariance du processus est invariante au cours du temps,
i.e. : pour tout t ∈ Z et k ∈ Z, γ(k) ne dépend que de k.
La stationnarité d’un processus permet ainsi d’estimer les moments non conditionnels de
la v.a. XT +h en utilisant les moments empiriques à partir du processus (X1 , . . . , XT ).
Ainsi, on peut utiliser comme prédicteur naturel de XT +h un estimateur de l’espérance
non Pconditionnelle E(XT +h ), en particulier la moyenne empirique, i.e. : X̂T +h = PX̄T =
T −1 Tt=1 Xt . Ainsi, la prévision est alors obtenue, pour tout h, par x̂T (h) = T −1 Tt=1 xt .
De même, on peut utiliser comme prédicteur de XT +h d’autres statistiques qui estiment la
16 CHAPTER 2. CONCEPTS DE SÉRIE CHRONOLOGIQUE
position centrale de la distribution non conditionnelle tels que la médiane et le mode, i.e.
: X̂T +h = M ed(X1 , . . . , XT ) ou X̂T +h = M ode(X1 , . . . , XT ). Toutefois, on se rend compte
que cette prévision est extrêmement grossière car, pour n’importe quel horizon h > 0, le
prédicteur est identique, illustrant ainsi que la dynamique du processus n’est pas prise en
compte dans ce type de prédicteur. Bien que dans certains cas ce type de prédicteur peut
être utile en pratique, nous allons chercher à développer des méthodes statistiques visant
à renforcer les qualités du prédicteur par intégration de la dynamique du processus.
La caractéristique principale d’un "‘bon"’ prédicteur X̂T (h) est de minimiser cette erreur
de prévision au sens d’un certain critère. Généralement, 3 critères d’erreur de prévision à
l’horizon h sont retenus : l’erreur moyenne (ME, Mean Error), absolue moyenne (MAE,
Mean Absolute Error) et quadratique moyenne (MSE, Mean Squared Error).
M RE = E(eT +h ) (2.11)
M AE = E(|eT +h |) (2.12)
M SE = E(e2T +h ) (2.13)
Evidemment, une mesure de ces critères nécessite la connaissance de la réalisation xT +h
de la v.a. XT +h et ne peut donc se faire qu’a posteriori.
Definition 2.6.1 Un processus (Xt )t∈Z est un processus linéaire s’il admet une décom-
position de la forme suivante, ∀t ∈ Z :
∞
X
Xt = ai εt−i , (2.14)
i=−∞
où : P∞
(i) les coefficients (ai )i sont absolument sommables, i.e.: i=−∞ |ai | < ∞,
(ii) (εt )t est un processus bruit blanc fort.
En fait, la justification de l’utilisation extensive en prévision des processus linéaires
provient du théorème de Wold (1938) qui montre que tout processus fortement station-
naire peut s’écrire sous la forme d’un processus linéaire.
Trivialement, un processus non linéaire P est un processus qui ne vérifie pas la définition
??. Par exemple, un processus tel que ∞ i=−∞ |ai | = ∞ n’est pas linéaire. Ce type de
processus est connu comme étant un processus fractionnaire à mémoire longue (voir Fer-
rara, 2000, et Ferrara et Guégan, 2002). Autre exemple, un processus de la forme ?? mais
tel que (εt )t est un processus bruit blanc faible n’est pas linéaire. Les processus de type
GARCH appartiennent à cette dernière catégorie.
Si on observe une trajectoire (x1 , . . . , xT ) que l’on suppose engendrée par une processus
linéaire (Xt )t∈Z , on connait alors le meilleur prédicteur X̂T (h), au sens de la plus faible
erreur quadratique moyenne. On note IT l’ensemble d’information apporté par les vari-
ables (X1 , . . . , XT ), qui est en terme probabiliste la σ-algèbre engendrée par les T v.a..
On note MT le sous-espace vectoriel fermé engendré par les variables (X1 , . . . , XT ), muni
du produit scalaire hXt , Xt0 i = E(Xt Xt0 ). La norme issue du produit scalaire est la norme
L2 , notée k.k2L2 .
Proposition 2.2 Le prédicteur X̂T (h) qui minimise l’erreur quadratique moyenne (MSE)
est le prédicteur des moindres carrés définie par :
X̂T (h) = E(XT +h |IT ),
soit :
X̂T (h) = arg min kXT +h − Y k2L2 , (2.15)
Y ∈MT
On se réfère à Priestley (1981) et à Brockwell et Davis (1987) pour une preuve de cette
proposition.
Definition 2.6.2 On définit le processus d’innovation (t )t d’un processus (Xt )t∈Z comme
étant l’écart entre la variable Xt au temps t et sa projection sur l’espace vectoriel engendré
par les variables jusqu’au temps (t-1), i.e.:
t = Xt − E(Xt |It−1 )
18 CHAPTER 2. CONCEPTS DE SÉRIE CHRONOLOGIQUE
On montre que le processus d’innovation d’un processus stationnaire est un bruit blanc
et qu’un processus bruit blanc est son propre processus d’innovation.
Dans le cas d’un processus linéaire, on montre alors facilement que l’erreur de prévision
eT +h est d’espérance nulle, E(eT +h ) = 0, et de variance telle que :
h−1
X
E(e2T +h ) = σε2 a2i , (2.16)
i=0
Remarque 2.3 On suppose ici que les paramètres du processus sont connus mais en
pratique on utilise les valeurs des paramètres estimés, sans toutefois rajouter d’incertitude
sur le prédicteur due à la variabilité des estimateurs.
Ainsi, lorsque h → ∞, X̂t (h) converge vers son espérance non-conditionelle E(Xt ) (égale
à 0 ici). La vitesse de convergence est ici inversement proportionnelle à la valeur du
paramètre autorégressif φ.
Chapter 3
Dans ce chapitre, nous présentons les instructions RATS nécessaires à la mise en oeuvre
de l’analyse des séries chronologiques. Une telle analyse doit être systématiquement ef-
fectuée, prélablement à la modélisation de la série. Les détails des quelques définitions
et propositions énoncées ci-dessous, ainsi que leurs démonstrations, se trouvent dans les
livres traitant de l’analyse des séries chronologiques, tels que les ouvrages de Box et Jenk-
ins (1970), Brockwell et Davis (1987), Box, Jenkins et Reinsel (1994) ou Hamilton (1994).
Dans la suite de ce document, on suppose qu’on observe une suite finie de valeurs réelles,
notée X1 , . . . , XT . On considère cette suite finie de valeurs, de longueur T , comme étant
la réalisation d’un processus (Xt )t∈Z du second ordre (i.e. : E(Xt2 ) < ∞), et on l’appelle
la trajectoire du processus. Dans la pratique, on observe uniquement cette trajectoire, et
on l’utilise pour faire de l’inférence statistique sur le processus sous-jacent à cette série
observée. Il importe donc d’analyser correctement la trajectoire, préalablement à toute
tentative de modélisation. Dans un premier temps, on s’intéresse à une analyse temporelle
d’une série, puis, dans un second temps, à une analyse spectrale.
calendar 1960 1 12
all 90:03
open data ’candata.rat’
data(format=rats) / canusxsr
Le graphe de cette série présenté sur la Figure 1.1 est obtenu à l’aide de la commande
suivante :
21
22 CHAPTER 3. EXEMPLE D’ANALYSE SOUS RATS
Figure 3.1: Taux de change mensuel Canadian Dollar / US Dollar, de janvier 1960 à mars
1990 (série canusxsr).
où acfsérie est le nom que l’on donne à la série des autocorrélations ou des autocovari-
ances. L’option covariances permet d’obtenir l’autocovariance au lieu de l’ACF (par
défaut nocovariances) et l’option partial= permet d’obtenir la PACF. De plus, l’option
par défaut print affiche les séries en sortie et l’option number permet de fixer le nombre
maximum de retards.
Figure 3.3: ACF empirique de la série des rendements mensuels du taux de change Cana-
dian Dollar / US Dollar.
On peut tracer l’ACF empirique de la série ret, pour un retard maximum de k = 100, de
la manière suivante (voir Figure 1.4) :
Dans le Chapitre 2, nous verrons que l’instruction correlate permet également de tester
la nullité de l’ACF et de la PACF aux différents retards et de tester la non corrélation
d’une série à l’aide du test "Portmanteau" de Ljung-Box.
Les quatre premiers moments de la série sont renvoyés par l’instruction statistics, qui
permet ainsi de calculer le skewness (%skewness) et la kurtosis (%kurtosis), respective-
ment définis par :
T2 m3
Sk = , (3.1)
(T − 1)(T − 2) s3
et
T2 (T + 1)m4 − 3(T − 1)m22
Ku = , (3.2)
(T − 1)(T − 2)(T − 3) s4
24 CHAPTER 3. EXEMPLE D’ANALYSE SOUS RATS
Le principal outil d’analyse dont on dispose pour estimer empiriquement la densité spec-
trale théorique du processus est le périodogramme IT , défini sur l’intervalle [0, 2π[ par:
T 2
1 X
−iλt
IT (λ) = e Xt , (3.5)
2πT t=1
En général, on considère des processus centrés pour lesquels la moyenne empirique est
nulle. On note que, dans la pratique, les fréquences λ sur l’intervalle [0, 2π[ sont rem-
placées par les fréquences de Fourier, λj , définies, pour j = 0, . . . , T −1, par : λj = 2πj/T .
3.2. ANALYSE SPECTRALE 25
RATS permet de traiter des séries à valeurs dans le plan complexe, ce qui autorise le cal-
cul du périodogramme, de manière simple, à l’aide de la Transformée de Fourier Rapide
(Fast Fourier Transform) que l’on calcule à l’aide de l’instruction fft. Par exemple, les
commandes suivantes permettent de calculer le périodogramme sur l’intervalle [0, π], et
les fréquences de Fourier correspondantes, pour les résidus de la série canusxsr, traitée
dans le paragraphe précédent, du mois de janvier 1960 au mois de décembre 1989 (voir
Figure 1.5). Le graphe de cette série des résidus, notée resids est présentée sur le bas de
la Figure 1.2.
On note que la valeur du périodogramme pour la fréquence zéro est nulle, car la moyenne
empirique des résidus est égale à zéro. De plus, on observe que le périodogramme aug-
mente lorsque les fréquences tendent vers zéro. Ce phénomène a été observé en premier
par Granger (1966) et est présent dans de nombreuses séries à caractère économique. Une
manière de modéliser ce phénomène est présentée dans le Chapitre 3 de ce document.
2. il est non-consistant :
et (
f 2 (λ) si λ ∈ [0, 2π[−{0, π},
limT →∞ V ar(IT (λ)) = (3.7)
2f 2 (λ) si λ ∈ {0, π}.
• Suite Trapézoidale :
t/m
si 1 ≤ t ≤ m,
h(t) = 1 si m + 1 ≤ t ≤ T − m, (3.8)
(T − t + 1)/m) si T − m + 1 ≤ t ≤ T ,
• Suite en Cosinus :
0.5(1 − cos(πt/m))
si 1 ≤ t ≤ m,
h(t) = 1 si m + 1 ≤ t ≤ T − m, (3.9)
0.5(1 − cos(π(T − t + 1)/m)) si T − m + 1 ≤ t ≤ T ,
3.2. ANALYSE SPECTRALE 27
Une expression du périodogramme effilé est alors donnée par l’équation suivante:
2
T
tap 1 X
−iλt
IT (λ) = e ht Xt . (3.10)
PT
2
2π t=1 ht t=1
Le périodogramme lissé, que l’on note fL (λ), correspond à moyenne mobile centrée pondérée
du périodogramme. fL (λ) est donné par l’équation suivante:
(m−1)
1 X
fL (λj ) = WT (h)IT (λj+h ), (3.11)
2π
h=−(m−1)
La procédure spectrum propose deux suites de poids différentes, pour h = −m+1, . . . , −1, 0, 1, . . . , m−
1. L’option par défaut window=flat utilise la suite définie par :
WT (h) = 1, (3.12)
RATS standardise automatiquement ces poids, de manière à ce que la somme soit égale à 1.
L’instruction spectrum contrôle le lissage par l’intermédiaire de l’option width. La valeur
de l’entier, obligatoirement impair, affectée à width permet de contrôler la longueur de la
28 CHAPTER 3. EXEMPLE D’ANALYSE SOUS RATS
Enfin, il est important de noter que l’instruction spectrum ne renvoie pas la valeur exacte
du périodogramme calculé, mais son logarithme.
@spectrum(taper=none,window=tent,header=’Log-periodogramme lisse
de la serie:resids’) resids 60:01 89:12
3.3 Filtrage
A l’image de la série du taux de change précédente, de nombreuses séries chronologiques,
en économie et en finance possédent une tendance, croissante ou décroissante. La série est
alors non stationnaire (voir chapitre suivant pour les différents types de non stationnarité).
Il est souvent utile de retrancher cette tendance de long terme qui peut masquer certains
effets conjoncturels, en particulier cycliques. L’économétrie fourmille de méthodes de dé-
composition tendance-cycle, de type Hodrick-prescott, Beveridge-Nelson, Baxter-King, ...
En pratique, il est relativement difficile de savoir quelle est la bonne méthode à utiliser,
chacune ayant des défauts et des qualités (voir Gay et Saint-Amand, 1997).
Une approche triviale peut être de considérer que cette tendance est linéaire. D’un point
de vue technique, il suffit d’effectuer une régression linéaire sur la tendance. D’une manière
3.3. FILTRAGE 29
générale, avec RATS, l’opération de régression linéaire sur des variables exogènes se fait à
l’aide de l’instruction linreg. Les commandes suivantes permettent d’ajuster une droite
à la série canusxsr et d’obtenir la série estimée (canusxsrhat) et les résidus (resids).
set date = t
linreg canusxsr / resids
# constant date
prj canusxsrhat
On observe que les paramètres estimés sont significativement différent de zéro, même avec
un risque de première espèce extrêmement faible. En particulier, la pente de la droite
de régression est non-nulle. L’instruction linreg possède différentes options, permettant
par exemple d’obtenir la matrice de variance-covariance des estimateurs (option vcv) ou
d’omettre certaines valeurs de la régression (option smpl). On se référe au manuel fourni
par Estima (Doan, 1992) pour un descriptif complet de ces options.
On peut alors tracer la série canusxsr, la droite de régression et les résidus obtenus, à
l’aide des commandes suivantes :
spgraph(vfields=2)
30 CHAPTER 3. EXEMPLE D’ANALYSE SOUS RATS
Figure 3.5: Série canusxsr et la tendance linéaire ajustée et la série des résidus.
graph(header=’Serie canusxsr’) 2
# canusxsr
# canusxsrhat
graph(header=’Residus’)
# resids
spgraph(done)
Chapter 4
De nombreuses études empiriques ont souligné que la plupart des séries chronologiques à
caractère financier ont tendance à exhiber des comportements statistiques caractéristiques.
On se propose de lister ces faits stylisés, dont certains pourront être pris en compte par
les processus de type ARCH.
31
32 CHAPTER 4. FAITS STYLISÉS DES SÉRIES FINANCIÈRES
distribution empirique possède des queues de distribution plus épaisses que celles de la
loi Normale. Cela est du à une fréquence plus élevée que ce qu’on pouvait attendre
d’évènements exceptionnels. Une mesure de l’épaisseur des queues est fournie par la kur-
tosis (un estimateur des moments d’ordre 4) qui est systématiquement supérieure à celle
de la loi Normale (égale à 3). De plus, la dsitribution de nombreux actifs financiers, en
particulier les prix d’actions, n’est pas symétrique. En effet, le moment d’ordre 3 de la
distribution non conditionnelle mesuré par le skewness est souvent négatif. Cela signi-
fie que la queue gauche de la distribution est plus épaisse que la queue droite, i.e. les
forts rendements négatifs ont tendance à se produire plus souvent que les forts rende-
ments positifs. Ainsi, la plupart des tests statistiques d’adéquation (Jarque-Bera, Chi-2,
Kolmogorov-Smirnov, ...) rejettent l’hypothèse nulle de Gaussianité de la distribution non
conditionnele, même avec un très faible risque de première espèce. Or, cette hypothèse
de Normalité est nécessaire pour de nombreux modèles en finance tels que le CAPM ou
le modèle de Black et Scholes.
le cas plus général d’une crise financière). En revanche, lors des périodes d’expansion des
prix, la volatilité affiche une plus grande stabilité.
4.6 Auto-Corrélations
Lorsqu’on calcule les autocorrélations des séries financières, on observe une très faible
autocorrélation. Généralement, la série est blanchie par un processus AR(p)où p est
relativement petit (p ≤ 3). Il arrive même souvent que la série soit supposée suivre un
bruit blanc faible (non indépendant). En revanche, les autocorrélations de la série au
carré (Yt2 )t , ou élevée à une certaine puissance (|Yt |
delta)t , présentent une forte persistance.
4.8 An example
We choose the 4 main European stocks indices, namely the DAX30, CAC40, MIB30 and
IBEX35, that describe the financial activity on the stock markets in Germany, France,
Italy and Spain, respectively. We use monthly data corresponding to the average of closure
values, from January 1988 to September 2008 (see figure ??). As those four series are
clearly non-stationary, we are going to work with the log-returns defined as follows :
where i = 1, 2, 3, 4 and Xti is the index value at date t for the market i. Log-returns are
presented in figure ??. Typically, those series present stylised facts well known in financial
econometrics, that is stationarity in mean, weak auto-correlation, strong kurtosis, negative
skwewness and presence of clusters of volatility indicating a non-constant conditional
variance. Unconditional empirical moments are presented in table ??. To evaluate the
34 CHAPTER 4. FAITS STYLISÉS DES SÉRIES FINANCIÈRES
Table 4.1: Estimates and standard errors of the parameters for the 4 univariate GARCH(1,1) model
applied to the 4 log-returns and the main statistics.
auto-correlation structure and the Gaussianity, we are going to use the statistical tests
based on the Portmanteau and Jarque-Bera statistics respectively given by the following
equations:
k
X ρ2j
Q(k) = T (T + 2) , (4.1)
j=1
T −j
Ku2 Sk 2
JB = T ( + ), (4.2)
24 6
where T is the sample size, k ∈ N, Ku and Sk denote respectively the excess Kurtosis and
the Skewness, ρj being the autocorrelation function of the series for lag j. Both statistics
(??)-(??) are distributed according to a χ2 distribution function. P-values of thes tests
are presented in table ??.
From table ??, we observe that the series present the stylised facts described previously
except the MIB series that possesses a special pattern in the sense that the empirical
variance is much greater than the 3 others, the skewness is close to zero by positive value,
indicating thus a symmetrical distribution, and the excess kurtosis is also close to zero
implying thus that the tails of the distribution are close to the Gaussian. Because of
those two latter facts, we cannot reject the null of a Gaussian distribution with a type I
risk α = 0.01. Concerning the auto-correlation structure, all the series present short-term
auto-correlation according to the Portmanteau test, except the MIB series that can be
identified to a weak white noise.
Moreover, there is evidence of common movements among the four variables reflecting the
strong financial integration of the markets in the Euro area. This co-movement, some-
times refers to as contagion in some papers, asks for a multivariate approach in modelling.
In order to estimate the conditional variances, we are going to implement various multi-
variate GARCH specifications presented in previous chapters.
4.8. AN EXAMPLE 35
Modèles ARMA
Definition 5.1.1 Un processus du second ordre (Xt )t∈Z est défini comme étant un pro-
cessus ARMA(p, q), s’il est stationnaire et si et seulement si, pour tout t ∈ Z, il vérifie
l’équation aux différences suivante :
φ(B)(Xt − µ) = θ(B)εt , (5.1)
où µ est la moyenne du processus, où B est l’opérateur retard tel que, ∀t, BXt = Xt−1 et
pour tout entier b, B b Xt = Xt−b , où φ(z) = I −φ1 z −. . .−φp z p et θ(z) = I +θ1 z +. . .+θq z q
sont deux polynômes et où (εt )t∈Z est un processus bruit blanc centré de variance σε2 .
Si q = 0, on dit que (Xt )t∈Z est un processus AR(p), et si p = 0, on dit que (Xt )t∈Z
est un processus MA(q). Il est important de remarquer la manière dont sont définis les
polynômes φ(z) et θ(z). Nous les avons définis de manière cohérente avec RATS, mais il
arrive souvent que le polynôme θ(z) soit égal à θ(z) = 1 − θ1 z − . . . − θq z q .
37
38 CHAPTER 5. MODÈLES ARMA
Proposition 5.1 Soit (Xt )t∈Z un processus ARMA(p, q) défini par la définition ??.
(i) Si le polynôme φ(z) ne s’annule pas sur le cercle défini par |z| = 1, alors le proces-
sus (Xt )t∈Z est un processus linéaire stationnaire.
(ii) Si le polynôme φ(z) ne s’annule pas sur le cercle défini par |z| ≤ 1, alors le pro-
cessus (Xt )t∈Z possède une représentation causale.
(iii) Si le polynôme θ(z) ne s’annule pas sur le cercle défini par |z| ≤ 1, alors le
processus (Xt )t∈Z possède une représentation inversible.
Definition 5.1.2 Un processus du second ordre (Xt )t∈Z est défini comme étant un pro-
cessus
ARIMA(p, d, q), si le processus ((I − B)d Xt )t∈Z est un processus ARMA défini par la
définition ??.
On généralise à nouveau les deux définitions précédentes au cas des processus saisonniers
SARIMA (Seasonal ARIMA).
Definition 5.1.3 Un processus du second ordre (Xt )t∈Z est défini comme étant un pro-
cessus
SARIMA(p, d, q)(P, D, Q)S , si et seulement si, pour tout t ∈ Z, il vérifie l’équation aux
différences suivante :
Le logiciel RATS permet de simuler des trajectoires finies engendrées par un processus
ARMA. Par exemple, on s’intéresse au processus centré ARMA(2,1), tel que :
où le processus (εt )t est un bruit blanc Gaussien de variance unitaire. Les commandes
suivantes permettent de générer et de tracer une trajectoire de longueur 1000, issue de ce
processus ARMA (voir figure ??).
1. Spécification du processus.
2. Estimation des paramètres du processus.
3. Validation du processus par tests.
4. Utilisation du processus en prévision.
5.2.1 Spécification
L’étape de la spécification d’un processus ARIMA(p, d, q) consiste à choisir l’ordre des
parties AR (choix de l’entier p) et MA (choix de l’entier q), ainsi que l’ordre du degré
d’intégration (choix de l’entier d).
de Box et Jenkins (1970), à savoir, si la trajectoire qu’il observe est issue d’un proces-
sus faiblement stationnaire. Si tel est le cas, on dira alors que le processus (Xt )t∈Z est
intégré d’ordre 0; sinon, on suppose qu’il existe un entier d > 0 tel que (I − B)d Xt est
asymptotiquement faiblement stationnaire, B étant l’opérateur retard. On dira alors que
le processus (Xt )t∈Z est intégré d’ordre d. Cependant, dans la majorité des cas rencon-
trés en pratique l’entier d correspondant à l’ordre d’intégration est égal à l’unité. Ainsi,
le problème du statisticien revient alors à se demander quel est l’ordre d’intégration du
processus, ce qui est équivalent à tester l’hypothèse H0 : {d = 0} contre l’hypothèse
H1 : {d = 1}. On renvoie au Chapitre 3 de ce document pour le cas où 0 < d < 1.
De nombreux tests d’hypothèses ont été développés depuis le milieu des années 1970
dans la littérature statistique et économétrique afin d’aider le praticien dans le choix du
paramètre d, à partir des données dont il dispose. On citera en particulier, les tests de
racine unitaire de Fuller (1976), Dickey et Fuller (1979, 1981), Phillips (1987), Phillips
et Perron (1988), Kwiatkowski, Phillips, Schmidt et Shin (1992) et Zivot et Andrews
(1992). Ces différents tests de racine unitaire peuvent être utilisés dans RATS à l’aide
de plusieurs différentes procédures contenues dans les fichiers ADF.SRC, DFUNIT.SRC,
PPUNIT.SRC ou ZIVOT.SRC.
On cherche alors le retard k à partir duquel r̂X (k) = 0 ou ρ̂X (k) = 0. Cette recherche se fait
à l’aide du test de Bartlett qui permet de tester statistiquement l’hypothèse H0 : ρX (k) = 0
contre l’hypothèse H1 : ρX (k) 6= 0. De même le test de Quenouille permet de tester statis-
tiquement l’hypothèse H0 : rX (k) = 0 contre l’hypothèse H1 : rX (k) 6= 0. On rappelle ces
deux tests basés sur les théorèmes suivants :
Théorème de Bartlett
5.2. LA MÉTHODOLOGIE BOX ET JENKINS PAS À PAS 41
Soit (Xt )t∈Z un processus MA(q) stationnaire. Sous l’hypothèse H0 : ρX (k) = 0, pour
k ≥ q + 1, on a quand T → ∞ :
q
X
1/2
T ρ̂X (k) → N (0, 1 + 2 ρ̂X (i)) (5.3)
i=1
Théorème de Quenouille
Soit (Xt )t∈Z un processus AR(q) stationnaire. Sous l’hypothèse H0 : rX (k) = 0, pour
k ≥ p + 1, on a quand T → ∞ :
Une manière efficace de procéder pour choisir les ordres des parties AR et MA, est de
choisir les ordres p et q de telle sorte qu’ils optimisent un certain critère d’intérêt, déter-
miné a priori. Un des critères les plus utilisés en statistique est le critère d’information
d’Akaike (1977), dénoté AIC, défini de la manière suivante :
où σ̂ε2 est la variance résiduelle estimée. Un modèle possédant une bonne qualité d’ajustement
fournira une variance résiduelle faible, donc un AIC faible. On cherchera donc à minimiser
le critère AIC.
Il est à noter qu’il existe d’autres critères d’information dans la littérature statistique,
tels que les critères de Bayes (BIC), de Hannan (HIC) ou de Akaike corrigé (AICC). On
se référe, par exemple, à Hamilton (1994) pour une définition de ces critères. On note
également que ces critères sont relatifs à la qualité d’ajustement du modèle, mais on peut
envisager une recherche automatique de p et de q relativement à la qualité de prédiction
du modèle par validation croisée.
all 1100
seed 123; set eps = %ran(1)
set xar2 1 2 = 0.0
set xar2 3 1100 = 0.3*xar2{1}+0.2*xar2{2}+eps
corr(stderrs=xse,number=10,partial=xpacf) xar2 101 1100 xacf
print / xse xacf xpacf
set ic1 = 1.96*xse
set ic2 = -1.96*xse
sta xar2
set pic1 = 1.96/sqrt(%nobs)
set pic2 = -1.96/sqrt(%nobs)
On peut alors tracer simultanément l’ACF et la PACF de cette série simulée xar2, ainsi
que les intervalles de confiance asymptotiques respectifs, permettant d’effectuer les tests
de non nullité précités (voir figure ??).
spgraph(vfields=2,header=’Serie : xar2’)
graph(style=bar,overlay=line,ovcount=2,omax=1,omin=-1, $
max=1,min=-1,number=1) 3
# xacf
5.2. LA MÉTHODOLOGIE BOX ET JENKINS PAS À PAS 43
Figure 5.2: ACF et PACF de la série simulée xar2, issue d’un processus AR(2).
# ic1
# ic2
graph(style=bar,overlay=line,ovcount=2,omax=1,omin=-1, $
max=1,min=-1,number=1) 3
# xpacf
# pic1
# pic2
spgaph(done)
On peut alors observer visuellement si les valeurs de l’ACF et de la PACF sont à l’intérieur
de l’intervalle de confiance et déterminer ainsi les ordres p et q. Dans le cas présent, on
peut soit choisir un processus AR(2), soit un processus MA(3). Cependant, le principe
de parcimonie nous recommande de choisir un processus AR(2).
εp = εp−1 = . . . = εp−q+1 = 0.
Avec RATS, l’estimation des paramètres d’un processus ARMA se fait à l’aide de l’instruction
boxjenk, qui s’utilise de la manière suivante :
Cette instruction permet de spécifier les ordres saisonniers et non saisonniers du modèle,
à l’aide des options ar=, ma=, sar= et sma=. De plus, les degrés d’intégration saisonnier et
non saisonnier sont spécifiés par les options diffs= et sdiffs=. Par défaut, les ordres du
modèle sont nuls. Dans l’exemple suivant, on considère la série xar2, que l’on a simulée,
5.2. LA MÉTHODOLOGIE BOX ET JENKINS PAS À PAS 45
Enfin, il est intéressant de noter que l’instruction boxjenk permet d’estimer des processus
ARMA à "trous". Par exemple, si on désire estimer le processus AR(4) suivant :
(I − φ1 B − φ4 B 4 )Xt = εt ,
on spécifie un modèle à l’aide de l’option ar=||1,4|| de la manière suivante :
Pour analyser les résidus, on les récupère à l’aide de l’instruction boxjenk et pour obtenir
l’ACF et la PACF des résidus on utilise l’instruction correlate. Par exemple, la com-
mande suivante :
corr(stderrs=rse,number=10,partial=rpacf,qstats,span=1) $
resids 101 1100 racf
Ljung-Box Q-Statistics
Q(1) = 5.9364e-004. Significance Level 0.98056169
Q(2) = 0.0182. Significance Level 0.99092625
Q(3) = 0.0886. Significance Level 0.99316788
Q(4) = 0.5077. Significance Level 0.97274501
Q(5) = 0.5310. Significance Level 0.99094370
Q(6) = 0.5356. Significance Level 0.99737787
5.2. LA MÉTHODOLOGIE BOX ET JENKINS PAS À PAS 47
On peut alors obtenir la trajectoire des résidus et les graphes de l’ACF et de la PACF
(voir figure ??) à l’aide des commandes suivantes :
Commentons maintenant les différents résultats que l’on peut obtenir sur les résidus.
ainsi la présence d’une corrélation pour un certain retard. Si l’ACF des résidus
sort de l’intervalle de confiance pour un certain retard k0 , avec 1 ≤ k0 < p ou
1 ≤ k0 < q, alors cela signifie qu’il faut rajouter une partie MA(k0 ) au processus
spécifié initialement. Si k0 ≥ p ou k0 ≥ q, alors cela signifie que les ordres de parties
AR et/ou MA ont été mal choisis lors de l’étape de spécification du processus.
• Test "Portmanteau"
Au lieu de tester si chaque valeur de l’ACF tombe dans l’intervalle de confiance,
on peut tester la significativité globale des ACF, à l’aide d’une statistique. Le test
utilisé par le logiciel est le test "Portmanteau" de Ljung-Box, basée sur la statistique
suivante :
K
X ρ̂2 (k)
QK = T (T + 2) . (5.12)
k=1
T − k
Sous l’hypothèse de non corrélation des K premières autocorrélations des perturba-
tions (H0 : ρε (1) = ρε (2) = . . . = ρε (K) = 0), cette statistique suit asymptotique-
ment une loi du Chi-2 à (K − p − q) degrés de liberté. L’adéquation du modèle est
rejetée au risque α, si :
2
QK > X1−α (K − p − q).
Les différentes valeurs des probabilités critiques sont renvoyées par l’instruction
correlate. Si ces dernières valeurs, pour différents entiers K, sont toutes supérieures
à 0.05, on accepte alors l’hypothèse H0 de non-corrélation. Par exemple, dans le
précédent de la série resids, les probabilités sont toutes supérieures à 0.05, donc
au risque α = 5%, on accepte l’hypothèse dite de blancheur des résidus. Le choix de
l’entier K est à discuter, mais en pratique, il est souvent intéressant de faire varier
ce nombre et d’observer le résultat du test pour ces différentes valeurs de K.
Enfin, si l’on a effectué l’hypothèse de Gaussianité sur le processus bruit blanc (εt )t∈Z , il
est intéressant d’observer la distribution empirique des résidus estimés. Pour cela on trace
l’histogramme et la densité non paramétrique de distribution des résidus standardisés à
5.2. LA MÉTHODOLOGIE BOX ET JENKINS PAS À PAS 49
l’aide (dans la version 4.X du logiciel) respectivement des procédures @hist et @density,
de la manière suivante :
@hist(nbar=20) resids
@density resids 101 1100 xdens ydens
scatter(style=3) 1
# xdens ydens
T (Sk)2 T (Ku)2
JB = + , (5.13)
6 24
où Sk et Ku sont respectivement le Skewness et le Kurtosis, définis par les équations
(1.6) et (1.7). Sous l’hypothèse de Normalité, la statistique de Jarque-Bera suit une loi du
χ2 (2). En général, RATS renvoie la P-value issue du test. La procédure @kernel s’utilise
de la manière suivante :
@kernel(kernel=gaussian,ngraph,style=dots,gridsize=128) $
resids 101 1100 xr yr
On rappelle également que les tests sur le Skewness et sur le Kurtosis renvoyés par
l’instruction statistics permettent de se faire une idée sur l’adéquation de la loi des
résidus à la loi Normale. En particulier, les P-values issues du test de nullité du skweness
et de la Kurtosis sont renvoyées.
Si plusieurs modèles passent avec succès l’étape de la validation, un arbitrage doit être
effectué pour retenir le modèle que l’on utilisera en prévision. Pour cela, on peut, par
exemple, comparer les critères d’information fournis par chacun des modèles et retenir le
modèle pour lequel le critère d’information AIC est minimum. Le calcul du critère AIC
se fait de la manière suivante :
5.2.4 Prévision
Une fois que l’on a spécifié et estimé un processus ARIMA, qui a passé avec succès les
tests de validation, on désire l’utiliser pour effectuer des prévisions sur la série. On dispose
donc des données X1 , . . . , XT , et on désire prédire la valeur de la série à l’horizon h, avec
h > 0, à savoir XT +h . On note alors X̂T (h) le prédicteur pour l’horizon h. Il est connu
que le prédicteur linéaire qui minimise l’erreur quadratique moyenne à l’horizon h = 1,
définie par E(X̂T (1) − XT +1 )2 , est l’espérance conditionelle de XT +1 , sachant le passé de
la série, donné par :
X̂T (1) = E(XT +1 |Xs , s ≤ T ). (5.14)
Dans le cas d’un processus ARMA défini par l’équation (2.1), ce prédicteur est donné par
l’égalité suivante :
X̂T (1) = φ1 XT + . . . + φp XT −p+1 + θ1 εˆT + . . . + θq ε̂T −q . (5.15)
Lorsque l’horizon h est strictement supérieur à 1, on réitére l’opération en remplaçant les
valeurs inconnues de la série par les valeurs prédites aux pas précédents, et en remplaçant
les valeurs inconnues des résidus par leur moyenne conditionelle, à savoir zéro.
Avec RATS, la prévision se fait à l’aide de l’instruction boxjenk, qui permet de spécifier
une équation, puis à l’aide de l’instruction forecast, qui prend comme argument cette
dernière équation et le nombre de pas de prédiction. De plus, les intervalles de confiance
des prévisions se calculent à l’aide de l’instruction errors, qui permet de calculer les
valeurs de l’écart-type du prédicteur.
Par exemple, on construit les prévisions à l’horizon h = 20, et un intervalle de confiance
à 95% pour la série simulée xar2 (voir Figure 2.5), de la manière suivante :
5.3. UN EXEMPLE D’APPLICATION 51
Il est à souligner que la prédiction se fait sans tenir compte de la variabilité induite par
l’estimation des paramètres. On suppose en effet que les valeurs estimées sont les vraies
valeurs des paramètres. De plus, on notera que les prédictions effectuées par l’instruction
forecast sont calculées de manière récursive.
Figure 5.6: Evolution de la série mensuelle busban.cts, du mois de janvier 1984 au mois
de décembre 1995.
52 CHAPTER 5. MODÈLES ARMA
correlate(std=bse,number=50,partial=bpacf,noprint) $
bus 84:01 94:12 bacf
set bic1 = 1.96*bse
set bic2 = -1.96*bse
sta(noprint) bus 84:01 94:12
set bpic1 = 1.96/sqrt(%nobs)
set bpic2 = -1.96/sqrt(%nobs)
spgraph(vfields=2,header=’Serie : bus’)
graph(style=bar,overlay=line,ovcount=2,omax=1,omin=-1, $
max=1,min=-1,number=1,header=’ACF’) 3
# bacf 2 50
# bic1 2 50
# bic2 2 50
graph(style=bar,overlay=line,ovcount=2,omax=1,omin=-1, $
max=1, min=-1,number=1,header=’PACF’) 3
# bpacf 2 50
# bpic1 2 50
# bpic2 2 50
spgraph(done)
ARIMA égal à 1.
La série différenciée est représentée sur le graphe en haut à gauche de la Figure 2.8. On
observe qu’il existe toujours une saisonnalité que l’on fait disparaître, dans un second
temps, à l’aide du filtre saisonnier (I − B 12 ).
La série résultante que l’on obtient, notée dd12busbanc, est représentée sur le graphe en
haut à droite de la Figure 2.8. Cette série résultante que l’on note (Yt )t est donc la série
telle que, pour tout t = 14, . . . , T , :
Yt = (I − B)(I − B 12 )Xt
= Xt − Xt−1 − Xt−12 + Xt−13 .
graph(header=’dd12busc’)
# dd12busc
graph(style=bar,overlay=line,ovcount=2,omax=1,omin=-1, $
max=1, min=-1,number=1,header=’PACF’,subheader=’dd12busc’) 3
# dd12pacf 2 50
# dd12pic1 2 50
# dd12pic2 2 50
spgraph(done)
On observe que l’ACF est en dehors de l’intervalle de confiance à 95% pour les retards 1,
11, 12 et 13. Ceci nous porte à supposer que le modèle devra comporter une partie MA(1)
non saisonnière et une partie MA(1) saisonnière, de période 12. En ce qui concerne la
PACF, on observe que les valeurs sont en dehors de l’intervalle de confiance à 95% pour les
retards 1, 2, 10, 11 et 12. Donc on peut penser que le modèle comportera également une
partie AR(2) non saisonnière et une partie AR(1) saisonnière. Ainsi, en tenant compte
de ces informations, on retient plusieurs modèles possibles auxquels nous feront passer les
différents tests de validation.
box(noconstant,ar=0,diffs=1,ma=1,sar=0,sdiffs=1,sma=1,span=12, $
define=buseq) busc 85:02 94:12 resbus
Figure 5.8: Evolution de la série dbusc (haut gauche) et de la série dd12busc (haut droite)
et représentation de l’ACF de dd12busc (bas gauche) et sa PACF (bas droite).
5.3. UN EXEMPLE D’APPLICATION 55
Dans un second temps on s’intéresse aux résidus du modèle. Tout d’abors, la statistique
de Ljung-Box calculée par le logiciel possède une probabilité critique supérieure à 0.05.
Ce test permet d’accepter, au risque α = 0.05, l’hypothèse de blancheur des résidus. Ex-
aminons dans un second temps l’ACF et la PACF des résidus.
corr(stderrs=rse,number=25,partial=rpacf,qstats,span=1) $
resbus 85:02 94:12 racf
set ric1 = 1.96*rse
set ric2 = -1.96*rse
set rpic1 1 25 = 1.96/sqrt(%nobs)
set rpic2 1 25 = -1.96/sqrt(%nobs)
spgraph(vfields=2,hfields=2,header=’Serie : resbus’)
graph
# resbus
Figure 5.9: Graphiques de diagnostic sur la série des résidus, notée resbus.
56 CHAPTER 5. MODÈLES ARMA
Figure 5.10: Prévisions mensuelles de la série bus pour l’année 1995 et intervalle de
confiance à 95%.
graph(style=bar,overlay=line,ovcount=2,omax=1,omin=-1, $
max=1,min=-1,number=1,header=’ACF’) 3
# racf 2 25
# ric1 2 25
# ric2 2 25
graph(style=bar,overlay=line,ovcount=2,omax=1,omin=-1, $
max=1, min=-1,number=1,header=’PACF’) 3
# rpacf 2 25
# rpic1 2 25
# rpic2 2 25
spgraph(done)
5.3.0.5 Prédiction
La prédiction du processus SARIMA, sur un horizon de 12 mois, se fait à l’aide de la
manière suivante :
forecast 1 12 95:01
# buseq buscprev
sta(noprint) ban 84:01 94:12
set busprev = buscprev+%mean
Si on suppose que le prédicteur suit une loi Normale, on peut alors construire un intervalle
de confiance pour ce prédicteur. On désire alors tracer simultanément la série réelle, la
série prévue et son intervalle de confiance au risque α = 0.05.
errors 1 12
# buseq buspreverr 95:01
5.4. ANALYSE D’INTERVENTION 57
Les prévisions obtenues sont présentées sur la Figure 2.5. Les résultats semblent être assez
bons, car les prédictions se trouvent toutes à l’intérieur de l’intervalle de confiance à 95%.
On note (Xt )t∈Z la suite de variables aléatoires à modéliser, perturbée par une intervention
extérieure. Le modèle d’intervention proposé par Box et Tiao (1975) se présente alors ous
la forme suivante :
ω(B)bb
Xt = C + ξt + Nt , (5.16)
δ(B)
où (Nt )t∈Z est supposé suivre un processus SARIMA défini par la Définition 2.3, où ω(z)
est un polynôme de degré l tel que : ω(z) = ω0 + ω1 z + . . . + ωl B l , où δ(z) est un polynôme
de degré r tel que : δ(z) = 1 − δ1 z − . . . − δr B r et b est un entier qui représente un retard
à determiner.
(t0 ) (t0 )
On remarque cependant que grâce à l’égalité suivante : (I − B)St = Pt , on peut
toujours passer d’un saut à une impulsion.
Plus généralement, la série chronologique peut être perturbée par k interventions de na-
tures différentes. Avec les notations précédentes, le modèle d’intervention (2.16) a alors
une représentation plus générale donnée par :
k
X ωj (B)bbj (Tj )
Xt = C + ξt + Nt , (5.19)
j=1
δj (B)
Ainsi, le modèle que l’on obtient est donné par l’équation suivante :
(I − 0.4947B)(I − 0.4195B 12 )
Xt = 1552 − 65.036Pt8701 + εt (5.20)
(I − B)(I − B 12 )
On constate donc que cette grève des agents a entraîné une perte d’environ 65036 passagers
en moyenne par jour ouvrable du mois de janvier 1987. La valeur du paramètre ω0
est significativement non nulle, au risque α = 0.05. De plus, on amélioré la qualité
d’ajustement du modèle aux données, car si on compare l’écart-type des résidus avec
l’écart-type des résidus obtenus par le SARIMA, on constate que l’on passe de 24.91 à
23.66. De même, si on s’intéresse aux prévisions sur un horizon de 12 mois, on compare
alors la capacité prédictive à l’aide du critère de la moyenne des erreurs relatives de
prévision (MER), défini par :
h
1 X (Xt+l − X̂t (l))
M ER = , (5.21)
h l=1 Xt+l
où h est l’horizon de prévision et X̂t (l) est la valeur prédite de Xt+l . Le modèle d’analyse
d’intervention fournit un MER égal à -0.6718, alors que le modèle SARIMA fournit
un MER égal à -0.7275. Ainsi, le modèle d’analyse d’intervention permet également
d’améliorer la qualité des prévisions. Un autre exemple d’application, pour lequel le gain
en qualité d’ajustement et en qualité de prévision est substantiel, se trouve dans l’article
de Ferrara et Guégan (2000a).
On retiendra que la méthode d’analyse d’intervention est un outil fort intéressant pour un
praticien, car elle permet de mesurer de manière fiable l’impact d’un événement extérieur
sur une série.
Figure 6.1: IPI en niveau et taux de croissance mensuel
Chapter 6
Tests
> module(finmetrics)
On suppose que l’on observe la trajectoire suivante (X1 , . . . , XT ). Les tests présentés
ci-dessus constituent l’analyse préalable à toute tentative de modélisation, mais servent
également au diagnostic du modèle (étape de validation). Dans ce dernier cas, les tests
seront appliqués sur la série des résidus.
Dans les exemples présentés ci-dessous, on choisit de tester la série de l’indice de la pro-
duction industrielle (hors construction et énergie) dans la zone euro de janvier 1990 à
octobre 2008 ipi ou la série du taux de croissance mensuel de l’IPI dipi (voir graphique
ci-dessous).
61
62 CHAPTER 6. TESTS
l’aide de la fonction uniroot(.) en jouant sur l’option method, le test par défaut étant
celui de Dickey et Fuller.
p
X
∆Xt = C + δt + ρXt−1 + ai ∆Xt−i + ut , (6.1)
i=1
où C est une constante et (ut )t est un bruit blanc faible. La constante C et la tendance
linéaire δt peuvent être inclues ou non dans la régression, donnant ainsi trois types de
test possibles. L’hypothèse
p nulle H0 : ρ = 0 est ainsi testée à l’aide de la statistique de
Student suivante : ρ̂/ V ar(ρ̂). Les valeurs critiques usuelles ne sont pas valides dans ce
type ce test. Les valeurs critiques à utiliser dans chacun des trois cas possibles ont été
tabulées par Dickey et Fuller.
La commande suivante permet d’effectuer le test ADF sur la série en niveau en utilisant
le nombre de retards par défaut :
> unitroot(ipi)
Coefficients:
lag1 lag2 lag3 lag4 lag5 lag6 lag7 lag8 constant
-0.0066 -0.4586 -0.0341 0.2950 0.2376 0.2147 0.1943 0.1296 0.6560
Coefficients:
lag1
0.0012
Coefficients:
lag1
-1.3072
où les poids sont en général donnés par l’égalité suivante (voir Newey and West (1994)):
j
ω(j, l) = 1 − . (6.4)
l+1
Les valeurs critiques à utiliser ont été tabulées par Phillips et Perron.
La commande suivante permet d’effectuer le test PP :
> unitroot(ipi,method="pp")
Coefficients:
lag1 constant
-0.0023 0.3292
Remarque 6.1 Il est à souligner que ces tests de stationnarité sont peu puissants en
particulier contre l’alternative de stationnarité avec longue mémoire. En effet, dans le
cas d’une forte persistence dans une série stationnaire, les tests de racine unitaire auront
tendance a rejeter à tort la stationnarité. Ce résultat aura donc tendance à entraîner une
sur-différenciation de la série (on différencie une série déjà stationnaire), donc une perte
d’information dommageable pour le modélisateur.
Cette statistique QLB est également distribuée selon une loi de Chi-2 à (K) degrés de
liberté sous H0 .
66 CHAPTER 6. TESTS
Dans FinMetrics, l’instruction autocorTest() permet de mettre en place ces deux tests.
L’option par défaut method="lb" permet d’utiliser la statistique de Ljung-Box et l’option
method="bp" permet d’utiliser la statistique de Box-Pierce. L’option lag.n permet de
choisir l’entier K. Le choix de K n’est pas automatique. En pratique, on fait varier K et
on observe les changements dans la P-value ou la valeur de la statistique.
Le test de Ljung-Box sur la série du taux de croissance de l’IPI est réalisé à l’aide de
l’instruction autocorTest(), de la manière suivante :
> autocorTest(dipi,lag.n=1)
Test Statistics:
Remarque 6.2 Lorsqu’on cherche à tester la blancheur de résidus (εt )t issus d’un pro-
cessus ARMA(p, q), le nombre de degré de liberté des tests est égal à (K − p − q). A noter
que ces tests de blancheur de type Portmanteau sont à utiliser avec prudence car ils sont
connus pour leur faible puissance.
Ainsi, si l’on désire tester la Normalité du taux de croissance de l’IPI on effectue la com-
mande suivante :
> normalTest(dipi,method="jb")
Test Statistics:
FL ∼ T R2 , (6.7)
Pour tester la présence d’effet ARCH dans la série du taux de croissance de l’IPI on ef-
fectue la commande suivante:
Test Statistics:
Bibliographie
• Adenstedt, R.K. (1974), "On large sample estimation for the mean of a stationary random se-
quence", Annals of Mathematical Statistics, 2, 1095-1107.
• Akaike, H. (1977), "On entropy maximisation principle", in Applications of Statistics, Edition
Krisnaiah, 27-41, North-Holland.
• Ansley, C.F. (1979), "An algorithm for the exact likelihood of a mixed autoregressive-moving
average process", Biometrika, 66, 59-65.
• Avouyi-Dovi, S., Guégan, D., Ladoucette, S. (2001), "Application des processus longue mémoire à
l’analyse des indices boursiers", NR GRID 01-12, Ecole Normale Supérieure de Cachan, France.
• Barkoulas, J.T. and Baum, C.F. (1997), "Fractional differencing modeling and forecasting of eu-
rocurrency", Journal of Financial Research, 20, 355-372.
• Baillie, R.T. (1996), "Long memory processes and fractional integration in econometrics", Journal
of Econometrics, 73, 5-59.
• Baillie, R.T. and Bollerslev T. (1989), "The message in daily exchange rates: a conditional variance
tale", Journal of Business and Economics Statistics, 7, 297-305.
• Baillie, R.T. and Bollerslev T. (1992), "Prediction in dynamics models with time-dependent con-
ditional variances", Journal of Econometrics, 52, 91-113.
• Baillie, R.T., Chung, C.-F. and Tieslau, M.A. (1996), "Analysing inflation by the fractionally
integrated ARFIMA-GARCH model", Journal of Applied Econometrics, 11, 23-40.
• Baillie, R.T., Bollerslev, T. and Mikkelsen, H.-O. (1996), "Fractionally integrated generalized
autoregressive conditional heteroskesdasticity", Journal of Econometrics, 73, 3-30.
• Becker, R.A., Chambers, J.M. and Wilks, A.R. (1988), The New S Language: A programming Envi-
ronment for Data Analysis and Graphics, Chapman and Hall, New York (anciennement Wadsworth
and Brooks/Cole).
• Beine, M., Bénassy-Quéré, A., and Lecourt, C. (1999), "Central Bank intervention and foreign
exchange rates: New evidence from FIGARCH estimations", CEPII Working Paper no 9914.
• Beran, J. (1994), Statistics for Long-Memory Processes, Chapman and Hall, London.
• Beran, J. and Ocker, D. (1999), "SEMIFAR forecasts, with applications to foreign exchanges rates"
, Journal of Statistical Planning and Inference, 80, 137-153.
69
70 CHAPTER 7. BIBLIOGRAPHIE
• Chow, K.V., Denning, K.C., Ferris, S. and Noronha, G. (1995), "Long-term and short-term price
memory in the stock market", Economics Letters, 49, 287-293.
• Cleveland, R.B, Cleveland, W.S., McRae, J.E. and Terpening, I. (1990), "STL: a seasonal-trend
decomposition procedure based on loess", Journal of Official Statistics, 6, 3-73.
• Collet, J. et Guégan, D. (2002), "Forecasting with non Gaussian long memory processes", NR
GRID 02-02, Ecole Normale Supérieure de Cachan, France.
• Crato, N. and de Lima, P.J.F. (1994), "Long-range dependence in the conditional variance of stocks
returns", Economics Letters, 45, 281-285.
• Dahlhaus, R. (1989), "Efficient parameter estimation for self-similar processes", Annals of Statis-
tics, 17, 1749-1766.
• Davies, R.B. and Harte, D.S. (1987), "Tests for Hurst effect", Biometrika, 74, 95-101.
• Delgado, M.A. and Robinson, P.M. (1994), "New methods for the analysis of long-memory time
series: application to spanish inflation", Journal of Forecasting, 13, 97-107.
• Dennis, J.E., Gay, D.M. and Welsh, R.E. (1980), "An adaptative nonlinear least-squares algo-
rithm", ACM Transaction Mathematical Software, 7, 348-383.
• Dickey, D.A. and Fuller, W.A. (1979), "Distribution of the estimators for autoregressive time series
with a unit root", Journal of the American Statistical Association, 74, 427-431.
• Dickey, D.A. and Fuller, W.A. (1981), "Likelihood ratio statistics for autoregressive time series
with a unit root" Econometrica, 49, 1057-1072.
• Diebold, F.X. and Rudebusch, G.D. (1989), "Long memory and persistence in aggregate output",
Journal of Monetary Economics, 24, 189-209.
• Diebolt, J. et Guégan, D. (1991), "Le modèle de séries chronologiques β-ARCH", CRAS, Série I,
312, 625-630.
• Diebolt, J. and Guégan, D. (1993), "Tail beahaviour of the stationary density of general non linear
autoregressive processes of order 1", Journal of Applied Probability, 30, 315-329.
• Ding, Z., Granger, C.W.J. and Engle, R.F. (1993), "A long memory property of stock market and
a new model", Journal of Empirical Finance, 1, 83-106.
• Enders, W. (1995), Applied Econometric Time Series, Wiley, New York.
• Engle, R.F. (1982), "Autoregressive conditional heteroscedasticity with estimates of the variance
of the United Kingdom inflation", Econometrica, 50, 987-1007.
• Engle, R.F. (2002), Dynamic conditional correlation - A simple class of multivariate GARCH
models, Journal of Business And Economic Statistics, 20, 3, 339-350.
• Engle, R.F. (2004), Risk and volatility: Econometric models and financial practice, American
Economic Review, 94, 3, 405-420.
• Engle, R.F. and Bollerslev, T. (1986), "Modelling the persistence of conditional variances", Econo-
metric Review, 5, 1-50.
• Engle, R.F, Lilien, D.F. and Robins, R.P. (1987), "Estimating time varying risk premia in the term
structure. The ARCH-M model", Economica, 55, 391-407.
• Everitt, B. (1994), A Handbook of Statistical Analyses Using S-Plus, Chapman and Hall, London.
72 CHAPTER 7. BIBLIOGRAPHIE
• Guégan, D. (2001), "A prospective study of the k-factor Gegenbauer processes with heteroscedastic
errors and an application to inflation rate", NR GRID 01-13, Ecole Normale Supérieure de Cachan,
France.
• Guégan D. et Diebolt, J. (1994), "Probabilistic properties of the β-ARCH model", Statistica Sinica,
4, 71-87.
• Haerdle, W. (1991), Smoothing Techniques with Implementation in S, Springer-Verlag, New York.
• Hamilton, J.D. (1989), "A new approach to the economic analysis of nonstationary time series
subject to changes in regime", Econometrica, 57, 357-384.
• Hamilton, J.D. (1994), Time Series Analysis, Princeton University Press.
• Harvey, A.C. (1981), Time Series Models, Wiley, New York.
• Hassler, U. and Wolters, J. (1995), "Long memory in inflation rates: international evidence",
Journal of Business and Economic Statistics, 13, 37-46.
• Hasslet, J. and Raftery, A.E (1989), "Space time modeling with long memory dependence: assessing
Ireland’s wind power ressource", Applied Statistics, 38, 1-50.
• Hauser, M.A. and Reschenhofer, E. (1995), "Estimation of the fractionally differencing parameter
with the R/S method", Computational Statistics and Data Analysis, 20, 569-579.
• Hosking, J.R.M. (1981), "Fractional differencing", Biometrika, 68, 165-176.
• Hosking, J.R.M. (1984), "Modeling persistence in hydrological time series using fractional differ-
encing", Water Resources Research, 20, 1898-1908.
• Hosking, J.R.M. (1996), "Asymptotic distribution of the sample mean, autocovariances, and au-
tocorrelations of long-memory time series", Journal of Econometrics, 73, 261-284.
• Hurst, H.E. (1951), "Long-term storage capacity of reservoirs", Transactions of the American
Society of Civils Engineers, 116, 770-799.
• Hurvich, C.M. and Beltrao, K.I (1993), "Asymptotics for the low-frequencies ordinates of the
periodogram of a long-memory time series", Journal of Time Series Analysis, 14, 455-472.
• Hurvich, C.M. and Beltrao, K.I (1994), "Automatic semiparametric estimation of the memory
parameter of a long-memory time series", Journal of Time Series Analysis, 15, 285-302.
• Hurvich, C.M., Deo, R., and Brodsky, J. (1998), "The mean-squared error of Geweke and Porter-
Hudak’s estimates of the memory parameter of a long memory time series", Jornal of Time Series
Analysis, 19, 19-46.
• Hurvich, C.M. and Deo, R. (1999), "Plug-in selection of the number of frequencies in regression es-
timates of the memory parameter of a long-memory time series ", Journal of Time Series Analysis,
20, 331-341.
• Jarque, C. and Bera, A. (1987), A test for Normality of observations and regression residuals,
International Statistical Review, 55, 163-172.
• Krause, A. and Olson, M. (2000), The Basics of S and S-Plus, Second Edition, Springer-Verlag,
New York.
• Lam, L. (2001), An Introduction to S-Plus for Windows, Second Edition, Candiensten, Amsterdam.
• Laroque, G. (1977), "Analyse d’une méthode de désaisonnalisation: le programme X11, version
trimestrielle", Annales de l’INSEE, 28, 105-126.
74 CHAPTER 7. BIBLIOGRAPHIE
• Ljung, G. and Box, G. (1978), "On a measure of lack of fit in time series models", Biometrika, 65,
297-303.
• Lo, A.W. (1991), "Long term memory in stock market prices", Econometrica, 59, 1279-1313.
• Mandelbrot, B.B. (1972), "A statistical methodology for non-periodic cycles: From the covariance
to R/S analysis", Annals of Economic and Social Measurement, 1, 259-290.
• Mandelbrot, B.B. (1975), "Limits theorems on the self-normaized range for weakly and strongly
dependent processes", Zeitschrift fur Wahrscheinlichkeitstheorie und Vewandte Gebiete, 31, 271-
285.
• Mandelbrot, B.B. and Wallis J.R. (1969), "Robustness of the rescaled range R/S in the measure-
ment of noncyclic long-run statistical dependence", Water Resources Research, 5, 967-988.
• Mandelbrot, B.B. and Taqqu, M.S. (1979), "Robust R/S analysis of long-run serial correlation",
Bulletin of the International Statistical Institute, 48, 69-99.
• Mathsoft (1996), S+GARCH User’s Manual, Data Analysis Products Division, Seattle, WA.
• Mathsoft (1999), S-PLUS 2000 User’s Guide, Data Analysis Products Division, Seattle, WA.
• Mathsoft (1999), S-PLUS 2000 Programmer’s Guide, Data Analysis Products Division, Seattle,
WA.
• Mathsoft (1999), S-PLUS 2000 Guide to Statistics, Vol. 1 and Vol. 2, Data Analysis Products
Division, Seattle, WA.
• Nelson, D.B. (1990), "Stationary and persistence in the GARCH(1,1) model", Econometric Theory,
6, 318-334.
• Nelson, D.B. (1991), "Conditional heteroskedasticity in asset returns: A new approach", Econo-
metrica, 59, 347-370.
• Phillips, P.C.B. (1987), "Time series regression with a unit root", Econometrica, 55, 277-301.
• Phillips, P.C.B. and Perron, P. (1988), "Testing for a unit root in time series regression", Biometrika,
75, 335-346.
• Porter-Hudak, S. (1990), "An application to the seasonal fractionally differenced model to the
monetary aggregates", Journal of the American Statistical Association, 85, 338-344.
• Priestley, M.B. (1981), Spectral Analysis of Time Series, Academic Press, New York.
• Ray, B.K. (1993a), "Modelling long-memory processes for optimal long-range prediction", Journal
of Time Series Analysis, 14, 511-526.
• Ray, B.K. (1993b), "Long-range forecasting of IBM product revenues using a seasonal fractionally
differenced ARMA model", International Journal of Forecasting, 9, 255-269.
• Robinson, P.M. (1994), "Semiparametric analysis of long memory time series", Annals of Statistics,
22, 515-539.
• Robinson, P.M. (1995), "Log-periodogram regression of time series with long range dependence",
Annals of Statistics, 23, 1048-1072.
• Shiskin, J., Young, A. and Musgrave, J. (1965), "The X11 variant of the Census method X11
seasonal adjustment program", Technical paper 15, Bureau of Census.
• Smith, J. (1993), "Long range dependence and global warming", in Statistics of the Environment,
141-161, V. Barnett and K. Feridun Turkman eds., Wiley, New York.
75