2003 - Les Séries Temporelles - Cours
2003 - Les Séries Temporelles - Cours
2003 - Les Séries Temporelles - Cours
1
Table des matières
Introduction.................................................................................................................................3
2. Définitions & Explications......................................................................................................4
2.1 Qu’appelle-t-on série temporelle ?....................................................................................4
2.2 Quels sont les buts de cette analyse ?............................................................................... 5
2.2.1 Prévoir........................................................................................................................5
2.2.2 Relier les variables..................................................................................................... 5
2.2.3 Déterminer la causalité...............................................................................................6
2.2.4 Etudier des anticipations des agents...........................................................................6
2.2.5 Repérer les tendances et cycles.................................................................................. 6
2.2.6 Corriger des variations saisonnières.......................................................................... 6
2.2.7 Détecter les chocs structurels..................................................................................... 7
2.2.8 Contrôler les processus.............................................................................................. 7
2.3 En quoi cette démarche consiste-t-elle ?...........................................................................7
2.3.1 But..............................................................................................................................7
2.3.2 Approche....................................................................................................................8
2.3.3 Résultat.......................................................................................................................8
3. Concepts mathématiques pour aborder les séries temporelles..............................................11
3.1 Variables aléatoires......................................................................................................... 11
3.2 Processus stochastiques...................................................................................................11
3.3 Stationnarité.................................................................................................................... 12
3.4 Quelques processus courant............................................................................................ 13
4. Les méthodes courantes........................................................................................................ 14
4.1 Extrapolation déterministe des séries..............................................................................14
4.1.1 Tendances Linéaires.................................................................................................14
4.1.2 Tendances autorégressives....................................................................................... 15
4.2 Moyennes Mobiles..........................................................................................................15
4.3 Lissage............................................................................................................................ 16
4.3.1 Moyennes mobiles................................................................................................... 16
4.3.2 Lissage exponentiel..................................................................................................17
4.4 Ajustements saisonniers..................................................................................................18
4.5 Les équations de Yule-Walker........................................................................................ 18
5 Les Algorithmes.....................................................................................................................19
5.1 Présentation générale des modèles usuels.......................................................................19
5.2 Fonctionnement de l’algorithme intégré dans SQL Server 2005....................................19
5.2.1 Autorégression......................................................................................................... 20
5.2.2 Arbre d’autorégression.............................................................................................21
5.2.3 Saisonnalité.............................................................................................................. 22
5.3 Fonctionnement de la méthode ARIMA.........................................................................22
5.3.1 Définitions................................................................................................................23
5.3.2 Typologie du modèle............................................................................................... 23
5.3.2 Analyse du modèle...................................................................................................23
5.3.3 Signification des paramètres des modèles ARIMA................................................. 27
5.3.4 Les différentes étapes...............................................................................................28
5.3.5 Conclusion............................................................................................................... 31
6 Conclusion : l’intérêt des séries temporelles..........................................................................33
Bibliographie.............................................................................................................................34
2
Introduction
Les séries temporelles constituent une branche de l’économétrie dont l'objet est l'étude des
variables au cours du temps. Parmi ses principaux objectifs figurent la détermination de
tendances au sein de ces séries ainsi que la stabilité des valeurs (et de leur variation) au cours
du temps. On distingue notamment les modèles linéaires (principalement AR et MA, pour
Auto-Regressive et Moving Average) des modèles conditionnels (notamment ARCH, pour
Auto-Regressive Conditional Heteroskedasticity).
Afin de pouvoir bien appréhender les séries temporelles, l’article débutera par une
approche assez générale (Partie2 Définitions&Explications), puis s’attardera sur les notions
mathématiques indispensables à la compréhension de celles-ci (Partie3 Concepts
Mathématiques pour aborder les séries temporelles). On s’intéressera ensuite aux méthodes
courantes (Partie4 Quelques méthodes courantes), pour poursuivre par la présentation de
quelques modèles (Partie5 Les Algorithmes), et terminer sur une conclusion.
3
2. Définitions & Explications
Une série temporelle est donc toute suite d’observations correspondant à la m^me
variable : il peut s’agir de données macroéconomiques (le PIB d’un pays, l’inflation, les
exportations…), microéconomiques (les ventes d’une entreprise donnée, son nombre
d’employés, le revenu d’un individu, le nombre d’enfants d’une femme…), financières (le
CAC40, le prix d’une option d’achat ou de vente, le cours d’une action), météorologiques (la
pluviosité, le nombre de jours de soleil par an…), politiques (le nombre de votants, de voix
reçues par un candidat…), démographiques (la taille moyenne des habitants, leur âge…). En
pratique, tout ce qui est chiffrable et varie en fonction du temps. La dimension temporelle est
ici importante car il s’agit de l’analyse d’une chronique historique : des variations d’une
même variable au cours du temps, afin de pouvoir comprendre la dynamique. La périodicité
de la série n’importe en revanche pas : il peut s’agir de mesures quotidiennes, mensuelles,
trimestrielles, annuelles… voire même sans périodicité.
4
On représente en général les séries temporelles sur des graphiques de valeurs
(ordonnées) en fonction du temps (abscisses). Lorsqu’une série est stable autour de sa
moyenne, on parle de série stationnaire. Inversement, on trouve aussi des séries non
stationnaires. Lorsqu’une série croît sur l’ensemble de l’échantillon et donc possède une
moyenne qui n’est pas constante, on parle de tendance. Enfin lorsqu’on observe des
phénomènes qui se reproduisent à des périodes régulières, on parle de phénomène
saisonnier.
Parmi les multiples applications de l’analyse des séries temporelles, il est possible d’en
distinguer neuf principales.
2.2.1 Prévoir
Il s’agit ici de créer des liens entre des variables, afin d’établir des comparaisons ainsi
que des corrélations. Ainsi, on va pouvoir écarter certaines relations qui ne présentent aucun
5
sens avec la série, ou au contraire associer d’autres relations qui interagissent avec la série
observée.
Pour qu’un mouvement un provoque un autre, il est nécessaire qu’il le précède. Ainsi
deux évènements similaires révèlent l’existence probable d’une source commune.
L’utilisation de retards d’une variable, va permettre a partir des valeurs aux périodes
précédentes de deviner la durée de transmission entre une source et son effet.
L’idée que l’on se fait de l’avenir peut intervenir dans certaines équations. Il faut donc
dans certaines équations faire intervenir des valeurs avancées des variables, en utilisant la
manière dont elles ont été formées dans le passé.
Grâce aux tendances et aux cycles, il est ainsi possible d’analyser les interactions
entres diverses variables, afin d’atteindre un équilibre.
6
2.2.7 Détecter les chocs structurels
Il est indispensable de dresser une carte des variables ayant une forte influence sur les
reste de l’économie, afin d’anticiper les évolutions possibles.
2.3.1 But
Le but poursuivi est la formulation d’un modèle statistique qui soit une représentation
congruente du processus stochastique (inconnu) qui a généré la série observée ? Tout comme
un probabilités/statistiques, il faut bien comprendre la différence entre le processus qui génère
des données, sa réalisation telle qu’on l’observe sur les échantillons historiques à notre
disposition, les futures réalisations et le modèle qu’on construit afin de tâcher de le
représenter. Par représentation congruente, on entend un modèle qui soit conforme aux
données sous tous les angles mesurables et testables.
7
2.3.2 Approche
f(yt|Yt-1)
Conditionnée sur l’historique du processus : Yt-1 = (yt-1, yt-2,…,y0). Il s’agit donc d’exprimer yt
en fonction de son passé.
2.3.3 Résultat
yt = E[yt|Yt-1] + εt
Où E[yt|Yt-1] est la composante de yt qui peut donner lieu à une prévision, quand
l’historique du processus, Yt-1 est connu.
8
Exemple (Modèles de séries temporelles)
1. Processus autorégressifs d’ordre 1, AR(1) :
yt = ayt-1 + εt
εt ~ WN(0,σ2) (bruit blanc)
La valeur yt ne dépend que de son prédécesseur. Ses propriétés sont fonctions de α qui
est un facteur d’inertie :
2. Séries multivariées :
yt = Ayt-1 + εt
εt ~ WN(0,∑)
9
10
3. Concepts mathématiques pour
aborder les séries temporelles
Soit (Ω,M,P) un espace de probabilité, où Ω est l’espace des évènements, M est une
tribu adaptée à Ω (c’est l’ensemble qui contient les combinaisons possibles d’évènements) et
P est une mesure de probabilité définie sur M.
Définition Une variable aléatoire réelle (v.a.r) est une fonction à valeurs réelles y : Ω→R
telle que pour tout réel c, Ac = {ωЄΩ|y(ω)≤c}ЄM.
y : T x Ω→R
Telle que pour tout tЄT donné, yt(.) soit une variable aléatoire.
11
En d’autres termes, un processus stochastique est une suite ordonnée de variables aléatoires
{yt(ω),ωЄΩ,tЄT}, telle que pour tout tЄT, yt soit une variable aléatoire sur Ω et que pour tout
ωЄΩ, yt(ω) soit une réalisation du processus stochastique sur l’ensemble d’indexation T.
Définition Une série temporelle {yt}t=1T est une réalisation d’un processus stochastique {yt}.
3.3 Stationnarité
Définition Le processus {yt} est dit stationnaire au sens faible, ou stationnaire au second
ordre si les premier (moyenne ou espérence mathématique) et second (variance et
autocovariances) moments du processus existent et sont indépendants de t.
La stationnarité est une propriété de stabilité, la distribution de yt est identique à celle de yt-1.
La série oscille autour de sa moyenne avec une variance constante. Le lien entre yt et yt-h ne
dépend alors que de l’intervalle h et non de la date t.
Définition Le processus {yt} est dit strictement ou fortement stationnaire si pour tous h1,…
,hn, la distribution jointe de (yt,yt+h,...,yt+hn) dépend uniquement des intervalles h1,…,hn et non
de t.
f(yt,yt+h1,…,yt+hn) = f(yT,yT+h1,…,yT+hn)
La stationnarité stricte implique que tous les moments soient indépendants du temps.
12
3.4 Quelques processus courant
Définition Un bruit blanc (white noise) est un processus stationnaire au sens faible de
moyenne zéro et qui est dynamiquement non corrélé.
ut ~ WN(0,σ2)
Ainsi {ut} est un bruit blanc si pour tout tЄT : E[ut] = 0, E[ut2] = σ2 < ∞, avec ut et ut-h
indépendants si h ≠ 0, t et (t-h)ЄT.
Définition Si un bruit blanc {ut} est distribué Normalement, on parle de bruit blanc
Gaussien :
ut ~ NID(0,σ2)
13
4. Les méthodes courantes
Les modèles sont dits déterministes lorsque leurs valeurs futures sont connues avec
certitude à tout instant. Elles ne font donc pas référence aux sources d’incertitudes des
processus stochastiques.
yt = a + bt
∆yt = yt – yt-1 = b
yT+h = a + b(T+h)
yt = Aert
14
4.1.2 Tendances autorégressives
yt = a + byt-1
Il existe deux types de moyenne mobile, l’un correspond au modèle MA qui sera
étudié plus loin et l’autre est davantage une méthode ad hoc permettant de donner une
estimation d’une série. On suppose alors que la variable sera proche de sa moyenne récente.
Une moyenne mobile est alors simplement une moyenne sur une fenêtre glissante
d’observations :
où k est librement fixé selon les besoins du modélisateur, pour une prévision, il est nécessaire
que k ≤ 0.
Mais il peut paraître peu réaliste que la prochaine valeur yT+1 puisse être proche d’une
simple moyenne des dernières observations. Si on souhaite accorder plus de poids aux
observations les plus récentes, on peut alors utiliser le modèle EWMA (Exponentially
Weighted Moving Average) selon lequel :
15
où α est compris entre 0 et 1 et indique l’importance accordée aux observations les plus
récentes. Si α = 1 :
Notons qu’il s’agit bien d’une moyenne puisque la somme des coefficients est unitaire :
Le modèle EWMA se prête mal aux variables présentant une tendance de fond à la
hausse ou à la baisse, car il va dans ces cas sous- ou sur-prédire. Il est en revanche possible de
l’appliquer à une série dont on a ôté la tendance.
Pour une prévision à horizon h > 1, il semble logique d’étendre
ce qui donne
4.3 Lissage
Les méthodes de lissage ont pour but de retirer ou de réduire les fluctuations
(cycliques ou non) de court terme des séries. Les deux méthodes les plus employées pour
lisser une série sont les moyennes mobiles et le lissage exponentiel.
Les moyennes mobiles présentées précédemment permettent aussi d’obtenir des séries
lissées : par exemple en utilisant une moyenne mobile d’ordre n données par :
16
Plus n est élevé, plus la série sera lissée. Le problème est de n’utiliser que les valeurs
passées et présentes. Pour y remédier, on peut faire appel à une moyenne mobile centrée :
Plus α est proche de zéro, plus la série est lissée. En pratique toutefois, on peut
souhaiter effectuer un lissage important mais sans donner trop de poids aux observations
lointaines. On applique pour ce faire un lissage exponentiel double pour obtenir :
17
Cette tendance est ajoutée lors du lissage afin d’éviter que le lissage exponentiel de y t
ne s’´eloigne trop des valeurs récentes de la série originale yt. Une prévision à horizon h peut
être obtenue en posant
Yt = L x S x C x I
λ1 = α1 + α2λ1 + … + αpλp-1
λ2 = α1λ1 + α2 + … + αpλp-2
λ1,…,λp …
λp = α1λp-1 + αp-2 + … + αp
18
5 Les Algorithmes
Voici une liste non exhaustive des modèles couramment utilisés dans les séries
temporelles :
L’algorithme est en fait une version hybride d’autorégression et des techniques des
arbres de décision.
19
5.2.1 Autorégression
Une des étapes clés de l’algorithme ART (Auto Regression Tree) est la transformation
des cases simples d’une série temporelle en plusieurs cases interne :
Dans l’ART, la méthode « Case Transform » utilise par défaut les 8 valeurs
précédentes. Le principal avantage de cette méthode c’est qu’elle regroupe dans une même
table toutes les séries temporelles utilisant le même modèle (ici typiquement le Lait et le Pain
sont les variables).
20
Ensuite, le but va être de trouver la fonction f, fonction linéaire possédant des
cœfficients d’autorégression, et établi comme dans les modèles précédents, en fonction de son
passé. Le processus va consister en un système d’équations linéaires, qui va être résolu grâce
aux équations de Yule-Walker. Cela va nous permettre de calculer les coefficients
d’autorégression, grâce à la matrice de covariance ainsi obtenue.
1 r1 r2 r3 r4 … rn-1 a1 r1
r1 1 r1 r2 r3 … rn-2 a2 r2
r2 r1 1 r1 r2 … rn-3 a3 r3
. . . . . . . .
= .
. . . . . . . . .
. . . . . . . . .
rn-1 rn-2 rn-3 rn-4 rn-5 … 1 an rn
Un autre avantage de l’ART, et qui n’est pas anodin, c’est qu’il reconnaît les séries
croisées. Ainsi il va pouvoir « Relier les variables », grâce aux concepts mathématiques et aux
méthodes courantes déjà cités.
All
Paint(t-2) Paint(t-2)
≤ 5000 > 5000
Lait(t-1) Lait(t-1)
≤ 6000 > 6000
21
Comme dans les arbres de décisions, il va falloir choisir par diverses méthodes le
nombre de nœud maximum possible, ainsi que la hauteur à ne pas dépasser. En descendant
ensuite dans cet arbre, on va ainsi atteindre la feuille la plus adaptée, qui va nous permettre
d’approcher la valeur recherchée. Après un calcul par une formule de régression, celle-ci sera
la valeur prédite que l’on remplacera dans la table.
5.2.3 Saisonnalité
Pour traiter ce phénomène dans l’ART, SQL Server 2005 va utiliser un paramètre de
saisonnalité appelé Periodicity_Hint. Ainsi, pendant l’étape « Case Transform »,
l’algorithme va ajouter des points de donnée basé sur ce paramètre (défini par l’utilisateur).
Par exemple, si la période de saisonnalité est de 12mois pour le Lait et le Pain, l’algorithme va
ajouter dans la table les valeurs Lait(t-8x12) … Lait(t-24), Lait(t-12), Pain(t-8x12) … Pain(t-
24), Lait(t-12).
Il existe deux catégories de modèles pour rendre compte d'une série temporelle. Les
premiers considèrent que les données sont une fonction du temps (y = f(t)). Cette catégorie
de modèle peut être ajustée par la méthode des moindres carrés, ou d'autres méthodes
itératives. L'analyse des modèles par transformée de Fourier est une version sophistiquée de
ce type de modèle.
Une seconde catégorie de modèles cherche à déterminer chaque valeur de la série
en fonction des valeurs qui la précède (yt = f(yt-1, yt-2, …)). C'est le cas des modèles
ARIMA ("Auto - Regressive – Integrated – Moving Average"). Cette catégorie de modèles a
été popularisée et formalisée par Box et Jenkins (1976).
22
5.3.1 Définitions
Les processus autorégressifs supposent que chaque point peut être prédit par la somme
pondérée d'un ensemble de points précédents, plus un terme aléatoire d'erreur.
Le processus d'intégration suppose que chaque point présente une différence constante
avec le
point précédent.
Les processus de moyenne mobile supposent que chaque point est fonction des erreurs
entachant les points précédant, plus sa propre erreur.
Un modèle ARIMA est étiqueté comme modèle ARIMA (p,d,q), dans lequel:
p est le nombre de termes auto-régressifs
d est le nombre de différences
q est le nombre de moyennes mobiles.
L'estimation des modèles ARIMA suppose que l'on travaille sur une série stationnaire.
Ceci signifie que la moyenne de la série est constante dans le temps, ainsi que la variance. La
meilleure méthode pour éliminer toute tendance est de différencier, c'est-à-dire de remplacer
la série originale par la série des différences adjacentes. Une série temporelle qui a besoin
d'être différenciée pour atteindre la stationnarité est considérée comme une version intégrée
d'une série stationnaire (d'où le terme Integrated).
La correction d'une non-stationnarité en termes de variance peut être réalisée par des
transformations de type logarithmique (si la variance croît avec le temps) ou à l'inverse
exponentielle. Ces transformations doivent être réalisées avant la différenciation. Une
différenciation d'ordre 1 suppose que la différence entre deux valeurs successives de y est
constante.
23
yt – yt-1 = μ + ε t
Les modèles d'ordre 2 travaillent non plus sur les différences brutes, mais sur les
différences de différence. La seconde différence de y au moment t est égale à (yt -yt-1) - (yt-1 -
yt-2), c'est-à dire à yt – 2yt-1 + yt-2.
Un modèle ARIMA(0,2,0) obéira à l’équation de prédiction suivante :
Les modèles autorégressifs supposent que yt est une fonction linéaire des valeurs
précédentes.
aléatoire, ε) et d'une combinaison linéaire des observations précédentes. φ1, φ2 et φ3 dans cette
équation sont les coefficients d'auto-régression
A noter que cette équation porte soit sur les données brutes, soit sur les données
différenciées si une différenciation a été nécessaire. Pour un modèle ARIMA(1,1,0) on aura :
Dans les autres cas, les effets passés s'accumuleraient et les valeurs successives des xt
se déplaceraient infiniment vers l'avant, ce qui signifie que la série ne serait pas stationnaire.
24
S'il y a plus d'un paramètre autorégressif, des restrictions similaires (générales) sur les valeurs
des paramètres peuvent être posées (par exemple, voir Box et Jenkins, 1976 ; Montgomery,
1990).
Les modèles à moyenne mobile suggèrent que la série présente des fluctuations autour
d'une valeur moyenne. On considère alors que la meilleure estimation est représentée par la
moyenne pondérée d'un certain nombre de valeurs antérieures (ce qui est le principe des
procédures de moyennes mobiles utilisées pour le lissage des données). Ceci revient en fait à
considérer que l’estimation est égale à la moyenne vraie, auquel on ajoute une somme
pondérée des erreurs ayant entaché les valeurs précédentes :
(choc aléatoire, ε) et d'une combinaison linéaire des erreurs aléatoires passées. θ1, θ2 et θ3 sont
les coefficients de moyenne mobile du modèle.
Comme précédemment cette équation porte soit sur les données brutes, soit sur les
données différenciées si une différenciation a été nécessaire. Pour un modèle ARIMA(0,1,1)
on aura :
yt – yt-1 = μ - θεt-1 + ε t
Ce qui peut également être écrit:
yt = μ + yt-1 - θεt-1 + ε t
Un modèle de moyenne mobile correspond à des séries avec des fluctuations aléatoires
autour d'une moyenne variant lentement. Plutôt que de prendre comme précédemment la
valeur précédente comme prédicateur, on utilise une moyenne de quelques observations
précédentes, de manière à éliminer le bruit, et estimer plus précisément la moyenne locale.
Cette logique correspond au lissage exponentiel simple, qui considère chaque
observation comme la résultante d'une constante (b) et d'un terme d'erreur ε, soit :
25
yt = b + εt.
La constante b est relativement stable sur chaque segment de la série, mais peut se
modifier lentement au cours du temps.
Si ce modèle est approprié, l'une des manières d'isoler la réelle valeur de b, et donc la
partie systématique ou prévisible de la série, consiste à calculer une sorte de moyenne mobile,
ou les observations courantes et immédiatement précédentes ("les plus récentes") ont une
pondération plus forte que les observations plus anciennes.
C'est exactement ce que fait un lissage exponentiel simple, où les pondérations les plus
faibles sont affectées exponentiellement aux observations les plus anciennes. La formule
spécifique de lissage exponentiel simple est :
yt = αŷt – (1-α) yt-1
Lorsqu'on l'applique de façon récurrente à chaque observation successive de la série,
chaque nouvelle valeur prédite est calculée comme la moyenne pondérée de l'observation
courante et de l'observation précédente prédite ; la précédente observation prédite était elle-
même calculée à partir de la valeur (précédente) observée et de la valeur prédite avant cette
valeur (précédente), et ainsi de suite.
Par conséquent, chaque valeur prédite est une moyenne pondérée des observations
précédentes, où les poids décroissent exponentiellement selon la valeur des paramètres α. Si α
est égal à 1 les observations précédentes sont complètement ignorées ;
si α est égal à 0, l'observation courante est totalement ignorée, et la valeur prédite ne
porte que sur les valeurs prédites précédentes (qui est calculée à partir de l'observation lissée
qui lui précède, et ainsi de suite ; c'est pourquoi toutes les valeurs prédites auront la même
valeur que la valeur initiale ŷ0). Les valeurs intermédiaires de α produiront des résultats
intermédiaires (noter que la valeur 1-α correspond au θ des équations précédentes).
On peut également envisager des modèles mixtes: par exemple un modèle ARIMA(1,1,1)
aura l'équation de prédiction suivante:
26
5.3.3 Signification des paramètres des modèles ARIMA
L'objectif essentiel des modèles ARIMA est de permettre une prédiction de l'évolution
future d'un phénomène. Son développement dans le domaine de l'économétrie est basé sur ce
principe.
Un autre intérêt, peut-être plus essentiel en ce qui concerne la recherche scientifique,
est de comprendre la signification théorique de ces différents processus.
Il est clair cependant que cette interprétation dépend de la nature du phénomène
étudié, et des modèles dont le chercheur dispose pour en rendre compte.
- Un processus non différencié à bruit blanc (ARIMA(0,0,0) suggère des fluctuations
aléatoires autour d'une valeur de référence. Cette valeur de référence peut être considérée
comme une caractéristique stable du système étudié (trait de personnalité, mémoire, capacité
stabilisée, etc..)
- Un processus de moyenne mobile suggère que la valeur de référence évolue d'une mesure à
l'autre. Plus précisément, la valeur de référence est fonction de la valeur de référence
précédente et de l'erreur ayant entaché la mesure précédente.
- Un processus autorégressif suggère que le phénomène étudié n'est pas déterminé par une
valeur de référence. C'est la performance précédente (ou les performances précédentes) qui
déterminent entièrement la performance présente.
Par exemple, Spray et Newell (1986) analysent des données tirées d'une
expérimentation portant sur le rôle de la connaissance des résultats dans l'apprentissage. Les
sujets réalisent 77 essais dans une tâche manuelle. Le protocole comprenait plusieurs groupes,
différenciés par des combinaisons spécifiques d'essais avec ou sans connaissance des
résultats. Notamment, certains sujets disposaient de connaissance des résultats tout au long
des 77 essais, pour d'autre la connaissance des résultats était supprimée au-delà de 17, 32 ou
52 essais. Un groupe n'avait pas du tout connaissance des résultats.
Les résultats de la modélisation montrent que les séries avec connaissance des résultats
(ou les portions de séries avec connaissance des résultats) peuvent être représentée par des
processus à bruit blanc du type:
yt = μ + εt
27
C'est-à-dire un modèle ARIMA (0,0,0). Cette équation suggère donc que les
performances successives oscillent de manière aléatoire autour d'une valeur moyenne, sorte de
référence interne construite par la connaissance des résultats.
Les séries sans connaissance des résultats (ou les portions de série sans connaissance
des résultats) sont quant à elles modélisées selon un ARIMA(0,1,1) selon la formule:
y t = μ -θ1ε(t-1) + ε t ou y t = rt + ε t
rt représentant la valeur de référence, qui cette fois change à chaque essai. On peut dériver du
modèle que :
rt = rt-1 -θ1ε(t-1)
C'est-à-dire que la référence est une combinaison de la référence précédente et de
l'erreur ayant entaché l'essai précédent. Ce modèle indique clairement que l'essai en cours est
influencé par l'essai précédent, ce qui n'était pas le cas dans les essais avec connaissance des
résultats.
Ce modèle peut également être écrit sous la forme d'une interpolation pondérée entre
la performance au temps t et la référence au temps t-1:
rt = -θ1yt + (1+θ1)rt-1
L'analyse des données de Diggles (1977) suggère que la référence précédente est plus
importante que la performance actuelle.
On peut noter que pour les sujets ayant bénéficié de la connaissance des résultats
durant 52 essais sur 77, la série demeure stationnaire et à bruit blanc jusqu'à la fin de
l'expérimentation.
28
Si l'auto-corrélation de décalage 1 est égale à 0 ou négative, la série n'a pas besoin
d'être différenciée. Si l'auto-corrélation de décalage 1 est inférieure à –0.5, la série est sur
différenciée.
L'ordre optimal de différenciation est souvent celui pour lequel l'écart-type est
minimal. Un accroissement de l'écart-type doit donc être considéré comme un symptôme de
sur différenciation.
Un troisième symptôme de sur-différenciation est un changement systématique de
signe d'une observation à l'autre.
Un modèle sans différenciation suppose que la série originale est stationnaire. Un
modèle avec une différenciation d'ordre 1 suppose que la série originale présente une
tendance constante. Un modèle avec une différenciation d'ordre 2 suppose que la série
originale présente une tendance variant dans le temps.
Les modèles ARIMA peuvent inclure une constante ou non (sans constante signifie
que la constante est égale à 0). L'interprétation d'une constante (significativité statistique)
dépend du modèle.
- Un modèle sans différenciation possède généralement une constante (qui représente dans
ce cas la moyenne de la série).
- Si la série est différenciée, la constante représente la moyenne ou l'ordonnée à l'origine de la
série différenciée ; par exemple, si la série est différenciée une fois, et qu'il n'y a pas de
paramètre autorégressif dans le modèle, la constante représentera la moyenne de la série
différenciée, et donc la pente du trend linéaire de la série non différenciée.
- Dans le cas des modèles avec un ordre de différenciation de 2, la constante représente la
tendance moyenne de la tendance.
Dans la mesure où en général on ne suppose pas l'existence de telles tendances, la
constante est généralement omise.
- S'il n'y a pas de paramètre autorégressif dans le modèle, l'espérance mathématique de la
constante est m, la moyenne de la série ;
- S'il y a des paramètres autorégressifs dans la série, la constante représente l'ordonnée à
l'origine.
A noter que la moyenne, dans les modèles ARIMA, renvoie à la moyenne des séries
différenciées, alors que la constante est un facteur qui apparaît dans la partie droite des
équations de prédiction. Moyenne et constante sont liées par l'équation suivante:
μ = moyenne x (1 - ΣAR(p))
29
La constante est égale à la moyenne, multipliée par 1 moins la somme des coefficients
des termes autorégressifs.
Après que la série ait été stationnarisée, l'étape suivante consiste à identifier les termes
AR et MA nécessaires pour corriger les auto- corrélations résiduelles. Cette analyse est basée
sur l'examen des fonctions d'auto-corrélation et d'auto-corrélation partielle. Rappelons que
l’auto corrélation est la corrélation d'une série avec elle-même, selon un décalage défini.
L'auto-corrélation de décalage 0 est par définition égale à 1. La fonction d'auto-
corrélation fait correspondre à chaque décalage l'auto-corrélation correspondante.
D'une manière générale, une corrélation partielle entre deux variables est la quantité de
corrélations qui n'est pas expliquée par les relations de ces variables avec un ensemble
spécifié d'autres variables. Supposons par exemple que l'on réalise la régression de Y sur trois
variables X1, X2 et X3. La corrélation partielle entre Y et X3 contrôlant X1 et X2 est la
quantité de corrélation entre Y et X3 qui n'est pas expliqué par leurs relations communes avec
X1et X2. Elle peut être calculée comme la racine carrée du gain de variance expliquée obtenu
en ajoutant X3 à la régression de Y sur X1 et X2.
Dans le cas des séries temporelles, la corrélation partielle de décalage k est la
corrélation entre yt et yt-k, contrôlant l'influence des k-1 valeurs interposées.
L'auto corrélation de décalage 1 est la corrélation entre yt et yt-1 . On suppose que c'est
également la corrélation entre yt-1 et yt-2 Si yt et yt-1 sont corrélés, et que yt-1 et yt-2 le sont
également, on peut supposer qu'une corrélation sera présente entre y et yt-2. C'est-à-dire que la
corrélation de décalage 1 se propage au décalage 2 et sans doute aux décalages d'ordre
supérieurs. Plus précisément, la corrélation attendue au décalage 2 est la carré de la
corrélation observée au décalage 1.
L'auto-corrélation partielle de décalage 2 est donc la différence entre l'auto-corrélation
de décalage 2 et la corrélation attendue due à la propagation de la corrélation de décalage 1.
Si l'on revient à la fonction d'auto-corrélation de l'exemple précédent (avant
différenciation), on peut supposer que la présence d'auto-corrélations fortes pour un grand
nombre de décalages successifs est lié à ce phénomène de propagation. Ceci est confirmé par
l'examen de la fonction d'auto-corrélation partielle, qui n'a qu'un valeur significative au
décalage 1 (notons que l'auto-corrélation partielle de décalage 1 est égale à l'auto-corrélation
correspondante, aucune valeur n'étant intercalée).
30
5.3.4.3.. Identification des termes MA.
5.3.5 Conclusion
Ces deux modèles peuvent ajuster de manière alternative la série de départ. Sachant
que les termes AR peuvent compenser une légère sous différenciation, et les termes MA une
légère sous-différenciation, il est courant que deux modèles alternatifs soient possibles: un
premier avec 0 ou 1 ordre de différenciation combiné avec des termes AR, et un autre avec le
niveau de différenciation supérieur, combiné à des termes MA. Le choix d'un ou l'autre
modèle peut reposer sur des présupposé théoriques liés au phénomène observé.
Les outils principaux utilisés lors de la phase d'identification sont donc les tracés de la
série, les corrélogrammes d'auto corrélation (FAC), et d'auto corrélation partielle (FACP). La
décision n'est pas simple et les cas les plus atypiques requièrent, outre l'expérience, de
nombreuses expérimentations avec des modèles différents (avec divers paramètres ARIMA).
Toutefois, les composantes des séries chronologiques empiriques peuvent souvent être
assez bien approchées en utilisant l'un des 5 modèles de base suivants, identifiables par la
forme de l'autocorrélogramme (FAC) et de l'autocorrélogramme partiel (FACP). Puisque le
31
nombre de paramètres (à estimer) de chaque type dépasse rarement 2, il est souvent judicieux
d'essayer des modèles alternatifs sur les mêmes données.
32
6 Conclusion : l’intérêt des séries
temporelles
De façon générale, il est d’usage de considérer l’intérêt des séries temporelles selon trois
perspectives : descriptive, explicative et prévisionnelle.
Description
• L’analyse temporelle permet de connaître la structure de la série de données étudiée ;
• Elle peut être utilisée pour comparer une série à d’autres séries (varicelle et oreillons, par
exemple) ;
Explication
• Les variations d’une série peuvent être expliquées par une autre série (exposition
météorologique, pollution atmosphérique, etc.) ;
• Il est possible de modéliser une intervention externe grâce à l’analyse de séries temporelles ;
• Ces analyses permettent de réaliser des scénarios pour la période contemporaine : en
agissant sur une variable explicative, il est possible d’observer le comportement de la variable
expliquée ;
Prévision
Dans le domaine environnemental, le grand avantage des études de séries temporelles est
d’analyser des données facilement accessibles en général car mesurées en routine (données de
mortalité en population, données d’hospitalisation, données d’exposition, etc.). D’autre part,
les analyses de séries temporelles, bénéficiant souvent de longues périodes de données, voient
leur puissance statistique être tout à fait honorable.
33
Bibliographie
Des données à la connaissance (Daniel T. Larose)
Datamining et scoring (StéphaneTufféry)
34