Hétéroscédasticité

Télécharger au format docx, pdf ou txt
Télécharger au format docx, pdf ou txt
Vous êtes sur la page 1sur 4

2: Les problèmes d’hétéroscédasticité

Il y a hétéroscédasticité lorsque la variance des variables aléatoires qui composent 𝜀𝑡 sont


différentes au cours du temps. Dans ce cas les estimateurs des MCO sont sans biais mais non
efficace (la variance n’est plus minimale) ce phénomène peut être expliqué par plusieurs raisons:

- la répétition d‘une même valeur de la variable à expliquer pour des valeurs différentes d’une
variable explicative.

- la présence des moyennes calculée sur des échantillons de taille différente.

- lorsque les erreurs sont liées aux valeurs prises par une variable explicative, dans un modèle en
coupe instantanée la variance de la consommation croit, par exemple, avec le revenu disponible,
etc....

Il faut donc, comme pour l’autocorrélation, détecter une présence possible d’hétéroscédasticité
en utilisant le résidu ℮𝑡 , seule information disponible concernant 𝜀𝑡 .

Tests de détection d’une hétéroscédasticité :

Il existe plusieurs tests de détection d'erreurs, mais nous soulignerons les suivants :

 Test de Goldfeld-Quandt

Ce test n'est valable que si l'une des variables est la cause de l'hétéroscédasticité et que le nombre
d'observations est important et se compose de trois étapes:

Etape 1: On ordonne les observations en fonction des valeurs croissantes ou décroissantes de Yt


(variable à expliquer) ou Xt (variable explicative) soupçonnée être la source de
l'hétéroscédasticité.

Etape 2: On néglige les observations centrales de l’échantillon. On appelle m le nombre de ces


observations négligées. Comme m dépend de n, on prend pour n = 30, m = 8 et pour n = 60, m =
16, etc.

Etape 3: On obtient deux sous échantillons, l’un correspond aux faibles valeurs de Xt (premier
échantillon), l’autre aux fortes valeurs ( deuxième échantillon). On applique les MCO sur les
𝑛− 𝑚 𝑛− 𝑚
observations faibles et sur les observations fortes. (Il faut que les deux
2 2
échantillons soient suffisamment importants). On appelle 𝑆𝐶 𝑅1 la somme des carrés des résidus
du premier échantillon, 𝑆𝐶 𝑅2 la somme des carrés des résidus du second échantillon.

𝑆𝐶 𝑅2
𝑑𝑑𝑙2 𝛼
À travers: 𝐹 = qui suit une loi de Fisher à 𝑑𝑑 𝑙2 et 𝑑𝑑 𝑙1 degrés de liberté 𝐹 ( 𝑑𝑑𝑙 ,𝑑𝑑 𝑙1) .
𝑆𝐶 𝑅1 2

𝑑𝑑𝑙1

Les hypothèses du test sont : 𝐻 0 : homoscédasticité

𝐻 1 : hétéroscédasticité (SCR2 > SCR1)

Règle de décision :

𝛼
Si 𝐹 ≤ 𝐹 ( 𝑑𝑑𝑙 , 𝑑𝑑𝑙 ) , on accepte 𝐻 0 sinon il y a présence d’hétéroscédasticité des erreurs.
2 1

 Test de Glesjer

Ce test permet de déterminer la forme de la corrélation qui existe entre la variable Xj et la


variance des erreurs. Il se base sur la régression des résidus du modèle :

𝑦 𝑡 =𝛽 1+ 𝛽2 𝑥 2 𝑡 + 𝛽 3 𝑥 3 𝑡 +…+ 𝛽𝑘 𝑥 𝑘𝑡 +𝑒 𝑡

On teste ensuite la significativité de 𝛼1 dans l’estimation par MCO des modèles suivants :

|𝑒𝑡|=𝛼0 +𝛼 1 𝑥𝑡𝑘 +𝑣 𝑡

|𝑒 𝑡|=𝛼0 +𝛼 1 √ 𝑥 𝑡𝑘
+𝑣 𝑡

1
|𝑒 𝑡|=𝛼0 +𝛼 1 𝑥 +𝑣 𝑡
𝑡𝑘

Si 𝛼1 est statiquement significatif dans l’une des régressions citée on accepte alors la présence
d’hétéroscédasticité dans le modèle du départ.
Autremendit, l’hypothèse d’homoscédasticité est vérifiée si le paramètre 𝛼1 n’est pas
significativement différent de zéro. D’où le test: 𝐻 0 : a = 0 (homoscédasticité)

𝐻 1: a ≠0 (hétéroscédasticité)

À travers: t de student qui suit une loi de student à 𝑑𝑑 𝑙❑ degrés de liberté

Si 𝑡 𝑐 <𝑡 𝑡 , on accepte 𝐻 0 sinon il y a présence d’hétéroscédasticité des erreurs.

 Test de White

On effectue une régression entre le carré du résidu et une ou plusieurs variables explicatives en
niveau et au carré (ici, on considère une seule variable explicative puisque l’on se place dans le
cas du modèle linéaire général simple à 2 variables), c’est-à-dire:

2 2
𝑒 𝑡 =𝑎 0 +𝑎1 𝑋 1 𝑡 + 𝑏1 𝑋 1𝑡 +𝑣 𝑡

Si l’un de ces coefficients de régression (a1 ou b1) est significativement différent de 0, on


accepte l’hypothèse d’hétéroscédasticité. Deux manières pour effectuer le test:

1) On effectue un test de Fisher : 𝐻 0 : a1 = b1 = a0 = 0 On construit le Fisher calculé suivant :

2
𝑅 𝑛 −𝑘
𝐹𝑐= où k représente le nombre total de paramètres estimés (ici, k=3)
1 − 𝑅2 𝑘− 1

𝐹 𝑐 suit une loi de Fisher à k-1 et n-k ( 𝐹 𝑡 )

Règle de décision :

Si 𝐹 𝑐 ≤ 𝐹 𝑡, on accepte 𝐻 0 sinon il y a présence d’hétéroscédasticité des erreurs.

2) Soit on recourt à la statistique 𝐿𝑀 ≡𝑙𝑜𝑖 𝑑𝑒 𝑘h𝑖𝑑𝑒𝑢𝑥 𝑋 2 ( 𝑝=𝑘 )

K étant le nombre de variable explicatives, ici K=2


𝐿𝑀=𝑛 𝑅 < 𝑋 ( 𝑝 ) , on accepte 𝐻 0 sinon il ya présence d’hétéroscédasticité des erreurs.
2 2

Vous aimerez peut-être aussi