Estimation
Estimation
Estimation
CH 13 : ESTIMATION
Classe : 2 ECS
Définition 1 Soit ( X1 , X2 , . . . , Xn ) un échantillon d’une variable X dont la loi dépend d’un paramètre θ, avec θ ∈ Θ ⊂ R.
On appelle estimateur de θ toute variable aléatoire fonction de X1 , X2 , . . . , Xn et à valeurs dans Θ. Autrement dit,
On appelle échantillon de taille n ( n-échantillon) la donnée de n variables aléatoires X1 , . . . , Xn indépendantes et de l’estimateur Tn est de la forme Tn = f ( X1 , X2 , . . . , Xn )
même loi. Cette loi est notée Lθ , sa fonction de répartition Fθ . avec f une application de R n dans R.
Leur loi commune est alors appelée loi-mère de l’échantillon
Pour ω ∈ Ω, on appelle réalisation de cet échantillon (ou échantillon observé), le n-uplet de réels
Définition 6Estimation
• Dans le cas où les Xi suivent une loi exponentielle de paramètre λ = θ, alors on a Remarque 7
L’estimation f ( x1 , x2 , . . . , xn ) ne dépend que de l’échantillon ( x1 , x2 , . . . , xn ) observé. L’estimation f ( x1 , x2 , . . . , xn )
∀θ ∈ R∗+ , ∀ x > 0, Pθ ( Xi ⩽ x) = 1 − e−θx ne dépend pas de θ.
n n −1
Exemple 4 2
Un = ∑
n ( n + 1) k =1
kXk , Vn = ∑ X k X k −1 Bn = 0
1 k =0
Si Xi suit une loi exponentielle de paramètre θ, alors Eθ ( Xi ) = .
θ
sont des estimateurs de p. En l’absence d’autres indications, on se demande pourquoi on pourrait les
Si Xi suit une loi de Bernoulli de paramètre p = θ, on a Eθ ( Xi ) = θ et Vθ ( Xi ) = θ(1 − θ).
envisager, mais ils existent, comme beaucoup d’autres.
Tn = max ( X1 , . . . , Xn ) − min ( X1 , . . . , Xn ) 1 n 2
n i∑
S̃n = Xi − X n .
=1
est un estimateur de g (θ) = b − a. Un autre estimateur sont possible, comme le suivant :
Alors
n n
Un = 2Xn . fn = 1 ∑ Xi − Xn 2 = 1 ∑ X 2 − 2Xi Xn + Xn 2
S i
n i =1 n i =1
n n
1 1 1 n 2 1 n 2
= ∑ Xi2 − 2Xn ∑ Xi + ∑ Xn = ∑ Xi2 − Xn .
Définition 9 n i =1 n i =1 n i =1 n i =1
| {z }
= Xn
On appelle moyenne empirique l’estimateur :
X1 + · · · + X n
Xn = . Et donc par linéarité de l’espérance,
n
n
fn = 1 ∑ E X 2 − E Xn 2 = E X12 − E Xn 2 .
E S i
n i =1
I.3. Biais d’un estimateur
Définition 10 Une double application de la formule de Huygens nous donne alors
E X12 = V ( X1 ) + E ( X1 )2 = σ 2 + m2
Soit Tn un estimateur de g (θ). Si Tn admet une espérance pour tout θ, on appelle biais de Tn le réel
2 1 n σ2
2
et E Xn = V Xn + E Xn = 2 ∑ V ( Xi ) + m2 = + m2 .
b Tn (θ) = Eθ ( Tn ) − g (θ). n i =1 n
Et donc enfin E S fn = n − 1 σ 2
Définition 11 n
Par conséquent, le biais de Sen en tant qu’estimateur de σ 2 est
La variable aléatoire Tn est un estimateur sans biais de g (θ) si b Tn (θ) = 0, c’est-à-dire si Eθ ( Tn ) = g (θ)
n−1 2 σ2
bθ Sen = Eθ Sen − σ 2 = σ − σ2 = − .
n n
n e
Exemple 12 Ainsi, Sen est un estimateur biaisé de σ 2 , alors que Sn est un estimateur sans biais de σ 2
n−1
n e n
1) Soient ( X1 , . . . , Xn ) un n-échantillon de variables aléatoires admettant une espérance m puisque : Eθ Sn = Eθ Sen = σ 2 .
n−1 n−1
n
2
Les estimateurs An = ∑
n ( n + 1) k =1
kXk et Bn = 0 de m sont-ils sans biais ? 4) Soit X une variable aléatoire suit une uniforme continue sur un intervalle [ a, b],et un n-échantillon
( X1 , X2 , . . . , Xn ) de la loi de X.
2) Soient X une variable aléatoire d’espérance m et de variance σ 2 et un n-échantillon ( X1 , X2 , . . . , Xn ) et l’estimateur Tn = sup Xk − inf Xk de b − a.
de la loi de X. On suppose que m est connu, monter que k∈J1,nK k∈J1,nK
!
1 n Alors E ( Tn ) = E −E inf Xk .
Tn = ∑ ( Xi − m)2 sup Xk
k∈J1,nK
n i =1 k∈J1,nK
x−a
est un estimateur sans biais de σ 2 . La fonction de répartition de tous les Xk est FXk = 1 .
b − a [ a,b]
2
Démonstration. Pour tout i ∈ J1, nK, on a Eθ ( Xi ) = m, et donc par linéarité de Eθ , On a : bθ ( Tn ) = − (b − a), donc Tn est asymptotiquement sans biais.
n+1
1 n
Eθ Xn = ∑ Eθ ( Xi ) = m. ■
n i =1
I.5. Risque quadratique d’un estimateur
Définition 19
Exemple 14
1 n Soit Tn un estimateur de θ. Si pour tout θ de Θ, Tn admet une variance (ou un moment d’ordre 2 ), on appelle risque
n i∑
Si les Xi suivent la loi exponentielle de paramètre λ, alors Xn = Xi est un estimateur sans biais de
=1 quadratique de Tn le réel
1
. rθ ( Tn ) = Eθ ( Tn − θ)2 .
λ
rθ ( Tn ) = bθ ( Tn )2 + Vθ ( Tn ) . Proposition 26
X1 + · · · + X n
Démonstration. Si la loi mère admet une espérance m et une variance σ 2 , alors Xn = est un estimateur sans biais
n
On écrit convergent de m.
( Tn − θ)2 = ( Tn − Eθ ( Tn ) + bθ ( Tn ))2 = ( Tn − Eθ ( Tn ))2 + 2bθ ( Tn ) ( Tn − Eθ ( Tn )) + bθ ( Tn )2 Démonstration. Nous avons déjà prouvé qu’il s’agissait d’un estimateur sans biais, et le fait qu’il soit convergent est une
ré-formulation de la loi faible des grands nombres. ■
Par linéarité de l’espérance,
on a
rθ ( Tn ) = Eθ ( Tn − Eθ ( Tn ))2 + 2bθ ( Tn ) Eθ ( Tn − Eθ ( Tn )) + bθ ( Tn )2 Or Eθ ( Tn − Eθ ( Tn )) = 0,
donc rθ ( Tn ) = Eθ ( Tn − Eθ ( Tn ))2 + bθ ( Tn )2 = Vθ ( Tn ) + bθ ( Tn )2 . ■
Exemple 27 Considérons un n-échantillon iid de la loi uniforme sur un intervalle [0, θ], où θ est un réel
strictement positif. On sait que la moyenne empirique X n de l’échantillon est un estimateur sans biais et
Corollaire 22 ( Risque quadratique d’un estimateur sans biais) θ
convergent de l’espérance de la loi mère.
Si l’estimateur Tn est sans biais et s’il admet une variance, alors on a rθ ( Tn ) = Vθ ( Tn ) . 2
∀θ ∈ Θ, ∀ε > 0, Pθ (| Tn − g (θ)| ⩾ ε) −→ 0. Si l’estimateur Tn est sans biais (ou asymptotiquement sans biais) et s’il admet une variance, si
n→+∞
Vθ ( Tn ) −→ 0, alors Tn est un estimateur convergent de θ.
n→+∞
Exemple 25 Considérons un n-échantillon iid de la loi uniforme sur un intervalle [0, θ], où θ est un réel Démonstration. D’après la décomposition biais-variance, on a rθ ( Tn ) = bθ ( Tn )2 + Vθ ( Tn ) .
strictement positif. Si Tn = max ( X1 , . . . , Xn ), alors ( Tn ) est une suite d’estimateur convergent de θ. Or, d’après les hypothèses, on a : bθ ( Tn ) −→ 0 et Vθ ( Tn ) −→ 0. ■
n→+∞ n→+∞
En effet, pour 0 < ε < θ, on a :
Vθ ( Tn )
Il apparaît alors un problème ; l’intervalle censé encadrer p dépend lui-même de p. Mais qu’à cela ne tienne, on voit que ∀ε > 0, P (| Tn − θ| < ε) ⩾ 1 − .
ε2
p 7→ p(1 − p) est majorée par 1/4 sur [0; 1] ou encore que
On cherche alors à majorer Vθ ( Tn ) pour tout θ ∈ Θ. S’il existe M > 0 tel que ∀θ ∈ Θ, Vθ ( Tn ) ⩽ M alors
" r r # " r r #
p (1 − p ) p (1 − p ) 1 1
Tn − ; Tn + ⊂ Tn − ; Tn + M
αn αn 4αn 4αn ∀ε > 0, P (| Tn − θ| < ε) ⩾ 1 − .
ε2
" r r #! r
1 1 M α
et on peut donc proposer un encadrement P p ∈ Tn − ; Tn + ⩾ 1 − α. Pour que α = on pose ε = , afin d’avoir
4αn 4αn ε2 M
r
α
Définition 35 P | Tn − θ| ⩽ ⩾ 1−α
M
Soit α ∈]0, 1 [ . On dit que [Un , Vn ] est un intervalle de confiance de g (θ) au niveau de risque α, ou au niveau de donc r r
α α
confiance 1 − α si pour tout θ ∈ Θ, P Tn − ⩽ θ ⩽ Tn + ⩾ 1 − α.
M M
r r
Pθ (Un ⩽ g (θ) ⩽ Vn ) ⩾ 1 − α. α α
L’intervalle Tn − , Tn + est un intervalle de confiance pour θ au niveau 1 − α.
M M
Remarque 36 • P ( g (θ) ∈
/ [Un ; Vn ]) ⩽ α. Proposition 37