Estimation

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 8

 CPGE Prince Héritier Moulay El Hassan - Ouarzazate  Année scolaire : 2023-2024

CH 13 : ESTIMATION

 Classe : 2 ECS

I. Estimation Ponctuelle I.2. Définitions


Définition 5Estimateur
I.1. Échantillonnage

Définition 1 Soit ( X1 , X2 , . . . , Xn ) un échantillon d’une variable X dont la loi dépend d’un paramètre θ, avec θ ∈ Θ ⊂ R.
On appelle estimateur de θ toute variable aléatoire fonction de X1 , X2 , . . . , Xn et à valeurs dans Θ. Autrement dit,
On appelle échantillon de taille n ( n-échantillon) la donnée de n variables aléatoires X1 , . . . , Xn indépendantes et de l’estimateur Tn est de la forme Tn = f ( X1 , X2 , . . . , Xn )
même loi. Cette loi est notée Lθ , sa fonction de répartition Fθ . avec f une application de R n dans R.
Leur loi commune est alors appelée loi-mère de l’échantillon
Pour ω ∈ Ω, on appelle réalisation de cet échantillon (ou échantillon observé), le n-uplet de réels
Définition 6Estimation

( X1 (ω), X2 (ω), . . . , Xn (ω)) = ( x1 , x2 , . . . , xn )


Soit Tn = f ( X1 , X2 , . . . , Xn ) un estimateur de θ.
Une estimation de θ est une réalisation de Tn : tn = f ( x1 , x2 , . . . , xn )
où ( x1 , x2 , . . . , xn ) est une réalisation de l’échantillon ( X1 , X2 , . . . , Xn ).
 Exemple 2

• Dans le cas où les Xi suivent une loi exponentielle de paramètre λ = θ, alors on a Remarque 7
L’estimation f ( x1 , x2 , . . . , xn ) ne dépend que de l’échantillon ( x1 , x2 , . . . , xn ) observé. L’estimation f ( x1 , x2 , . . . , xn )
∀θ ∈ R∗+ , ∀ x > 0, Pθ ( Xi ⩽ x) = 1 − e−θx ne dépend pas de θ.

• Dans le cas où les Xi suivent une loi de Bernoulli de paramètre p = θ, alors on a


 Exemple 8
∀θ ∈ [0, 1], Pθ ( Xi = 1) = θ • Soient donc ( X1 , . . . , Xn ) un n-échantillon de variables aléatoires de loi mère P (λ), λ ∈ R∗+ .
X1 + · · · + X n
Si n = 5 une réalisation de cet échantillon est par exemple (1, 1, 1, 1, 1), (0, 1, 0, 1, 1) Alors T = est un estimateur de λ.
n
• On considère un dé dont on ne sait pas s’il est pipé ou non. On lance le dé n fois. Au k-ième jet du
Définition 3 dé, on associe la variable aléatoire Xk qui prend la valeur 1 si le résultat obtenu est 6 , et 0 dans
les autres cas. Les variables Xk suivent une loi de Bernoulli de paramètre p dont ( X1 , X2 , . . . , Xn )
Si X est une variable aléatoire sur (Ω, A ), on notera, si elle existe, Eθ ( X ) l’espérance de X pour la probabilité Pθ . est un n-échantillon. Dans cet exemple, on prend θ = p et Θ = [0, 1]. La variable aléatoire
De même, si X admet une variance pour la probabilité Pθ , on note Vθ ( X ) cette variance. 1
Tn = ( X1 + X2 + . . . + Xn ) (moyenne empirique de l’échantillon) prend ses valeurs dans
n
[0, 1]. C’est un estimateur de p(= θ). On peut envisager bien d’autres estimateurs de Tn . Par exemple

n n −1
 Exemple 4 2
Un = ∑
n ( n + 1) k =1
kXk , Vn = ∑ X k X k −1 Bn = 0
1 k =0
Si Xi suit une loi exponentielle de paramètre θ, alors Eθ ( Xi ) = .
θ
sont des estimateurs de p. En l’absence d’autres indications, on se demande pourquoi on pourrait les
Si Xi suit une loi de Bernoulli de paramètre p = θ, on a Eθ ( Xi ) = θ et Vθ ( Xi ) = θ(1 − θ).
envisager, mais ils existent, comme beaucoup d’autres.

CH 13 : Estimation 1/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


• Si ( X1 , . . . , Xn ) est un n-échantillon de loi mère U ([ a, b]) de paramètre vectoriel inconnu θ = 3) Dans le cas où la loi-mère possède une espérance m et une variance σ 2 (qu’une fois encore, nous devrions
( a, b) ∈ R2 , alors : noter m(θ) et σ 2 (θ) ), posons

Tn = max ( X1 , . . . , Xn ) − min ( X1 , . . . , Xn ) 1 n 2
n i∑
S̃n = Xi − X n .
=1
est un estimateur de g (θ) = b − a. Un autre estimateur sont possible, comme le suivant :
Alors
n  n  
Un = 2Xn . fn = 1 ∑ Xi − Xn 2 = 1 ∑ X 2 − 2Xi Xn + Xn 2
S i
n i =1 n i =1
n n
1 1 1 n 2 1 n 2
= ∑ Xi2 − 2Xn ∑ Xi + ∑ Xn = ∑ Xi2 − Xn .
Définition 9 n i =1 n i =1 n i =1 n i =1
| {z }
= Xn
On appelle moyenne empirique l’estimateur :

X1 + · · · + X n
Xn = . Et donc par linéarité de l’espérance,
n
  n        
fn = 1 ∑ E X 2 − E Xn 2 = E X12 − E Xn 2 .
E S i
n i =1
I.3. Biais d’un estimateur
Définition 10 Une double application de la formule de Huygens nous donne alors
 
E X12 = V ( X1 ) + E ( X1 )2 = σ 2 + m2
Soit Tn un estimateur de g (θ). Si Tn admet une espérance pour tout θ, on appelle biais de Tn le réel
   2 1 n σ2
2
et E Xn = V Xn + E Xn = 2 ∑ V ( Xi ) + m2 = + m2 .
b Tn (θ) = Eθ ( Tn ) − g (θ). n i =1 n
 
Et donc enfin E S fn = n − 1 σ 2
Définition 11 n
Par conséquent, le biais de Sen en tant qu’estimateur de σ 2 est
La variable aléatoire Tn est un estimateur sans biais de g (θ) si b Tn (θ) = 0, c’est-à-dire si Eθ ( Tn ) = g (θ)
    n−1 2 σ2
bθ Sen = Eθ Sen − σ 2 = σ − σ2 = − .
n n
n e
 Exemple 12 Ainsi, Sen est un estimateur biaisé de σ 2 , alors que Sn est un estimateur sans biais de σ 2
  n−1
n e n  
1) Soient ( X1 , . . . , Xn ) un n-échantillon de variables aléatoires admettant une espérance m puisque : Eθ Sn = Eθ Sen = σ 2 .
n−1 n−1
n
2
Les estimateurs An = ∑
n ( n + 1) k =1
kXk et Bn = 0 de m sont-ils sans biais ? 4) Soit X une variable aléatoire suit une uniforme continue sur un intervalle [ a, b],et un n-échantillon
( X1 , X2 , . . . , Xn ) de la loi de X.
2) Soient X une variable aléatoire d’espérance m et de variance σ 2 et un n-échantillon ( X1 , X2 , . . . , Xn ) et l’estimateur Tn = sup Xk − inf Xk de b − a.
de la loi de X. On suppose que m est connu, monter que k∈J1,nK k∈J1,nK
!  
1 n Alors E ( Tn ) = E −E inf Xk .
Tn = ∑ ( Xi − m)2 sup Xk
k∈J1,nK
n i =1 k∈J1,nK

x−a
est un estimateur sans biais de σ 2 . La fonction de répartition de tous les Xk est FXk = 1 .
b − a [ a,b]

CH 13 : Estimation 2/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


Posons Sn = sup Xk .  Exemple 16
k∈J1,nK 
 n • La suite Xn n ⩾1 des moyennes empiriques est une suite d’estimateurs de l’espérance m de la loi mère.
x−a
On sait que la fonction de répartition de Sn est alors FSn ( x) = 1 [ a,b] . • Dans le cas où les Xi suivent une loi uniforme sur [0, θ], en posant Tn = max ( X1 , . . . , Xn ),
b−a
Z +∞  Z alors ( Tn )n⩾1 est une suite d’estimateurs de θ.
( t − a ) n −1 b ( t − a ) n −1
Donc E (Sn ) = nt 1 [ a,b ] t dt = n t dt soit, en posant
−∞ (b − a)n a (b − a)n
Z b− a
n a + nb Définition 17
u = t − a, E (Sn ) = (u + a)un−1 du = .
(b − a)n 0 n+1
De façon analogue, en posant In = inf Xk , et après des calculs analogues, on trouve E ( In ) = Une suite d’estimateurs de g (θ) est dite asymptotiquement sans biais si
k∈J1,nK
b + na lim bθ ( Tn ) = 0.
n+1 n→+∞

( a + nb) − (b + na) n−1


Alors E ( Tn ) = E (Sn ) − E ( In ) = = ( b − a ).
n+1 n+1
2  Exemple 18
Par suite Tn est donc un estimateur biaisé de b − a, le biais étant égal à − ( b − a ).
n+1
1) Nous avons déjà vu que pour tout n, Xn est un estimateur sans biais de l’espérance m, donc ( Tn )n⩾1
Proposition 13 est une suite d’estimateurs de m, asymptotiquement sans biais.

2) Dans le cas où la loi-mère est une loi exponentielle E (θ), alors Xn n⩾1 est une suite d’estimateurs
Soient ( X1 , . . . , Xn ) un n-échantillon de variables aléatoires admettant une espérance m (que l’on devrait en fait 1
asymptotiquement sans biais de .
noter (m(θ)) pour tout θ ∈ Θ, alors θ
1 n 3) Soit X une variable aléatoire suit une uniforme continue sur un intervalle [ a, b],et un n-échantillon
n i∑
Xn = Xi
=1 ( X1 , X2 , . . . , Xn ) de la loi de X.
est un estimateur sans biais de m. et l’estimateur Tn = sup Xk − inf Xk de b − a.
k∈J1,nK k∈J1,nK

2
Démonstration. Pour tout i ∈ J1, nK, on a Eθ ( Xi ) = m, et donc par linéarité de Eθ , On a : bθ ( Tn ) = − (b − a), donc Tn est asymptotiquement sans biais.
 n+1
1 n
Eθ Xn = ∑ Eθ ( Xi ) = m. ■
n i =1
I.5. Risque quadratique d’un estimateur
Définition 19
 Exemple 14
1 n Soit Tn un estimateur de θ. Si pour tout θ de Θ, Tn admet une variance (ou un moment d’ordre 2 ), on appelle risque
n i∑
Si les Xi suivent la loi exponentielle de paramètre λ, alors Xn = Xi est un estimateur sans biais de
=1 quadratique de Tn le réel  
1
. rθ ( Tn ) = Eθ ( Tn − θ)2 .
λ

I.4. Estimateurs asymptotiquement sans biais


 Exemple 20
Définition 15
X1 + · · · + X n
Supposons que la loi-mère soit une loi de Poisson P (λ). Alors Xn = est un estimateur
n
Une suite d’estimateurs de g (θ) est la donnée pour tout n ⩾ 1 d’un estimateur Tn de g (θ). En particulier, chaque sans biais de λ.
Tn est de la forme f n ( X1 , . . . , Xn ).  2   1 n λ
De plus Eθ Xn − λ = Vθ Xn = 2 ∑ V ( Xi ) = 2 .
n i =1 n

CH 13 : Estimation 3/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


Tn
Proposition 21 Décomposition biais - variance du risque quadratique Pθ (| Tn − θ| ⩾ ε) = Pθ (θ − Tn ⩾ ε) = Pθ ( [ X ⩽ θ − ε])
1 in
i=
θ−ε
= ∏in=1 Pθ ( Xi ⩽ θ − ε) = θ −→ 0
n→∞
Si pour tout θ de Θ, Tn admet une variance (ou un moment d’ordre 2), alors on a

rθ ( Tn ) = bθ ( Tn )2 + Vθ ( Tn ) . Proposition 26

X1 + · · · + X n
Démonstration. Si la loi mère admet une espérance m et une variance σ 2 , alors Xn = est un estimateur sans biais
n
On écrit convergent de m.

( Tn − θ)2 = ( Tn − Eθ ( Tn ) + bθ ( Tn ))2 = ( Tn − Eθ ( Tn ))2 + 2bθ ( Tn ) ( Tn − Eθ ( Tn )) + bθ ( Tn )2 Démonstration. Nous avons déjà prouvé qu’il s’agissait d’un estimateur sans biais, et le fait qu’il soit convergent est une
ré-formulation de la loi faible des grands nombres. ■
Par linéarité de l’espérance,
 on a 
rθ ( Tn ) = Eθ ( Tn − Eθ ( Tn ))2 + 2bθ ( Tn ) Eθ ( Tn − Eθ ( Tn )) + bθ ( Tn )2 Or Eθ ( Tn − Eθ ( Tn )) = 0,
 
donc rθ ( Tn ) = Eθ ( Tn − Eθ ( Tn ))2 + bθ ( Tn )2 = Vθ ( Tn ) + bθ ( Tn )2 . ■
 Exemple 27 Considérons un n-échantillon iid de la loi uniforme sur un intervalle [0, θ], où θ est un réel
strictement positif. On sait que la moyenne empirique X n de l’échantillon est un estimateur sans biais et
Corollaire 22 ( Risque quadratique d’un estimateur sans biais) θ
convergent de l’espérance de la loi mère.
Si l’estimateur Tn est sans biais et s’il admet une variance, alors on a rθ ( Tn ) = Vθ ( Tn ) . 2

Proposition 28 Condition suffisante de convergence d’un estimateur


 Exemple 23
Si pour tout θ de Θ, Tn admet une variance (ou un moment d’ordre 2), si
• On suppose que X, la loi mère d’échantillon suit une loi de Bernoulli de paramètre p. Considérons
1 n rθ ( Tn ) −→ 0, alors Tn est un estimateur convergent de θ.
n→+∞
n k∑
Xn = Xk (moyenne empirique de l’échantillon) comme un estimateur de p. Les résultats
=1
obtenus plus haut permettent de conclure que le risque quadratique de l’estimateur X n est sa variance, h i
p (1 − p ) Démonstration. Pour ε > 0, on a : [| Tn − θ| > ε] = ( Tn − θ)2 > ε2 .
c’est à dire .
n Comme ( Tn − θ)2 est une variable aléatoire positive admettant une espérance, on applique l’inégalité de Markov
 
  E ( Tn − θ)2 rθ ( Tn )
I.6. Estimateurs convergents P ( Tn − θ)2 > ε2 ⩽ = .
ε2 ε2
Définition 24 Ainsi par encadrement, on a : P (| Tn − θ| > ε) −→ 0. ■
n→+∞
Une suite ( Tn )n⩾1 d’estimateurs de g (θ) est dite convergente si pour tout θ ∈ Θ, la suite ( Tn ) converge en
probabilité vers g (θ). C’est-à-dire que Proposition 29 CS de convergence d’un estimateur asymptotiquement sans biais

∀θ ∈ Θ, ∀ε > 0, Pθ (| Tn − g (θ)| ⩾ ε) −→ 0. Si l’estimateur Tn est sans biais (ou asymptotiquement sans biais) et s’il admet une variance, si
n→+∞
Vθ ( Tn ) −→ 0, alors Tn est un estimateur convergent de θ.
n→+∞

 Exemple 25 Considérons un n-échantillon iid de la loi uniforme sur un intervalle [0, θ], où θ est un réel Démonstration. D’après la décomposition biais-variance, on a rθ ( Tn ) = bθ ( Tn )2 + Vθ ( Tn ) .
strictement positif. Si Tn = max ( X1 , . . . , Xn ), alors ( Tn ) est une suite d’estimateur convergent de θ. Or, d’après les hypothèses, on a : bθ ( Tn ) −→ 0 et Vθ ( Tn ) −→ 0. ■
n→+∞ n→+∞
En effet, pour 0 < ε < θ, on a :

CH 13 : Estimation 4/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


Proposition 30 Ainsi,
θ2 n 2
r ( Mn ) = b ( Mn ) 2 + V ( Mn ) = + θ2 = θ2 .
Si ( Tn )n∈N∗ est une suite convergente d’estimateurs de g (θ) et si f est une fonction continue sur R à valeurs réelles, ( n + 1)2 ( n + 1)2 ( n + 2) (n + 1)(n + 2)
alors ( f ( Tn ))n∈N∗ est une suite convergente d’estimateurs de f ( g (θ)). n+1
D’autre part, nous savons que Mn0 = Mn est un estimateur sans biais de θ et donc
n
  ( n + 1)2 1
r Mn0 = V Mn0 = V ( Mn ) = θ2 .
 Exemple 31 n2 n ( n + 2)

Soit ( X1 , . . . , Xn ) un échantillon de la loi géométrique de paramètre p. Montrer que la variable Tn = Et donc r Mn0 < r ( Mn ) : Mn0 est un meilleur estimateur que Mn .
n
est un estimateur convergent de p. D’autre par, nous avons : La moyenne empirique X n de l’échantillon vérifie
X1 + · · · + X n
n
1  θ
n i∑
On remarque que Tn est l’inverse de Xn = Xi . La loi géométrique de paramètre p admet une espérance Eθ X n = Eθ ( X ) = .
=1 2
1
égale à et une variance.
p On en déduit que Tn = 2X n est un estimateur sans biais de θ. De plus,
Donc la variable Xn est un estimateur sans biais de 1/p. 
 4 θ2 θ2
rθ ( Tn ) = Vθ 2X n = = .
D’après le loi faible des grands nombres, la suite Xn converge en probabilité vers 1/p. Donc Xn est un n 12 3n
estimateur convergent de 1/p.
La fonction f : t 7−→ 1/t est continue sur R+∗ . Elle est donc continue en 1/p. On en déduit que la suite
( Tn ) converge en probabilité vers f (1/p) = p. Donc Tn est un estimateur convergent de p. II. Estimation par intervalle de confiance

Dans tout ce paragraphe :


I.7. Comparaison de deux estimateurs • ( X1 , . . . , Xn ) est un échantillon i.i.d. de même loi mère de paramètre inconnu θ ∈ Θ,
Proposition 32 • pour tout n ∈ N ∗ , Un = φn ( X1 , . . . , Xn ) et Vn = ψn ( X1 , . . . , Xn ) sont des estimateurs de g (θ) tels que
Pθ (Un ⩽ Vn ) = 1 pour tout θ ∈ Θ (Un est inférieur à Vn Pθ -presque sûrement).
Si l’on a deux estimateurs Tn et Un de θ, on considérera que Tn est meilleur que Un si pour tout θ ∈ Θ et pour n
assez grand rθ ( Tn ) ⩽ rθ (Un ) .
II.1. Intervalles de confiance

 Exercice 34 Considérons un n-échantillon d’une loi de Bernoulli X ,→ B( p) dont on veut estimer p


 Exemple 33
On a pu voir précédemment que l’estimateur Tn = X n est un estimateur non biaisé et convergent
Soit des Xi suivent la loi uniforme sur [0, θ], et soit Mn = max ( X1 , . . . , Xn ).
1) Donner le risque quadratique de Tn .
Nous avons alors donné précédemment une densité de Mn , qui est p (1 − p )
 2) Soit ε > 0. Montrer que P ( p ∈ [ Tn − ε; Tn + ε]) ⩾ 1 −
n −1 nε2

n x si x ∈ [0, θ] 3) Considérons donné le problème suivant : étant donné un réel α ∈]0; 1[ (appelé niveau de confiance
f θ : x 7→ θn

0 ou seuil), déterminer un intervalle Iα (appelé intervalle de confiance) ne dépendant pas de p,
sinon
contenant la vraie valeur de p avec probabilité supérieure à 1 − α. c-à-d P ( p ∈ Iα ) ⩾ 1 − α.
  Z Z θ 1
θ x n +1 n a- Montrer que ∀ p ∈ [0, 1] p(1 − p) ⩽
Alors E Mn2 = x2 f θ ( x)dx =
dx = θ2 . Et donc :
n 4
0 0 θ n n + 2 b- En déduire un intervalle de confiance pour p
   2
2 n n n
V ( Mn ) = E Mn − E ( Mn ) =
2
θ −
2
θ = θ2 . Solution 1 1) rθ ( Tn ) = p(1 − p)/n) de p.
n+2 n+1 ( n + 1)2 ( n + 2)

CH 13 : Estimation 5/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


2) À n fixé, l’inégalité de Bienaymé-Tchebychev donne alors : Intervalle de confiance par l’inégalité de Bienaymé-Tchebychev

p (1 − p ) p (1 − p ) Soit X une variable aléatoire réelle ayant un moment d’ordre 2, alors on a :


P (| Tn − p| > ε) ⩽ 2
⇐⇒ P (| Tn − p| ⩽ ε) ⩾ 1 −
nε nε2
p (1 − p ) V (X )
⇐⇒ P ( Tn ∈ [ p − ε; p + ε]) ⩾ 1 − ∀ε > 0, P (| X − E( X )| > ε) ⩽ P (| X − E( X )| ⩾ ε) ⩽ .
nε2 ε2
p (1 − p )
⇐⇒ P ( p ∈ [ Tn − ε; Tn + ε]) ⩾ 1 − V (X )
nε2 Ce qui s’écrit aussi : ∀ε > 0, P (| X − E( X )| ⩽ ε) ⩾ 1 − .
ε2
Inégalité de Bienaymé-Tchebychev pour un estimateur sans biais :
3) Par l’observation précédente, il suffit de déterminer ε tel que
Soit Tn un estimateur sans biais de θ admettant un moment d’ordre 2, alors
r
p (1 − p ) p (1 − p ) Vθ ( Tn )
1− ⩾ 1 − α ⇐⇒ ε ⩾ . ∀ε > 0, P (| Tn − θ| ⩽ ε) ⩾ 1 −
nε2 αn ε2

Comment déterminer un intervalle de confiance grâce à l’inégalité de Bienaymé- Tchebychev ?


On a alors " r r #!
p (1 − p ) p (1 − p ) Pour trouver deux variables Un et Vn telles que P (Un ⩽ θ ⩽ Vn ) ⩾ 1 − α, on applique l’inégalité de Bienaymé-Tchebychev
P p ∈ Tn − ; Tn + ⩾ 1 − α.
αn αn à un estimateur Tn sans biais de θ :

Vθ ( Tn )
Il apparaît alors un problème ; l’intervalle censé encadrer p dépend lui-même de p. Mais qu’à cela ne tienne, on voit que ∀ε > 0, P (| Tn − θ| < ε) ⩾ 1 − .
ε2
p 7→ p(1 − p) est majorée par 1/4 sur [0; 1] ou encore que
On cherche alors à majorer Vθ ( Tn ) pour tout θ ∈ Θ. S’il existe M > 0 tel que ∀θ ∈ Θ, Vθ ( Tn ) ⩽ M alors
" r r # " r r #
p (1 − p ) p (1 − p ) 1 1
Tn − ; Tn + ⊂ Tn − ; Tn + M
αn αn 4αn 4αn ∀ε > 0, P (| Tn − θ| < ε) ⩾ 1 − .
ε2
" r r #! r
1 1 M α
et on peut donc proposer un encadrement P p ∈ Tn − ; Tn + ⩾ 1 − α. Pour que α = on pose ε = , afin d’avoir
4αn 4αn ε2 M
 r 
α
Définition 35 P | Tn − θ| ⩽ ⩾ 1−α
M

Soit α ∈]0, 1 [ . On dit que [Un , Vn ] est un intervalle de confiance de g (θ) au niveau de risque α, ou au niveau de donc  r r 
α α
confiance 1 − α si pour tout θ ∈ Θ, P Tn − ⩽ θ ⩽ Tn + ⩾ 1 − α.
M M
 r r 
Pθ (Un ⩽ g (θ) ⩽ Vn ) ⩾ 1 − α. α α
L’intervalle Tn − , Tn + est un intervalle de confiance pour θ au niveau 1 − α.
M M

Remarque 36 • P ( g (θ) ∈
/ [Un ; Vn ]) ⩽ α. Proposition 37

Si ( X1 , . . . , Xn ) est un n-échantillon i.i.d. de loi de Bernoulli de paramètre p inconnu, alors


• En pratique, le risque α étant donné, on utilise un estimateur non biaisé Tn de g (θ) et on cherche ε > 0 tel que
 
P (| Tn − g (θ)| ⩽ ε) ⩾ 1 − α à l’aide de l’inégalité de Bienaymé-Tchébychev ou du théorème central limite (ap- 1 1
Xn − √ , Xn + √
proximation par la loi normale). 2 nα 2 nα

est un intervalle de confiance de p au niveau de confiance 1 − α.


• Les bornes de l’intervalle de confiance ne doivent jamais dépendre du paramètre à estimer.

CH 13 : Estimation 6/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


 Exercice 38 Soit des Xi suivent la loi uniforme sur [0, θ]. On choisit couramment a = −b (intervalle centré en la moyenne empirique). Dans ce cas, on a :
1) Montrer que X n est un estimateur biaisé de θ.
Φ(b) − Φ( a) = Φ(b) − Φ(−b) = Φ(b) − (1 − Φ(b)) = 2Φ(b) − 1.
2) Proposer alors un estimateur Vn de θ sans biais, obtenu comme transformation simple de X n .
α
3) Montrer, à l’aide de l’inégalité de Bienaymé-Tchébychev, que On cherche alors b tel que : 2Φ(b) − 1 = 1 − α ⇔ Φ(b) = 1 − .
2
Φ étant continue et strictement croissante sur R, elle réalise une bijection de R dans Φ(R ) =]0, 1[. Il existe donc un unique
θ2 α
P (|Vn − θ| > ε) ⩽ . réel tα tel que Φ (tα ) = 1 − . On pose ainsi pour la suite b = tα , et a = −tα .
3nε2 2
Étape 3 : Expliciter l’intervalle de confiance :
4) Montrer que On résout l’inéquation suivante afin d’isoler p :
" r r # p p
θ2 θ2 Vn Vn √ Xn − p p (1 − p ) p (1 − p )
θ ∈ Vn − ; Vn + ⇐⇒ ⩽θ⩽ . − tα < np ⩽ tα ⇔ − tα √ < X n − p ⩽ tα √
3nα 3nα 1 + √1 1 − √1 p (1 − p ) n n
3nα 3nα p p
p (1 − p ) p (1 − p )
⇔ X n − tα √ < p ⩽ X n + tα √
5) En déduire un intervalle de confiance au risque α pour θ. n n
p p !
p (1 − p ) p (1 − p )
II.2. Intervalle de confiance asymptotique On a donc : lim P X n − tα √ < p ⩽ X n + tα √ = 1−α
n→+∞ n n
1
Définition 39 Comme précédemment, nous ne connaissons pas p mais nous savons que p(1 − p) ⩽ , de sorte que :
4
 
On dit que [Un , Vn ] est un intervalle de confiance asymptotique de g (θ) au niveau de confiance 1 − α (ou niveau tα tα
lim P Xn − √ ⩽ p ⩽ Xn + √
de risque α ) si pour tout θ ∈ Θ, il existe une suite (αn ) à valeurs dans [0, 1], de limite α, telle que n→+∞ 2 n 2 n
p p !
p (1 − p ) p (1 − p )
Pθ (Un ⩽ g (θ) ⩽ Vn ) ⩾ 1 − αn ⩾ lim P Xn − tα √ < p ⩽ X n + tα √ = 1 − α.
n→+∞ n n

On obtient ainsi le résultat suivant :


Intervalle de confiance asymptotique du paramètre d’une loi de Bernoulli
Proposition 40
Étape 1 : Énoncer le Théorème central limite :
Soit ( Xn ) une suite de variables i.i.d. suivant la même loi de Bernoulli de paramètre p inconnu. On pose, comme tou- Un intervalle de confiance asymptotique de p au niveau de confiance 1 − α est
X1 + · · · + X n
jours, Xn = . Alors X1 + · · · + Xn suit la loi binomiale B (n, p). De plus, nous savons que  
n tα tα
X1 + · · · + Xn − np √ Xn − p Xn − √ , Xn + √ .
p = np converge en loi vers une variable X suivant une loi N (0, 1). 2 n 2 n
np(1 − p) p (1 − p )
Donc pour tous a < b ∈ R
! Intervalle de confiance asymptotique de l’espérance
√ Xn − p
lim P a⩽ np ⩽b = P ( a ⩽ X ⩽ b ) = Φ ( b ) − Φ ( a ).
n→+∞ p (1 − p )
 Exercice 41 Soit ( Xn ) une suite de variables i.i.d., que nous supposerons posséder un moment d’ordre 4. On
n 
Étape 2 : Fixer le niveau de confiance : note m l’espérance commune des Xi et σ 2 leur variance. on note : S fn = 1 ∑ Xi − Xn 2
On souhaite obtenir un intervalle de confiance asymptotique au niveau de confiance 1 − α. Pour cela, on doit avoir : n i =1
1 n 2 P  2
n i∑
Φ(b) − Φ( a) ⩾ 1 − α 1) Justifier que : X i → E X1 .
=1
2 P
Il y a une infinité de façon de choisir a et b. 2) Montrer que : Xn −→ m2 .

CH 13 : Estimation 7/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate


!
fn = 1 n 2 2 σ P Proposition 44 Estimateur convergent de l’écart-type d’une loi de Bernoulli
n i∑
3) Vérifier que : S Xi − Xn . En déduire que : q −→ 1
=1 f
Sn
Soit ( Xn ) une
qsuite de variables aléatoires i.i.d. de loi de Bernoulli de paramètre
q p inconnu.
  
Alors Tn = Xn 1 − Xn est un estimateur convergent de l’écart-type p(1 − p).
√ Xn − m
4) Soit α ∈]0, 1 [ fixé, Montrer que lim P −tα ⩽ n q ⩽ tα  = 1 − α.
n→+∞ fn
S
Proposition 45 Cas de la loi de Bernoulli
où tα est un réel a déterminer. 
Soit ( X1 , X2 , . . . , Xn ) est un n-échantillon d’une loi de Bernoulli. On utilise alors X n 1 − X n comme estimateur
5) En déduire un intervalle de confiance asymptotique de m au niveau de risque α de σ 2 , afin d’obtenir
 s  s 
Xn 1 − Xn Xn 1 − Xn
 X n − tα , X n + tα 
n n
Proposition 42

qui est un intervalle de confiance asymptotique pour m de niveau 1 − α.


Si les ( Xn ) possèdent un moment d’ordre 4 , alors un intervalle de confiance asymptotique de m au niveau de risque
 q q 
tα S fn tα S fn
α est  Xn − √ , Xn + √  . Remarque 46
n n
Soit ( Xn ) une suite de variables aléatoires i.i.d. de loi de Bernoulli de paramètre p inconnu. Soit α ∈]0, 1[. On a obtenu trois
intervalles de confiance au niveau de confiance 1 − α :
 
Proposition 43 1 1
• grâce à l’inégalité de Bienaymé-Tchebychev (BT) :Xn − √ , Xn + √
2 nα 2 nα
Dans le cas de variables de Bernoulli de paramètre p, on obtient  
tα tα
q q  • grâce au théorème limite central TCL1 : Xn − √ , Xn + √
 2 n 2 n
tα Sfn fn
tα S  q q 
lim P  Xn − √ ⩽ p ⩽ Xn + √  = 1 − α. 
n→+∞ n n Xn 1 − Xn Xn 1 − Xn
• grâce au théorème limite central TCL2  Xn − tα √ , X n + tα √ 
n n

CH 13 : Estimation 8/8 CPGE Prince Héritier Moulay El Hassan - Ouarzazate

Vous aimerez peut-être aussi