14-Estimation Part
14-Estimation Part
14-Estimation Part
Pθ (0)
/ = 0, Pθ ({ω1 }) = θ , Pθ ({ω2 }) = 1 − θ , Pθ (Ω) = 1
On vérifie qu’il s’agit d’une famille de probabilités. Soit X la variable aléatoire définie sur (Ω, A ) par
(
1 si ω = ω1
X : ω 7→
0 si ω = ω2
Alors Ω, A , Pθ : θ ∈ [0, 1] est un modèle statistique tel que pour tout θ ∈ [0, 1], la variable X suit la loi de Bernoulli de
— On appelle n-échantillon de loi X, un vecteur aléatoire (X1 , . . . , Xn ) tel que, pour tout θ ∈ Θ, pour tout i ∈ J1, nK, Xi a
la même loi que X. On dit que l’échantillon est identiquement distribué.
— On appelle n-échantillon indépendant et identiquement distribué (i.i.d.) de loi X, tout vecteur (X1 , . . . , Xn ) tel que
pour tout θ ∈ Θ, le vecteur est mutuellement Pθ indépendant et tel que pour tout i ∈ J1, nK, Xi a la même loi que X.
1
(X1 , . . . , Xn ) est i.i.d. de loi X où X est une variable de Bernoulli de paramètre θ . Le paramètre θ est inconnu et le but est de
le déterminer à partir d’une réalisation du n-échantillon (X1 , . . . , Xn ).
Le modèle statistique que l’on propose est donc de se munir d’un espace probabilisable (Ω, A ) ainsi que d’une famille de
probabilité Pθ θ ∈[0,1] telle que pour tout θ ∈ Θ, Pθ (X = 1) = θ .
Chaque soir, 10 000 ampoules 1 brillent sur la tour Eiffel, et bien entendu chaque soir, et certains nombres d’ampoules
grillent. La mairie de Paris fait l’hypothèse que le nombre d’ampoules qui grillent un soir donné suit une loi de Poisson dont
elle aimerait connaitre le paramètre. Pour cela, on comptabilise chaque soir, sur n soirs, le nombre d’ampoules qui ont grillé.
On note Xi le nombre d’ampoules qui ont grillé le i-ième soir. On suppose que chaque soir est indépendant des autres et que
les conditions sont les mêmes chaque soir de telle sorte que (X1 , . . . , Xn ) peut être vu comme un n-échantillon i.i.d. de loi X
où X suit une loi de Poisson de paramètre inconnu θ .
Le modèle statistique que l’on propose est donc de se munir d’un espace probabilisable (Ω, A ) ainsi que d’une famille de
probabilité Pθ θ ∈]0,+∞[ tel que pour tout θ ∈ Θ =]0, +∞[, X ,→ P(θ ) sous la probabilité Pθ .
Remarque 3. Cette hypothèse est tout à fait raisonnable : elle provient de l’approximation de la loi binomiale par la loi de
Poisson dans le cas d’événements rares.
II-2) Définitions
Soit Θ ⊂ R p . On suppose l’existence d’un modèle statistique (Ω, A , Pθ )θ ∈Θ sur lequel on considère un n-échantillon
(X1 , . . . , Xn ) i.i.d. de même loi que X (variable aléatoire réelle sur (Ω, A ).
Soit une fonction g : Θ → R. Le but va être d’estimer la valeur g(θ ), qui sera en général une grandeur caractéristique de la
loi qu’on recherche comme son espérance, sa variance ou encore son étendue.
Exemple 2. — La loi d’une variable aléatoire de Bernoulli est entièrement déterminée par son espérance.
— La loi d’une variable aléatoire suivant une loi normale est entièrement déterminée par son espérance et sa variance.
— La loi d’une variable aléatoire suivant une loi uniforme sur un segment est entièrement déterminée par sa valeur
maximale et sa valeur minimale.
Définition 3. On appelle statistique d’un n-échantillon i.i.d. (X1 , . . . , Xn ), toute variable aléatoire de la forme Tn = ϕn (X1 , . . . , Xn )
où ϕn est une fonction continue de Rn dans R.
Remarque 4. L’hypothèse “continue” pour ϕn n’est pas nécessaire. On a seulement besoin que Tn soit effectivement une
variable aléatoire sur (Ω, A ).
1 n
Exemple 3. — La moyenne empirique est une statistique : ϕn (X1 , . . . , Xn ) =∑ Xk .
n k=1
1 n 1 n 2
— La variance empirique est une statistique : ϕn (X1 , . . . , Xn ) = ∑ Xk2 − ∑ Xk .
n k=1 n k=1
— Autres exemples de statistique : max(X1 , . . . , Xn ), min(X1 , . . . , Xn ).
Définition 4. On appelle estimateur de g(θ ) toute statistique Tn = ϕ( X1 , . . . , Xn ) tel que la fonction ϕn ne dépendent pas de
θ.
Remarque 5. Dans la pratique, on a accès à une réalisation de Tn notée tn = ϕn (x1 , . . . , xn ) qui nous donnera une estimation
de g(θ ).
Remarque 6. Le paramètre θ est inconnu, il est donc indispensable que la fonction ϕn ne dépende pas de θ .
Exemple 4. 1. Si (X1 , . . . , Xn ) est un n-échantillon i.i.d. de loi B(θ ) de paramètre θ inconnu, alors
1 n X1 − X2
Tn = ∑ Xk , Un =
n k=1 3
1. c’est vrai !
2
2. Si (X1 , . . . , Xn ) est un n-échantillon i.i.d. de loi P(θ ) de paramètre θ inconnu, alors
1 n 2 1 n 2
Tn = ∑ Xk − ∑ Xk
n k=1 n k=1
est un estimateur de θ .
3. Si (X1 , . . . , Xn ) est un n-échantillon i.i.d. de loi U ([a, b]) de paramètres (a, b) ∈ R2 , a < b inconnus, alors
Tn = max(X1 , . . . , Xn ) − min(X1 , . . . , Xn )
est un estimateur de b − a.
Remarque 7. On ne donne aucune condition sur la statistique ϕn (X1 , . . . , Xn ) (autre que de ne pas dépendre de θ ) pour être
un estimateur de g(θ ). On verra dans la suite des critères pour pouvoir dire si un estimateur est oui ou non pertinent.
Remarque 8. On a déjà vu que la loi d’une variable aléatoire dépend de la probabilité choisie. Il en va de même pour
l’existence des moments pour une variable aléatoire (une variable peut admettre une espérance pour une probabilité P mais
ne pas en admettre pour une autre probabilité Q.) Pour la suite, nous noterons
Eθ (X) et Vθ (X)
Définition 5 (Biais). On suppose que l’estimateur de Tn admet une espérance selon chaque probabilité Pθ pour θ ∈ Θ.
On appelle biais de l’estimateur de Tn la fonction définie sur Θ par
Θ → R,
b(Tn ) :
θ 7→ bθ (Tn ) = Eθ (Tn ) − g(θ )
On dit que l’estimateur Tn est sans biais si pour tout θ ∈ Θ, bθ (Tn ) = 0. Sinon, l’estimateur est dit biaisé.
a
! Lorsqu’on parle d’un estimateur, on précisera toujours estimateur de quoi.
Remarque 9. Le biais est un premier critère pour la pertinence d’un estimateur (ce qui confirme par exemple que Un n’est a
priori pas un bon estimateur). Cependant il n’est pas indispensable qu’un estimateur soit sans biais pour un bon estimateur.
Par exemple, pour l’exemple 2, on constate que le biais est d’autant plus petit que la taille d’échantillon est grande.
3
Exercice 1. Si (X1 , . . . , Xn ) est un n-échantillon i.i.d. de loi U ([a, b]) de paramètres (a, b) ∈ R2 , a < b inconnus, alors
calculer le biais de l’estimateur de b − a
Tn = max(X1 , . . . , Xn ) − min(X1 , . . . , Xn ).
Correction. On pose Zn = max(X1 , . . . , Xn ). Déterminons une densité de Zn pour ensuite calculer son espérance. Soit F la
fonction de répartition de Zn , comme Zn est à valeurs dans [a, b], on a que pour tout x ≥ b, F(a,b) (x) = 1 et pour tout x ≤ a,
F(a,b) (x) = 0. De plus, pour tout x ∈ [a, b]
On pose alors
0 si x 6∈ [a, b],
f(a,b) (x) = n x − a n−1
si x ∈ [a, b].
b−a b−a
qui est une densité de Zn . Alors
Z b Z b Z b
n x − a n−1 n x − a n−1 n x − a n−1
E(a,b) (Zn ) = x dx = (x − a) dx + a dx
a b−a b−a a b−a b−a a b−a b−a
n
= (b − a) + a
n+1
Par un calcul analogue pour le minimum Wn = min(X1 , . . . , Xn ), on trouve
n
E(a,b) (Wn ) = b − (b − a)
n+1
alors
n n b−a
b(a,b) (Tn ) = E(a,b) (Zn −Wn ) − (b − a) = a + (b − a) − b + (b − a) − (b − a) = −2
n+1 n+1 n+1
Remarque 10. Encore une fois, on rappelle que la notion de convergence en probabilité ou de convergence en loi dépendra
de la probabilité choisie.
Définition 6. On dit que Tn n∈N∗ est une suite d’estimateurs asymptotiquement sans biais de g(θ ) si
4
Exemple 6. On reprend l’exemple d’un n-échantillon (X1 , . . . , Xn ) de loi de Poisson de paramètre θ inconnu. On a vu que
θ
bθ (Tn ) = −
n
On dira donc que Tn est un estimateur est asymptotiquement sans biais de θ .
Définition 7. On dit que Tn est un estimateur convergent si pour tout θ ∈ Θ, la suite Tn n∈N∗
converge en probabilité selon
la probabilité Pθ vers g(θ ). Autrement dit,
∀ε > 0, lim Pθ |Tn − g(θ )| ≥ ε = 0.
n→+∞
Exercice 2. On considère un modèle statistique (Ω, A , Pσ : σ ∈]0, +∞[) et soit X ∈ (Ω, A ) tel que pour tout σ ∈]0, +∞[
X ,→ N (0, σ 2 )
selon la probabilité Pσ . On admettra qu’une variable aléatoire suivant une loi normale admet des moments à tout ordre. Soit
(X1 , . . . , Xn ) un n-échantillon i.i.d. de loi X et soit
1 n 2
Tn = ∑ Xk .
n k=1
Montrer que Tn est un estimateur convergent de σ 2 (on utilisera la loi faible des grands nombres) puis en déduire un estima-
teur convergent de σ .
Correction. Les variables (X1 , . . . , Xn ) sont de même loi et mutuellement indépendantes, on en déduit que (X12 , . . . , Xn2 ) sont
aussi de même loi et mutuellement indépendantes. Par la loi faible des grands nombres (les variables admettant toutes une
espérance et une variance car X admet un moment d’ordre 4), on a que pour tout σ > 0
1 n 2 Pσ
∑ Xk −→ E(X 2 ) = σ 2
n k=1
√
Par composition, on en déduit que Un = Tn est un estimateur convergent de σ .
Θ → R,
r(Tn ) :
7→ rθ (Tn ) = E (Tn − g(θ ))2 .
θ
5
Proposition 2 (Décomposition biais/variance du risque quadratique). Si Tn est un estimateur admettant un moment d’ordre
2 selon chaque Pθ (θ ∈ Θ), alors
∀θ ∈ Θ, rθ (Tn ) = Vθ (Tn ) + bθ (Tn )2 .
En particulier, si Tn est un estimateur sans biais
∀θ ∈ Θ, rθ (Tn ) = Vθ (Tn ).
Démonstration. On utilise la formule de Koenig Huygens et le fait que Tn et Tn − g(θ ) ont la même variance.
2
Vθ (Tn ) = Vθ (Tn − g(θ )) = Eθ (Tn − g(θ ))2 − Eθ (Tn − g(θ )) = rθ (Tn ) − bθ (Tn )2
Remarque 14. Pour obtenir un bon estimateur, on cherchera à obtenir un risque quadratique faible. On se dit alors que plus
le biais est petit, plus le risque est faible : c’est faux ! en général, réduire le biais d’un estimateur aura tendance à augmenter
la variance. Ainsi, il faut plutôt trouver un bon compromis biais/variance.
Théorème 1. Soit Tn n∈N∗ une suite d’estimateurs de g(θ ). Alors si
∀θ ∈ Θ, lim rθ (Tn ) = 0
n→+∞
Démonstration. Soit θ ∈ Θ. Supposons que lim rθ (Tn ) = 0, alors la variable aléatoire (Tn − g(θ ))2 étant positive et ad-
n→+∞
mettant une espérance, on a par l’inégalité de Markov que pour tout ε > 0
Remarque 15. Bien entendu, un estimateur Tn convergent de g(θ ) n’a pas forcément son risque quadratique qui converge
vers 0. Cependant, dans le cas où le risque quadratique tend vers 0, cela donne une bonne idée de la vitesse de convergence
de l’estimateur et donc de son efficacité à n fixé (suffisamment grand). Ainsi, lorsqu’on compare deux estimateurs, on choisit
celui qui a le risque quadratique qui converge le plus vite vers 0.
Définition 9. Soient Un = ϕn (X1 , . . . , Xn ) et Vn = ψn (X1 , . . . , Xn ) deux statistiques, (telles que φn et ψn ne dépendent pas de
θ ), telles que Un ≤ Vn , Pθ -presque sûrement pour tout θ ∈ Θ.
Soit α ∈ [0, 1], indépendant de θ . On dit que l’intervalle [Un ,Vn ] est un intervalle de confiance de g(θ ) au niveau de confiance
1 − α si pour tout θ ∈ Θ,
Pθ g(θ ) ∈ [Un ,Vn ] = Pθ Un ≤ g(θ ) ≤ Vn ≥ 1 − α.
Remarque 17. Dire que [Un ,Vn ] est un intervalle de confiance de g(θ ) au niveau de confiance 1 − α signifie que l’on peut
affirmer que un ≤ g(θ ) ≤ vn avec un risque de se tromper de α (où un et vn sont les réalisations de Un et Vn ).
6
Remarque 18. Construire un intervalle de confiance de g(θ ) au niveau de confiance 1 − α revient à prendre une réalisation
(x1 , . . . , xn ) du n-échantillon (X1 , . . . , Xn ) pour obtenir une réalisation un de Un et vn de Vn , et ainsi obtenir l’intervalle [un , vn ].
Remarque 19. Il faut être vigilant avec l’écriture Pθ (g(θ ) ∈ [Un ,Vn ]) : g(θ ) n’est pas une variable aléatoire mais ce sont Un
et Vn qui en sont.
Remarque 20. La plupart du temps, les variables Un et Vn sont de la forme Un = Tn − εn et Vn = Tn + εn où εn est suite
déterministe de réels positifs et Tn est un estimateur de g(θ ).
Exemple 8 (Intervalle de confiance obtenu par l’inégalité de Bienaymé-Tchebychev). Si (X1 , . . . , Xn ) est un n-échantillon
i.i.d. de loi B(θ ) de paramètre θ inconnu, alors on sait que
1 n
Tn = ∑ Xk
n k=1
θ (1 − θ )
Ainsi, la probabilité que g(θ ) appartienne à l’intervalle [Tn − ε, Tn + ε] est plus grande que 1 − . Cependant, on ne
n
connait pas θ , on ne peut donc pas donner un intervalle de confiance avec un risque dépendant de θ . On utilise alors le fait
que pour tout x ∈ [0, 1], x(1 − x) ≤ 14 (étude rapide de fonction) donc
1
P |Tn − θ | ≥ ε ≤
4nε 2
Ainsi, pour tout n ∈ N∗ et pour tout ε > 0, Tn − ε, Tn + ε est un intervalle de confiance de θ au niveau de confiance
1
1− . Donc, pour tout α ∈]0, 1[, si on veut un risque valant α, on a
4nε 2
1 1
α= 2
⇔ ε= √ √
4nε 2 α n
donc l’intervalle h 1 1 i
Tn − √ √ , Tn + √ √
2 α n 2 α n
est un intervalle de confiance de θ au niveau de confiance 1 − α.
Pour tout n ≥ 1, on considère un n-échantillon (X1 , . . . , Xn ) i.i.d. de même loi que X. On considère la statistique
X1 + · · · + Xn 1 n
Tn = = ∑ Xk
n n k=1
7
Démonstration. Soit θ ∈ Θ. Par les propriétés de la loi normale (stabilité par somme indépendante et multiplication par un
scalaire), on en déduit Tn suit une loi normale. Or
1 n
E Tn = ∑ E(Xk ) = θ
n k=1
et
1 n σ2
V(Tn ) = ∑ V(Xk ) =
n2 k=1 n
On en déduit que Tn ,→ N (θ , σ 2 /n), donc
Tn − θ
√ ,→ N (0, 1)
σ/ n
Pour simplifier les notations, on notera z1−α/2 = Φ−1 (1 − α/2). Alors
σ σ
Pθ θ ∈ Tn − √ z1−α/2 , Tn + √ z1−α/2
n n
σ σ
= P θ − √ z1−α/2 ≤ Tn ≤ θ + √ z1−α/2
n n
Tn − θ
= P − z1−α/2 ≤ √ ≤ z1−α/2
σ/ n
= Φ z1−α/2 − Φ − z1−α/2
α
= 2Φ z1−α/2 − 1 = 2(1 − ) − 1 = 1 − α
2
Exemple 9 (Intervalle de confiance obtenu par l’approximation d’une variable binomiale par loi normale). Si (X1 , . . . , Xn )
est un n-échantillon i.i.d. de loi B(θ ) de paramètre θ inconnu. On reprend l’exemple de l’estimateur
1 n
Tn = ∑ Xk
n k=1
Pour n suffisamment grand, on sait qu’on peut approximer Tn à une variable aléatoire Zn suivant une loi normale de même
espérance et de même variance que Tn
θ (1 − θ )
Zn ,→ N (θ , )
n
En utilisant que le fait que Tn ' Zn et en utilisant la même idée que précédemment, on a que
r r !
h θ (1 − θ ) −1 θ (1 − θ ) −1 i
Pθ θ ∈ Tn − Φ (1 − α/2), Tn + Φ (1 − α/2) ' 1 − α
n n
donc r r
h θ (1 − θ ) −1 θ (1 − θ ) −1 i
Tn − Φ (1 − α/2), Tn + Φ (1 − α/2)
n n
pourrait un intervalle de confiance de θ de niveau de confiance 1 − α, cependant les bornes de l’intervalle dépendent de θ !
Donc, on utilise à nouveau
1
θ (1 − θ ) ≤
4
pour dire que
r r
h θ (1 − θ ) −1 θ (1 − θ ) −1 i h 1 1 i
Tn − Φ (1 − α/2), Tn + Φ (1 − α/2) ⊂ Tn − √ Φ−1 (1 − α/2), Tn + √ Φ−1 (1 − α/2)
n n 2 n 2 n
8
donc h 1 1 i
Pθ θ ∈ Tn − √ Φ−1 (1 − α/2), Tn + √ Φ−1 (1 − α/2) ≥ 1 − α
2 n 2 n
h 1 1 i
Finalement, on peut dire que Tn − √ Φ−1 (1 − α/2), Tn + √ Φ−1 (1 − α/2) est un intervalle de confiance de θ de
2 n 2 n
niveau de confiance 1 − α.
Remarque 23. On obtient ainsi deux intervalles de confiances de niveau 1 − α différents pour estimer le paramètre d’une
loi de Bernoulli.
h 1 1 i h 1 1 i
Tn − √ √ , Tn + √ √ et Tn − √ Φ−1 (1 − α/2), Tn + √ Φ−1 (1 − α/2)
2 α n 2 α n 2 n 2 n
1
On donne ici un tableau comparatif des valeurs √ et Φ−1 (1 − α/2)
α
α 10% 5% 2% 1%
√
1/ α 3.16 4.47 7.07 10
Φ−1 (1 − α/2) 1.64 1.96 2.33 2.58
Un intervalle de confiance obtenu avec l’inégalité de Bienaymé Tchebychev est moins précis.
Exercice 3. Un institut de sondage a observé, sur un échantillon de 1600 personnes prises au hasard, 836 intentions de vote
en faveur d’un candidat A face à un candidat B lors d’un second tour d’élection présidentielle. On note θ la proportion de
votant pour A dans la population.
1. Estimer la valeur de θ à l’aide d’un intervalle de confiance à 90%, puis 95%.
2. Peut-on affirmer, avec confiance, qui de A ou de B est en tête dans les intentions de vote ?
x 1.64 1.96
Si Φ est la fonction de répartition de la loi normale centrée réduite, alors
Φ(x) 0.95 0.975
Correction. Pour tout k ∈ J1, nK, on note Xk = 1 si la k-ième personne interrogée se déclare en faveur de A et Xk = 0 sinon.
On suppose alors que (X1 , . . . , Xn ) est un n-échantillon i.i.d. de loi B(θ ) et on pose
1 n
Tn = ∑ Xk
n k=1
836
Tn (ω) = = 0.5225
1600
On construit donc l’intervalle de confiance suivant
1.64 1.64
0.5225 − , 0.5225 + = 0.5020, 0.5430
80 80
Et pour 1 − α = 95%, i.e. α = 0.05, on a Φ−1 (1 − 0.025) = Φ−1 (0.975) = 1.96. On trouve alors
1.96 1.96
0.5225 − , 0.5225 + = 0.4980, 0.5470
80 80
Avec un risque d’erreur à 10%, on peut affirmer que θ > 0.5 donc que A va gagner. Mais avec un risque de 5%, on ne peut
a priori rien affirmer.
9
III-3) Intervalle de confiance asymptotique
On considère un modèle statistique Ω, A , Pθ
θ ∈Θ
et pour tout n ≥ 1, on considère un n-échantillon (X1 , . . . , Xn ) i.i.d.
Définition 10. Pour tout n ≥ 1, soient Un = ϕn (X1 , . . . , Xn ) et Vn = ψn (X1 , . . . , Xn ) deux statistiques, (telles que φn et ψn ne
dépendent pas de θ ), telles que Un ≤ Vn , Pθ -presque sûrement pour tout θ ∈ Θ. Soit α ∈ [0, 1], indépendant de θ .
On dit que la suite ([Un ,Vn ])n≥1 est un intervalle
de confiance asymptotique de g(θ ) au niveau de confiance 1 − α si pour
tout θ ∈ Θ, il existe une suite de réels αn n∈N∗ à valeurs dans [0, 1], de limite α, et telle que pour tout n ≥ 1,
Pθ (Un ≤ g(θ ) ≤ Vn ) ≥ 1 − αn
Remarque 24. Par abus de langage, on dira que [Un ,Vn ] est un intervalle de confiance asymptotique.
Proposition 4. Soit Ω, A , Pθ θ ∈Θ un modèle statistique soit X une variable aléatoire définie sur (Ω, A ) tel que pour tout
θ ∈ Θ, X admet un moment d’ordre 4 et telle que son espérance et sa variance sont des fonctions de θ : m(θ ) et σ 2 (θ ). Soit
(X1 , . . . , Xn ) est n-échantillon i.i.d. de même loi que X. Alors, l’écart-type empirique
s
1 n 2 1 n 2
Sn = ∑ Xk − ∑ Xk
n k=1 n k=1
On sait que par la loi faible des grands nombres (X 2 admet bien un moment d’ordre 2)
1 n Pθ
∑ Xk −→
n k=1
m(θ )
1 n 2 Pθ
∑ Xk −→ E(X 2 ) = σ 2 (θ ) + (m(θ ))2
n k=1
Donc par le théorème de Slutsky et le théorème de composition par une fonction continue pour la convergence en probabilité,
on a
1 n 2 Pθ
∑ Xk −→ (m(θ ))2
n k=1
1 n 2 1 n 2 Pθ
∑ Xk − ∑ Xk −→ σ 2 (θ )
n k=1 n k=1
s
1 n 2 1 n 2 Pθ
Sn = ∑ Xk − ∑ Xk −→ σ (θ )
n k=1 n k=1
Théorème 2. Soit Ω, A , Pθ θ ∈Θ un modèle statistique soit X une variable aléatoire définie sur (Ω, A ) tel que pour tout
θ ∈ Θ, X admet un moment d’ordre 2 et telle que son espérance et sa variance sont des fonctions de θ : m(θ ) et σ 2 (θ ). Soit
(X1 , . . . , Xn ) est n-échantillon i.i.d. de même loi que X.
Soit Sn un estimateur convergent de l’écart-type σ (θ ) alors pour tout α ∈]0, 1[.
h Sn Sn i
Tn − Φ−1 (1 − α/2) √ , Tn + Φ−1 (1 − α/2) √
n n
1 n
est un intervalle de confiance asymptotique de m(θ ) de niveau 1 − α, où Tn = ∑ Xk .
n k=1
10
Démonstration. Pour démontrer que
h Sn Sn i
Tn − Φ−1 (1 − α/2) √ , Tn + Φ−1 (1 − α/2) √
n n
existe et vaut 1 − α. Or
−1 Sn −1 Sn
Pθ Tn − Φ (1 − α/2) √ ≤ m(θ ) ≤ Tn + Φ (1 − α/2) √
n n
Sn Sn
= Pθ −Φ−1 (1 − α/2) √ ≤ Tn − m(θ ) ≤ Φ−1 (1 − α/2) √
n n
Sn Tn − m(θ ) Sn
= Pθ −Φ−1 (1 − α/2) ≤ √ ≤ Φ−1 (1 − α/2)
σ σ/ n σ
−1 Tn − m(θ ) −1
= Pθ −Φ (1 − α/2) − εn ≤ √ ≤ Φ (1 − α/2) + εn
σ/ n
Sn
où εn = Φ−1 (1 − α/2)
− 1 . D’une part, on sait par le théorème central limite que
σ
Tn − m(θ ) L
√ −→ Z
σ (θ )/ n n→+∞
P
εn −→ 0
n→+∞
Tn − m(θ ) L
√ + εn −→ Z
σ (θ )/ n n→+∞
Tn − m(θ ) L
√ − εn −→ Z
σ (θ )/ n n→+∞
Donc
Tn − m(θ ) −1
lim Pθ √ − εn ≤ Φ (1 − α/2) = P(Z ≤ Φ−1 (1 − α/2))
n→+∞ σ/ n
= 1 − α/2
Tn − m(θ )
lim Pθ √ + εn ≤ −Φ−1 (1 − α/2) = P(Z ≤ −Φ−1 (1 − α/2))
n→+∞ σ/ n
= 1 − (1 − α/2) = α/2
Donc
−1 Tn − m(θ ) −1
lim Pθ −Φ (1 − α/2) − εn ≤ √ ≤ Φ (1 − α/2) + εn
n→+∞ σ/ n
Tn − m(θ ) −1 Tn − m(θ ) −1
= lim Pθ √ − εn ≤ Φ (1 − α/2) − Pθ √ + εn ≤ −Φ (1 − α/2)
n→+∞ σ/ n σ/ n
= 1 − α/2 − (α/2) = 1 − α
11
Remarque 26. En particulier, si X admet un moment d’ordre 4, on connait un estimateur convergent de l’écart-type. Cela
permet d’obtenir des intervalles de confiance en remplaçant les σ par son estimateur.
Exemple 10. Si (X1 , . . . , Xn ) est un n-échantillon i.i.d de loi de Bernoulli (θ ) de paramètre inconnu θ , alors
r r
h Tn (1 − Tn ) −1 Tn (1 − Tn ) −1 i
Tn − Φ 1 − α/2 , Tn + Φ 1 − α/2
n n
est un intervalle de confiance asymptotique de θ au niveau 1 − α où
1 n
Tn = ∑ Xk .
n k=1
Exercice 4. Soit (Ω, A , P) un espace probabilisé et n un entier ≥ 1. On considère un n-échantillon (X1 , . . . , Xn ) défini sur
(Ω, A , P), i.i.d. de loi normale N (µ, σ 2 ). On suppose que les paramètres µ et σ 2 sont inconnus et l’objectif est d’estimer
µ à l’aide d’un intervalle de confiance.
1. Donner un estimateur Sn convergent de σ .
2. Montrer que P(Sn = 0) = 0.
3. Soit α ∈]0, 1[. Donner un intervalle de confiance asymptotique de µ à un niveau de confiance 1 − α. On notera
z1−α/2 = Φ−1 (1 − α/2) où Φ désigne la fonction de répartition de la loi normale centrée réduite.
Correction. 1. On a bien entendu envie de considérer l’écart-type empirique comme estimateur. On pose
v !2
u
u1 n 1 n
2
Sn = t
∑ Xk − n ∑ Xk
n k=1 k=1
D’une part, les variables (X12 , . . . , Xn2 ) sont i.i.d., admettent un moment d’ordre 2 (il faut savoir justifier qu’une
variable aléatoire suivant une loi normale admet un moment d’ordre 4) et ont pour espérance commune E(X12 ) =
V(X1 ) + E(X1 )2 = σ 2 + µ 2 donc par la loi faible des grands nombres
1 n 2 P
−→ σ 2 + µ 2
∑ Xk n→+∞
n k=1
1 n P
−→ µ
∑ Xk n→+∞
n k=1
P
Sn −→ σ
n→+∞
12
2. On remarque que v
u !2 s
u1 n 1 n 1 n 1 n 2
Sn = t ∑ Xk2 − ∑ Xk = ∑ Xk − ∑ Xi )
n k=1 n k=1 n k=1 n i=1
On en déduit que
n n
1 n 2 \ 1 n
[Sn = 0] = [ ∑ Xk − ( ∑ i X ) = 0] = [Xk − ( ∑ Xi ] ⊂ [X1 = X2 = · · · = Xn ] ⊂ [X1 = X2 ]
k=1 n i=1 k=1
n i=1
Or X1 et X2 sont deux variables aléatoires de loi normale indépendantes donc X1 − X2 est aussi une variable de loi
normale, donc X1 − X2 est une variable à densité. On en déduit que l’événement
[X1 = X2 ] = [X1 − X2 = 0]
σ2
Tn ,→ N (µ, )
n
donc
√ Tn − µ
n ,→ N (0, 1)
σ
On en déduit qu’il existe Z ,→ N (0, 1) tel que
√ Tn − µ L
n −→ Z
σ n→+∞
P σ P
Or Sn −→ σ donc −→
Sn n→+∞ 1 (car Sn > 0 p.s.) et par le théorème de Slutsky
n→+∞
√ Tn − µ √ Tn − µ σ L
n = n × −→ Z
Sn σ Sn n→+∞
Ainsi, pour n assez grand
√ Tn − µ
P −z1−α/2 ≤ n ≤ z1−α/2 ' Φ(z1−α/2 ) − Φ(−z1−α/2 ) = 2Φ(z1−α/2 ) − 1 = 1 − α
Sn
donc
Sn Sn
P Tn − √ z1−α/2 ≤ µ ≤ Tn + √ z1−α/2 ' 1 − α
n n
On en déduit que l’intervalle Tn − √Snn z1−α/2 , Tn + √Snn z1−α/2 est un intervalle asymptotique de confiance de µ à un
niveau 1 − α.
13