Bon Cour
Bon Cour
Bon Cour
P. Ribereau
I Echantillonage
1 Modèle statistique
On suppose que les variables aléatoires X1 , . . . , Xn sont indépendantes et identi-
quement distribuées (i.i.d.). tq Xi ∼ Pθ
1
Remarque.
On distingue :
— la statistique Tn qui est une variable aléatoire sur (Rn , B, Q). Dans l’exemple
précédent, c’est l’application moyenne empirique (on est ici au niveau concep-
tuel, mathématique).
— la variable aléatoire Tn (X1 , . . . , Xn ) qui est une variable aléatoire sur (Ω, B).
Dans l’exemple précédent, c’est la variable aléatoire X n (on est ici au niveau
de la statistique inférentielle).
— la valeur observée de cette variable aléatoire : Tn (x1 , . . . , xn ) ∈ Rk . Dans
l’exemple précédent, c’est le nombre réel x̄n , moyenne empirique de la série
statistique x1 , . . . , xn (on est au niveau de la statistique descriptive).
b. Notion de biais
— On appelle biais de l’estimateur Tn pour le paramètre g(θ) la quantité
2
d. Comparaisons des estimateurs
On utilise le risque quadratique pour comparer deux estimateurs du même para-
mètre g(θ). Pour l’estimateur Tn de g(θ), il est défini par :
II Estimation
— On reste dans le cadre du modèle :
3
— Soit L la vraisemblance.Qn On a :
L(x1 , . . . , xn , θ) = i=1 f (xi , θ).
— Soit X ⊂ R le support de f (x, θ) où
∂ ∂2
(H3) ∂θ f (x, θ) et ∂θ 2 f (x, θ) sont définies ∀(x, θ) ∈ X × Θ.
(H4) On suppose que les dérivés et dérivés secondes de f par rapport à θ sont
dominées par des fonctions µ-intégrables sur tout compact inclu dans Θ : pour
tout compact K ⊂ Θ, il existe deux fonctions positive µ-intégrables φ(x) et
ψ(x) telles que pour tout θ ∈ K et presque tout x ∈ X ,
2
∂ ∂
f (x, θ) ≤ φ(x) et f (x, θ) ≤ ψ(x).
∂θ ∂θ2
2 Information
a. Information de Fisher
Définition II.1 On appelle fonction score ou score la fonction S définie par :
S : X × Θ −→ R
∂
(x, θ) 7−→ S(x, θ) = ∂θ
ln(f (x, θ))
Remarques.
— Le score n’est défini que si (H1), (H2) et (H3) sont vraies.
— On peut définir de même le score à partir de la vraisemblance.
∂
Sn (x, θ) = ln(L(x, θ)) avec ici x ∈ Rn .
∂θ
Dans le modèle d’échantillonage, on a : Sn (x, θ) = ni=1 S(xi , θ).
P
Propriétés.
I : Θ −→ R+
θ 7−→ I(θ) = IE (S(X, θ))2
4
Remarques. On peut aussi poser (en terme de vraisemblance) :
b. Propriétés.
∂2 ∂2
I(θ) = V(S(X, θ)) = −IE ln(f (X, θ)) et In (θ) = V(Sn (X, θ)) = −IE ln(L(X, θ)) .
∂θ2 ∂θ2
Dans le modèle d’échantillonage, on a donc :
In (θ) = nI(θ).
3 Inégalité de Cramer-Rao
a. Hypothèses supplémentaires
(H5) 0 < In (θ) < +∞ ou 0 < I(θ) < +∞.
Soit Tn un estimateur. Posons IEθ [Tn ] = g(θ).
Définition II.3 — On dit que l’estimateur Tn est efficace s’il vérifie V(Tn ) =
KTn (θ).
KTn (θ)
— Si Tn n’est pas efficace mais que → 1 quand n → +∞, on dit que
V(Tn )
l’estimateur Tn est asymptotiquement efficace.
Propriétés.
(P1) Si Tn est un estimateur efficace de θ, alors kTn + b est aussi un estimateur
efficace de θ, ∀k ∈ R∗ , ∀b ∈ R.
(P2) Soient T1n et T2n deux estimateurs sans biais du paramètre θ. S’ils sont
tous les deux efficaces, alors T1n = T2n presque sûrement.
5
c. Dégradation de l’information
Si h(t, θ) est la vraissemblance de T , on note IT (θ) l’information relative à T :
∂ ln h(t, θ)
IT (θ) = IE(S(T , θ)2 ) où S(T , θ) = .
∂θ
∂2
IT (θ) vérifie les mêmes propriétés (centrée, relation avec ∂θ 2 h, inégalité de Cramer-
4 Notion d’exhaustivité
Définition II.4 (Principe de factorisation) La statistique Tn est ici une variable
aléatoire définie sur (X , BX , (Pθ , θ ∈ Θ ⊂ R))n à valeurs dans (Θ, BΘ ).
On considère :
— la vraisemblance (fonction de densité ou probabilité) de Tn que l’on va noter
h(t, θ),
— la densité conjointe de l’échantillon (X1 , . . . , Xn ) notée L(x1 , . . . , xn , θ),
On dira que la statistique Tn est exhaustive pour θ s’il existe une fonction k sur
X n telle que
6
b. Théorème sur l’efficacité
Théorème II.4 Si X ne dépend pas de θ et que le modèle admette un estimateur
efficace alors le modèle est exponentiel car l’estimateur est nécessairement exhaustif.
γ 0 (θ)
g(θ) = − ,
α0 (θ)
g 0 (θ)
g(θ) = IEθ (T ), et Vθ (T ) = nα0 (θ)
.
1
Pn r
On appelle moment empirique d’ordre r : mr = n i=1 (xi ) .
7
M1 (θ) = m1
..
.
M (θ) = m
p p
Propriété.
Si le modèle vérifie les propriétés (H1), (H2) et (H3),
alors pour que θ̂n soit un EMV de θ il est nécessaire que
∂ ln L(X, θ)
• = 0 soit Sn (X, θ̂n ) = 0 (équation de vraisemblance),
∂θ
θ=θ̂n
∂ 2 ln L(X, θ)
• < 0.
∂θ2
θ=θ̂n
Propriété (lien avec l’exhaustivité).
S’il existe une statistique exhaustive Tn pour θ, alors l’EMV de θ ne dépend que
de Tn .
7 Exercices
Exercice 1. On considère la loi normale N (µ, σ 2 ).
a) On suppose σ 2 connue et l’on considère le modèle paramétrique réel d’échan-
tillonnage suivant
n
R, BR , (N (µ, σ 2 ), µ ∈ Θ = R) .
L’estimateur X n est-il un estimateur efficace de µ ?
b) Sans supposer µ connue, on pose θ = σ 2 et l’on considère le modèle paramé-
trique réel d’échantillonnage suivant
n
R, BR , (N (µ, σ 2 ), σ 2 ∈ Θ = R∗+ ) .
L’estimateur Sn2 est-il un estimateur efficace de σ 2 ?
Exercice 2.
a) Montrer que la loi de Poisson appartient à la famille exponentielle.
b) Montrer que la loi de Cauchy n’appartient pas à la famille exponentielle.
8
Exercice 3. Déterminer l’EMV du paramètre λ d’une loi de Poisson. En étudier
les propriétés (biais, convergence, efficacité, exhaustivité).
Exercice 4. Ecrire la vraisemblance d’une loi de Bernoulli de paramètre p ∈]0, 1[.
Déterminer l’EMV de p. Etudier ses propriétés (biais, convergence, efficacité,
exhaustivité).
Exercice 5.
a) Déterminer l’EMV θ̂n du paramètre θ de la loi uniforme sur [0, θ] avec θ ∈ R∗+ .
b) Déterminer la densité de probabilité de θ̂n .
c) Calculer IE[θ̂n ] et V(θ̂n ).
d) Etudier les propriétés de θ̂n (biais, convergence, efficacité).
e) Proposer un estimateur Tn de θ sans biais et convergent.
f) Choisir entre θ̂n et Tn au moyen du risque quadratique.
g) Montrer que l’estimateur de θ obtenu par la méthode des moindres carrés est
identique à l’estimateur des moments. On notera Un cet estimateur.
h) Etudier les propriétés de Un (biais et convergence) et le comparer à Tn .
i) Commenter.
9
p
X
R(Tn , θ) = IE [(Tn − θ)0 (Tn − θ)] = IE (Tn,j − θj )2 .
— Il est défini par :
j=1
— Propriété :
p
X
0
R(Tn , θ) = B(Tn ) B(Tn ) + V(Tn,j ).
j=1
∂ ∂2
f (x, θ) et f (x, θ)
∂θj ∂θj ∂θk
vérifient la propriété de domination sur tout compact de Θ (par des fonctions
de x µ-intégrables).
Fonction de score (ou score)
On suppose les hypothèses (H10 ), (H20 ) et (H30 ) vérifiées.
Définition. La fonction score est définie par :
S : X × Θ −→ Rp
∂
∂θ1
ln(f (x, θ))
..
(x, θ) 7−→ S(x, θ) = gradθ ln(f (x, θ) =
.
∂
∂θp
ln(f (x, θ))
Remarques et propriétés.
— On peut aussi définir le score du modèle de dimension n : Sn (x, θ) = gradθ ln(L(x, θ)).
— Sous (H40 ), on peut montrer que : IE[S(X, θ)] = 0p = IE[Sn (x, θ)].
10
Matrice d’information de Fisher
Définition. La matrice d’information de Fisher est une matrice carrée p×p définie
par :
11
c. Généralisation de la méthode du maximum de vraisemblance
Caractérisation de l’EMV θ̂n . Si les hypothèses (H10 ), (H20 ) et (H30 ) sont vé-
rifiées, alors pour déterminer θ̂n ,
i) on résoud Sn (X, θ̂n ) = 0 (équations de vraisemblance),
ii)) on vérifie que la matrice hessienne de ln L (matrice carrée d’ordre p de terme
2
général ∂θ∂j ∂θk ln(L(x, θ)) calculée en θ̂n est définie négative,
iii) on vérifie que le maximum local est un maximum.
b. En dimension supérieure
Les résultats de convergence pour l’EMV en dimension supérieure restent va-
lables :
Théorème III.3 Si les hypothèses (H10 ) à (H70 ) sont toutes vérifiées, alors on a :
√
n(θ̂n − θ) −→loi Np (0n , I −1 (θ)).
12
2 Définitions / outils
a. Normalité et efficacité asymptotique
Soit Tn√un estimateur de θ.
— Si n(Tn − θ) −→loi Np (0p , Σ),
alors on dit que Tn est asymptotiquement normal. La matrice Σ est appelée
matrice de variances-covariances aymptotique de Tn . (Cela n’implique pas que
nV(T√ n ) → Σ.)
— Si n(Tn − θ) −→loi Np (0p , I −1 (θ)),
alors on dit que Tn est asymptotiquement efficace.
b. Méthode Delta
Soit g une fonction C 1 . On suppose que Tn est un estimateur de θ tel que
L
an (Tn − θ) −→ N (0, σ 2 (θ))
avec an → ∞. Alors, g(Tn ) converge en probabilité vers g(θ) et
L
an (g(Tn ) − g(θ)) −→ N (0, g 0 (θ)2 σ 2 (θ)).
En dimension supérieure, on considère Tn un vecteur aléatoire de Rk , Σ une
matrice de covariance. On suppose que
L
an (Tn − θ) −→ N (0, Σ)
avec an → ∞. Alors, pour toute fonction g de classe C 1 , g(Tn ) converge en
probabilité vers g(θ) et
L
an (g(Tn ) − g(θ)) −→ N (0, Dg ΣDgt )
où Dg est la matrice Jacobienne de g calculée en θ.
3 Exercices
Exercice 1. On considère le modèle d’échantillonnage normal avec Pθ = N (µ, σ 2 ).
a) Déterminer l’EMV de θ = (µ, σ 2 ).
b) Etudier ses propriétés (biais, convergence, efficacité).
c) Quelle fonction h(θ) peut-on estimer par un estimateur sans biais et efficace ?
Exercice 2. On considère le modèle d’échantillonnage multinomial à k ≥ 3 caté-
gories :
k
!n
X
R, B(R), B(p1 , . . . , pk ), pi ∈ [0, 1], pi = 1
i=1
avec X B(p1 , . . . , pk ), P(X = ai ) = pi .
a) Déterminer l’EMV de θ = (p1 , . . . , pk−1 ).
b) Montrer qu’il est sans biais, convergent et efficace.
13
IV Estimation par intervalle de confiance
1 Introduction
On va considérer dans ce chapitre un modèle statistique réel paramétrique (avec
un paramètre unidimensionnel) :
P (An ≤ θ ≤ Bn ) = 1 − α.
14
Pn Pn
i=1 (Xi − X n )2 2 i=1 (Xi − X n )2
≤σ ≤
k2 k1
où k1 (resp. k2 ) est le fractile d’ordre α1 (resp. 1 − α2 ) de la loi du chi-deux
2
χ (n − 1).
4 Exercices
Exercice 1. Soient X1 , . . . , X10 dix variables aléatoires i.i.d. de loi N (µ, σ 2 ). On
dispose des observations suivantes :
6 8 1 5 6 7 6 6 5 9
Calculer les intervalles de confiance de niveau 95% suivants :
- pour µ, sachant que σ 2 = 4 ;
- pour µ, ne connaissant pas σ 2 ;
- pour σ 2 , puis pour σ, ne connaissant pas µ.
Exercice 2.
Dans une fabrication en série, on cherche à estimer le taux de pièces défectueuses.
Pour cela, on a réalisé, à quatre périodes différentes, quatre prélèvements. Les résul-
tats sont les suivants :
6 pièces défectueuses sur 30,
10 pièces défectueuses sur 50,
20 pièces défectueuses sur 100,
40 pièces défectueuses sur 200.
Déterminer, dans chaque cas, l’intervalle de confiance de niveau 95% de ce taux.
Exercice 3.
15
Déterminer l’intervalle de confiance de niveau 95% de la proportion p d’un évé-
nement E, lorsque sur 80 expériences (indépendantes), l’événement s’est produit 45
fois.
Exercice 4.
En utilisant le théorème central limite, construire un intervalle de confiance de
niveau asymptotiquement égal à 1 − α pour le paramètre λ d’une loi de Poisson.
Application numérique : On compte le nombre de parasites par fruit dans
un lot de fruits parasités et on obtient :
Si l’on suppose que le nombre de parasites suit une loi de Poisson de paramètre
λ,
donner l’intervalle de confiance de niveau asymptotiquement égal à 99% pour le
paramètre λ.
Exercice 5.
On considère une variable aléatoire réelle continue de densité :
0 si x < 2,
f (x) =
θ exp(−θ(x − 2)) si x ≥ 2,
avec θ > 0.
1. Vérifier que cette loi appartient à la famille exponentielle.
2. En utilisant les propriétés de l’EMV de θ, construire un intervalle de confiance
pour θ de niveau asymptotiquement égal à 1 − α.
3. Application numérique : Calculer cet intervalle de confiance pour n =
200, x̄n = 6, 68 et α = 5%.
Exercice 6.
On considère n1 variables aléatoires réelles X1,1 , . . . , X1,n1 i.i.d. de loi N (µ1 , σ 2 )
et
n2 variables aléatoires réelles X2,1 , . . . , X2,n2 i.i.d. de loi N (µ2 , σ 2 ). On suppose
de plus les variables Xk,i (k = 1, 2 et i = 1, . . . , nk ) mutuellement indépendantes.
n1
1 X
1. Soient X 1 = X1,i et
n1 i=1
n2
1 X
X2 = X2,i . Quelle est la loi de X 1 − X 2 ?
n2 i=1
"n n2
#
1
1 X X
2. Soit S 2 = (X1,i − X 1 )2 + (X2,i − X 2 )2 .
n1 + n2 − 2 i=1 i=1
S2
Quelle est la loi de (n1 + n2 − 2)?
σ2
3. En déduire un intervalle de confiance de niveau 1 − α pour le paramètre
µ1 − µ2 .
16
4. Application numérique : On a observé n1 = 10 et n2 = 8 observations
dans chacune des deux populations considérées. Les données obtenues sont
les suivantes :
x1,i : 1,36 2,66 2,05 1,85 2,28 1,71 0,75 1,97 1,70 1,68
x2,i : 1,91 2,03 1,31 1,33 2,68 2,04 0,40 3,31
Calculer l’intervalle de confiance de niveau 95% pour le paramètre µ1 − µ2 .
La mise en œuvre du critère du test détermine une zone de rejet ou zone critique
W , W c est la zone d’acceptation ou zone de confiance. On appelle risque de première
espèce, notée α, la probabilité de rejeter l’hypothèse H0 alors qu’elle est vraie, α =
P(W |H0 ). La probabilité, notée 1 − β, de retenir l’hypothèse H0 alors qu’elle est
fausse s’appelle risque de deuxième espèce, 1 − β = P(W c |H1 ). La probabilité β
s’appelle puissance du test.
Définition V.1 Un test est donné par une fonction Φ : E n −→ {0, 1}, on
retiendra H0 si Φ(X1 , . . . , Xn ) = 0, on rejette H0 si Φ(X1 , . . . , Xn ) = 1. On appelle
zone de rejet l’ensemble R = {Φ(X1 , . . . , Xn ) = 1}. Évidemment, étant donnée une
zone de rejet R ⊂ E n , on définit un test en posant Φ = 1IR .
17
Dans un premier temps, on supposera que H0 et H1 sont des hypothèses simples :
H0 : θ = θ0 , H1 : θ = θ1 .
L(x, θ1 )
Vθ0 ,θ1 (x) =
L(x, θ0 )
le rapport de vraissemblance. On considère la famille de tests Φk dont la région
critique Rk est de la forme :
1. Soit α > 0, si Φk est un test de niveau α alors il est p.p. que tout autre test
de niveau ≤ α, de plus il est sans biais.
2. Si α ∈]0, 1[,si les lois Pθ sont absoluement continues, il existe kα ∈ R tel que
Φkα est de niveau α. Si les lois Pθ sont discrètes alors il existe un plus petit
kα tel que Φkα est de niveau ≤ α.
3. Soit Φ un test p.p. de niveau α alors ∀θ ∈ {θ0 , θ1 },
g(t, θ)
est une fonction croissante de t.
g(t, θ0 )
fk = {T > k} est u.p.p. pour tester θ = θ0 contre
Alors le test de zone de rejet R
θ > θ0 .
18
3 Tests fondés sur le rapport du maximum de vraisemblance
Définition V.5 On appellera test du maximum de vraisemblance tout test fondé
sur la région critique
n supθ∈Θ1 L(x, θ)
W = x∈R / > kα ,
supθ∈Θ0 L(x, θ)
où kα est choisit tel que sup Pθ (W ) = α.
θ∈Θ0
Décision et “p-value”
Lorsqu’on procède à un test, on fixe l’hypothèse H0 , par exemple θ = θ0 , on
choisit une hypothèse alternative H1 :
H1 : θ 6= θ0 hypothèse bilatérale
4 Tests asymptotiques
(N )
Définition V.6 On considére une suite (E (N ) , B (N ) , (Pθ )θ∈Θ ) de modèles d’échan-
tillonages paramétriques ayant le même espace de paramètres Θ. On note X (N ) le
vecteur aléatoire correspondant.
19
α = lim sup Pθ (X (N ) ∈ R(N ) ).
N →∞ θ∈Θ0
∀θ ∈ Θ1 lim Pθ (X (N ) ∈ R(N ) ) = 1.
N →∞
supθ∈Θ Ln (X, θ)
λn (X) = .
Ln (X, θ0 )
Rn = {2 ln λn > K},
où K est le 1 − α quantile d’une loi χ2 (1) est de sensibilité asymptotique α et
convergente.
−1
Rn : ξn > χ21−α (k) avec ξn = ng(θen )t D(θen )I(θen )−1 D(θen )t g(θen ).
D2 = (X − µ)t Σ−1 (X − µ)
suit une loi du χ2 (d).
L
Lemme V.4 Soit Xn une suite de vecteurs aléatoires de Rd telle que Xn −→ X et
A une matrice d × k. Alors la suite de vecteurs aléatoires de Rk AXn converge en
loi vers AX.
20
Les tests du score sont basés sur la région de rejet :
1
ξnS > χ21−α (k) avec ξnS =DLn (θb0,n )t I(θb0,n )−1 DLn (θb0,n ),
n
où DLn est le gradient de la vraisemblance et θb0,n l’EMV de θ sur Θ0 .
X1 +···+Xn
P = n
.
21
1 Tests gaussiens
22
2 Tests asymptotiques
Test Hypothèses Stat. du test (Z) et cond. Loi de Remarques
d’appl. Z sous
H0
P1 − P 2
comp. H0 : π1 = r , N (0, 1) Il s’agit d’un test asymp-
de deux π2 = π0 1
π̂(π̂ − 1) × n1 + n2 1 totique.
prop. H1 : π1 6= π2
n1 ≥ 30 et n2 ≥ 30, avec
pour ou
π̂ = n1np11 +n
+n2 p2
des ech. H1 : π1 < π2 2
indep. ou
H1 : π1 > π2
X1 − X2
comp. H0 : µ1 = q × N (0, 1) Pour les grands échan-
(n1 −1)S12 +(n2 −1)S22
de deux µ2 = µ0 n1 +n2 −2 tillons, il n’est pas néces-
moy. pour H1 : µ1 6= µ2 1 saire d’avoir l’égalité des
, n 1 ≥ 30 et
des ech. ou variances. Il s’agit d’un
q
1
n1
+ n12
indép. H1 : µ1 < µ2 test asymptotique.
ou n 2 ≥ 30
H1 : µ1 > µ2
mY
comp. H0 : µY = 0 SY , n ≥ 30 N (0, 1) Il s’agit d’un test asymp-
√
de deux H1 : µY 6= 0 n totique.
moy. pour ou
des ech. H1 : µY < 0
appariés, ou
on pose H1 : µY > 0
Y =
X1 − X 2
P − π0
conform. H0 : π = π0 q , n ≥ 30 N (0, 1) Il s’agit d’un test asymp-
π0 (1−π0 )
d’une H1 : π 6= π0 n totique
prop. ou
H1 : π > π0
ou
H1 : π < π0
X − µ0
conform. H0 : µ = µ0 Sn
, n ≥ 30 N (0, 1) Il s’agit d’un test asymp-
√
d’une H1 : µ 6= µ0 n totique
moy. ou
H1 : µ > µ0
ou
H1 : µ < µ0
23
VII Quelques tests non paramétriques
1 Tests du χ2 .
a. Loi multinômiale
On considère r évènements A1 , ..., Ar de probabilité p1 , ..., pr . On suppose que
les Ai forment un système
P complet d’évènement (i.e. ils sont disjoints et leur union
est Ω), en particulier, ri=1 pi = 1.
On note Ni la variable aléatoire qui donne le nombre de fois (parmi les n expé-
riences) où l’évènement Ai se produit.
b. Loi asymptotique
Théorème VII.1 Soit
r
X (Ni − npi )2
D2 = .
i=1
npi
Alors, D converge en loi (quand n → ∞) vers une loi du χ2 à r − 1 degrés de
2
liberté.
24
H1 : il existe i tel que pi 6= p0i .
d. Test du χ2 d’indépendance
On considère X = (Y , Z), et Xi = (Yi , Zi ) i = 1, . . . , n, un échantillon aléatoire
de loi PX . Yi et Zi sont des variables discrètes prenant respectivement les valeurs :
{y1 , . . . , y` } et {z1 , . . . , zm }. On veut tester l’indépendance de Y et Z. Le test se base
sur le fait que Y et Z sont indépendants si et seulement si PX = PY ⊗ PZ .
D12 et D22 convergent en loi vers une loi χ2 (` − 1)(m − 1) ((` − 1)(m − 1) =
` × m − 1 − (` − 1) − (m − 1)). Les tests associés aux régions de rejet
25
{D12 > k} et {D22 > k}
avec k le 1 − α quantile d’une loi χ2 ((` − 1)(m − 1)) sont de sensibilité asymp-
totique α et convergents pour les hypothèses
1. On rapelle que X suit une loi de Poisson de paramètre λ > 0 si pour tout
n ∈ N,
λn
P(X = n) = e−λ .
n!
Déterminer E(X) et V ar(X).
xi 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
ni 1 0 1 2 1 3 5 6 9 10 11 9 8 9 7 5 4 3 1 1 1
26
Age Optimistes Pas optimistes
[20, 40[ 237 392
[40, 60[ 326 298
≥ 60 362 258
Peut-on considérer que le fait d’être optimiste quand à sa capacité d’achat est
indépendante de l’âge ?
2 Test de Kolmogorov-Smirnov
On considère X1 , ..., Xn un échantillon aléatoire indépendant de même loi que X.
Soit F la fonction de répartition de X. On défini la fonction de répartition empirique :
n
1X
Fn (x) = 1I{Xi ≤x} ,
n i=1
Attention, c’est une variable aléatoire.
Soit
Pour tout x ∈ R, Fn (x) s’écrit comme une somme de variables aléatoires indé-
pendentes de loi B(F (x)). On en déduit :
— Fn (x) converge presque sûrement (et en probabilité) vers F (x),
√ L
— n(Fn (t) − F (t)) −→ N (0, F (t)(1 − F (t))).
L
Dn = sup |Hn (t) − t|
t∈[0,1]
L i
= max − t / U(i) ≤ t < U(i+1) ,
n
où Hn est la fonction de répartition empirique d’une suite (Ui )i=1,...,n de vaiid
de loi uniforme U([0, 1]) et (U(i) )i=1,...,n désigne les statistiques de l’ordre associées
à (Ui )i=1,...,n i.e. les U(i) vérifient
27
√
La loi de Kn = nDn (loi de Kolomogorov-Smirnov à 1 échantillon) est tabu-
lée et converge en loi vers une variable aléatoire K elle aussi tabulée. Ce résultat
permet de tester si un échantillon provient d’une loi théorique connue. Attention :
le résultat n’est pas valable si les paramètres de la loi sont estimés. Avec R : ks.test.
Si la loi de X est la même que celle de Y , la loi de Dn,m est la même que la loi
de supt∈[0,1] |Hn (t) − Im (t)| où Hn et Im sont les fonction de répartition empiriques
de suites de variables aléatoires uniformes U([0, 1]), on a aussi l’égalité en loi :
L i j
Dn,m = max − , U(i) < V(j) < U(i+1) ,
n m
où (U(i) )i=1,...,n désigne les statistiques de l’ordre associées à (Ui )i=1,...,n , Ui
U([0, 1]) et (V(j) )j=1,...,m désigne les statistiques de l’ordre associées à (Vj )j=1,...,m ,
Vj U([0, 1]). Pour
− 21
1 1
cn,m = + ,
n m
Kn,m = cn,m Dn,m suit une loi de Kolmogorov-Smirnov à deux échantillons et
converge en loi vers une variable aléatoire K2 elle aussi identifiée. On peut donc
tester si deux échantillons proviennent de la même loi (avec R : ks.test).
3 Test de Shapiro-Wilk
Le test de Shapiro-Wilk permet de tester la normalité d’un échantillon, quel que
soit sa taille et sans estimer les paramètres de la loi.
a. Droite de Henry
Il s’agit de représenter les quantiles théoriques d’une loi “connue”en fonction des
données xi .
Soit Fi les fréquences cumulées empiriques, on note u?i le quantile de la loi théo-
rique correspondant : P(Z ≤ u?i ) = Fi . Si le graphe (xi , u?i ) est quasiment une droite,
alors, la loi empirique est proche d’une transformation affine de la loi théorique. En
particulier, si la loi théorique condidérée est une loi N (0, 1) alors la loi empirique
est proche d’une loi normale (avec R : qqnorm, la commande qqline rajoute une
droite qui passe par les premiers et troisièmes quantiles, la commande qqplot trace
la droite de Henry pour deux échantillons).
Exemple : la distribution suivante qui donne des résultats d’essais de fatigue d’un
matériau (nombre de cycles avant rupture) :
28
225 31 400 62 850 39 89 580 115 442 270 125 342 251 140
b. Test de Shapiro-Wilk
Ce test est spécifique à la loi normale. Son principal avantage est qu’il ne re-
quière pas d’estimation préalable des paramètres. L’idée est de tester la proximité
du nuage de points des écarts inter-quartiles empiriques et des écarts inter-quartiles
d’une loi normale centrée réduite, à la droite des moindres carrés correspondante.
Si (U1 , . . . , Un ) est un échantillon aléatoire indépendant de loi N (0, 1), on note
V = (V1 , . . . , Vn ) l’échantillon ordonné : V1 = mini=1,...,n Ui , ...., Vn = maxi=1,...,n Ui
(voir ci-dessous pour les détails sur les satistiques de l’ordre). µ est le vecteur d’es-
pérance de V , Σ = IE[(V − µ)(V − µ)t ], enfin
1
at = µt Σ−1 (µt Σ−2 µ)− 2 ,
a = (a1 , . . . , an ).
Sous H0 : les Xi suivent des lois normales N (ν, σ), Tn est un estimateur asymp-
totiquement sans biais de σ 2 .
Pour mettre en œuvre ce test, on dispose de tables qui donnent les ai et les va-
leurs critiques de la statistique SW .
29
n
j 2 3 4 5 6 7 8 9 10 -
1 0,7071 0,7071 0,6872 0,6646 0,6431 0,6233 0,6052 0,5888 0,5739 -
2 0 0,1677 0,2413 0,2806 0,3031 0,3164 0,3244 0,3291 -
3 0 0,0875 0,1401 0,1743 0,1976 0,2141 -
4 0 0,0561 0,0947 0,1224 -
5 0 0,0399 -
n
j 11 12 13 14 15 16 17 18 19 20
1 0,5601 0,5475 0,5359 0,5251 0,515 0,5056 0,4963 0,4886 0,4808 0,4734
2 0,3315 0,3325 0,3325 0,3318 0,3306 0,329 0,3273 0,3253 0,3232 0,3211
3 0,226 0,2347 0,2412 0,246 0,2495 0,2521 0,254 0,2553 0,2561 0,2565
4 0,1429 0,1586 0,1707 0,1802 0,1878 0,1939 0,1988 0,2027 0,2059 0,2085
5 0,0695 0,0922 0,1099 0,124 0,1353 0,1447 0,1524 0,1587 0,1641 0,1686
6 0 0,0303 0,0539 0,0727 0,088 0,1005 0,1109 0,1197 0,1271 0,1334
7 0 0,024 0,0433 0,0593 0,0725 0,0837 0,0932 0,1013
8 0 0,0196 0,0359 0,0496 0,0612 0,0711
9 0 0,0163 0,0303 0,0422
10 0 0,014
n
j 21 22 23 24 25 26 27 28 29 30
1 0,4643 0,459 0,4542 0,4493 0,445 0,4407 0,4366 0,4328 0,4291 0,4254
2 0,3185 0,3156 0,3126 0,3098 0,3069 0,3043 0,3018 0,2992 0,2968 0,2944
3 0,2578 0,2571 0,2563 0,2554 0,2543 0,2533 0,2522 0,251 0,2499 0,2487
4 0,2119 0,2131 0,2139 0,2145 0,2148 0,2151 0,2152 0,2151 0,215 0,2148
5 0,1736 0,1764 0,1787 0,1807 0,1822 0,1836 0,1848 0,1857 0,1064 0,187
6 0,1399 0,1443 0,148 0,1512 0,1539 0,1563 0,1584 0,1601 0,1616 0,163
7 0,1092 0,115 0,1201 0,1245 0,1283 0,1316 0,1346 0,1372 0,1395 0,1415
8 0,0804 0,0878 0,0941 0,0997 0,1046 0,1089 0,1128 0,1162 0,1192 0,1219
9 0,053 0,0618 0,0696 0,0764 0,0823 0,0876 0,0923 0,0965 0,1002 0,1036
10 0,0263 0,0368 0,0459 0,0539 0,061 0,0672 0,0728 0,0778 0,0822 0,0862
11 0 0,0122 0,0228 0,0321 0,0403 0,0476 0,054 0,0598 0,065 0,0697
12 0 0,0107 0,02 0,0284 0,0358 0,0424 0,0483 0,0537
13 0 0,0094 0,0178 0,0253 0,032 0,0381
14 0 0,0084 0,0159 0,0227
15 0 0,0076
30
N 5% 1% N 5% 1%
3 0,767 0,753 25 0,918 0,888
4 0,748 0,687 26 0,92 0,891
5 0,762 0,686 27 0,923 0,894
6 0,788 0,713 28 0,924 0,896
7 0,803 0,73 29 0,926 0,898
8 0,818 0,749 30 0,927 0,9
9 0,829 0,764 31 0,929 0,902
10 0,842 0,781 32 0,93 0,904
11 0,85 0,792 33 0,931 0,906
12 0,859 0,805 34 0,933 0,908
13 0,856 0,814 35 0,934 0,91
14 0,874 0,825 36 0,935 0,912
15 0,881 0,835 37 0,936 0,914
16 0,837 0,844 38 0,938 0,916
17 0,892 0,851 39 0,939 0,917
18 0,897 0,858 40 0,94 0,919
19 0,901 0,863 41 0,941 0,92
20 0,905 0,868 42 0,942 0,922
21 0,908 0,873 43 0,943 0,923
22 0,911 0,878 44 0,944 0,924
23 0,914 0,881 45 0,945 0,926
24 0,916 0,884 46 0,945 0,927
47 0,946 0,928 48 0,947 0,929
49 0,947 0,929 50 0,947 0,93
225 31 400 62 850 39 89 580 115 442 270 125 342 251 140
4 Tests de rang
Il s’agit de tests non paramétriques de comparaison. De manière générale, on
préfère effectuer des tests paramétriques, en effet, les tests non paramétriques sont
moins sensibles ; c’est à dire que, pour un test non paramétrique, la probabilité d’ac-
cepter H0 alors que H0 est fauusse est plus importante, par contre lorsque l’on rejette
H0 , on peut être raisonablement confiant quand à cette conclusion).
Dans les tests du rang, les valeurs observées sont remplacées par leurs rangs au
sein des échantillons. L’idée du test est la suivante : on ordonne toutes les valeurs
observées (i.e. les valeurs de tous les échantillons concernés), si le facteur étudié a
une influence, les valeurs d’un des échantillons seront “dans les premiers” parmi les
valeurs ordonnées.
31
a. Statistiques de l’ordre, de rang
Si (X1 , . . . , Xn ) est un échantillon aléatoire indépendant i.d., on lui associe le
vecteur aléatoire Xo = (X(1) , . . . , X(n) ) : échantillon ordonné.
Fn (t) = [F (t)]n .
Plus généralement, on obtient :
n
X
P(X(k) < t) = Cni [F (t)]i (1 − F (t))]n−i .
i=k
C’est le rang occupé par Xi dans la suite ordonnée X(1) < · · · < X(n) .
b. Le test de Wilcoxon
Il s’agit de comparer deux échantillons (X1 , . . . , Xn ) et (Y1 , . . . , Ym ), indépen-
dants. Sont-ils issus de la même loi ? Soit N = n + m et
(Z1 , . . . , ZN ) = (X1 , . . . , Xn , Y1 , . . . , Ym )
l’échantillon concaténé. On considère les statistiques d’ordre et du rang attachées
à cet échantillon :
X
Z(1) < . . . < Z(N ) , RZ (i) = 1 + 1IZj <Zi .
j6=i
32
Exemple : on veut comparer les performances de deux groupes d’élèves à des
tests d’habilité manuelle. Les performances en minutes sont les suivantes :
Groupe I 22 31 14 19 24 28 27 29
Groupe II 25 13 20 11 23 16 21 18 17 26
On se demande s’il y a une différence significative entre les deux groupes (avec
R : wilcox.test).
33
VIII Exemples d’estimation non paramétrique
1 Estimation d’une densité de probabilité
On considère X1 , ..., Xn un échantillon aléatoire indépendant de même loi que
X.
a. Histogramme empirique
Une première approximation de la densité est fournie par l’histogramme. Pour
cela, on choisit des classes : [x0 , x1 ], ]x1 , x2 ], ..., ]xk−1 , xk ], l’histogramme est constitué
Ni
pour chaque classe d’un rectangle de hauteur fbi = n(xi −x i−1 )
, où
n
X
Ni = 1I]xi−1 ,xi ] (Xj ).
j=1
<X≤xi )
Il s’agit d’une approximation de l’histogramme théorique (fbi converge vers P(xxi−1
i −xi−1
).
Si xi et xi−1 convergent vers x alors ce rapport converge vers f (x). Considérons des
Ni
classes toutes de même taille h. Alors on considère fbn (x) = nh si xi−1 < x ≤ xi . Le
problème est de choisir les xi .
b. Fenêtres mobiles
Une réponse à ce problème du choix des xi est donnée par les fenêtres mobiles :
pour x ∈ R, Ix = [x − h2 , x + h2 ], soit
n
X
Nx = 1I{Xj ∈Ix } ,
j=1
et
n
1 1 X x − Xj
fbn (x) = Nx = 1II
nh nh j=1 h
c. Versions lisses
L’approximation ci-dessus est assez irrégulière (à cause de la fonction 1II ). Pour
obtenir un estimateur plus régulier, on peut remplacer 1II par une fonction régulière
K appelée noyau. Par exemple :
1 1 2
K(x) = √ exp − x (noyau gaussien),
2π 2
u2 √
3
K(x) = √ 1− si |u| < 5 (noyau d’Epanechnikov).
4× 5 5
34
n
1 X x − Xj
fbn (x) = K .
nh j=1 h
a. Quantiles empiriques
On définit alors la fonction quantile empirique Fn−1 comme l’inverse généralisé
de la fonction de répartition empirique Fn .
On admettra que Fn−1 (p) converge vers F −1 (p) en tout point de continuité de
−1
F si et seulement si Fn (t) converge vers F (t) en tout point de continuité de F .
On a la relation suivante :
i−1 i
∀p ∈ , , Fn−1 (p) = X(i) .
n n
c. Résultats asymptotiques
On a le résultat asymptotique suivant dans le cas où la fonction de répartition
F est différentiable : pour tout p ∈]0, 1[,
√ L
n(Fn−1 (p) − F −1 (p)) −→ N (0, σ 2 (p))
avec
p(1 − p)
σ 2 (p) = .
f (F −1 (p))2
Ce résultat pose ainsi la question de l’estimation de la densité.
35
L’utilisation de la transformation par quantiles peut permettre de trouver des
intervalles de confiance pour les quantiles, sans passer par l’estimation de la densité,
dans le cas d’une fonction de répartition strictement croissante et continue. On note
U1 = F (X1 ), . . . , Un = F (Xn ). Les Ui sont i.i.d. de loi uniforme sur [0, 1]. On note
U(1) , ..., U(n) les statistiques d’ordre associées. On a alors
36
IX TP
ISFA- M1
Statistique inférentielle
Fiche de TP no 1
Une introduction au logiciel R
* Important *
Vous enregistrerez toutes vos commandes dans un document que vous
nommerez ”TP1.R” et que vous sauverez dans un répertoire ”IntroR”.
2 Vecteurs et matrices
1. Taper les commandes de la colonne ”Commande”, du tableau suivant. Au vu
du résultat, essayez de comprendre chacune d’entre-elles (au besoin, utiliser
l’aide en ligne) et complétez la colonne ”Description” du tableau.
37
2. — Créez un vecteur d’entiers allant de 1 à 10 de trois façons différentes
— Créez un vecteur caractère avec successivement les noms de 5 villes de
France, puis 5 des départements où elles appartiennent.
— Créez un vecteur numérique contenant dans l’ordre la population approxi-
matif des ces villes et départements.
— Créez un vecteur caractère contenant 5 fois ”homme” puis 5 fois ”femme”
en vous servant de la fonction rep().
— Gardez ces trois derniers vecteurs en mémoire, pensez à leur donner des
noms explicites.
3 Quelques fonctions R
Nous avons vu quelques fonctions comme rep(), seq(), sample() etc., d’autres
fonctions sont utiles pour manipuler des données. La composition des fonction est
valable sous R.
Les éléments d’un vecteur peuvent avoir des noms. La fonction names() permet
en effet d’associer une étiquette à chacun des éléments d’un vecteur. Taper le pro-
gramme suivant :
> x <- 1:5
> names(x) <- c("a","b","c","d","e")
> v=c(1,2,3,4)
> names(v)=c(’alpha’,’beta’,’gamma’,’delta’)
> v[’beta’]
38
> d<-det(M[1:2,1:2]);D<-solve(M[1:2,1:2])
4 Graphiques
Reproduire et commenter les programmes suivants
1. > x=(1:100)/100
> plot.new()
> lines(x,x∧ 2)
> axis(1)
> axis(2)
> title("Fonction carré")
> z=(1:20)/20
> op<-par(col="red")
> points(z,z∧ 2)
> plot.new()
> plot(x,x∧ 2)
> plot(x,x∧ 3,’l’)
> par(op)
2. > T<-seq(-10,10,by=0.05)
> D1<-dnorm(T,mean=0,sd=sqrt(5))
> D2<-dexp(T,rate=0.15)
> par(mfrow=c(1,2))
> plot(T, D1, type="o", pch=3, xlab="x", ylab="Densité", col =
+ 3,lty=1, main="Normale-Exponentielle")
> lines(T,D2, type="o", pch=4,col ="red")
> legend(-10, 0.15, c( "norm", "expo"), col = c(3,"red"), pch=
+c(3,4), text.col="green4", lty = c(1,2))
> plot(T,sin(T),type="l",col=5,lwd=0.5)
> abline(h=0.5)
> abline(h=0,lwd=3,lty=2)
> abline(0,0.1)
> abline(v=5)
39
3. > g<-function(x,y)
+ { z=matrix(ncol=length(x),nrow=length(y))
+ z[1,]=0
+ for(i in 2:length(y))
+ for(j in 1:length(x))
+ {
+ z[i,j]=z[(i-1),j]+1
+ }
+ return(z)
}
> g(1:3,rnorm(4,0,1))
— Ecrire deux fonctions appelées beta et Beta prenant deux arguments x et n
et calculant les valeurs :
x n − x5
(ln ln n) 5 X k
beta(x, n) = x (n ∈ N fixé )
n1− 5 k=3 ln ln k
et
Beta(x, n) = beta(x, k), k = 3, . . . , n.
Calculer et représenter graphiquement sur la même fenêtre graphique les va-
leurs :
a. Les données
Nous considérerons comme données un échantillon aléatoire issu d’une loi de
Poisson de paramètre λ = 30. La taille de l’échantillon est 100. Ce échantillon étant
aléatoire, vous n’aurez pas le même que celui de votre voisin...
Créer le code suivant :
Une première approche consiste à classer la série statistique brute par valeurs crois-
santes. On obtient ainsi la série statistique ordonnée. Il apparaı̂t souvent que cer-
taines valeurs de la série se répètent. c’est en se basant sur ces occurences que le
40
tableau de representation appelé tableau statistique, et la ”representation tige-et-
feuille” sont construits.
b. Représentations graphiques
Les informations recueillies dans le tableau statistique peuvent être représentées sur
un graphique pour avoir une meilleure vue d’ensemble des données. Les deux princi-
paux graphiques pour une variable quantitative discrète sont le diagramme en bâton,
basé sur les effectifs (ou les fréquences ou les pourcentages de fréquences) et le dia-
gramme cumulatif, basé sur les effectifs cumulés (ou les fréquences cumulées ou les
pourcentages de fréquences cumulées).
> plot(nl,type=’h’)
> barplot(nl,main="Diagramme en colonnes")
> barplot(fl, main="Diagramme des fréquences")
c. Caractéristiques numériques
Les caractéristiques de tendance centrale Les caractéristiques numériques
de tendance centrale, dites aussi de position ou de localisation, ont pour objectif de
fournir un ordre de grandeur de la série statistique, d’en situer le centre, le milieu.
> sum(x)/n
> mean(x)
> min(xl[Fl>=0.5])
> median(x)
41
Les caractéristiques de dispersion Les caractéristiques de dispersion servent à
préciser la variabilité de la série, i.e. à résumer l’éloignement de l’ensemble des ob-
servations par rapport à leur tendance centrale.
> min(x)
> max(x)
> range(x)
> diff(range(x))
> sum((x-mean(x))^2)/n
> var(x)
> var(x)*(n-1)/n
> sd(x)
> summary(x)
> quantile(x)
> quantile(x,0.75)-quantile(x,0.25)
> sum(abs(x-mean(x)))/n
> sum(abs(x-median(x)))/n
> boxplot(x,range=0)
λk −λ
Ω (X) = {1, 2, 3 . . .} et ∀k ∈ Ω (X) , P (X = k) = e .
k!
1. calculer l’espérance, la variance et l’écart-type de X.
2. pour λ = 30, comparer ces valeurs, respectivement, avec mean(x), var(x)
etsd(x) (trouvés dans la section c.)
3. comparer l’espérance et la variance avec sum(x)/n, sum((x-mean(x))2 /n.
42
3. Recommencer l’opération 100 fois en traçant les courbes sur le même gra-
phique.
43
X TD 1
ISFA- 2ème année (M1)
Statistique inférentielle
Fiche de TD no 1
Exercice 1.
Dans le cadre d’un modèle paramétrique réel d’échantillonnage, on considère
un n-échantillon X = (X1 , . . . , Xn ), de loi de probabilité Pθ .
1. Pour un estimateur Tn de θ donné, montrer les propriétés suivantes :
a. R(Tn , θ) = B 2 (Tn ) + Var(Tn ).
b. Si Tn est un estimateur sans biais de θ et Var(Tn ) → 0 quand n → 0, alors
Tn est un estimateur convergent pour θ.
2. Si Pθ est une loi de poisson de paramètre θ > 0, écrire le modèle statistique
correspondant. On considère l’estimateur de θ :
n
1X
X= Xi .
n i=1
Exercice 2.
Soit X = (X1 , . . . , Xn ), un n-échantillon de loi uniforme sur [0, θ]. Écrire le
modèle statistique. On considère l’estimateur de θ :
Xmax := max Xi .
1≤i≤n
44
Exercice 3.
Soit un modèle paramétrique réel d’échantillonnage (R, BR , (Pθ , θ ∈ R))n , tel que
la loi de probabilité Pθ admette pour densité :
Exercice 4.
Soit X = (X1 , . . . , Xn ) un n-échantillon de loi normale N (m, σ 2 ). Pour estimer
2
σ , on pose :
n
X 2
Tn = c(n) Xi − X .
i=1
−2
Pn 2
1. Quelle est la loi de σ i=1 Xi − X ?
2. calculer B(Tn ), et donner un estimateur sans biais de σ 2 .
3. Quelle est la fonction c(n) qui minimise le risque quadratique de Tn ?
4. On suppose que σ = 1 et m ∈ [0, 1], et on définit l’estimateur :
0 si X < 0
Un = X si 0 ≤ X ≤ 1 .
1 si X > 1
Exercice 5.
Afin de diminuer les sinistres de ses clients, un assureur décide de financer la
construction d’une digue destinée à empêcher les inondations provoquées par les
crues d’une rivière. La construction d’une digue de hauteur h coûtera c1 h à la com-
pagnie d’assurance. En cas de crue, il n’y aura aucun sinistre si la hauteur H de la
crue est inférieure à h et un sinistre évalué à c2 (H − h) si H > h. La hauteur de la
crue H est une variable aléatoire de loi exponentielle de paramètre 1/θ. On suppose
que c2 > c1 > 0.
45
1. On choisit comme fonction de perte :
Exercice 6.
Soient X = (X1 , . . . , Xn ) un n-échantillon de loi de bernoulli de paramètre θ ∈
[0, 1], a et b deux constantes positives. On considère les estimateurs de θ :
nX + a
Ta,b = .
n+a+b
1. Calculer R(Ta,b , θ).
2. Comparer à l’aide des risques quadratiques, les estimateurs T √n , √n et T0,0
2 2
selon les valeurs de θ. Le critère du risque quadratique est-il approprié pour
comparer ces estimateurs ?
3. Quel est parmi ces deux estimateurs celui qui minimise le maximum du risque
quadratique ? Cet estimateur est dit meilleur au sens mini-max.
4. On suppose maintenant que θ est une variable aléatoire suivant une loi uni-
forme sur [0, 1]. Calculer r1 et r2 définis par :
r1 = E (R(T0,0 , θ)) et r2 = E R(T √n , √n , θ) .
2 2
46
XI TD 2
ISFA- 2ème année (M1)
Statistique inférentielle
Fiche de TD no 2
Exercice 1.
On considère un modèle d’échantillonnage avec n > 1 et pour lequel Pλ est une
loi de poisson de paramètre λ > 0. On a donc les Xi iid avec ∀i = 1, . . . , n, Xi ∼
Poisson(λ). On pose :
Xn
Tn = Xi et Tn0 = X1 .
i=1
Nk /n.
Exercice 3.
Soit X = (X1 , . . . , Xn ) un n-échantillon de loi Pθ .
1. On suppose que Pθ est une loi de Poisson de paramètre |θ| si −1 ≤ θ < 0
et Pθ est une loi de Bernoulli de paramètre θ si 0 ≤ θ ≤ 1. Calculer la loi
conditionnelle de X sachant nX. En déduire que nX n’est pas exhaustive.
47
2. Vérifier que le modèle est dominé et en appliquant le théorème de factorisa-
tion, donner une statistique exhaustive pour θ ∈ [0, 1].
3. On suppose maintenant que Pθ est une loi uniforme discrète sur {1, 2, . . . , θ},
où θ ∈ N∗ .
a. Vérifier que le modèle statistique est dominé et donner une vraisemblance
du modèle.
b. Déterminer l’estimateur du maximum de vraisemblance de θ.
Exercice 4.
L’organisateur d’une exposition s’intéresse au rythme d’arrivées de groupes de
visiteurs à partir des observations faites au cours des premières journées. Il constate
que le temps séparant l’arrivée de deux groupes successifs peut être assimilé à une va-
riable X de loi uniforme sur [0, θ] et que ces temps inter-arrivées sont indépendantes
Il souhaite estimer θ à partir de l’observation d’un n-échantillon X = (X1 , . . . , Xn )
de ces inter-arrivées.
1. Vérifier que le modèle statistique est dominé et donner une vraisemblance du
modèle.
2. Déterminer l’estimateur du maximum de vraisemblance Tn de θ et en déduire
sa loi.
3. Déterminer β tel que Wn = βTn soit un estimateur sans biais de θ.
Exercice 5.
Soit X = (X1 , . . . , Xn ) un n-échantillon de loi Pθ .
1. On suppose que Pθ est une loi de Poisson de paramètre θ. On veut estimer
θ2 .
a. Vérifier que le modèle statistique est dominé et donner une vraisemblance
du modèle.
b. Déterminer l’estimateur du maximum de vraisemblance de θ2 . Est-il sans
biais ?
2. On suppose que Pθ est une loi exponentielle de paramètre 1/θ.
a. Vérifier que le modèle statistique est dominé et donner une vraisemblance
du modèle.
b. Déterminer l’estimateur du maximum de vraisemblance de θ.
Exercice 6.
Soit X = (X1 , . . . , Xn ) un n-échantillon de loi N (0, θ) , θ > 0.
1. On veut estimer θ par la méthode du maximum de vraisemblance. On pose
n
1X 2
Tn (X1 , . . . , Xn ) = X .
n i=1 i
48
a. Soit p(θ, x1 , . . . , xn ) la fonction de vraisemblance. Calculer :
2 (ln p(θ, x1 , . . . , xn ) − ln p(Tn (x1 , . . . , xn ), x1 , . . . , xn )) .
Exercice 7.
1
Pn 2
L’estimateur S 2 = n−1 i=1 Xi − X est-il un estimateur efficace de σ 2 ?
4. Écrire la vraisemblance du modèle. Vérifier que le couple (X, S 2 ) forment une
statistique exhaustive pour le paramètre (µ, σ 2 ).
49
XII TD 3
ISFA- M1SAFIR
Statistique inférentielle
Fiche de TD no 3
Exercice 1.
Soit X = (X1 , . . . , Xn ) un n-échantillon de loi uniforme sur [0, θ].
1. Écrire la vraisemblance du modèle. Donner une statistique exhaustive pour
θ.
2. Donner un estimateur sans biais de θ fonction de la statistique exhaustive.
3. En déduire sans faire de calcul, la valeur de E X/ max1≤i≤n Xi .
Exercice 2.
Soit X = (X1 , . . . , Xn ) un n-échantillon de loi exponentielle décentrée sur [θ, +∞[.
1. Déterminer l’estimateur du maximum de vraisemblance de θ. Est-il biaisé ?
Est-ce une statistique exhaustive ?
2. En déduire un estimateur sans biais de θ fonction d’une statistique exhaustive.
Exercice 3.
Soit X = (X1 , . . . , Xn ) un n-échantillon de loi uniforme sur [θ − 21 , θ + 12 ], θ ∈ R.
On pose :
Xmax = max Xi et Xmin = min Xi .
1≤i≤n 1≤i≤n
Exercice 4.
Soit X = (X1 , . . . , Xn ) un n-échantillon de loi Fθ de densité :
xk
f (x, θ) = (k + 1) 1[0,θ] (x),
θk+1
où k ≥ 1 est connu et θ > 0 est le paramètre inconnu.
1. Calculer Eθ (X1 ).
2. Donner une statistique exhaustive pour θ.
3. On considère l’estimateur
n(k + 1) + 1
S= max (X1 , . . . , Xn ) .
n(k + 1)
Quelles sont ses propriétés ? En déduire sans calcul Eθ (X1 / max1≤i≤n Xi ).
50
Exercice 5.
Soit X = (X1 , . . . , Xn ) un n-échantillon de loi Fθ de densité :
max1≤i≤n ln Xi
Sn = .
min1≤i≤n ln Xi
Qn
Montrer que la loi de Sn ne dépend pas de θ. En déduire que Sn et i=1 Xi
sont indépendantes.
51