Cours Statistique Parametrique Chap 1
Cours Statistique Parametrique Chap 1
Cours Statistique Parametrique Chap 1
SCIENTIFIQUE
Préparé par :
Dr MENNI.N
27/11/2021
1
Table des matières
1 Echantillonnage 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Statistique d’échantillons(moyenne empirique, variance empirique) . . . . . . . . . . . 4
1.2.1 La distribution de la moyenne(la moyenne empirique) . . . . . . . . . . . . . . 4
1.2.2 La distribution de la variance (la variance empirique) . . . . . . . . . . . . . . 5
1.3 Echantillons gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Cas des grands échantilions n ≤ 30 . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Cas des petits échantiloons n < 30 . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Modèle statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.2 Statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.3 Exhaustivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.4 Fonction de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2
Chapitre 1
Echantillonnage
1.1 Introduction
la notion d’échantillonnage est associée à un sous-ensemble (de taille n) d’individus. tiré d’un
ensemble plus vaste appelé population. A chaque individus tiré on lié une valeur et on note par
(x1 , x2 , ..., xn ) l’ensemble des valeurs obtenues.
l’objectif : on distingue 2 cas :
1er cas : connaissant la valeur d’un paramètre (moyenne,écart type,...), on cherche des renseignement
sur la valeur que peut prendre ce paramètre dans l’échantillon, ce problème est un problème d’échan-
tillonnage.
2me cas : on connaît la valeur d’un paramètre dans un échantillon et on cherche des renseignement
sur ce paramètre dans la population, ce problème¨me et un problème d’estimation.
la résolution de ce type de problème est liée à la notion d’échantillonnage.
Notions :
Xi : le caractère X associé à l’individu i de l’échantillon et xi la valeur du caractère mesuré sur
l’individu i de l’échantillon.
La suite (X1 , X2 , ..., Xn ) est appelé échantillon de taille n de X et (x1 , x2 , ..., xn ) est la réalisa-
tion(observation) d’un échantillon de X donc on considere que (X1 , X2 , ..., Xn ) est une suite fermé
de variables aléatoires indépendantes et identiquement distribuées (i.i.d).
Remarque 1.1. En théoorie des probabilités et en statistique des variables indépendantes identique-
ment distribuées sont des variables qui suivent toutes la même loi de probabilité et sont indépendantes.
Avantages de l’echantillonnage :
3
Chapitre 1 Echantillonnage
Propriété 1.1. Soit X une variable aléatoire telque : E(X) = µ < +∞ et V ar(X) = σ 2 < +∞
2
σpop
alors : µXn = E(X n ) = µpop et V ar(Xn ) = n
n
!
1X
µXn = E(X n ) = E Xi
n i=1
n
! n
1 X 1X
= E Xi = E (Xi )
n i=1
n i=1
1 1
= (µ + µ + ... + µ) = nµ
n n
= µ.
2 σ2
2. La variance de Xn notée σX n
, est égale à n
où σ 2 est la variance de la population et n la taille
de échantillon
Preuve 2. En effet, on a
2
σX n
= V ar(Xn )
n
! n
!
1X 1 X
= V ar Xi = 2 V ar Xi
n i=1 n i=1
n
1 X 1
= 2
V ar (Xi ) = 2 nσ 2
n i=1 n
σ2
= .
n
4
Chapitre 1 Echantillonnage
Remarque 1.2. La moyenne et la variance de Xn sont calculées pour le cas d’un échantillon de
variables aléatoires indépendantes identiquement distribuées i.i.d
Preuve 3.
n
1X
Sn2 = (Xi − X)2
n i=1
n
1 X 2 2
= Xi + X − 2Xi X
n i=1
n n n
1X 2 1X 2 2X
= X + X − Xi X
n i=1 i n i=1 n i=1
n n
1X 2 n 2 1X
= Xi + X − 2X Xi
n i=1 n n i=1
n
1X 2 2
= Xi − X .
n i=1
Propriété 1.2. Soit (X1 , X2 , ..., Xn ) un n−échantillon d’un variable aléatoire X telque :
E(X) = µ < +∞ et var(X) = σ 2 < +∞ alors :
n−1 2
E(Sn2 ) = σpop
n
n−1
V ar(Sn2 ) = n3
((n − 1)µ4 − (n − 3)σ 4 ) , où µ4 = E(X − X)4 .
Rappel :
Définition 1.2. On appelle moment centré d’ordre k d’une variable aléatoire X, le moment µk défini
par
µk = E(X − m)k
Xn
= (xi − m)k P(X = xi )
i=1
5
Chapitre 1 Echantillonnage
Définition 1.3. On appelle moment d’ordre k d’une variable aléatoire X, le moment mk défini par
mk = E(X k )
Xn
= xki P(X = xi ).
i=1
n−1 2
On montre que : E(Sn2 ) = n
σ ?
n
X
Preuve 4. On a Sn2 = 1
n
(Xi − X)2
i=1
Décomposons S 2 :
(Xi − µ) = Xi − X + X − µ
n n
X 2
X 2
(Xi − µ) = (Xi − X) + (X − µ)
i=1 i=1
n n
X 2 2 X
= Xi − X +n X −µ +2 (Xi − X)(X − µ)
i=1 i=1
n n
!
X 2 2 X
= Xi − X +n X −µ + 2(X − µ) Xi − nX
i=1 i=1
n n
1X 2 1X 2 1 2
(Xi − µ) = Xi − X + n X − µ .
n i=1 n i=1 n
D’ou :
n
1X 2
Sn2 = Xi − X
n i=1
n
1X 2
= (Xi − µ)2 − X − µ
n i=1
n
!
1 X 2
E(Sn2 ) = E (Xi − µ)2 − E X − µ
n i=1
n
1X 2
= E (Xi − µ)2 − E X − µ
n i=1
= V ar(Xi ) − V ar(X)
= σ 2 − σX
2
σ2 n−1 2
= σ2 − = σ .
n n
n−1 2
donc : E(Sn2 ) = n
σ
σ2
Remarque 1.3. E(Sn2 ) 6= σ 2 , on dit que S 2 est une statistique biaisée, son biais vaut : n
.
Exemple. Soit X une variable aléatoire suit une loi normale de moyenne µ = 150 et de variance
σ 2 = 81. On prélève un échantillon n = 36
6
Chapitre 1 Echantillonnage
ou bien :
Sn − nE(X1 ) L
p √ −−−→ N (0, 1)
V (X1 ) n
Soit (X1 , X2 , ..., Xn ) un échantillon d’une variable aléatoire telque : E(X) = µ < +∞ et var(X) =
Xn −µ
σ 2 < +∞ alors la suite : Yi = √σ
,→ N (0, 1)
n
X−m
Application : La loi de la statistique X σpop
√
est une variable suivante la loi N (0.1)
n
7
Chapitre 1 Echantillonnage
2
σpop
Proposition 1.4. X suit approximativement N (m, σ√pop
n
) ou N (m, n
)
Exercice 1.1. Une machine découpe des rondelles de diamètre moyen m = 20mm et d’écart-type
σ = 2mm
On prélève un échantillon de 100 pièces.
1. Déterminer la probabilité que la moyenne des diamètres de ces cas 100 pièce soit inférieure à
20.4mm
2. Déterminer la probabilité que la diamètre moyen compris entre 19.8 et 20.2
La solution :
on a la moyenne mpop = 20mm, σp op = 2mmm, , n = 100
2
σpop
on remarque que n ≥ 30 donc X ,→ N (m, n
) ou X ,→ N (m, √σn )
1. P X ≤ 20.4
2. P(19.8 ≤ X ≤ 20.2)
On applique le TCL on a :
19.8 − 20 20.2 − 20
P ≤T ≤ = P (−1 ≤ T ≤ 1)
0.2 0.2
= φ(1) − φ(−1)
= φ(1) − (1 − φ(1))
= 2φ(1) − 1 = 2(0.84135) − 1 = 0.6827.
8
Chapitre 1 Echantillonnage
En divisant par σ 2 :
n 2 n 2
X Xi − µ X Xi − X n
= + (X − µ)2
i=1
σ i=1
σ σ2
!2
nS 2 X −µ
= 2n +
σ √σ
n
On a : 2
Xi − µ Xi − µ
,→ N (0, 1) ⇒ ,→ X12
σ σ
n 2
X Xi − µ
D’où : ,→ Xn2 ( comme somme de n carrés de variables aléatoires indépendantes
i=1
σ
normales centrées réduites.)
! !2
X −µ X −µ
,→ N (0, 1) ⇒ ,→ X12
√σ √σ
n n
D’où, on en déduit :
nS 2 2
2
,→ Xn−1
σ
σ2 2
ie : Sn2 ,→ Xn−1
n
σ2 σ4
E(Sn2 ) = (n − 1) et V ar(Sn2 ) = 2 2(n − 1).
n n
9
Chapitre 1 Echantillonnage
1.4.1 Introduction
Dans le modèle probabiliste on associe à une expérience ξ un espace de probabilité (Ω, ϕ, P).
Si une variable aléatoire X qui est définie ci-dessous
X
(Ω, ϕ, P) −−−→ (E, B, PX )
où :
E : Support de la variable aléatoire X.
B : La tribu des parties de E, B = P (E)
PX : L’image de P par X, dite loi de probabilité de la variable aléatoire X.
En statistique :
Ω : Population etudiée
X : Le caractère de ctte population au quelle on s’interesse et qu’on observe
E : L’espace des observation, ses éléments sont notés x1 , x2 , ..., xn (E = {x1 , x2 , ..., xn }).
Contrairement à ce qu’on rencontre on probabilités la mesure de probabilité P est inconnue on fait
l’hypothèse qu’elle appartient à une famille (de loi) P de mesure de probabilité donc PX est inconnue.
PX est doit appartenire à une famille. PX = {PX , PX ∈ P}
Tous problème statistique on ne fait pas reference à (Ω, ϕ, P) mais à (E, B, PX ) = (E, B, P)
Définition 1.4. On appelle modèle statistique (structure statistique) associe à une variable aléatoire
X un triplet (E, B, P)
Où :
E : Ensemble des observation
B : Tribu
P : Une famille de loi de probabilité
avec P : indique le fait que la variable aleatoire X a une loi qui appartient à P mais on ne connaît
toutes ses caractéristique.
3 grands modèles existent en pratiques :
1. modèles paramétrique
2. modèles semi paramétrique
3. modèles non paramétrique
alors, lorsque le modèle statistique est paramétrique (c’est le cas de tous les chapitres suivant)
la famille P est notée ((Pθ )θ∈H ) avec :
H est l’ensemble des valeurs possible du paramétrique θ(H ⊂ Rn ).
c-a-d : si la famille de loi P est paramétrisé n = 1 ou n > 1
10
Chapitre 1 Echantillonnage
Remarque 1.4. La loi de probabilite Pθ sera comme dans sa forme (Bernoulli, Binomialle, Poisson)
Autrement dit :
On dit que le modèle est paramétrique si le modèle statistique s’écrit sous la forme (E, B, {Pθ , θ ∈ H ⊂ Rn })
Remarque 1.5. En statistiques, on observe pas une variable aléatoire X mais plusieurs échantillon,
le modèle associe est alors : (supposons l’indépendance des observation)
Le modèle est associe à l’obsevation d’un n-échantillon (X1 , X2 , ..., Xn ) d’une variable aléatoire à
valeur dans E et de loi dans P ∈ P lorsque la famille des lois {Pθ , θ ∈ H} de probabilité admettent
des densites (fx , ou P (X = x)) (au sens large).
1.4.2 Statistique
rappel :
Fonction mesurables : (théorie de la mesure)
Soient (Ω, B) et (Ω0 , B0 ) deux espaces mesurabls une application f : Ω → Ω0 est mesurable si :
∀A ∈ B0 : f −1 (A) ∈ B
T :E→F
x 7→ T (x)
En pratique F ⊂ R ou Rd , d ≥ 1
T est caracterisé par le fait qu’elle ne dépend pas de θ, ni de sa loi de X
11
Chapitre 1 Echantillonnage
Exemple. Soit X1 , X2 , ..., Xn un n-échantillon d’une variable aléatoire X définie sur (E, B, Pθ )
alors :
n
X
1. T = Xi est une statistique.
i=1
n
X
1
2. T = n
Xi est une statistique (moyenne empirique noté Xn )
i=1
3. T = max(Xi ) ou T = min(Xi ) sont des statistiques
n
X
1
4. T = n (Xi − X)2 (variance empirique S 2 )
i=1
5. T = θ maxXi n’est pas une statistique.
1.4.3 Exhaustivité
Définition 1.5. Soit (E, B, (Pθ )θ∈θ ) un modèle statistique associé à une variable aléatoire X et soit
T une statistique, T est dite exhaustive pour θ, si la loi de probabilité conditionnelle de X sachant
T ne dépend pas de θ PX /T (X) = t ( PX /T (X) = t est indépendant de θ )
θx −θ
P(X = x) = e
x!
n
X
Soit X1 , ..., Xn un n-échantillon de X, soit la statistique T = Xi
i=1
Montrer que T est exhaustive pour θ ?
P(X1 = x1 , X1 = x2 , ..., Xn = xn ; T = t)
P(X1 = x1 , X2 = x2 , ..., Xn = xn /T (X) = t) =
P(T = t)
(nθ)t −nθ
P(T = t) = e , ∀(x1 , x2 , ..., xn ) ∈ Nn , t ∈ N
t!
12
Chapitre 1 Echantillonnage
Pθ (X1 = x1 , X2 = x2 , ..., Xn = xn ; T = t)
Pθ (X1 = x1 , X2 = x2 , ..., Xn = xn /T (X) = t) =
Pθ (T = t)
n−1
!
X
Pθ X1 = x1 , X2 = x2 , ...Xn−1 = xn−1 , Xn = t − xi
i=1
=
Pθ (T = t)
n−1
!
X
Pθ (X1 = x1 ).Pθ (X2 = x2 )...Pθ Xn = t − xi
i=1
=
Pθ (T = t)
n−1
X
t− xi
x1 x2 xn−1
θ −θ θ −θ θ θ 1
i=1
= e . e ... e−θ . n−1
e−θ .
x1 ! x2 ! xn−1 ! X Pθ (T = t)
(t − xi )!
i=1
θx1 +...+xn .e−nθ 1
= n−1
.
Y Pθ (T = t)
(xi )!.(t − (x1 + ... + xn−1 )!
i=1
t −nθ
θ .e t!
= n . t t −nθ
Y (n )(θ )(e )
(xi )!
i=1
t! 1
= n .
Y nt
(xi )!
i=1
t! 1
= .
n−1
Y nt
(xi )!(t − (x1 + ... + xn−1 )!
i=1
n
X
Alors la probabilité conditionnelle ne dépend pas de θ, donc T = Xi est exhaustive pour θ.
i=1
1.
l : H → R+
θ 7→ l(θ, x) = fθ (x); H ⊂ Rn
13
Chapitre 1 Echantillonnage
n
Y n
Y
l(θ, x1 , ..., xn ) = fθ (xi ) = f (xi , θ)
i=1 i=1
n
Y
l(θ, x1 , ..., xn ) = P(Xi = xi )
i=1
n
Y
= Ckxi θxi (1 − θ)k−xi si xi ∈ {0, 1, ..., k} ∀ 1 ≤ i ≤ n
i=1
n
X n
X
n
Y
! xi nk− xi
l(θ, x1 , ..., xn ) = Ckxi θ i=1 (1 − θ) i=1
i=1
2. X ,→ ξ(θ)
n
Y
l(θ, x1 , ..., xn ) = f (xi , θ)
i=1
n
Y
θe−θxi
= si xi > 0
i=1
n
X
−θ xi
n
= θ e i=1 si xi > 0 ∀ 1 ≤ i ≤ n
3. X ,→ N (θ, σ 2 )
14