Cours Statistique Parametrique Chap 1

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 14

MINISTÈRE DE L’ENSEIGNEMENT SUPÉRIEUR ET DE LA RECHERCHE

SCIENTIFIQUE

UNIVERSITÉ D’ALGER 1 Ben Youcef Benkhedda

Faculté des Sciences


Département de Mathématiques

Module : STATISTIQUE PARAMETRIQUE

Préparé par :

Dr MENNI.N

Maître de conférences de classe B


Département Mathématiques .

27/11/2021

1
Table des matières

1 Echantillonnage 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Statistique d’échantillons(moyenne empirique, variance empirique) . . . . . . . . . . . 4
1.2.1 La distribution de la moyenne(la moyenne empirique) . . . . . . . . . . . . . . 4
1.2.2 La distribution de la variance (la variance empirique) . . . . . . . . . . . . . . 5
1.3 Echantillons gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Cas des grands échantilions n ≤ 30 . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Cas des petits échantiloons n < 30 . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Modèle statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.2 Statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.3 Exhaustivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.4 Fonction de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2
Chapitre 1

Echantillonnage

1.1 Introduction
la notion d’échantillonnage est associée à un sous-ensemble (de taille n) d’individus. tiré d’un
ensemble plus vaste appelé population. A chaque individus tiré on lié une valeur et on note par
(x1 , x2 , ..., xn ) l’ensemble des valeurs obtenues.
l’objectif : on distingue 2 cas :
1er cas : connaissant la valeur d’un paramètre (moyenne,écart type,...), on cherche des renseignement
sur la valeur que peut prendre ce paramètre dans l’échantillon, ce problème est un problème d’échan-
tillonnage.
2me cas : on connaît la valeur d’un paramètre dans un échantillon et on cherche des renseignement
sur ce paramètre dans la population, ce problème¨me et un problème d’estimation.
la résolution de ce type de problème est liée à la notion d’échantillonnage.
Notions :
Xi : le caractère X associé à l’individu i de l’échantillon et xi la valeur du caractère mesuré sur
l’individu i de l’échantillon.
La suite (X1 , X2 , ..., Xn ) est appelé échantillon de taille n de X et (x1 , x2 , ..., xn ) est la réalisa-
tion(observation) d’un échantillon de X donc on considere que (X1 , X2 , ..., Xn ) est une suite fermé
de variables aléatoires indépendantes et identiquement distribuées (i.i.d).

Remarque 1.1. En théoorie des probabilités et en statistique des variables indépendantes identique-
ment distribuées sont des variables qui suivent toutes la même loi de probabilité et sont indépendantes.

Avantages de l’echantillonnage :

1. Impossibilité d’étudier toute la population lorsqu’elle est infinie.


2. Le temps : la rapidité nécessaire de certaines prises de décisions empêche le recours à un
recensement.

3
Chapitre 1 Echantillonnage

1.2 Statistique d’échantillons(moyenne empirique, variance em-


pirique)
Définition 1.1. Une statistique est une fonction T d’un échantillon aléatoire. A partir d’un échan-
tillon aléatoire (X1 , X2 , ..., Xn ), on peut définir par exemple les statistique suivantes :
n
X
1
T (X1 , X2 , ..., Xn ) = n Xi = X ( la statistique T désigne la moyenne )
i=1
n n
0
X 2 1X 2 2
T (X1 , X2 , ..., Xn ) = S = 2 1
n
Xi − X = Xi − X (T 0 est variance)
i=1
n i=1

1.2.1 La distribution de la moyenne(la moyenne empirique)


La moyenne empirique d’un échantillon (X1 , X2 , ..., Xn ) de X est la variable aleàtoire notée X n
n
X
1
définie par : Xn = n Xi
i=1

Propriété 1.1. Soit X une variable aléatoire telque : E(X) = µ < +∞ et V ar(X) = σ 2 < +∞
2
σpop
alors : µXn = E(X n ) = µpop et V ar(Xn ) = n

1. L’espérance mathématique notée µXn de Xn est égale à la moyenne µ de la population µXn = µ


Preuve 1. En effet, on a

n
!
1X
µXn = E(X n ) = E Xi
n i=1
n
! n
1 X 1X
= E Xi = E (Xi )
n i=1
n i=1
1 1
= (µ + µ + ... + µ) = nµ
n n
= µ.
2 σ2
2. La variance de Xn notée σX n
, est égale à n
où σ 2 est la variance de la population et n la taille
de échantillon
Preuve 2. En effet, on a

2
σX n
= V ar(Xn )
n
! n
!
1X 1 X
= V ar Xi = 2 V ar Xi
n i=1 n i=1
n
1 X 1
= 2
V ar (Xi ) = 2 nσ 2
n i=1 n
σ2
= .
n

4
Chapitre 1 Echantillonnage

Remarque 1.2. La moyenne et la variance de Xn sont calculées pour le cas d’un échantillon de
variables aléatoires indépendantes identiquement distribuées i.i.d

1.2.2 La distribution de la variance (la variance empirique)


La variance empirique d’un n échantillon (X1 , X2 , ..., Xn ) d’une variable aléatoire (v.a. ) X est
définie par :
n n
1X 1X 2 2
Sn2 = (Xi − X)2 = Xi − X (1.1)
n i=1 n i=1
n
X 2
On montre facilement Sn2 = 1
n
Xi2 − X .
i=1

Preuve 3.
n
1X
Sn2 = (Xi − X)2
n i=1
n
1 X 2 2

= Xi + X − 2Xi X
n i=1
n n n
1X 2 1X 2 2X
= X + X − Xi X
n i=1 i n i=1 n i=1
n n
1X 2 n 2 1X
= Xi + X − 2X Xi
n i=1 n n i=1
n
1X 2 2
= Xi − X .
n i=1

Propriété 1.2. Soit (X1 , X2 , ..., Xn ) un n−échantillon d’un variable aléatoire X telque :
E(X) = µ < +∞ et var(X) = σ 2 < +∞ alors :
n−1 2
E(Sn2 ) = σpop
n
n−1
V ar(Sn2 ) = n3
((n − 1)µ4 − (n − 3)σ 4 ) , où µ4 = E(X − X)4 .

Rappel :

Définition 1.2. On appelle moment centré d’ordre k d’une variable aléatoire X, le moment µk défini
par

µk = E(X − m)k
Xn
= (xi − m)k P(X = xi )
i=1

On remarque que la variance correspond au moment centré d’ordre 2 µ2 = V ar(X).

5
Chapitre 1 Echantillonnage

Définition 1.3. On appelle moment d’ordre k d’une variable aléatoire X, le moment mk défini par

mk = E(X k )
Xn
= xki P(X = xi ).
i=1

n−1 2
On montre que : E(Sn2 ) = n
σ ?
n
X
Preuve 4. On a Sn2 = 1
n
(Xi − X)2
i=1
Décomposons S 2 :

(Xi − µ) = Xi − X + X − µ
n n
X 2
X 2
(Xi − µ) = (Xi − X) + (X − µ)
i=1 i=1
n n
X 2 2 X
= Xi − X +n X −µ +2 (Xi − X)(X − µ)
i=1 i=1
n n
!
X 2 2 X
= Xi − X +n X −µ + 2(X − µ) Xi − nX
i=1 i=1
n n
1X 2 1X 2 1 2
(Xi − µ) = Xi − X + n X − µ .
n i=1 n i=1 n

D’ou :
n
1X 2
Sn2 = Xi − X
n i=1
n
1X 2
= (Xi − µ)2 − X − µ
n i=1
n
!
1 X  2 
E(Sn2 ) = E (Xi − µ)2 − E X − µ
n i=1
n
1X 2
= E (Xi − µ)2 − E X − µ
n i=1
= V ar(Xi ) − V ar(X)
= σ 2 − σX
2

σ2 n−1 2
= σ2 − = σ .
n n
n−1 2
donc : E(Sn2 ) = n
σ
σ2
Remarque 1.3. E(Sn2 ) 6= σ 2 , on dit que S 2 est une statistique biaisée, son biais vaut : n
.

Exemple. Soit X une variable aléatoire suit une loi normale de moyenne µ = 150 et de variance
σ 2 = 81. On prélève un échantillon n = 36

6
Chapitre 1 Echantillonnage

1. Trouver la distribution d’échantillonnage de la moyenne d’échantillon.


2. Trouver la distribution d’échantillonnage de la variance d’échantillon
Solution:
1. E(X n ) = µ = 150
2
σpop 81
V ar(X n ) = n
= 36
= 2, 25
n−1 2
2. E(Sn2 ) = n
σpop = 36−1
36
81 = 78, 75
2∗(n−1) 4
V ar(Sn2 ) = n2 σ = 354, 375

1.3 Echantillons gaussiens

1.3.1 Cas des grands échantilions n ≤ 30


On peut appliquer le Théoreme central limit (TCL)
Rappel :

Théorème 1.3. :Théorème de la limite central (Théorème central limite TCL)


Soit (Xn )n≥1 une suite de variable aléatoire réelles indépendantes, de même loi de moyenne E(X1 )
et de variance V (X1 ) finis alors :
Xn − E(Xn ) Xn − E(X1 ) L
q =p √ −−−→ N (0, 1)
V (Xn ) V (X1 )/ n

ou bien :
Sn − nE(X1 ) L
p √ −−−→ N (0, 1)
V (X1 ) n
Soit (X1 , X2 , ..., Xn ) un échantillon d’une variable aléatoire telque : E(X) = µ < +∞ et var(X) =
Xn −µ
σ 2 < +∞ alors la suite : Yi = √σ
,→ N (0, 1)
n

donc : n est grand X ,→ N (m, √σn )


1. Nous sommes en présence de n variable aléatoire indépendantes.
2
2. Elle suivant la méme loi despérance m = µ et variance σpop c-à-d : X ,→ N (m, σ 2 )
Conclusion : Lorsque n devient tres grands n ≥ 30 la distribution de S = (X1 + X2 + ... + Xn ) se
2
rapproche de celle de la loi normale d’éspérance nm et de variance nσpop
2
S suite approximativement N (nm, nσpop ) par conséquent pour n assez grand la distribution de :
S X1 +X2 +...+Xn S

X = n. X = n
= n , se rapproche de celle de la loi normale d’espérance m et de variance
2
σpop
n
2
σpop
c’est à dire : X ,→ N (m, σ√pop
n
) ou N (m, n
), on peut donc considérer que X−m
σpop

suit la loi N (0.1)
n

 
X−m
Application : La loi de la statistique X σpop

est une variable suivante la loi N (0.1)
n

7
Chapitre 1 Echantillonnage

2
σpop
Proposition 1.4. X suit approximativement N (m, σ√pop
n
) ou N (m, n
)

Exercice 1.1. Une machine découpe des rondelles de diamètre moyen m = 20mm et d’écart-type
σ = 2mm
On prélève un échantillon de 100 pièces.
1. Déterminer la probabilité que la moyenne des diamètres de ces cas 100 pièce soit inférieure à
20.4mm
2. Déterminer la probabilité que la diamètre moyen compris entre 19.8 et 20.2
La solution :
on a la moyenne mpop = 20mm, σp op = 2mmm, , n = 100

2
σpop
on remarque que n ≥ 30 donc X ,→ N (m, n
) ou X ,→ N (m, √σn )

1. P X ≤ 20.4

On applique le principe de la loi normale, d’abord le changement de variable


2 X−20
Si X ,→ N (20, √100 = 0.2) alors T ,→ N (0, 1) avec T = 0.2
on applique TCL
!
 X −µ 20.4 − 20
P X ≤ 20.4 = P ≤
√σ 0.2
n
= P (T ≤ 2)
= φ(2) = 0.97725.

2. P(19.8 ≤ X ≤ 20.2)
On applique le TCL on a :

 
19.8 − 20 20.2 − 20
P ≤T ≤ = P (−1 ≤ T ≤ 1)
0.2 0.2
= φ(1) − φ(−1)
= φ(1) − (1 − φ(1))
= 2φ(1) − 1 = 2(0.84135) − 1 = 0.6827.

1.3.2 Cas des petits échantiloons n < 30


Le Théoreme central limite ne s’applique pas, alors on fait l’hypothèse : (X1 , X2 , ..., Xn ) est issus
d’une variable aléatoire X → N (µ, σ 2 ).
D’apres la décomposition de Sn2 :
n
X n
X
(Xi − µ)2 = (Xi − X)2 + n(X − µ)2
i=1 i=1

8
Chapitre 1 Echantillonnage

En divisant par σ 2 :
n  2 n  2
X Xi − µ X Xi − X n
= + (X − µ)2
i=1
σ i=1
σ σ2
!2
nS 2 X −µ
= 2n +
σ √σ
n

On a :  2
Xi − µ Xi − µ
,→ N (0, 1) ⇒ ,→ X12
σ σ
n  2
X Xi − µ
D’où : ,→ Xn2 ( comme somme de n carrés de variables aléatoires indépendantes
i=1
σ
normales centrées réduites.)
! !2
X −µ X −µ
,→ N (0, 1) ⇒ ,→ X12
√σ √σ
n n

D’où, on en déduit :
nS 2 2
2
,→ Xn−1
σ
σ2 2
ie : Sn2 ,→ Xn−1
n
σ2 σ4
E(Sn2 ) = (n − 1) et V ar(Sn2 ) = 2 2(n − 1).
n n

9
Chapitre 1 Echantillonnage

1.4 Modèle statistique

1.4.1 Introduction
Dans le modèle probabiliste on associe à une expérience ξ un espace de probabilité (Ω, ϕ, P).
Si une variable aléatoire X qui est définie ci-dessous

X
(Ω, ϕ, P) −−−→ (E, B, PX )

où :
E : Support de la variable aléatoire X.
B : La tribu des parties de E, B = P (E)
PX : L’image de P par X, dite loi de probabilité de la variable aléatoire X.
En statistique :
Ω : Population etudiée
X : Le caractère de ctte population au quelle on s’interesse et qu’on observe
E : L’espace des observation, ses éléments sont notés x1 , x2 , ..., xn (E = {x1 , x2 , ..., xn }).
Contrairement à ce qu’on rencontre on probabilités la mesure de probabilité P est inconnue on fait
l’hypothèse qu’elle appartient à une famille (de loi) P de mesure de probabilité donc PX est inconnue.
PX est doit appartenire à une famille. PX = {PX , PX ∈ P}
Tous problème statistique on ne fait pas reference à (Ω, ϕ, P) mais à (E, B, PX ) = (E, B, P)

Définition 1.4. On appelle modèle statistique (structure statistique) associe à une variable aléatoire
X un triplet (E, B, P)
Où :
E : Ensemble des observation
B : Tribu
P : Une famille de loi de probabilité
avec P : indique le fait que la variable aleatoire X a une loi qui appartient à P mais on ne connaît
toutes ses caractéristique.
3 grands modèles existent en pratiques :
1. modèles paramétrique
2. modèles semi paramétrique
3. modèles non paramétrique
alors, lorsque le modèle statistique est paramétrique (c’est le cas de tous les chapitres suivant)
la famille P est notée ((Pθ )θ∈H ) avec :
H est l’ensemble des valeurs possible du paramétrique θ(H ⊂ Rn ).
c-a-d : si la famille de loi P est paramétrisé n = 1 ou n > 1

10
Chapitre 1 Echantillonnage

Remarque 1.4. La loi de probabilite Pθ sera comme dans sa forme (Bernoulli, Binomialle, Poisson)

Autrement dit :
On dit que le modèle est paramétrique si le modèle statistique s’écrit sous la forme (E, B, {Pθ , θ ∈ H ⊂ Rn })

Exemple. "Modèle paramétrique"


1. (R+ , BR+ , {exp(λ)/λ > 0})
2. ({0, 1}, P({0, 1}), {B(p)/0 < p < 1})
3. (N, P(N), {P (λ), λ > 0}) elle appartient à la famille de loi de poisson modele paramétrique
(modèle poissonnier)
4. (R, BR , {N(m, σ 2 ), m ∈ R, σ > 0}) modèle statistique associe à l’observation d’une variable
aléatoire X qui suit une loi N(m, σ 2 ) modèle paramétrique (gaussien)

Remarque 1.5. En statistiques, on observe pas une variable aléatoire X mais plusieurs échantillon,
le modèle associe est alors : (supposons l’indépendance des observation)

(E ∗ E ∗ ... ∗ E, B ∗ B ∗ ... ∗ B, PX ∗ PX ∗ ... ∗ PX ) = (E, B, PX )n

Le modèle est associe à l’obsevation d’un n-échantillon (X1 , X2 , ..., Xn ) d’une variable aléatoire à
valeur dans E et de loi dans P ∈ P lorsque la famille des lois {Pθ , θ ∈ H} de probabilité admettent
des densites (fx , ou P (X = x)) (au sens large).

1.4.2 Statistique
rappel :
Fonction mesurables : (théorie de la mesure)
Soient (Ω, B) et (Ω0 , B0 ) deux espaces mesurabls une application f : Ω → Ω0 est mesurable si :
∀A ∈ B0 : f −1 (A) ∈ B

Définition d’une statistique :


On appelle statistique toute application mesurable :

T :E→F

x 7→ T (x)

En pratique F ⊂ R ou Rd , d ≥ 1
T est caracterisé par le fait qu’elle ne dépend pas de θ, ni de sa loi de X

11
Chapitre 1 Echantillonnage

Exemple. Soit X1 , X2 , ..., Xn un n-échantillon d’une variable aléatoire X définie sur (E, B, Pθ )
alors :

n
X
1. T = Xi est une statistique.
i=1
n
X
1
2. T = n
Xi est une statistique (moyenne empirique noté Xn )
i=1
3. T = max(Xi ) ou T = min(Xi ) sont des statistiques
n
X
1
4. T = n (Xi − X)2 (variance empirique S 2 )
i=1
5. T = θ maxXi n’est pas une statistique.

1.4.3 Exhaustivité
Définition 1.5. Soit (E, B, (Pθ )θ∈θ ) un modèle statistique associé à une variable aléatoire X et soit
T une statistique, T est dite exhaustive pour θ, si la loi de probabilité conditionnelle de X sachant
T ne dépend pas de θ PX /T (X) = t ( PX /T (X) = t est indépendant de θ )

Exemple. X ,→ P (θ) (θ inconnu) loi de Poisson , X(Ω) = N

θx −θ
P(X = x) = e
x!
n
X
Soit X1 , ..., Xn un n-échantillon de X, soit la statistique T = Xi
i=1
Montrer que T est exhaustive pour θ ?

P(X1 = x1 , X1 = x2 , ..., Xn = xn ; T = t)
P(X1 = x1 , X2 = x2 , ..., Xn = xn /T (X) = t) =
P(T = t)

Remarque 1.6. Théorème de stabilité (loi de Poisson) : X ,→ P (λ1 ) et Y ,→ P (λ2 ), X et Y


indépendantes alors X + Y ,→ P (λ1 + λ2 ) ( loi de la somme de v.a. ind.)
n
X
Comme la loi de Poisson est stable donc T = Xi = X1 + X2 + ... + Xn ,→ P (nθ)
i=1
D’où

(nθ)t −nθ
P(T = t) = e , ∀(x1 , x2 , ..., xn ) ∈ Nn , t ∈ N
t!

12
Chapitre 1 Echantillonnage

Pθ (X1 = x1 , X2 = x2 , ..., Xn = xn ; T = t)
Pθ (X1 = x1 , X2 = x2 , ..., Xn = xn /T (X) = t) =
Pθ (T = t)
n−1
!
X
Pθ X1 = x1 , X2 = x2 , ...Xn−1 = xn−1 , Xn = t − xi
i=1
=
Pθ (T = t)
n−1
!
X
Pθ (X1 = x1 ).Pθ (X2 = x2 )...Pθ Xn = t − xi
i=1
=
Pθ (T = t)
n−1
X
t− xi
x1 x2 xn−1
θ −θ θ −θ θ θ 1
i=1
= e . e ... e−θ . n−1
e−θ .
x1 ! x2 ! xn−1 ! X Pθ (T = t)
(t − xi )!
i=1
θx1 +...+xn .e−nθ 1
= n−1
.
Y Pθ (T = t)
(xi )!.(t − (x1 + ... + xn−1 )!
i=1
t −nθ
θ .e t!
= n . t t −nθ
Y (n )(θ )(e )
(xi )!
i=1
t! 1
= n .
Y nt
(xi )!
i=1
t! 1
= .
n−1
Y nt
(xi )!(t − (x1 + ... + xn−1 )!
i=1

n
X
Alors la probabilité conditionnelle ne dépend pas de θ, donc T = Xi est exhaustive pour θ.
i=1

1.4.4 Fonction de vraisemblance


Soit (E, B, (fθ )θ∈H ) un modèle statistique associé à une v.a. X
On appelle fonction de vraisemblance du modèle la fonction

1.
l : H → R+

θ 7→ l(θ, x) = fθ (x); H ⊂ Rn

13
Chapitre 1 Echantillonnage

2. Soit X1 , ..., Xn un n-échantillon de X, la fonction de vraisemblance est donnée par

n
Y n
Y
l(θ, x1 , ..., xn ) = fθ (xi ) = f (xi , θ)
i=1 i=1

Remarque 1.7. En général on utilisera le log-vraisemblance définie par :


n
X
L(θ, x1 , ..., xn ) = log l(θ, x1 , ..., xn ) = log fθ (xi )
i=1

Exemple. Soit (X1 , ..., Xn ) un n-échantillon de X


1. X ,→ B(k, θ) / θ ∈]0, 1[ loi de X est connue
La fonction de vraisemblance

n
Y
l(θ, x1 , ..., xn ) = P(Xi = xi )
i=1
n
Y
= Ckxi θxi (1 − θ)k−xi si xi ∈ {0, 1, ..., k} ∀ 1 ≤ i ≤ n
i=1
n
X n
X
n
Y
! xi nk− xi
l(θ, x1 , ..., xn ) = Ckxi θ i=1 (1 − θ) i=1

i=1

2. X ,→ ξ(θ)
n
Y
l(θ, x1 , ..., xn ) = f (xi , θ)
i=1
n
Y
θe−θxi

= si xi > 0
i=1
 n
X

 −θ xi 
n
= θ e i=1 si xi > 0 ∀ 1 ≤ i ≤ n
 

 

3. X ,→ N (θ, σ 2 )

14

Vous aimerez peut-être aussi