Chap 1

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 88

Chapitre I : Introduction à la statistique inférentielle

Dr. MERGANE

Université Aliou Diop de Bambey

Décembre 2022
Sommaire

1 Préliminaire
Variable aléatoire réelle
Lois de probabilités usuelles
Tableaux des lois
Propriétés
Modes de convergence

2 Modèles
Modèle statistique
Modèle d’échantillonnage

3 Distribution d’échantillonnage de quelques statistiques


La moyenne empirique
La variance empirique
Cas particuliers
Echantillon de Bernoulli
Echantillon Gaussien
Préliminaire Variable aléatoire réelle

Sommaire

1 Préliminaire
Variable aléatoire réelle
Lois de probabilités usuelles
Tableaux des lois
Propriétés
Modes de convergence

2 Modèles
Modèle statistique
Modèle d’échantillonnage

3 Distribution d’échantillonnage de quelques statistiques


La moyenne empirique
La variance empirique
Cas particuliers
Echantillon de Bernoulli
Echantillon Gaussien

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 3 / 64


Préliminaire Variable aléatoire réelle

Variable aléatoire (v.a.) : Définitions et propriétés


• Soit (Ω, A, P) un espace probabilisé. On appelle variable aléatoire réelle (v.a.r.)
(univariée) toute application X définie de (Ω, A) à valeurs dans (R, B (R))
mesurable c’est à dire
∀A ∈ B (R) , X −1 (A) ∈ A.
• Soit X une v.a. L’application définie par :

F : R → [0, 1]
x → P (X ≤ x)

est appelée fonction de répartion (f.r.) de la v.a. X .

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 4 / 64


Préliminaire Variable aléatoire réelle

Variable aléatoire (v.a.) : Définitions et propriétés


• Soit (Ω, A, P) un espace probabilisé. On appelle variable aléatoire réelle (v.a.r.)
(univariée) toute application X définie de (Ω, A) à valeurs dans (R, B (R))
mesurable c’est à dire
∀A ∈ B (R) , X −1 (A) ∈ A.
• Soit X une v.a. L’application définie par :

F : R → [0, 1]
x → P (X ≤ x)

est appelée fonction de répartion (f.r.) de la v.a. X .

Propriété
. F est continue à droite ;
. F est croissante ;
. lim−∞ F (x) = 0 et lim+∞ F (x) = 1

Si F (x) = α, alors x est appelé quantile d’ordre α de X et il est noté par qα .

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 4 / 64


Préliminaire Variable aléatoire réelle

Types de variable aléatoire

Soit X une v.a.

+ Si X (Ω) est dénombrable alors X est dite discrète

+ S’il existe une fonction f définie de R dans R vérifiant :


• f (x) ≥ 0, ∀x ∈ R ;
Rx
• F 0 (x) = f (x), ∀x ∈ R ; (F (x) = −∞ f (t) dt) ;
R
• R f (x) dx = 1
alors la v.a. X est dite continue et la fonction f est appelée densité de
probabilité de X .

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 5 / 64


Préliminaire Variable aléatoire réelle

Variable aléatoire : Caractéristiques


• Espérance mathématique de X est notée et définie par

P
 xi ∈X (Ω) xi P (X = xi ) ,
 Si X est discrète;
E(X ) =

R
R
xf (x) dx, Si X est continue.

Remarque
Soit g une fonction continue, alors
P
 xi ∈X (Ω) g (xi )P (X = xi ) , Si X est discrète;

E (g (X )) =

R
R
g (x)f (x) dx, Si X est continue.

Si g (x) = x K , avec k un entier, alors E (g (X )) est appelée moment non centré


d’ordre k de X .

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 6 / 64


Préliminaire Variable aléatoire réelle

Variable aléatoire : Caractéristiques

h i
2
• La variance de X est définie par var (X ) = E (X − E (X ))

Remarque

var (X ) = E(X 2 ) − E2 (X )
K
Si g (x) = (x − E (X )) , avec k un entier, alors E (g (X )) est appelée
moment centré d’ordre k de X .

• La fonction caractéristique
 φX de X est l’application définie de R à valeurs
dans C par φX (t) = E e itX .

Propriété
(n)
φX (0) = i n E (X n )

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 7 / 64


Préliminaire Lois de probabilités usuelles

Sommaire

1 Préliminaire
Variable aléatoire réelle
Lois de probabilités usuelles
Tableaux des lois
Propriétés
Modes de convergence

2 Modèles
Modèle statistique
Modèle d’échantillonnage

3 Distribution d’échantillonnage de quelques statistiques


La moyenne empirique
La variance empirique
Cas particuliers
Echantillon de Bernoulli
Echantillon Gaussien

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 8 / 64


Préliminaire Lois de probabilités usuelles

Lois discrètes

Nom et notation Loi de probabilité E(X ) V (X ) φX (t)


P (X = k)

Bernoulli : X ∼ Ber (p) p k (1 − p)1−k , p p(1 − p) (1 − p) + p e i t


0 < p < 1
k ∈ {0, 1}
 n
Binomiale : X ∼ Bin(n, p) Cnk p k (1 − p)n−k , np n p(1 − p) (1 − p) + p e i t
n ∈ N, p ∈]0, 1[
k ∈ {0, · · · , n}

1−p p ei t
Géométrique : Géo(p), p (1 − p)k−1 , 1
p p2 1−(1−p) e i t
p ∈]0, 1[
k ∈ N?
 
λk e −λ λ e i t −1
Poisson : P(λ) λ λ e
k!
λ > 0
k ∈ N

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 9 / 64


Préliminaire Lois de probabilités usuelles

Lois continues
Nom et notation Densité E(X ) V (X ) φX (t)
f (x)

1 , a+b (b−a)2 e itb −e ita


Uniforme : U ∼ U [a, b]
b−a 2 12 it(b−a)
a < b
x ∈ [a, b]

x−m 2
 
−1  
Normale : X ∼ N (m, σ 2 ) √1 e 2 σ , m σ2 exp imt − 1 σ 2 t 2
σ 2π 2
m ∈ R, σ > 0
x ∈ R

Exponentielle : X ∼ E(λ) λ e −λ x 1 1 1
λ λ2 1− it
λ
λ > 0 x > 0
 k

Gamma : X ∼ γ(k, λ) λk x k−1 e −λ x k k  1 


Γ(k) λ λ2 1− it
λ
k, λ > 0 x > 0

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 10 / 64


Préliminaire Lois de probabilités usuelles

Lois continues
Nom et notation Densité E(X ) V (X ) φX (t)
f (x)

1 , a+b (b−a)2 e itb −e ita


Uniforme : U ∼ U [a, b]
b−a 2 12 it(b−a)
a < b
x ∈ [a, b]

x−m 2
 
−1  
Normale : X ∼ N (m, σ 2 ) √1 e 2 σ , m σ2 exp imt − 1 σ 2 t 2
σ 2π 2
m ∈ R, σ > 0
x ∈ R

Exponentielle : X ∼ E(λ) λ e −λ x 1 1 1
λ λ2 1− it
λ
λ > 0 x > 0
 k

Gamma : X ∼ γ(k, λ) λk x k−1 e −λ x k k  1 


Γ(k) λ λ2 1− it
λ
k, λ > 0 x > 0

Γ est appelée la fonction Gamma d’Euler, elle est définie comme suit :

Z +∞
a−1 −x
Γ(a) = x e dx, ∀a > 0,
0

et elle vérifie les conditions suivantes :


• ∀a > 0, Γ(a + 1) = aΓ(a)
• ∀n ∈ N∗ , Γ(n + 1) = n!
  √
• Γ 1 = π.
2

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 10 / 64


Préliminaire Lois de probabilités usuelles

Loi normale

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 11 / 64


Préliminaire Lois de probabilités usuelles

Loi normale

Utilités
+ La loi normale ou loi de Gauss modélise un grand nombre de distributions
observées.
Les courbes de croissance données par l’OMS, et présentes par exemple dans les
carnets de santé, sont issues de modélisations grâce à une loi normale.

+ Elle est une approximation de beaucoup de distributions théoriques.

+ La plupart des outils d’inférence statistique s’appuie sur la distribution


normale : constitue la base du fondement théorique de la statistique inductive.

+ etc.

Un phénomène X suit une loi normale, s’il est la résultante d’un grand nombre
d’effets et petits qui s’ajoutent.

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 11 / 64


Préliminaire Lois de probabilités usuelles

Fig.: Densités de probabilité N (µ, σ 2 )

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 12 / 64


Préliminaire Lois de probabilités usuelles

Loi normale

Stabilité
Soient X1 , X2 , · · · , Xn , une suite de v.a. indépendantes ; α0 , α1 , α2 , · · · , αn , une
suite de nombres réels non nuls. 
Si pour tout i dans {1, 2, · · · , n} , on a Xi ∼ N mi , σi2 , alors
n n n
!
X X X
2 2
αi Xi + α0 ∼ N αi mi + α0 , αi σi .
i=1 i=1 i=1

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 13 / 64


Préliminaire Lois de probabilités usuelles

Loi normale : Standardisation

Si X ∼ N (m, σ 2 ), alors Z = X −mσ ∼ N (0, 1).


N (0, 1) est appelée loi normale centrée et réduite ou loi normale standard. Sa
densité de probabilité est donnée par
1 x2
f (x) = √ e− 2

Fig.: Densité de N (0, 1)


Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 14 / 64
Préliminaire Lois de probabilités usuelles

Soit Z distribuée suivant la loi normale standard.

Fonction cumulative de N (0 ; 1)
Sa fonction de répartition est généralement notée par Φ.

P(Z ≤ x) = Φ(x)

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 15 / 64


Préliminaire Lois de probabilités usuelles

Propriété

Φ(−x) = 1 − Φ(x)

P (Z ≤ −x) = P (Z > x)

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 16 / 64


Préliminaire Lois de probabilités usuelles

Propriété

Φ(−x) = 1 − Φ(x)

P (Z ≤ −x) = P (Z > x)

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 16 / 64


Préliminaire Lois de probabilités usuelles

Table de la fonction de répartition : Probabilité de trouver


une valeur inférieure à x

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 17 / 64


Préliminaire Lois de probabilités usuelles

Table de la fonction de répartition : Probabilité de trouver


une valeur inférieure à x

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 17 / 64


Préliminaire Lois de probabilités usuelles

Exemple d’utilisation de la table


Nous voulons calculer P(Z ≤ 1.83) = Φ(1.83).

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 18 / 64


Préliminaire Lois de probabilités usuelles

Exemple d’utilisation de la table


Nous voulons calculer P(Z ≤ 1.83) = Φ(1.83).

Décomposition : 1.83 = 1.8 + 0.03.

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 18 / 64


Préliminaire Lois de probabilités usuelles

Exemple d’utilisation de la table


Nous voulons calculer P(Z ≤ 1.83) = Φ(1.83).

Décomposition : 1.83 = 1.8 + 0.03.


Projection : on projette au viveau du tableau, et on récupère la valeur trouvant
dans l’intersection.

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 18 / 64


Préliminaire Lois de probabilités usuelles

Exemple d’utilisation de la table


Nous voulons calculer P(Z ≤ 1.83) = Φ(1.83).

Décomposition : 1.83 = 1.8 + 0.03.


Projection : on projette au viveau du tableau, et on récupère la valeur trouvant
dans l’intersection.
Φ(1.83) = 0.9664

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 18 / 64


Préliminaire Lois de probabilités usuelles

Exemple d’utilisation de la table


Nous voulons calculer P(Z ≤ 1.83) = Φ(1.83).

Décomposition : 1.83 = 1.8 + 0.03.


Projection : on projette au viveau du tableau, et on récupère la valeur trouvant
dans l’intersection.
Φ(1.83) = 0.9664

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 18 / 64


Préliminaire Lois de probabilités usuelles

Remarque
Si x < 0, alors on utilise la relation

Φ(x) = 1 − Φ(−x)

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 19 / 64


Préliminaire Lois de probabilités usuelles

Remarque
Si x < 0, alors on utilise la relation

Φ(x) = 1 − Φ(−x)

Exemple

Φ(−1.56) = 1 − Φ(1.56)

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 19 / 64


Préliminaire Lois de probabilités usuelles

Remarque
Si x < 0, alors on utilise la relation

Φ(x) = 1 − Φ(−x)

Exemple

Φ(−1.56) = 1 − Φ(1.56)
= 1−

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 19 / 64


Préliminaire Lois de probabilités usuelles

Remarque
Si x < 0, alors on utilise la relation

Φ(x) = 1 − Φ(−x)

Exemple

Φ(−1.56) = 1 − Φ(1.56)
= 1 − 0.9406
= 0.0594

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 19 / 64


Préliminaire Lois de probabilités usuelles

Fractile de N (0 ; 1)

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 20 / 64


Préliminaire Lois de probabilités usuelles

Fractile de N (0 ; 1)

Soit α compris entre 0 et 1.


On veut trouver le réel x tel que : Φ(x) = α.
Donc x est l’image réciproque de α par Φ.

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 20 / 64


Préliminaire Lois de probabilités usuelles

Fractile de N (0 ; 1)

Soit α compris entre 0 et 1.


On veut trouver le réel x tel que : Φ(x) = α.
Donc x est l’image réciproque de α par Φ.

Définition
Si pour un réel fixé α on a Φ(x) = α, alors
x est appelé quantile ou fractile d’ordre α de la loi normale standard.

Il est noté par zα

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 20 / 64


Préliminaire Lois de probabilités usuelles

Fractile de N (0 ; 1)

Soit α compris entre 0 et 1.


On veut trouver le réel x tel que : Φ(x) = α.
Donc x est l’image réciproque de α par Φ.

Définition
Si pour un réel fixé α on a Φ(x) = α, alors
x est appelé quantile ou fractile d’ordre α de la loi normale standard.

Il est noté par zα

Φ(zα ) = α

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 20 / 64


Préliminaire Lois de probabilités usuelles

Table de la fonction des fractiles

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 21 / 64


Préliminaire Lois de probabilités usuelles

Exemple d’utilisation de la table des fractiles de N (0 ; 1)

Cherchons le quantile d’ordre 61.2% de la loi normale standard z0.612 .

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 22 / 64


Préliminaire Lois de probabilités usuelles

Propriété
Propriété

zα = −z1−α

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 23 / 64


Préliminaire Lois de probabilités usuelles

Propriété
Propriété

zα = −z1−α

+ La table des fractiles ne donne pas les valeurs zα pour α < 0.5. Donc on utilise
cette propriété.

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 23 / 64


Préliminaire Lois de probabilités usuelles

Propriété
Propriété

zα = −z1−α

+ La table des fractiles ne donne pas les valeurs zα pour α < 0.5. Donc on utilise
cette propriété.

Exemple
Cherchons le fractile d’ordre 0.464 de la loi normale standard.
On cherche z0.464 .

z0.464 = −z1−0.464
= −z0.536

D’après la table des fractiles, z0.536 = 0.0904. Donc

z0.464 = −0.0904
Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 23 / 64
Préliminaire Lois de probabilités usuelles

Exercices

Exercice (1)
Soit Z une variable suivant une loi normale standard. Calculer
1. P (Z ≤ 1.98) 5. P (−1.77 < Z )

2. P (Z < 2) 6. P (−1.3 < Z < 1.05)

3. P (Z > 0.54) 7. P (−2.01 ≤ Z ≤ −0.42)

4. P (0.98 ≤ Z < 2.1) 8. P (Z ≥ 0)

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 24 / 64


Préliminaire Lois de probabilités usuelles

Exercice (2)
Soit Z une variable suivant une loi normale standard. Trouver la valeur de u
vérifiant :
1. P (Z < u) = 0.85

2. P (Z ≤ u) = 0.611

3. P (Z < u) = 0.45

4. P (Z > u) = 0.9

5. P (−u < Z < u) = 0.95

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 25 / 64


Préliminaire Lois de probabilités usuelles

Exercice (3)
Soit X une variable suivant une loi normale N (11 ; 22 ).
1 Calculer P(X ≤ 14) ; P(X < 10) ; P(9 < X ≤ 13).

2 Trouver u. :
P(X < u) = 0.975 ; P(X > u) = 0.5 ; P(X ≥ u) = 0.25 ; P(X < u) = 0.315

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 26 / 64


Préliminaire Lois de probabilités usuelles

Loi Gamma

Propriétés
• Soient α > 0 et X ∼ γ (k, λ) , alors αX ∼ γ k, αλ .


• Soient X1 , X2 , · · · , Xn , une suite de v.a. indépendantes suivant


respectivement γ (k1 , λ) , γ (k2 , λ) , · · · , γ (kn , λ) . Alors,
n n
!
X X
Xi ∼ γ ki , λ .
i=1 i=1

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 27 / 64


Préliminaire Lois de probabilités usuelles

Loi Gamma

Propriétés
• Soient α > 0 et X ∼ γ (k, λ) , alors αX ∼ γ k, αλ .


• Soient X1 , X2 , · · · , Xn , une suite de v.a. indépendantes suivant


respectivement γ (k1 , λ) , γ (k2 , λ) , · · · , γ (kn , λ) . Alors,
n n
!
X X
Xi ∼ γ ki , λ .
i=1 i=1

Remarque
E (λ) = γ (1, λ)

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 27 / 64


Préliminaire Lois de probabilités usuelles

Exercice
1. Prouver les propriétés précédentes.
2. Soient X1 , X2 , · · · , Xn , une suite de v.a. indépendantes et identiquement
distribuées (iid) suivant la loi E (λ) . Montrer que
n
1X
Xi ∼ γ (n, n λ) .
n
i=1

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 28 / 64


Préliminaire Lois de probabilités usuelles

Loi du khi-deux

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 29 / 64


Préliminaire Lois de probabilités usuelles

Loi du khi-deux

+ Loi du khi-deux à k degré(s) de liberté :

Propriétés
• Si X ∼ N (0, 1) , alors X 2 ∼ χ21 .

• Si X1 , X2 , · · · , Xk , une suite de v.a. iid de la loi N (0, 1) , alors


k
X
Xi2 ∼ χ2k
i=1

•  
k 1
χ2k = γ , , k∈N
2 2

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 29 / 64


Préliminaire Lois de probabilités usuelles

Fig.: Densité de la loi du χ2k


Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 30 / 64
Préliminaire Lois de probabilités usuelles

Loi de Student

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 31 / 64


Préliminaire Lois de probabilités usuelles

Loi de Student

+ Loi de Student à k degré(s) de liberté :

Propriété
Soient X et Y deux variables aléatoires indépendantes de lois respectives N (0, 1)
et χ2k . Alors la v.a. définie par
X
T =p
Y /k
suit la loi de Student à k degré(s) de liberté, et on note T ∼ St (k) .

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 31 / 64


Préliminaire Lois de probabilités usuelles

Fig.: Densité de la loi de St(k)

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 32 / 64


Préliminaire Lois de probabilités usuelles

Loi de Fisher

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 33 / 64


Préliminaire Lois de probabilités usuelles

Loi de Fisher

+ Loi de Fisher à n et m degrés de liberté :

Propriété
Soient X et Y deux variables aléatoires indépendantes suivant respectivement les
lois χ2n et χ2m . La v.a. définie par

X /n
F =
Y /m

suit la loi de Fisher à n et m degrés de liberté, et on note F ∼ F (n, m).

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 33 / 64


Préliminaire Lois de probabilités usuelles

Fig.: Densité de loi de F (d1, d2)

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 34 / 64


Préliminaire Modes de convergence

Sommaire

1 Préliminaire
Variable aléatoire réelle
Lois de probabilités usuelles
Tableaux des lois
Propriétés
Modes de convergence

2 Modèles
Modèle statistique
Modèle d’échantillonnage

3 Distribution d’échantillonnage de quelques statistiques


La moyenne empirique
La variance empirique
Cas particuliers
Echantillon de Bernoulli
Echantillon Gaussien

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 35 / 64


Préliminaire Modes de convergence

Convergence presque sûre

Définition
On dit qu’une suite de v.a. (Xn )n∈N converge presque sûrement vers X et on note
Xn →p.s. X si  
P lim Xn = X = 1
n→+∞

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 36 / 64


Préliminaire Modes de convergence

Convergence presque sûre

Définition
On dit qu’une suite de v.a. (Xn )n∈N converge presque sûrement vers X et on note
Xn →p.s. X si  
P lim Xn = X = 1
n→+∞

Théorème (Loi Forte des Grands Nombres)


Soient X1 , · · · , Xn , une suite de v.a. iid d’espérance µ, alors
n
Sn X
−→ps µ, où Sn = Xi
n
i=1

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 36 / 64


Préliminaire Modes de convergence

Convergence en probabilité

Définition
La suite de v.a. (Xn )n∈N converge en probabilité vers X et on note Xn →P X si

∀ > 0, lim P (|Xn − X | ≥ ) = 0


n→+∞

Propriété
La convergence ps entraine la convergence en probabilité.

Preuve : [TAF]

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 37 / 64


Préliminaire Modes de convergence

Convergence en moyenne quadratique


Définition
Une suite de v.a. X1 , · · · , Xn , converge en mq vers X ,
 
2
lim E (Xn − X ) = 0
n

Propriété
1 Si E (Xn ) −→ ` et Var (Xn ) −→ 0, alors Xn −→mq `.
2 Si Xn −→mq X , alors Xn −→P X .

Preuve : 
2 
1 E (Xn − `) = E Xn2 − 2 ` E (Xn ) + `2 =
 
2
Var (Xn ) + E (Xn ) − 2 ` E (Xn ) + `2 . Cette expression tend vers zéro.
2 On utilise l’inégalité de Bienaymé Tchebychev : soit  > 0, on a
 
2
E (Xn − X )
0 ≤ P (|Xn − X | ≥ ) ≤ −→ 0.
2
Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 38 / 64
Préliminaire Modes de convergence

Convergence en loi

Définition
Soit (Xn )n∈N une suite de variables aléatoires de fonction de répartition (FXn ) et
soit X variable aléatoire de fonction de répartition F . On dit que la suite converge
en loi vers X et on note Xn −→L X , si en tout point de continuité x de F on a
Fn (x) converge (simplement) vers F (x).

Propriété
La convergence en probabilité implique la convergence en loi.
Preuve : [TAF]

Théorème (de Levy)


Soit (Xn )n∈N une suite de v.a. de fonction caractéristique φXn (·). On a
l’équivalence suivante

Xn −→L X ⇔ φXn (t) −→ φX (t), ∀t ∈ R.

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 39 / 64


Préliminaire Modes de convergence

Théorème Central Limite TCL

Théorème
Soit X1 , · · · , Xn une suite de v.a. iid d’espérance µ et de variance σ 2 . Alors
Sn − nµ
√ −→L N (0, 1) .
σ n

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 40 / 64


Préliminaire Modes de convergence

La méthode delta ou δ−méthode

Théorème
Soient (Zn )N une suite de v.a. d’espérance µ et de variance σ 2 et g une fonction
dérivable telle que g 0 (µ) 6= 0. Si lorsque n −→ +∞, on a

n (Zn − µ) −→L N 0, σ 2


alors √  
2
n (g (Zn ) − g (µ)) −→L N 0, σ 2 [g 0 (µ)]

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 41 / 64


Modèles Modèle statistique

Sommaire

1 Préliminaire
Variable aléatoire réelle
Lois de probabilités usuelles
Tableaux des lois
Propriétés
Modes de convergence

2 Modèles
Modèle statistique
Modèle d’échantillonnage

3 Distribution d’échantillonnage de quelques statistiques


La moyenne empirique
La variance empirique
Cas particuliers
Echantillon de Bernoulli
Echantillon Gaussien

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 42 / 64


Modèles Modèle statistique

Modèle statistique

Soient (E , E) un espace probabilisable, P = {Pθ , θ ∈ Θ} une famille de


probabilités définies sur l’espace (E , E) , où Θ est l’espace des paramètres.
Considérons X une variable aléatoire définie sur (E , E) dont la loi appartient à P.

Définition
On appelle modèle statistique induit par la v.a. X le triplet (E , E, P) .

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 43 / 64


Modèles Modèle statistique

Modèle statistique : Exemples

Exemple (1)
Une machine produit des pièces. Une proportion p est défectueuse. On suppose
que ce caractère défectueux est indépendant d’une pièce à l’autre. On tire au
hasard une pièce de cette production. On sait dire si oui ou non la pièce tirée est
défectueuse. La v.a. X décrivant cette situation est de Bernoulli de paramètre p
inconnu.
Le modèle statistique associée à cette expérience est appelé modèle de Bernoulli
et on note :
({0, 1} , P ({0, 1}) , {Ber (p) , p ∈ [0, 1]}) .

Exemple (2)
La longueur X d’une certaine pièce est supposée suivre une loi normale de
moyenne µ et d’écart-type σ qui sont inconnus.
Le modèle statistique induit par X est appelé modèle gaussien et on note

R, B (R) , N µ, σ 2 , (µ, σ) ∈ R × R∗+


  

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 44 / 64


Modèles Modèle statistique

Modèle paramétrique

Définition
Le modèle statistique (E , E, P) induit par X est dit paramétrique s’il existe un
entier naturel k tel que l’espace des paramètres est inclus dans Rk i.e.
P = {Pθ , θ ∈ Θ} avec Θ ⊆ Rk .
Sinon, le modèle est dit non paramétrique.

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 45 / 64


Modèles Modèle statistique

Modèle paramétrique

Définition
Le modèle statistique (E , E, P) induit par X est dit paramétrique s’il existe un
entier naturel k tel que l’espace des paramètres est inclus dans Rk i.e.
P = {Pθ , θ ∈ Θ} avec Θ ⊆ Rk .
Sinon, le modèle est dit non paramétrique.

Exemple
• Dans l’exemple 1, θ = p et Θ = [0, 1] : le paramètre est dit unidimensionnel.
• Dans l’exemple 2, θ = (µ, σ) et Θ = R × R∗+ , le paramètre est bidimensionnel.

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 45 / 64


Modèles Modèle statistique

Modèle identifiable

Définition
Le modèle statistique paramétrique (E , E, {Pθ , θ ∈ Θ}) est dit identifiable si
l’application θ ∈ Θ 7−→ Pθ est injective i.e.

∀ θ1 , θ2 ∈ Θ, si Pθ1 = Pθ2 =⇒ θ1 = θ2 .

Exemple
On considère le modèle gaussien dans le cas où la moyenne µ est connue et de
variance σ 2 inconnue. Si on pose θ = σ ∈ R∗ , alors ce modèle n’est pas
identifiable. En effet, Pθ = P−θ .

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 46 / 64


Modèles Modèle statistique

Vraisemblance-Score

Definition
Soit (Ω, A, {Pθ , θ ∈ Θ}) un modèle statistique paramétrique induit par X . On
appelle vraisemblance de X au point x, la fonction notée et définie par :

L(x; ·) : Θ 7−→ R+
θ 7−→ fθ (x)

où fθ est la densité de X et si X est discrète on a fθ (x) = Pθ (X = x).

Définition
On appelle fonction score de la v.a. X sur le paramètre θ, la dérivée par rapport
à θ (si elle existe) du logarithme de la vraisemblance de X . Elle est notée par
S(X , θ). On a

S(X , θ) = log fθ (X )
∂θ

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 47 / 64


Modèles Modèle statistique

Propriété
∂ ∂
R R
Supposons que ∂θ E
f (x, θ) dx = E ∂θ
f (x, θ) dx, alors S(X , θ) est une v.a.
centrée.
En effet,
fθ0 (x)
Z Z
E (S(X , θ)) = S(x, θ)fθ (x)dx = fθ (x)dx
fθ (x)
or cette dernière expression est égale à
Z Z
∂ ∂
fθ (x)dx = fθ (x)dx,
∂θ ∂θ

puisque fθ (·) est une densité, donc son intégrale vaut 1 et sa dérivée est égale zéro.

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 48 / 64


Modèles Modèle d’échantillonnage

Sommaire

1 Préliminaire
Variable aléatoire réelle
Lois de probabilités usuelles
Tableaux des lois
Propriétés
Modes de convergence

2 Modèles
Modèle statistique
Modèle d’échantillonnage

3 Distribution d’échantillonnage de quelques statistiques


La moyenne empirique
La variance empirique
Cas particuliers
Echantillon de Bernoulli
Echantillon Gaussien

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 49 / 64


Modèles Modèle d’échantillonnage

Modèle d’échantillonnage : Définitions


Définition
On appelle échantillon de taille n extrait d’une v.a. X , un n-uplet
Xe = (X1 , X2 , · · · , Xn ) dont les composantes sont des v.a. indépendantes et
identiquement distribuées (iid) suivant la loi de X .
Une réalisation de cet échantillon X e sera notée par x̃ = (x1 , x2 , · · · , xn ) .

Définition
Soit (E , E, P) un modèle statistique induit par X . On appelle modèle de
l’échantillon ou d’échantillonnage le modèle donné par

E n , E ⊗n , P ⊗n .


La vraisemblance de l’échantillon au point x̃ = (x1 , x2 , · · · , xn ) est ainsi donnée par

x ; ·)
L(e : Θ 7−→ R+
n
Y
θ 7−→ fθ (xi )
i=1
Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 50 / 64
Modèles Modèle d’échantillonnage

Exercice
Donner la vraisemblance du modèle :
 
⊗n
1 de Bernoulli E n , E ⊗n , {Ber (p), p ∈ [0, 1]} ;
 
⊗n
2 de Poisson E n , E ⊗n , {P(λ), λ ∈ R+ } ;
 ⊗n 
Gaussien E n , E ⊗n , N (µ, σ 2 ), µ ∈ R, σ ∈ R∗+

3 .

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 51 / 64


Modèles Modèle d’échantillonnage

Score de l’échantillon
Définition
On appelle fonction score de l’échantillon au point θ, la dérivée par rapport à θ
(si elle existe) de la log-vraisemblance. Elle est donnée par :


S(X
e , θ) = log L(X
e ; θ)
∂θ

Propriété
n
X
S(X
e , θ) = S(Xi , θ).
i=1

En effet !
n
∂ ∂ Y
S(X
e , θ) = log L(X
e ; θ) = log fθ (Xi )
∂θ ∂θ
i=1
n n
e , θ) = ∂ ∂
X X
⇒ S(X log fθ (Xi ) = log fθ (Xi )
∂θ ∂θ
i=1 i=1

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 52 / 64


Distribution d’échantillonnage de quelques statistiques

Statistique

 
⊗n
Soit E n , E ⊗n , {Pθ , θ ∈ Θ} le modèle d’échantillonnage associé à l’échantillon
e = (X1 , · · · , Xn ) extrait de X , de carré intégrable. Notons par
X

E(X ) = µ et Var (X ) = σ 2 .

Définition
Toute application mesurable T définie de (E n , E ⊗n ) à valeurs dans un espace
mesurable (F , F) est appelée statistique.

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 53 / 64


Distribution d’échantillonnage de quelques statistiques

Statistique : Exemples
Exemple
1 Minimum :

Rn , B(R)⊗n

−→ (R, B(R))
(X1 , · · · , Xn ) −→ T (X1 , · · · , Xn ) = min {X1 , · · · , Xn }

2 Fonction de répartition empirique : soit t0 ∈ R

T : Rn , B(R)⊗n

−→ ([0, 1], B([0, 1]))
n
1X
(X1 , · · · , Xn ) −→ T (X1 , · · · , Xn ) = 1(Xi ≤t0 )
n i=1

3 Moyenne et variance empirique :

T : Rn −→ R2  
(X1 , · · · , Xn ) −→ T (X1 , · · · , Xn ) = X , S 2 ,

Pn Pn 2
où X = 1
n i=1 Xi et S 2 = 1
n i=1 Xi − X .
Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 54 / 64
Distribution d’échantillonnage de quelques statistiques La moyenne empirique

Sommaire

1 Préliminaire
Variable aléatoire réelle
Lois de probabilités usuelles
Tableaux des lois
Propriétés
Modes de convergence

2 Modèles
Modèle statistique
Modèle d’échantillonnage

3 Distribution d’échantillonnage de quelques statistiques


La moyenne empirique
La variance empirique
Cas particuliers
Echantillon de Bernoulli
Echantillon Gaussien

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 55 / 64


Distribution d’échantillonnage de quelques statistiques La moyenne empirique

Moyenne empirique

Definition
On appelle moyenne de l’échantillon ou moyenne empirique la statistique notée
par X et définie par
n
1X
X = Xi .
n
i=1

 σ2
E X = µ et Var (X ) = .
n

Preuve[TAF]

Théorème

1 D’après la loi forte des grands nombres, X n converge ps vers µ.



2 D’après le TCL, n X −µ σ converge en loi vers une loi N (0, 1) .

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 56 / 64


Distribution d’échantillonnage de quelques statistiques La variance empirique

Sommaire

1 Préliminaire
Variable aléatoire réelle
Lois de probabilités usuelles
Tableaux des lois
Propriétés
Modes de convergence

2 Modèles
Modèle statistique
Modèle d’échantillonnage

3 Distribution d’échantillonnage de quelques statistiques


La moyenne empirique
La variance empirique
Cas particuliers
Echantillon de Bernoulli
Echantillon Gaussien

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 57 / 64


Distribution d’échantillonnage de quelques statistiques La variance empirique

Variance empirique

Definition
On appelle variance empirique la statistique notée et définie par
n
1X 2
S2 = Xi − X .
n
i=1

Remarque (Formule de Huygens-Konig)


n
1X 2 2
S2 = Xi − X .
n
i=1

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 58 / 64


Distribution d’échantillonnage de quelques statistiques La variance empirique

Variance empirique

Propriété
Supposons que le moment centré d’ordre 4 (µ4 ) de X existe, alors
 n−1 2 n−1
E S2 = σ et Var (S 2 ) = (n − 1) µ4 − (n − 3) σ 4 .

n n 3

Pour de grandes valeurs de n, cette dernière expression est sensiblement égale à


µ4 −σ 4
n .

Théorème
Lorsque n tend vers +∞, on a : S 2 converge ps vers σ 2 et

√ S 2 − σ2
np −→d N (0, 1) .
µ4 − σ 4

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 59 / 64


Distribution d’échantillonnage de quelques statistiques La variance empirique

Variance empirique corrigée


2 n
S0 = S2
n−1

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 60 / 64


Distribution d’échantillonnage de quelques statistiques La variance empirique

Variance empirique corrigée


2 n
S0 = S2
n−1

Remarque
Lorsque la taille de l’échantillon n est très grande on a :
2
S0 ≈ S2

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 60 / 64


Distribution d’échantillonnage de quelques statistiques Cas particuliers

Sommaire

1 Préliminaire
Variable aléatoire réelle
Lois de probabilités usuelles
Tableaux des lois
Propriétés
Modes de convergence

2 Modèles
Modèle statistique
Modèle d’échantillonnage

3 Distribution d’échantillonnage de quelques statistiques


La moyenne empirique
La variance empirique
Cas particuliers
Echantillon de Bernoulli
Echantillon Gaussien

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 61 / 64


Distribution d’échantillonnage de quelques statistiques Cas particuliers

Etude d’une proportion


Supposons que l’échantillon soit issu d’un modèle d’échantillonnage de Bernoulli
de paramètre p. On appelle fréquence empirique la statistique donnée par
n
1X
p=
b Xi .
n
i=1

C’est donc une moyenne empirique. On a


p(1 − p)
p ) = p et Var (b
E(b p) = .
n
En effet, puisque chaque Xi ∼ Ber (p), alors Y = nb p ∼ Bin(n, p). Ainsi,
E(Y ) = np et Var (Y ) = np(1 − p). On pouvait aussi remplacer µ par p et la
variance par σ 2 .
La convergence ps de b p vers p est assurée par√LFGN et la convergence en
distribution vers une loi normale standard de n √ bp−p est donnée par le TCL.
p(1−p)

Exercice
n−1
p (1 − b
Montrer que E (b p )) = n p(1 − p).
Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 62 / 64
Distribution d’échantillonnage de quelques statistiques Cas particuliers

Echantillon Gaussien

On suppose maintenant que l’échantillon est gaussien. On a


Théorème
σ2
 
X ∼N µ, .
n

Théorème (de Fisher)

1 Les statistiques X et S 2 sont indépendantes.


2
n 2
S ∼ χ2n−1
σ2
3

√ X −µ
n ∼ St (n − 1) .
S

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 63 / 64


Annexe : Quelques preuves

Dr. MERGANE (M1SID/SATIC) Chapitre I : Introduction à la statistique inférentielle Décembre 2022 64 / 64

Vous aimerez peut-être aussi