Chapitre 3 Estimations NGUEHAIR Version Etudiant

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 38

Pr.N.GUEHAIR /A.

U 2022-2023/S3/G5-8

Estimation_S3_N.GUEHAIR 13/12/2022 1
Introduction : principe général de l’estimation
3.1) Estimation ponctuelle
3.1.1) Qualités d’un estimateur
3.1.2) Estimation ponctuelle de l’espérance
3.1.3) Estimation ponctuelle de la variance
3.1.4) Estimation ponctuelle d’une proportion
3.2) Méthode du maximum de vraisemblance
3.3) Estimation par intervalles de confiance

Estimation_S3_N.GUEHAIR 13/12/2022 2
L’objectif d’estimation est de révéler de l’information sur le ( ou les) paramètre (s) inconnus d’intérêt de la
population à partir d’un échantillon aléatoire. Or, la mesure de ce (s) paramètre (s) par l’observation de chacun
des individus de la population s’avère souvent impossible pour des raisons de coût (temps et d’argent) ou des
raisons pratiques (connaitre le coût moyen des baleines en pacifique).
On sait calculer des indicateurs numériques (moyenne, variance, médiane, etc.) à partir d’un échantillon de
données ..mais comment généraliser à la population mère? Quelles informations sur la population obtient-on en
étudiant l’échantillon ? Quelle confiance peut-on accorder à ces informations ?

Estimation_S3_N.GUEHAIR 13/12/2022 3
Idée :
A partir d’échantillons aléatoires, extraits parmi divers procédés, on va introduire des résultats sur la
population.
Soit la caractéristique d’intérêt dans la population, notée X, est une variable aléatoire, dont on observe des
réalisations. On suppose que X suit une loi de probabilité connue, c’est-à-dire on choisit parmi les modèles
existants la loi de probabilité la plus appropriée au phénomène observé. Cette loi est représentée par une
fonction de densité si X est une variable continue, soit par une fonction de masse si X est une variable
discrète. Seule la valeur numérique du paramètre θ intervenant dans cette loi de probabilité est inconnue.

X ∼ P(θ), θ inconnu

Exemple : soit X le nombre journalier de clients qui entrent dans une boutique suit une loi
normale, de moyenne inconnue θ et de variance connue. On va donc chercher à estimer θ à partir
d’un échantillon représentatif de données.

Estimation_S3_N.GUEHAIR 13/12/2022 4
On considère généralement deux types d’estimation :

❑ L’estimation ponctuelle : on cherche à calculer une unique valeur θ



estimant au mieux θ.
❑ L’estimation par intervalle de confiance : on cherche à déterminer un
intervalle qui, avec une grande probabilité fixée a priori, contient la
vraie valeur du paramètre inconnu.
on cherche A et B tel que, par exemple
P (A ≤ θ ≤ B) = 0.95
A et B sont des variables aléatoires

Estimation_S3_N.GUEHAIR 13/12/2022 5
L'estimation est dite ponctuelle lorsque l'on se propose d’estimer un paramètre inconnu θ (P ou µ ou 𝜎) de la population par un seul
nombre, déduit des résultats de l’échantillon. Cette estimation se fait à l’aide d’un estimateur noté θ෠ qu’est une fonction des variables
aléatoires de l’échantillon est défini par : θ෠ = g (𝑥1, 𝑥2 . . . , 𝑥𝑛 ).
Population
X (P, µ, 𝜎)

K échantillons aléatoires simples de


n individus

𝑥ҧ1 𝑆𝑒21 𝑥ҧ𝑘 𝑆𝑒2 𝑘


𝑥ҧ𝑖 𝑆𝑒2 𝑖

On note les n observations 𝑥1 , 𝑥2 … … 𝑥n faites sur un échantillon peuvent être considérées comme la réalisation de n variables
aléatoires (𝑋1 ,. .. , 𝑋𝑛 ), dans lequel toutes les variables aléatoires 𝑋𝑖 pour i=1,……..,n sont supposées indépendantes et
identiquement distribuées (iid) de même loi que X. En effet, la valeur prise par le premier élément extrait de la population 𝑋1 ,
dépend de l’échantillon obtenu lors du tirage aléatoire. Cette valeur sera différente si l’on considère un autre échantillon. Il en
est de même pour les n valeurs extraites de la population

Estimation_S3_N.GUEHAIR 13/12/2022 6
Un estimateur du paramètre θ est une V.a puisqu’elle dépend de l’échantillon particulier qui a été
choisi.
Une estimation 𝑜ො 𝑥 n’est autre que l’application de la formule g (𝑋1 , . . . , 𝑋𝑛 ) aux données c’est-à-
dire aux réalisations de l’échantillon (𝑥1 , 𝑥2 … … 𝑥n ).
N.B: A ne pas confondre entre un estimateur ou statistique et une estimation constante comme
une valeur observée de l'estimateur sur un échantillon.
ഥ est un estimateur de µ et 𝒙
Exemple: 𝑿 ഥ est une estimation de µ .
Un paramètre θ peut avoir également plusieurs estimateurs. Par exemple, pour estimer le
paramètre inconnu de la moyenne de la population, on pourrait utiliser la moyenne
arithmétique, de la médiane ou du mode.
⇒ Quels sont les principales qualités qu’un estimateur doit-il posséder pour
fournir de bonne estimation?

Estimation_S3_N.GUEHAIR 13/12/2022 7
1) Estimateur non biaisé :
On souhaite que l’estimation ne soit pas systématiquement décalée par rapport à la valeur
vraie. Un estimateur θ෠ est sans biais si la moyenne de sa distribution d’échantillonnage est
égale à la valeur θ du paramètre de la population à estimer.

Si l’estimateur est biaisé, son biais (ou erreur) est mesuré par l’écart suivant :

N.B : Estimateur asymptotiquement sans biais du paramètre θ :


toute statistique θ෠ = θ෠ (𝑋1 , . . . , 𝑋𝑛 ) telle que :

Estimation_S3_N.GUEHAIR 13/12/2022 8
La convergence :
Un estimateur convergent d’un paramètre θ toute statistique θ෠ pour qui pour tout
écart 𝜀 > 0 vérifie :
𝐥𝐢𝐦 𝑷 (|θ෠ − θ|≤ 𝜺) =1
𝒏→∓∞

C’est-à-dire nous avons , l’estimateur converge en probabilité quand la taille


de l’échantillon est très important (appelé la loi faible des grands nombres)
Pour valider la convergence d’un estimateur il suffit de montrer que :
ou

Estimation_S3_N.GUEHAIR13/12/2022 9
3) Estimateur Efficace
Un estimateur sans biais est efficace si sa variance est la plus faible parmi les variances des autres
estimateurs sans biais.
Si on a deux estimateurs sans biais du paramètre 𝑂෠𝟏 et 𝑂෠2 , l’estimateur 𝑂෠𝟏 est efficace si :
෡ 𝟏 ) < V (𝑶
V (𝑶 ෡ 𝟐 ) et E (𝑶
෡ 𝟏 ) = 𝐄 (𝑶
෡ 𝟐) = θ

Choix entre estimateurs quelconques: on utilise le critère du risque quadratique appelé l’erreur
quadratique moyenne (EQM)

On choisit l’estimateur à EQM le plus faible

Estimation_S3_N.GUEHAIR 13/12/2022 10
Il est souvent difficile, voire impossible, de montrer qu’un estimateur est optimal.
Une solution alternative consiste à montrer que la variance d’un estimateur atteint
une certaine borne en deçà de laquelle les variances des estimateurs sans biais ne
peuvent pas descendre, appelé borne ou inégalité de Cramer-Rao.
1
V(θ)
෠ ≥ pour tout n≥1
I(θ,n)
I θ, n est appelée quantité d’information de Fisher. Celle-ci dépend de la loi de
X et de n mais ne dépend pas de θ.෠
Dans le cas où la loi de X admet une densité f(x,θ) alors :
I θ, n = n
Ou
𝒅 [𝐥𝐧 (𝑳 𝑿𝟏 ,……𝑿𝐧 ;θ
I θ, n =E(- θ ) : Il s'agit de l’espérance de – de la
𝒅𝛉𝟐
dérivée seconde de la log de vraisemblance, appelé l’opposée
de l’espérance de la hessienne)
Estimation_S3_N.GUEHAIR 13/12/2022 11
1

N.B :le rapport I(θ,n)


෡ est appelé efficacité de l’estimateur notée 𝑒θ
V(θ)

un estimateur sans biais est dit asymptotiquement efficace si


lim 𝑒θ෡ = 1
𝑛→+∞

Estimation_S3_N.GUEHAIR 13/12/2022 12
On étudie sur la population un caractère quantitatif X dont l’espérance µ et la variance 𝜎 2 sont à
estimer. On considère plusieurs échantillons de taille n. On peut calculer la moyenne et la variance
de chaque échantillon. On définit deux variables aléatoires.
1 𝑛

𝑋 = σ𝑖=1 𝑋𝑖 (moyenne aléatoire de l’échantillon) qui prend pour valeurs les moyennes des
𝑛
échantillons de taille n.
1
𝑆𝑒 = σ𝑛𝑖=1(𝑋𝑖 −𝑋) ത 2 variance aléatoire de l’échantillon qui prend pour valeurs les variances des
𝑛
échantillons de taille n.
Dans la pratique, on dispose qu’un seul échantillon et on retient comme estimation de l’espérance
de la population µ la moyenne
1
𝑥ҧ = σ𝑛𝑖=1 𝑥𝑖 à partir les observations (𝑥1 , 𝑥2 … … 𝑥n ) de l’échantillon.
𝑛

Estimation_S3_N.GUEHAIR 13/12/2022 13
Estimation ponctuelle non biaisée de l’espérance :
𝜎2
ത = µ et V (𝑋)
E (𝑋) ത =
𝑛
En effet :

𝑋ത est donc un estimateur sans biais et consistant. Il converge en probabilité vers E(X). Cela signifie
concrètement que si n est très grand 𝑋ത est très proche de µ. L’estimateur 𝑋ത de µ est alors
asymptotiquement sans biais.

Estimation_S3_N.GUEHAIR 13/12/2022 14
1 𝑛 1 𝑛
On définit : 𝑆𝑒 = σ𝑖=1(𝑋𝑖 −µ) = σ𝑖=1 𝑋𝑖 2 − µ2
2 2
𝑛 𝑛
Si µ est connu alors 𝑺𝒆 est un estimateur sans biais de 𝝈𝟐
𝟐
2 1 𝑛 2 2 2 2 =𝜎 2
E (𝑆𝑒 ) = σ 𝐸(𝑋 𝑖 ) −µ = 𝐸(𝑋𝑖 )−µ
𝑛 𝑖=1
Si µ est inconnu alors 𝑺𝟐𝒆 est un estimateur biaisé de 𝝈𝟐
1 𝑛 1 𝑛 1 2
𝑆𝑒 = σ𝑖=1(𝑋𝑖 −𝑋) = σ𝑖=1(𝑋𝑖 −𝑋 + µ − µ) = σ𝑛𝑖=1[(𝑋𝑖 −µ)
2 ത 2 ത 2 ത
− (𝑋 − µ) ]
𝑛 𝑛 𝑛
(Démonstration faite en cours!)
2 𝑛
On trouve 𝐸( 𝑆𝑒 ) = 𝜎2
𝑛−1
En effet:
L’estimation ponctuelle de 𝝈𝟐 n’est pas tout à fait la variance de
l’échantillon car on divise par n-1 au lieu de n
N.B : les variables aléatoires 𝑋𝑖 pour i=1,……..,n sont supposées indépendantes et
identiquement distribuées (iid) de même loi que X
⇒ 𝐸(𝑋1 ) = 𝐸(𝑋2 ) … = 𝐸(𝑋𝑖 ). . = 𝐸(𝑋)
2 2 2 2
𝑆𝑒𝑋 1
= 𝑆𝑒𝑋2 = ….=𝑆𝑒𝑋𝑖 … = 𝑆𝑒
13/12/2022
Estimation_S3_N.GUEHAIR 15
𝑛
On définit: 𝑆2 = 𝑆𝑒2 ( estimateur corrigé de la variance)
𝑛−1
𝑛 𝑛 𝑛 𝑛−1 2
E(𝑆 ) = E (
2
𝑆 )=
2
𝐸 (𝑆𝑒 ) =
2
x 𝑆𝑒 = 𝜎 2 (car les 𝑋𝑖 sont indépendantes)
𝑛−1 𝑒 𝑛−1 𝑛−1 𝑛

𝑛−1
N.B : si lim E( 𝑆𝑒2 ) = lim 𝜎2 = 𝜎2
n→+∞ n→+∞ 𝑛
On dit 𝑆𝑒2 est un estimateur asymptotiquement sans biais de la variance 𝝈𝟐
Dans la pratique, on dispose un seul échantillon et on retient comme
estimation de la variance théorique 𝜎 2 la variance :
𝑛 1 𝑛
𝑠2 = [ σ𝑖=1(𝑥𝑖 −𝑥)ҧ 2 ]
𝑛−1 𝑛
On estime aussi 𝜎 2 par 𝑠 2

Estimation_S3_N.GUEHAIR 13/12/2022 16
Estimation_S3_N.GUEHAIR 13/12/2022 17
Soit la population est formée d’individus ayant ou non un caractère donnée A. On définit F la V.a
qui prend pour valeurs les fréquences observées de A sur des échantillons de taille n, supposées
tirés avec remise. Soit P la probabilité pour qu’un individu pris au hasard dans la population
présente le caractère A. C’est P qu’il s’agit d’estimer.
La fréquence empirique de l’évènement A est une estimation de sa probabilité.
Estimation ponctuelle sans biaisée de P
𝑃 (1−𝑃)
E (F) = P et V (F) =
𝑛
1
F= 𝑛 σ𝑛𝑖=1(F𝑖 ) 𝑜𝑢 𝐹𝑖 suit une Bernoulli de paramètre P
1
E (F) = E(𝑛 σ𝑛𝑖=1 F𝑖 ) = P
1 1 1 𝑃 (1−𝑃)
V(F) = V (𝑛 σ𝑛𝑖=1 F𝑖 ) = V(σ𝑛𝑖=1 F𝑖 )= [n P(1-P)] =
𝑛2 𝑛2 𝑛
Tend vers 0 quant n tend vers l’infini alors F converge en probabilité vers P
N.B: F1 , F2 ,…. F𝑛 sont des variables aléatoires suivant la même loi binomiale de paramètre P.
Dans la pratique, on dispose un seul échantillon et on retient comme estimation la proportion
théorique P la fréquence 𝑓de l’échantillon.
L’estimation d’une proportion peut être vu comme un problème d’estimation de la moyenne.

Estimation_S3_N.GUEHAIR 13/12/2022 18
Application 1
On admet que le nombre d’objets produits par jour dans une entreprise suit
une loi normale de moyenne µ et d’écart-type σ (inconnus). On se propose
d’estimer ces valeurs en tirant au hasard la production de n journées. On
appelle 𝑋𝑖 la variable aléatoire donnant la production de l’entreprise pendant
la journée i, pour i allant de 1 à n.
On a choisi au hasard 10 journées et obtenu les réalisations x𝑖 suivantes
pour les quantités produites :
750; 824; 1230; 912; 857; 992; 1127; 1590; 867; 1045.

1) Donner les estimateurs habituels de µ et 𝜎 2 et donner leurs valeurs.


Peut-on dire qu’en moyenne l’entreprise produit plus de 1000 pièces par
jour ?
2) Montrer que l'estimateur de µ est sans biais, convergent en probabilité et
efficace.
3) En déduire la loi de l’estimateur.

Estimation_S3_N.GUEHAIR 13/12/2022 19
Il s’agit d’une méthode statistique qui permet de dériver la formule d’un
estimateur particulier : l’estimateur du maximum de vraisemblance (EMV).
Principe général : On considère un n échantillon d’une suite de variables
aléatoires (𝑋1 , . .. , 𝑋𝑛 ) pour lequel on dispose d’une réalisation, c’est-à-
dire d’un ensemble d’observations (𝒙𝟏 , 𝒙𝟐 … … 𝒙𝒏 ). Si les variables de
l’échantillon sont discrètes, on construit la probabilité jointe d’apparition
des données de l’échantillon. Dans le cas continu, on construit la densité
jointe associée à ces observations. Cette probabilité jointe ou cette
densité jointe correspond à la vraisemblance de l’échantillon.
Cette probabilité jointe ou densité jointe correspond à la vraisemblance
de l’échantillon. La vraisemblance est une fonction des observations et
des paramètres inconnus de la distribution. Le maximum de
vraisemblance consiste donc à déterminer la valeur des paramètres qui
rend l’échantillon la plus vraisemblable.

Estimation_S3_N.GUEHAIR 13/12/2022 20
Supposant X une V.a suivant une loi de probabilité caractérisée par un nombre
fini(s) de(s) paramètre(s) inconnu(s).
On cherche à estimer la valeur de θ qui rend maximal la probabilité d’observer les
données (𝒙𝟏 , 𝒙𝟐 … … 𝒙𝒏 ) étant une réalisation d’un n échantillon (𝑋1 , . .. , 𝑋𝑛 ) de X.
On appelle alors la vraisemblance de l′ échantillon 𝐿𝑛 :
𝐿𝑛 (𝑥1 , 𝑥2 … … 𝑥n , θ) =ς𝑖=𝑛
𝑖=1 𝑃(𝑋𝑖 = 𝑥𝑖 ) (cas discret)
𝐿𝑛 (𝑥1 , 𝑥2 … … 𝑥n , θ) = f(𝑥1 , 𝑥2 … … 𝑥n , θ) =ς𝑖=𝑛
𝑖=1 𝑓(𝑥𝑖 , θ) = ( cas continu)

La méthode de vraisemblance consiste à chercher la valeur θ෠ pour le paramètre


inconnu θ qui maximise la vraisemblance de l’échantillon :

θ෠ = 𝐴𝑟𝑔𝑚𝑎𝑥 θ 𝐿 𝑥1 , 𝑥2 … … 𝑥n ; θ
θ෠ est un estimateur ponctuel du paramètre inconnu θ appelé Estimateur du
Maximum de Vraisemblance (EMV) Estimation_S3_N.GUEHAIR 13/12/2022 21
Pour calculer le maximum de la vraisemblance, on procède ainsi :
❑ On définit la vraisemblance des données( 𝑥1 , 𝑥2 … … 𝑥n ) par la
fonction du paramètre à estimer,
❑ On détermine le log de la vraisemblance
❑ On recherche la valeur θ෠ qui annule la dérivée du log de
vraisemblance (ln (L (𝑥1 , 𝑥2 … … 𝑥n ; θ)) ( on peut écrire également
𝐿𝑛 (𝑥; θ)
❑ Enfin,on s'assure à l'aide de la dérivée seconde que ce point (θ)

soit bien un maximum ( c’est-à-dire doit être négative).

Estimation_S3_N.GUEHAIR 13/12/2022 22
Cas discret : Loi de Poisson
Supposons que le tirage d’un n-échantillon 𝑿𝟏 . . . , 𝑿𝒏 de v . a. suivant une loi de Poisson P(λ), avec λ>0 inconnu (c’est-dire θ=
λ) avec des réalisation 𝒙𝟏 , 𝒙𝟐 , … … 𝒙𝐧
𝒆−𝛉 𝛉𝒙𝐢
La fonction de probabilité (ou de masse) : P (𝑿𝐢 = 𝒙𝐢 ) = 𝒙𝐢 !

Déterminer la vraisemblance
La vraisemblance de l’échantillon 𝒙𝟏 , 𝒙𝟐 , … … 𝒙𝐧 est :
σ𝒏 𝒙
𝒏 𝒆−𝛉 𝛉𝒙𝐢 𝛉 𝒊=𝟏 𝐢
𝑳 𝒙𝟏 , 𝒙𝟐 , … … 𝒙𝐧 ; θ = ς𝒊=𝟏 = 𝒆−𝐧𝛉 ς𝒏 𝒙 !
𝒙𝐢 ! 𝒊=𝟏 𝐢

Il est plus facile de calculer avec le logarithme de cette expression est comme log est une fonction croissante, il nous suffit de
rechercher le maximum de :
𝒏 𝒏
𝛉σ𝒊=𝟏 𝒙𝐢 𝛉σ𝒊=𝟏 𝒙𝐢
෡ = 𝐥𝐧(𝑳 𝒙𝟏 , 𝒙𝟐 , … … 𝒙𝐧 ; θ ) =
𝛉 ln(𝒆−𝐧𝛉
) = 𝒍𝒏 𝒆−𝐧𝛉 + 𝒍𝒏
ς𝒏
𝒊=𝟏 𝒙𝐢 ! ς𝒏
𝒊=𝟏 𝒙𝐢 !
𝒏
= −𝐧𝛉 + 𝒍𝒏 𝛉σ𝒊=𝟏 𝒙𝐢 − 𝐥𝐧( ς𝒏𝒊=𝟏 𝒙𝐢 !) = −𝐧𝛉 + σ𝒏𝒊=𝟏 𝒙𝐢 𝒍𝒏(𝛉)- σ𝒏𝒊=𝟏 𝒍𝒏(𝒙𝐢 !)
෡ qui annule la dérivée du ln de vraisemblance :
Trouver la valeur 𝛉
𝒅 [𝐥𝐧 (𝑳θ 𝒙𝟏 , 𝒙𝟐 , … … 𝒙𝐧 ; θ ]
=𝟎
𝒅𝛉
Estimation_S3_N.GUEHAIR 13/12/2022 23
Cas discret : Loi de Poisson
𝒅 [−𝐧𝛉 + σ𝒏𝒊=𝟏 𝒙𝐢 𝒍𝒏(𝛉) − σ𝒏𝒊=𝟏 𝒍𝒏(𝒙𝐢 !)]
=𝟎
𝒅𝛉
σ𝒏
𝒊=𝟏 𝒙𝐢
-n+ ෡ =0
𝛉
σ𝒏
𝒊=𝟏 𝒙𝐢
Nous trouvons 𝛉෡= comme estimateur de λ, ce qui convient λ = E (𝑿𝐢 ) pour toute
𝐧
v.a 𝑿𝐢 ∼ P(λ).
La dérivée seconde est :
𝒅 [𝐥𝐧 (𝑳 𝒙𝟏 ,𝒙𝟐 ,……𝒙𝐧 ;θ σ𝒏
θ 𝒊=𝟏 𝒙𝐢
𝟐 = − ෡𝟐 < 0
𝒅𝛉 𝛉
σ𝒏
𝒊=𝟏 𝒙𝐢
෡=
𝛉 est bien un maximum
𝐧

Estimation_S3_N.GUEHAIR 13/12/2022 24
Cas continu : Loi Normale
On suppose cette fois-ci que n-échantillon où les variables aléatoires 𝑿𝟏 . . . , 𝑿𝒏 sont normalement et
indépendamment distribués (iid) de paramètres inconnus µ et 𝝈.
(𝑿−µ)𝟐
𝟏 −
La densité d’une variable normale est : f(x) = 𝒆 𝟐𝝈𝟐
𝝈 𝟐𝝅
Déterminer la vraisemblance
𝑳µ ,𝝈 𝑿𝟏 , 𝑿𝟐 , … … 𝑿𝐧 = 𝒇µ ,𝝈 (𝑿𝟏 ) x 𝒇µ ,𝝈 (𝑿𝟐 ) x …….x 𝒇µ ,𝝈 (𝑿𝐧 )
𝟐
( 𝑿𝟏−µ)𝟐 (𝑿𝟐 −µ)𝟐 (𝑿 −µ)𝟐 σ𝒏 (𝑿 𝐢 −µ)
𝟏 − 𝟏 − 𝟏 − 𝐧 𝟐 𝟏 − 𝒊=𝟏 𝟐
𝑳µ ,𝝈 𝑿𝟏 , 𝑿𝟐 , … … 𝑿𝐧 = 𝒆 𝟐𝝈𝟐 x 𝒆 𝟐𝝈𝟐 ……..x 𝒆 𝟐𝝈 =( )𝒏 𝒆 𝟐𝝈
𝝈 𝟐𝝅 𝝈 𝟐𝝅 𝝈 𝟐𝝅 𝝈 𝟐𝝅

𝟐
𝒏 σ𝒏
𝒊=𝟏 (𝑿𝐢 −µ) 𝒏
𝟏 − 𝟏
Introduire le logarithme : Ln 𝑳µ ,𝝈 𝑿𝟏 , 𝑿𝟐 , … … 𝑿𝐧 = 𝐥𝐧[ 𝒆 𝟐𝝈𝟐 = 𝐥𝐧( +
𝝈 𝟐𝝅 𝝈 𝟐𝝅
𝟐
σ𝒏
𝒊=𝟏 (𝑿𝐢 −µ)

𝐥𝐧 𝒆 𝟐𝝈𝟐

𝟐
σ𝒏
𝒊=𝟏 (𝑿𝐢 −µ)
Donc: 𝐥𝐧 𝑳µ ,𝝈 𝑿𝟏 , 𝑿𝟐 , … … 𝑿𝐧 = −𝒏 𝒍𝒏 𝝈 + 𝒍𝒏 𝟐𝝅 −
𝟐𝝈𝟐

Estimation_S3_N.GUEHAIR 13/12/2022 25
෡ µො , 𝝈
Pour trouver les estimateurs des paramètres 𝛉 ෝ
𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,µ ] 𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,𝝈 ]
Il faut que les deux dérivés partielles et s’annulent.
𝒅µ 𝒅𝝈
𝟐
σ𝒏 (𝑿 −µ)
𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,µ ] 𝒅 [−𝒏 𝒍𝒏 𝝈 +𝒍𝒏 𝟐𝝅 − 𝒊=𝟏 𝟐𝐢 ] − σ𝒏 µ) σ𝒏
𝟐𝝈 𝒊=𝟏 −𝟐( 𝑿𝐢 −ො 𝒊=𝟏 𝑿𝐢 −𝒏ො
µ
= = = =0
𝒅µ 𝒅µ 𝟐 𝝈𝟐 𝝈𝟐

σ𝒏
𝒊=𝟏 𝑿𝐢
Donc µො = = 𝑬 𝑿𝐢
𝒏
𝟐
σ𝒏 (𝑿 −µ)
𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,𝝈 ] 𝒅 [ [−𝒏 𝒍𝒏 𝝈 +𝒍𝒏 𝟐𝝅 − 𝒊=𝟏 𝟐𝐢 ] 𝒏 𝜎 σ𝒏
𝟒ෝ
𝟐
σ𝒏
𝟐
𝟐𝝈 𝒊=𝟏 (𝑿𝐢 −µ) 𝒏 𝒊=𝟏 (𝑿𝐢 −µ)
= = −ෝ + ෢𝟒 = −ෝ + ෢𝟑 =𝟎
𝒅𝝈 𝒅𝝈 𝜎 𝟒𝝈 𝜎 𝝈
𝒏 𝟐
෢𝟐 = σ𝒊=𝟏
𝝈
(𝑿𝒊 −µ)
= 𝑺𝟐𝒆
𝒏

On conclut que l’espérance et la variance de la variable X sont les meilleurs estimateurs des deux paramètres de
la loi normale.
𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,µ ] 𝒏
Les dérivées partielles secondes : =− <𝟎
𝒅µ𝟐 𝝈𝟐
𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,µ ] 𝒏 𝟑 𝒏 𝟑 ෢ 𝟐𝒏
= ෢𝟐 − ෢𝟒 σ𝒏𝒊=𝟏 (𝑿𝐢 −µ)𝟐 = ෢𝟐 − ෢ 𝝈𝟐 𝒏 =− <𝟎
𝒅𝝈𝟐 𝝈 𝝈 𝝈 𝝈 𝟒 𝜎ෝ
13/12/2022 26
Estimation_S3_N.GUEHAIR
෡ µො , 𝝈
Pour trouver les estimateurs des paramètres 𝛉 ෝ
𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,µ ] 𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,𝝈 ]
Il faut que les deux dérivés partielles et s’annulent.
𝒅µ 𝒅𝝈
𝟐
σ𝒏 (𝑿 −µ)
𝒅 [−𝒏 𝒍𝒏 𝝈 +𝒍𝒏 𝟐𝝅 − 𝒊=𝟏 𝟐𝐢 ] σ𝒏
𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,µ ] 𝟐𝝈 𝒊=𝟏 𝑿𝐢 −𝒏µ
= = = 0
𝒅µ 𝒅µ 𝝈𝟐

σ𝒏
𝒊=𝟏 𝑿𝐢
Donc µො = = 𝑬 𝑿𝐢
𝒏
𝟐
σ𝒏 (𝑿 −µ)
𝒅 [ [−𝒏 𝒍𝒏 𝝈 +𝒍𝒏 𝟐𝝅 − 𝒊=𝟏 𝟐𝐢 ] 𝟒𝝈 σ𝒏
𝟐
σ𝒏
𝟐
𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,𝝈 ] 𝒏 𝒊=𝟏 (𝑿𝐢 −µ) 𝒏 (𝑿 −µ)
= 𝟐𝝈
= −𝝈+ = −𝝈 + 𝒊=𝟏 𝝈𝟑𝐢 =𝟎
𝒅𝝈 𝒅𝝈 𝟒𝝈𝟒
𝒏 𝟐
෢𝟐 = σ𝒊=𝟏
𝝈
(𝑿𝒊 −µ)
= 𝑺𝟐𝒆
𝒏

On conclut que l’espérance et la variance de la variable X sont les meilleurs estimateurs des deux paramètres de la loi
normale.
𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,µ ] 𝒏
Les dérivées partielles secondes : = − 𝝈𝟐 < 𝟎
𝒅µ𝟐

𝒅 [𝐥𝐧(𝐋 𝒙𝟏 ,𝒙𝟐 ……𝒙𝐧 ,µ ] 𝒏 𝟑 𝟐


Et = 𝝈𝟐 − 𝝈𝟒 σ𝒏𝒊=𝟏 (𝑿𝐢 −µ) < 𝟎
𝒅𝝈𝟐

Estimation_S3_N.GUEHAIR 13/12/2022 27
Application 2 :
On admet que la durée de vie d’un équipement (D) suit une
distribution exponentielle d’intensité 1/θ où θ est un paramètre réel
positif et inconnu. Sa fonction de densité est :
1 𝒅 +
𝑓𝐷 (d; θ) = exp(- ) ∀d ∈ |R
θ θ
On considère un n-échantillon ( 𝐷1 , 𝐷2 , … … … … 𝐷𝑛 ) de variables
aléatoires positives et i.i.d. Soit (𝑑1 , 𝑑2 , … … … … 𝑑𝑛 )
Déterminer l’estimateur de maximum de vraisemblance (EMV)

Estimation_S3_N.GUEHAIR 13/12/2022 28
On vient de voir que les statistiques d’échantillon ( 𝑋ഥ et 𝑃)
ത sont de
estimateurs ponctuels des paramètres de la population. Malgré qu’il
s’agit des estimateurs non biaisés, on ne peut s’attendre à ce qu’une
estimation ponctuelle particulière soit exactement égale à la valeur du
paramètre de la population correspondante. C’est –à-dire :
µ=𝑿 ഥ + marge d’erreur
P= 𝑷ഥ + marge d’erreur
Le calcul de la marge d’erreur est basé sur la distribution
d’échantillonnage de la statistique d’échantillon.

Estimation_S3_N.GUEHAIR 13/12/2022 29
A) Intervalle de confiance de la moyenne ( distribution de X
est normale)
Cas 1 : σ est connu.
Soit une population de moyenne µ inconnue et σ est connu. On veut
estimer la moyenne µ à partir d’un échantillon de taille n de
moyenne 𝑋. ത Dans le chapitre 2, on a démontré que la distribution
d’échantillonnage de 𝑋ഥ suit une loi normale avec une moyenne de µ et
𝜎
un écart type et que la variable
𝑛
ഥ −µ
𝑿
U= 𝜎 suit une loi normale centrée réduite.
𝑛

Estimation_S3_N.GUEHAIR 13/12/2022 30
1-α est le coefficient de confiance et α est le seuil de risque.
On fixe la probabilité à 1-α et on cherche les extrémités (– u) et (u)
P(−𝑢1−α/2 ≤U ≤ 𝑢1−α/2 ) = 1-α
ഥ −µ
𝑿
P(−𝑢1−α/2 ≤ 𝜎 ≤ 𝑢1−α/2 ) = 1-α
𝑛
𝜎
P(−𝑢1−α/2 x ≤ 𝑿ഥ − µ ≤ 𝑢1−α/2 x 𝜎 ) = 1-α
𝑛 𝑛
𝜎 𝜎
P(𝑢1−α/2 x ≥µ− ഥ
𝑿 ≥−𝑢1−α/2 x )= 1-α
𝑛 𝑛
𝜎 𝜎
P(−𝑢1−α/2 x ≤ µ− ഥ
𝑿≤ 𝑢1−α/2 x) = 1-α
𝑛 𝑛
𝜎 𝜎
P(𝑋ത −𝑢1−α/2 x 𝑿 ≤ 𝑋ത + 𝑢1−α/2 x
≤ µ− ഥ ) = 1-α
𝑛 𝑛
𝜎 𝜎
P(µ ∈ [𝑋ത −𝑢 α ; ഥ 𝑿 + 𝑢1−α/2 ] =1-α
1− 2 𝑛 𝑛
L'intervalle de confiance de la moyenne µ obtenu est:
𝜎 𝜎
IC = [𝑋ത −𝑢 α ; ഥ
𝑿+𝑢 α ]
1− 𝑛 1− 𝑛
2 2

Estimation_S3_N.GUEHAIR 13/12/2022 31
Cas 2 : σ est inconnu et n≥30
On le remplace par son estimation ponctuelle:
𝑆 𝑆
IC = [𝑋ത −𝑢 α ; ഥ
𝑿+𝑢 α ]
1− 𝑛 1− 𝑛
2 2
Nous pouvons donc estimer avec une confiance de 95 % (ou 99 %
selon le cas) que la moyenne µ de la population appartient à
l'intervalle
𝑛
Avec S= 𝑆
(𝑛−1) 𝑒

𝑆𝑒 𝑆𝑒
Donc : IC = [𝑋ത −𝑢 α ; ഥ
𝑿+𝑢 α ]
1− 𝑛−1 1− 𝑛−1
2 2

Estimation_S3_N.GUEHAIR 13/12/2022 32
Application 3:
Une école de 1500 élèves, on a mesuré le poids de 40
élèves. La moyenne 𝑿 ഥ et l’écart-type 𝑺𝒆 calculé à partir
de cet échantillon est :𝑿
ഥ = 65 Kg et 𝑺𝒆 =3Kg .
T.F : Déterminer :
❑ L’estimation ponctuelle des paramètres de la population
❑ L'intervalle de confiance de la moyenne à 95% de
confiance

Estimation_S3_N.GUEHAIR 13/12/2022 33
Cas 3 : σ est inconnu et n< 30
𝑛
On remplace l’écart type de la population par son estimation ponctuelle S= 𝑆
(𝑛−1) 𝑒
Intervalle de confiance à 1-α %
𝑆 𝑆
IC = [𝑋ത −𝑡α;𝑛−1 𝑒 ; ഥ 𝑿 + 𝑡α;𝑛−1 𝑒 ]
𝑛−1 𝑛−1
Avec t est calculé depuis la table de la loi de student.
Application 2 :
Une école de 1500 élèves, on a mesuré le poids de 20 élèves. La
moyenne 𝑿 ഥ et l’écart-type 𝑺𝒆 calculé à partir de cet échantillon est :𝑿
ഥ = 65
Kg et 𝑺𝒆 =3Kg .
T.A.F :
Déterminer L'intervalle de confiance de la moyenne à 95% de confiance.

Estimation_S3_N.GUEHAIR 13/12/2022 34
B) L’intervalle de confiance de la proportion P
Si n est grand : n >= 30
et nP>=5 TC la loi de F devient la loi normale F
et n(1-P) >=5
𝑷(𝟏−𝑷)
F ≅ 𝑵 ( 𝑬 𝑭 = P; 𝝈(F)=
𝑭−𝑷
) et la variable transformée U = 𝑷(𝟏−𝑷) ~N(0,1)
𝒏
𝒏
F est l’estimateur ponctuel sans biais et convergent de p le paramètre inconnu dans la
population. f est la réalisation de la VA F dans l’échantillon.
Donc l’intervalle de confiance de niveau α sur p est :
𝒇(𝟏−𝒇) 𝒇(𝟏−𝒇)
IC = [𝒇 −𝒖 α ;𝒇 +𝒖 α ]
𝟏− 𝒏 𝟏− 𝒏
𝟐 𝟐
Avec f c ′ est
la proportion calculée à partir les observations l’échantillon prélevé de façon
aléatoire de la population.

Estimation_S3_N.GUEHAIR 13/12/2022 35
Application 3 :
À quelques jours d'une élection, un candidat a effectué un sondage. Sur
les 150 personnes interrogées, 50 a voté pour lui aux prochaines
élections.
T.A.F: Déterminer l'intervalle de confiance de la proportion à 95% de
confiance?
C) Intervalle de confiance de la variance 𝜎 2
La variable parente X est distribuée normalement dans la population ( X=N(𝜇, 𝜎))
On a démontré dans le chapitre 2 que 𝑆 2 est un estimateur sans biais et convergent
de 𝜎 2
𝒏𝑺𝟐 𝟐
❑𝝁 est connu 𝟐 → 𝒙𝒏
𝝈
𝑛𝑆 2
a≤ ≤b
𝜎2
n𝑆 2 n𝑆 2
P( ≤ 𝜎2 ≤ ) = 1-α (La probabilité 1-α est trouvée entre les deux bornes a et b )
𝑏 𝑎

Estimation_S3_N.GUEHAIR 13/12/2022 36
𝑛
𝜎 2 ≤𝑠 2 ) = 1-α
𝑛
P (𝑠 2 ≤
𝑏∝ 𝑎 ∝
2 1−
2
2 𝑛 2 𝑛
IC = [𝑠 ;𝑠 ]
𝑏∝ 𝑎 ∝
1−
2 2
𝑛 𝑛
Ou IC = [𝑠 ;𝑠 ] (n degré de liberté )
𝑏∝ 𝑎 ∝
2 ,𝑛 1− 2 ,𝑛

❑Cas ou 𝝁 est inconnu


(𝑛−1)𝑆 2 2
→ 𝑥𝑛−1
𝜎2
L’intervalle de confiance de la variance au niveau α est:
𝒏−𝟏 𝒏−𝟏
IC = [𝒔 ;𝒔 ] (n-1 degré de liberté)
𝒃∝ 𝑎 ∝
,𝒏−𝟏 1− 2 ,𝑛−1
2

Estimation_S3_N.GUEHAIR 13/12/2022 37
Application 4 :
Pour estimer la distance en kilomètres que peut effectuer une marque
de pneu. On a sélectionné un échantillon de 16 pneus, dans le but de
les tester. D’après les résultats du test, l’écart type de l’échantillon est
égale à 2000 kilomètres.
Supposons que la distance parcourue par un pneu suit une loi normale
de moyenne 𝝁 et d’écart type 𝝈.
T.A.F : Estimer par un intervalle de confiance de la variance à 90%?

Estimation_S3_N.GUEHAIR 13/12/2022 38

Vous aimerez peut-être aussi