Polycopie Final Prob-Stat

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 52

‫اﻟﺠﻤﮭﻮرﯾﺔ اﻟﺠﺰاﺋﺮﯾﺔ اﻟﺪﯾﻤﻘﺮاﻃﯿﺔ اﻟﺸﻌﺒﯿﺔ‬

République Algérienne Démocratique et Populaire


Ministère de l’Enseignement Supérieur et de la Recherche
Scientifique

Université 8 Mai 1945 Guelma


Faculté des Mathématiques et de l’Informatique
et des Sciences de la Matière

Département de Mathématiques

Polycopié de cours

Dr. EZZEBSA Abdelali

Probabilités et Statistique

Troisième Année Licence Mathématique

2015/2016
Table des matières

Calcul de probabilités iii


0.1 Rappel de probabilités . . . . . . . . . . . . . . . . . . . . . . iii
0.1.1 Espace de probabilité . . . . . . . . . . . . . . . . . . . iii
0.1.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . v
0.1.3 Loi d’une variable aléatoire . . . . . . . . . . . . . . . vi
0.1.4 Fonction de répartition d’une variable aléatoire . . . . vii
0.2 Couples des variables aléatoires . . . . . . . . . . . . . . . . . viii
0.2.1 Lois associées à un couple de variables aléatoies . . . . viii
0.2.2 Lois marginales . . . . . . . . . . . . . . . . . . . . . . ix
0.2.3 Lois conditionnelle . . . . . . . . . . . . . . . . . . . . ix
0.2.4 Moments conditionnels . . . . . . . . . . . . . . . . . . x
0.2.5 Moments associés à un couple . . . . . . . . . . . . . . xi
0.3 Couple de variables aléatoires continues . . . . . . . . . . . . . xii
0.3.1 Loi du couple . . . . . . . . . . . . . . . . . . . . . . . xii
0.3.2 Lois marginales . . . . . . . . . . . . . . . . . . . . . . xiii
0.3.3 Lois conditionnelle . . . . . . . . . . . . . . . . . . . . xiv
0.3.4 Moments associés à un couple . . . . . . . . . . . . . . xiv
0.3.5 Régression . . . . . . . . . . . . . . . . . . . . . . . . . xvi

Convergences xvii
0.4 Convergence en probabilité . . . . . . . . . . . . . . . . . . . . xvii
0.4.1 Inégalité de Markov . . . . . . . . . . . . . . . . . . . . xvii
0.4.2 Inégalité de Bienaymé-Tchebychev . . . . . . . . . . . xvii
0.4.3 Convergence en probabilité . . . . . . . . . . . . . . . . xvii
0.5 Convergence presque-sûre et loi des grands nombres . . . . . . xviii
0.6 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . xxi

i
TABLE DES MATIÈRES

Statistique inférentielle xxiii


0.7 Echantillonnage-Estimation . . . . . . . . . . . . . . . . . . . xxiii
0.7.1 Distribution d’échantillonnage . . . . . . . . . . . . . . xxv
0.7.2 Distribution d’échantillonnage des moyennes . . . . . xxv
0.7.3 Valeurs caractéristiques de X n . . . . . . . . . . . . . xxv
0.7.4 Distribution d’échantillonnage des fréquences . . . . . . xxvii

0.8 Estimation de Paramètres . . . . . . . . . . . . . . . . . . . . xxix


0.8.1 Estimateur optimal (e¢ cace) . . . . . . . . . . . . . . xxx
0.8.2 Qualité d’un estimateur . . . . . . . . . . . . . . . . . xxx
0.8.3 Estimateur e¢ cace . . . . . . . . . . . . . . . . . . . . xxxi
0.8.4 Inégalité de Fréchet-Darmois-Cramer-Rao(F.D.C.R) . . xxxii
0.8.5 Estimateur e¢ cace . . . . . . . . . . . . . . . . . . . . xxxiv
0.8.6 Méthodes de construction d’un estimateur . . . . . . . xxxiv
0.8.7 Méthode du maximum de vraisemblance . . . . . . . . xxxiv
0.8.8 Estimition d’une moyenne par intervalle de con…ance . xxxvi

Tests d’hypothèses xxxviii


0.9 Catégories de tests . . . . . . . . . . . . . . . . . . . . . . . . xxxix
0.9.1 Région critique et d’acceptation d’une hypothèse . . . xxxix
0.9.2 Test entre deux hypothèses simples (méthode de Ney-
mane et Pearson) . . . . . . . . . . . . . . . . . . . . . xl
0.9.3 Test d’homogéinité . . . . . . . . . . . . . . . . . . . . xli
0.9.4 Test d’homogénéité de deux moyennes . . . . . . . . . xli
0.9.5 Test d’homogénéité de deux proportion . . . . . . . . . xliii

ii
Calcul de probabilités

0.1 Rappel de probabilités


0.1.1 Espace de probabilité
Un espace de probabilité est un triplet ( ; F; P ) où :
- est un ensemble,
-F est une tribu ( ou algèbre) sur ;
-P est une (mesure de) probabilité sur ( ; F ) :
Dé…nition 0.1.1 Une tribu (ou algèbre) sur est une famille F de sous
ensemble de (appelés “évènements”) tels que
8
< i) 2 F
ii)A 2 F ) Ac 2 F
:
iii) (An )1
n=1 F ) [1 n=1 An 2 F

En particulier : A; B 2 F ) A [ B 2 F:De même, A; B 2 F ) A \ B 2 F:


Exemple 0.1.1 Soit = f1; 2; :::; 6g : On peut dé…nir plusieurs tribus sur
: F = P ( ) = f ; f1g f2g ; :::; f1; 2g ; :::; g =tribu complète (la plus
grande), F0 = f ; g =tribu triviale ( la plus petite) ( = évènement impos-
sible, = évènement arbitraire ou certain). F1 = f ; f1g ; f2; :::; 6g ; g ; F2 =
f ; f1; 3; 5g ; f2; 4; 6g ; g ; etc. Soit = [0; 1] et I1 ; I2 ; :::; In une famille d’in-
tervalles formant une partition de : la famille de sous-ensembles dé…nie
par :
G = f ; I1 ; I2 ; :::; I1 [ I2 ; :::; I1 [ I2 [ I3 ; :::; g est une tribu sur :
Dé…nition 0.1.2 Soit A = fAi ; i 2 Ig une famille de sous-ensembles de :
Alors la tribu engendrée A est la plus petite tribu sur qui contient tous les
sous-ensembles Ai ; i 2 I. Elle est notée (A) :(NB : L’ensemble I n’est pas
forcément dénombrable)

iii
CHAPITRE 0. CALCUL DE PROBABILITÉS

Exemple 0.1.2 Reprenons l’exemple 1.Soit = f1; :::; 6g : Si A1 = ff1gg ;


alors (A1 ) = F1 : Si A2 = ff1; 3; 5gg ; alors (A2 ) = F2 : Et si A = ff1; 3; 5g ; f1; 2; 3gg ;
alors (A) =? Soit = [0; 1]. Si A = fI1 ; I2 ; :::; In g ; alors (A) = G:

Dé…nition 0.1.3 Soit = [0; 1]. La tribu borélienne sur [0; 1] est la tribu
engendrée par la famille de sous-ensembles

A = f]a; b[ : 0 a<b 1g = fintervalles ouverts dans [0; 1]g

Elle est notée B ([0; 1]) : Elle contient un très grand nombre de sous-ensembles
de [0; 1], mais pas tous.

Remarque 0.1.1 *Pour ensemble …ni, on choisit souvent F = P ( ) :


n
**Pour R , on choisit souvent F = B ( ) :

Dé…nition 0.1.4 Une sous- tribu de F est une tribu G telle que. Si A 2 G
alors A 2 F: On note G F :

Remarque importante :
Il est toujours vrai que A 2 G et G F ) A 2 F. Mais il est faux de
dire que A B et B 2 F ) A 2 = F:
Contre exemple
f1g ff1; 3; 5g ; f1; 3; 5gg F2 , mais f1g 2
= F2 :

Dé…nition 0.1.5 Soit F une tribu sur : Une (mesure de) probabilité sur
( ; F) est une application P : F ! [0; 1] telle que

i)P ( ) = 0 et P ( ) = 1; P1
ii) (An )1
n=1 F disjoints (i.e An \ Am = ; 8n 6= m) ) P ([1
i=1 An ) = n=1 P (An )

En particulier : A; B 2 F et A \ B = ) P (A [ B) = P (A) + P (B) : De


plus :

i)Si (An )1
n=1 F; An An+1 et [1
n=1 An = A; alors limn!1 P (An ) = P (A) :
ii)Si (An )1
n=1 F; An An+1 et \1n=1 An = A, alors limn!1 P (An ) = P (A) :

iv
0.1. RAPPEL DE PROBABILITÉS

Dé…nition 0.1.6 Soient = [0; 1] et F = B ([0; 1]). On appelle mesure de


Lebesgue sur [0; 1], la mesure de probabilité dé…nie par

P (]a; b[) = b a ; 80 a<b 1

P n’est pas dé…nie a priori que sur les intervalles, mais est uniquement ex-
tensible à tous ensemble borélien B 2 B ([0; 1]) : Elle est notée

P (B) = jBj ; B 2 B ([0; 1]) :

En utilisant la propriété (ii) ci-dessus, on obtient que pour tout x 2 [0; 1] :

1 1 2
fjxjg = lim x ;x + = lim =0
n!1 n n n!1 n

Généralisation à n dimensions
Soit = [0; 1]n :
* Tribu borélienne : B ( ) = (A), où A = f]a1 ; b1 [ ]a2 ; b2 [ ::: ]an ; bn [ ; 0 ai < bi 1g :
A est la famille des “rectangles”dans :
* Mesure de Lebesgue : P (]a1 ; b1 [ ]a2 ; b2 [ ::: ]an ; bn [) = (b1 a1 ) (b2 a2 ) ::: (bn an ) :

0.1.2 Variables aléatoires


Dé…nition 0.1.7 Soit ( ; F; P ) un espace de probabilité. Une variable aléa-
toire (souvent abrégé v.a par la suite) est une application

X: ! R telle que f! 2 : X (!) 2 Bg = fX 2 Bg 2 F; 8B 2 B (R)

Proposition 0.1.1 X est une v.a ssi f! 2 : X (!) tg 2 F; 8t 2 R:

Remarque 0.1.2 X est aussi dite une fonction ou (v.a) F mesurable. -Si
F = P ( ), alors X est toujours F mesurable. -Si = R et F = B (R),
alors X est une fonction borélienne.

1 si ! 2 A
Dé…nition 0.1.8 Pour A , on pose A (!) = On véri…e
0 sinon
que la v.a A est F mesurable ssi A 2 F:

Exemple 0.1.3 Soit ( ; F; P ) l’éspace de probabilités du dé équilibré

v
CHAPITRE 0. CALCUL DE PROBABILITÉS

1
X1 (!) = ! : P (f! 2 ; X1 (!) = ig) = P (fig) = :
6
3 1
X2 (!) = f1;3;5g (!) : P (f! 2 ; X2 (!) = 1g) = P (f1; 2; 3g) =
= :
6 2
Soit F = P ( ) : X1 et X2 sont toutes deux F mesurables. Soit F2 = f ; f1; 3; 5g f2; 4; 6g ; g :
Seule X2 est F2 mesurable. X1 ne l’est pas. En e¤et :

f! 2 ; X2 (!) = 1g = f1; 2; 3g 2 F2 et
f! 2 ; X2 (!) = 0g = f2; 4; 6g 2 F2
tandis que
f! 2 ; X1 (!) = 1g = f1g 2
= F2 :
Dé…nition 0.1.9 La tribu engendrée par une famille de v.a fXi ; i 2 Ig sur
( ; F; P ) est dé…nie par
(Xi ; i 2 I) = (fXi 2 Bg ; i 2 I; B 2 B (R)) = (fXi tg ; i 2 I; t 2 R)
Exemple 0.1.4 Reprenons l’exemple précédent : (X1 ) = F = P ( ) ; (X2 ) =
F2 6= P ( ) :
Proposition 0.1.2 Si g : R ! R est borélienne et X : ! R est une v.a,
alors g (X) est une v.a.

0.1.3 Loi d’une variable aléatoire


Dé…nition 0.1.10 La loi d’une v.a X est l’application X : B (R) ! [0; 1]
dé…nie par
X (B) = P (fX 2 Bg) ; B 2 B (R)

NB :
(R; B (R) ; X) forme un nouvel espace de probabilité
Exemple 0.1.5 Soit
1
= f1; :::; 6g ; F = P ( ) ; P (fig) = 8i;
6
Soit
1
= f1; :::; 6g f1; :::; 6g ; F = P ( ) ; P (fi; jg) = ; 8 (i; j) 2 P ( ) :
36

vi
0.1. RAPPEL DE PROBABILITÉS

X (!) = X (! 1 ; ! 2 ) = ! 1 + ! 2 :
On a alors. p.ex :
1 1
X (7) = P (fX = 7g) = P (f(1; 6) ; (2; 5) ; (3; 4) ; (4; 3) ; (5; 2) ; (6; 1)g) = 6 =
36 6

0.1.4 Fonction de répartition d’une variable aléatoire


Dé…nition 0.1.11 La fonction de répartition d’une v.a est l’application FX :
R ! [0; 1] dé…nie par

FX (t) = P (fX tg) = X (] 1; t]) ; t 2 R:

Proposition 0.1.3 La donnée de FX équivaut à celle de X:

vii
CHAPITRE 0. CALCUL DE PROBABILITÉS

0.2 Couples des variables aléatoires


Dé…nition 0.2.1 On appelle couple de variables aléatoires réelles toute ap-
plication
Z : ! R2
! 7! (X (!) ; Y (!))
où X et Y sont des variables aléatoires sur ( ; F; P ). On note Z = (X; Y )

Exemple 0.2.1 Une urne contient 4 boules blanches, 3 rouges et 2 verte.


On tire 3 boules et on note X le nombre de boules blanches, Y le nombre de
boules rouges et on a :

Z ( ) = f(i; j) 2 f1; 2; 3; 4; 5; 6gg ; i j

Théorème 0.2.1 Soit Z = (X; Y ) un couple de variables aléatoires réelles


telles que X ( ) = fx1 ; :::; xn g et Y ( ) = fy1 ; :::; yp g. Alors, la famille d’évé-
nements
([X = xi ] \ [Y = yi ])1 i n
1 j p

forme unsystème complet d’événement de .

Remarque 0.2.1 L’événement [X = xi ] et [Y = yj ] peut également se noter


[X = xi ; Y = yj ] ou encore [(X; Y ) = (xi ; yj )] :

0.2.1 Lois associées à un couple de variables aléatoies


Le couple de variable aléatoire réelle (X; Y ) est confondu avec une ( loi
de) probabilité P(X;Y ) sur = R2 . F est dans ce cas contruit avec les “pavés”
(a; b) (c; d) : (X; Y ) rerésente une expérience aléatoire dont le résultat est
un coule de réels. La loi du couple (X; Y ) permet de caractériser les laisons
et in‡uences mutuelles des deux caractères de l’expérienec. On note

P(X;Y ) ( ) = P ((X; Y ) 2 )

La probabilité pour que les résultats de l’expérience appartiennent à . Dans


le cas où = 1 2 on pourra noter la quantité précédente

P(X;Y ) ( ) = P (X 2 1; Y 2 2)

viii
0.2. COUPLES DES VARIABLES ALÉATOIRES

0.2.2 Lois marginales


A la loi d’un couple sont associées deux lois marginales qui sont les lois de
chacun des éléments du couples pris séparément, dé…nes par l’ensemble des
valeurs possibles et les probabilités associées obtenues par sommation, soit :
X X
PX (X = xi ) = P (X = xi ; Y = yj ) = Pij = Pi:
j2J j2J
X X
PY (Y = yj ) = P (X = xi ; Y = yj ) = Pij = P:j
i2I i2I

Si la loi du couple est présentée dans un tableau, ces lois sont obtenues dans
les marges, par sommation de ligne ou de colonne.

Y nX xi
. . .
. . .
yj Pij P:j
. . .
. . .
Pi: 1

0.2.3 Lois conditionnelle


On peut également associer deux lois conditionnelles à la loi d’un couple,
c’est-à-dire la loi d’une variable, l’autre ayant une valeur …xée ( loi dans une
ligne ou dans une colonne donnée). Par exemple, pour Y = yj …xé, la loi
conditionnelle de X est dé…nie par l’ensemble des valeurs possibles et les
probabilités associées :

P (X = xi ; Y = yj ) Pij
P (X = xi j Y = yj ) = = = Pij
P (Y = yj ) P:j

On véri…e que c’est bien une loi de probabilité sur


X 1 X
X = fxi ; i 2 Ig : Pij = Pij = 1
i2I
P:j i2I

ix
CHAPITRE 0. CALCUL DE PROBABILITÉS

Exemple 0.2.2 La loi d’un couple (X; Y ) est donnée par le tableau suivant :

Y nX 2 0 2
1 0; 1 0; 2 0; 1 0; 4
2 0; 2 0; 2 0; 2 0; 6
0; 3 0; 4 0; 3 1
La loi conditionnelle de X pour Y = 1 …gure dans le tableau ci-après :
Xj Y = 1 2 0 2
0;1 0;2 0;1
0;4 0;4 0;4
1

Rappelons que les deux variables aléatoires X et Y sont indépendantes si pour


tout i 2 I et j 2 J :

P (X = xi ; Y = yj ) = P (X = xi ) P (Y = yj ) (Pij = Pi: P:j )

Dans ce cas, bien entendu, les lois conditionnelles sont confondues avec les
lois marginales ; par exemples :
Pi: P:j
P (X = xi j Y = yj ) = Pij = = Pi:
P:j
C’est l’un des seuls cas où la donnée des lois marginales permet de recons-
truire la loi du couple.

0.2.4 Moments conditionnels


Aux lois conditionnelles sont associés des moments, comme par exemple
l’espérance de la loi dé…nie par les couples yj ; Pji ; j 2 J , soit :
X X
E (Y j X = xi ) = yj P (Y = yj j X = xi ) = yj Pji
j2J j2J

Le graphe de cette espérance conditionnelle en fonction de xi s’appelle courbe


de régression (non linéaire) de Y en X.

Exemple 0.2.3 Dans l’exemple précédent, la loi conditionnelle de Y pour


X = 2 est donnée par le tableau suivant :
Y nX = 2 1 2
0;1 0;2
0;3 0;3
1

x
0.2. COUPLES DES VARIABLES ALÉATOIRES

On peut calculer, à partir de ce tableau, l’espérance conditionnelle :


1 2
E (Y j X = 2) = ( 1) +2 = 1:
3 3
Remarque 0.2.2 Notons que E (Y j X) est une fonction de X, donc est une
variable aléatoire discrète dont la loi de probabilité est dé…nie par l’ensemble
des valeurs possibles, soit ici fE (Y j X = xi ) ; i 2 Ig et les probabilités asso-
ciées Pi: = P (X = xi ) : On peut donc calculer la valeur moyenne de cette
variable aléatoire, soit :
X
E [E (Y j X)] = Pi: E (Y j X = xi )
i2I
X X
= Pi: yj P (Y = yj j X = xi )
i2I j2J
X X
= Pi: yj Pji
i2I j2J
XX Pij
= yj Pi:
i2I j2J
Pi:
X X
= yj Pij
j2J i2I
X
= yj P:j = E (Y ) :
j2J

0.2.5 Moments associés à un couple


Si h : R2 ! R est une application continue, elle dé…nit une variable
aléatoire réelle dont on peut calculer les moments, comme par exemple l’es-
pérance : XX
E (h (X; Y )) = Pij h (xi ; yj )
i2I j2J

Dans le cas particulier où h (X; Y ) = [X E (X)] [Y E (Y )], on dé…nit


ainsi la covariance de X et Y :
Cov (X; Y ) = E f[X E (X)] [Y E (Y )]g
= E (XY ) E (X) E (Y )
Si les variables aléatoires X et Y sont indépendantes, alors E (XY ) = E (X) E (Y )
et par conséquent Cov (X; Y ) = 0:

xi
CHAPITRE 0. CALCUL DE PROBABILITÉS

Exemple 0.2.4 Considérons le couple (X; Y ) dont la loi est dé…nie par le
tableau suivant :
Y nX 1 0 1
1 1 1
1 8 8 8
1 1 1
0 16 8 16
1 1 1
1 8 8 8

Les lois de X et Y sont symétriques par rapport à 0, donc E (X) = 0 = E (Y )


et :
1 1 1 1
Cov (X; Y ) = E (XY ) = 1 + ( 1) + ( 1) + 1 =0
8 8 8 8
et cependant ces deux variables ne sont pas indépendantes puisque par exemple :
1 5 3
P (X = 1; Y = 1) = 6= P (X = 1) P (Y = 1) =
8 16 8
On appelle coe¢ cient de corrélation linéaire de deux variables aléatoires
X et Y le nombre réel :
Cov (X; Y )
= Corr = Corr (X; Y ) = p p :
V (X) V (Y )

C’est un nombre tel que :

1 1; avec : j j = 1 , 9a 2 R ; 9b 2 R : Y = aX + b:

0.3 Couple de variables aléatoires continues


0.3.1 Loi du couple
Si X et Y sont deux variables aléatoires réelles continues, la loi de pro-
babilité du couple (X; Y ) est déterminée par sa fonction de répartition F ,
dé…nie sur R2 par :

F (x; y) = P (X < x; Y < y) :

L’application F est croissante au sens large par rapport à chacune des deux
variables et telle queb 0 F (x; y) 1, avec pour valeurs limites F ( 1; y) =
F (x; 1) = 0 pour tout x réel et pour tout y réel et F (+1; +1) = 1:

xii
0.3. COUPLE DE VARIABLES ALÉATOIRES CONTINUES

Si F est deux fois dérivables par rapport aux deux variables, alors la loi
de (X; Y ) est dite absolument continue, de densité f dé…nie par :
@ 2 F (x; y)
f (x; y) =
@x@y
Exemple 0.3.1 La loi de (X; Y ) est dé…ne par la densité :
exp ( x) si 0 x y
f (x; y) =
0 sinon
Calculon la fonction de répartition :
8
> si x0 0 ou y0 0 F (x0 ; y0R)x=
>
> R0 y0
>
>
0
Si 0 x0 y0 F (x0 ; y0 ) = 1 1 f (x; y) dxdy
>
>
< R x0 R y=y0
= x=0 y=x exp ( y) dy dx
>
> = 1 exp ( x0 ) x0 exp ( y0 )
>
>
>
> En …n si 0 y0 x1 F (x1 ; y0 ) = F (y0 ; y0 )
>
:
= 1 exp ( y0 ) y0 exp ( y0 ) :
C’est-à-dire :
8
< 0 si x 0 ou y 0
F (x; y) = 1 exp ( x) x exp ( y) si 0 x y
:
1 exp ( y) y exp ( y) si 0 y x

0.3.2 Lois marginales


Les fonctions de répartions marginales de X et Y sont dé…nes à partir de
la fonction de répartition du couple par :
FX (x) = P (X < x) = F (x; +1)
FY (y) = P (Y < y) = F (+1; y)
Cependant, si la loi du couple est dé…nie par sa densité, les densités margi-
nales sont obtenues plutôt par intégration :
Z+1
fX (x) = f (x; y) dy
1
Z+1
fY (y) = f (x; y) dx
1

xiii
CHAPITRE 0. CALCUL DE PROBABILITÉS

Exemple 0.3.2 Si nous reprenons la fonction de répartition de l’exemple


précédent, en faisant tendre y vers plus l’in…ni, on obtient :

FX (x) = F (x; +1) = 1 exp ( x) pour x > 0

et par dérivation :

fX (x) = exp ( x) pour x > 0, densité de la loi exponentielle ou (1) [X ! exp (1)] :

Cette densité peut également être obtenue par intégration de la densité du


couple.

0.3.3 Lois conditionnelle


Si l’une des deux variables X ou Y a une valeur …xée, on peut dé…nir la
loi conditionnelle de l’autre variable. Pour des lois absolument continues, les
lois conditionnelles sont dé…nies par les densités conditionnelles :

f (x; y)
fX (x jY = y ) = si fY (y) > 0
fY (y)
f (x; y)
fY (y jX = x ) = si fX (x) > 0
fX (x)

L’indépendance des variables aléatoires X et Y se dé…nit alors par :

f (x; y) = fX (x) fY (y) 8x 2 R; 8y 2 R

On a bien entendu dans ce cas :

fX (x jY = y ) = fX (x) et fY (y jX = x ) = fY (y) 8x 2 R; 8y 2 R

0.3.4 Moments associés à un couple


Si h : R2 ! R est une application continue, l’espérance de h (x; y) se
calcule pour une loi de densité f par l’intégration :
Z Z
E [h (x; y)] = h (x; y) f (x; y) dxdy
R2

xiv
0.3. COUPLE DE VARIABLES ALÉATOIRES CONTINUES

Dans le cas particulier où h (x; y) = [X E (X)] [Y E (Y )] ; ceci dé…nit la


covariance :

Cov (X; Y ) = E f[X E (X)] [Y E (Y )]g = E (XY ) E (X) E (Y )

Dans le cas particulier où les variables aléatoires X et Y sont indépendantes :


Z Z Z Z
E (XY ) = xyf (x; y) dxdy = xf (x) dx yf (y) dy = E (X) E (Y )
R2 R R

et par conséquent : Cov (X; Y ) = 0:

Remarque 0.3.1 La réciproque, généralement fausse, c’est-à-dire que si deux


variables aléatoires ont une covariance nulle ne sont pas forcément indépen-
dantes, sauf dans le cas particulier où (X; Y ) est un couple gaussien.

Exemple 0.3.3 Soit X une variable aléatoire de loi N (0; 1) et dé…nissons


Y = X 2 . On a :

Cov (X; Y ) = E (XY ) E (X) E (Y ) = E X 3 = 0;

donc les variables aléatoires X et X 2 ont une covariance nulle alors qu’elles
sont dépendantes (mais non linéairement) puisque la seconde est fonction de
la première.

On peut dé…nir également le coe¢ cient de corrélation linéaire par :


Cov (X; Y )
= Corr (X; Y ) =
X Y

ayant posé :
2 2
V ar (X) = X et V ar (Y ) = Y

Nous allons établir que ce coe¢ cient est compris entre 1 et +1, en raison
de l’inégalité de Schwarz :
p p
jE (XY )j E (X 2 ) E (Y 2 )

que l’on obtient en considérant le polynôme en , toujours positif :

E (X Y )2 = 2
E Y2 2 E (XY ) + E X 2 0

xv
CHAPITRE 0. CALCUL DE PROBABILITÉS

ce qui implique E2 (XY ) E (X 2 ) E (Y 2 ) 0, soit en appliquant cette inéga-


lité aux variables centrées :
jCov (X; Y )j X Y

et par conséquent j j 1: Le cas j j = 1 correspond à l’existence d’une


relation a¢ ne entre les deux variables :
j j = 1 () 9a 2 R ; 9b 2 R; Y = aX + b:
Cette relation a¢ ne quand elle existe, s’écrit d’ailleurs précisément :
Cov (X; Y )
Y = E (Y ) + [X E (X)] :
V ar (X)

0.3.5 Régression
Les densités conditionnelles permettent de calculer les moments condi-
tionnels, comme par exemple les espérances ; on peut dé…nir notamment la
fonction :
x 7! E (Y jX = x )
qui s’appelle fonction de régression (non linéaire), son graphe étant la courbe
de régression de Y en X: Pour une loi absolument continue, on obtient :
Z+1
E (Y jX = x ) = yf (Y = y jX = x ) dy
1
Z+1
f (x; y)
= y dy
fX (x)
1

Exemple 0.3.4 En reprenant toujours l’exemple de la loi exponentielle on


obtient ici :
Z+1 Z+1
exp ( y)
E (Y jX = x ) = y dy = y exp (x y) dy
exp ( x)
x x
Z+1
= exp (x) yd ( exp ( y)) par partie, on obtient donc
x
= x + 1:

xvi
Convergences

0.4 Convergence en probabilité


La dé…nition de la convergence en probabilité fait intervenir une suite
numérique de probabilité dont la convergence sera souvent établie grâce à
l’inégalité de Bienaymé-Tchebychev, qui lie une probabilité et une va-
riance.

0.4.1 Inégalité de Markov


Si X une variabla aléatoire (v.a) positive dont l’éspérance existe, l’inéga-
lité de Markov établit que pour tout > 0 :

1 E (X)
P (X E (X)) ou P (X )

0.4.2 Inégalité de Bienaymé-Tchebychev


On obtient l’inégalité de Bienaymé-Tchebychev en appliquant l’inégalité
E jXjk
de Markov ( pour tout k tel que E X k existe : P X k k
; > 0)
à la v.a X E (X) pour k = 2, donc pour une v.a dont la variance existe,
soit pour tout > 0 …xé :

V ar (X)
P (jX E (X)j) 2

0.4.3 Convergence en probabilité


Si (Xn ) une suite de v.a qui converge vers une v.a X, cela signi…e que
Xn se “rapproche” de X quand n augmente. On mesure la distance entre

xvii
CHAPITRE 0. CONVERGENCES

Xn et X par jXn Xj qui sera d’autant plus petite que n sera grand ; mais,
s’agissant de v.a, il faut considérer l’événement jXn Xj < qui sera réalisé
avec une probabilité d’autant plus élevée que n sera grand.
On va donc associer à la suite aléatoire (Xn ) la suite numérique des pro-
babilités de ces événements, qui devra converger vers un.

Dé…nition 0.4.1 On dit que la suite de variable aléatoire (Xn ) converge en


probabilité vers une variable X si, pour tout > 0 :

P (jXn Xj) < ! 1 quand n ! 1

ou, de façon équivalente :

P (jXn Xj) > ! 0 quand n ! 1

on écrit : Xn ! X:
P

Exemple 0.4.1 Soit (Un ) une suite de variables aléatoires indépendantes


v.a.i, de même loi uniforme sur [0; 1] ; on lui associer la suite (Xn ) dé…nie
pour tout entier n par

Xn = min fU1 ; :::; Un g : Nous allons établir que : Xn ! 0 quand n ! 1:


P

Pour cela, nous allons calculer, pour un > 0 …xé, la probabilité P (jXn j) >
= P (Xn > ) (puisque Xn est une v.a positive). Pour 1 : P (Xn > ) =
0:Pour < 1: Toutes les v.a Un étant indépendantes, de même loi que U avec
P (U < x) = x pour 0 x 1; on obtient :
h n
i n
P (jXn j) > =P \ (Ui > ) = P (Ui > ) = (1 P (U < ))n
i=1 i=1
n
= (1 ) ! 0, d’où Xn ! 0:
n!1 P

0.5 Convergence presque-sûre et loi des grands


nombres
La convergence presque-sûre est la convergence simple d’une suite de fonc-
tion de dans R, c’est-à-dire la convergence pour chaque éventualité !:

xviii
0.5. CONVERGENCE PRESQUE-SÛRE ET LOI DES GRANDS
NOMBRES
Dé…nition 0.5.1 On dit que la suite de variables aléatoires (Xn ) converge
presque sûrement vers la variable aléatoire X quand n tend vers l’in…ni si :

P (f! 2 ; Xn (!) ! X (!)g) = 1

on note :
h i
P:S
Xn ! X lim Xn (!) = X (!) 8! 2 A; P (A) = 1
n!1 n!1

Le théorème suivant établit des propriétés équivalentes à la dé…nition de


la convergence presque-sûre, et souvent d’utilisation préférable.

Théorème 0.5.1 (Xn ) et (X) étant des variables aléatoires réelles, les quatres
propriétés suivantes sont équivalentes :
PS
a)Xn ! X

b)8 > 0; limP sup fjXm Xj > g = 0


n m n

c)8 > 0; limP [ fjXm Xj > g = 0


n m n

d)8 > 0; limP \ fjXm Xj g =1


n m n

Pour la démonstration, on démontre que :

1)c , d (par passage au complémentiare)

2)b , c (on remarque que ! 2 sup fjXm Xj > g


m n
, sup fjXm (!) X (!)j > g
m n
, 9m n; jXm (!) X (!)j > , ! 2 [ fjXm Xj > g
m n
3)a , d

Remarque 0.5.1 Supposons que la série de terme général Un = P fjXn Xj > g


soit converge, i,e :
X
1
P fjXn Xj > g < 1;
n=1

xix
CHAPITRE 0. CONVERGENCES

pour tout > 0:Alors :


X
1
P [ fjXm Xj > g P fjXm Xj > g
m n
m=n
| {z }
R

R est le reste d’une série convergente ; on en déduit :

limP [ fjXm Xj > g = 0


n m n

c’est une condition su¢ sante de convergence presque-sûre de Xn vers X,


que l’on peut utiliser comme dé…nition d’une convergence plus forte que la
convergence presque-sûre.

A titre d’illustration de cette convergence, nous pouvons énoncer le théo-


rème suivant :

Théorème 0.5.2 (Loi des grands nombres :LGN) Soient (Xn )1 n=1 une
suite de v.a indépendantes et identiquement distribuée (i.i.d) et Sn = X1 +
::: + Xn . Si E (jX1 j) < 1, alors :
Sn P
a)Loi faible : ! E (X1 )
n n!1
Sn P S
b)Loi forte : ! E (X1 )
n n!1
Exemple 0.5.1 Soit (Xn ) une suite de pile (1) ou face (0) indépendants et
1
équilibrés. Du fait que E (X1 ) = < 1, on a par la loi forte des grands
2
Sn 1 n
nombres : ! P:S,i.e : Sn ' :
n 2 2
n
Question : Quelle est la déviation moyenne de Sn :
2
1 1
On a : E (X1 ) = et V ar (X1 ) = , donc donc théorème central limite
2 4
TCL donne :
n p
Sn n n
2
p 1 ! Z ! N (0; 1) ; i:e : Sn ' + Z
n2 2 2
p
donc la déviation est d’ordre n:

xx
0.6. CONVERGENCE EN LOI

0.6 Convergence en loi


La convergence en loi est une convergence des lois des variables aléatoires,
sans prendre en compte le comportement de la suite pour une éventualité
…xée :

Dé…nition 0.6.1 On dit que la suite de variables aléatoires (Xn )n 1 converge


en loi vers la variable aléatoire X quand n tend vers l’in…ni, et on écrit
loi
Xn ! X, si pour toute fonction f : R ! R continue bornée ;
n!1

E (f (Xn )) ! E (f (X))
n!1

cette dé…nition n’est pas forcément la plus simple à manipuler, et il existe


beaucoup de dé…ntion équivalentes de cette convergence.

Propriétés
La convergence en loi de Xn vers X est équivalente à chacune des propo-
riétés suivantes :
1. Convergence simple des fonctions caractéristiques :
'Xn (t) ! 'X (t) 8t 2 R
n!1

2. Convergence simple des fonctions de répartitions aux points de conti-


nuité :
FXn (x) ! FX (x)
pour tout x tel que FX est continue en x.
3. P (Xn 2 A) ! P (X 2 A) 8A 2 C (X) où C (X) est l’ensemble des
n!1
sous-ensembles A de R qui véri…ent P (X 2 @A) = 0 (@A désigne la fron-
tière de A): Le lemme suivant découle immédiatement de la dé…ntion de la
convergence en loi :

Lemme 0.6.1 Si la suite (Xn )n 1 converge en loi vers X et si : f : R ! R


est une fonction continue, alors f (Xn ) converge en loi vers f (X) :

Théorème 0.6.1 Soit (Xn )n 1 une suite de variables aléatoires réelles in-
dépendantes et de même loi, de moyenne m et de variance 2 …nies, soit :
Sn = X1 + ::: + Xn : Alors :
Sn nm loi loi
p ! S ! N (0; 1)
n n!1 n!1

xxi
CHAPITRE 0. CONVERGENCES

i.e :
Zt
Sn nm 1 1 2
P p t ! p exp x dx = (t) 8t 2 R
n 2 2
1

NB : La fonction de répartion de la loi normale N (0; 1) sur tout R.

xxii
Statistique inférentielle

0.7 Echantillonnage-Estimation
I-Introduction
L’etude des caractéristiques de tous éléments d’une population est souvent
impossible à réaliser en raison de contraintes de coùts et de temps.
Cette impossibilité conduit à étudier un sous-ensemble issu de la popula-
tion mère : L’échantillon.
L’échantillonnage consiste à déduire de la connaissance supposée connue
des caractéristiques d’une population, les caractéristiques des échantillons
prélvés dans cette population.
Lestimation est le problème inverse. Il s’agit d’estimer, à partir des ca-
ractéristiques calculeés sur un ou plusieurs échantillons, la valeur des carac-
téristiques de la population mère.

Population mère Echantillons Ei


E¤ectif ou taille N n
moyenne m Xi
Fréquence ou proportion P fi
2 2
Variance i
Ecart-type i

Les méthodes probabilistes de constitutions des échantillons consistent à prél-


ver au hasard des éléments de la population et sont les seuls à respecter les lois
statistiques. le prélévements des éléments de l’échantillon peut être e¤ectué.
Avec remise :
L’élément prélvé est immédiatement remis dans la population mère avant
de prélvé le suivant. Un élément pouvant être éventuellement prélvé plusieurs
fois, les tirages sont indépendants et l’échantillon est dit non-exhaustif.

xxiii
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE

Sans remise :
L’échantillon est exhaustif, mais les tirages ne sont pas indépendants
puisque la composition de la population mère est modi…ée à chaque tirage.
Dans la suite, pour pouvoir appliquer les règles du calcul des probabili-
tés, les échantillons seront supposés être constitués avec remise, ou être des
échantillons sans remise dont la taille est négligable par rapport à celle de la
population qui est grande taille ou in…nie (le tirage est alors assimilable à un
tirage avec remise).
Indiquons la procédure à mettre en oeuvre pour constituer un échantillon
à l’aide d’une table de nombre aléatoires.
Cette table est constituée des nombres 0; 1; 2; 3; 4; 5; 6; 7; 8; 9 et chacune
des valeurs entières a la même probabilité d’apparition.
N’importe lequel nombre de la table n’a aucune relation avec le nombre
au-dessus, en-dessous, à la droite ou à la gauche de lui.
les nombres sont éparpillés au hasard dans la table que nous utilisons,
les nombres sont regroupés en colonnes de 5 chi¤res, chaque ligne comporte
50 nombres (10 groupes de 5). Pour choisir des nombres de la table, il s’agit
simplement :
a) De choisir un point d’entrée dans la table.
b) De choisir itinéraire de lecture. On peut lire les nombres en ligne ( de
gauche à droite ou de bas en haut).
On pourrait également sauter un nombre sur deux, etc...

Exemple 0.7.1 Tirage au sort d’un échantillon de taille n = 10 à l’aide


de la table de nombres aléatoires. Le délégué d’une association des etudiants
d’une université veut tirer au sort un échantillon de 10 individus faisant
partie de l’association. Supposons que l’AEU comporte 300 individus listés
sur un …chier. On a donc ce qui suit :

Population : Les individus membres de l’association. Base de sondage :


La liste des noms des individus sur le …chier. Unité statistique : Les indi-
vidus. Taille de la population : N = 300:Taille requise de l’échantillon :
N = 10:Mode de tirage : Sans remise (tirage exhaustif). On débute par nu-
méroter chaque individu dans la base de sondage de 001 à 300: Puisque la
base de sondage comporte 300 individus, nous allons choisir de la table des
nombres de 3 chi¤res. Pour lire dans la table, nous proposons la règle sui-
vante : Partir de la 3ieme lignes en ne considérant que les 3 derniers chi¤res
de la 4 colonne (et des suivantes s’il ya lieu) avec lecture de haut en bas,

xxiv
0.7. ECHANTILLONNAGE-ESTIMATION

ne retenir que les résultats de lecture qui soient compris entre 001 et 300:
Puisqu’on e¤ectue un tirage sans remise, on rejette tout nombre déja sortie
qui apparait à nouveau dans la procédure de sélection. On obtient alors les 10
nombres suivants : Les individus portant les numéros suivants dans la base
de sondage vont constituer l’echantillon de taille n = 10:

251 045 075 157 199


267 278 026 238 051

0.7.1 Distribution d’échantillonnage


Soit dans une population mère de taille N , une variable aléatoire X
pour laquelle l’espérance mathématique m, la proportion P et l’écart-type
sont connues.
De cette population sont issus k échantillons E1 ; E2 ; :::; Ek de taille n qui
auront des moyennes et des écarts-types di¤érents. La notion de distribution
d’échantillonnage peut être résumé et schématisée :

Population mère : Echantillon 1 Echantillon 2 Echantillon k


Taille : N Taille :n Taille :n Taille :n
Moyenne : m (connue) Moyenne :X 1 Moyenne :X 2 Moyenne :X k
proportion : P (connue) proportion :f1 proportion :f2 proportion :fk
Ecart-type (connue) Ecart-type : 1 Ecart-type : 2 Ecart-type : k
Déduire les caractéristiques d’un echantillon de la connaissance
des caractéristiques de la population mère

0.7.2 Distribution d’échantillonnage des moyennes


Les moyennes X i de chaque échantillon varient d’un échantillon à l’autre
et représentent la distribution des moyennes de la variable aléatoire X i qui
associe à tout échantillon de taille n la moyenne de cet échantillon.
La variable aléatoire X n prend donc les valeurs : X 1 ; X 2 ; :::; X k :

0.7.3 Valeurs caractéristiques de X n


L’espérance mathématique de la variable aléatiore X n est égale à celle
de la population mère :
E Xn = m

xxv
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE

La variance de la variable aléatiore X n est égale à celle de la population


mère rapportée à la taille de l’échantillon :
2
V Xn =
n
L’écart-type de la variable aléatoire X n se déduit de la variance :

Xn = p
n
Remarque 0.7.1 Si les échantillons sont issus d’une population mère …nie
et sont constituée sans remise. L’espérance mathématique de X n est tou-
jours égale à m, mais l’écart-type est corrigé par le facteur d’exhaustivité
(facteur de correction)
r r
N n n n
Xn = p p 1 tel que représente le taux de sondage.
n N 1 n N N
Justi…cation mathématique : Espérance mathématique et variance
de X, la moyenne d’échantilllon

On prélève au hasard un échantillon de taille n (tirage avec remise) dont


les éléments possédent un caractère mesurable X suivant une distribution de
probabilité de moyenne E (X) = m et de variance V ar (X) = 2 :
En prélévant au hasard un échantillon de taille n de cette population,
on crée une suite de n variables aléatoires indépendantes X1 ; X2 ; :::; Xn dont
chacune a la même distribution que X:
X1 + X2 + ::: + Xn
a) La moyenne d’échantillon X = est une variable
n
aléatoire dont l’espérance mathématique est E (X) = m:
Justi…cation
X1 + X2 + ::: + Xn 1
E X = E = E (X1 + X2 + ::: + Xn )
n n
1 n
= [E (X1 ) + E (X2 ) + ::: + E (Xn )] = m:
n n
2
b) La variance de X est égale à la variance de la population divisée
par n, la taille de l’échantillon :
2
2 2
V ar X = X =E X m =
n
xxvi
0.7. ECHANTILLONNAGE-ESTIMATION

JUsti…cation

X1 + X2 + ::: + Xn 1
V ar X = V ar = [V ar (X1 + X2 + ::: + Xn )]
n n2

Puisque X1 ; X2 ; :::; Xn sont indépendantes, on peut écrire :


1
V ar X = [V ar (X1 ) + V ar (X2 ) + ::: + V ar (Xn )]
n2
1 2
= + 2 + ::: + 2
n2
2
1 2
= n = :
n2 n

0.7.4 Distribution d’échantillonnage des fréquences

La probabilité de réalisation d’un événement A est égale à P . On consi-


dère les échantillons aléatoires de tailles n extraits d’une population de taille
N . Pour chaque échantillon on détermine la proportion f de réalisation de
l’événement A:
La population et les échantillons suivent des lois binomiales B (N; P ) et
B (n; f ) respectivement.
La moyenne mf et l’ecart-type f de la distribution d’échantillonnage des
fréquences valent :
r
P (1 P )
mf = P et f = si le tirage est non exaustif ou
n
si la population est in…nie.
r r
P (1 P ) N n
f = si le tirage est exhaustif.
n N 1

xxvii
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE

* Si la taille n des échantillons est assez grande (en pratique n 30) la


distribution d’échantillonnage de la moyenne approche la distribution nor-
male quelle que soit la distribution de la population, c’est-à-dire : X !
N m; p :
n
* Si la population est normalement distribuée, la distribution d’échan-
tillonnage de la moyenne est une loi normale quelle que soit la valeur n de la
taille des échantillons.
* Si la population parente possède une distribution pratiquement symé-
trique, il semble qu’un échantillon d’au moins 15 observations soit convenable
pour que la distribution de la moyenne soit approximativement normale.

xxviii
0.8. ESTIMATION DE PARAMÈTRES

0.8 Estimation de Paramètres


1.Introduction
Les variables aléatoires X1 ; X2 ; :::; Xn sont dé…nies par leurs fonction de
répartition :

F (x1 ; x2 ; :::; xn ) = P (X < x1 ; X2 < x2 ; :::; Xn < xn )

dependant d’un paramètre appartenant à un ensemble inclus dans R. Le


problème de l’estimation est celui de la mesure de à partir de l’observation
des variables aléatoires (X1 ; X2 ; :::; Xn ) :
Un estimateur de est une variable aléatoire, notée b = b (X1 ; X2 ; :::; Xn ),
fonction su¢ samment régulière des variables aléatoires X1 ; X2 ; :::; Xn et uni-
quement de ces variables aléatoires (c’est-à-dire que ne doit pas intervenir
dans b explicitement):
On demande à b les deux qualités suivantes :
8
< 1) absence de biais : E b = (biais = b ( ) = E b )
h i
: 2) Convergence : 8" > 0; limn!1 P b >" =0

La première propriété est à rapprocher de l’bsence d’erreur systématique


tendis que la seconde est la convegence en probabilité.

Dé…nition 0.8.1 Un estimateur b asymptotiquement sans biais

lim E b = et dont la variance véri…e lim V ar b = 0 est convergent.


n!1 n!1

Théorème 0.8.1 Tout estimateur sans biais dont la variance tend vers zéro
est convergent.

Preuve. Ce résultat se déduit directement de l’inégalité de Bienaymé-Tchebychev :

h i V ar b
P bn >" ! 0 quand n ! 1
"2

Exemple 0.8.1 Estimation de la moyenne

xxix
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE

Exemple 0.8.2 Lorsque X1 ; X2 ; :::; Xn sont des variables aléatoires indépen-


dantes (v:a:i), de même moyenne m et de même variance 2 , l’estimateur de
1X
n
la moyenne, m b =X= Xi est tel que,
n i=1

E X =m
2
V ar X = n
! 0 quand n ! 1

b = X est un estimateur sans biais et convergent de m:


Donc m

Exemple 0.8.3 S 2 = 2
echantillon = 2
echa est un estimateur sans biais de 2
:
X 2
Xi X
i
Car : S 2 = ; E S2 = 2
n 1
On peut écrire
X 2 X 2
(n 1) S 2 = Xi X = (Xi m) X m
i i

qui donne, en développement le membre de droite :


X 2
(n 1) S 2 = (Xi m)2 n X m
i

0.8.1 Estimateur optimal (e¢ cace)


0.8.2 Qualité d’un estimateur
La qualité d’un estimateur va se mesurer à l’aide d’une distance au pa-
2
ramètre qui peut être par exemple bn ou bn : Pour obtenir un
indicateur numérique on peut alors déterminer la valeur moyenne de cette
distance.
L’indicateur généralement retenu, car il se prête focilement aux calculs,
est l’erreur quadratique moyenne dé…nie pour tout par
2
EQ bn = E bn = V ar bn + b2n ( )

Dans le cas particulier d’un estimateur sans biais, cette erreur quadratique
se confond avec la variance de l’estimateur.

xxx
0.8. ESTIMATION DE PARAMÈTRES

0.8.3 Estimateur e¢ cace


Un estimateur sans biais est plus e¢ cace (ou simplement e¢ cace) si sa
variance est la plus faible parmi les variances des autres estimateurs sans
biais. Ainsi si b1 et b2 sont deux estimateurs sans biais du paramètre ,
l’estimateur b1 est plus e¢ cace si

V ar b1 < V ar b2 et E b1 = E b2 =

La notion d’estimateur e¢ cace peut s’illustrer de la façon suivantes.


La distribution de b1 est plus concentrée autour de que celle de b2 . Si
nous échantillonnons une population normale X et Me sont des estimateurs
sans biais de m car :
E X = E (Me ) = m
D’autre part, la variance de X est plus petite que celle de la médiane puisque
2 2
V ar X = et V ar (Me ) = 1; 57
n n
Pour la même taille d’echantillon, X est plus e¢ cace que Me pour estimer
m; V ar X < V ar (Me ) :
Comparaison de deux estimateurs de m:

Exemple 0.8.4 Soit X1 ; X2 ; X3 un échantillon aléatoire prélevé d’une popu-


lation in…nie avec E (Xi ) = m et V ar (Xi ) = 2 : Montrer que

X1 + 2X2 + 3X3
b =
m est un estimateur sans biais de m mais qu’il est moins e¢ cace que
6
P
Xi
X= i
3
C’est-à-dire que

b = m et V ar (m)
E (m) b
b > V ar X

b est un estimateur sans biais de m.


Véri…ons que m

X1 + 2X2 + 3X3 1 6m
b =E
E (m) = [E (X1 ) + 2E (X2 ) + 3E (X3 )] = =m
6 6 6

xxxi
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE

b :
Déterminons maintenant V ar (m)

14 2
b =
V ar (m)
36
Or
2 2
2 14 2
V ar X = = , d’où 0; 333 < :
n 3 36
b pour estimer m:
Par conséquent X est plus e¢ cace que m

0.8.4 Inégalité de Fréchet-Darmois-Cramer-Rao(F.D.C.R)


Nous allons voir dans certaines donditions il existe une borne inférieure
pour l’ensemble des variances des estimateurs sans biais, ce qui va constituer
un butoir ne permettant pas d’améliorer sans cesse les estimateurs. D’autre
part, si cette borne est atteinte par un estimateur, il deviendra le meilleur et
sera quali…é d’optimal dans la classe des estimateurs sans biais.

Dé…nition 0.8.2 On appelle vraisemblance de l’échantillon (X1 ; X2 ; :::; Xn )


la loi de probabilité de ce n uple; notée L (X1 ; X2 ; :::; Xn ; ) et, dé…nie par
n
L (x1 ; x2 ; :::; xn ; ) = i=1 P (Xi = xi ; ) si X est une variable aléatoire discrète et par
n
L (x1 ; x2 ; :::; xn ; ) = i=1 f (xi ; ) si est une variable aléatoire continue de densité f (x; )
Le théorème suivant préciser la borne inférieure pour la variance des estima-
teurs sans biais.

Théorème 0.8.2 Sous les hypothèses de Cramer-Rao, en particulier si E =


X ( ) est indépendant du paramètre à estimer , Pour tout estimateur sans
biais b de on a :
1
V ar b = BF ( )
In ( )
Tel que In ( ) est la quantité d’information de Fisher qui est dé…nie par :

@ 2 ln l
In ( ) = E
@ 2

et BF ( ) est la borne inférieure de F.D.C.R

xxxii
0.8. ESTIMATION DE PARAMÈTRES

Remarque 0.8.1 Si E = X ( ) dépend du paramètre à estimer , on obtient


2
@ ln l
In ( ) = E :
@
Exemple 0.8.5 Soit X une variable aléatoire de loi exponentielle de para-
1 1
mètre , ou loi Gamma notée 1; , avec > 0 de densité pour x > 0 :

1 x
f (x; ) = exp

La vraisemblance admet ici pour expression :


!
1X
n
n 1
L (x1 ; x2 ; :::; xn ; ) = i=1 f (xi ; ) = n exp xi
i=1

Pour calculer la quantité d’information de Fisher nous écrivons


1X
n
ln L (x1 ; x2 ; :::; xn ; ) = n ln xi :
i=1

1 X
n
@ ln l n
= + 2 xi
@ i=1

comme X ( ) = R+ est indépendant de on a :

@ 2 ln l n 2 X
n

2 = 2 3 Sn tq Sn = xi
@ i=1

D’où :
@ 2 ln l n 2n n
In ( ) = E = + = 2:
@ 2 2 3

Exemple 0.8.6 Si nous prenons maintenant l’exemple de la loi exponen-


tielle sur [ ; +1[, de densité :
exp ( (x )) ; si x
f (x; ) =
0; sinon.
La vraisemblance s’écrit :
!
X
n
L (x1 ; x2 ; :::; xn ; ) = exp (xi )
i=1

xxxiii
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE

si tous les xi sont plus grands que ; c’est-à-dire si

min fxi =1 i ng

on a alors :
X
n
ln L (x1 ; x2 ; :::; xn ; ) = xi + n :
i=1
d’où
2
@ ln l @ ln l
= n et In ( ) = E = n2 :
@ @

0.8.5 Estimateur e¢ cace


Dé…nition 0.8.3 Un estimateur sans biais b est dit e¢ cace si sa variance
est égale à la borne inférieure de (F:D:C:R) :
1
V ar b =
In ( )
Exemple 0.8.7 Si nous reprenons l’exemple de la loi expenontielle de pa-
1
ramètre , comme E (X) = , on sait que bn = X est un estimateur sans
biais est convergent. De plus :
2
bn = V ar V ar (X) 1
V ar Xn = = =
n n In ( )
donc cet estimateur est aussi e¢ cace.

0.8.6 Méthodes de construction d’un estimateur


0.8.7 Méthode du maximum de vraisemblance
La vraisemblance L (x1 ; x2 ; :::; xn ; ) représente la probabilté d’observer le
n uple (x2 ; :::; xn ) pour une valeur …xée de : Dans la situation inverse ici
où on a observé (x2 ; :::; xn ) sans connaitre la valeur de , on va attribuer à
la valeur qui parait la plus vraisemblable, compte tenu de l’observation dont
on dispose, c’est-à-dire celle qui va lui attribuer la plus forte probabilité. On
se …xe donc la règle suivante : à (x2 ; :::; xn ) …xé on considère la vraisemblance
L comme une fonction de et on attribue à la valeur qui maximise cette
fonction. D’où la dé…nition suivante :

xxxiv
0.8. ESTIMATION DE PARAMÈTRES

Dé…nition 0.8.4 On appelle estimateur du maximum de vraisemblance (e:m:v)


toute fonction b de (x2 ; :::; xn ) qui véri…e :

L x1 ; x2 ; :::; xn ; b = max L (x1 ; x2 ; :::; xn ; )


2

Cette dé…nition ne renseigne en aucune façon, ni sur l’existence, ni sur


l’unicité, d’un tel estimateur. La recherche d’e.m.v peut se faire directement
par recherche du maximum de L, ou dans le cas particulier où la fonction L
@ ln l
est deux fois dérivable par rapport à , comme solution de l’équation =0
@
2
@ ln l
qui véri…e aussi < 0:
@ 2
Exemple 0.8.8 Cherchons l’emv pour la famille de lois exponentielle de pa-
1
ramètre : La log-vraisemblance est indé…niment dérivable pour > 0 et
nous avions obtenu dans l’exemple 1

1 X
n
@ ln l n
= + 2 xi = 0
@ i=1

1X
n
) = xi = X n avec :
n i=1
2 X
n
@ 2 ln l n n
= xi = 2X n soit pour = Xn
@ 2 2 3
i=1
3

@ 2 ln l n
= < 0; donc l’emv est = X n:
@ 2 =X n Xn
2

xxxv
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE

0.8.8 Estimition d’une moyenne par intervalle de con…ance


On se propose d’estimer, par intervalle de con…ance, la moyenne m d’un
caractère mesurable d’une population. Il s’agit de calculer, à partir de la
moyenne X de l’échantillon, un intervalle dans lequel il est vraisemblable
que la vraie valeur de m s’y trouve. On obtient cet intervalle en calculant
deux limites auxquelles est associée une certaine assérance de contenir la
vraie valeur de m. Cet intervalle se dé…nit d’après l’équation suivante

P X k m X +k =1

et les limites prendront, après avoir prélevé l’échantillon et calculé l’estima-


tion X, la forme suivante

X k m X + k:

où k sera déterminé à l’aide de l’écart-type de la distribution d’échantillon-


nage de X et de niveau de con…ance 1 choisi a priori.
Nous savons que si nous prélevons un échantillon aléatoire de taille n
d’une population normale de variance connue,
2
X!N m;
n

Si la distribution du caractère mesurable (la population) est inconnue ou si


la variance de la population est inconnue, un échantillon de taille n 30
nous permet, d’après le théorème central limite de considérer que X suit
approximativement une loi normale. Par conséquent, la quantité
0 1
X m BX m C
Z= ou B
@ S selon le casC
A
p p
n n

suit une loi normale centrée reduite.


Partons de ce fait pour déduire un intervalle aléatoire ayant, a priori, une
probabilité 1 de contenir la vraie valeur de m, ce qui revient à déterminer
k de telle sorte que

P X k m X +k =1

xxxvi
0.8. ESTIMATION DE PARAMÈTRES

D’où 0 1
B X m C
P@ Z Z A=1
2 p 2
n
Alors 0 1

P @X Z p m X +Z p A=1
n n
2 2
qui est de la forme

P X k m X +k =1

d’où ;
k=Z p :
n
2
Exemple 0.8.9 Un laboratoire indépendant à véri…é pour le compte de l’of-
…ce de la protection du consomateur, la résistance à l’éclatement en kg lcm2
d’un réservoir à essance d’un cèrtain fabricant. Des essais similaires e¤ecués
il y a un an, permettent de considérer que la résistance à l’éclatement est
distribuée normalement avec une variance de 9. Des essais sur un échan-
tillon de 10 réservoires conduisent à une résistance moyenne à l’éclatement
de 219kg lcm2 : Estimer par intervalle de con…ance la résistance moyenne à
l’éclatement de ce type de réservoir avec un niveau de con…ance de 95%:

Les éléments nécessaires au calcul de l’intervalle de con…ance sont indiqués


comme suit :

X = 219
p
= 9 = 3kg lcm2

La taille de l’échantillon n = 10, le niveau de con…ance : 1 = 0; 95 donc


= 0; 05:

xxxvii
Tests d’hypothèses

Introduction
Soit une hypothèse H0 concernant une population sur la base des résultats
d’échantillons extraits de cette population ont est amené à accepter ou rejeter
l’hypothèse H0 .
Les règles de décisions sont appelées tests statistiques.
H0 désigne l’hypothèse dite hypothèse nulle et par H1 on note l’hypothèse
dite hypothèse alternative on a :

H0 vraie H1 fausse ou bien


H0 fausse H1 vraie

Il ya quatre solutions dont seulement les deux premières sont justes :

a)H0 est vraie et on a choisi H0


b)H0 est fausse et on a rejeté H0
c)H0 est vraie et on a rejeté H0
d)H1 est vraie et on a choisi H0

On distingue deux types d’erreurs :


a) Si H0 est vraie et on l’a rejetée, on dit que l’on a une erreur de 1tere
espèce. La probabilité de l’erreur de 1tere espèce est notée :
b) Si H1 est vraie et on a accepté H0 , on dit que l’on a une erreur de 2e
espèce. La probabilté de l’erreur de 2e espèce est notée :
est le seuil de signi…cation du test et 1 son seuil de con…ance.

xxxviii
0.9. CATÉGORIES DE TESTS

0.9 Catégories de tests


1. Un test est dit d’hypothèse simple si on veut choisir entre deux valeurs
d’un paramètre ( 0 et 1 ) on a :

H0 : = 0
H1 : = 1

2. Un test est dit bilatéral si :


H0 : = 0
a)
H1 : 6 = 1

test unilatéral à droite ou test de supériorité

H0 : = 0
b)
H1 : > 1

test unilatéral à gauche ou test d’infériorité

H0 : = 0
c)
H1 : < 1

où 0 et 1 sont deux valeurs d’un même paramètre dans deux populations


di¤érentes.
3. Un test est dit d’ajustement si :

H0 : F (x) = F0 (x)
6 F0 (x)
H1 : F (x) =

Où F (x) est la fonction de répartition de la variable échantillonée et F0 (x)


est la fonction de répartition d’une variable aléatoire connue.
5. Un test est dit d’indépendance si :

H0 : X et Y sont deux variables aléatoires indépendantes


H1 : X et Y ne sont pas des variables indépendantes.

0.9.1 Région critique et d’acceptation d’une hypothèse


La construction d’un test implique la détermination de la région critique
! 0 de Rn . La valeur de , erreur de 1tere espèce étant …xée (en général
= 0:05; 0:01 ou 0:1) l’ensemble des valeurs de la variable de décision qui

xxxix
CHAPITRE 0. TESTS D’HYPOTHÈSES

permettent d’écarter H0 et de choisir H1 est dit région critique, le complé-


mentaire ! 0 de cette région critique est dit région d’acceptation. On a :
P (! 0 jH0 ) = ; P (! 0 jH0 ) = 1
P (! 0 jH1 ) = 1 ; P (! 0 jH1 ) =
on extrait un échantillon aléatoire de la population et on accepte H0 si la
valeur de la variable de décision appartient à la région d’acceptation. Sinon
on la rejette et on accepte H1 :
Pour une valeur …xée, on maximise la quantité 1 dite puissance du
test.

0.9.2 Test entre deux hypothèses simples (méthode de


Neymane et Pearson)
On test
H0 : = 0
H1 : = 1
ere
on …xe le risque de 1 espèce .
L (x; ) = L (x1 ; :::; xn ; )
est la fonction de vraisemblance avec x = (x1 ; :::; xn ), ! 0 , région critique, est
dé…nie par : Z
P (! 0 jH0 ) = = L (x; 0 ) dx:
!0

on maximise la quantité :
Z Z
L (x; 1)
1 = L (x; 1 ) dx = P (! 0 jH1 ) = 1 = L (x; 0 ) dx
L (x; 0)
!0 !0

pour maximiser 1 , on cherche l’ensemble des points de Rn tels que :


L (x; 1)
A= K
L (x; 0)

la constante K est déterminée par :


Z
L (x; 0 ) dx = :
A K

xl
0.9. CATÉGORIES DE TESTS

0.9.3 Test d’homogéinité


A partir d’un échantillon de taille n1 extrait d’une population P1 et d’un
échantillon de taille n2 extrait d’une population P2 , le test permet de décider
entre :
H0 : 0 = 1
H1 : 0 6= 1

0 et 1 sont les deux valeurs d’un même paramètre des deux populations P1
et P2 :

0.9.4 Test d’homogénéité de deux moyennes


Dans le cas où tailles des échantillons sont élévées (n1 ; n2 30) ; les va-
raibles X 1 et X 2 (correspodants aux populations P1 et P2 ) suivant les lois
1 2
normales respectives : N m1 ; p ;N m2 ; p où mi et i sont la
n1 n2
moyenne et l’écart-type de la population Pi (i = 1; 2) : !
r 2 2
1 2
La variable aléatoire X 1 X 2 suit aussi une loi normale N m1 m2 ; + ,
n1 n2
on choisit entre les deux hypothèses :

H0 : m 1 = m 2
H1 : m1 6= m2


H0 : m 1 m2 = 0
H1 : m 1 m2 6= 0
r !
2 2
1 2
si H0 est vraie, m1 m2 = 0 et X 1 X2 ! N 0; + : On a alors :
n1 n2

P (jZj U )=1


X1 X2 (m1 m2 ) X1 X2 0
Z= r 2 2
= r 2 2
1 2 1 2
+ +
n1 n2 n1 n2

xli
CHAPITRE 0. TESTS D’HYPOTHÈSES

X1 X2
suit une loi normale N (0; 1) : On accepte H0 si la valeur z = r 2 2
de
1 2
+
n1 n2
Z telle que :
U z U
où la valeur U est obtenue par la lecture de la table de la loi normale N (0; 1) :
On rejette H0 si jZj > U . On dira que la di¤érence est signi…cative entre
X 1 et X 2 :

2 2
Remarque 0.9.1 i) Si 1 et 2 sont inconues, on les remplace par lers es-
timateurs :
n1
X
1 2
S12 = Xi X1
n1 1 i=1

et
n2
X
1 2
S22 = Xi X2 respectivement.
n1 1 i=1

comme les échantillons sont de tailles élevées on considère que

X1 X2
Z=r 2 suit une loi normale N (0; 1) (si H0 est vraie c-à-d m1 m2 = 0)
S1 S22
+
n1 n2

ii) Si les échantillons sont de tailles repectives n1 < 30 et n2 < 30; le test
n’est plus valable car le théorème central limite ne s’applique plus. mais pour
deux population P1 et P2 suivant des lois normales N (m1 ; 1 ) et N (m2 ; 2 )
repectivement ayant des écarts-type 1 et 2 égaux et inconnus, c-à-d 1 =
2 = on a :

X X2
t = r1 suit une loi de Student à n1 + n2 2 degrés de liberté,
1 1
S +
n1 n2
S 2 étant l’estimation ponctuelle de 2 :

on accepte alors H0 si jtj < U où U est une valeur obtenue par la lecture de
la table de la loi t de Student-Fisher (nombre de degrés de liberté n1 +n2 2;
seuil de signi…cation )

xlii
0.9. CATÉGORIES DE TESTS

0.9.5 Test d’homogénéité de deux proportion


Chaque individu des deux populations p1 et p2 peut posséder ou non un
certain caractère. On dit ce caractère est présent en proportion P1 et P2 dans
les populations p1 et p2 respectivement : on test au seuil de signi…cation :
H 0 : P1 = P2
H1 : P1 6= P2
ou
H 0 : P1 P2 = 0
H 1 : P1 P2 6= 0
De la population Pi , on extrait un échantillon de taille nn . Il lui correspond
une proportion fi (i = 1; 2) :
Si les échantillons sont de tailles élevées (n1 30 et n2 30), le théorème
r
Pi Qi
central limite permet d’a¢ rmer que fi suit une loi normale N Pi ;
ni
avec Pi + Qir= 1. La variable aléatoire f1 f2 suit alors une loi normale
P1 Q1 P2 Q2
N P1 P 2 ; + :
n1 n2 s !
1 1
Si H0 est vraie, P1 P2 = 0 et f1 f2 ! N 0; P Q + car
n1 n2
P1 = P2 = P: Mais puisque P est inconnu, on fait une approximation. On
n1 f1 + n2 f2
estime P par f = et donc
n1 + n2
s !
1 1
f1 f2 ! N 0; f (1 f ) +
n1 n2
et
f1 f2
Z=s ! N (0; 1) :
1 1
f (1 f) +
n1 n2
Soit U la constante telle que P (jZj U ) = : On a alors : P (jZj < U ) =
1 on accepte H0 si la valeur
f1 f2
z=s
1 1
f (1 f) +
n1 n2

xliii
CHAPITRE 0. TESTS D’HYPOTHÈSES

de Z est telle que :


U z U
on rejette H0 si jZj U :
U est obtenue par lecture de la table de la loi normale N (0; 1) :

xliv
0.9. CATÉGORIES DE TESTS

Exercices de travaux dirigés


Exercice 1 : La loi de probabilité conjointe du couple de v.a.r (X; Y )
est donnée par le tableau :
X=Y ! 0 1 2 3
2 6 3 1
0 48 48 48 48
4 12 6 2
2 48 48 48 48
2 6 3 1
4 48 48 48 48

1) Déterminer les lois marginales de X; Y .


2) Déterminer l’espérance de X et Y:
3) Les variables X et Y sont-elle indépendantes ?
Exercice 2 : Soit (X; Y ) un couple de v.a discrètes dont la loi de proba-
bilité est donnée par la tableau ci-après :
Y =X ! 1 0 1
1 1 1
1 8 8 8
1 1 1
0 16 8 16
1 1 1
1 8 8 8

1) Déterminer les lois marginales de X et Y .


2) Calculer Cov(X; Y ):
3) Déterminer la loi conditionnelle de Y sachant que X = 0:
Exercice3: Soit X; Y deux v.a indépendantes de lois de Poisson de pa-
ramètres respectifs et :
Déterminer la loi conditionnelle de X lorsque la somme S = X + Y a une
valeur …xée S = s: En déduire l’expression de la fonction de régression de
X sur S puis la valeur de E [E(X=S)] :
Exercice 4 : Soit (X; Y ) un couple de v.a dont la loi est déterminée par
la densité :
kxy si (x; y) 2 [0; 2] [0; 5]
f (x; y) =
0 sinon
1) Déterminer la valeur de la constante k:
2) Déterminer les lois marginales de X et Y: Ces variables sont-elle indé-
pendantes ?
Exercice 5 : Soit (X; Y ) un couple de v.a de densité :
8
< k si 0 < x y < 1
p
f (x; y) = xy
:
0 sinon

xlv
CHAPITRE 0. TESTS D’HYPOTHÈSES

1) Déterminer la valeur de la constante k puis la fonction de répartition


F de ce couple.
2) Déterminer les lois marginales de X et Y . Ces variables sont-elles
indépendantes ?
3) Déterminer les lois conditionnelles de X=Y = y et de Y =X = x: En
déduire l’expression de la fonction de régression x 7 ! E(Y =X) puis calculer
E [E(Y =X)] :
Exercice 6 : Soit X et Y deux v.a indépendantes et de meme loi uniforme
sur ] 1; 1[ : Déterminer la loi de probabilité de la v.a Z = Y X:
Exercice 7
I)
Etudier la convergence en probabilité, en moyenne, puis en moyenne qua-
dratique de la suite de v,a (Xn ) dont la loi de probabilité est dé…nie pour
n 2 N par :
1 1
P (Xn = n) = P (Xn = n) = et P (Xn = 0) = 1
2n2 n2
II)
Etudier la convergence en probabilité de la suite de variable aléatoire
(Xn )n 1 , telle que la loi de Xn admette le dendité fn par rapport à :

n exp ( nx)
fn (x) =
(1 + exp ( nx))2

III)
Soit (Xn )n 1 une suite de variables aléatoires réelles indépendantes et de
même loi, de moyenne m et de variance 2 …nies. Soit Sn = X1 + ::: + Xn ,
Sn nm loi
alors p ! N (0; 1) :
n n!1
Exercice 8
1. Supposons qu’une population consiste d’unités statistiques dont le ca-
ractère mesurable de chacune est :

x1 = 332; x2 = 336; x3 = 340; x4 = 344; x5 = 348

a) Quelles sont la taille N de la population, la moyenne et la variance de la


population ?
b) On veut prélever de cette population des échantillons de taille n = 2 en
e¤ectuant un tirage avec remise. Combien d’échantillons peut-on prélever ?

xlvi
0.9. CATÉGORIES DE TESTS

c) Former tous les échantillons possible de taille n = 2 (tirage non ex-


haustif) et calculer la moyenne de chacun.
d) Déterminer les paramètres de la distribution d’échantillonnage de X:
Exercice 9
On choisit au hasard sans remise six nombres parmi les nombres entiers
de 1 à 9; chacun de ces nombres a la meme probabilité d’etre choisi. Calculer
la moyenne et l’écat-type de la distribution d’échantillonnage des moyennes.

Exercice 10
On suppose que le poids des alevins d’une population est une variable
aléatoire d’écart-type égal à 3g. Dans des conditions données, on a pesé un
échantillon de 45 alevins ; la moyenne observée est de 8,24g.
Donner un intervalle de con…ance du poids moyen des alevins de la
population étudiée.
Combien faudrait-il contrôler d’alevins pour que l’intervalle de con…ance
du poids moyen soit déterminé avec une amplitude de 1g au maximum ? On
prendera 95% pour seuil de con…ance.

Exercice 11
Le revenu mensuel X d’une certaine population suit une loi de Pareto de
densité : 8
> 1
>
>
>
< x0
f (x; ) = si x > x0
> 1
>
> 1+
> x
:
0 si x x0
où x0 > 0 est le revenu minimum, connu, et un paramètre strictement positif
que l’on se propose d’estimer à partir d’un échantillon (X1 ; X2 ; :::; Xn ) de X:
1) Calculer la vraisemblance L (X1 ; X2 ; :::; Xn ; ) :
2) Déterminer l’estimateur du maximum de vraisemblance bn de et
etudier ses propriétés.
Exercice 12
Sur 2424 naissances, on a trouvé 1270 garçons et 1154 …lles.
1) Donner une estimation du pourcentage de garçons à la naissance dans
la population, ainsi que l’intervalle de con…ance de ce pourcentage aux risques
5% et 1%.
2) Combien de naissances doit-on recenser pour connaître le pourcentage
de garçons dans la population avec une précision égale à 0,5% au risque 5%.

xlvii
CHAPITRE 0. TESTS D’HYPOTHÈSES

Examens naux
Exercice 1
I) Soit X et Y deux variables aléatoires indépendantes et de même loi
uniforme sur ] 1; 1[. Déterminer la loi de probabilité de la variable aléatoire

Z=Y X:

II) Soient Xet Y deux variables aléatoires indépendantes de loi exponen-


tielle de paramètre > 0.
Déterminer la fonction de répartition de X puis la loi de de la variable

Z = min (X; Y ) :

Exercice 2
On e¤ectue n expériences successives indépendantes où on s’intéresse à
chaque fois à la réalisation d’un certain événement A: On associe donc à
1 p
chaque expérience i; 1 i n; une variable de Bernoulli Xi = .
0 q=1 p
Montrer que la fréquence empirique, c’est à dire le pourcentage de réali-
sation de A est :
1X
n
fn = Xi = X
n i=1

converge en probabilité vers p (A) fn ! p (A) = p


P
Exercice 3
Le revenu mensuel X d’une certaine population suit une loi de Pareto de
densité : 8
> 1
>
>
>
< x0
f (x; ) = si x > x0
> 1
>
> 1+
>
: x
0 si x x0
où x0 > 0 est le revenu minimum, connu, et un paramètre strictement positif
que l’on se propose d’estimer à partir d’un échantillon (X1 ; X2 ; :::; Xn ) de X:
1) Calculer la vraisemblance L (X1 ; X2 ; :::; Xn ; ) :
2) Déterminer l’estimateur du maximum de vraisemblance bn de et
etudier ses propriétés.
Exercice 4

xlviii
0.9. CATÉGORIES DE TESTS

Question de cours
Soient (Xn ) et X étant des variables aléatoires.
Montrer que :
ps p
Xn ! X ) Xn ! X:
Exercice 5
Soit X une variable aléatoire dont la loi est donnée dans le tableau ci-
dessous :

xi 2 1 1 2
1 3 3 1
P (X = xi ) 8 8 8 8

On pose Y = X 2 :
1. Déterminer la loi de la variable aléatoire Y:
2. Déterminer la loi du couple (X; Y ): Que peut on conclure ?
3. Déterminer Cov(X; Y ):
Exercice 6
On choisit au hasard avec remise six nombres parmi les nombres entiers
de 1 à 9 ; chacun de ces nombres a la même probabilité d’être choisi. Calculer
la moyenne et l’écat-type de la distribution d’échantillonnage des moyennes.
Exercice 7
On suppose que le poids des alevins d’une population est une variable
aléatoire d’écart-type égal à 3g. Dans des conditions données, on a pesé un
échantillon de 45 alevins ; la moyenne observée est de 8,24g.
Donner un intervalle de con…ance du poids moyen des alevins de la
population étudiée.
Combien faudrait-il contrôler d’alevins pour que l’intervalle de con…ance
du poids moyen soit déterminé avec une amplitude de 1g au maximum ? On
prendera 95% pour seuil de con…ance.

xlix
Bibliographie

[1] Ph. TASSI et S. LEGAIT Théorie des probabilités en vue des applica-
tions statistiques. 1990. Editions Technip. Paris
[2] OLIVIER Lévêque. Cours de probabilités et calcul stochastique. EPFL.
Semestre d’hiver 2004-2005
[3] JEAN-PIERRE LECOUTRE. Statistique et probabilités. 3e édition.
DUNOD, Paris2006
[4] M. METIVIER. Notions Fondamentales de la théorie des probabilités
2e éditions. DUNOD. Paris 1972
[5] KHALDI. KHALED. Probabilités : Rappels de cours et exercices corri-
gés OPU
[6] KHALDI. KHALED. Méthodes statistiques et probabilités CASBAH
edition 1999
[7] B. LACAZE-C. MAILHES. Probbabilités et statistiques appliquées. Ré-
sumé de cours et illustrations. CEPAD 1997
[8] GERALD BAILLARGEON. Méthodes statistiques de l’ingénieur vo-
lume 1, 3e édition
[9] ARTHUR CHARPENTIER. COURS DES SERIES TEMPORELLES
THEORIE ET APPLICATIONS.
[10] Anne PHILIPPE. Notes de Cours sur le logiciel R, 26 septembre 2012
[11] Agnes Lagnoux. Renforcement Statistique Séries chronologiques
[12] Laurent FERRARA. Séries Temporelles Avancées Polycopié de Cours
Université Paris Ouest Nanterre et Banque de France
[13] J.J. Daudin, C. Duby, S. Robin & P. Trecourt.Analyse de Séries
Chronologiques, Mai 1996
[14] Christophe Hurlin. Econométrie pour la Finance Modèles ARCH
GARCH

l
BIBLIOGRAPHIE

[15] Christian FRANCQ et Jean-Michel ZAKOEAN.Modèles


GARCH et à volatilité stochastique, 14 décembre 2009
[16] Olivier Gaudoin. Principes et Méthodes Statistiques.
[17] Julien JACQUES. Introduction aux série temporelle, Harner, New
York 1965

li

Vous aimerez peut-être aussi