Polycopie Final Prob-Stat
Polycopie Final Prob-Stat
Polycopie Final Prob-Stat
Département de Mathématiques
Polycopié de cours
Probabilités et Statistique
2015/2016
Table des matières
Convergences xvii
0.4 Convergence en probabilité . . . . . . . . . . . . . . . . . . . . xvii
0.4.1 Inégalité de Markov . . . . . . . . . . . . . . . . . . . . xvii
0.4.2 Inégalité de Bienaymé-Tchebychev . . . . . . . . . . . xvii
0.4.3 Convergence en probabilité . . . . . . . . . . . . . . . . xvii
0.5 Convergence presque-sûre et loi des grands nombres . . . . . . xviii
0.6 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . xxi
i
TABLE DES MATIÈRES
ii
Calcul de probabilités
iii
CHAPITRE 0. CALCUL DE PROBABILITÉS
Dé…nition 0.1.3 Soit = [0; 1]. La tribu borélienne sur [0; 1] est la tribu
engendrée par la famille de sous-ensembles
Elle est notée B ([0; 1]) : Elle contient un très grand nombre de sous-ensembles
de [0; 1], mais pas tous.
Dé…nition 0.1.4 Une sous- tribu de F est une tribu G telle que. Si A 2 G
alors A 2 F: On note G F :
Remarque importante :
Il est toujours vrai que A 2 G et G F ) A 2 F. Mais il est faux de
dire que A B et B 2 F ) A 2 = F:
Contre exemple
f1g ff1; 3; 5g ; f1; 3; 5gg F2 , mais f1g 2
= F2 :
Dé…nition 0.1.5 Soit F une tribu sur : Une (mesure de) probabilité sur
( ; F) est une application P : F ! [0; 1] telle que
i)P ( ) = 0 et P ( ) = 1; P1
ii) (An )1
n=1 F disjoints (i.e An \ Am = ; 8n 6= m) ) P ([1
i=1 An ) = n=1 P (An )
i)Si (An )1
n=1 F; An An+1 et [1
n=1 An = A; alors limn!1 P (An ) = P (A) :
ii)Si (An )1
n=1 F; An An+1 et \1n=1 An = A, alors limn!1 P (An ) = P (A) :
iv
0.1. RAPPEL DE PROBABILITÉS
P n’est pas dé…nie a priori que sur les intervalles, mais est uniquement ex-
tensible à tous ensemble borélien B 2 B ([0; 1]) : Elle est notée
1 1 2
fjxjg = lim x ;x + = lim =0
n!1 n n n!1 n
Généralisation à n dimensions
Soit = [0; 1]n :
* Tribu borélienne : B ( ) = (A), où A = f]a1 ; b1 [ ]a2 ; b2 [ ::: ]an ; bn [ ; 0 ai < bi 1g :
A est la famille des “rectangles”dans :
* Mesure de Lebesgue : P (]a1 ; b1 [ ]a2 ; b2 [ ::: ]an ; bn [) = (b1 a1 ) (b2 a2 ) ::: (bn an ) :
Remarque 0.1.2 X est aussi dite une fonction ou (v.a) F mesurable. -Si
F = P ( ), alors X est toujours F mesurable. -Si = R et F = B (R),
alors X est une fonction borélienne.
1 si ! 2 A
Dé…nition 0.1.8 Pour A , on pose A (!) = On véri…e
0 sinon
que la v.a A est F mesurable ssi A 2 F:
v
CHAPITRE 0. CALCUL DE PROBABILITÉS
1
X1 (!) = ! : P (f! 2 ; X1 (!) = ig) = P (fig) = :
6
3 1
X2 (!) = f1;3;5g (!) : P (f! 2 ; X2 (!) = 1g) = P (f1; 2; 3g) =
= :
6 2
Soit F = P ( ) : X1 et X2 sont toutes deux F mesurables. Soit F2 = f ; f1; 3; 5g f2; 4; 6g ; g :
Seule X2 est F2 mesurable. X1 ne l’est pas. En e¤et :
f! 2 ; X2 (!) = 1g = f1; 2; 3g 2 F2 et
f! 2 ; X2 (!) = 0g = f2; 4; 6g 2 F2
tandis que
f! 2 ; X1 (!) = 1g = f1g 2
= F2 :
Dé…nition 0.1.9 La tribu engendrée par une famille de v.a fXi ; i 2 Ig sur
( ; F; P ) est dé…nie par
(Xi ; i 2 I) = (fXi 2 Bg ; i 2 I; B 2 B (R)) = (fXi tg ; i 2 I; t 2 R)
Exemple 0.1.4 Reprenons l’exemple précédent : (X1 ) = F = P ( ) ; (X2 ) =
F2 6= P ( ) :
Proposition 0.1.2 Si g : R ! R est borélienne et X : ! R est une v.a,
alors g (X) est une v.a.
NB :
(R; B (R) ; X) forme un nouvel espace de probabilité
Exemple 0.1.5 Soit
1
= f1; :::; 6g ; F = P ( ) ; P (fig) = 8i;
6
Soit
1
= f1; :::; 6g f1; :::; 6g ; F = P ( ) ; P (fi; jg) = ; 8 (i; j) 2 P ( ) :
36
vi
0.1. RAPPEL DE PROBABILITÉS
X (!) = X (! 1 ; ! 2 ) = ! 1 + ! 2 :
On a alors. p.ex :
1 1
X (7) = P (fX = 7g) = P (f(1; 6) ; (2; 5) ; (3; 4) ; (4; 3) ; (5; 2) ; (6; 1)g) = 6 =
36 6
vii
CHAPITRE 0. CALCUL DE PROBABILITÉS
P(X;Y ) ( ) = P ((X; Y ) 2 )
P(X;Y ) ( ) = P (X 2 1; Y 2 2)
viii
0.2. COUPLES DES VARIABLES ALÉATOIRES
Si la loi du couple est présentée dans un tableau, ces lois sont obtenues dans
les marges, par sommation de ligne ou de colonne.
Y nX xi
. . .
. . .
yj Pij P:j
. . .
. . .
Pi: 1
P (X = xi ; Y = yj ) Pij
P (X = xi j Y = yj ) = = = Pij
P (Y = yj ) P:j
ix
CHAPITRE 0. CALCUL DE PROBABILITÉS
Exemple 0.2.2 La loi d’un couple (X; Y ) est donnée par le tableau suivant :
Y nX 2 0 2
1 0; 1 0; 2 0; 1 0; 4
2 0; 2 0; 2 0; 2 0; 6
0; 3 0; 4 0; 3 1
La loi conditionnelle de X pour Y = 1 …gure dans le tableau ci-après :
Xj Y = 1 2 0 2
0;1 0;2 0;1
0;4 0;4 0;4
1
Dans ce cas, bien entendu, les lois conditionnelles sont confondues avec les
lois marginales ; par exemples :
Pi: P:j
P (X = xi j Y = yj ) = Pij = = Pi:
P:j
C’est l’un des seuls cas où la donnée des lois marginales permet de recons-
truire la loi du couple.
x
0.2. COUPLES DES VARIABLES ALÉATOIRES
xi
CHAPITRE 0. CALCUL DE PROBABILITÉS
Exemple 0.2.4 Considérons le couple (X; Y ) dont la loi est dé…nie par le
tableau suivant :
Y nX 1 0 1
1 1 1
1 8 8 8
1 1 1
0 16 8 16
1 1 1
1 8 8 8
1 1; avec : j j = 1 , 9a 2 R ; 9b 2 R : Y = aX + b:
L’application F est croissante au sens large par rapport à chacune des deux
variables et telle queb 0 F (x; y) 1, avec pour valeurs limites F ( 1; y) =
F (x; 1) = 0 pour tout x réel et pour tout y réel et F (+1; +1) = 1:
xii
0.3. COUPLE DE VARIABLES ALÉATOIRES CONTINUES
Si F est deux fois dérivables par rapport aux deux variables, alors la loi
de (X; Y ) est dite absolument continue, de densité f dé…nie par :
@ 2 F (x; y)
f (x; y) =
@x@y
Exemple 0.3.1 La loi de (X; Y ) est dé…ne par la densité :
exp ( x) si 0 x y
f (x; y) =
0 sinon
Calculon la fonction de répartition :
8
> si x0 0 ou y0 0 F (x0 ; y0R)x=
>
> R0 y0
>
>
0
Si 0 x0 y0 F (x0 ; y0 ) = 1 1 f (x; y) dxdy
>
>
< R x0 R y=y0
= x=0 y=x exp ( y) dy dx
>
> = 1 exp ( x0 ) x0 exp ( y0 )
>
>
>
> En …n si 0 y0 x1 F (x1 ; y0 ) = F (y0 ; y0 )
>
:
= 1 exp ( y0 ) y0 exp ( y0 ) :
C’est-à-dire :
8
< 0 si x 0 ou y 0
F (x; y) = 1 exp ( x) x exp ( y) si 0 x y
:
1 exp ( y) y exp ( y) si 0 y x
xiii
CHAPITRE 0. CALCUL DE PROBABILITÉS
et par dérivation :
fX (x) = exp ( x) pour x > 0, densité de la loi exponentielle ou (1) [X ! exp (1)] :
f (x; y)
fX (x jY = y ) = si fY (y) > 0
fY (y)
f (x; y)
fY (y jX = x ) = si fX (x) > 0
fX (x)
fX (x jY = y ) = fX (x) et fY (y jX = x ) = fY (y) 8x 2 R; 8y 2 R
xiv
0.3. COUPLE DE VARIABLES ALÉATOIRES CONTINUES
donc les variables aléatoires X et X 2 ont une covariance nulle alors qu’elles
sont dépendantes (mais non linéairement) puisque la seconde est fonction de
la première.
ayant posé :
2 2
V ar (X) = X et V ar (Y ) = Y
Nous allons établir que ce coe¢ cient est compris entre 1 et +1, en raison
de l’inégalité de Schwarz :
p p
jE (XY )j E (X 2 ) E (Y 2 )
E (X Y )2 = 2
E Y2 2 E (XY ) + E X 2 0
xv
CHAPITRE 0. CALCUL DE PROBABILITÉS
0.3.5 Régression
Les densités conditionnelles permettent de calculer les moments condi-
tionnels, comme par exemple les espérances ; on peut dé…nir notamment la
fonction :
x 7! E (Y jX = x )
qui s’appelle fonction de régression (non linéaire), son graphe étant la courbe
de régression de Y en X: Pour une loi absolument continue, on obtient :
Z+1
E (Y jX = x ) = yf (Y = y jX = x ) dy
1
Z+1
f (x; y)
= y dy
fX (x)
1
xvi
Convergences
1 E (X)
P (X E (X)) ou P (X )
V ar (X)
P (jX E (X)j) 2
xvii
CHAPITRE 0. CONVERGENCES
Xn et X par jXn Xj qui sera d’autant plus petite que n sera grand ; mais,
s’agissant de v.a, il faut considérer l’événement jXn Xj < qui sera réalisé
avec une probabilité d’autant plus élevée que n sera grand.
On va donc associer à la suite aléatoire (Xn ) la suite numérique des pro-
babilités de ces événements, qui devra converger vers un.
on écrit : Xn ! X:
P
Pour cela, nous allons calculer, pour un > 0 …xé, la probabilité P (jXn j) >
= P (Xn > ) (puisque Xn est une v.a positive). Pour 1 : P (Xn > ) =
0:Pour < 1: Toutes les v.a Un étant indépendantes, de même loi que U avec
P (U < x) = x pour 0 x 1; on obtient :
h n
i n
P (jXn j) > =P \ (Ui > ) = P (Ui > ) = (1 P (U < ))n
i=1 i=1
n
= (1 ) ! 0, d’où Xn ! 0:
n!1 P
xviii
0.5. CONVERGENCE PRESQUE-SÛRE ET LOI DES GRANDS
NOMBRES
Dé…nition 0.5.1 On dit que la suite de variables aléatoires (Xn ) converge
presque sûrement vers la variable aléatoire X quand n tend vers l’in…ni si :
on note :
h i
P:S
Xn ! X lim Xn (!) = X (!) 8! 2 A; P (A) = 1
n!1 n!1
Théorème 0.5.1 (Xn ) et (X) étant des variables aléatoires réelles, les quatres
propriétés suivantes sont équivalentes :
PS
a)Xn ! X
xix
CHAPITRE 0. CONVERGENCES
Théorème 0.5.2 (Loi des grands nombres :LGN) Soient (Xn )1 n=1 une
suite de v.a indépendantes et identiquement distribuée (i.i.d) et Sn = X1 +
::: + Xn . Si E (jX1 j) < 1, alors :
Sn P
a)Loi faible : ! E (X1 )
n n!1
Sn P S
b)Loi forte : ! E (X1 )
n n!1
Exemple 0.5.1 Soit (Xn ) une suite de pile (1) ou face (0) indépendants et
1
équilibrés. Du fait que E (X1 ) = < 1, on a par la loi forte des grands
2
Sn 1 n
nombres : ! P:S,i.e : Sn ' :
n 2 2
n
Question : Quelle est la déviation moyenne de Sn :
2
1 1
On a : E (X1 ) = et V ar (X1 ) = , donc donc théorème central limite
2 4
TCL donne :
n p
Sn n n
2
p 1 ! Z ! N (0; 1) ; i:e : Sn ' + Z
n2 2 2
p
donc la déviation est d’ordre n:
xx
0.6. CONVERGENCE EN LOI
E (f (Xn )) ! E (f (X))
n!1
Propriétés
La convergence en loi de Xn vers X est équivalente à chacune des propo-
riétés suivantes :
1. Convergence simple des fonctions caractéristiques :
'Xn (t) ! 'X (t) 8t 2 R
n!1
Théorème 0.6.1 Soit (Xn )n 1 une suite de variables aléatoires réelles in-
dépendantes et de même loi, de moyenne m et de variance 2 …nies, soit :
Sn = X1 + ::: + Xn : Alors :
Sn nm loi loi
p ! S ! N (0; 1)
n n!1 n!1
xxi
CHAPITRE 0. CONVERGENCES
i.e :
Zt
Sn nm 1 1 2
P p t ! p exp x dx = (t) 8t 2 R
n 2 2
1
xxii
Statistique inférentielle
0.7 Echantillonnage-Estimation
I-Introduction
L’etude des caractéristiques de tous éléments d’une population est souvent
impossible à réaliser en raison de contraintes de coùts et de temps.
Cette impossibilité conduit à étudier un sous-ensemble issu de la popula-
tion mère : L’échantillon.
L’échantillonnage consiste à déduire de la connaissance supposée connue
des caractéristiques d’une population, les caractéristiques des échantillons
prélvés dans cette population.
Lestimation est le problème inverse. Il s’agit d’estimer, à partir des ca-
ractéristiques calculeés sur un ou plusieurs échantillons, la valeur des carac-
téristiques de la population mère.
xxiii
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE
Sans remise :
L’échantillon est exhaustif, mais les tirages ne sont pas indépendants
puisque la composition de la population mère est modi…ée à chaque tirage.
Dans la suite, pour pouvoir appliquer les règles du calcul des probabili-
tés, les échantillons seront supposés être constitués avec remise, ou être des
échantillons sans remise dont la taille est négligable par rapport à celle de la
population qui est grande taille ou in…nie (le tirage est alors assimilable à un
tirage avec remise).
Indiquons la procédure à mettre en oeuvre pour constituer un échantillon
à l’aide d’une table de nombre aléatoires.
Cette table est constituée des nombres 0; 1; 2; 3; 4; 5; 6; 7; 8; 9 et chacune
des valeurs entières a la même probabilité d’apparition.
N’importe lequel nombre de la table n’a aucune relation avec le nombre
au-dessus, en-dessous, à la droite ou à la gauche de lui.
les nombres sont éparpillés au hasard dans la table que nous utilisons,
les nombres sont regroupés en colonnes de 5 chi¤res, chaque ligne comporte
50 nombres (10 groupes de 5). Pour choisir des nombres de la table, il s’agit
simplement :
a) De choisir un point d’entrée dans la table.
b) De choisir itinéraire de lecture. On peut lire les nombres en ligne ( de
gauche à droite ou de bas en haut).
On pourrait également sauter un nombre sur deux, etc...
xxiv
0.7. ECHANTILLONNAGE-ESTIMATION
ne retenir que les résultats de lecture qui soient compris entre 001 et 300:
Puisqu’on e¤ectue un tirage sans remise, on rejette tout nombre déja sortie
qui apparait à nouveau dans la procédure de sélection. On obtient alors les 10
nombres suivants : Les individus portant les numéros suivants dans la base
de sondage vont constituer l’echantillon de taille n = 10:
xxv
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE
Xn = p
n
Remarque 0.7.1 Si les échantillons sont issus d’une population mère …nie
et sont constituée sans remise. L’espérance mathématique de X n est tou-
jours égale à m, mais l’écart-type est corrigé par le facteur d’exhaustivité
(facteur de correction)
r r
N n n n
Xn = p p 1 tel que représente le taux de sondage.
n N 1 n N N
Justi…cation mathématique : Espérance mathématique et variance
de X, la moyenne d’échantilllon
JUsti…cation
X1 + X2 + ::: + Xn 1
V ar X = V ar = [V ar (X1 + X2 + ::: + Xn )]
n n2
xxvii
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE
xxviii
0.8. ESTIMATION DE PARAMÈTRES
Théorème 0.8.1 Tout estimateur sans biais dont la variance tend vers zéro
est convergent.
h i V ar b
P bn >" ! 0 quand n ! 1
"2
xxix
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE
E X =m
2
V ar X = n
! 0 quand n ! 1
Exemple 0.8.3 S 2 = 2
echantillon = 2
echa est un estimateur sans biais de 2
:
X 2
Xi X
i
Car : S 2 = ; E S2 = 2
n 1
On peut écrire
X 2 X 2
(n 1) S 2 = Xi X = (Xi m) X m
i i
Dans le cas particulier d’un estimateur sans biais, cette erreur quadratique
se confond avec la variance de l’estimateur.
xxx
0.8. ESTIMATION DE PARAMÈTRES
V ar b1 < V ar b2 et E b1 = E b2 =
X1 + 2X2 + 3X3
b =
m est un estimateur sans biais de m mais qu’il est moins e¢ cace que
6
P
Xi
X= i
3
C’est-à-dire que
b = m et V ar (m)
E (m) b
b > V ar X
X1 + 2X2 + 3X3 1 6m
b =E
E (m) = [E (X1 ) + 2E (X2 ) + 3E (X3 )] = =m
6 6 6
xxxi
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE
b :
Déterminons maintenant V ar (m)
14 2
b =
V ar (m)
36
Or
2 2
2 14 2
V ar X = = , d’où 0; 333 < :
n 3 36
b pour estimer m:
Par conséquent X est plus e¢ cace que m
@ 2 ln l
In ( ) = E
@ 2
xxxii
0.8. ESTIMATION DE PARAMÈTRES
1 x
f (x; ) = exp
1 X
n
@ ln l n
= + 2 xi
@ i=1
@ 2 ln l n 2 X
n
2 = 2 3 Sn tq Sn = xi
@ i=1
D’où :
@ 2 ln l n 2n n
In ( ) = E = + = 2:
@ 2 2 3
xxxiii
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE
min fxi =1 i ng
on a alors :
X
n
ln L (x1 ; x2 ; :::; xn ; ) = xi + n :
i=1
d’où
2
@ ln l @ ln l
= n et In ( ) = E = n2 :
@ @
xxxiv
0.8. ESTIMATION DE PARAMÈTRES
1 X
n
@ ln l n
= + 2 xi = 0
@ i=1
1X
n
) = xi = X n avec :
n i=1
2 X
n
@ 2 ln l n n
= xi = 2X n soit pour = Xn
@ 2 2 3
i=1
3
@ 2 ln l n
= < 0; donc l’emv est = X n:
@ 2 =X n Xn
2
xxxv
CHAPITRE 0. STATISTIQUE INFÉRENTIELLE
P X k m X +k =1
X k m X + k:
P X k m X +k =1
xxxvi
0.8. ESTIMATION DE PARAMÈTRES
D’où 0 1
B X m C
P@ Z Z A=1
2 p 2
n
Alors 0 1
P @X Z p m X +Z p A=1
n n
2 2
qui est de la forme
P X k m X +k =1
d’où ;
k=Z p :
n
2
Exemple 0.8.9 Un laboratoire indépendant à véri…é pour le compte de l’of-
…ce de la protection du consomateur, la résistance à l’éclatement en kg lcm2
d’un réservoir à essance d’un cèrtain fabricant. Des essais similaires e¤ecués
il y a un an, permettent de considérer que la résistance à l’éclatement est
distribuée normalement avec une variance de 9. Des essais sur un échan-
tillon de 10 réservoires conduisent à une résistance moyenne à l’éclatement
de 219kg lcm2 : Estimer par intervalle de con…ance la résistance moyenne à
l’éclatement de ce type de réservoir avec un niveau de con…ance de 95%:
X = 219
p
= 9 = 3kg lcm2
xxxvii
Tests d’hypothèses
Introduction
Soit une hypothèse H0 concernant une population sur la base des résultats
d’échantillons extraits de cette population ont est amené à accepter ou rejeter
l’hypothèse H0 .
Les règles de décisions sont appelées tests statistiques.
H0 désigne l’hypothèse dite hypothèse nulle et par H1 on note l’hypothèse
dite hypothèse alternative on a :
xxxviii
0.9. CATÉGORIES DE TESTS
H0 : = 0
H1 : = 1
H0 : = 0
b)
H1 : > 1
H0 : = 0
c)
H1 : < 1
H0 : F (x) = F0 (x)
6 F0 (x)
H1 : F (x) =
xxxix
CHAPITRE 0. TESTS D’HYPOTHÈSES
on maximise la quantité :
Z Z
L (x; 1)
1 = L (x; 1 ) dx = P (! 0 jH1 ) = 1 = L (x; 0 ) dx
L (x; 0)
!0 !0
xl
0.9. CATÉGORIES DE TESTS
0 et 1 sont les deux valeurs d’un même paramètre des deux populations P1
et P2 :
H0 : m 1 = m 2
H1 : m1 6= m2
où
H0 : m 1 m2 = 0
H1 : m 1 m2 6= 0
r !
2 2
1 2
si H0 est vraie, m1 m2 = 0 et X 1 X2 ! N 0; + : On a alors :
n1 n2
P (jZj U )=1
où
X1 X2 (m1 m2 ) X1 X2 0
Z= r 2 2
= r 2 2
1 2 1 2
+ +
n1 n2 n1 n2
xli
CHAPITRE 0. TESTS D’HYPOTHÈSES
X1 X2
suit une loi normale N (0; 1) : On accepte H0 si la valeur z = r 2 2
de
1 2
+
n1 n2
Z telle que :
U z U
où la valeur U est obtenue par la lecture de la table de la loi normale N (0; 1) :
On rejette H0 si jZj > U . On dira que la di¤érence est signi…cative entre
X 1 et X 2 :
2 2
Remarque 0.9.1 i) Si 1 et 2 sont inconues, on les remplace par lers es-
timateurs :
n1
X
1 2
S12 = Xi X1
n1 1 i=1
et
n2
X
1 2
S22 = Xi X2 respectivement.
n1 1 i=1
X1 X2
Z=r 2 suit une loi normale N (0; 1) (si H0 est vraie c-à-d m1 m2 = 0)
S1 S22
+
n1 n2
ii) Si les échantillons sont de tailles repectives n1 < 30 et n2 < 30; le test
n’est plus valable car le théorème central limite ne s’applique plus. mais pour
deux population P1 et P2 suivant des lois normales N (m1 ; 1 ) et N (m2 ; 2 )
repectivement ayant des écarts-type 1 et 2 égaux et inconnus, c-à-d 1 =
2 = on a :
X X2
t = r1 suit une loi de Student à n1 + n2 2 degrés de liberté,
1 1
S +
n1 n2
S 2 étant l’estimation ponctuelle de 2 :
on accepte alors H0 si jtj < U où U est une valeur obtenue par la lecture de
la table de la loi t de Student-Fisher (nombre de degrés de liberté n1 +n2 2;
seuil de signi…cation )
xlii
0.9. CATÉGORIES DE TESTS
xliii
CHAPITRE 0. TESTS D’HYPOTHÈSES
xliv
0.9. CATÉGORIES DE TESTS
xlv
CHAPITRE 0. TESTS D’HYPOTHÈSES
n exp ( nx)
fn (x) =
(1 + exp ( nx))2
III)
Soit (Xn )n 1 une suite de variables aléatoires réelles indépendantes et de
même loi, de moyenne m et de variance 2 …nies. Soit Sn = X1 + ::: + Xn ,
Sn nm loi
alors p ! N (0; 1) :
n n!1
Exercice 8
1. Supposons qu’une population consiste d’unités statistiques dont le ca-
ractère mesurable de chacune est :
xlvi
0.9. CATÉGORIES DE TESTS
Exercice 10
On suppose que le poids des alevins d’une population est une variable
aléatoire d’écart-type égal à 3g. Dans des conditions données, on a pesé un
échantillon de 45 alevins ; la moyenne observée est de 8,24g.
Donner un intervalle de con…ance du poids moyen des alevins de la
population étudiée.
Combien faudrait-il contrôler d’alevins pour que l’intervalle de con…ance
du poids moyen soit déterminé avec une amplitude de 1g au maximum ? On
prendera 95% pour seuil de con…ance.
Exercice 11
Le revenu mensuel X d’une certaine population suit une loi de Pareto de
densité : 8
> 1
>
>
>
< x0
f (x; ) = si x > x0
> 1
>
> 1+
> x
:
0 si x x0
où x0 > 0 est le revenu minimum, connu, et un paramètre strictement positif
que l’on se propose d’estimer à partir d’un échantillon (X1 ; X2 ; :::; Xn ) de X:
1) Calculer la vraisemblance L (X1 ; X2 ; :::; Xn ; ) :
2) Déterminer l’estimateur du maximum de vraisemblance bn de et
etudier ses propriétés.
Exercice 12
Sur 2424 naissances, on a trouvé 1270 garçons et 1154 …lles.
1) Donner une estimation du pourcentage de garçons à la naissance dans
la population, ainsi que l’intervalle de con…ance de ce pourcentage aux risques
5% et 1%.
2) Combien de naissances doit-on recenser pour connaître le pourcentage
de garçons dans la population avec une précision égale à 0,5% au risque 5%.
xlvii
CHAPITRE 0. TESTS D’HYPOTHÈSES
Examens naux
Exercice 1
I) Soit X et Y deux variables aléatoires indépendantes et de même loi
uniforme sur ] 1; 1[. Déterminer la loi de probabilité de la variable aléatoire
Z=Y X:
Z = min (X; Y ) :
Exercice 2
On e¤ectue n expériences successives indépendantes où on s’intéresse à
chaque fois à la réalisation d’un certain événement A: On associe donc à
1 p
chaque expérience i; 1 i n; une variable de Bernoulli Xi = .
0 q=1 p
Montrer que la fréquence empirique, c’est à dire le pourcentage de réali-
sation de A est :
1X
n
fn = Xi = X
n i=1
xlviii
0.9. CATÉGORIES DE TESTS
Question de cours
Soient (Xn ) et X étant des variables aléatoires.
Montrer que :
ps p
Xn ! X ) Xn ! X:
Exercice 5
Soit X une variable aléatoire dont la loi est donnée dans le tableau ci-
dessous :
xi 2 1 1 2
1 3 3 1
P (X = xi ) 8 8 8 8
On pose Y = X 2 :
1. Déterminer la loi de la variable aléatoire Y:
2. Déterminer la loi du couple (X; Y ): Que peut on conclure ?
3. Déterminer Cov(X; Y ):
Exercice 6
On choisit au hasard avec remise six nombres parmi les nombres entiers
de 1 à 9 ; chacun de ces nombres a la même probabilité d’être choisi. Calculer
la moyenne et l’écat-type de la distribution d’échantillonnage des moyennes.
Exercice 7
On suppose que le poids des alevins d’une population est une variable
aléatoire d’écart-type égal à 3g. Dans des conditions données, on a pesé un
échantillon de 45 alevins ; la moyenne observée est de 8,24g.
Donner un intervalle de con…ance du poids moyen des alevins de la
population étudiée.
Combien faudrait-il contrôler d’alevins pour que l’intervalle de con…ance
du poids moyen soit déterminé avec une amplitude de 1g au maximum ? On
prendera 95% pour seuil de con…ance.
xlix
Bibliographie
[1] Ph. TASSI et S. LEGAIT Théorie des probabilités en vue des applica-
tions statistiques. 1990. Editions Technip. Paris
[2] OLIVIER Lévêque. Cours de probabilités et calcul stochastique. EPFL.
Semestre d’hiver 2004-2005
[3] JEAN-PIERRE LECOUTRE. Statistique et probabilités. 3e édition.
DUNOD, Paris2006
[4] M. METIVIER. Notions Fondamentales de la théorie des probabilités
2e éditions. DUNOD. Paris 1972
[5] KHALDI. KHALED. Probabilités : Rappels de cours et exercices corri-
gés OPU
[6] KHALDI. KHALED. Méthodes statistiques et probabilités CASBAH
edition 1999
[7] B. LACAZE-C. MAILHES. Probbabilités et statistiques appliquées. Ré-
sumé de cours et illustrations. CEPAD 1997
[8] GERALD BAILLARGEON. Méthodes statistiques de l’ingénieur vo-
lume 1, 3e édition
[9] ARTHUR CHARPENTIER. COURS DES SERIES TEMPORELLES
THEORIE ET APPLICATIONS.
[10] Anne PHILIPPE. Notes de Cours sur le logiciel R, 26 septembre 2012
[11] Agnes Lagnoux. Renforcement Statistique Séries chronologiques
[12] Laurent FERRARA. Séries Temporelles Avancées Polycopié de Cours
Université Paris Ouest Nanterre et Banque de France
[13] J.J. Daudin, C. Duby, S. Robin & P. Trecourt.Analyse de Séries
Chronologiques, Mai 1996
[14] Christophe Hurlin. Econométrie pour la Finance Modèles ARCH
GARCH
l
BIBLIOGRAPHIE
li