Polycopie - Sayah BISKRA
Polycopie - Sayah BISKRA
Polycopie - Sayah BISKRA
Polycopie en Mathématique
Option : Probabilités
Par
Dr. SAYAH Abdallah
Support de Cours :
La Théorie des Probabilités
2014/2015
Table des matières
Introduction 1
1 Espace de probabilités 3
1.0.1 Expérience aléatoire et évènements . . . . . . . . . . . . . . . . . . 3
1.0.2 Algèbre et -algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.0.3 Espace de probabilités . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.0.4 Probabilité conditionnelle et indépendance . . . . . . . . . . . . . . 7
2 Variables aléatoires 14
2.0.5 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.0.6 Type de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . 16
2.0.7 Caractéristiques d’une variable aléatoire . . . . . . . . . . . . . . . 20
2.0.8 Loi d’une fonction d’une variable aléatoire Y = (X) . . . . . . . . 31
3 Couple aléatoire 35
3.0.9 Fonction de répartition d’un couple . . . . . . . . . . . . . . . . . . 35
3.0.10 Loi de probabilité d’un couple aléatoire discrètes . . . . . . . . . . . 36
3.0.11 Loi de probabilité d’un couple aléatoire continue . . . . . . . . . . . 38
2
Table des matières
Bibliographie 80
3
Introduction
1
Introduction
2
Chapitre 1
Espace de probabilités
Historiquement, la théorie des probabilités s’est développé à partir du XVIIe siècle autour
des problèmes de jeux dans des situations où le nombre de cas possibles est …ni dont elle
fournit des modèles mathématiques permettant l’étude d’expériences dont le résultat ne
peut être prévu avec une totale certitude.
Expérience aléatoire
Toute expérience qu’on ne peut pas connaitre son résultat par avance lorsqu’on répète
l’expérience dans les mêmes conditions s’appelle expérience aléatoire.
Exemple 1 : Le jet d’un dé, ainsi que l’extraction d’une carte d’un jeu sont des expé-
riences aléatoires.
Dans une expérience aléatoire, une proposition relative au résultat de cette expérience
s’appelle un évènement par exemple dans le jet d’une pièce de monnaie on a deux résultats
possibles pile où face.
L’ensemble de tous les résultats possibles d’une expérience aléatoire s’appelle espace des
3
Chapitre 1. Espace de probabilités
1) 2A
2) 8A 2 A =)A 2 A
3) 8A; B 2 A =)A [ B 2 A:
4) 8A; B 2 A =)A \ B 2 A:
4
Chapitre 1. Espace de probabilités
1) 2 A:
\
2) 8Ai (i 2 I …ni) : Ai 2 A:
i2I
[
3) 8Ai (i 2 I …ni) : Ai 2 A:
i2I
1) 2T
2) 8A 2 T =) A 2 T
[
1
3) 8Ai 2 T =) Ai 2 T
i=1
Soit un espace d’évènements et T une tribu sur ; alors le couple ( ; T ) s’appelle espace
probabilisable.
Dé…nition 4 : Les évènements A; B sont dits incompatibles si la réalisation de l’un exclu
la réalisation de l’autre, autrement dit A \ B = ?
Dé…nition 5 : Soient les évènements non vides A1 ; A2 ; :::An ; alors on dit que ces évène-
5
Chapitre 1. Espace de probabilités
1) Ai \ Aj = ? 8i 6= j
[n
2) Ai = :
i=1
P ( ) = 1;
!
[
1 X
1
P Ai = P (Ai ) (axiome additivité):
i=1 i=1
1) P A = 1 P (A)
2) 1 = P A [ A = P A + P (A)
3) Si A B =) P (A) P (B) (inégalité de Boole)
4) P (A [ B) = P (A) + P (B) P (A \ B) :
Xn
5) 8A 2 T =) P (A) = P (A \ Bi ) ;
i=1
6
Chapitre 1. Espace de probabilités
P (A \ B)
P (A=B) = :
P (B)
!
[
1
! ! P (Ai \ B)
[
1 [
1
i=1
PB Ai = P Ai =B =
i=1 i=1
P (B)
X
1
P ((Ai \ B))
i=1
X
n
= = P (Ai =B) :
P (B) i=1
d’où
7
Chapitre 1. Espace de probabilités
P (A1 \ A2 \ ::: \ An ) = P (A1 ) P (A2 =A1 ) P (A3 =A2 \ A1 ) :::P (An =A1 \ A2 \ ::: \ An 1 ) :
X
n
P (A) = P (Ai ) P (A=Ai )
i=1
Preuve : On a
!
[
n [
n
A=A\ =A\ Ai = (A \ Ai ) :
i=1 i=1
!
[
n X
n
P (A) = P (A \ Ai ) = P (A \ Ai ) = P (Ai ) P (A=Ai ) :
i=1 i=1
8
Chapitre 1. Espace de probabilités
[
4
D= (D \ Mi ) ;
i=1
d’où
Formule de Bayes
P (A \ B)
P (B=A) = ;
P (A)
alors on a
P (A \ B) P (B=A) P (A)
P (A=B) = = :
P (B) P (B)
On remarque que
9
Chapitre 1. Espace de probabilités
ainsi
P (B=A) P (A)
P (A=B) = :
P (B=A) P (A) + P B=A P A
P (Ai ) P (A=Ai )
P (Ai =A) =
P (A)
P (Ai ) P (A=Ai )
= n :
X
P (Ai ) P (A=Ai )
i=1
Preuve : On a :
[
n
A= (A \ Ai )
i=1
d’où le résultat.
Ce théorème permet d’évaluer les probabilités des di¤érents évènements A1 ; A2 :::; An qui
peuvent causer la réalisation de l’évènement A:
Exemple 8 : Si on reprend l’exemple 7 en supposant que la pièce tirée est défectueuse,
alors la question qui se pose est de quelle machine provient -elle ?
On cherche par exemple P (M2 =D) :
D’aprés la formule de Bayes
10
Chapitre 1. Espace de probabilités
P (M2 ) P (D=M2 ) 0; 3 0; 02
P (M2 =D) = = = 0; 169
P (D) 0; 0355
Evènements indépendants
P (A=B) = P (A)
P (B=A) = P (B) :
P (A \ B) = P (A) P (B)
Ce qui signi…e que la probabilité de la réalisation de l’évènement A n’est pas in‡uée par
la réalisation de B et inversement.
Exemple 9 : On lance une pièce de monnaie trois fois de suite, donc l’ensemle des résultats
possibles est = fppp; ppf; pf f; f f f; f f p; f pp; pf p; f pf g ; où f signi…e que le résultat du
lancer est face et p est pile.
Soint les évènements : A avoir face au premier jet, B avoir face deux fois de suite et C
avoir face au second jet.
Etudier l’indépendance de ces évenements.
On a :
d’où
11
Chapitre 1. Espace de probabilités
et
!
\
n Y
n
P Ai = P (Ai ) ;
i=1 i=1
Formule de Poincarré
12
Chapitre 1. Espace de probabilités
P (A [ B) = P (A) + P (B) P (A \ B) ;
et
Généralisation à n évènements
Soient A1 ; A2 ; :::; An ; n évènements quelconques d’un espace de probabilité ( ; T ; P ) liés
à une expérience aléatoire, alors :
!
[
n X
n
P Ak = ( 1)k 1
Sk ;
k=1 k=1
où
X X X
Sk = ::: P (Aj1 \ Aj2 \ ::: \ Ajk ) :
1 j1 j2 ::: jk n
13
Chapitre 2
Variables aléatoires
Considérons le lancer de deux dés, cette expérience nous donne l’ensemble des résultats
1
= f(1; 1) ; (1; 2) ; :::; (6; 6))g ; on remarque que 8! 2 on a P (!) = :
36
On s’intérèsse maintenant à la somme marquée par les deux dés, donc on a dé…ni une
1
application : S de vers l’ensemble E = f2; 3; :::; 12g ; par exemple P (S = 5) = :
9
1
En général on a : P (S = s) = P (S (s)) :
On remarque que cette somme dépend de valeurs aléatoires, donc il s’agit d’une variable
aléatoire.
Une variable aléatoire X est une application de ( ; T ; P ) dans (R; BR ) ; où BR est une
tribu ou la -algèbre engendrée par les intervalles de R:
Dé…nition 11 : Soient ( ; T ; P ) un espace de probabilité, une variable aléatoire reèlle X
est une application :
X : ( ; T ; P ) ! (R; BR ) ;
1
ceci signi…e que (8B 2 BR : X (B) 2 T ) ; et la variable X est appelée variable aléatoire
reèlle.
Soit l’ensemble Ax = f! 2 : X (!) xg ; alors X est une variable aléatoire réelle si et
seulement si Ax 2 T :
14
Chapitre 2. Variables aléatoires
Exemple 10 : Soit
X : ( ; T ; P ) ! (R; BR )
! ! X (!) ;
où
8
>
< 1 si ! 2 A
X (!) =
>
: 0 si ! 2 A:
Si
x < 0 =) Ax = ? 2 T ;
et si
0 x < 1 =) Ax = A 2 T ; et si x 1 =) Ax = A [ A 2 T ;
Considérons l’application
P : R ! [0; 1]
x ! P (Ax )
où
P (Ax ) = P (! 2 ; X (!) x) ;
15
Chapitre 2. Variables aléatoires
et si
en…n si
x 1 =) F (x) = P A [ A = P ( ) = 1:
Variable discrète
16
Chapitre 2. Variables aléatoires
3) Nombre d’appels arrivants à un standard téléphonique en une minute : X (!) prend les
valeurs de 0 à 5 par exemple.
Pour ce type de variables on dé…nit en chaque point xi 2 I = fx0 ; x1 ; :::xk :::g la fonction
poids ou la fonction de masse par :
P (X = xi ) = P (xi ) 8xi 2 I;
véri…ant
X
0 P (xi ) 1 et P (xi ) = 1:
xi 2I
Dé…nition 13 : Une variable aléatoire est dite absolument continue ou continue si elle
peut prendre toutes les valeurs d’un intervalle de R.
Dans ce cas, il ne s’agira plus de calculer une probabilité d’une valeur donnée mais d’un
intervalle.
Exemple 13 : Citons quelques exemples de variables aléatoires continues
1) Temps d’attente pour prendre un avion :X (!) 2 [0; 20 min]
2) Moyenne de poids de 25 étudiants pris aléatoirement : X (!) 2 [a; b] :
Autre dé…nition d’une variable aléatoire absolument continue.
Dé…nition 14 : On dira qu’une variable aléatoire reélle est absolument continue s’il existe
une fonction positive f dé…nie pour tout reél x et toute partie B de R véri…ant :
17
Chapitre 2. Variables aléatoires
Z
1) P (X 2 B) = f (x) dx:
B
Z1
2) P (X 2 ] 1; 1[) = f (t) dt:
1
Zb
3) P (a X b) = f (t) dt:
a
Za
4) P (X = a) = f (t) dt = 0:
a
Fonction de répartition
X
F (x) = P (xi ) :
xi x
8
>
> 0 si x < x1
>
>
>
>
>
>
>
> P (x1 ) si x1 x < x2
<
F (x) = P (x1 ) + P (x2 ) si x2 x < x3
>
>
>
>
>
> :
>
>
>
>
: 1 si x xn :
(Dans ce cas, F est une fonction en escaliers, continue à gauche, ayant pour limite 0 en
1 et 1 en +1).
Propriétés :
1) F est non décroissante.
2) F est continue à gauche.
3) 8x0 2 R; P (X = x0 ) = lim F (x) F (x0 ) :
x!x0
18
Chapitre 2. Variables aléatoires
Zx
0
f (x) = F (x) et F (x) = f (t) dt:
1
et la fonction F est dérivable et admet pour dérivée une fonction f appelée densité.
On remarque que la fonction densité f satisfait les deux conditions suivantes :
1) f (x) 0 8x 2 R:
Z
2) f (x) dx = 1:
R
8
>
>
>
> 0 si x<a
<
F (x) = x a
si a x < b
>
> b a
>
>
: 1 si x b:
La fonction F est continue sur R; et la fonction densité associée à cette fonction de répar-
tition est dé…nie par :
8
>
< 1
b a
si a < x < b
f (x) =
>
: 0 sinon.
19
Chapitre 2. Variables aléatoires
Tendance centrale
Quantile
8
>
< 1 exp ( x) si x > 0
F (x) =
>
: 0 sinon.
1
L’équation F (x ) = 0; 2 admet une solution x = F (0; 2) :
1 exp ( x ) = 0; 2 =) x = ln 0; 8:
Nous énonçons quelques quantiles particuliers.
Médiane
20
Chapitre 2. Variables aléatoires
La médiane divise la population en deux parties égales, c’est une caractéristique de ten-
dance centrale.
Les quartiles
Les déciles
Le Mode :
Espérance mathématique
L’espérance mathématique d’une variable aléatoire est une notion trés importante en pro-
babilité et statistiques, cette espérance ou moyenne est une valeur unique qui joue le rôle
de représentation de la moyenne des valeurs de X; pour cela elle est appelée souvent mesure
de tendance centrale.
Dé…nition 22 : Soit X une variable aléatoire, alors l’espérance ou la moyenne notée
E (X) ou est dé…nie par :
X
E (X) = xi P (X = xi ) ;
i
21
Chapitre 2. Variables aléatoires
Z
E (X) = xf (x) dx;
R
si X est une variable aléatoire absolument continue de fonction densité f (x) ; et cette
Z
quantité n’existe que si xf (x) dx est absolument convergente.
R
E (X) est la moyenne arithmétique des di¤érentes valeurs de X pondérées par leurs pro-
babilités.
Remarque 3 : L’espérance mathématique n’existe pas toujours.
Exemple 16 : Soit X une variable aléatoire absolument continue de fonction densité
f (x) dé…nie par :
1
f (x) = ; x 2 R;
(1 + x2 )
Z1
alors E (X) = xf (x) dx qui est une intégrale divergente, donc l’espérance n’existe pas.
1
Propriétés de l’espérance mathématique
1)
!
X
n X
n
E i Xi = iE (Xi ) 8 i 2 R:
i=1 i=1
X
E (g (X)) = g (xi ) P (X = xi ) ;
i
et si X est une variable aléatoire absolument continue de fonction densité f (x) ; alors :
22
Chapitre 2. Variables aléatoires
Z
E (g (X)) = g (t) f (t) dt:
R
3)
Paramètres de dispersion
Les moments
Dé…nition 23 : Les moments centrés d’ordre k d’une variable aléatoire X sont les mo-
ments centrés par rapport à E (X) ; appelés aussi moments centrés d’ordre k qui sont
dé…nis pour k 2 N par :
h i
k = E (X E (X))k :
X
k = (xi E (x))k P (X = xi ) ;
i
Z
k = (x E (x))k f (x) dx:
R
2
Par exemple on a 0 = 1; 1 = 0 et 2 = :
23
Chapitre 2. Variables aléatoires
Dé…nition 24 : Les moments non centrés d’ordre k d’une variable aléatoire X sont dé…nis
par :
0
k = E Xk :
0
X
k = xki P (X = xi ) ;
i
Z
0
k = xk f (x) dx;
R
0 0 2
Par exemple on a 2 = 2 1 :
Moments factoriels
Dé…nition 25 : Les moments factoriels d’ordre k d’une variable aléatoire X sont dé…nis
par :
k = E (X (X 1) ::: (X k + 1)) :
0
Par exemple on a 1 = 1:
24
Chapitre 2. Variables aléatoires
2
= V ar (X) = E (X E (X))2 ;
V ar (c) = E (c E (c))2 = E (c c) = 0;
2
= E (X E (X))2 = E X 2 E 2 (X) :
3)
V ar (aX + b) = a2 V ar (X) :
Caractéristique de la dispersion
Dans la plupart des cas, la distribution n’est pas symétrique par rapport à un maximum,
l’une de ses courbes s’étale à droite ou à gauche.
Dé…nition 27 : La mesure de cette dissymétrie est donnée par le coe¢ cient de la dissy-
métrie qui est dé…nie par :
25
Chapitre 2. Variables aléatoires
E (X E (X))3 3
1 = 3
= 3
:
Le coe¢ cient 1 est une quantité positive si la courbe est étalée à droite et négative dans
le cas contraire. Dans le cas d’une distribution symétrique 1 = 0:
Dans des cas, la distribution est réprésentée par un pic aigu, la majorité de ses valeurs
sont distribuées au voisinage de la moyenne, dans d’autres cas les distributions peuvent
être plates.
Dé…nition 28 : Le coe¢ cient d’aplatissement (kurtosis) de Pearson donne une évaluation
de l’importance du pic, il est dé…ni par :
E (X E (X))4 4
2 = 4
= 4
:
1
+p
E X 2p = 2p 2
1
;
2
5
4 4 2
= E (X E (X)) =4 1
= 3;
2
donc 2 = 3:
Pour une variable aléatoire suivant une loi N (0; 1), ce coe¢ cient d’aplatissement vaut
3. C’est pour cela qu’on normalise la valeur pour mesurer l’excès d’aplatissement pour
obtenir le coe¢ cient d’aplatissement de Fisher. Le coe¢ cient d’aplatissement de Fisher
26
Chapitre 2. Variables aléatoires
4
3 = 4
3:
Dé…nition 29 : Soit X une variable aléatoire, alors si E (exp (tX)) existe pour tout
t appartient à un intervalle ouvert ]t1 ; t2 [ contenant l’origine, alors la fonction
MX : ]t1 ; t2 [ ! R
t ! MX (t) = E (exp (tX)) ;
X
MX (t) = P (xi ) exp (txi ) ;
xi
et
Z
MX (t) = f (x) exp (tx) dx;
8
>
< C x px (1 p)n x
n si x = 0; 1; :::; n
P (x) =
>
: 0 sinon,
n!
où Cnx = ; alors la fonction génératrice des moments est
x! (n x)!
27
Chapitre 2. Variables aléatoires
X
n X
n
MX (t) = exp (tx) P (x) = exp (tx) Cnx px (1 p)n x
x=0 x=0
X
n
= Cnx (p exp (t))x (1 p)n x
= (1 p + p exp (t))n
x=0
2) Soit X une variable aléatoire absolument continue de fonction densité f (x) dé…nie par :
!
2
1 x
f (x) = p exp p ; x 2 R;
2 2
Z !
2
1 x
MX (t) = p exp (tx) exp p dt
2 2
R Z
1 2 2
= p exp ( 1=2 2 ) (x ( + t 2 )) ( + t 2) + 2
) dt
2
ZR
1 2 2
= p exp ( 1=2) (x ( + t 2 ) = ) exp ( 1=2 2 ) 2
( + t 2 ) ) dt
2
R
2 2 2 2 t2 2
= exp ( 1=2 ) ( + t ) ) = exp t+ ;
2
Z
1 2
car p exp ( 1=2) (x ( + t 2 ) = ) dt = 1:
2
R
Quelques théorèmes relatifs aux fonctions génératrices
Théorème 4 : Soit X une variable aléatoire de fonction génératrice des moments MX (t) où
t 2 ]t1 ; t2 [ avec t1 < 0 < t2 ; alors :
1 ) Tous les moments de X existent.
2) 8t 2 ] s; s[ tel que 0 < s < min ( t1 ; t2 ) la fonction MX (t) admet un developpement
en série entière
t2 tn
MX (t) = 1 + tE (X) + E X + ::: + E (X n ) + :::
2
2! n!
28
Chapitre 2. Variables aléatoires
(k)
E X k = MX (0) :
alors
0
MX (t) = np (1 p + p exp (t))n 1
exp (t) ;
d’où
0
E (X) = MX (0) = np:
00
MX (t) = n (n 1) p2 (1 p + p exp (t))n 2
exp (t) + np (1 p + p exp (t))n 1
exp (t) ;
d’où
00
E X 2 = MX (0) = n (n 1) p2 + np;
et en…n
V ar (X) = E X 2 E 2 (X) = np (1 p) :
29
Chapitre 2. Variables aléatoires
X
mX (t) = E tX = tx P (X = x) :
x
X
La série tx P (X = x) converge dans le domaine t 1:
x
Fonction caractéristique
Z
'X (t) = E (exp (itX)) = f (x) exp (itx) dx;
R
X
'X (t) = E (exp (itX)) = P (xj ) exp (itxj ) ;
xj
!
2
1 x
f (x) = p exp p ; x 2 R;
2 2
alors
2 2
t
'X (t) = exp i t :
2
30
Chapitre 2. Variables aléatoires
Remarque 4 : La fonction caractéristque existe pour tout t et elle est dé…nie pour toute
variable aléatoire X et on a si X est une variable absolument continue de fonction densité
f (x)
Z Z
j'X (t)j = exp (itx) f (x) dx f (x) dx = 1:
R R
Une raison d’introduire la fonction caractéristique est qu’elle existe toujours, qui n’est pas
le cas pour la fonction génératrice des moments.
On énonce maintenant quelques théorèmes importants consernants la fonction caractéris-
tique
Theorème 6 : Soient X une variable aléatoire et n 2 N tel que 8k n; E X k <
1; alors la fonction caractéristique 'X (t) de X est dérivable au moins jusqu’à l’ordre
n et on a :
'kX (0) = ik E X k :
31
Chapitre 2. Variables aléatoires
Cas discrét
8 X
>
> P (X = x) si y 2 SY
<
PY (y) = x2f (x)=yg
>
>
: 0 sinon.
8
>
< 1=6 si x 2 SX
P (X = x) =
>
: 0 sinon.
8 X
>
> PY (1) = P (X = x) = 1=6
>
>
>
> x2fx2 =1g
>
>
>
>
>
> :
>
<
PY (y) = :
>
>
>
>
>
> :
>
>
>
> X
>
>
: PY (36) =
> P (X = x) = 1=6:
x2fx2 =36g
Cas continu
32
Chapitre 2. Variables aléatoires
8 m
> X
>
< f (xi )
0
(xi )
1
si m 6= 0
fY (y) = i=1
>
>
: 0 sinon.
8
>
< exp ( x) si x > 0
f (x) =
>
: 0 sinon.
1 x2
f (x) = p exp ; x 2 R;
2 2
33
Chapitre 2. Variables aléatoires
8
> 1 1
< fX (x1 ) p + fX (x2 ) p si y > 0
fY (y) = 2 y 2 y
>
: 0 sinon
8
> 1 y 1 1 y 1
< p exp p + p exp p si y > 0
fY (y) = 2 2 2 y 2 2 2 y
>
: 0 sinon,
et en…n
8
> 1 y
< p exp si y > 0
fY (y) = 2 y 2
>
: 0 sinon.
34
Chapitre 3
Couple aléatoire
F (x; y) = P (X x; Y y) :
1) 0 F (z) 1 8z 2 R2 :
2) lim F (z) = 0 si x ! 1 ou y ! 1 et lim F (x) = 1 si x ! 1 et y ! 1:
35
Chapitre 3. Couple aléatoire
P (X = x; Y = y) :
Exemple 24 : Une urne contient 4 boules blanches, 2 boules rouges et 4 boules noires.
On extraît de cette urne 3 boules sans remise.
On note X le nombre de boules blanches et Y le nombre de boules rouges qui sont parmi
les 3 boules tirées. Déterminer la fonction de masse jointe des variables aléatoires X; et Y:
L’ensemble des valeurs possibles pour Z = (X; Y ) est
f(0; 0) ; (0; 1) ; (0; 2) ; (1; 0) ; (1; 1) ; (1; 2) ; (2; 0) ; (2; 1) ; (3; 0)g :
Par exemple P (x; y) = 1=30 si (x; y) 2 f(0; 0) ; (0; 2); (1; 2) ; (3; 0)g ; P (x; y) = 3=30 si
(x; y) 2 f(0; 1) ; (2; 1)g ; P (x; y) = 6=30 si (x; y) 2 f(1; 0) ; (2; 0)g et en…n P (x; y) =
8=30 si (x; y) 2 f(1; 1)g :
36
Chapitre 3. Couple aléatoire
XX
F (x; y) = P (X = xi ; Y = yk )
xi x yk y
P (X = xj ; Y = yk ) = P (xj ; yk ) ;
X
n X
m
P (X = xj ) = P (xj ; yk ) et P (Y = yk ) = P (xj ; yk ) :
k=1 j=1
Les variables X et Y sont appelées variables marginales du couple (X; Y ) et leurs fonctions
de masse, appelées fonction de masse marginale de X (resp. de Y ).
Xm X
n
Remarque4 : On remarque que P (X = xj ) = 1; P (Y = yk ) = 1; et
j=1 k=1
X
m X
n
P (xj ; yk ) = 1:
j=1 k=1
FX (x) = P (X x) = P (X x; Y < 1)
et
FY (y) = P (Y y) = P (X < 1; Y y)
37
Chapitre 3. Couple aléatoire
Zx Zy
F (x; y) = P (X x; Y y) = f (x; y) dxdy;
1 1
où f (x; y) est la fonction densité jointe du couple (X; Y ) qu’on va dé…nir ci-dessous.
@ 2 F (x; y)
f (x; y) = ;
@x@y
1) f (x; y) 0 8 (x; y) 2 R2
ZZ
2) f (x; y) dxdy = 1:
R2
Z
fX (x) = f (x; y) dy;
R
38
Chapitre 3. Couple aléatoire
et
Z
fY (y) = f (x; y) dx:
R
Zx Z
FX (x) = f (x; y) dxdy
1R
et
Z Zy
FY (y) = f (x; y) dxdy:
R 1
P (X = x; Y = y) = P (X = x) :P (Y = y) ;
39
Chapitre 3. Couple aléatoire
P (X x; Y y) = P (X x) :P (Y y) ;
ou
8
>
< exp 2
(x + y) si (x; y) 2 R+
f (x; y) =
>
: 0 sinon.
On a
Z Z
fX (x) = f (x; y) dy = exp (x + y) dy = exp ( x) pour x > 0;
R R
et
Z Z
fY (y) = f (x; y) dx = exp (x + y) dx = exp ( y) pour y > 0;
R R
40
Chapitre 3. Couple aléatoire
Changement de variables
avec
@x=@u @x=@v
jJ (u; v)j = :
@y=du @y=@v
8
>
< exp 2
(x + y) si (x; y) 2 R+
f (x; y) =
>
: 0 sinon.
Posons U = X + Y et V = X Y:
Quelle est la fonction densité jointe des variables aléatoires U et V:
U +V U V
On a X = et Y = ; donc la fonction densité jointe g (u; v) des variables
2 2
41
Chapitre 3. Couple aléatoire
aléatoires U et V est
u+v u v
g (u; v) = f ; jJ (u; v)j = exp ( u) si jvj < u avec u > 0
2 2
Z
gU (u) = g (u; v) dv:
R
1
g (u; v) = f (x; y) : jJ (u; v)j = f (u=v; v) : ;
v
Z Z
1
gU (u) = g (u; v) dv = f (u=v; v) : dv:
v
R R
42
Chapitre 3. Couple aléatoire
Z
1
gU (u) = fX (u=v) :fY (v) : dv:
v
R
Z
gU (u) = f (u v; v) dv:
R
g (u; v) = f (x; y) = f (u v; v) ;
Z
gU (u) = f (u v; v) dv:
R
Z
gU (u) = fX (u v) :fY (v) dv = fX fY (formule de convolution):
R
fX fY = fY fX ;
d’où
43
Chapitre 3. Couple aléatoire
Z Z
gU (u) = fX (u v) :fY (v) dv = fY (u v) :fX (v) dv:
R R
1
fX (x) = p exp x2 =2 ; x 2 R
2
et
1
fY (y) = p exp y 2 =2 ; y 2 R:
2
Z
1
gU (u) = exp (u v)2 =2 : exp ( v 2 =2) dv
2
R Z
1 u2 v2 v2
= exp + uv dv
2 2 2 2
R Z
1 u2 1
= exp exp (2v 2 2uv) dv
2 2 2
R
Z !
2
1 u2 1 p u
= exp exp 2v p dv:
2 4 2 2
R
Z
p u 1 1 2 dt
En posant t = 2v p on trouve que p exp t p = 1; et
2 2 2 2
R
Z
1 u2 1 2 dt
gU (u) = p exp exp t p
2 4 2 2
R
1 1 u2
= p exp ; u 2 R:
2 2 2
44
Chapitre 3. Couple aléatoire
XX XX
E (X) = X = xP (x; y) ; E (Y ) = Y = yP (x; y) ;
x y x y
XX 2
XX 2
2 2
V ar (X) = X = (x X ) P (x; y) ; V ar (Y ) = Y = (y Y) P (x; y) ;
x y x y
et de plus on a :
XX
Cov (X; Y ) = XY = (x X ) (y Y)P (x; y) ;
x y
Z Z Z Z
X = xf (x; y) dxdy; Y = yf (x; y) dxdy;
Z Z Z Z
2 2 2 2
X = (x X) f (x; y) dxdy; Y = (y Y) f (x; y) dxdy;
et de plus on a :
Z Z
Cov (X; Y ) = XY = (x X ) (y Y)f (x; y) dxdy = E ((X X ) : (Y Y )) :
45
Chapitre 3. Couple aléatoire
E (X + Y ) = E (X) + E (Y ) :
E (XY ) = E (X) :E (Y ) :
Preuve
Supposons que les variables aléatoires X et Y sont discrètes, de fonction de masse jointe
P (x; y) alors on a :
XX
E (X + Y ) = (x + y) P (x; y)
x y
X X
= xP (x; y) + yP (x; y)
x y
= E (X) + E (Y ) :
et
XX XX
E (XY ) = xyP (x; y) = xyPX (x) PY (y)
x y ! x y
X X X
= x PX (x) yPY (y) = xPX (x) E (Y ) = E (X) E (Y ) :
x y x
Z Z Z Z
E (XY ) = xyf (x; y) dxdy = xyfX (x) fY (y) dxdy
Z Z
= xfX (x) dx yfY (y) dy = E (X) E (Y ) :
46
Chapitre 3. Couple aléatoire
Preuve de 3) : On a
8a 2 R : E (X aY )2 0;
d’où
Distribution conditionnelle
47
Chapitre 3. Couple aléatoire
P (X = x; Y = y)
P (B=A) = P (Y = y=X = x) = ;
PX (x)
f (x; y)
f (y=x) = ;
fX (x)
Espérance conditionnelle
X
E (Y =X = x) = yP (Y = y=X = x) :
y
Z
E (Y =X = x) = yf (y=x) dy;
R
48
Chapitre 3. Couple aléatoire
E (Y =X = x) = E (Y ) :
et
Z
E (Y ) = E (Y =X = x) fX (x) dx:
On remarque que E (Y =X = x) est une fonction de x qui est égale à une fonction (x)
que l’on appelle fonction de régréssion de Y en X:
La quantité E (Y =X = x) dépend des valeurs prises par X ce qui nous conduit à dé…nir
la variable aléatoire espérance conditionnelle qui prend pour valeur E (Y =X = x) avec les
probabilités P (X = x) ; alors
E (Y =X = x) = (X) :
E ( (X)) = E (Y =X) = E (Y ) :
X
E (E (Y =X = x)) = E (Y =X = x) P (X = x)
x !
X X
= yP (Y = y=X = x) P (X = x)
x y !
X X P (Y = y; X = x)
= y P (X = x)
y x
P (X = x)
X
= y (P (Y = y)) = E (Y ) ;
y
49
Chapitre 3. Couple aléatoire
et dans le cas où les variables X et Y sont absolument continues de fonction densité jointe
f (x; y) ; alors :
Z
E (E (Y =X = x)) = E (Y =X = x) fX (x) dx
R 0 1
Z Z
= @ yf (y=x) dy A fX (x) dx
R 0
R 1
Z Z
f (x; y)
= y@ fX (x) dxA dy
fX (x)
ZR R
Variance conditionnelle
V ar (Y =X = x) = E (Y E (Y =X = x))2 =X = x :
0 !!2 1
X X
V ar (Y =X = x) = @ Y yP (Y = y=X = x) =X = xA P (X = x) ;
x y
et si X; et Y sont deux variables aléatoires continues de fonction densité jointe f (x; y) ; alors
Z
V ar (Y =X = x) = (y E (Y =X))2 f (y=x) dy:
R
50
Chapitre 3. Couple aléatoire
V ar (Y ) = E (V ar (Y =X)) + V ar (E (Y =X)) :
51
Chapitre 4
On va étudier dans ce chapitre des lois usuelles fréquement utilisées en pratique. On peut
partager ces lois en deux catégories, les lois discrètes et les lois continues.
Dé…nition 47 : Soit X une variable aléatoire, on dit que X suit la loi discrète uniforme
si X prend les valeurs naturelles de 1 à n avec P (X = x) = 1=n 8x 2 f1; 2; :::; ng :
Caractéristiques
X
n
1X
n
n (n + 1) (n + 1)
E (X) = xP (X = x) = x= = :
x=1
n x=1
2n 2
1 X 2 n (n + 1) (2n + 1)
n
2 (n + 1) (2n + 1)
E X = x = = ;
n x=1 6n 6
d’où
n2 1
V ar (X) = E X 2 E 2 (X) = ;
12
52
Chapitre 4. Lois de probabilités usuelles
nt
exp 12 it (n + 1) sin 2
'X (t) = t
n sin 2
Loi de Bernoulli
Supposons qu’on va réaliser une expérience à deux résultats possibles, un résultat qui
s’appelle succés avec une probabilité p et l’autre s’appelle échec avec une probabilité
1 p; cette expérience s’appelle expérience de Bernoulli du nom du Jaques Bernoulli qui
les étudia vers la …n du dix-septième siècle.
Dé…nition 48 : Soit X une variable aléatoire qui ne prend que les deux valeurs 1 ou 0 avec
les probabilités p ou 1 p avec p 2 ]0; 1[ ; alors on dit que X suit la loi de Bernoulli de
paramètre p qu’on notera B (p) ; et la fonction de masse de la variable X est donnée par :
8
>
>
>
> p si x = 1
<
P (X = x) = 1 p si x = 0
>
>
>
>
: 0 sinon.
Caractéristiques
E (X) = p et V ar (X) = p (1 p)
Loi Binomiale
53
Chapitre 4. Lois de probabilités usuelles
Cnx px (1 p)n x
si x = 0; 1; :::; n
P (X = x) =
0 sinon,
n!
où Cnx = :
x! (n x)!
Exemple 30 : On lance une pièce de monnaie 5 fois. Quelle est la probabilité d’obtenir
exactement 3 faces.
La probabilité d’obtenir exactement 3 faces est
5!
P (X = 3) = C53 (1=2)3 (1=2)2 = (1=2)5 = 3=8:
2!:3!
1 2p 1 6p (1 p)
1 =p ; 2 =3+ p ;
np (1 p) np (1 p)
et la fonction caractéristique
Loi multinomiale
Dans une expérience aléatoire, supposons que les évènements A1 ; A2 ; :::; Ak peuvent se
réaliser avec les probabilités p1 ; p2 ; :::; pk respectivement où p1 + p2 + ::: + pk = 1: Soient les
variables aléatoires X1 ; X2 ; :::; Xk qui représentent le nombre de fois que A1 ; A2 ; :::; Ak se
54
Chapitre 4. Lois de probabilités usuelles
n!
P (X1 = n1 ; X2 = n2 ; :::; Xk = nk ) = pn1 1 pn2 2 :::pnk k ; où n1 + n2 + ::: + nk = n:
n1 !n2 !:::nk
Loi hypergéométrique
Soit une population de N individus pour laquelle une proportion N p possède un certain
caractère, on extrait de cette population un échantillon de taille n d’une façon exaus-
tive (sans remise). Soit la variable aléatoire X qui représente le nombre d’individus de
l’échantillon possédant ce caractère.
Le nombre de cas possibles de tirer un échantillon de taille n parmi une population de
taille N est CNn ; et le nombre de cas favorables de l’évènement X = x est CNx p CNn (1x p) ; où
CNx p est le nombre de groupes de x individus possédant le caractère, et CNn (1x p) est le
nombre de groupes de n x individus ne le possède pas, d’où la fonction de masse de la
variable aléatoire X est
55
Chapitre 4. Lois de probabilités usuelles
Cbx Crn x
parmi les n tirées, alors la fonction de masse de X est P (X = x) = n
:
C(b+r)
Caractéristiques de la loi hypergéométrique
Soit X une variable aléatoire qui suit la loi H (N; n; p) alors :
E (X) = np
np (1 p) (N n)
V ar (X) = :
N 1
On peut considérer que la variable aléatoire X est une somme de n variables aléatoires de
Bernoulli non indépendantes qui correspondent aux tirages successifs de n individus.
On a
Alors
!
X
n
E (X) = E Xi = np
i=1
Pour la variance on a :
56
Chapitre 4. Lois de probabilités usuelles
!
X
n
V ar (X) = V ar Xi
i=1
X
n X
n X
n
= V ar (Xi ) + Cov (Xi ; Xj )
i=1 i=1 j=1
i6=j
X
n X n
= np (1 p) + Cov (Xi ; Xj ) :
i=1 j=1
i6=j
et
Np 1
E (Xi Xj ) = P (Xi Xj = 1) = P (Xj = 1=Xi = 1) P (Xi = 1) = p:
N 1
Np 1
V ar (X) = np (1 p) + n (n 1) p
N 1
np (1 p) (N n)
= :
N 1
Remarque 5 : Lorsque N ! 1 (ou N est trés grand devant n), la loi hypergéométrique
de paramètres N , n; et p est approximée par la loi B (n; p) :
n
En pratique on peut faire cette approximtion dés que < 10%:
N
57
Chapitre 4. Lois de probabilités usuelles
P (X = x) = Cxk 11 pk (1 p)x k
; où x = k; k + 1; :::
k k (1 p)
E (X) = ; V ar (X) = ;
p p2
et
p exp (it)
'X (t) = :
(1 (1 p) exp (it))k
Loi géométrique
Loi de Poisson
Soit X une variable aléatoire discrète, alors on dit que X suit la loi de Poisson de paramètre
> 0 (en référence au nom de S.D.Poisson qui l’a établi en 1838) si sa fonction de masse
est dé…nie par :
x
exp ( )
P (X = x) = ; x 2 N;
x!
et on notera X ! P ( ) :
Caractéristiques de la loi de Poisson
58
Chapitre 4. Lois de probabilités usuelles
E (X) = ; V ar (X) = ;
p
1 = 1= ; 2 = 3 + (1= ) :
Loi Uniforme
Une variable aléatoire X est dite de distribution uniforme sur [a; b] si sa densité de pro-
babilité est dé…nie par :
8
>
< 1
si x 2 [a; b]
f (x) = b a
>
: 0 sinon,
59
Chapitre 4. Lois de probabilités usuelles
Soit X une variable aléatoire qui suit la loi U ([a; b]) alors
8
>
> 0 si x < a
>
>
<
x a
F (x) = P (X x) = si a x < b
>
> b a
>
>
: 1 si x b:
a+b
E (X) = ; V ar (X) = (b a)2 =12
2
et 8
> exp (itb) exp (ita)
< si t 6= 0
'X (t) = it (b a)
>
: 1 si t = 0:
Loi gamma
Z1
(p) = xp 1
exp ( x) dx; où p > 0:
0
1) (p + 1) = p (p) et (1) = 1:
2) (p + 1) = p! si p 2 N :
p
3) (1=2) = :
p
4) (p) (p= exp (1))p 2 p (1 + (1=12p)) quand p ! 1:
Soit X une variable aléatoire, alors on dit que X suit la loi gamma de paramètres
; p; ( > 0; p > 0) notée X ! ( ; p) si sa fonction densité est dé…nie par
8 p
>
< xp 1
exp ( x) si x 0
f (x) = (p)
>
: 0 sinon.
60
Chapitre 4. Lois de probabilités usuelles
Z1 Z1 p
f (x) dx = xp 1
exp ( x) dx
(p)
0 0
p Z1 p 1
t
= exp ( t) dt
(p)
0
Z1
1
= tp 1
exp ( t) dt = 1:
(p)
0
E (X) = p= ; V ar (X) = p= 2 ;
et
p
'X (t) = :
it
Loi bêta
Loi béta de type 1 C’est la loi d’une variable aléatoire X; avec 0 X 1; dépendant
de p; q; (p > 0; q > 0) dont la fonction densité est dé…nie par :
8
> 1
< xp 1
(1 x)q 1
si 0 x 1
f (x) = B (p; q)
>
: 0 sinon,
61
Chapitre 4. Lois de probabilités usuelles
Z1
(p) (q)
B (p; q) = = xp 1
(1 x)q 1
dx:
(p + q)
0
p pq
E (X) = ; V ar (X) = :
p+q (p + q + 1) (p + q)2
Loi bêta de type 2 Soit X une variable aléatoire suivant la loi bêta de type 1 de
X
paramètres p;et q; alors la variable aléatoire Y = 1 X
suit la loi bêta de type 2 dont la
fonction densité est dé…nie par :
8
> y 1 1 yp 1
< fX : = si 0 y<1
f (y) = y+1 (y + 1)2 B (p; q) (1 + y)p+q
>
: 0 sinon
p p (p + q 1)
E (Y ) = pour q > 1; V ar (Y ) = pour q > 2:
q 1 (q 1)2 (q 2)
Une des distributions continues les plus importantes dans la théorie de probabilité est la
distribution normale ou la distribution de Gauss.
Soit X une variable aléatoire absolument continue, alors on dit que X suit la loi normale
N (m; ) ou LG (m; ) si sa fonction densité est dé…nie pour x 2 R par :
62
Chapitre 4. Lois de probabilités usuelles
!
2
1 1 x m
f (x) = p exp ;
2 2
où m et sont respectivement, la moyenne et l’écart type. Dans ce cas on dit que X est
2
normalement distribuée de moyenne m et de variance :
Caractéristiques de la loi normale
Soit X une variable aléatoire qui suit la loi normale N (m; ) ; alors les fonctions de
distribution et caractéristique correspondantes sont
Zx
F (x) = P (X x) = f (t) dt;
1
et
!
2
t
'X (t) = exp imt p :
2
X m
Posons U = ; alors la moyenne et la variance de U sont 0 et 1 respectivement, et
la densité de probabilité de U est
1 1 2
f (u) = p exp u ;
2 2
Zu Zu
1 1 2 1 1 1 2
(u) = P (U u) = p exp t dt = + p exp t dt:
2 2 2 2 2
1 0
63
Chapitre 4. Lois de probabilités usuelles
E (U ) = 0; V ar (U ) = 1;
1 = 0; 2 = 3;
et la fonction caractéristique
t2
'U (t) = exp ;
2
a m X m b m
P (a X b) = P
b m a m
= :
Si n est grand , p et q ne sont pas voisines de zéro, alors la distribution binômiale peut
être une trés bonne approximation de la distribution normale de la variable réduite.
Si X ! B (n; p) ; alors on a :
! Zb
X np 1 1 2
lim P a p b =p exp t dt:
n!1 np (1 p) 2 2
a
X np
En d’autres termes, la variable aléatoire réduite p est asymptotiquement nor-
np (1 p)
male.
En pratique, on donne la condition np et n (1 p) > 5 pour utiliser cette approximation.
64
Chapitre 4. Lois de probabilités usuelles
Zb
X 1 1 2
lim P a p b =p exp t dt:
!1 2 2
a
Loi de Cauchy
On dit que la variable aléatoire X suit la loi de cauchy si sa fonction densité est dé…nie
par :
c
f (x) = ; c > 0; 1 < x < 1:
(x2 + c2 )
Loi de khi-deux X 2
65
Chapitre 4. Lois de probabilités usuelles
1 1=2
f (y) = p y exp ( t=2) :
2
p
Puisque (1=2) = ; ce qui entraine que la variable aléatoire Y =2 ! (1; 1=2) :
Théorème 20 : Soit X une variable aléatoire qui suit la loi (1; p=2) ; alors la variable
aléatoire 2X suit la loi Xp2 :
De ce théorème on peut montrer que la densité d’une variable aléatoire X qui suit la loi
khi-deux à p degrés de liberté Xp2 est dé…nie pour x > 0 par
1 p
1
f (x) = p x2 exp ( x=2)
2 2 (p=2)
et
1
'X (t) = :
(1 2it)p=2
Soit X une variable aléatoire qui suit Xp2 ; alors on a les approximations suivantes :
X p
La variable aléatoire p est asymptotiquement normale. En d’autres termes, la distri-
2p
bution de Xp2 tend vers la distribution normale quand p ! 1
Approximation de Ficher
p p
Si p ! 1, la variable aléatoire 2X 2p 1 est normalement distribuée de moyenne
0 et de variance 1:Cette approximation est appelée approximation de Fisher.
66
Chapitre 4. Lois de probabilités usuelles
Approximation de Wilson-Hilferty
r
X 2
1
p 9p
Si p ! 1, la variable aléatoire r ; est normalement distribuée de moyenne
2
9p
0 et de variance 1:
On peut établir que la meilleure approximation asymptotique est l’approximation de
Wilson-Hilferty suivie par l’approximation de Ficher.
En pratique on applique ces deux dernières approximations dés que p > 30:
Théorème 21 : Si X et Y deux variables aléatoires indépendantes suivants respectivement
les lois Xp2 et Xq2 alors X + Y suit la loi Xp+q
2
:
Loi de student
Soient U et X deux variables aléatoires indépendantes suivant les lois N (0; 1) et Xp2 respectivement,
U
alors la variable aléatoire T = p suit la loi de Student à p degrés de liberté dont la
X=p
densité de probabilité est dé…nie pour t 2 R par :
p+1 (p+1)=2
2 t2
f (t) = p 1+ :
p (p=2) p
p
E (T ) = 0 si p > 1; et V ar (X) = si p > 2:
p 2
Loi de Fisher-Snedecor
67
Chapitre 4. Lois de probabilités usuelles
1 zp 1
fZ (z) = :
B (p; q) (1 + z)p+q
Les variables aléatoires X et Y suivent les lois (1; p=2) et (1; q=2) respectivement, donc
p
la variable aléatoire Z peut s’écrire sous la forme Z = F; d0 où la densité de F est :
q
8 p
>
>
>
> p 2
>
> p
>
< 1 q 1
f2 si f 0
g (f ) = B (p; q) p
>
> 1+ f
>
> q
>
>
>
: 0 sinon,
q 2q 2 (p + q 2)
E (F ) = (q > 2) ; V ar (F ) = (q > 4) :
q 2 p (q 2)2 (q 4)
Loi exponentielle
Soit X une variable aléatoire qui suit la loi ( ; p) ; alors si p = 1; on dit que X suit la
loi exponentielle de paramètre ( > 0) ; et on note X ! E ( ) :
Caractéristiques de la loi exponentielle
Soit X une variable aléatoire qui suit la loi E ( ) ; alors
E (X) = 1= ; V ar (X) = 1= 2 ;
68
Chapitre 4. Lois de probabilités usuelles
et
'X (t) = :
it
Loi de Weibull
(Y )1=b
Posons X = (a > 0; b > 0) : Si la variable aléatoire Y suit la loi E (1) ; alors la
a
variable aléatoire X suit la loi de Weibull de paramètres a et b et de fonction densité :
8
>
< abxb 1
exp axb si x > 0
f (x) =
>
: 0 sinon.
1=b 2=b 2
E (X) = a (1 + (1=b)) ; V ar (X) = a (1 + (2=b)) (1 + (1=b)) :
Loi de Pareto
Une variable aléatoire absolument continue est dite suivre la loi de Pareto si sa fonction
densité est dé…nie pour x 1 et > 0 par :
( +1)
f (x) = x :
E (X) = ; V ar (X) = :
1 ( 1)2 ( 2)
69
Chapitre 5
P (X c) =c
2
P (jX j > ") ="2 :
70
Chapitre 5. Convergence des suites de variables aléatoires
Dé…nition 51 : Soit (Xn )n2N une suite de variables aléatoires dé…nies sur l’espace de
probabilité ( ; T ; P ) ; alors on dit que cette suite converge en probabilité vers la constante
a si
ou
8" > 0 lim P (jXn Xj ") = 1;
n!1
P
et on notera Xn ! X:
On peut dé…nir la convergence en probabilité de la suite (Xn )n2N vers une variable aléa-
toire X comme la convergence en probabilité de la suite (Xn X)n2N vers 0:
P
Théorème 23 : Soit (Xn )n2N une suite de variables aléatoires, alors Xn ! X si et
seulement si
2
E (Xn ) ! X et = V ar (Xn ) ! 0:
n!1 n!1
P
Lorsque E (Xn ) ! X; alors pour prouver que Xn ! X; il su¢ t simplement de montrer
n!1
que V ar (Xn ) ! 0:
n!1
71
Chapitre 5. Convergence des suites de variables aléatoires
La loi faible des grands nombres est un résultat trés important du l’inégalité de Bienaymé-
Tchebytchev
Théorème 24 : Soit (Xn )n2N une suite de variables aléatoires.indépendantes et identi-
quement distribuées (i-i-d) d’espérance et de variance 2 :
1X
n
Considérons la variable aléatoire Xn = Xi , qui est appelée la moyenne empirique de
n i=1
X1 ; X2 ; :::; Xn ; alors
P
Xn ! ;
Preuve
!
1X 1X
n n
E Xn = E Xi = E (Xi ) = ;
n i=1 n i=1
et
!
1X 1X
n n
2
V ar Xn = V ar Xi = 2 V ar (Xi ) = =n ! 0;
n i=1 n i=1 n!1
P Xn > " ! 0:
Dé…nition 52 : Soit (Xn )n2N une suite de variables aléatoires.dé…nies sur l’espace de
probabilité ( ; T ; P ) ; avec la condition que E (jXn Xjp ) existe, alors on dit que cette
suite converge en moyenne d’ordre p vers la variable aléatoire X si
72
Chapitre 5. Convergence des suites de variables aléatoires
E (jXn Xjp ) ! 0:
n!1
m:q
Pour p = 2 on dit qu’on a une convergence en moyenne quadratique et on note Xn ! X:
On énonce quelques théorèmes consernants la convergence en moyenne quadratique
Théorème 25 : Soit (Xn )n2N une suite de variables aléatoires.dé…nies sur l’espace de
probabilité ( ; T ; P ) tel que tous les moments d’ordre deux existent. Une condition nécés-
saire et su¢ sante pour la convergence en moyenne quadratique de cette suite vers X est
E (Xn ) ! E (X)
n!1
E (Xn2 ) ! E (X 2 ) :
n!1
Dé…nition 53 : Soit (Xn )n2N une suite de variables aléatoires.dé…nies sur l’espace de
probabilité ( ; T ; P ) ; alors on dit que (Xn )n2N converge prèsque sûrement vers X si
ps
et on note Xn ! X:
En d’autres termes l’ensemble des points de divergence est de probabilités nulle.
Théorème 27 : Soit (Xn )n2N une suite de variables aléatoires.dé…nies sur l’espace de
probabilité ( ; T ; P ) : Si on pose MN = sup jXn Xj ; alors une condition nécésaire et
n N
su¢ sante de la convergence prèsque sûre de la suite vers X est que
P
MN ! 0:
73
Chapitre 5. Convergence des suites de variables aléatoires
ps P
Xn ! X , MN ! 0:
On améliorant le résultat de la loi faible des grands nombres : on a en fait, sous cer-
taines hypothèses, la convergence presque sûre, et non pas seulement en probabilité, de la
moyenne empirique Xn vers la moyenne . La loi forte des grands nombres nous donne une
condition nécessaire et su¢ sante pour l’existence de la limite au sens de la convergence
presque sûre.
Théorème 29 : Soit (Xn )n2N une suite de variables aléatoires.indépendantes et identi-
quement distribuées (i-i-d) d’espérance et intégrables ( 8n 2 N : E (jXn j) < 1); alors :
ps
Xn ! = E (X1 )
Cette convergence est la plus faible, mais elle est la plus utilisée en pratique car elle peut
approximer la fonction de distribution de Xn par celle de X:
Dé…nition 54 : On dit que la suite (Xn )n2N converge en loi vers la variable aléatoire
X de fonction de distribution F si en tout point de continuité de F la suite (Fn ) des
L
fonctions de distribution des Xn converge vers F; et on note Xn ! X:
Pour des variables discrètes la convergence en loi vers une variable discrète s’exprime par :
P (Xn = x) ! P (X = x) :
n !1
Un autre résultat montre également que si (Xn )n2N est une suite de variables aléatoires.de
74
Chapitre 5. Convergence des suites de variables aléatoires
L
Xn ! X =) fn (x) ! f (x) 8x:
n !1
La convergence en loi est trés liée à la convergence des fonctions caractéristiques comme
le précise le théorème fondamental suivant :
Théorème de Paul Levy
Théorème 30 : Si une suite de variables aléatoires (Xn )n2N converge en loi vers la
variable aléatoire X; alors la fonction caractéristique 'n (t) de Xn tend vers la fonc-
tion caractéristique ' (t) de X: Réciproquement si on a une suite de variables aléatoires
(Xn )n2N dont les fonctions caractéristiques 'n (t) tendent vers une fonction ' (t) et si
' (t) est continue au point t = 0; alors la suite (Xn )n2N converge en loi vers la variable
aléatoire X dont la fonction caractéristique est ' (t) :
Théorème 31 : La convergence en probabilité entraine la convergence en loi. La réci-
proque est fausse en général.
Applications
Théorème de De Moivre-Laplace
Théorème 32 : Soit (Xn )n2N une suite de variables aléatoires binomiales B (n; p) alors :
Xn np L
p ! N (0; 1) :
npq
Preuve :
La fonction caractéristique 'n (t) de Xn est égale à (1 p + p exp (it))n ; donc celle de la
Xn np
variable aléatoire p est
npq
!!n !
it inpt
' (t) = 1 p + p exp p exp p ;
np (1 p) np (1 p)
75
Chapitre 5. Convergence des suites de variables aléatoires
et
! !!
it inpt
ln ' (t) = n ln 1 p exp p 1 p
np (1 p) np (1 p)
!!
it t2 inpt
ln ' (t) ' n ln 1 p p p ;
np (1 p) 2np (1 p) np (1 p)
!
pit pt2 p2 t2 inpt
ln ' (t) ' n p + p ;
np (1 p) 2np (1 p) 2np (1 p) np (1 p)
soit
pt2 p2 t2 t2 p (1 p) t2
ln ' (t) ' + = =
2p (1 p) 2p (1 p) 2p (1 p) 2
t2
ce qui montre que ' (t) ! exp 2
qui est la fonction caractéristique de la loi normale
N (0; 1) :
Théorème 33 : Soit (Xn )n2N une suite de variables aléatoires binomiales B (n; p) alors
L
Xn ! P (np)
Preuve
Supposons que = np; alors
76
Chapitre 5. Convergence des suites de variables aléatoires
n
'Xn (t) == (1 p + p exp (it))n = 1 n
+ n
exp (it)
2 3 (1 exp(it))
n
n 6 (1 exp (it)) 7
= 1 n
(1 exp (it)) = 4 1 n
(1 exp (it)) 5
Théorème 34 : Soit X une variable aléatoire qui suit la loi de Poisson P ( ) ; alors quand
! 1 la variable aléatoire
X L
p ! N (0; 1)
Preuve
On a 'X (t) = exp ( (exp (it) 1)) ; donc la fonction caractéristique de la variable aléa-
X
toire p est
it it
' Xp (t) = exp exp p 1 exp p
it
p
= exp exp p it ;
comme
it it t2
exp p '1+ p
2
il vient que
it t2 p t2
' Xp (t) ' exp 1+ p it = exp :
2 2
77
Chapitre 5. Convergence des suites de variables aléatoires
Zb
Sn nm 1 1 2
lim P a p b =p exp t dt:
n!1 n 2 2
a
Sn nm
C’est à dire que la variable aléatoire réduite Yn = p est asymptotiquement normale.
n
Preuve
t2
On pose 'Yn la fonction caractéristique de Yn ; et montre que 'Yn (t) ! exp 2
:
n!1
!!!
it X
n
'Yn (t) = E exp p Xi nm
n i=1 !!
p
nm
X
n
it
= exp it E exp p
n
Xi
p h in i=1
nm t
= exp it 'Xi p
n
;
0
t itm t2 22
'Xi p '1+ p + :::
n n 2 2n
p
nm t
ln 'Yn (t) = it + n ln 'Xi p
n
p 0
nm itm t2 22
' it + n ln 1 + p
n 2 2n
+ :::
p 0
nm itm t2 22 t2 m2
= it +n p
n 2 2n
+ 2 2n
+ :::
78
Chapitre 5. Convergence des suites de variables aléatoires
02
t2 2 m2
ln 'Yn (t) ' 2
+ une in…nité de termes négligeables,
2
donc
t2
8t 2 R : ln 'Yn (t) !
n!1 2
et
t2
'Yn (t) ! exp ;
n!1 2
d’où le resultat.
79
Bibliographie
[3] G. Saporta : probabilités, Analyse des données et statistiques. Edition Technip. 1990.
80