Chapitre 3
Chapitre 3
Chapitre 3
3
3.1 Généralité des variables aléatoires
3.1.1 Définitions
Définition 3.1
On appelle variable aléatoire (v.a) à valeurs dans Rn , la fonction mesurable X = X(w) = {X1 (w); X2 (w); ...; Xn (w)}
définie sur l’espace Ω de l’espace probabilisé (Ω, C, P ) et à valeurs dans un espace dit d’état E de Rn
Remarque 3.1
En général, on présente la loi d’une variable aléatoire X sous la forme d’un tableau, qui récapitule les valeurs
prises par X ainsi que les probabilités associées.
Propriété 3.1
La définition nous permet d’écrire :
1. F (x) = P (X ∈] − ∞; x]).
2. P (a ≤ X ≤ b) = P (X ≤ b) − P (X ≤ a) = F (b) − F (a).
3. P (X > b) = P (X ≤ b) = 1 − F (b).
16
3.1.4 Espérance mathématique et écart-type
La variance d’une variable aléatoire V (X) est l’espérance mathématique du carré de l’écart à l’espérance
mathématique. C’est un paramètre de dispersion qui correspond au moment centré d’ordre 2 de la variable
aléatoire X.
Définition 3.6
Soit X = (X1 (ω); X2 (ω); ...; Xn (ω)) prenant les valeurs xi dans l’espace de probabilité (Ω; C; P ).
1. On appelle variance de X le réel positif
n
X
(xi − E(X))2 P (Xi )
R
V (X) = ou E(X) = Ω
(X(ω) − E(X))2 P d(ω) (3.4)
i=1
p
2. L’écart-type σX est la racine carrée de la variance. σX = V (X)
Propriété 3.2
Soit X une variable aléatoire admettant une espérance et une variance, alors pour tous a; b ∈ R, la variable
aléatoire aX + b admet une espérance, une variance et un écart-type définis par :
– E(aX + b) = aE(X) + b.
– V (aX + b) = a2 V (X).
– σ(aX + b) = |a|σ(X).
V (X)
P (|X − E(X)| > ) ≤ (3.5)
2
Propriété 3.3
(k)
ψX (0) = ik E(X k )
ψaX+b (t) = ψX (at)eitb
P∞ k k
ψX (t) = k=0 i E(Xk!
) k
t
1. La fonction génératrice des moments d’une v.a X (si elle existe) est la fonction notée souvent GX et
définie de ] − 1; 1[ dans R par :
GX (u) = E(exp(uX))
Ainsi
r rq
E(X) = ; V (X) =
p p2
λk
P (X = k) = e−λ ; k = 0, 1, 2, ... (3.9)
k!
On a E(X) = λ et V (X) = λ
Remarque 3.2
La loi Binomiale peut être approchée par la loi de Poisson si n est assez grand et p petit. Dans la pratique, cette
approximation est possible si n ≥ 30 et p ≤ 0, 1.
On montre aussi qu’en considérant une suite (Xn ) de v. a. telle que Xn ∼ B(n, p) alors Xn converge en loi vers
une v. a. discrète X qui suit une loi de Poisson P(np)
Exemple 3.3.1
Exemple de variables aléatoires qui ne sont pas discrètes :
– Variable T correspondant à la taille d’un élève,
– Variable L correspondant à longueur d’un train,
– Variable A correspondant au temps d’attente à une caisse . . .
Remarque 3.3
On admet que pour une variable aléatoire continue, pour tout a ∈ R : P (X = a) = 0. On a donc :
– P (a < X < b) = P (a < X ≤ b) = P (a ≤ X < b) = P (a ≤ X ≤ b),
– P (a < X) = P (a ≤ X < b),
– P (X > b) = P (X ≥ b).
Propriété 3.5
La fonction de répartition F d’une variable aléatoire continue X a les propriétés suivantes :
– F est une fonction croissante, définie et continue sur R.
– Pour tout x ∈ R, 0 ≤ F (x) ≤ 1.
– lim F (x) = 0 et lim F (x) = 1.
x→−∞ x→+∞
a+b (a−b)2
On montre ainsi que E(X) = 2 et V (X) = 12
E(X) = m; σ(X) = σ
Ainsi les paramètres d’une loi normale sont en fait son espérance mathématique et son écart-type.
Propriété 3.7
X −m
Si une variable aléatoire X suit la loi normale N (m; σ), alors la variable aléatoire T = suit la loi
σ
normale centrée réduite ou loi normale standard N (0; 1). En particulier, on a E(T ) = 0 et σ(T ) = 1.
2
La fonction de densité de T est f (x) = √12π exp − x2 et sa fonction de répartition est notée généralement φ
définie par Z x
1 t2
φ(x) = √ exp − dt
2π −∞ 2
On vérifie que φ(−t) = 1 − φ(t) et que φ(0) = 0, 5
Remarque 3.4
√
– On peut approcher la loi binomiale par la loi normale N (np; npq) à la condition que : n ≥ 30 et np ≥ 15
q
−n
– On peut approcher la loi hypergéométrique par une loi normale N (np; npq N N −1 ) si n ≤ 0, 1M ; n ≥
N −M M
9× M et n ≥ 9 × N −M
On vérifie que :
– P ({X = xi }, Ω) = P (X = xi ) P
s
– P ({X = xi }, ∪sj=1 {Y = yj }) = j=1 P ({X = xi } ∩ {Y = yj })
Définition 3.15
Soit (X, Y ) un couple de v.a discrètes de loi Pij . On appelle lois marginales de X et de Y , les probabilités
respectives
Xs Xk
P (X = xi ) = Pij = Pi. et P (Y = yi ) = Pij = P.j (3.13)
j=1 i=1
Remarque
Pk Ps 3.5
i=1 j=1 Pij = 1
1. On appelle vecteur aléatoire de dimension n, un n-uplet X = (X1 , ..., Xn ) où chaque Xi est une variable
aléatoire (v.a) continue.
2. Une fonction f : Rn −→ [0; +∞[ est dite fonction densité du vecteur X ou fonction densité conjointe des
X1 , ..., Xn si elle vérifie :
Z
(a) f (x1 , ...xn )dx1 ...dxn = 1 (exhaustivité)
Rn
Z x1 Z xn
(b) P (X1 ≤ x1 , ..., Xn ≤ xn ) = ... f (x1 , ...xn )dx1 ...dxn ∀xi ∈ R, i = 1, ..., n
−∞ −∞
Si, à un événement aléatoire, sont attachés deux variables X et Y , ces deux variables définissent un couple de
v.a. La loi de probabilité d’un tel couple peut être définie par aa fonction de répartition.
Ainsi
Propriété 3.8
La fonction de répartition d.un couple aléatoire continu vérifie :
– 0 ≤ F (x, y) ≤ 1, ∀(x, y) ∈ R2
– F est continue (sauf peut-être en un nombre fini de points où elle est continue à droite) et possède une
dérivée partielle d’ordre 2.
– limx−→−∞ F (x, y) = 0 et limy−→−∞ F (x, y) = 0
– limx−→+∞ [limy−→+∞ F (x, y) = 1] et limy−→+∞ [limx−→+∞ F (x, y) = 1]
On défini donc
Définition 3.18
Soit F la fonction de répartition du couple de v.a (X, Y ).
On appelle fonction de répartition marginale de X (resp. de Y ) la limite donnée par FX (x) = lim F (x, y)
y−→+∞
(resp. FY (y) = lim F (x, y))
x−→+∞
Propriété 3.9
1. f (x, y) ≥ 0 ∀x, y ∈ R
Z +∞ Z +∞ Z +∞ Z +∞
2. f (x, y)dx dy = f (x, y)dy dx = 1
−∞ −∞ −∞ −∞
Z x Z y
3. F (x, y) = f (t, z)dtdz = P (X ≤ x, Y ≤ y) ∀x, y ∈ R
−∞ −∞
NB :une densité conjointe peut-être discontinue, voire même infinie en certains points.
Exemple 3.4.1 2
k(1 − x)y 3 e−y si (x, y) ∈ [0, 1]×]0; +∞[
Pour quelle valeur positive de k la fonction f définie par f (x, y) =
0 sinon
est une densité de probabilité de (X, Y ). Déduire donc la fonction de répartition de (X, Y ).
1. L’espérance mathématique du couple de v.a (X, Y ) est le nombre réel noté E(XY ) et définie par E(XY ) =
R +∞ R +∞
−∞ −∞
xyf (x, y)dxdy.
2. On appelle covariance du couple (X, Y ), le nombre réel noté Cov(X, Y ) défini par
Z +∞ Z +∞
Cov(X, Y ) = E([X − E(X)][Y − E(Y )]) = [x − E(X)][y − E(Y )]f (x, y)dxdy
−∞ −∞
Soient X, Y deux v.a définie sur (Ω, C, P ) et admettant des moments d’ordre 2 tel que E(XY ) existe alors
On remarque que si X et Y sont indépendantes alors cov(X, Y ) = 0. Attention : la réciproque n’est pas vraie.
Soient X et Y deux v.a
Définition 3.21
On appelle coefficient de corrélation linéaire de X et Y , le réel
cov(X, Y )
ρ(X, Y ) = ρ = (3.14)
σX σY
De cette définition on tire que :
1. cov(X, Y ) = 0 ⇔ X et Y sont non corrélés.
2. Si Y = aX + b, a 6= 0 alors |ρ(X, Y )| = 1
Y − E(Y ) X − E(X)
3. La droite de régression de Y en X a pour équation =ρ
σY σX
X − E(X) Y − E(Y )
4. La droite de régression de X en Y a pour équation =ρ
σX σY