cha4 proba

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 12

CHAPITRE 4

VARIABLES ALÉATOIRES DISCRÈTES

On considère tout au long de ce chapitre un univers, souvent noté Ω, qui est constitué de toutes les
« éventualités » ou « issues » d’une expérience aléatoire.

4.1 Généralités sur les variables aléatoires discrètes


Définition 4.1 (Variable aléatoire discrète) On appelle variable aléatoire discrète toute fonction :

X:Ω → E
ω 7→ X(ω)

où E est un ensemble fini ou dénombrable.

Notation 4.2 Tout événement de la forme : {ω ∈ Ω\X(ω) ∈ A} est noté (X ∈ A) ou [X ∈ A] pour


tout A ⊂ R. Ce qui se lit « l’ensemble des ω tels que X(ω) appartient à A ».

Définition 4.3 (Loi de probabilité) Soit X une variable aléatoire discrète.(abrégée par v.a.d.)
La loi de probabilité de X est déterminée par :
— l’ensemble des valeurs prises par X c-à-d X(Ω) = E = {ei , i ∈ I} où I est fini ou dénombrable,
— les probabilités associées aux valeurs prises par X : {P(X = ei ); i ∈ I}.

Remarque 4.1 En notant pi les probabilités P(X = ei ), les pi doivent satisfaire les deux conditions
suivantes :
1. ∀i ∈ I, 0 6 pi 6 1,
X
2. pi = 1.
i∈I

Exemple 4.1 On lance deux fois de suite un dé. Soit X la variable aléatoire discrète représentant le
nombre de 6 obtenus. Déterminons la loi de X.
On a : Ω = J1, 6, K × J1, 6K = J1, 6, K2 de cardinal 62 = 36.
Ici X est à valeurs dans X(Ω) = E = {0, 1, 2}.
Donner la loi de X consiste à déterminer : P(X = 0), P(X = 1) et P(X = 2).
On remarque d’après la définition que pour tout k ∈ E on a :

P(X = k) = P({(u, v) ∈ Ω|X(u, v) = k}).

31
Calculons ces probabilités :

Card(X = 0) 25
(X = 0) = J1, 5K × J1, 5K ⇒ P(X = 0) = =
Card(Ω) 36
Card(X = 1) 10
(X = 1) = {(1, 6), (2, 6) . . . (5, 6), (6, 1), (6, 2), . . . (6, 5)} ⇒ P(X = 1) = =
Card(Ω) 36
Card(X = 2) 1
(X = 2) = {(6, 6)} ⇒ P(X = 2) = =
Card(Ω) 36

On remarque que : P(X = 0) + P(X = 1) + P(X = 2) = 1.


C’est normal car les événements sont incompatibles entres eux :
P(X = 0) + P(X = 1) + P(X = 2) = P((X = 0) ∪ (X = 1) ∪ (X = 2)) = P(Ω) = 1.

4.1.0.1 Intérêt de connaître la loi d’une variable aléatoire


Si on connaît la loi de X, alors il est facile de déterminer la probabilité de tout événement ne dépendant
que de X.

Exemple 4.2 On lance deux dés discernables, et notons S la somme obtenue, après jet des deux dés.
On a : Ω = J1, 6, K2 de cardinal 36.
Ici S est à valeurs dans E = J2, 12K.
Intéressons-nous à déterminer par exemple la probabilité de l’événement (S 6 4).

P(S 6 4) = P((S = 2) ∪ (S = 3) ∪ (S = 4))

Or les événements sont incompatibles, donc :

P(S 6 4) = P(S = 2) + P(S = 3) + P(S = 4)


Or (S = 2) : {(1, 1)}
(S = 3) : {(1, 2), (2, 1)}
(S = 4) {(1, 3), (3, 1), (2, 2)}
:
1 2 3 6 1
Donc P(S 6 4) = + + = =
36 36 36 36 6

4.2 Lois discrètes usuelles


4.2.1 Variable de Bernoulli
Définition 4.4 On dit qu’ une variable aléatoire X suit une loi de Bernoulli de paramètres p si :
1. X(Ω) = {0, 1},
2. P(X = 1) = p, P(X = 0) = 1 − p = q.

Notation 4.5 On notera ceci en écrivant : X ,→ B(p).

Exemple 4.3 Une urne contient deux boules rouges et trois boules vertes. On tire une boule de l’urne.
La variable aléatoire X = nombre de boules rouge(s) tirée(s) est une variable de Bernoulli. On a :
P(X = 1) = 2/5 = p, P(X = 0) = 3/5 = q.

FPK , 2ème Année, S3, Filières MIP Maths & IIIA, Statistiques et Probabilités, M. KABBAJ, A.U. 24/25, page : 32
Plus généralement, on utilisera une variable de Bernoulli lorsqu’on effectue une épreuve qui n’a que deux
issues : le succès ou l’échec. Une telle expérience est alors appelée épreuve de Bernoulli. On affecte alors
1 à la variable en cas de succès et 0 en cas d’échec.

Remarque 4.2
1
X
P(X = k) = p + q = 1
k=0

4.2.2 Distribution binomiale


4.2.2.1 Situation concrète
a) On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues : le succès avec une probabilité
p ou l’échec avec une probabilité q = 1 − p.
b) On répète n fois cette épreuve.
c) Les n épreuves sont indépendantes entre elles et la probabilité de réalisation de l’événement “succès”
est la même à chaque épreuve et reste toujours égale à p.
Dans cette situation, on s’intéresse à la variable X = “nombre de succès au cours des n épreuves”.

4.2.2.2 Distribution de probabilités


Appelons Xi les variables de Bernoulli associées à chaque épreuve. Si la i-ème épreuve donne un succès,
Xi vaut 1. Dans le cas contraire Xi vaut 0. La somme de ces variables comptabilise donc le nombre de
succès au cours des n épreuves. On a donc X = X1 + X2 + · · · + Xn . X peut prendre n + 1 valeurs :
0, 1, . . . , n.
Cherchons la probabilité d’obtenir k succès, c’est-à-dire P(X = k), k ∈ J0, nK.
La probabilité d’avoir k succès suivis de n − k échecs est pk q n−k car ces résultats sont indépendants les
uns des autres.
La probabilité d’avoir k succès et n − k échecs dans un autre ordre de réalisation est toujours pk q n−k .
Donc tous les événements élémentaires qui composent l’événement (X = k) ont une même probabilité.
Combien y en a-t-il ? Autant que de façons d’ordonner les k succès par rapport aux n − k échecs. Il suffit
de choisir les k places des succès parmi les n possibles et les n − k échecs prendront les places restantes.
Or il y a Cnk manières de choisir k places parmi n.
Finalement, on obtient

P(X = k) = Cnk pk q n−k , k ∈ J0, nK.

Définition 4.6 On dit qu’ une variable aléatoire X suit une loi binomiale de paramètres n et p si :

X(Ω) = J0, nK, et P(X = k) = Cnk pk q n−k , ∀k ∈ J0, nK.

Notation 4.7 On notera ceci en écrivant : X ,→ B(n, p).

Remarque 4.3 L’adjectif binomial vient du fait que lorsqu’on somme toutes ces probabilités, on retrouve
le développement du binôme de Newton,
n
X n
X
P(X = k) = Cnk pk q n−k = (p + q)n = 1.
k=0 k=0

FPK , 2ème Année, S3, Filières MIP Maths & IIIA, Statistiques et Probabilités, M. KABBAJ, A.U. 24/25, page : 33
Remarque 4.4 La loi binomiale intervient aussi dans l’expérience de tirages avec remise.
Dans une urne contenant N boules, dont R sont rouges et N − R sont blanches(1 6 R 6 N − 1).
R
Soit p = la probabilité de tirer une boule rouge. Si on fait n tirages successifs avec remise, alors si
N
on note X le nombre de boules rouges obtenues au cours de ces n tirages, on a X ,→ B(n, p).(car on a
n tirages indépendants dont les seules issues sont soit le succès "obtenir une boule rouge", soit l’échec
R
"obtenir une boule blanche" avec la probabilité commune à tous les succès est la même égale à p = ).
N

4.2.2.3 Exemples
Exemple 4.4 Sachant que la probabilité d’avoir un garçon est de 48 %, déterminez la probabilité pour
une famille de cinq enfants d’avoir 3 garçons et 2 filles.
Désignons par X la v.a. discrète qui donne le nombre de garçons dans une famille de cinq enfants. On
a donc X ,→ B(5, 0.48). Donc :P(X = 3) = C53 × (0.48)3 × (1 − 0.48)2

Exemple 4.5 Dans une entreprise, une machine produit des pièces dont les dimensions très précises
doivent être respectées. Après un premier réglage, on constate qu’une proportion de 30 % de pièces sont
défectueuses. On examine 5 pièces choisies au hasard dans la production.
1. Quelle est la probabilité que 2 pièces soient défectueuses ?
2. Quelle est la probabilité qu’il n’y ai pas plus d’une pièce défectueuse ?
On appelle X le nombre de pièce défectueuses parmi les 5. On a donc : X ,→ B(5, 0.3). D’où
1. P(X = 2) = C52 × (0.3)2 × (1 − 0.3)3
2.P(X 6 1) = P(X = 0) + P(X = 1) = C50 × (0.3)0 × (1 − 0.3)5 + C51 × (0.3)1 × (1 − 0.3)4 .

Proposition 4.8 (Somme de deux variables binomiales) Si X1 et X2 sont des variables indépen-
dantes qui suivent des lois binomiales B(n1 , p) et B(n2 , p) respectivement, alors X1 + X2 suit une loi
binomiale B(n1 + n2 , p).

4.2.3 Distribution géométrique


4.2.3.1 Situation concrète
a) On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues : le succès avec une probabilité
p ou l’échec avec une probabilité q = 1 − p.
b) On répète l’épreuve jusqu’à l’apparition du premier succès.
c) Toutes les épreuves sont indépendantes entre elles.
Dans cette situation, on s’intéresse à la variable X = “nombre de fois qu’il faut répéter l’épreuve pour
obtenir le premier succès”.

Remarque 4.5 On est donc dans les mêmes hypothèses que pour la loi binomiale, mais le nombre
d’épreuves n’est pas fixé à l’avance. On s’arrête au premier succès.

4.2.3.2 Distribution de probabilités


L’ensemble des valeurs prises par X est 1, 2, 3, . . .. On cherche la probabilité d’avoir recours à k épreuves
pour obtenir le premier succès.
Ce succès a une probabilité de réalisation de p. Puisque c’est le premier, il a été précédé de k − 1 échecs
qui ont chacun eu la probabilité q de se produire. Étant donné l’indépendance des épreuves, on peut

FPK , 2ème Année, S3, Filières MIP Maths & IIIA, Statistiques et Probabilités, M. KABBAJ, A.U. 24/25, page : 34
dire que la probabilité de réalisation de k − 1 échecs suivis d’un succès est le produit des probabilités de
réalisation de chacun des résultats,

P(X = k) = q k−1 p, k ∈ N∗ .

Définition 4.9 On dit qu’ une variable aléatoire X suit une loi géométrique de paramètre p si :

X(Ω) = N∗ , et P(X = k) = q k−1 p, ∀k ∈ N∗ .

Notation 4.10 On notera ceci en écrivant : X ,→ G(p).

Remarque 4.6 L’appellation géométrique vient du fait qu’en sommant toutes les probabilités, on ob-
tient une série géométrique. En effet,
+∞
X p
q k−1 p = = 1.
k=1
1−q

4.2.3.3 Exemples
1
Exemple 4.6 On lance une pièce de monnaie truquée dont la probabilité d’obtenir ”pile” est p (p 6= ).
2
On veut connaître la probabilité qu’il faille 7 jets pour obtenir ”pile”.
Soit X le nombre de jets nécessaires pour obtenir ”pile” pour la première fois. Donc X ,→ G(p). C’est à
dire P(X = k) = p × (1 − p)k−1 . D’où P(X = 7) = (1 − p)6 × p.

Exemple 4.7 Une urne contient 73 boules, 37 vertes et 36 jaunes. On répète l’expérience ”tirer une boule
avec remise”. Quelle est la probabilité qu’il faille répéter 21 fois l’expérience pour obtenir la première
boule verte ?
37
Soit X le nombre de tirages nécessaires pour obtenir la première boule verte. On voit que X ,→ G( ).
 20 73
37 37
On a donc : P(X = 21) = 1 − × .
73 73

4.2.4 Distribution de Poisson


La loi de Poisson est attribuée à Poisson, mathématicien français (1781-1840).

4.2.4.1 Situation concrète


Beaucoup de situations sont liées à l’étude de la réalisation d’un événement dans un intervalle de temps
donné (arrivée de clients qui se présentent à un guichet d’une poste en une heure, apparitions de pannes
d’un réseau informatique en une année, arrivée de malades aux urgences d’un hôpital en une nuit,....).
Les phénomènes ainsi étudiés sont des phénomènes d’attente ou de comptage.
On va voir que la loi de Poisson peut être interprétée comme un cas limite d’une loi binomiale.

Définition 4.11 On peut considérer la loi de Poisson de paramètre λ, λ > 0 comme la loi limite d’une
loi binomiale B(n, pn ) lorsque le produit des paramètres n.pn converge vers λ quand n tend vers l’infini.
On écrit X ,→ P(λ).

Proposition 4.12 La loi de Poisson de paramètre λ est donnée par

FPK , 2ème Année, S3, Filières MIP Maths & IIIA, Statistiques et Probabilités, M. KABBAJ, A.U. 24/25, page : 35
λk
P(X = k) = e−λ , k ∈ N.
k!

Preuve. Si Xn suit une loi B(n, pn ), on sait que pour k fixé et n assez grand tel que n > k on a :

P(Xn = k) = Cnk (pn )k (1 − pn )n−k


npn k λk n(n − 1) · · · (n − k + 1)
= k
(1 − pn )n−k
λ k! n
npn k λk n n − 1 n−k+1
= [ × × ··· × ](1 − pn )n−k .
λ k! n n n
Le premier terme du membre de droite de la dernière expression converge vers 1 quand n tend vers
l’infini. Chaque terme du produit entre crochets tend vers 1 lorsque n tend vers l’infini. Il y a k termes,
c’est-à-dire un nombre fini. Donc le crochet tend vers 1. De plus,

ln((1 − pn )n−k ) = (n − k) ln(1 − pn ) ∼ n × (−pn ) ∼ −λ

donc (1 − pn )n−k tend vers e−λ . On conclut que P(Xn = k) tend vers e−λ λk /k!.

4.2.4.2 Exemples
Exemple 4.8 Soit X le nombre d’appels téléphoniques reçus par un standard pendant un intervalle de
temps l donné.
On a donc X ,→ P(λ) où λ est le nombre d’appels moyen reçus par le standard pendant l’intervalle de
temps l.

Exemple 4.9 Soit X le nombre de véhicules se présentant à un péage d’autoroute pendant 1 heure.
On a donc X ,→ P(λ) où λ est le nombre moyen de véhicules se présentant à un péage en 1 heure.

Exemple 4.10 Un central téléphonique reçoit 100 appels par heure en moyenne.
Calculez la probabilité que pendant deux minutes le central reçoive trois appels.
Soit X le nombre d’appels reçus en deux minutes. On a donc X ,→ P(λ) où λ est le nombre d’appels
moyen reçus en deux minutes. On cherche λ, un produit en croix nous le donne :

1 h = 60 min −→ 100 appels


2 min −→ λ
2 × 100 10
Donc : λ = = .
60 3
10 ( 10 )3
D’où : P(X = 3) = e− 3 × 3
.
3!

4.2.4.3 Approximation de la loi binomiale par la loi de Poisson


La loi binomiale dépend de deux paramètres n et p. Bien qu’il existe quelques tables, elle n’est pas
simple à utiliser. La loi de Poisson ne dépend que d’un paramètre ce qui la rend plus pratique. Il faut
donc avoir toujours présent à l’esprit que, lorsque les conditions le permettent, on peut avoir intérêt à
remplacer une loi binomiale par une loi de Poisson.
Lorsque n est grand et p petit, de telle façon que le produit np = λ reste petit par rapport à n, la loi
binomiale B(n, p) peut être approchée par la loi de Poisson P(λ) (revoir ce qui a été dit sur ce sujet dans
le paragraphe “Distribution de probabilités”). Cette approximation s’appliquant lorsque p est petit, la loi

FPK , 2ème Année, S3, Filières MIP Maths & IIIA, Statistiques et Probabilités, M. KABBAJ, A.U. 24/25, page : 36
de Poisson est appelée la loi des événements rares. En pratique, l’approximation est valable si n > 20,
p 6 0.1 et np 6 5.

On approche la loi B(n, p) par la loi P(np) dès que n > 20, p 6 0.1 et np 6 5.

Proposition 4.13 (Somme de deux lois de Poisson) Si X1 et X2 sont des variables aléatoires in-
dépendantes qui suivent des lois de Poisson de paramètres respectifs λ1 et λ2 , alors X1 + X2 suit une
loi de Poisson de paramètre λ1 + λ2 .

4.2.5 Distribution Hypergéométrique


4.2.5.1 Situation concrète
Supposons qu’une urne contienne N boules, dont R sont rouges et N − R sont blanches avec 1 6 R 6
N − 1.
Si on fait n tirages simultanés(donc sans remise), et si on note X le nombre de boules rouges obtenues
au cours de ces n tirages, on a

CRk × CNn−k
−R
P(X = k) = , où (0 6 k 6 R) et (0 6 n − k 6 N − R) (4.1)
CNn

On vérifie facilement que les conditions dans (4.1) se traduisent par

k ∈ Ja, bK, où a = max(0, R + n − N ) et b = min(R, n)

Définition 4.14 On dit qu’ une variable aléatoire X suit une loi hypergéométrique de paramètres N ,
R et n si :

CRk × CNn−k
−R
X(Ω) = Ja, bK, et P(X = k) = n
, ∀k ∈ Ja, bK
CN

où a = max(0, R + n − N ), b = min(R, n).

Notation 4.15 On notera ceci en écrivant : X ,→ H(N, R, n).

Remarque 4.7 - Dans la notation ci-dessus, on a dans le cas général les significations suivantes :
1. N est l’effectif de la population totale ;
2. R est l’effectif de la sous-population à laquelle on s’intéresse ;
3. n est la taille de l’échantillon observé(ou tiré, étudié)
Cette loi a été utilisée en cours et en T.D., elle est associée aux tirages simultanés sans remise, elle se
généralise facilement pour plusieurs types(couleurs, genres, etc...)

Exemple 4.11 Dans un jeu de 32 cartes, on tire une main de 5 cartes. Soit X le nombre de cœurs
obtenus. Donner la loi de X.
X est à valeurs dans E = J0, 5K. On cherche P(X = k), k ∈ J0, 5K.
C k × C 5−k
Justifier que : P(X = k) = 8 5 24 , ∀k ∈ J0, 5K
C32

FPK , 2ème Année, S3, Filières MIP Maths & IIIA, Statistiques et Probabilités, M. KABBAJ, A.U. 24/25, page : 37
Proposition 4.16 (voir série 1) On a la formule de Vandermonde suivante :
X
Cni Cm
j k
= Cn+m ,
i+j=k

où i, j, k, n, m sont des entiers naturels tels que 0 6 k 6 n + m.


Pour montrer cette formule, on pourra utiliser le produit de polynômes.

Remarque 4.8 La proposition ci-dessus, appelée "Formule de Vandermonde", permet de remarquer que
b b Pb
X X CRk × CNn−k
−R k=a CRk × CNn−k
−R CNn
P(X = k) = = = =1
k=a k=a
CNn CNn CNn

4.2.6 Distribution Uniforme


Définition 4.17 On dit qu’ une variable aléatoire X suit une loi uniforme sur l’ensemble {x1 , x2 , · · · , xn }
si :
1
X(Ω) = {x1 , x2 , · · · , xn } et P(X = xk ) = , ∀k ∈ J1, nK.
n

Notation 4.18 On notera ceci en écrivant : X ,→ U{x1 , x2 , · · · , xn }.

Exemple 4.12 On lance un dé non pipé. Soit X le nombre de points de la face supérieure.
Donner la loi de X puis calculer les probabilités suivantes : P(X 6 3), P(X > 1) et P(1 < X 6 3).
X est à valeurs dans E = J1, 6K. On cherche P(X = k), k ∈ J1, 6K.
On a X ,→ U{1, 2, 3, 4, 5, 6} et donc P(X = k) = 1/6, ∀k ∈ J1, 6K.
On pourra facilement calculer les probabilités demandées. On aura ainsi :
3
• P(X 6 3) = P(X = 1) + P(X = 2) + P(X = 3) = .
6
1 5
• P(X > 1) = 1 − P(X = 1) = 1 − = .
6 6
2
• P(1 < X 6 3) = P(X = 2) + P(X = 3) = .
6

4.3 Fonction de répartition


Définition 4.19 (Fonction de répartition) Soit X une variable aléatoire discrète. On appelle fonc-
tion de répartition de X la fonction notée :

FX : R → [0, 1]
x 7→ FX (x) = P(X 6 x)

Exemple 4.13 Soit X une v.a.d. à valeur dans N. Quelle est la valeur de FX (2.3) ?
FX (2.3) = P(X 6 2.3) = P(X = 0) + P(X = 1) + P(X = 2).

Exemple 4.14
En reprenant l’exercice où l’on tire une main de 5 cartes dans un jeu de 32, avec X le nombre de cœurs.
Donner FX (x), ∀x ∈ R.
C k × C 5−k
X est à valeur dans J0, 5K et P(X = k) = 8 5 24 .
C32
De plus on a : FX (x) = P(X 6 x)

FPK , 2ème Année, S3, Filières MIP Maths & IIIA, Statistiques et Probabilités, M. KABBAJ, A.U. 24/25, page : 38
— 1ercas, si x < 0, alors : FX (x) = P(∅) = 0 ;
— 2ecas, si 0 6 x < 1, alors : FX (x) = P(X 6 x) = P(X = 0) ;
— 3ecas, si 1 6 x < 2, alors : FX (x) = P(X 6 x) = P(X = 0) + P(X = 1) ;
..
.
— 6ecas, si 4 6 x < 5, alors :
FX (x) = P(X 6 x) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) + P(X = 4) ;
— 7ecas, si x > 5, alors :
FX (x) = P(X 6 x) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) + P(X = 4) + P(X = 5) = 1.
Dessinons le graphe de FX .

1 r
r 
r 
r 
r 
r 

0 1 2 3 4 5

Figure 4.1 – Courbe d’une fonction de répartition dans le cas d’une v.a. discrète

4.3.0.1 Intérêt de la fonction de répartition


Si on connaît FX on est capable de calculer :
1. {P(X = k); k ∈ E}, c’est à dire la loi de X,
2. P(a < X 6 b).
En effet :
1. On a : (X 6 k) = (X = k) ∪ (X 6 k − 1). Ces deux événements sont incompatibles, d’où :

P(X 6 k) = P(X = k) + P(X 6 k − 1)


| {z } | {z }
FX (k) FX (k−1)

On en conclut que : P(X = k) = FX (k) − FX (k − 1)


2. On a : (X 6 b) = (X 6 a) ∪ (a < X 6 b). Ces événements sont incompatibles, donc :

P(X 6 b) = P(X 6 a) +P(a < X 6 b)


| {z } | {z }
FX (b) FX (a)

D’où : P(a < X 6 b) = FX (b) − FX (a).

FPK , 2ème Année, S3, Filières MIP Maths & IIIA, Statistiques et Probabilités, M. KABBAJ, A.U. 24/25, page : 39
4.4 Paramètres d’une loi de probabilité discrète
4.4.1 Espérance
Définition 4.20 (Espérance) Soit X une variable aléatoire discrète à valeurs dans E(E ⊂ N).
On appelle espérance de X le nombre réel (s’il existe) noté E(X) défini par :
X
E(X) = k × P(X = k)
k∈E

Exemple 4.15 On lance deux fois de suite un dé. On pose X le nombre de 6 obtenus. On cherche
E(X).
X est à valeurs dans {0, 1, 2} = J0, 2K.
2
X
E(X) = k × P(X = k) = 0 × P(X = 0) + 1 × P(X = 1) + 2 × P(X = 2)
k=2
10 1 12 1
= 0+1× +2× = =
36 36 36 3
Définition 4.21 (Espérance de f (X)) Pour toute fonction réelle f , on définira l’espérance de f (X)
notée par E(f (X)) lorsqu’elle existe par :
X
E(f (X)) = f (k) × P(X = k)
k∈E

Exemple 4.16 En reprenant le précédant exemple :


2
X
E(X 2 ) = k 2 × P(X = k)
k=2
14
= 0 × P(X = 0) + 1 × P(X = 1) + 4 × P(X = 2) =
36

Proposition 4.22 Soit (a, b) ∈ R2 , on a : E(aX + b) = aE(X) + b.

Preuve.
X X X
E(aX + b) = (ak + b) × P(X = k) = akP(X = k) + bP(X = k)
k∈E k∈E k∈E
X X
= a kP(X = k) + b P(X = k) = aE(X) + b
k∈E k∈E

Définition 4.23 (Variable aléatoire centrée) On dit que X (variable aléatoire discrète) est centrée
si son espérance est nulle.

Remarque 4.9 Si X n’est pas centrée, X − E(X) est centrée.


En effet E(X − E(X)) = E(X) − E(X) = 0 (car E(X) est une constante).

Proposition 4.24 (Linéarité de l’espérance) Soit (a, b) ∈ R2 , on a :

E(aX + bY ) = aE(X) + bE(Y )

Preuve. (admise)

FPK , 2ème Année, S3, Filières MIP Maths & IIIA, Statistiques et Probabilités, M. KABBAJ, A.U. 24/25, page : 40
4.4.2 Variance-Écart-type
Définition 4.25 (Variance) Soit X une variable aléatoire discrète, on appelle variance de X, le nombre
réel (s’il existe) noté V (X) défini par :

V (X) = E (X − E(X))2


Définition 4.26 (Écart-type) On appelle écart-type de X le nombre réel (s’il existe) noté σ(X) défini
par : p
σ(X) = V (X)
Ceci mesure la dispersion de X par rapport à son espérance.

Proposition 4.27 On a :
1. V (X) = E X 2 − (E(X))2


2. V (X) = E(X(X − 1)) + E(X) − (E(X))2

Preuve.

1.

V (X) = E (X − E(X))2 = E X 2 − 2XE(X) + (E(X))2


 

= E X 2 − 2E(X)E(X) + E(X)2 = E X 2 − 2(E(X))2 + E(X)2


   

= E X 2 − (E(X))2


2.

E(X(X − 1)) + E(X) − (E(X))2 = E X 2 − X + E(X) − (E(X))2




= E X 2 − E(X) + E(X) − (E(X))2 = E X 2 − 2E(X) + (E(X))2 = V (X)


 

Proposition 4.28
V (a × X + b) = a2 × V (X)

Preuve.

V (a × X + b) = E((a × X + b)2 ) − (E(a × X + b))2


= E(a2 × X 2 + 2ab × X + b2 ) − (a × E(X) + b)2
= a2 × E(X 2 ) + 2ab × E(X) + b2 − (a2 × (E(X))2 + 2ab × E(X) + b2 )
= a2 × (E(X 2 ) − (E(X))2
= a2 × V (X)

4.4.3 Espérance et variance des lois binomiale, de Poisson, géométrique et


Uniforme
Théorème 4.29
Si X ,→ B(n, p), alors E(X) = n × p et V (X) = n × p × (1 − p) = npq.
Si X ,→ P(λ), alors E(X) = λ et V (X) = λ.
1 1−p q
Si X ,→ G(p), alors E(X) = et V (X) = 2
= 2.
p p p
Si X ,→ U{x1 , x2 , · · · , xn } alors E(X) = x et V (X) = V (x) où (x) est la série (x1 , x2 , · · · , xn ).

FPK , 2ème Année, S3, Filières MIP Maths & IIIA, Statistiques et Probabilités, M. KABBAJ, A.U. 24/25, page : 41
Résumé des lois usuelles discrètes

Nom et paramètres X(Ω) pk = P [X = k], k ∈ X(Ω) E(X) V (X)


Bernoulli B(p), p ∈]0, 1[ {0, 1} p1 = p, p0 = 1 − p = q p pq
Binomiale B(n, p), n ∈ N∗ , p ∈]0, 1[ [[0, n]] pk = Cnk pk q n−k np npq
λk
Poisson P(λ), λ > 0 N pk = e−λ λ λ
k!
1 q
Géométrique G(p), p ∈]0, 1[ N∗ pk = q k−1 p
p p2
CRk CNn−k
−R
Hypergéométrique H(N, R, n)(∗1) [[a, b]](∗2) pk = (∗3) (∗4)
CNn
1
Uniforme sur {x1 , · · · , xn }, n ∈ N∗ {x1 , · · · , xn } pk = P [X = xk ] = x V (x)
n

(∗1) : (N, R, n) ∈ (N∗ )3 , max(n, R) < N , (∗2) : a = max(0, R + n − N ), b = min(R, n).


(∗3) et (∗4) : la détermination de ces paramètres est hors programme.

Conditions d’utilisation

1. X ,→ B(p) la loi de Bernoulli de paramètre p si X prend deux valeurs possibles


1 et 0. [X = 1] désignera le succès et [X = 0] désignera l’échec. La loi peut être
associée à l’expérience "succès-échec". p désignera la probabilité du succès.
2. X ,→ B(n, p) la loi binomiale de paramètres n et p si X désigne le nombre
de succès au cours de n épreuves indépendantes dont chacune a deux issues
possibles ; succès et échec, avec une probabilité commune pour tous les succès égale
à p. La loi peut être associée aussi aux tirages avec remise dans une population
constituée de deux catégories d’individus. Cette loi se généralise en multinomiale
lorsqu’il y a plusieurs catégories.
3. X ,→ P(λ) la loi de Poisson de paramètre λ si X est associée aux phénomènes de
comptage ou d’attente ou apparaît comme loi limite B(n, pn ) lorsque npn tend
vers λ quand n tend vers +∞.
4. X ,→ G(p) la loi de géométrique de paramètre p si X est la loi du premier succès
associée à des épreuves indépendantes à deux issues : succès et échec, avec une
probabilité commune pour tous les succès égale à p.
5. X ,→ H(N, R, n) la loi Hypergéométrique de paramètres N, R, n si X désigne
le nombre d’éléments de la sous-population à laquelle on s’interesse d’effectif R dans
une population mère d’effectif N lorsqu’on prélève sans remise n éléments. Cette
loi se généralise pour plusieurs sous-populations.
6. X ,→ U(x1 , · · · , xn ) la loi uniforme sur {x1 , · · · , xn } si X peut prendre chacune
1
des n valeurs xi avec la même probabilité .
n

FPK , 2ème Année, S3, Filières MIP Maths & IIIA, Statistiques et Probabilités, M. KABBAJ, A.U. 24/25, page : 42

Vous aimerez peut-être aussi