Chapitre 3

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 14

Lois de probabilité usuelles

Objectifs
On a vu qu’à une expérience aléatoire, on peut associer une variable aléatoire. Ces
variables aléatoires possèdent une loi de probabilité. Or certains types de loi de
probabilité reviennent souvent et portent des noms. Dans ce chapitre, nous allons
analyser les plus importantes avec la méthode du chapitre 2.

| Chapitre 3 | . 1
.
1 Lois de probabilité usuelles discrètes
1.1 Loi uniforme discrète
Soit n un entier supérieur ou égal à 1. On dit qu’une variable aléatoire X suit une loi
uniforme sur {x1 , ..., xn } si sa loi de probabilité est :

1
pi = P (X = xi ) = , i = 1, ..., n
n
C’est-à-dire : toutes les valeurs prises par la variable aléatoire X ont la même probabil-
ité.

Si X suit une loi uniforme sur {1,...,n} (relation notée X ∼ U [1, n] ), on a les relations :

n+1 n2 − 1
E[X] = et Var[X] =
2 12

Preuve: TD
EX

On tire au hasard un élément de l’ensemble {1, 2, 3, 4, 5, 6}, et on note X l’élément


obtenu. Dans ce cas X suit une loi uniforme.

6+1 62 − 1 35
E[X] = et Var[X] = =
2 12 12

1.2 Loi de Bernoulli


Une épreuve de Bernoulli est une expérience aléatoire qui ne comporte que deux
résultats: Succès et échec. On note la probabilité de succès par p et la probabilité
d’échec par q = 1 − p.

X est une variable aléatoire qui donne 0 en cas d’échec et 1 en cas de succès.

Dans ce cas, on dit que X suit la loi de Bernoulli de paramètre p. Et on note : X ∼ B(p).
Propriétés
P (X = xi)

1
q =1−p

1 x


0 x<0
F (x) = P (X ≤ x) = q 0≤x<1
1 0≤1≤x

2
X
E[X] = xi pi = 0(1 − p) + 1 × p = p
i=1
p
Var[X] = E[X ] − E[X] = 0 × (1 − p) + 12 × p − p2 = p(1 − p), σ[X] =
2 2 2
p(1 − p)

1.3 Loi binomiale


On dit qu’une variable aléatoire X suit une loi binomiale de paramètres n et p (relation
notée X ∼ B(n, p) ) si sa loi de probabilité est donnée par :

P (X = k) = Cnk pk q n−k , k ∈ {0, 1, 2, ..., n}


n!
avec p + q = 1 et Cnk = k!(n−k)!

Interprétation de la loi binomiale

Soit A l’épreuve aléatoire consistant en n répétitions indépendantes d’une épreuve de


Bernoulli, B1 ,B2 ,..., Bn , de même paramètre p.
Soit X le nombre de succès obtenus. Les valeurs de X vont de 0 à n.
Posons:
Sj : succès lors de la j ième épreuve.
Ej : échec lors de la j ième épreuve.

Un résultat particulier de l’expérience A ayant k succès, peut être représenté par :

S1 ∩ S2 ∩ S3 ... ∩ Sk ∩Ek+1 ... ∩ En


| {z }
k succès

La probabilité de ce résultat particulier comportant k succès et n − k échecs est : pk q n−k .

Le nombre de résultats possibles comportant k succès et (n − k) échecs est égal


au nombre de choix possibles de la position des k succès, représentés par des 1,
dans la suite des n résultats:=Cnk
La probabilité d’avoir k succès, dans aussi (n − k) échecs, est donc donnée par

P (X = k) = Cnk pk q n−k
En pratique, toute variable binomiale de paramètre n et p, peut toujours s’interpréter
comme le nombre de succès dans une répétition indépendante n fois d’une épreuve
de Bernoulli de paramètre p.

Propriétés

• p
E[X] = np, Var[X] = npq = np(1 − p) et σ[X] = np(1 − p)

Preuve

Si X ∼ B(n, p) alors
X = X1 + X2 + ... + Xn , avec Xi ∼ B(p)

E[X] = E[X1 + X2 + ... + Xn ]


= E[X1 ] + E[X2 ] + E[X3 ] + ... + E[Xn ], E[Xi ] = p
= np

Var[X] = Var[X1 + X2 + ... + Xn ]


= Var[X1 ] + Var[X2 ] + Var[X3 ] + ... + Var[Xn ], Var[Xi ] = p(1 − p)
= npq
Ex

Considérons une urne contenant N boules, dont n1 boules blanches et n2 boules noires,
avec N = n1 + n2 . On tire une boule au hasard dans l’urne, on note sa couleur et on la
remet dans l’urne. Si la boule est blanche, c’est le succès, de probabilité p = n1 /N . Si
elle est noire, c’est l’échec, de probabilité q = n2 /N .
On effectue ainsi n tirages successifs avec remise.

Au bout de n tirages, la probabilité d’avoir tiré k fois une boule blanche est donnée
par la loi binomiale :
 n k  n n−k
1 2
P (X = k) = Cnk pk q n−k = Cnk
N N
n1 n1 n2
E[X] = np = n , Var[X] = npq = n
N N2

1.4 Loi géométrique


On dit qu’une variable aléatoire X suit une loi géométrique de paramètres p (relation
notée X ∼ G(p) ) si sa loi de probabilité est donnée par :

P (X = k) = pq k−1 , k ∈ N∗
avec p + q = 1.

Interprétation de la loi géométrique

Considérons une épreuve de Bernoulli dans laquelle le succès a une probabilité p.


On répète l’épreuve de Bernoulli de façon indépendante jusqu’à l’obtention d’un succès.

Soit X le nombre de répétition nécessaire à l’obtention d’un succès. → X(Ω) =


{1, 2, 3, ..., }

L’événement X = k est la conjonction de k − 1 échecs suivi d’un succès.

(X = k) ≡ E1 ∩ E2 ∩ E3 ... ∩ Ek−1 ∩ Sk
Donc

P (X = k) = q k−1 p
Propriétés

Si X ∼ G(p) alors

1 1−p
E[X] = et V [X] =
p p2

Preuve: TD
EX

Dans une boîte, il y a 32 cartes numérotées de 1 à 32. On effectue des tirages


successifs avec remise, jusqu’à obtenir la carte 31.
Quelle est la probabilité pour que le nombre de carte tirées soit égale à k?
1
La probabilité du succès (tirer la carte numéro 31) est p = 32 .
Si X le nombre de tirages effectués jusqu’à l’obtention du succès (carte 31). Alors
X ∼ G(p).

1 31
P (X = k) = ( ) × ( )k−1
32 32

1 1 − 1/32
E[X] = = 32 et V ar[X] =
1/32 (1/32)2

1.5 Loi de Poisson


On dit qu’une variable aléatoire X suit une loi de Poisson de paramètres λ (relation
notée X ∼ P (λ) ) si sa loi de probabilité est donnée par :

λk
P (X = k) = e−λ , k pouvant prendre pour valeurs 0, 1, 2, 3,...
k!
La loi de Poisson est la loi des phénomènes rares, de faible probabilité. Les variables
aléatoires de Poisson ont un champ d’application fort vaste, en particulier du fait qu’on
peut les utiliser pour approcher des variables aléatoires binomiales de paramètre (n, p)
pour autant que n soit grand et p assez petit pour que np soit d’ordre de grandeur
moyen (environ 5). En effet, admettons que X soit une variable aléatoire binomiale
de paramètre (n, p) et posons λ = np.
P (X = k) = Cnk pk q n−k
n!
= pk (1 − p)n−k
k!(n − k)!
 k  n−k
n! λ λ
= 1−
k!(n − k)! n n
n
n(n − 1)(n − 2)...(n − k + 1) λk 1 − nλ
=
nk k! 1 − λ k

n

Maintenant, pour n grand et λ modéré, on a :


n k
n(n − 1)(n − 2)...(n − k + 1)
 
λ λ
∼ 1, 1− ∼ e−λ , 1− ∼1
nk n n
Alors

λk
P (X = k) ≈ e−λ
k!

Propriétés

E[X] = V ar[X] = λ

Preuve: TD
EX

Un certain vaccin provoque chez un individu sur 800 environ une réaction dangereuse.
Quelle probabilité y a-t-il, en vaccinant 3000 personnes, qu’il y ait trois réactions
dangereuses ?
Soit X la v.a indiquant le nombre totale de réactions dangereuses. alors X ∼ B(n, p)
avec n = 3000, p = 1/800. Calculons λ = np = 3.75

3000! 1 3 799 2997 3.753


P (X = 3) = ( )( ) ≈ e−3.75 = 0.2067
3!(2997)! 800 800 3!
| {z } | {z }
Loi Binomiale Loi de Poisson
1.6 Loi hypergéométrique
On dit qu’une variable aléatoire X suit une loi hypergéométrique de paramètres N , n, p
(relation notée X ∼ H(N, n, p) ) si sa loi de probabilité est donnée par :

Cnk1 × Cnn−k
P (X = k) = 2
avec k ∈ {0, 1, 2, ..., n} et n1 + n2 = N
CNn

Interprétation de la loi hypergéométrique

Dans une urne contenant N boules dont n1 blanches et n2 noires, on tire au hasard n
boules, sans remise. On note X le nombre de boules blanches tirées : X est une vari-
able aléatoire dont les valeurs sont comprises entre 0 et n. → X(Ω) = {0, 1, 2, 3, ..., n}

L’événement X = k correspond à l’observation de k boules blanches lors de n épreuves


sans remise.

Le nombre de façons de tirer n boules parmi N est CNn

Le nombre de façons de tirer k boules blanches est Cnk1 × CNn−k


−n1

Donc

Cnk1 × CNn−k
−n1
P (X = k) = n
CN

Propriétés
nn1 N − n n1 n2
E[X] = et V [X] = n
N N − 1 N2

EX

Un groupe est composé de 10 étudiants en science exacte et de 20 étudiants en


sciences de la nature. L’enseignant sélectionne au hasard 8 étudiants. Quelle est la
probabilité d’avoir sélectionné 5 étudiants en science de la nature?

2
X ∼ H(30, 8, )
3
5 3
C20 × C10
P (X = 5) = 8
C30
2 Lois usuelles continues
2.1 Loi uniforme
Soit X une variable aléatoire ayant comme fonction de densité
 1
β−α
= Cste si α < x < β
f (x) =
0 sinon

Alors on dira que cette variable aléatoire suit une loi uniforme.

X ∼ U (α, β])

Propriétés
a+b (b − a)2
E[X] = et Var[X] =
2 12

Preuve: TD

2.2 Loi exponentielle


Soit X une variable aléatoire ayant comme fonction de densité

λe−λx six ≥ 0

f (x) =
0 sinon

Alors on dira que cette variable aléatoire suit une loi exponentielle.

X ∼ Exp(λ)

Propriétés

Z x
Fonction de répartition = F (x) = P (X ≤ x) = λeλt dt = 1 − e−λt
0

1 1
E[X] = et V [X] =
λ λ2
Preuve: TD
EX

La durée d’une conversation téléphonique est en moyenne 10 min. Vous arrivez devant
une cabine téléphonique et il y a quelqu’un. Quelle est la probabilité que vous ayez
à attendre plus de 10 min? entre 10 et 20 min?

1 1
λ= , X ∼ Exp( )
10 10

P (X > 10) = 1 − P (X ≤ 10) = 1 − F (10) = 1 − (1 − e−10/10 ) = e−1 ≈ 0.3679

P (10 ≤ X ≤ 20) = F (20) − F (10) = e−1 − e−1 ≈ 0.2325

2.3 Loi normale


Une variable aléatoire X est dite normale, avec paramètres (µ, σ) si la densité de
probabilité de X est donnée par

(x − µ)2
1 −
f (x) = √ e 2σ 2 , ∞ > x > −∞
2πσ 2

X ∼ N (µ, σ)
Le graphe de cette densité est une courbe en forme de cloche avec un axe de symétrie
vertical en x = µ.

Propriétés

Si X ∼ N (µ, σ), alors

E[X] = µ Var[X] = σ
Preuve
+∞ +∞
x
Z Z
(x−µ)2
E[X] = xf (x)dx = √ e− 2σ2 dx
−∞ −∞ σ 2π
en posant y = (x − µ)/σ (→ x = σy + µ, dx = σdy), on obtient

+∞
1
Z
2
E[X] = √ (µ + σy)e−y /2 dy
−∞ σ 2π
Z +∞ Z +∞
1 −y2 /2 1 2
= µ √ e dy + σ √ ye−y /2 dy
−∞ 2π −∞ 2π
= µ

Var[X] = E[(X − µ)2 ]


Z +∞
1 (x−µ)2
= (x − µ)2 √ e− 2σ2 dx
−∞ σ 2π

en posant y = (x − µ)/σ (→ x = σy + µ, dx = σdy), on obtient

+∞
1
Z
y2
Var[X] = σ 2 y 2 √ e− 2 dy
−∞ 2π
Z +∞ 2
y y2
= σ2 √ e− 2 dy
−∞ 2π
h  −y ∞ Z +∞
2
− y2 1 y2
i
= σ 2
√ e + √ e− 2 dy
2π −∞ −∞ 2π
2
= σ

N (0, 1) est appelé loi normale centrée réduite , c’est-à-dire de moyenne 0 et d’écart-type
1.(→ µ = 0, σ = 1)

On note habituellement la fonction de répartition d’une variable normale centrée ré-


duite par le symbole Φ :

x
t2
1
Z

Φ(x) = √ e 2 dt
2π −∞

Cette fonction de répartition Φ(x) n’ayant pas de forme analytique, on se réfère à une
table numérique où elle est tabulée pour différentes valeurs de x.
Fonction de répartition de la loi normale N (0, 1)

t2
Rx −
La table ci-dessus contient les valeurs de Φ(x) = √1
2π −∞
e 2 dt
On lit les dixièmes dans les lignes, et les centièmes dans les colonnes. Par exemple,
la valeur de Φ(1.65) se trouve à l’intersection de la ligne 1.6 et de la colonne 0.05, on
trouve Φ(1.65) = 0.9505, à 10−4 près.
Pour les valeurs négatives de x, on utilise la relation Φ(−x) = 1 − Φ(x).

Propriété importante
X−µ
Si une v.a X suit une loi N (µ, σ), la variable aléatoire centrée réduite Z = σ
suit
une loi N (0, 1).
et

a−µ b−µ
P (a < X < b) = P ( ≤Z≤ )
σ σ

Preuve

Z b (x − µ)2
1 − x−µ dx
P (a ≤ X ≤ b) = √ e 2σ 2 dx, on pose y = dy =
σ 2π a σ σ
Z b−µ y 2
1 σ −
= √ e 2 dy
2π a−µ
σ

EX

Soit X ∼ N (3, 4). Calculez P (1 ≤ X ≤ 10).

X−3
On pose Z = 4
. Alors

1−3 10 − 3
P (1 ≤ X ≤ 10) = P ( ≤Z≤ )
4 4
= P (−0.5 ≤ Z ≤ 1.75)
= Φ(1.75) − Φ(−0.5)
= Φ(1.75) − 1 + Φ(0.5) = 0.9599 − 1 + 0.6915 ≈ 0.6514
B - Bibliographie

3 Théorème central limite


Soit X1 ,X2 ,...,Xn des v.a indépendantes et de même loi de probabilité (donc de même
espérance µ et de même écart-type σ)
Sn = X1 + X2 + ... + Xn = nk=1 Xk alors quand n → ∞
P

Sn − E[Sn ]
Zn = p ∼ N (0, 1)
var[Sn ]
Autrement dit pour tout a et b ∈ R avec a < b
! Z b
Sn − E[Sn ] 1 2
lim P a< p <b = √ e−x /2 dx = Φ(b) − Φ(a)
n→∞ var[Sn ] 2π a

EX

Posons Sn = nk=1 Xk . Si Xk ∼ B(p) pour tout k alors Sn ∼ B(n, p)


P

D’après le théorème central limite, lorsque n → ∞ (en pratique n>30), on peut approcher
la loi binomiale par une loi normale. c’est à dire :

Sn − E[Sn ] B(n, p) − np
p = √ ∼ N (0, 1) lorsque n > 30
var[Sn ] npq

| Chapitre 3 | . 14
.

Vous aimerez peut-être aussi