Distr Proba
Distr Proba
Distr Proba
PRINCIPALES DISTRIBUTIONS
DE PROBABILITÉS
INTRODUCTION
De nombreuses situations pratiques peuvent être modélisées à l’aide de variables aléatoires qui
sont régies par des lois spécifiques. Il importe donc d’étudier ces modèles probabilistes qui
pourront nous permettre par la suite d’analyser les fluctuations de certains phénomènes en
évaluant, par exemple, les probabilités que tel événement ou tel résultat soit observé.
La connaissance de ces lois théoriques possède plusieurs avantages sur le plan pratique :
• Les observations d’un phénomène particulier peuvent être remplacées par
l’expression analytique de la loi où figure un nombre restreint de paramètres (1 ou 2,
rarement plus).
• La loi théorique agit comme modèle (idéalisation) et permet ainsi de réduire les
irrégularités de la distribution empirique. Ces irrégularités sont souvent inexplicables
et proviennent de fluctuations d’échantillonnage, d’imprécision d’appareils de
mesure ou de tout autre facteur incontrôlé ou incontrôlable.
• Des tables de probabilités ont été élaborées pour les lois les plus importantes. Elles
simplifient considérablement les calculs.
1.1.1. Définition :
Une variable aléatoire discrète qui ne prend que les valeurs 1 et 0 avec les probabilités
respectives p et q = 1- p est appelée variable de BERNOULLI.
Exemple : Une urne contient deux boules rouges et trois boules vertes. On tire une
boule de l’urne. La variable aléatoire X = nombre de boules rouges tirées est une
variable de Bernoulli.
On a : P(X = 1) = 2/5 = p P(X = 0) = 3/5 = q
Plus généralement, on utilisera une variable de Bernoulli lorsqu’on effectue une épreuve
qui n’a que deux issues : le succès ou l’échec. Une telle expérience est alors appelée épreuve
de Bernoulli. On affecte alors 1 à la variable en cas de succès et 0 en cas d’échec.
x 0 1
f(x) = p(X = x) q p
E(X) = p V(X) = pq
a) On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues :
le succès avec une probabilité p ou l’échec avec une probabilité q.
b) On répète n fois cette épreuve.
c) Les n épreuves sont indépendantes entre elles, ce qui signifie que la
probabilité de réalisation de l’événement « succès » est la même à chaque
épreuve et est toujours égale à p.
Appelons Xi les variables de Bernoulli associées à chaque épreuve. Si la ième épreuve donne un
succès Xi vaut 1. Dans le cas contraire Xi vaut 0. La somme de ces variables comptabilise donc
le nombre de succès au cours des n épreuves.
On a donc : X = X1 + X2 + ..... + Xn . X peut prendre (n + 1) valeurs : 0,1,....., n.
⇒ La probabilité d'avoir k succès suivis de (n-k) échecs est p k q n− k car ces résultats
sont indépendants les uns des autres.
⇒ La probabilité d'avoir k succès et (n-k) échecs dans un autre ordre de réalisation est
toujours p k q n− k . Donc tous les événements élémentaires qui composent
l’événement
(X =k) ont même probabilité.
⇒ Combien y en a-t-il? Autant que de façons d’ordonner les k succès par rapport aux
(n-k) échecs ? Il suffit de choisir les k places des succès parmi les n possibles et les
(n-k) échecs prendront les places restantes. Or il y a Cn k manières de choisir k
places parmi n.
p(X = k) = Cn k p k q n− k
Remarque : L'adjectif binomial vient du fait que lorsqu'on somme toutes ces probabilités, on
retrouve le développement du binôme de Newton :
n n
k
∑ p( X = k ) = ∑ C n p k q n− k = ( p + q) n = 1
k =0 k =0
Remarque : La formule donnant l’espérance semble assez naturelle. En effet, le nombre moyen
de succès (qui correspond à la signification de l’espérance) est intuitivement égal au
produit du nombre d’essais par la probabilité de réalisation d’un succès.
b) Elle est dissymétrique dans le cas où p≠1/2. Si p est inférieur à 0.50, les probabilités sont
plus élevées du côté gauche de la distribution que du côté droit (asymétrie positive). Si p
est supérieur à 1/2, c’est l’inverse (asymétrie négative).
c) La distribution tend à devenir symétrique lorsque n est grand. De plus, si p n'est pas trop
voisin de 0 ou 1, elle s'approchera de la distribution de la loi normale que l'on verra
plus loin dans ce chapitre.
Si X 1 B(n 1 , p)
Si X 2 B(n 2 , p) alors X1 + X2 ∼> B(n1 + n2 , p).
Si X et X sont indépendantes
1 2
indépendantes des premières avec la même probabilité de succès que les premières, alors X1 +
X2 représente le nombre de succès en n1+n2 épreuves identiques et indépendantes.
a) On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues :
le succès avec une probabilité p ou l’échec avec une probabilité q = 1 - p.
c) Toutes les épreuves sont indépendantes entre elles, ce qui signifie que la
probabilité de réalisation de l'événement « succès » est la même à chaque
épreuve et est toujours égale à p.
Dans cette situation, on s’intéresse à la variable X = nombre de fois qu’il faut répéter
l’épreuve pour obtenir le premier succès.
Remarque : On est donc dans les mêmes hypothèses que pour la loi binomiale, mais le nombre
d’épreuves n’est pas fixé à l’avance. On s’arrête au premier succès.
p(X = n) = qn-1p
Remarque : l'appellation géométrique vient du fait qu'en sommant toutes les probabilités, on
obtient une série géométrique. En effet :
p
∑ p(1 − p) n −1
= p ∑ (1 − p) n−1 =
1 − (1 − p)
= 1
n∈ N ∗ n ≥1
On admet que :
1 1− p q
E( X ) = Var ( X ) = = 2
p p2 p
La propriété la plus importante de la loi géométrique est sans doute d'être "sans mémoire ".
En effet, la loi de probabilité du nombre d'épreuves à répéter jusqu'à l'obtention d'un premier
succès dans une suite d’épreuves de Bernoulli identiques indépendantes est la même quel que
soit le nombre d'échecs accumulés auparavant. On comprend intuitivement que cela découle de
l’indépendance des épreuves qui sont toutes identiques.
C'est la seule loi discrète qui possède cette propriété.
Beaucoup de situations sont liées à l’étude de la réalisation d'un événement dans un intervalle
de temps donné (arrivée de clients qui se présentent à un guichet d'une banque en une heure,
apparitions de pannes d'un réseau informatique en une année, arrivée de malades aux urgences
d'un hôpital en une nuit,....). Les phénomènes ainsi étudiés sont des phénomènes d'attente.
Pour décrire les réalisations dans le temps d'un événement donné, on peut :
La loi de Poisson peut être interprétée comme un cas limite d'une loi binomiale et la seconde
comme un cas limite d'une loi géométrique.
(2) La probabilité pour que l’événement se réalise une fois, au cours d’un petit
intervalle de temps Δt, est proportionnelle à l’amplitude de l’intervalle et vaut αΔt, où
α est une valeur positive que l’on suppose constante tout au long de la période
d’observation.
(3) Il est très rare d’observer plus d’une fois l’événement au cours d’un petit intervalle
de temps Δt, c’est-à-dire que la probabilité pour que l’événement se réalise plus d’une
fois au cours de l’intervalle de temps Δt est négligeable.
Les hypothèses (1), (2), (3) caractérisent ce qu'on appelle un processus de Poisson.
α est une constante du processus qui représente le nombre moyen de réalisations par unité de
temps et que l’on appelle l’intensité du processus.
Sous ces hypothèses, la variable aléatoire X = « nombre de fois où l’événement considéré se
réalise au cours d’un intervalle de temps de durée t » est distribuée suivant une loi de Poisson
de paramètre λ = αt .
Pour comprendre la relation entre ces deux lois, divisons l’intervalle de temps de longueur t, en
t
n petits intervalles de temps disjoints de longueur Δt = pour n assez grand.
n
L’hypothèse (3) du processus nous permet d’affirmer que dans chacun de ces n
petits intervalles il n’y a principalement que deux possibilités : l’événement se réalise
une fois ou ne se réalise pas (cela sera d’autant plus vrai que n est grand). Dans chaque
intervalle, la variable « nombre de réalisations de l’événement » est une variable de
Bernoulli .
L’hypothèse (2) du processus nous permet d’affirmer que dans chacun de ces n
petits intervalles, la probabilité de réalisation de l’événement est constante et égale à
t t
αΔt = α . Les variables de Bernoulli ont donc toutes le même paramètre p = α .
n n
Conclusion : On peut considérer la loi de Poisson de paramètre λ comme la loi limite d’une
t t
loi binomiale B(n, α ) lorsque n tend vers l’infini, le produit des paramètres nα restant
n n
toujours constant égal à αt = λ.
Nous allons nous appuyer sur cette caractérisation pour déterminer sa fonction de densité .
λ λ λ
Si Y suit une loi B(n, ) , on sait que : p(Y = k ) = C n k ( ) k (1 − ) n − k .
n n n
λ n n n −1 n − k + 1 λk λ n
n! λ k (1 − ) [ × ×.......× ] × × (1 − )
n n n n k ! n
donc : p(Y = k ) = × × =
( n − k )! k ! n k λ k λ
(1 − ) (1 − ) k
n n
- Chaque terme du produit entre crochets tend vers 1 lorsque n tend vers l’infini. Il y a k
termes, c’est-à-dire un nombre fini. Donc le crochet tend vers 1.
λ λ
- lim (1 − ) = 1 donc : lim (1 − ) k = 1 .
n →+∞ n n →+∞ n
λ
λ n n ln(1− )
-De plus : lim (1 − ) = lim e n = e−λ
n →+∞ n n →+∞
λ λ
(en utilisant la continuité de l’exponentielle et lim n ln(1 − ) = lim n(− ) = − λ )
n →+∞ n n →+∞ n
λk e − λ
Donc pour n assez grand : p(Y = k ) ≈ .
k!
e −λ λk
f ( k ) = p( X = k ) = k ∈N
k!
λ
La loi P(λ) est la loi limite de la loi B(n, ) lorsque n tend vers l’infini.
n
λ λ
Or l’espérance mathématique de la loi B(n, ) est n = λ.
n n
λ λ
Sa variance est n (1- ) , quantité qui tend vers λ lorsque n tend vers l’infini.
n n
E( X) = λ Var(X) = λ σ(X) = λ
La loi binomiale dépend de deux paramètres n et p. Bien qu’il existe quelques tables,
elle est n’est pas simple à utiliser. La loi de Poisson ne dépend que d’un paramètre ce qui la
rend donc plus pratique. Il faut donc avoir toujours présent à l’esprit que, lorsque les
conditions le permettent, on peut avoir intérêt à remplacer une loi binomiale par une loi de
Poisson.
Lorsque n est grand et p petit, de telle façon que le produit np = λ reste petit par
rapport à n, la loi binomiale B(n, p) peut être approchée par la loi de Poisson P(λ)(revoir ce
qui a été dit sur ce sujet dans le paragraphe : « Distribution de probabilités »).
Cette approximation s’appliquant lorsque p est petit, la loi de Poisson est appelée la loi des
événements rares.
En pratique, l'approximation est valable si : n>20 et p ≤ 0.1 et np ≤ 5.
n > 20
On approche la loi B(n,p) par la loi P(np) dès que np ≤ 5
p ≤ 01
.
RÈGLE IMPORTANTE : Lorsqu’on approche une loi par une autre, on choisit le ou les
paramètres de la loi approchante de manière que l’espérance (et la variance lorsqu’on a
suffisamment de paramètres)de la loi approchante soit égale à l’espérance (et la variance)de la
loi approchée.
Si X 1 P( λ 1 )
Si X 2 P( λ 2 ) alors X1+X2 ∼> P( λ1 + λ2 )
Si X et X sont indépendantes
1 2
On effectue un contrôle de qualité sur des composants fabriqués par une unité de
production. Un composant est réputé bon (ou mauvais) lorsqu’il satisfait (ou non) à des
spécifications. Le critère de choix est donc qualitatif. Le taux moyen de rebuts (pièces
mauvaises) est appelé p. On effectue un tirage de n pièces. La probabilité de trouver k pièces
mauvaises dans cet échantillon de taille n est donnée par une loi de Poisson (il s’agit ici de la loi
des événements rares : la loi binomiale est approchée par la loi de Poisson).
X ∼> P(np)
1
S.I.M.S. : Secondary Ions Mass Spectrometry : méthode permettant une analyse quantitative des impuretés
dans une masse solide. Un faisceau d’ions primaires abrase le matériau. Parmi les atomes arrachés à la cible,
certains sont ionisés (ions secondaires). Ils sont triés en masse au moyen d’une diflexion magnétique et comptés
pendant des intervalles de temps t0 au cours du processus d’abrasion. On obtient ainsi le profil de concentration
de l’impureté dans le matériau.
k
− np ( np)
p( X = k ) = e
k!
σX np 1
Lorsque np est petit, le rapport = = devient grand et la variabilité sur
E ( X) np np
k rend le contrôle imprécis. Ceci explique que, dans un contrôle de qualité, la taille des
échantillons tirés de la population des pièces fabriquées doit être au moins de l’ordre de 100.
nombre
de
particules
détectées
par
seconde
temps
d’abrasion ( mn )
Exemple : Lorsque l’événement attendu est la mort d’un individu (ou la panne d’un
équipement), α s’appelle le taux de mortalité (ou le taux de panne). Dire qu’il a une valeur
constante, c’est supposer qu’il n’y a pas de vieillissement (ou pas d’usure s’il s’agit d’un
équipement), la mort ou la panne intervenant de façon purement accidentelle.
nt 0
On cherche p(T>t0 )= p(X> )..........et lorsque n tend vers l’infini on obtient
t
+∞
− αt 0 − αu
p( T > t 0 ) = e = ∫ αe du .
t0
Ceci nous permet d’affirmer que la fonction de densité de la variable T est f ( x ) = αe −αx si x>0.
f ( x) = αe − αx x>0
On vient de voir que la loi exponentielle est la loi limite d’une loi géométrique.
t t
On a : T ≈ X où X suit la loi géométrique de paramètre α .
n n
αt
t t 1 1 t2 1− n 1
Or E ( T ) = E ( X ) = = et V ar ( T ) = 2 × ≈ 2 si n est grand
n n αt α n αt α
( )2
n n
Conclusion :
1 1 1
E(T) = Var(T) = σ (T ) =
α α2 α
Remarque : On peut très facilement retrouver ces résultats en effectuant un calcul direct à
partir de la fonction de densité en utilisant les formules de définition de l’espérance et la
variance (peut-être pourriez-vous le faire à titre d’exercice?)
Gauss. On trouve aussi l’expression, consacrée à une longue tradition, de loi normale (ce qui
ne signifie pas pour autant que les autres lois soient « anormales »).
Elle jouit d’une importance fondamentale car un grand nombre de méthodes statistiques
repose sur elle. Ceci est lié au fait qu’elle intervient comme loi limite dans des conditions très
générales.
Pour faire ressortir toute son importance et sa forme, W.J. Youden, du National Bureau
of Standards, a eu l’ingénieuse idée de la présenter telle qu’elle apparaît ci-dessous.
Définition : Une variable aléatoire continue suit une loi normale si l’expression de sa
fonction de densité de probabilités est de la forme :
1 x−m 2
1 − ( )
f ( x) = e 2 σ x∈ℜ
σ 2π
On démontre sans problème grâce à l’intégrale de Gauss (pourquoi ne pas effectuer le calcul à
titre d’exercice?) que :
E(X) = m Var(X) = σ 2 σ(X) = σ
c) L’axe des abscisses est une asymptote et l’aire sous la courbe à l’extérieur de
l’intervalle [m-3σ, m+3σ] est négligeable.
Pour fixer les idées, on peut indiquer que: p(m-σ<X<m+σ) = 0.6826.
p(m-2σ<X<m+2σ)= 0.9544.
p(m-3σ<X<m+3σ) = 0.9974.
Cela peut être visualisé sur le graphique ci-après.
Loi N ( 0, 1 )
Si X1 N(m1 , σ1 )
Si X 2 N(m2 ,σ2 ) alors X1 +X2 ∼> N(m1 + m2 , σ1 2 + σ 2 2 )
Si X et X sont independantes
1 2
Nous avons vu dans le chapitre 2 qu’à toute variable aléatoire X ,on pouvait associer
X − E( X )
une variable dite standardisée d’espérance nulle et de variance unité (ceci résultait
σ( X )
des propriétés de translation et de changement d’échelle).
On montre assez facilement que si on effectue cette transformation sur une variable
suivant une loi normale, la variable standardisée suit encore une loi normale mais cette fois-ci
de paramètres 0 et 1. La loi standardisée est appelée loi normale centrée réduite notée
N(0,1).
X −m
Donc si X ∼> N(m, σ) , on pose T = et T ∼> N(0,1).
σ
Il faut garder à l’esprit que concrètement T est le nombre d’écarts-type entre la valeur de X et
la moyenne.
La loi N(0,1) est tabulée à l’aide la fonction de répartition des valeurs positives ; Elle
t 2
1 − u2
donne les valeurs de Φ( t ) = p(0 ≤ T ≤ t ) = ∫ e du pour t>0. Ce nombre représente
0 2π
l’aire sous la courbe représentative de la distribution et au dessus de l’intervalle [0,t]. Pour
cette raison la table de la loi normale est aussi appelée table d’aires. Cette table ne dépend
d'aucun paramètre, mais permet cependant de déterminer les probabilités de n’importe quelle
distribution normale !
La première colonne de la table indique les unités et les dixièmes des valeurs de T alors que les
centièmes des valeurs de T se lisent sur la ligne supérieure de la table. La valeur trouvée à
l’intersection de la ligne et de la colonne adéquates donne l’aire cherchée.
a) Je cherche la valeur de p(0 ≤ T ≤ 0.5) .
A l’intersection de la ligne « 0.5 » et de la colonne « 0.00 » je lis 0.1915.
Remarque : Si la valeur de l’aire ne peut se lire directement dans les valeurs de la table, on
pourra toujours effectuer une interpolation linéaire entre deux valeurs adjacentes ou prendre la
valeur la plus proche.
Théorème : Hypothèses : Soit une suite de variables aléatoires X1,X2,...,Xn vérifiant les
conditions suivantes:
VarX k
(3) Pour tout k entre 1 et n lim n = 0.
n →+∞
∑ VarX
i =1
i
Remarque : C’est ce théorème très important qui nous permet d’affirmer que la situation
concrète énoncée au début de ce paragraphe nous met en présence d’une loi normale. En effet :
♦ X1,X2,...,Xn correspondent aux différents facteurs de fluctuations.
♦ Le grand nombre de causes est assuré par le fait que n → +∞ .
♦ L’indépendance parle d’elle-même.
♦ Additionner les effets revient à considérer la variable somme.
♦ Dire qu’aucun facteur n’est prépondérant est traduit par l’hypothèse (3) du
théorème.
Toute variable qui suit une loi binomiale B(n,p) peut toujours être considérée comme une
somme de n variables de Bernoulli indépendantes de même paramètre p.
X = X1 + ......+ Xn où Xi sont des variables de Bernoulli.
Les hypothèses du théorème central-limit étant vérifiées, on peut affirmer que, lorsque n tend
vers l’infini, la loi binomiale B(n,p) tend vers une loi normale . La loi normale qui l’approche le
mieux est celle qui possède la même espérance np et le même écart-type npq .
Or la distribution binomiale est asymétrique sauf lorsque p = 1/2. La distribution normale, elle,
est symétrique. L’approximation sera valable lorsque p n'est pas trop voisin de 0 ou 1 et sera
d’autant meilleure que p est proche de 1/2 et que n est grand.
En pratique:
n ≥ 30
On approche la loi B(n,p) par la loi N(np, npq ) dès que np ≥ 15
nq ≥ 15
Remarque : Remplacer une loi binomiale par une loi normale simplifie considérablement les
calculs. En effet les tables de la loi binomiale dépendent de deux paramètres et les valeurs de n
dans ces tables sont limitées supérieurement par 20. La loi normale, elle, après standardisation
ne dépend d’aucun paramètre .
On démontre qu’on peut aussi approcher la loi de Poisson par la loi normale pour les grandes
valeurs du paramètre de la loi de Poisson.. La seule qui puisse convenir est celle qui a même
espérance et même variance. On approche donc la loi P(λ) par la loi N(λ, λ ) .
En pratique, cela s’applique dès que λ ≥ 16.
Remarque : La loi de Poisson étant elle aussi une loi discrète, on peut avoir à appliquer la
correction de continuité.
Voici, lorsqu’elle s’applique, une méthode de travail qui peut guider votre démarche :
1. Suite à l’énoncé du problème, identifier correctement à l’aide de mots la variable
aléatoire que vous allez considérer.
2. Préciser les valeurs possibles que peut prendre cette variable.
3. Identifier correctement la loi de probabilité qu’elle suit en essayant de reconnaître
dans le problème une situation type.
4. Déterminer les paramètres de la loi.
5. Utiliser les formules théoriques ou les tables pour déterminer les probabilités
demandées. Face à de longs calculs et en l’absence de tables correspondant à vos ou
votre paramètre, penser à approcher votre loi par une autre.
Solution :
• Nous nous intéressons à la variable X = « nombre de tentatives nécessaires pour
obtenir la communication », ce que l’on peut considérer comme le nombre d’essais à
faire pour obtenir le premier succès. X suit une loi géométrique de paramètre p = 0.75
• On cherche à déterminer p( X ≤ 3) = p( X = 1) + p( X = 2) + p( X = 3)
• → On peut obtenir la communication au 1er essai. On a pour cela une probabilité
p(X = 1) = 0.75.
→ On peut obtenir la communication au 2ème essai. On a pour cela une probabilité p(X
= 2) = 0.25×0.75 = 0.1875.
→ On peut obtenir la communication au 3ème essai. On a pour cela une probabilité p(X
= 3) =0.252×0.75 = 0.0469.
→ Finalement la probabilité d’obtenir la communication en trois essais maximum est
p( X ≤ 3) = 0.75 + 0.1875 + 0.0469 = 0.9844 soit 98.5 %.
Exercice 2 : Un fabricant de pièces de machine prétend qu'au plus 10% de ses pièces sont
défectueuses. Un acheteur a besoin de 120 pièces. Pour disposer d'un nombre suffisant de
bonnes pièces, il en commande 140. Si l'affirmation du fabricant est valable, quelle est la
probabilité que l'acheteur reçoive au moins 120 bonnes pièces?
Solution :
• Appelons X la variable aléatoire correspondant au « nombre de bonnes pièces dans le
lot de 140 pièces ».
• X prend ses valeurs entre 0 et 140. De plus pour chaque pièce, on n’a que deux
éventualités : elle est bonne ou elle est défectueuse. La probabilité qu’une pièce soit
défectueuse est 0.1. Par conséquent elle est bonne avec la probabilité 0.9. On est donc
dans une situation type : X suit la loi binomiale de paramètres n = 140 et p = 0.9.
X ∼> B(140,0.9)
• On veut déterminer la probabilité que l’acheteur reçoive au moins 120 bonnes pièces
sur les 140, soit p( X ≥ 120) . A priori, il nous faudrait calculer la somme des
probabilités p(X = 120) + p(X = 121) +.......+ p(X = 140) ce qui serait
épouvantablement long. On essaie donc d’approcher la loi binomiale par une loi
tabulée :
n ≥ 30
Comme : np = 126 donc np > 10 , on pourra approcher la loi binomiale par une loi
nq = 14 donc nq > 10
normale. On choisit la loi normale qui a la même espérance et le même écart-type.
Donc X qui suit la loi B(140, 0.9) sera approchée par Y qui suit la loi N(126, 3.55).
• Pour remplacer une loi discrète par une loi continue, il est préférable d’utiliser la
correction de continuité : p( X ≥ 120) ≅ p(Y > 119.5) . On se ramène enfin à la loi
Y − 126
normale centrée réduite : T = .
355
.
Y − 126 119.5 − 126
p(Y > 119.5) = p( > ) = p(T > −183
. ) = p(T < 183
. ) = 0.5 + Φ(183
. ) = 0.97
355
. 355
.
Conclusion : l’acheteur a 97 chances sur 100 de recevoir 120 bonnes pièces sur les 140
achetées.
Solution :
• La variable X qui nous intéresse est le « nombre de réclamations reçues pendant une
année ». Il s’agit du nombre de réalisations d’un événement pendant un intervalle de
temps donné. X suit donc une loi de Poisson. Le nombre moyen de réalisations dans
une année est 300. Cette valeur moyenne est aussi le paramètre de la loi de Poisson.
Donc X suit la loi P(300).
• On cherche à déterminer p(X > 350). Il n’y a pas de table de la loi de Poisson pour
cette valeur du paramètre λ. Il nous faut donc approcher X qui suit la loi de Poisson
P(300) par Y qui suit la loi normale de même espérance et de même écart-type, c’est-
à-dire N(300, 300 ).
• Ici aussi, on remplace une loi discrète par une loi continue. Il faut donc appliquer la
correction de continuité : p( X > 350) = p( X ≥ 351) ≅ p(Y > 350.5) . On se ramène
Y − 300
finalement à la loi normale centrée réduite : T = .
300
350.5 − 300
p(Y > 350.5) = p(T > ) = p(T > 2.92) = 0.5 − Φ(2.92) = 0.0017 .
300
Exercice :4 Le nombre moyen de clients qui se présentent à la caisse d'un supermarché sur
un intervalle de 5 minutes est de 10. Quelle est la probabilité qu'aucun client ne se présente à la
caisse dans un intervalle de deux minutes ?(deux méthodes possibles)
Solution n°1 :
• Considérons la variable aléatoire X = « nombre de clients se présentant à la caisse
dans un intervalle de deux minutes ». Nous reconnaissons une situation type et la
variable X suit une loi de Poisson. Vu qu’en moyenne 10 clients se présentent en 5
mn, l’intensité du processus α est de 2 clients par minute : α = 2. Or le paramètre de
la loi de Poisson est λ = αt 0 t0 étant ici 2 minutes. D’où λ = 4.
Solution n°2 :
• Considérons à présent la question sous un autre angle en s’intéressant au temps
d’attente Y entre deux clients. Le cours nous dit que la loi suivie par une telle variable
est une loi exponentielle. Son paramètre α est l’intensité du processus de Poisson soit
ici α = 2. Y suit donc la loi Exp(2).
Les distributions que nous allons étudier sont importantes non pas pour représenter
des modèles théoriques de séries statistiques comme les précédentes, mais en raison du rôle
qu'elles jouent dans les problèmes d'estimation ou de tests que nous verrons par la suite.
Pour l’instant leurs définitions peuvent sembler complexes, notamment parce que la notion de
« degrés de liberté » n’a pas encore été précisée. Pour le moment, il importe simplement de
connaître leur définition et de savoir lire les tables correspondantes.
Elle a été découverte en 1905 par le mathématicien britannique Karl Pearson (1857-
1936) qui travailla également sur les problèmes de régression avec le généticien Sir Francis
Galton.
Cette distribution (qui se prononce khi-deux) est très importante pour tester
l'ajustement d'une loi théorique à une distribution expérimentale( test du χ 2 ) et pour
déterminer la loi de la variance d’un échantillon.
7.1.1. Définition
On note : X ∼> χ n 2
L’expression de la densité de probabilités étant très compliquée et d’aucun intérêt pour nous,
nous ne la donnons pas ici.
E(X) = n V(X) = 2n
Si X 1 χ2n
Si X 2 χ2p alors X1 +X2 ∼> χ 2 n+ p
Si X et X sont indépendantes
1 2
A mesure que n augmente, la loi du χ n 2 tend vers la loi normale, comme on peut le
constater sur le graphique ci-dessous.
En pratique, on peut considérer que pour n ≥ 30 on peut remplacer la loi du khi- deux à n
degrés de liberté χ n 2 par la loi normale N (n, 2n) .
Pour des raisons de commodité, au lieu de donner la table des fonctions de répartition
des variables aléatoires χ 2 pour les différentes valeurs de n, on donne, en fonction de n
(nombre de degrés de liberté) et d’une probabilité α que l’on peut choisir, la valeur χ 2 α , n
définie par : P(χ 2 > χ 2 α , n ) = α ;
α est un seuil et a en fait une signification particulière dans les problèmes d’estimation et de
tests. Il sera défini ultérieurement.
Cette distribution fut découverte par l’anglais Fisher en 1924 puis tabulée par Snédecor en
1934. Elle interviendra lors des comparaisons des variances de deux échantillons (test
d'hypothèse F).
7.2.1. Définition
Si χ12 et χ 22 sont deux variables aléatoires indépendantes qui suivent toutes les deux
χ12
n1
une loi de khi-deux de degrés de liberté respectifs n1 et n2 , alors la quantité F = 2 est une
χ2
n2
variable aléatoire qui suit la loi de Fischer-Snedecor à n1 et n2 degrés de liberté.
On note : F ∼> Fn1 ,n2 . Cette variable ne prend que des valeurs positives.
On n'écrit pas ici l'expression de la fonction de densité, compliquée et inutile pour nous. Les
formes de distribution dépendent de n1 et n2 et sont dissymétriques.
A mesure que les valeurs n1 et n2 augmentent, la loi de Fischer tend vers une loi normale.
Les valeurs tabulées de la variable F dépendent d’un seuil α que l’on peut choisir et des
nombres de degré de liberté n1 et n2 . La table donne la valeur Fα , n1 ,n2 définie par :
p( F > Fα ,n1 , n 2 ) = α .
7.3.1. Définition
X n
La quantité T = est une variable aléatoire qui suit une loi de Student à n degrés de
Y
liberté.
On écrit T ∼> Tn
La densité de probabilité est de forme complexe et nous n'en aurons jamais besoin.
La distribution est symétrique par rapport à l'origine et un peu plus aplatie que la distribution
normale centrée réduite.Elle ne dépend que de la valeur n qui est son nombre de degrés de
liberté.
n
On a E(T) = 0 si n>1 et Var(T) = si n>2
n−2
Les valeurs tabulées de la variable T dépendent d’un seuil α que l’on peut choisir et du nombre
de degré de liberté n. La table donne la valeur tα ,n définie par : p( T > t α , n ) = α .