Chap It Re 4
Chap It Re 4
Chap It Re 4
Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Chapitre 4
Lois de Probabilité
Sommaire
1. Introduction…………………………………………………………………………….…4
2. Lois discrètes……………………………………………………………………………..4
2.1. Loi uniforme…………………………………………………………………………………………..4
2.1.1. Définition……………………………………………………………………………..….4
2.1.2. Espérance et variance…………………………………………………………..5
2.2. Loi de Bernoulli……………………………………………………………………………………..5
2.2.1. Définition………………………………………………………………………………...5
2.2.2. Espérance et variance………………………………………………………….5
2.3. Loi Binomiale………………………………………………………………………………………….6
2.3.1. Définition…………………………………………………………………………….…..6
2.3.2. Espérance et variance………………………………………………………..…8
2.3.3. Symétrie et récurrence de la loi binomiale……………………..8
2.3.4. Stabilité de la loi binomiale…………………………………………………9
2.4. Loi de Poisson………………………………………………………………………………………..9
1
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
2.5.1. Définition……………………………………………………………………………..12
2.5.2. Espérance et variance……………………………………………………….13
2.6. Loi géométrique………………………………………………………………………………….13
3. Lois continues……………………………………………………………………………14
3.1. Loi uniforme…………………………………………………………………………………………14
3.1.1. Définition……………………………………………………………………………….14
3.1.2. Espérance et variance…………………………………………………………15
3.2. Loi normale ou loi de Laplace-Gauss…………………………………………….…16
3.2.1. Définition……………………………………………………………………………….16
3.2.2. Etude de la fonction densité de probabilité………………….17
3.2.3. Espérance et variance…………………………………………………………17
3.2.4. Stabilité de la loi normale………………………………………………….18
3.3. Loi normale réduite…………………………………………………………………………….18
3.3.1. Définition…………………………………………………………………………….…18
3.3.2. Etude de la fonction densité de probabilité………………….19
3.3.3. Espérance et variance…………………………………………………………19
3.3.4. Relation avec la loi normale……………………………………………….20
3.3.5. Calcul des probabilités d’une loi normale………………………..20
3.4. Lois déduites de la loi normale………………………………………………………...21
2
3.4.1. Loi du χ de Pearson…………………………………………………….……..21
4. Convergence……………………………………………………………………………….25
4.1. Convergence en loi………………………………………………………………………………25
2
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
3
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
1 Introduction
Il est toujours possible d’associer à une variable aléatoire une probabilité et définir ainsi une
loi de probabilité. Lorsque le nombre d’épreuves augmente indéfiniment, les fréquences
observées pour le phénomène étudié tendent vers les probabilités et les distributions
observées vers les distributions de probabilité ou loi de probabilité.
Identifier la loi de probabilité suivie par une variable aléatoire donnée est essentiel car cela
conditionne le choix des méthodes employées pour répondre à une question biologique
donnée (chapitre 5 et 6).
Identifier la loi de probabilité suivie par une variable aléatoire donnée est essentiel car cela
conditionne le choix des méthodes employées pour répondre à une question biologique
donnée (chapitre 5 et 6).
2 Lois discrètes
Par définition, les variables aléatoires discrètes prennent des valeurs entières discontinues sur
un intervalle donné. Ce sont généralement le résultat de dénombrement.
2.1.1 Définition
Une distribution de probabilité suit une loi uniforme lorsque toutes les valeurs prises par la
variable aléatoire sont équiprobables. Si n est le nombre de valeurs différentes prises par la
1
variable aléatoire, ∀ i, P(X = xi) =
n
Exemple :
La distribution des chiffres obtenus au lancer de dé (si ce dernier est non pipé) suit une loi
uniforme dont la loi de probabilité est la suivante :
X 1 2 3 4 5 6
P ( X = xi ) 1 1 1 1 1 1
6 6 6 6 6 6
4
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
1 6 1 6 2
avec pour espérance : E(X ) = ∑ i = 3,5 et pour variance V(X ) = ∑ i − E(X)2 = 2,92
6 i=1 6 i =1
où les valeurs xi correspondent au rang i de la variable X dans la série.
Dans le cas particulier d’une loi discrète uniforme où les valeurs de la variable aléatoire
X correspondent au rang xi = i (∀ i ∈ [1, n])
n+1 n 2 −1
E(X) = et V (X ) = Démonstration.
2 12
2.2.1 Définition
5
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
2.3.1 Définition
Décrite pour la première fois par Isaac Newton en 1676 et démontrée pour la première fois
par le mathématicien suisse Jacob Bernoulli en 1713, la loi binomiale est l’une des
distributions de probabilité les plus fréquemment rencontrées en statistique appliquée.
n n
Soit l’application Sn : Ω → R
avec Sn = X1 + X2 +…+ Xi + ...+ Xn où Xi est une variable de Bernoulli
k k n−k
P(Sn = k) = Cn p q Démonstration
Il est facile de démontrer que l’on a bien une loi de probabilité car :
n n
∑ P (S n = k ) = ∑ C nk p k q n − k = ( p + q) n = 1 car p+q = 1
k=0 k=0
6
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Exemple :
Dans une expérience sur le comportement du rat, rattus norvegicus, on fait pénétrer
successivement n rats dans un labyrinthe en forme de H. On étudie alors la probabilité que k
rats empruntent la branche supérieure droite du H.
A chaque épreuve, deux évènements peuvent se produire : soit le rat suit l’itinéraire voulu
(succès) soit il ne l’emprunte pas (échec). Sachant qu’il y a 4 itinéraires possibles (branches),
la probabilité du succès p = 1/4.
Hypothèse :
- si les rats n’ont pas été conditionnés,
- si la branche supérieure droite ne comporte aucun élément attractif ou répulsif,
- si le choix de l’itinéraire d’un rat n’affecte pas le choix du suivant (odeurs)
alors : la variable aléatoire X « itinéraire emprunté pour x rats » suit une loi binomiale
1
X → β (n, )
4
dont la distribution des probabilités est la suivante si l’on étudie le comportement de 5 rats :
k P(X = k)
5
P(X=k) 0 3
Distribution de probabilités 0 C5 = 0,237
0, 40
4
de la variable binomiale X 4
X → B (5, 0,25) 1 1 3 1
C 5 = 0,395
0, 30
4 4
3 2
2 2 3 1
C5 = 0,264
0, 20
4 4
3 2 3
3 3 1
0, 10 C 5 = 0,088
4 4
4 4
4 3 1
0, 00
C 5 = 0,015
0 1 2 3 4 5 k 5 4 4
5
Nombre de rats ayant empruntˇ la 5 1
C5 = 0,001
branche supˇrieure droite du labyrinthe. 4
Remarque : Il est possible d’obtenir aisément les valeurs des combinaisons de la loi
binomiale en utilisant le triangle de Pascal. De plus on vérifie que la somme des probabilités
est bien égale à 1.
7
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Exemple :
Dans le cadre de l’étude de comportement du rat , quel est en moyenne le nombre attendu
de rats qui vont emprunter l’itinéraire prévu si l’expérience porte sur un lot de 20 rats ?
Donnez également la variance et l’écart type de cette variable ? Réponse.
La loi binomiale dépend des deux paramètres n et p. Elle est symétrique pour p = 0,5 et
dissymétrique pour les autres valeurs de p. La dissymétrie est d’autant plus forte :
(1) pour n fixe, que p est différent de q (graphe)
(2) pour p fixe que n est plus petit.
Afin de faciliter les calculs des probabilités, il est possible d’utiliser une formule de
récurrence donnant les valeurs des probabilités successives :
n − k +1 p
P (Sn = k ) = P (S n = k − 1) Démonstration
k q
8
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Théorème :
Si Sn et Sm sont deux variables indépendantes suivant des lois binomiales respectivement
Sn → B(n,p) et Sm → B(m,p) alors Sn + Sm → B(n+m,p) démonstration
Comportement asymptotique :
si n → ∞ et p → 0,
alors X : B(n,p) → P(λ) avec np → λ (voir démonstration)
Exemple :
Soit une loi binomiale de paramètres (100 ; 0,01), les valeurs des probabilités pour k de 0 à 5
-
ainsi que leur approximation à 10 3 avec une loi de Poisson de paramètre (λ= np =1) sont
données dans le tableau ci-dessous :
k 0 1 2 3 4 5
9
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Dans le cas de cet exemple où n =100 et np =1, l’approximation de la loi binomiale par une
loi de poisson donne des valeurs de probabilités identiques à 10-3 près.
Ainsi, des évènements qui se réalisent de façon aléatoire comme des pannes de machines, des
accidents d’avions, des fautes dans un texte, …peuvent être considérés comme relevant d’un
processus poissonnien.
Une variable aléatoire X à valeurs dans R suit une loi de Poisson de paramètre λ (λ > 0) si
λk e − λ
les réels pk sont donnés par P(X = k) =
k!
on note : X → P(λ)
Exemple :
La probabilité qu’il n’y ait aucune colonie sur la boite de Pétri est :
10
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
50 e−5
P(X = 0) = = 0,0067 soit approximativement 0,67 % de chance.
0!
La probabilité qu’il n’y ait au moins une colonie sur la boite de Pétri est :
P(X > 0)=1- P(X = 0) = 1-0,0067 = 0,9933 soit 99,3 % de chance d’avoir au moins
une colonie bactérienne qui se développe dans la boite de Pétri. (voir événement contraire)
Comme pour la loi binomiale, il est possible d’utiliser une formule de récurrence pour
calculer les valeurs des probabilités successives :
λ
P(X = k) = P(X = k −1) Démonstration
k
λk λ2 λ3 λk +1 λ λ2 λk
avec ∑
k ≥0
= λ + + + ....+
k! 1! 2! k!
= λ 1 + + + ...+
1! 2! k!
λk
d’où E(X ) = λe
−λ
∑ k! = λe −λ λ
e =λ
k >0
k!
= ∑ λk e − λ + ∑
k ≥0 k! k ≥0 k!
λe
λke −λ λ2 λ3 λk +1 −λ 2 λ3 λ4 λk +2
d’où ∑k 2
k!
= e− λ λ + + + ...+
1! 2! k!
+ e λ + + + ....+
1! 2! k!
k≥ 0
λke −λ λk λk
d’où ∑k 2
k!
= λe 2 −λ
∑ k! + λe ∑ k! −λ
k≥ 0 k ≥0 k≥ 0
11
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
d’où V(X ) = λ2 e −λ e λ + λ e −λ e λ − λ2 = λ
Remarque : Il est à noter que dans le cas d’une variable aléatoire de Poisson, l’espérance
et la variance prennent la même valeur. Ceci est un élément à prendre en compte lors des
tests de conformité à une loi de probabilité.
Exemples :
Dans le cadre de la culture bactérienne, le nombre moyen de colonies attendu sur la boite de
Pétri est : E(X) = λ = 5 colonies.
Ainsi si l’on effectue plusieurs cultures bactériennes (plusieurs boites de Pétri) à partir de la
même solution initiale, on attend en moyenne cinq colonies pour l’ensemble des boites.
2.5.1 Définition
12
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Remarque : Dans le cas de la loi binomiale négative, le nombre de succès n est connu et
l’on cherche le nombre d’épreuves k, nécessaire pour obtenir les n succès. Ainsi le dernier
évènement est connu car les épreuves cessent avec l’obtention du nieme succès et l’on choisit
n-1 objets parmi k-1.
Exemple :
Pour étudier le domaine vital d’une population de poissons, des émetteurs radio sont fixés au
niveau de la nageoire dorsale après une légère anesthésie locale. Suite à divers aléas, on
considère que 30 % des poissons équipés ne sont pas repérés par la suite. Si l’on considère
qu’un minimum de 15 poissons doivent être suivis pour avoir des résultats statistiquement
acceptables, la variable aléatoire X « nombre de poissons devant être équipés » suit une loi
binomiale négative X → BN (15, 0,70)
En posant comme hypothèse que les causes de pertes de liaisons radio soient suffisamment
nombreuses pour assurer l’indépendance entre chaque épreuve, la probabilité d’être obligé
d’équiper 20 poissons est de :
19! 15 5
P(X = 20) = (0,70) (0, 30) = 0,13
14!5!
n
L’espérance associée à une loi binomiale négative est : E(X) =
p
q
La variance associée à une loi binomiale négative est : V(X) = n
p2
Lorsque le nombre de succès n est égal à 1, la loi de la variable aléatoire discrète X porte
le nom de loi de Pascal ou loi géométrique de paramètre p telle que :
k-1
P(X = k) = pq avec k ∈ N*
13
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Voici pourquoi :
Si l’on considère la variable aléatoire X « nombre de naissances observées avant
l’obtention d’une fille » avec p = 1/2 (même probabilité de naissance d’une fille ou d’un
garçon), la loi suivit par X est une loi géométrique car :
X = 1 si {X= F} avec P(X = 1) = p
X = 2 si {X= G∩F} avec P(X = 2) = qp
X = 3 si {X= G∩G∩F} avec P(X = 3) = qqp = q2p
d’où X = k si {X=G∩G∩…∩.G∩F} avec k-1 {X=G} et donc P(X = k) = pqk-1
1
D’où l’espérance associée à la loi géométrique est : E(X ) =
p
q
et la variance associée à la loi géométrique est : V(X ) =
p2
3 Lois continues
Par définition, les variables aléatoires continues prennent des valeurs continues sur un
intervalle donné.
3.1.1 Définition
La loi uniforme est la loi exacte de phénomènes continus uniformément répartis sur un
intervalle.
La variable aléatoire X suit une loi uniforme sur le segment [a,b] avec a < b si sa
densité de probabilité est donnée par :
1
f(x) = si x ∈ [a,b]
b−a
f(x) = 0 si x ∉ [a,b]
14
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
f(x) F(x)
1 1
b-a
0 0
a b x a b x
Fonction de densité de probabilité Fonction de répartition
Quelques commentaires :
(1) La loi uniforme continue étant une loi de probabilité, l’aire hachurée en rouge sur la
1
figure ci-dessus vaut 1. Ceci implique que la valeur prise par f(x) vaut .
b−a
(2) La probabilité que X ∈ [a’,b’] avec a’ < b’ et a’,b’ ∈ [a,b] vaut :
b′ b′ dx b′ − a′
P(a ′ ≤ X ≤ b ′ ) = ∫a ′ f (x)dx = ∫a ′ b − a = b−a
(3) La fonction de répartition associée à la loi uniforme continue est telle que :
FX (x) = 0 si x < a
FX (x) = 1 si x > b
x−a
FX (x) = si a ≤ x ≤ b
b−a
15
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
(b − a)
2
1 b 3 − a 3 1 2 2
(b + a)2 1 2 2
or = (b + ab + a ) et = (b + 2ab + a )
b−a 3 3 4 4
1 b3 − a3 (b + a)2 (b − a) 2
d’où V(X ) = − =
b−a 3 4 12
3.2.1 Définition
On parle de loi normale lorsque l’on a affaire à une variable aléatoire continue dépendant
d’un grand nombre de causes indépendantes dont les effets s’additionnent et dont aucune n’est
prépondérante (conditions de Borel). Cette loi acquiert sa forme définitive avec Gauss (en
1809) et Laplace (en 1812). C’est pourquoi elle porte également les noms de : loi de
Laplace, loi de Gauss et loi de Laplace-Gauss.
Exemple :
Ainsi la taille corporelle d’un animal dépend des facteurs environnementaux (disponibilité
pour la nourriture, climat, prédation, etc.) et génétiques. Dans la mesure où ces facteurs sont
indépendants et qu’aucun n’est prépondérant, on peut supposer que la taille corporelle suit
une loi normale.
Une variable aléatoire absolument continue X suit une loi normale de paramètres (µ , σ) si
sa densité de probabilité est donnée par :
f :R → R
1 x − µ 2
1 −
2 σ
+
x a f (x) = e avec µ ∈ R et σ ∈ R
σ 2π
Notation : X → N(µ , σ)
16
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
+∞
Remarque : On admet que ∫−∞ f (x)dx =1 dans la mesure où l’intégration analytique est
impossible.
La fonction f est paire autour d’un axe de symétrie x = µ car f(x + µ ) = f(µ - x)
d’où DE = [µ , +∞[
La dérivé première f ’(x) est égale à : f ’(x) = − x −2µ f(x) Démonstration
σ
d’où f ’(x) = 0 pour x = µ et f ’(x) < 0 pour x > µ
2
La dérivé seconde f ’’(x) est égale à : f ’’(x) = − 12 1 − ( x − 2µ ) f ( x ) Démonstration
σ σ
d’où f ’’(x) = 0 pour x = µ + σ et f ’’(x) > 0 pour x > µ + σ
x µ µ+ σ +∞
f ’’(x) - 0 +
f ’(x) 0 -
1
σ 2π
f(x)
1
1 −
e 2
σ 2π
2
La variance de la loi normale vaut : V(X) = σ
17
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Théorème :
Soient X1 et X2 deux variables aléatoires normales indépendantes de paramètres
respectifs (µ1, σ1) , (µ2, σ2), alors leur somme X1+X2 est une variable aléatoire normale
de paramètres (µ1 + µ2, σ 12 + σ 22 ).
Voici pourquoi :
3.3.1 Définition
Une variable aléatoire continue X suit une loi normale réduite si sa densité de probabilité
est donnée par :
f:R → R
1
1 −2 x2
x a f (x) = e
2π
• ∀ x ∈R, f(x) ≥ 0
+∞
• f est intégrable sur ]-∞, + ∞[ et ∫−∞ f (x)dx = 1
18
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
x 0 1 +∞
f ’’(x) + 0 -
f ’(x) 0 -
1
2π
f(x) 1
2πe
0
x2
1 +∞ −
∫−∞ x
2
d’où V(X) = e 2
dx
2π
En effectuant une intégration par partie :
19
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
x2
+∞
x2 +∞
1 − +∞ − −
x 2
V (X ) = −xe 2 − ∫ −e 2 dx avec − xe 2 = 0
2π −∞ −∞
−∞
x2
1 +∞ − 2
or V (X ) =
2π
∫ −∞
e dx =1 par définition d’une fonction de répartition
d’où V(X) = 1
X−µ
Si X suit une loi normale N (µ,σ), alors Z = , une variable centrée réduite suit
σ
une la loi normale réduite N (0,1).
20
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Une application directe de la fonction π est la lecture des probabilités sur la table de la loi
normale réduite.
2
3.4.1 Loi du χ de Pearson
Définition
2
La loi de Pearson ou loi de χ (Khi deux) trouve de nombreuses applications dans le cadre
de la comparaison de proportions, des tests de conformité d’une distribution observée à une
distribution théorique et le test d’indépendance de deux caractères qualitatifs. Ce sont les test
du khi-deux.
Soit X1, X2, …, Xi,…, Xn, n variables normales centrées réduites, on appelle
χ2 la variable aléatoire définie par :
n
χ2 = X12 + X22 +…+ Xi2 +…+ Xn2 = ∑ Xi2
i=1
On dit que χ suit une loi de Pearson à n degrés de liberté (d.d.l.).
2
Propriétés :
(P1) Si X1, X2, X3, …, Xi,…, Xn sont n variables normales centrées réduites et s’il existe k
relations de dépendance entre ces variables alors X12 + X22 + X32 +…+ Xi2 +…+ Xn2 suit une
loi de Pearson à n - k degrés de liberté.
21
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
+∞
Remarque : La constante C(n) est telle que ∫ f ( x)dx = 1 . La distribution du χ2 est
−∞
dissymétrique et tend à devenir symétrique lorsque n augmente en se rapprochant de la
distribution normale à laquelle elle peut être assimilée lorsque n > 30.
Espérance et variance
22
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Définition
La loi de Student (ou loi de Student-Fisher) est utilisée lors des tests de comparaison de
paramètres comme la moyenne et dans l’estimation de paramètres de la population à partir de
données sur un échantillon (Test de Student). Student est le pseudonyme du statisticien
anglais William Gosset qui travaillait comme conseiller à la brasserie Guinness et qui publia
en 1908 sous ce nom, une étude portant sur cette variable aléatoire.
Soit U une variable aléatoire suivant une loi normale réduite N(0,1) et V une variable
aléatoire suivant une loi de Pearson à n degrés de liberté χn2 , U et V étant indépendantes, on
U
dit alors que Tn = suit une loi de Student à n degrés de liberté.
V
n
La fonction densité de
probabilité est de la forme :
(n +1)
T 2 − 2
f (T ) = C(n)1+
n
Calcul des probabilités avec la
table de la loi de Student
+∞
Remarque : La constante C(n) est telle que ∫ −∞
f ( x)dx = 1 . La distribution du T de
Student est symétrique et tend vers une loi normale lorsque n augmente indéfiniment.
Espérance et variance
23
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
n
La variance de la variable de Student est : V (T) = si n > 2
n −2
La loi de Fisher-Snedecor est utilisée pour comparer deux variances observées et sert surtout
dans les très nombreux tests d’analyse de variance et de covariance.
Pour F ≤ 0, f(F) = 0
Utilisation des tables de Fisher-Snedecor
pour le calcul des probabilités.
U2 2
Remarque : Si n = 1, alors on a la relation suivante : F(1, m ) = = Tm (voir Rapport
V m
entre loi de probabilité).
Espérance et variance
m
L’espérance de la variable de Fisher-Snédecor est : E(F) = si m >2
m−2
24
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
2m 2 (n + m − 2)
La variance de la variable de Fisher-Snédecor est : V(F) = si m > 4
n(m − 2)2 (m − 4)
4 Convergence
Dans ce paragraphe, sont traités des éléments de calcul des probabilités dont l’application
statistique est nombreuse. La partie fondamentale est le théorème central limite. Les
éléments présentés permettent de préciser ce que signifie l’ajustement d’une loi de probabilité
par une autre (notion de convergence) et ainsi de justifier l’approximation d’une distribution
observée par une loi théorique (chapitre 7). De plus ces éléments permettent de donner des
limites d’erreurs possibles dans l’estimation d’un élément d’une population (chapitre 6).
Soit une suite de n variables aléatoires X1, X2, X3, …, Xi,…, Xn. Cette suite converge en loi
vers la variable aléatoire X de fonction de répartition FX quand n augmente indéfiniment, si
la suite des fonctions de répartition FX1 ,FX 2 ,FX 3 ,....,FX I ,....FX n tend vers la fonction de
répartition FX pour tout x pour lequel FX est continue.
Exemple :
Nous avons montré que la loi de probabilité d’une variable binomiale tend vers une loi de
Poisson lorsque n tend vers l’infini. Il en serait de même des fonctions de répartition
correspondantes. On peut donc dire que la loi binomiale B(n,p) converge en loi vers une loi
de Poisson de paramètres np. (voir Rapport entre loi de probabilité).
Appelé également théorème de la limite centrale, il fut établi par Liapounoff et Lindeberg.
On se place dans une situation d’épreuves répétées, caractérisées par une suite
X1, X2, X3, …, Xi,…, Xn de n variables aléatoires indépendantes et de même loi (espérance
2
E(Xi) = µ et variance V (Xi) = σ ). On définit ainsi deux nouvelles variables aléatoires :
25
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
telles que :
E(Sn ) = nµ E(Mn ) = µ
2 σ2
V(Sn ) = nσ V(M n ) =
n
Voici pouquoi :
Pour les deux variables aléatoires , les valeurs de l’espérance et de la variance sont liées aux
propriétés de linéarité et d’indépendance.
Une variable aléatoire résultant de la somme de plusieurs v.a. ayant même loi et même
paramètres est distribuée suivant une loi normale réduite lorsque le nombre d’épreuves n
tend vers l’infini.
Le théorème central limite s’applique quelque soit la loi de probabilité suivie par les
variables aléatoires discrètes ou continues, pourvu que les épreuves soient indépendantes,
reproductibles et en très grand nombre.
Grâce au théorème de la limite centrale, on peut voir que des phénomènes dont la variation est
engendrée par un nombre important de causes indépendantes sont généralement susceptibles
d’être représentés par une loi normale.
26
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Théorème :
Soit X une variable aléatoire suivant une loi binomiale de paramètres (n,p), alors
1 k − µ 2
1 −
σ
P(X = k) ≈ e 2 quand n → ∞ c’est à dire N(0,1)
σ 2π
avec µ = E(X) = n p et σ2 = V(X) = n p q
La convergence est d’autant plus rapide que p est voisin de 0,5, distribution symétrique pour
la loi binomiale.
Théorème :
Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ alors
1 k − λ 2
1 −
2 λ
P(X = k) ≈ e quand n → ∞ c’est à dire N(0,1)
λ 2π
avec E(X) = λ et V(X) = λ
27
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
Le problème est de donner une consistance quantitative à la remarque déjà faite que, plus
l’écart-type d’une variable aléatoire est faible, plus sa distribution de probabilité est
concentrée autour de son espérance mathématique (voir degré d’aplatissement de la loi
normale). Afin de démontrer cette inégalité, nous allons présenter tout d’abord l’inégalité de
Markov.
Soit X une variable aléatoire admettant une espérance E(X) et une variance V(X), étant donné,
un réel h>0 l’inégalité de Markov donne :
1 2
P( X ≥ h) ≤ 2 E( X )
h
Voici pourquoi :
P( X ≥ h) = ∑ pi la sommation étant étendue à toutes les valeurs de i tels que |xi| > h
i∈I
2 2
xi x x
dans ce cas : ≥ 1 soit 1 ≤ i2 ⇔ pi ≤ pi i2
h h h
1 1 1
ainsi ∑ pi ≤ 2 ∑ pi x 2i d’où ∑ pi ≤ 2 E(X 2 ) et P( X ≥ h) ≤ 2 E(X 2 )
i∈I h i∈ I i∈I h h
σ2
P( X − X ≤ h) ≥ 1 −
h2
En posant h = tσ avec t > 0, on obtient l’inégalité suivante
X−X 1
P( ≤ t) ≥ 1 − sachant que σ > 0
σ t2
28
Mathématiques : Outils pour la Biologie – Deug SV1 – UCBL D. Mouchiroud (5/10/2002)
......................................................................................................................................................................................................
X−X 1
∀t > 0 P( ≥ t) ≤ inégalité de Bienaymé-Tchébycheff
σ t2
29