Chapitre3 Probabilités L1MPI

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 10

Chapitre III: Conditionnement et indépendance

I Probabilité conditionnelle
I.1 Approche de la notion
La notion de probabilité conditionnelle est une des notions les plus importantes en théorie des
probabilités. Avant de l’introduire de façon formelle, considérons un exemple illustratif.
Exemple 1
On lance à deux reprises un dé bien balancé. Quelle est la probabilitéé d’obtenir au moins une
fois la valeur six?
Pour résoudre ce problème élémentaire, il suffit d’observer que
• l’expérience aléatoire ?"lancer un dé deux fois" donne lieu à 36 résultats possibles;
• ces 36 résultats possibles sont ?équiprobables: ils ont tous la même probabilité;
• parmi ces 36 résultats, il y en a 11 pour lesquels on obtient au moins un six; comme
l’illustre le tableau ci dessous
lancer 1\ lancer 2 1 2 3 4 5 6
1 (1,1) (1,2) (1,3) (1,4) (1,5) (1,6)
2 (2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
3 (3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
4 (4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
5 (5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
6 (6,1) (6,2) (6,3) (6,4) (6,5) (6,6)

La réponse est donc 11/36.


Maintenant, on lance le dé deux fois et on vous annonce que la somme des deux lancers est 8.
Étant donnée cette information, quelle est la probabilité d’avoir obtenu au moins un six?
Pour résoudre ce problème, on note d’abord qu’il y a 5 résultats possibles pour lesquels la somme
des deux lancers est 8:
(2, 6), (3, 5), (4, 4), (5, 3), (6, 2).
Parmi ces 5 résultats possibles, il y en a 2 pour lesquels il y a un six: (2, 6) et (6, 2). La réponse
est donc 2/5.
Examinons notre démarche d’un peu plus près. Posons

A = l’événement "obtenir au moins un six"


= = {(1, 6), (2, 6), (3, 6), (4, 6), (5, 6), (6, 6), (6, 5), (6, 4), (6, 3), (6, 2), (6, 1)},

B = l’événement "la somme des deux lancers est 8"


= = {(2, 6), (3, 5), (4, 4), (5, 3), (6, 2)},

et notons que
A ∩ B = {(2, 6), (6, 2)}.

1
Notre réponse 2/5 peut donc s’écrire sous la forme

2 2/36 P (A ∩ B)
= = .
5 5/36 P (B)
Cet exemple motive la définition suivante:
I.2 Définition de probabilité conditionnelle
Soient E, une expéerience aléatoire avec ensemble fondamental Ω et B un événement de proba-
bilité non nulle. Pour tout événement A, on appelle probabilité conditionnelle de A sachant B
(ou probabilité conditionnelle de A sachant que B est realisé) le nombre réel noté P (A/B) (ou
PB (A)) et défini par:
P (A ∩ B)
P (A/B) = .
P (B)
La figure 1 illustre cette définition. Sachant que l’événement B s’est réalisé, la probabilité que
l’événement A se soit réalisé est égale à la probabilité de l’intersection A ∩ B (région ombragée)
divisée par la probabilité de l’événement B (région encerclée par une ligne épaisse).

Théorème I.1
Soit B, un événement tel que P (B) > 0. Alors
(a) Pour tout événement A on a 0 ≤ P (A/B) ≤ 1.
(b) P (∅/B) = 0 et P (Ω/B) = 1.
(c) Si A1 et A2 sont des événements incompatibes, alors

P [(A1 ∪ A2 )/B] = P (A1 /B) + P (A2 /B).

Preuve
(a) A ∩ B ⊂ B ⇒ P (A ∩ B) ≤ P (B) ⇒ 0 ≤ P (A/B) ≤ 1.
P (∅ ∩ B) P (∅) P (Ω ∩ B) P (B)
(b) P (∅/B) = = = 0. et P (Ω/B) = = = 1.
P (B) P (B) h P (B) iP (B)
P [(A1 ∪ A2 ) ∩ B] P (A1 ∩ B) ∪ (A2 ∩ B) P (A1 ∩ B) + P (A2 ∩ B)
(c) P [(A1 ∪A2 )/B] = = =
P (B) P (B) P (B)

P (A1 ∩ B) P (A2 ∩ B)
= + = P (A1 /B) + P (A2 /B),
P (B) P (B)
puisque A1 ∩ B et A2 ∩ B sont deux événements incompatibles.
On reconnaît ici les trois axiomes de définition d’une probabilité. Ce théoréme nous dit donc
que si on fixe B, alors la fonction qui associe à chaque événement A sa probabilité conditionnelle
P (A|B) est une probabilité sur Ω. Il s’en suit que toutes les propriétés usuelles des probabilités
sont également valides pour les probabilités conditionnelles. Par exemple, on a:

2
• Si A ⊂ C alors P (A/B) ≤ P (C/B).
• P (Ac /B) = 1 − P (A/B).
• P [(A ∪ C)/B] = P (C/B) + P (A/C) − P [(A ∩ C)/B].
II La règle de multiplication
Dans certains problèmes, les probabilités P (A ∩ B) et P (B) sont ou bien données ou bien faciles
à calculer. On peut alors utiliser la définition
P (A ∩ B)
P (A/B) =
P (B)
pour calculer la probabilité conditionnelle P (A/B). Mais souvent ce sont la probabilité condi-
tionnelle P (A/B) et la probabilité P (B) qui sont ou bien données ou bien faciles à calculer.
On peut alors calculer P (A ∩ B) à l’aide de la règle de multiplication:

P (A ∩ B) = P (A/B)P (B).

Les rôles de A et B étant symétriques dans l’expression P (A ∩ B), on peut aussi écrire la règle
de multiplication sous la forme

P (A ∩ B) = P (B/A)P (A).

Dans la pratique, ce sont les données du problème qui nous indiquent laquelle des deux équa-
tions précédentes utiliser. Dans le premier cas, on dit qu’on calcule P (A ∩ B) en conditionnant
sur B. Dans le deuxième cas, on dit qu’on calcule P (A ∩ B) en conditionnant sur A. Souvent
il y a un ordre chronologique qui nous suggère sur quel événement on doit conditionner.
Une généralisation élémentaire de la règle de multiplication nous permet de traiter les intersec-
tions de plus de deux événement. Considérons par exemple le cas d’une intersection de trois
événements, disons A ∩ B ∩ C. En conditionnant sur A ∩ B on obtient

P (A ∩ B ∩ C) = P (A ∩ B)P (C/A ∩ B)

et en conditionnant sur A on obtient

P (A ∩ B) = P (A)P (B|A).

En combinant ces deux dernières équations, on obtient la règle de multiplication pour l’intersection
de trois événements:
P (A ∩ B ∩ C) = P (A)P (B/A)P (C/A ∩ B).
Le cas général se traite de la même façon et le résultat s’énonce ainsi:
Théorème II.1 (règle de multiplication)
Si A1 , A2 , ..., An sont n événements et si P (A1 ∩ A2 ... ∩ An−1 ) 6= 0, alors

P (A1 ∩ A2 ∩ ... ∩ An ) = P (A1 ) × P (A2 /A1 ) × P (A3 /A1 ∩ A2 ) × · · · × P (An /A1 ∩ A2 ... ∩ An−1 ).

Preuve
Puisque
A1 ∩ A2 ∩ ... ∩ An−1 ⊂ A1 ∩ A2 ∩ ... ∩ An−2 ⊂ ... ⊂ A1 ∩ A2 ⊂ A1 ,
par croissance d’une probabilité, on a:

P (A1 ∩ A2 ∩ ... ∩ An−1 ) ≤ P (A1 ∩ A2 ∩ ... ∩ An−2 ) ≤ ... ≤ P (A1 ∩ A2 ) ≤ P (A1 ).

3
Un calcul direct donne alors:
P (A1 ∩ A2 ) P (A1 ∩ A2 ∩ A3 ) P (A1 ∩ A2 ∩ ... ∩ An )
P (A1 ) × × × ... × = P (A1 ∩ A2 ∩ ... ∩ An )
P (A1 ) P (A1 ∩ A2 ) P (A1 ∩ A2 ... ∩ An−1 )
après simplification.
Remarques 2
La règle de multiplication est aussi appelée probabilités composées ou règle des conditionnements
succesifs.
III La loi des probabilités totales
Voici un exemple pour illustrer le r?esultat de ce paragraphe.
Exemple 3
Dans une usine, on fabrique des composants électroniques sur trois machines. Les machines
M1 , M2 et M3 produisent respectivement 50%, 30% et 20% des composants. Un qualiticien de
l’usine estime que:
• 2% des composants fabriqués par la machine M1 sont défectueux,
• 3% des composants fabriqués par la machine M2 sont défectueux,
• 5% des composants fabriqués par la machine M3 sont défectueux.
a) Quelle est la probabilité qu’un composant pris au hasard à la sortie de l’usine soit défectueux?
Solution
Pour résoudre ce problème, posons
D= l’événement "le composant électronique est défectueux",
A1 = l’événement "le composant électronique est fabriqué par la machine M1 ",
A2 = l’événement "le composant électronique est fabriqué par la machine M2 ",
A3 = l’événement "le composant électronique est fabriqué par la machine M3 ".
Les informations qui nous sont données dans l’énoncé du problème se traduisent alors de la
façon suivante:
P (A1 ) = 0, 5; P (A2 ) = 0, 3; P (A3 ) = 0, 2;
P (D/A1 ) = 0, 02; P (D/A2 ) = 0, 03; P (D/A3 ) = 0, 05.
On doit calculer P (A). On obtient

P (D) = P [(D ∩ A1 ) ∪ (D ∩ A2 ) ∪ (D ∩ A3 )]
= P (D ∩ A1 ) + P (D ∩ A2 ) + P (D ∩ A3 )
= P (D/A1 )P (A1 ) + P (D/A2 )P (A2 ) + P (D/A3 )P (A3 )
= 0, 02 × 0, 5 + 0, 03 × 0, 3 + 0, 05 × 0, 2 = 0, 029.

La première égalité vient du fait que les événements A1 , A2 et A3 sont exhaustifs, c’est-à-dire
A1 ∪ A2 ∪ A3 = Ω. On a donc

D = D ∩ Ω = D? ∩ (A1 ∪ A2 ∪ A3 ) = (D? ∩ A1 ) ∪ (D? ∩ A2 )? ∪ (D? ∩ A3 )

et donc P (D) = P [(D ∩ A1 ) ∪ (D ∩ A2 ) ∪ (D ∩ A3 )]. L’égalité suivante vient du fait que les
événements ?A1 , A2 et A3 sont deux à deux incompatibles, c’est-à-dire A1 ∩ A2 = A1 ∩ A3 =
A2 ∩ A2 . Il s’en suit que les événements D ∩ A1 , D ∩ A2 et D ∩ A3 sont aussi sont deux à deux
incompatibles et le troisième axiome de la définition d’une probabilité nous donne

P [(D ∩ A1 ) ∪ (D ∩ A2 ) ∪ (D ∩ A3 )] = P (D ∩ A1 ) + P (D ∩ A2 ) + P (D ∩ A3 ).

4
Pour la troisième ?égalité, on a simplement utilisé la règle de multiplication. Enfin, pour
terminer le calcul on a simplement utilisé les informations contenues dans l’énoncé du problème.
Ce type de problème est souvent rencontré en pratique et l’équation

P (D) = P (D/A1 )P (A1 ) + P (D/A2 )P (A2 ) + P (D/A3 )P (A3 )

est un cas particulier du résultat suivant:


Thórème III.1 (La loi des probabilités totales)
Si (Ai )1≤i≤n un système complet fini d’événements de probabilité non nulle, alors, pour tout
événement B, on a
X n
P (B) = P (B/Ai ) × P (Ai ).
i=1

Preuve n
[
Puisque les (Ai )1≤i≤n forment un système complet d’événements, on a: Ω = Ai et Ai ∩Aj = ∅
i=1
si i 6= j. Donc pour tout événement B, les B ∩ Ai sont deux à deux incompatibles. Ainsi,
h n
[ i n
h[ i Xn n
X
P (B) = P (B∩Ω) = P B∩ Ai =P (B∩Ai ) = P (B∩Ai ) = P (B/Ai )×P (Ai ).
i=1 i=1 i=1 i=1

Le diagramme de Venn de la figure 2 illustre la loi des probabilités totales dans le cas particulier
où l’ensemble Ω est partitionné en quatre morceaux.

Remarques 4
• La formule des probabilités totales est aussi appelée formule des probabilités complètes.
• Cas particulier très important: Si A est un événement tel que P (A) 6= 0 et P (Ac ) 6= 0,
le système {A, Ac } est alors un système complet fini d’événements. Soit B un événement
quelconque. D’après la formule des probabilités totales,

P (B) = P (B/A) × P (A) + P (B/A) × P (A).

IV Le théorème de Bayes
Exemple 5
Considérons à nouveau le scénario de l’exemple 3. On obtient un composant électronique
provenant l’usine. On note que ce composant électronique est défectueux. Sachant qu’il est
défectueux, quelle est la probabilité que le composant électronique choisi ait été fabriqué par la
machine M1 ?
Solution

5
Si on utilise les notations introduites dans la solution de l’exemple , la probabilité condition-
nelle désirée est simplement P (A1 /D). Pour calculer cette probabilité conditionnelle, on peut
procéder comme suit:

P (A1 ∩ D)
P (A1 /D) =
P (D)
P (D/A1 )P (A1 )
=
P (D)
P (D/A1 )P (A1 )
=
P (D/A1 )P (A1 ) + P (D/A2 )P (A2 ) + P (D/A3 )P (A3 )
0, 02 × 0, 5
= = 0, 345.
0, 02 × 0, 5 + 0, 03 × 0, 3 + 0, 05 × 0, 2
Dans ce calcul, la première égalité est simplement la définition de probabilité conditionnelle.
Pour la deuxième égalité, on a utilisé la règle de multiplication en conditionnant sur A1 . Enfin,
pour la troisième égalité on a utilisé la loi des probabilités totales.
De la m?eme façon on peut calculer P (A2 /D) et P (A3 /D). On obtient alors, pour i ∈ {1, 2, 3},

P (D/Ai )P (Ai )P (A1 )


P (Ai /D) = .
P (D/A1 )P (A1 ) + P (D/A2 )P (A2 ) + P (D/A3 )P (A3 )

Ce type de problème est souvent rencontré en pratique et l’équation précédente est un cas
particulier du théorème suivant.
Théorème IV.1 (Le théorème de Bayes)
Si (Ai )1≤i≤n est un système complet fini d’événements de probabilité non nulle, alors, pour tout
événement B de probabilité non nulle et pour tout j ∈ {1, ..., n}; on a

P (B/Aj ) × P (Aj )
P (Aj /B) = n .
X
P (B/Ai ) × P (Ai )
i=1

Preuve
P (Aj ∩ B)
Par définition d’une probabilité conditionnelle, P (Aj /B) = . La formule des prob-
P (B)
abilités composées nous donne P (Aj ∩ B) = P (B/Aj ) × P (Aj ) et la formule des probabilités
Xn
totales nous donne P (B) = P (B/Ai ) × P (Ai ). Ce qui donne le résultat désiré.
i=1
Le diagramme de Venn de la figure 3 illustre le théorème de Bayes. La probabilité de Aj sachant
B est égale à la probabilité du morceaux ombragé foncé divisée par la somme des probabilités
des morceaux ombragés.

6
Exercice 6
Dans un service de prise en charge des brulés, 56% des pansements sont réalisés par un médecin
généraliste (événement G) et le reste des pansements sont assurés par un chirurgien (événement
C). La guérison au bout de 25 jours de la plaie causée par la brûlure est obtenue à 75% si le
pansement est réalisé par le chirurgien et elle est obtenue à 92% lorsque le pansement est fait
par le généraliste. Un malade brûlê est pris au hasard, il s’est avéré guéri de sa plaie au bout
de 25 jours. Quelle est la probabilité que son pansement ait été réalisé par le chirurgien?
III Indépendance
III.1 Introduction
Parfois, le fait de savoir qu’un événement A s’est réalisé ne change en rien la probabilité que
l’événement B se réalise. Dans l’exemple où on lance un dé deux fois, si A désigne l’événement
"obtenir un six au premier lancer" et si B désigne l’événement "obtenir un quatre au deuxième
lancer", alors il est intuitivement clair que P (B) = P (B/A); le fait de savoir qu’on a obtenu un
six au premier lancer ne change en rien la probabilité d’obtenir un quatre au deuxième lancer.
Dans cet exemple, on a aussi P (A) = P (A/B); si j’ai lancé le dé deux fois et si je vous informe
que j’ai obtenu un quatre au deuxième lancer, pour vous la probabilité d’un six au premier
lancer est toujours la même. Dans un tel scénario, on dit que les événements A et B sont
desévénements indépendants. Cet exemple motive la définition suivante.
III.2 Définition provisoire d’indépendance de deux événements
Soient A et B, des événements tels que P [(A) > 0 et P (B) > 0. On dit que A et B sont
indépendants si on a
P (A/B) = P (A) et P (B/A) = P (B).
Remarque 7
Si A et B sont deux événements tels que P (A) > 0 et P (B) > 0, alors P (A/B) = P (A) si et
seulement si P (B/A) = P (B).
En effet
P (A ∩ B) P (A ∩ B)
P (A/B) = P (A) ⇐⇒ = P (A) ⇐⇒ = P (B) ⇐⇒ P (B/A) = P (B).
P (B) P (A)

Cette définition provisoire d’indépendance est adéquate pour la plupart des applications. Cepen-
dant, les mathématiciens préfèrent la définition suivante. Elle ne fait pas appel à la notion de
probabilité conditionnelle et elle ne se limite pas aux événements de probabilité strictement
positive. De plus, elle se prête mieux aux généralisations.
III.3 Définition d’indépendance de deux événements
Les événements A et B sont dits indépendants si on a

P (A ∩ B) = P (A)P (B).

L’équation précédente n’est rien d’autre que notre règle de multiplication avec P (B/A) remplacé
par P (B). Il est facile de vérifier que si A et B sont des événements tels que P (A) > 0 et
P (B) > 0, alors les deux définitions précédentes sont équivalentes: si A et B sont des événements
indépendants au sens de la première définition alors ils sont également indépendants au sens
de la deuxième définition et, réciproquement, s’ils sont indépendants au sens de la deuxième
définition alors ils le sont aussi au sens de la première définition.
Exercice 8
On lance un dé à deux reprises et on considère les événements suivants:

7
A=l’événement "la somme des deux lancers est égale à 5",
B=l’événement "la somme des deux lancers est égale à 7",
C=l’événement "obtenir un 4 au deuxième lancer".
Est-ce que les événements A et C sont indépendants? Est-ce que les événements B et C sont
indépendants?
Dans le cas de trois événements, le concept d’indépendance se généralise de la façon suivante.
III.4 Définition d’indépendance de trois événements
Les événements A, B et C sont dit indépendants (ou mutuellement indépendants) si les quatres
égalités suivantes sont vérifiées:
P (A ∩ B) = P (A)P (B)
P (A ∩ C) = P (A)P (C)
P (B ∩ C) = P (B)P (C)
P (A ∩ B ∩ C) = P (A)P (B)P (C).

Remarques 9
• Lorsque seules les trois premières égalités précédentes sont vérifiées, on dit que les événe-
ments A, B et C sont deux à deux indépendants.
• Des événements peuvent être deux à deux indépendants sans toutefois être mutuellement
indépendants comme en témoigne l’exemple qui suit.
Exemple 10
On lance deux pièces de monnaie symétriques et on considère les événements:
A="la première pièce donne une face",
B="la deuxième pièce donne une pile",
C="la deuxième pièces donne le même résultat".
Travaillons avec l’espace probabilisé (Ω, A, P ) tel que:
• Ω = {(P, F ), (P, P ), (F, P ), (F, F )}
• A = P(Ω);
• P : l’équiprobabilité sur (Ω, A).
Ici, par exemple, le résultat qui consiste à obtenir face au premier lance et pile au deuxième
lancer est dénoté (F, P ).
Il est clair que
A = {(F, P ), (F, F )}, B = {(P, P ), (F, P )}, C = {(P, P ), (F, F )}, A∩B = {(F, P )}, A∩C = {(F, F )},
B ∩ C = {(P, P )}, et A ∩ B ∩ C = ∅.
D’autre part,
1 1 1
P (A ∩ B) = = × = P (A) × P (B)
4 2 2
1 1 1
P (A ∩ C) = = × = P (A) × P (C)
4 2 2
1 1 1
P (B ∩ C) = = × = P (B) × P (C)
4 2 2
1
P (A ∩ B ∩ C) = P (∅) = 0 6= = P (A)P (B)P (C).
8

8
Ainsi les événements A, B et C sont deux à deux indépendants mais ne sont pas mutuellement
indépendants.
Les deux définitions précédentes se généralisent comme suit:

III.5 Définition d’indépendance de n événements


Soit (Ai )1≤i≤n une famille de n événements. Ces n événements
\  Y sont dits mutuellement indépen-
dants si pour toute partie I de {1, 2, ..., n}, P Ai = P (Ai ).
i∈I i∈I
III.6 Principe de préservation d’indépendance
Proposition III.1
Soient A1 , · · · , An des événements mutuellement (resp. deux à deux) indépendants. Pour
i ∈ J1, nK, on note Bi = Ai ou Bi = Aci . Alors B1 , · · · , Bn sont mutuellement (resp. deux à
deux) indépendants.
Preuve
On montre par récurrence sur p ∈ J0, nK la propriété P(p): "si p des Bi sont Aci (et les autres
Ai ), B1 , · · · , Bn sont mutuellement indépendants".
Les événements A1 , · · · , An étant mutuellement indépendants, P(0) est vraie. Soit p ∈ J1, n−1K
tel que P(p) est vraie. On suppose que p + 1 des des Bi sont Aci (et les autres Ai ). Quitte à
remplacer B1 , · · · , Bn par la sous-famille considérée, il faut montrer que
P (B1 ∩ · · · ∩ Bn ) = P (B1 ) · · · P (Bn ). Quitte à réordonner les Bi , on suppose que Bi = Ai pour
i ∈ J1, n − p − 1K et que Bi = Aci pour i ∈ Jn − p, nK. On a

P (A1 ∩ · · · ∩ An−p ∩ Acn−p+1 ∩ · · · ∩ Acn ) + P (A1 ∩ · · · ∩ An−p−1 ∩ Acn−p ∩ Acn−p+1 ∩ · · · ∩ Acn )

= P (A1 ∩ · · · ∩ An−p−1 ∩ Acn−p+1 ∩ · · · ∩ Acn )


= P (A1 ) · · · P (An−p−1 )P (Acn−p+1 ) · · · P (Acn )
par hypothèse de récurrence. Ainsi
P (A1 ∩ · · · ∩ An−p−1 ∩ Acn−p ∩ Acn−p+1 ∩ · · · ∩ Acn )
= P (A1 ) · · · P (An−p−1 )P (Acn−p+1 ) · · · P (Acn ) − P (A1 ) · · · P (An−p )P (Acn−p+1 ) · · · P (Acn )
= P (A1 ) · · · P (An−p−1 )P (Acn−p+1 ) · · · P (Acn )(1 − P (An−p ))
= P (A1 ) · · · P (An−p−1 )P (Acn−p )P (Acn−p+1 )P (Acn ).
Ainsi, P(p + 1) est vraie.
En conclusion, pour tout p ∈ J0, nK, P(p) est vraie.
Proposition III.2
Soient A1 , · · · , An des événements mutuellement indépendants et soit p ∈ J1, n − 1K,
• A1 ∩ · · · ∩ Ap et Ap+1 ∩ · · · ∩ An sont indépendants.
• A1 ∪ · · · ∪ Ap et Ap+1 ∪ · · · ∪ An sont indépendants.
• A1 ∩ · · · ∩ Ap et Ap+1 ∪ · · · ∪ An sont indépendants.
• A1 ∪ · · · ∪ Ap et Ap+1 ∩ · · · ∩ An sont indépendants.
Preuve
• On a, par définition de l’indépendance:

P (A1 ∩ · · · ∩ An ) = P (A1) · · · P (An ) = P (A1 ∩ · · · ∩ Ap )P (Ap+1 ∩ · · · ∩ An ).

• D’après la proposition précédente, Ac1 , · · · , Acn sont mutuellement indépendants.


Les événements A = Ac1 ∩ · · · ∩ Acp et B = Acp+1 ∩ · · · ∩ Acn sont donc indépendants par le premier
point. De même Ac = A1 ∪ · · · ∪ Ap et B c = Ap+1 ∪ · · · ∪ An sont indépendants.

9
• D’après la proposition précédente, A1 · · · ∩ Ap , Acp+1 , · · · , Acn sont mutuellement indépendants.
Les événements A = A1 ∩ · · · ∩ Ap et B = Acp+1 ∩ · · · ∩ Acn sont donc indépendants par le premier
point. De même A et B c = Ap+1 ∪ · · · ∪ An sont indépendants.
• Le dernier point se montre par le précédent.
Exercice 11
Soient A et B deux événements. Montrer que les propositions suivantes sont équivalentes.
(i) A et B sont indépendants;
(ii) A et B c sont indépendants;
(iii) Ac et B sont indépendants;
(iv) Ac et B c sont indépendants.

10

Vous aimerez peut-être aussi