Cours 32
Cours 32
Cours 32
Dans ce chapitre comme dans le précédent, on ne considère que des univers Ω finis.
1 Variables aléatoires
Dans une expérience aléatoire, on s’intéresse rarement à l’espace probabilisé dans son ensemble, mais plus souvent à
un aspect particulier du résultat. Par exemple :
1. le nombre de boules rouges obtenues lors d’un tirage de n boules.
2. la somme des faces abtenues lors d’un lancer de 2 dés.
Dans les deux cas précédents, ce qui nous intéresse est en fait une grandeur X qui peut prendre différentes valeurs
entières selon les événements élémentaires qui se produisent. Il s’agit donc d’une application X : Ω → N.
Notations :
1. Pour tout A ⊂ E, X −1 (A) est l’ensemble des événements élémentaires ω tels que X(ω) ∈ A.
En pratique, cet ensemble X −1 (A) est l’événement noté :
(X ∈ A) ou {X ∈ A}
2. Plus généralement, si P est une propriété pouvant être vérifiée par les éléments de E, alors l’ensemble
des éléments ω ∈ Ω tels que ”X(ω) vérifie P ” est noté :
{X vérifie P }
Ainsi :
• {ω ∈ Ω | X(ω) = k} est noté : {X = k} ou (X = k).
• {ω ∈ Ω | X(ω) ≤ k} est noté : {X ≤ k} ou (X ≤ k).
Remarque 1.
1. En pratique, nous verrons que dans la grande majorité des situations, X est à valeurs dans N.
2. Attention à la dénomination variable : X est en fait une application !
1
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Exemple 1. (∗)
1. On lance une pièce à trois reprises et on s’intéresse au nombre de fois où l’on a obtenu ”Face”.
2. On tire n boules au hasard dans une urne qui contient p boules rouges et on s’intéresse au nombre de boules
rouge obtenues.
3. On distribue une main de 8 cartes et on s’intéresse au nombre de coeurs que contient cette main.
Remarque 2. On n’a pas besoin de la notion de probabilité pour définir une variable aléatoire.
En revanche, nous aurons besoin d’une probabilité dès lors que l’on veut calculer P ({X ∈ A}).
Exercice : 1
(∗) Une urne contient N boules numérotées de 1 à N .
L’expérience consiste à tirer au hasard et simultanément p ≤ N boules numérotées. On note :
— X la variable aléatoire qui a tout élément de Ω associe le plus petit numéro tiré
— Y la variable aléatoire qui a tout élément de Ω associe le plus grand numéro tiré
1. Que prendre comme univers Ω ?
2. Déterminer X(Ω) et Y (Ω).
Exercice : 2
(∗) Soit X une variable aléatoire à valeurs dans E ainsi que A et B deux parties de E.
{X ∈ A}
Exprimer les événements {X ∈ A ∪ B}, {X ∈ A ∩ B} et {X ∈ E\A} en fonction des événements .
{X ∈ B}
1. X : Ω → E définie pour tout ω de Ω par X(ω) = a est appelée variable aléatoire constante.
2
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
{1A = 1} = A
Remarque 3. Avec les notations introduites précédemment, nous avons bien entendu : .
{1A = 0} = Ā
Preuve 2 : Immédiat puisqu’un tel produit ne peut également prendre que les valeurs 0 et 1.
PX : P(X(Ω)) −→ [0, 1]
A 7→ P (X ∈ A)
Remarque 4.
1. Une variable aléatoire X se définit indépendamment de la notion de probabilité.
2. La loi de probabilité de X est quant à elle, déterminée à partir de la probabilité choisie sur Ω.
3. On allègera les notations en notant P (X = x) la probablité P ({X = x})
3
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Exemple 3. (∗) Dans l’exemple précédent où X est la variable aléatoire donnant le nombre de ”face” obtenu après
avoir lancé 3 fois une pièce équilibrée, la probabilité PX est définie par :
1 3 3 1
1. P (X = 0) = 8 2. P (X = 1) = 8 3. P (X = 2) = 8 4. P (X = 3) = 8
Lorsque X(Ω) est fini, la loi de probabilité PX de X est souvent présentée sous forme de tableau.
Avec l’exemple de la pièce de monnaie lancée trois fois et X = nombre de face obtenus, cela donne :
X(Ω) x1 = 0 x2 = 1 x3 = 2 x4 = 3 Total
1 3 3 1
P (X = xk ) ou PX ({xk }) p1 = p2 = p3 = p4 = 1
8 8 8 8
Exemple 4. (∗) Déterminer la loi de la variable aléatoire donnant la somme des deux chiffres obtenus par le lancer de
deux dés équilibrés.
Exercice : 3
(∗) Une urne contient N boules numérotées de 1 à N .
L’expérience consiste à tirer au hasard et simultanément p ≤ N boules numérotées. On note :
— X la variable aléatoire qui a tout élément de Ω associe le plus petit numéro tiré
— Y la variable aléatoire qui a tout élément de Ω associe le plus grand numéro tiré
Déterminer les lois de probabilités de X et Y .
Remarque 5. Deux variables aléatoires peuvent être différentes et avoir la même loi de probabilité.
Considérer par exemple le lancer d’un dé équilibré, X le nombre de ”pile” et Y le nombre de ”face”.
RUSE !
Soit X une variable aléatoire sur une espace probabilisé (Ω, P ) telle que X(Ω) ⊂ Z.
Lorsque le calcul de P (X ≤ k) ou de P (X ≤ k) est plus simple que le calcul de P (X = k), on peut envisager
d’utiliser l’une des deux formules suivantes :
P (X ≤ k) − P (X ≤ k − 1)
P (X = k) =
P (X ≥ k) − P (X ≥ k + 1)
Exercice : 4
(∗∗) Un joueur prélève successivement n boules avec remise dans une urne contenant N boules numérotées de 1 à N .
On considère :
— X la variable aléatoire égale au plus grand numéro tiré
— Y la variable aléatoire égale au plus petit numéro tiré
1. Déterminer un espace probabilisé (Ω, P ) rendant compte de l’expérience.
Déterminer X(Ω) et Y (Ω).
2. Déterminer P (X ≤ k) pour tout k ∈ [[1, N ]]. En déduire la loi de X.
3. Déterminer P (Y ≥ k) pour tout k ∈ [[1, N ]]. En déduire la loi de Y .
4
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Exemple 5. (∗) Construisez vous-même une variable aléatoire associée à une loi de probabilité.
Remarque 6.
n
X
+
Pour que la probabilité P précédente soit bien définie, il suffit de s’assurer que p1 , . . . , pn ∈ R et que pk = 1.
k=1
Exemple 6. (∗) Pour quelles valeurs de p2 ∈ R, existe-t-il une variable aléatoire X à valeurs dans [[0, 5]] telle que
P (X = 2) = p2 et que la suite (P (X = k)))0≤k≤5 soit arithmétique ?
Remarque 7. La notation u(X) est cohérente avec l’appellation ”variable” utilisée pour parler de X.
Exercice : 5
(∗) Un joueur lance successivement deux fois un dé équilibré.
Soit X la variable aléatoire égale à la différence entre le résultat du premier et du deuxième lancer.
Déterminer les lois de X, |X| et X 2 .
Proposition 5 : Lois de X + Y et XY
Soient X et Y deux variables aléatoires réelles sur un même espace probabilisé (Ω, P ).
5
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Preuve 5 : Il suffit dans les deux cas, de partitionner correctement les événements {X + Y = z} et {XY = z}.
Remarque 9. Les sommes précédentes contiennent des termes dont la probabilité est nulle.
Exemple 8. (∗) Si X est le nombre de fois où l’on a obtenu ”Face” après avoir lancé n fois une pièce, alors on peut
écrire X = X1 + X2 + · · · + Xn où Xk est la variable aléatoire qui vaut 1 si on a obtenu ”pile” au kème lancer et 0
sinon.
Exercice : 6
(∗) On lance à deux reprises un dé à 3 faces numérotées de 1 à 3.
Soit X et Y les variables aléatoires telles que :
X = 0 si la face est paire au 1er lancé Y = 0 si la face est impaire au 2eme lancé
et
X = le numéro de la face sinon Y = le numéro de la face sinon
Déterminer les lois des variables aléatoires X + Y et XY .
3.1 L’espérance
3.1.1 Définition et calcul de l’espérance
Définition 6 : Espérance de X X
L’espérance de X est le réel défini par : E(X) = x.P (X = x)
x∈X(Ω)
Remarque 10.
1. Il s’agit de la moyenne des valeurs prises par X pondérées par les probabilités d’obtenir ces valeurs.
L’espérance représente donc la valeur que l’on atteint en moyenne lorsqu’on réalise l’expérience aléatoire.
2. Lorsque X représente le gain du joueur à un jeu de hasard, E(X) représente l’espoir de gain moyen par par-
tie, lorsqu’il joue un grand nombre de fois. Si E(X) > 0 (resp. E(X) < 0) alors le jeu est avantageux (resp.
désavantageux) pour le joueur. Si E(X) = 0 alors le jeu est dit équitable.
3. L’espérance ne dépend que de la loi. Ainsi, deux variables aléatoires distinctes ayant la même loi auront la
même espérance.
Remarque 11. Pour être utilisée, la formule de définition nécessite la connaissance de la loi de la VA X. Nous verrons
par la suite deux situations permettant de calculer l’expérance d’une VA sans connaı̂tre sa loi :
1. la décomposition X = X1 + · · · + Xn
2. la ”formule de transfert pour l’espérance de u(X).
Exercice : 7
(∗) Un joueur tire simultanément n boules dans une urne contenant N boules numérotées de 1 à N .
Déterminer l’espérance de la variable aléatoire X donnant le plus petit numéro tiré.
N
X k N +1
Aide : on utilisera la formule de Pascal généralisée : =
n n+1
k=n
6
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Preuve 6 : Immédiat.
Preuve 7 : Immédiat.
Exemple 10. (∗) Dans l’exemple du lancer d’une pièce à trois reprises, lorsque X donne le nombre de ”face” obtenu,
la formule précédente donne :
1X 1
E(X) = X(ω) = (X(P P P ) + X(P P F ) + X(P F P ) + X(P F F ) + X(F P P ) + X(F P F ) + X(F F P ) + X(F F F ))
8 8
ω∈Ω
1 3
E(X) = (0 + 1 + 1 + 2 + 1 + 2 + 2 + 3) =
8 2
Remarque 12. Cette formule sera finalement peu utile dans les exercices mais pourra présenter un intérêt dans les
démonstrations du cours.
Remarque 13. L’intérêt de cette formule est qu’elle permet de calculer l’espérance de u(X) sans avoir besoin de
connaı̂tre sa loi de probabilité. Seule la loi de X intervient dans la formule.
Exercice : 8
X(Ω) = [[1, n]]
(∗) Soit X une variable aléatoire sur une espace probabilisé (Ω, P ) telle que 1 .
∀k ∈ [[1, n]], P (X = k) = n
Donner les espérances de X 2 et de eX .
Remarque 14. La fonction espérance est donc une forme linéaire non nulle de l’ev des variables aléatoires. Son noyau
est donc un hyperplan de cet ev.
7
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
RUSE !
Lorsqu’on cherche à calculer l’espérance d’une variable aléatoire X ”compliquée”, il est parfois possible de
décomposer cette variable en somme de variables ”plus simples” :
X = X1 + X2 + · · · + Xn
On peut alors calculer l’espérance de X en appliquant la formule : E(X) = E(X1 ) + E(X2 ) + · · · + E(Xn )
Exemple 11. On lance 4 dés, et on note S la somme des résultats obtenus. Calculer E(S).
Exercice : 9
(∗) Le problème des rencontres.
Une urne contient n boules numérotées de 1 à n.
On les extrait successivement et sans remise. On dit qu’il y a ”rencontre au i-ème tirage” lorsque la boule tirée porte
le numéro i. Déterminer le nombre moyen de rencontres.
Exercice : 10
(∗) Soit n ∈ N∗ . On range n objets dans n tiroirs (chaque tiroir pouvant contenir de 0 à n objets).
Calculer le nombre moyen de tiroirs vides et déterminer sa limite lorsque n → +∞.
Exercice : 11
(∗) On considère r boules numérotées de 1 à r et n tiroirs numérotés de 1 à n.
On lance au hasard chacune des r boules dans l’un des n tiroirs.
On note :
— V la variable aléatoire égale au nombre de tiroirs restés vides
— T la variable aléatoire égale au nombre de boules placées dans le tiroir 1.
Déterminer l’espérance des variables V et T .
Preuve 11 : Pas de difficulté. On pourra prendre X(Ω) = {x1 , . . . , xn } avec 0 ≤ x1 < · · · < xn .
Remarque 15. Cette propriété est analogue aux propriétés connues sur l’intégrale d’une fonction positive.
8
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
X
Preuve 13 : Il suffit de comparer les variables 1{X≥a} et .
a
3.2 La variance
Définition 8 : Moment d’ordre r
Soit X une variable aléatoire réelle et r un entier naturel.
Le moment d’ordre r de la variable X est :
mr (X) = E(X r )
Remarque 16. Le moment d’ordre 0 est égal à 1 et le moment d’odre 1 est l’espérance de X.
Définition 9 : Variance
Soit X une variable aléatoire réelle sur un espace probabilisé fini (Ω, P ).
On appelle variance de X le réel :
V (X) = E((X − E(X))2 )
Remarque 17.
1. La formule montre que la variance est une mesure de la dispersion de X par rapport à E(X).
2. Il aurait semblé plus naturel de prendre E(|X − E(X)|) comme mesure de dispersion, mais cette expression ne
possèdent pas les propriétés intéressantes (vues plus loin) de la variance.
9
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Remarque 18. La variance est donc aussi l’écart entre l’espérance des carrés et le carré de l’espérance.
Exemple 14. On lance 3 fois une pièce de monnaie et on note X le nombre de ”face” obtenu. Calculer V (X).
Exercice : 12
(∗) Soit λ ∈ R+ , n ∈ N∗ et X une variable aléatoire à valeurs dans [[1, n]] telle que ∀k ∈ [[1, n]], P (X = k) = λk.
Déterminer λ, E(X) et V (X).
Exercice : 13
(∗) Soit X une variable aléatoire sur un espace probabilisé fini.
Déterminer le minimum de la fonction ϕ définie par ϕ(m) = E((X − m)2 ).
Exercice : 14
(∗∗) On tire simultanément n boules dans une urne contenant N boules numérotés de 1 à N .
On considère X la variable aléatoire égale au plus grand des numéros tirés.
k−1
n−1
On admettra que la loi de X est donnée par : ∀k ∈ [[n, N ]], P (X = k) = N
.
n
n(N +1)
1. Montrer que E(X) = n+1 .
2. Calculer E(X(X + 1)).
N
X k N +1
Aide : on pourra utiliser la formule de Pascal généralisée : =
n n+1
k=n
n(N +1)(N −n)
3. En déduire que V (X) = (n+2)(n+1)2 .
Preuve 17 : Pas de difficulté avec la formule de Koenig-Huyghens compte-tenu des propriétés de l’espérance.
Définition 10 : Ecart-type
Soit X une variable aléatoire réelle sur un espace probabilisé fini (Ω, P ).
On appelle écart-type de X le réel : p
σ(X) = V (X)
Comme la variance, il s’agit d’une mesure de dispersion de la variable X.
10
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
X − E(X)
La variable aléatoire X∗ = est centrée réduite.
σ(X)
V (X)
∀ε > 0, P (|X − E(X)| ≥ ε) ≤
ε2
V (X)
Remarque 21. On en déduit que : ∀ε > 0, P (|X − E(X)| < ε) ≥ 1 − .
ε2
Exercice : 15
(∗) Inégalité de Bienaymé-Tchebytchev
Soit X une variable aléatoire d’espérance µ et d’écart-type σ, et α > 0.
Montrer que l’on a : P (µ − ασ < X < µ + ασ) ≥ 1 − α12
Exercice : 16
(∗∗) Inégalité de Markov
Soit X une variable aléatoire d’espérance µ et d’écart-type σ, et α > 0.
1
En utilisant la variable aléatoire Y = (α(X − µ) + σ)2 que l’on a : P (X ≥ µ + ασ) ≤ 1+α2 .
Remarque 22. (∗∗) On lance une pièce de monnaie n fois. A chaque lancer, la probabilité d’obtenir FACE vaut
p ∈ [0, 1].
Quelle est le nombre minimal de lancers nécessaires pour que la fréquence d’apparition de FACE obtenue soit une
approximation de p à 0, 01 près avec une probabilité minimale à déterminer ?
Remarque 23. Les majoration et minoration obtenues par les inégalités de Markov et de Bienaymé-Tchebychev sont
assez grossières.
Modèle : Une variable aléatoire suit une loi uniforme lorsque toutes les valeurs de cette variable sont équiprobables.
Définition 12 : Une variable aléatoire X prenant n ∈ N∗ valeurs toutes équiprobables suit une loi uniforme.
Lorsque X(Ω) = [[1, n]], on a alors :
1
∀k ∈ [[1, n]], P (X = k) =
n
a, b ∈ N 1
Plus généralement, lorsque , on a : ∀k ∈ [[a, b]], P (X = k) = .
X(Ω) = [[a, b]] b−a+1
Remarque 24. Lorsque X suit une loi uniforme sur [[a, b]], on note : X ֒→ U([[a, b]]).
11
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Remarque 25. On constate que E(X) est tout simplement la valeur médiane de [[1, n]].
Exercice : 17
(∗) Calculer l’espérance et la variance d’une variable X suivant une loi uniforme sur [[a, b]].
Modèle : On obtient une variable suivant une loi de Bernoulli lorsqu’on ne s’intéresse qu’au fait qu’un événement se
produise ou non.
Remarque 26. Lorsque X suit une loi de Bernoulli de paramètre p, on note : X ֒→ B(p).
On parle alors d’une variable de Bernoulli.
Exercice : 18
(∗) Quelle est la valeur maximale de la variance d’une variable de Bernoulli.
Lorsque qu’une variable aléatoire ne prend que 2 valeurs, on peut facilement obtenir son espérance et sa
variance en se ramenant à une variable de Bernoulli.
X(Ω) = {a, b} X −a
Lorsque X est telle que , on peut poser Y = .
P (X = b) = p b−a
E(X) = (b − a)p + a
Ainsi on a Y ֒→ B(p) et X = (b − a)Y + a et donc :
V (X) = (b − a)2 p(1 − p)
12
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
X(Ω) = {−1, 1}
Exemple 17. (∗) Déterminer l’espérance et la variance de la variable X telle que
P (X = 1) = 1/3
Modèle : On obtient une variable suivant une loi binomiale lorsque lorsqu’on s’intéresse au nombre de succès obtenu
lors de la réalisation de n épreuves de Bernoulli indépendantes.
On obtient alors :
n k
X(Ω) = [[0, n]] et ∀k ∈ [[0, n]], P (X = k) = p (1 − p)n−k
k
Une telle variable X s’écrit aussi X = X1 + . . . Xn où Xi prend la valeur 1 si le résultat de la ième expérience est un
succès et 0 sinon.
Remarque 27.
1. Lorsque X suit une loi binomiale de paramètres (n, p), on note : X ֒→ B(n, p).
2. Les lois B(1, p) et B(p) ont la même signification.
Exercice : 19
(∗) Montrer que si X ֒→ B(n, p) alors n − X ֒→ B(n, 1 − p).
Exercice : 20
(∗∗) On lance n fois un dé équilibré à six faces.
13
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Déterminer un entier naturel n0 tel que pour tout n ≥ n0 , on ait plus d’une chance sur 2 d’obtenir une fréquence
d’apparition de 1 qui s’écarte de moins de 10−2 de la valeur 61 .
Remarque 29.
1. Il s’agit en fait d’une nouvelle variable aléatoire à valeurs dans E × E ′ telle que (X, Y )(Ω) ⊂ X(Ω) × Y (Ω).
2. L’ensemble des valeurs prises par (X, Y ) est seulement inclus dans X(Ω) × Y (Ω).
Exemple 19.
1. On lance deux dés parfaitement équilibrés et on considère X le plus petit des nombres obtenus et Y le plus
grand des nombres obtenus.
2. On tire p boules dans une urnes contenant des boules de couleurs et on considère X le nombre de boules blanches
et Y le nombre de boules noires obtenues.
Proposition 23 : Soit (X, Y ) un couple de variables aléatoires sur un univers fini Ω et (x, y) ∈ X(Ω) × Y (Ω).
• L’événement (X, Y ) = (x, y) est le même que {X = x}∩{Y = y} et est également noté {X = x, Y = y}.
Remarque 30. Cette loi est souvent (lorsque X(ω) et Y (ω) comportent peu de valeurs) représentée par un tableau à
double entrée avec les valeurs de X(Ω) en ligne et les valeurs de Y (Ω) en colonne. Voir l’exemple suivant...
14
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Exemple 20. (∗) On lance deux dés bien équilibrés. On note S la somme des résultats obtenus et P le produit.
Donner, sous forme de tableau la loi de probabilité du couple (S, P ).
Dressons tout d’abord deux petits tableaux donnant les différentes possibilités de sommes et de produits :
S 1 2 3 4 5 6 P 1 2 3 4 5 6
1 2 3 4 5 6 7 1 1 2 3 4 5 6
2 3 4 5 6 7 8 2 2 4 6 8 10 12
3 4 5 6 7 8 9 3 3 6 9 12 15 18
4 5 6 7 8 9 10 4 4 8 12 16 20 24
5 6 7 8 9 10 11 5 5 10 15 20 25 30
6 7 8 9 10 11 12 6 6 12 18 24 30 36
S/P 1 2 3 4 5 6 8 9 10 12 15 16 18 20 24 25 30 36 Loi de S
1 1
2 36 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36
2 2
3 0 36 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36
2 1 3
4 0 0 36 36 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36
2 2 4
5 0 0 0 36 0 36 0 0 0 0 0 0 0 0 0 0 0 0 36
2 2 1 5
6 0 0 0 0 36 0 36 36 0 0 0 0 0 0 0 0 0 0 36
2 2 2 6
7 0 0 0 0 0 36 0 0 36 36 0 0 0 0 0 0 0 0 36
2 2 1 5
8 0 0 0 0 0 0 0 0 0 36 36 36 0 0 0 0 0 0 36
2 2 4
9 0 0 0 0 0 0 0 0 0 0 0 0 36 36 0 0 0 0 36
2 1 3
10 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36 36 0 0 36
2 2
11 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36 0 36
1 1
12 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36 36
1 2 2 3 2 4 2 1 2 4 2 1 2 2 2 1 2 1
Loi de P 36 36 36 36 36 36 36 36 36 36 36 36 36 36 36 36 36 36 1
Exercice : 21
(∗) On lance deux dés à 6 faces parfaitement équilibrés et on considère X le plus petit des nombres obtenus et Y le
plus grand des nombres obtenus. On munit Ω = [[1, 6]] de la probabilité uniforme.
Donner la loi de probabilité de (X, Y ).
Comme l’indique le thèorème suivant, on peut déduire les lois marginales à partir de la loi du couple.
Proposition 24 : Soient X et Y deux variables aléatoires sur un espace probabilisé fini (Ω, P ).
On a alors :
X
1. Pour tout x ∈ X(Ω), P (X = x) = P (X = x, Y = y)
y∈Y (Ω)
X
2. Pour tout y ∈ Y (Ω), P (Y = y) = P (X = x, Y = y)
x∈X(Ω)
Preuve 24 : Il suffit de remarquer que {{X = x et Y = y}}y∈Y (Ω) est une partition de {X = x}.
15
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Exemple 22. (∗) Une urne contient 3 boules blanches et 5 boules noires. On tire successivement deux boules dans
l’urne sans remise. Soit X (resp. Y ) la variable aléatoire qui vaut 1 si la première (resp. deuxième) boule tirée est
blanches et 0 sinon.
Déterminer la loi conjointe du couple (X, Y ) et les deux lois marginales.
Remarque 31. En revanche, comme le montre l’exemple suivant, les lois marginales ne suffisent pas en général (sauf
dans le cas de variables aléatoires indépendantes) à retrouver la loi conjointe.
Exercice : 22
(∗) Une urne contient 3 boules numérotées de 1 à 3. On en tire 2 et on note X le premier numéro tiré et Y le second.
Déterminer la loi conjointe et les lois marginales dans le cas d’un tirage avec remise et d’un tirage sans remise.
Que peut-on en conclure ?
— Pour tout y ∈ Y (Ω) tel que P (Y = y) 6= 0, la loi de X sachant {Y = y} est la loi de X dans l’espace
probabilisé (Ω, P{Y =y} ). Elle est donnée pour tout x ∈ X(Ω) par :
P ({X = x} ∩ {Y = y})
P{Y =y} (X = x) =
P ({Y = y})
— Pour tout x ∈ X(Ω) tel que P (X = x) 6= 0, la loi de Y sachant {X = x} est la loi de Y dans l’espace
probabilisé (Ω, P{X=x} ). Elle est donnée pour tout y ∈ Y (Ω) par :
P ({Y = y} ∩ {X = x})
P{X=x} (Y = y) =
P ({X = x})
Remarque 32. La loi de X sachant {Y = y} est aussi appelée la loi de X conditionnelle à {Y = y} (sous entendu ”de
X”).
On peut obtenir cette loi dans le tableau de la loi conjointe en divisant les probabilités par la loi marginale de Y .
Exemple 23. (∗) On lance deux dés à 6 faces parfaitement équilibrés et on considère X le plus petit des nombres
obtenus et Y le plus grand des nombres obtenus. On munit Ω = [[1, 6]] de la probabilité uniforme.
Déterminer les différentes lois conditionnelles associées à X et Y .
Exercice : 23
(∗∗) Une urne contient 2 boules blanches, 3 boules rouges et 4 boules bleues.
On extrait 4 boules de l’urne, successivement avec remise.
On note X le nombre de boules blanches et Y le nombre de boules rouges obtenues.
1. Déterminer la loi conjointe de (X, Y ).
2. En déduire les deux lois marginales. Commenter le résultat.
3. Déterminer les lois conditionnelles. Commenter le résultat.
16
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Remarque 33. Ainsi, on retrouve la loi conjointe et les lois marginales à partir de la loi marginale d’une des variables
et de la loi conditionnelle de l’autre variable par rapport à celle-ci.
Exercice : 24
(∗) Soit n ∈ N∗ et p, p′ ∈]0, 1[.
On considère deux variables aléatoires X et Y à valeurs dans [[0, n]] telles que X ֒→ B(n, p) et que pour tout k ∈ [[0, n]],
la loi de Y conditionnelle à X = k est B(k, p′ ).
1. Déterminer la loi conjointe du couple (X, Y ).
2. Déterminer la loi de Y .
Vous vérifierez que Y vérifie une loi binômiale.
Remarque 34. (X1 , . . . , Xn ) est une variable aléatoire sur Ω à valeurs dans E1 × · · · × En .
2. Les lois marginales du n-uplet (X1 , . . . , Xn ) sont les différentes lois associées aux variables X1 , . . ., Xn .
Remarque 35. Les événements {X1 = x1 } ∩ · · · ∩ {Xn = xn }) et (X1 , . . . , Xn ) = (x1 , . . . , xn ) étant identiques, la
probabilité P ({X1 = x1 } ∩ · · · ∩ {Xn = xn }) est également notée P (X1 = x1 , . . . , Xn = xn ).
17
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Preuve 26 :
Il suffit d’appliquer la formule des probabilités totales en remarquant que :
{X1 = x1 , . . . , Xk = xk , . . . , Xn = xn }(x1 ,...,xk−1 ,xk+1 ,...,xn )∈X1 (Ω)×···×Xn (Ω) forme une partition de (Xk = xk ).
P ({X ∈ A} ∩ {Y ∈ B} = P (X ∈ A).P (Y ∈ B)
Remarque 36. Avec cette définition, il y a 2Card(X(Ω))+Card(Y (Ω)) vérifications à effectuer. C’est beaucoup ! !
Exemple 25. (∗) Reprenons l’exemple où l’on lance deux dés bien équilibrés et on s’intéresse à X la somme des
résultats obtenus et Y le produit. Les variables aléatoires X et Y ne sont pas indépendantes.
P ({X = 2} ∩ {Y = 2}) = 0
(
A = {2}
En effet, en prenant , on constate que 1 2 .
B = {2} P (X = 2).P (Y = 2) = × 6= 0
36 36
A retenir ! !
Lorsque les variables sont indépendantes, la donnée des lois marginales permet de retrouver la loi conjointe.
Remarque 38. La notion d’indépendance est une notion probabiliste : elle ne dépend que de la probabilité choisie.
Exemple 26. (∗) On considère Ω = [[1, 2]]2 . On note X et Y la valeur du premier et du second élément du couple.
Etudier l’indépendance des variables X et Y dans le cas où :
1. Ω est muni de la probabilité uniforme.
1
3 si i = j
2. Ω est muni de la probabilité P définie par P ((i, j)) = 1 .
6 si i =
6 j
Exemple 27. (∗) Soit X et Y deux variables aléatoires indépendantes sur (Ω, P ) et (x0 , y0 ) ∈ X(Ω) × Y (Ω).
Prouver que les deux variables 1{X=x0 } et 1{Y =y0 } sont indépendantes.
18
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Exercice : 25
X p
(∗) On considère deux variables de Bernoulli de paramètres définies sur le même espace (Ω, P ).
Y q
Montrer que X et Y sont indépendantes si et seulement si les événements {X = 1} et {Y = 1} sont indépendants.
Preuve 29 :
P ({f (X) ∈ A} ∩ {g(Y ) ∈ B}) = P ({X ∈ f −1 (A)} ∩ {Y ∈ g −1 (B)}) = P (X ∈ f −1 (A)).P (Y ∈ g −1 (B))
Remarque 39. Ainsi, si X et Y sont indépendantes, alors X n et Y p sont aussi indépendantes pour tout n, p ∈ N∗ .
k
X(Ω) ⊂ N X
Lorsque la formule s’écrit : ∀k ∈ N, P (X + Y = k) = P (X = i)P (Y = k − i).
Y (Ω) ⊂ N
i=0
Preuve 30 : Immédiat !
Remarque 40. Plus généralement, si Z = f (X, Y ) avec f à valeurs dans E, alors on obtient la loi de Z en remarquant
que : [
{f (X, Y ) = z} = {X = x} ∩ {Y = y}
(x, y)∈X(Ω)×Y (Ω)
f (x,y)=z
Exercice : 26
(∗∗) Soit X et Y deux variables indépendantes sur le même espace probabilisé et suivant une loi uniforme sur [[1, n]].
Déterminer les lois de X + Y et de X − Y .
Attention à bien faire preuve de rigueur...
19
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Remarque 41. Des variables mutuellement indépendantes sont aussi indépendantes deux à deux.
Exercice : 27
1
(∗) Soit X et Y deux variables indépendantes suivant la loi de Bernoulli de paramètre p = 2 et Z = |X − Y |.
Etudier l’indépendance deux à deux et l’indépendance mutuelle des variables X, Y et Z.
On pourra utiliser ce que l’on a vu sur l’indépendance de deux variables de Bernoulli.
Remarque 43. On peut utiliser une liste de variables indépendantes pour modéliser la succession de n expériences
aléatoires dont les résultats sont indépendants.
Par exemple, la répétition de n lancers de ”pile ou face” aux résultats indépendants sera décrite par une liste
(X1 , . . . , Xn ) de n variables de Bernoulli (mutuellement) indépendantes où Xk représente le résultat de la kème
épreuve.
1. Si X et Y sont des variables aléatoires indépendantes suivants des lois binomiales de paramètres
respectifs (m, p) et (n, p) alors la somme X + Y suit une loi binomiale de paramètres (m + n, p).
2. Plus généralement, si X1 , . . ., Xn sont des variables aléatoires indépendantes suivants des lois bi-
nomiales de paramètres (ni , p) alors la somme X1 + · · · + Xn suit une loi binomiale de paramètres
(n1 + · · · + nn , p).
20
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Preuve 33 :
k
X n m n+m
1. Simple calcul à l’aide de la formule de Vandermonde : =
i=0
i k−i k
2. Par récurrence sur n.
Corollaire 34 : si X1 , . . ., Xn sont des variables aléatoires indépendantes suivants des lois de Bernoulli
de paramètre p alors la somme X1 + · · · + Xn suit une loi binomiale de paramètres (n, p).
Exercice : 28
(∗) Soit (X1 , . . . , Xn ), un n-uplet de variables indépendantes suivants la même loi à valeurs dans E, et x ∈ E.
On note Nx la variable aléatoire égale à Card{k ∈ [[1, n]] | Xk = x}, c’est à dire définie par :
∀ω ∈ Ω, Nx (ω) = Card{k ∈ [[1, n]] | Xk (ω) = x}
Déterminer la loi de Nx , son espérance et sa variance.
Aide : utiliser le théorème précédent en introduisant les variables 1{Xk =x} .
7 Covariance
7.1 Définition et généralités
Définition 24 : Covariance
Soit X et Y deux variables aléatoires réelles sur le même espace probabilisé fini.
On appelle covariance de X et Y (ou du couple (X, Y )) le réel :
Proposition 37 : Propriétés
Soient X, X ′ , Y , Y ′ des variables aléatoires sur une même espace probabilisé fini et λ, µ ∈ R.
La covariance est bilinéaire, symétrique et positive.
21
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Remarque 44. La covariance n’est pas un produit scalaire car elle n’est pas définie.
En effet, une variable aléatoire constante vérifie Cov(X, X) = 0 sans être nécessairement nulle.
Exercice : 29
(∗∗) On considère r boules numérotées de 1 à r et n tiroirs numérotés de 1 à n.
On lance au hasard chacune des r boules dans l’un des n tiroirs.
On note :
— V la variable aléatoire égale au nombre de tiroirs restés vides
— T la variable aléatoire égale au nombre de boules placées dans le tiroir 1.
Montrer en la calculant, que la covariance de V et T est nulle.
On pourra commencer par décomposer V et T en somme de variables de Bernoulli.
V (X + Y ) = V (X) + 2Cov(X, Y ) + V (Y )
Exemple 29. (∗∗) Une urne contient des boules blanches, noires ou rouges dans les proportions p1 , p2 et p3 .
On extrait n boules de l’urne avec remise. On note X, Y et Z le nombre de boules blanches, noires et rouges obtenues.
Déterminer la covariance du couple (X, Y ). On pensera à utiliser la formule précédente...
Exercice : 30
(∗∗) Le problème des rencontres.
Une urne contient n boules numérotées de 1 à n. On les extrait successivement et sans remise. On dit qu’il y a
”rencontre au i-ème tirage” lorsque la boule tirée porte le numéro i.
On note X le nombre de rencontres. Montrer que V (X) = 1.
On pensera à décomposer X en somme de variables de Bernoulli Xi et on vérifiera que E(Xi ) = n1 .
|Cov(X, Y )| ≤ σ(X)σ(Y )
On a |Cov(X, Y )| = σ(X)σ(Y ) ssi les deux variables sont presque sûrement liées par une relation affine.
Cov(X, Y )
• Si V (Y ) 6= 0 et V (X) 6= 0, on peut définir : ρ(X, Y ) =
σ(X)σ(Y )
ρ(X, Y ) ∈ [−1, 1] et est appelé le coefficient de corrélation entre X et Y .
• Deux variables réelles X et Y sont dites non corrélées lorsque : ρ(X, Y ) = 0 cad Cov(X, Y ) = 0.
22
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Preuve 40 :
On calcule E(XY ) à partir de la définition en remarquant que P ({X = x} ∩ {Y = y}) = P (X = x).P (Y = y).
Les deux autres sont des conséquences immédiates de la première.
Exercice : 31
(∗) On considère 3 variables aléatoires mutuellement indépendantes X, Y et Z suivant la même loi de Bernoulli de
paramètre p. Déterminer la covariance du couple (X + Y, Y + Z) et celle du couple (XY, Y Z).
• Deux variables réelles indépendantes sur le même espace probabilisé fini sont non corrélées.
• Comme le montre l’exemple suivant, la réciproque est fausse.
la variable X qui suit une loi uniforme sur {−1, 0, 1}
Exemple 30. (∗) On considère .
la variable Y indicatrice de l’événement {X = 0}
1. Montrer que ces variables se sont pas indépendantes.
2. Montrer que ces variables sont non corrélées.
Exercice : 32
(∗) On considère une suite de N lancers de ”pile ou face” indépendants, la probabilité d’obtenir ”pile” étant p ∈]0, 1[.
Pour n ∈ N∗ , on note Sn le nombre de succès obtenus lors des n premiers lancers.
Montrer que Cov(Sm , Sn ) = min(n, m)p(1 − p) pour m, n ∈ [[1, N ]].
Proposition 41 : Lorsque X1 , . . . , Xn sont n variables aléatoires réelles sur un même espace probabilisé,
deux à deux indépendantes, alors :
Preuve 41 : Pas de difficulté en utilisant la formule donnant la variance d’une somme en fonction des cova-
riances.
Remarque 47.
1. Ce résultat est a fortiori vrai lorsque les n variables sont mutuellement indépendantes.
23
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
2. Cette formule doit nous inciter à décomposer une variable aléatoires en somme de variables aléatoires indépendantes
plus simples.
Retrouver ainsi la variance d’une variable suivant une loi binomiale.
Proposition 42 : Lorsque X1 , . . . , Xn sont n variables aléatoires réelles indépendantes sur un même espace
probabilisé, alors :
E(X1 × · · · × Xn ) = E(X1 ) × · · · × E(Xn )
Exercice : 33
(∗) Soit X1 , . . . , Xn , des variables aléatoires réelles indépendantes sur (Ω, P ), toutes d’espérance m et de variance 1.
Y n
Déterminer l’espérance et la variance de Y = Xk .
k=1
Codage :
1. Les exercices avec des coeurs ♥ sont à traiter en priorité.
2. Le nombre d’étoiles ∗ ou de coeurs ♥ correspond à la difficulté des exercices.
I] Espérance
X
1. L’espérance d’une VA X est donnée par la formule : E(X) = x.P (X = x).
x∈X(Ω)
X
2. La formule de transfert permet de trouver l’espérance de u(X) : E(u(X)) = u(x)P (X = x)
x∈X(Ω)
E(X)
5. La loi de Markov nous dit que : P (X ≥ a) ≤ a
Exercice de TD : 1
(♥) Soit n ∈ N∗ et soit X une variable aléatoire finie dont la loi est donnée par :
1. Trouver a.
2. Déterminer E(X). Le résultat est-il surprenant ?
3. Déterminer E(1/X).
Exercice de TD : 2
(♥♥) Une urne est composée de n boules numérotées de 1 à n.
On effectue des tirages successifs et avec remise dans cette urne et on note b1 , . . ., bk les numéros des boules prélevées.
Les tirages s’arrêtent dès que bk ≥ bk−1 . Soit Xn la variable aléatoire égale au nombre de tirages effectués.
1. Déterminer la loi de probabilité de Xn .
Aide : on pourra commencer par calculer P (Xn > k) pour tout k ∈ Xn (Ω).
24
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
2. En déduire E(Xn ) (on pourra faire apparaı̂tre une somme télescopique) puis la limite de E(Xn ) lorsque n → +∞.
Exercice de TD : 3
(♥♥) Temps d’attente.
Une urne contient n ∈ N∗ boules numérotés de 1 à n. On retire, l’une après l’autre, toutes les boules de l’urne.
1. Quelle est la probabilité que les boules 1, 2 et 3 sortent successivement et dans cet ordre ?
2. Quelle est la probabilité que les boules 1, 2 et 3 sortent dans cet ordre (successivement ou pas) ?
3. On note Xn la variable aléatoire égale au nombre de tirages nécessaires pour obtenir les boules 1, 2 et 3.
Déterminer la loi de Xn , son espérance et la méthode permettant de calculer sa vériance.
Exercice de TD : 4
(♥♥) Une urne contient n − 2 boules blanches et 2 boules rouges.
On la vide en retirant les boules une à une et on note Xi le rang d’apparition de la ième boule rouge.
Déterminer les espérances de X1 et de X2 en calculant successivement des lois de X1 , X2 − X1 et n + 1 − X2 .
Exercice de TD : 5
(∗) Soit X une variable aléatoire réelles et g : R+ → R+ une fonction strictement croissante.
E(g(|X|))
Montrer que ∀a > 0, on a : P (|X| ≥ a) ≤
g(a)
II] Variance
V (X)
3. Inégalité de Bienaymé-Tchebychev : P (|X − E(X)| ≥ ε) ≤
ε2
Exercice de TD : 6
1
(∗) Soit n ∈ N∗ et soit X une variable aléatoire telle que : X(Ω) = [[1, n]] et ∀k ∈ [[1, n]], P (X = k) = .
n
1. Vérifier que l’on a bien défini une variable aléatoire. Déterminer E(X) et V (X).
2. Calculer le moment d’ordre 3 de X
1
3. Calculer E( X(X+1) ).
Exercice de TD : 7
(♥♥) Soit n ∈ N∗ et a ∈ R.
a n
Soit X une variable aléatoire à valeurs dans [[0, n]] telle que ∀k ∈ [[0, n]] : P (X = k) = .
k+1 k
Déterminer la valeur de a puis calculer l’espérance et la variance de X.
Exercice de TD : 8
(♥) On lance simultanément 2 dés à 6 faces.
On appelle Z la variable aléatoire égale à la valeur absolue de la différence entre les 2 valeurs obtenues.
1. Déterminer la loi de probabilité de Z.
2. Calculer son espérance et sa variance.
25
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
2. C’est la probablilité d’obtenir k succès lorsqu’on répète n fois une épreuve de Bernoulli de probabilité p.
3. Si X ֒→ B(n, p), alors :
E(X) = np et V (X) = np(1 − p) = npq
Exercice de TD : 9
(♥♥) Soit k ∈ [[0, n]] et X ֒→ B(n, p).
1. Déterminer ε de telle sorte que (X ≤ k) ⊂ (|X − E(X)| ≥ ε).
2. En déduire que P (X ≤ k) −−−−−→ 0.
n→+∞
Exercice de TD : 10
(♥) Soit X une variable aléatoire suivant la loi binomiale de paramètres n ∈ N∗ et p ∈]0, 1[.
1
1. Calculer l’espérance de la variable aléatoire Y = 1+X .
1 eX
2. On suppose que p = 2 et que a > 0. Calculer l’espérance de Z = 2n
Exercice de TD : 11
(♥♥) Un mobile évolue de façon aléatoire le long d’un axe gradué. A l’instant t = 0, il est en O (l’origine de l’axe).
A chaque instant entier t appartenant N∗ , son abscisse varie de +2 avec la probabilité p et de 1 avec la probabilité
q = 1 − p. Pour tout n ∈ N∗ , on note Xn son abscisse au temps t = n et Yn le nombre de déplacements de +2 effectués.
1. Soit n un entier naturel non nul fixé. Donner la loi de Yn . Donner, sans calcul, E(Yn ) et V (Yn ).
2. Soit n ∈ N∗ .
(a) Exprimer Xn en fonction de Yn et en déduire la loi de Xn .
(b) Calculer E(Xn ) puis V (Xn ).
3. Dans cette question, on suppose que n = 3 et que p = 1/2.
Tracer le graphe de la fonction de répartition de X3 .
Exercice de TD : 12
(♥♥) Dans une ville, une proportion p de la population est atteinte par un virus contagieux. Si une personne saine est
en contact avec une personne contaminée, il y a 2 chance sur 3 pour qu’elle soit elle-même contaminée. Un représentant
de commerce, en parfaite santé, décide de rendre visite à n habitants de cette ville.
1. Soit N la variable aléatoire égale au nombre de malades rencontrés par le représentant.
Quelle est la loi de N ?
2. Quelle est la probabilité pour que le représentant soit contaminé à l’issu de sa tournée ?
Exercice de TD : 13
(♥♥) On se propose d’analyser le sang d’une population de N individus pour déceler la présence éventuelle (résultat
du test positif) d’un virus dont on sait qu’il affecte une personne donnée avec la probabilité p. On dispose pour cela
de deux méthodes :
26
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Exercice de TD : 14
(∗∗) Soit n un entier pair strictement positif et soit X ֒→ B(n, 1/2).
On note A l’événement ”X est un nombre pair”.
1. Pour tout k ∈ [[0, n/2]] donner P (X = 2k).
2. Calculer P (A).
3. Soit B l’événement ”X est un nombre impair”. Calculer P (B)
Exercice de TD : 15
(∗∗) Un autre exercice classique du même style. Soit X une variable aléatoire réelle suivant une loi binomiale de
paramètres n et 1/2. On note A l’événement ”X est un multiple de 3”. Calculer P (A).
Exercice de TD : 16
(♥) Une population de personnes présente une propriété donnée avec une proportion inconnue p ∈]0, 1[.
On choisi un échantillon de n personnes et l’on appelle Sn la variable aléatoire donnant le nombre de personnes vérifiant
la propriété étudiée.
1. Quelle est la loi suivie par la variable Sn ?
Sn
2. Déterminer l’espérance et la variance de n
1
3. Soit ε > 0. Montrer que : P (| Snn − p| ≥ ε) ≤ 4nε2
Sn
4. Pour ε = 0, 05, quelle valeur de n choisir pour que n soit voisin de p à ε près avec une probabilité supérieure
à 95% ?
Exercice de TD : 17
(♥♥) Inégalité de Hoeffding
1. Soit X une variable aléatoire réelle positive sur un univers Ω fini et a > 0.
E(X)
(a) Prouver l’inégalité de Markov : P (X ≥ a) ≤ .
a
V (X)
(b) En déduire l’inégalité de Bienaymé Tchebytchev : P (|X − E(X)| ≥ a) ≤ .
a2
1
2. On suppose que X ֒→ B(n, p) sur Ω = [[0, n]] avec n > 0 non multiple de 5 et p = 10 .
(a) Prouver que E(X) = np et que V (X) = np(1 − p).
2
(c) L’inégalité de Hoeffding nous donne la relation : P (|X − E(X)| ≥ a) ≤ 2 exp(−2 an ).
n
i. Quelle valeur donner à n pour avoir P (X ≤ 5) ≥ 0, 95 ?
n
ii. Quelle valeur donner à n pour avoir P (X ≤ 5) ≥ 0, 99 ?
27
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
Même si cette loi n’est pas officiellement au programme de MPSI, il est important d’en traiter des exemples.
Exercice de TD : 18
(♥♥) La loi hypergéométrique
Une population E est constituée de N éléments répartis en deux groupes, les ”bons” et les ”méchants”, les bons
représentant un pourcentage p de la population. On sélectionne au hasard un échantillon de la population comprenant
n éléments de E (tirage simultanée sans remise). On note X la variable aléatoire égale au nombre de bons éléments
sélectionnés.
1. Déterminer la loi de X.
2. En déduire son espérance et sa variance.
On reconnaitra dans l’expression de l’espérance la formule de Vandermonde.
Exercice de TD : 19
(♥♥) La loi hypergéométrique
Dans un bocal de vinaigre blanc ont été placés C cornichons et G oignons blancs avec (C, G) ∈ N∗ 2 .
C G
On pose N = C + G, p = N et q = N . Ainsi, on a p, q ∈ R+ et p + q = 1.
On prend simultanément n condiments dans le bocal et on note X le nombre de cornichons recueillis.
2. Lorsque deux variables aléatoires ne sont pas indépendantes, il est impossible de déterminer la loi
conjointe à partir des lois marginales. On procédera alors toujours dans l’ordre suivant :
28
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
2) Covariance
Exercice de TD : 20
(♥) Soient X et Y deux variables de Bernoulli indépendantes et de même paramètre p ∈]0, 1[ sur le même espace
probabilisé.
Soit U = X + Y et V = X − Y . Déterminer :
1. La loi du couple (U, V ).
2. la covariance de U et V .
3. Les variables U , V sont-elles indépendantes ? Conclusion ?
3) Variables Indépendantes
Exercice de TD : 21
1 1
(♥) Soient X et Y deux variables aléatoires suivant les lois binômiales B(n, ) et B(m, ).
2 2
Déterminer la probabilité de l’événement (X = Y ).
Exercice de TD : 22
X0 + X1
(∗∗) Soit X0 , X1 et X2 trois variables aléatoires deux à deux indépendantes telles que soient indépendantes.
X0 + X2
Montrer que la probabilité de (X0 = constant ) vaut 1 (cad que V (X0 ) = 0).
Vous penserez à utiliser la covariance.
Exercice de TD : 23
(♥♥) On lance deux dés honnêtes. On note X1 le numéro donné par le dé numéro 1 et X2 le numéro donné par le dé
numéro 2. Les variables aléatoires réelles X2 et X2 sont donc indépendantes. On note également X le plus grand des
numéros obtenus et Y le plus petit.
Exercice de TD : 24
(♥♥ − ♥♥♥) Marche aléatoire
29
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/
1. Marche dans Z.
Un objet A se trouve en position 0 sur l’axe des réels.
p ∈]0, 1[ de se déplacer de 1 vers la droite
Chaque seconde, il a la probabilité .
1 − p de se déplacer de 1 vers la gauche
On note Xn sa position après n ∈ N secondes et Zn = Xn+1 − Xn .
(a) Déterminer la loi de Zn , son espérance et sa variance.
(b) En déduire la loi de Xn , son espérance et sa variance.
2. Marche dans Z2 .
M0 = (0, 0) = O.
Pour tout n ∈ N, on pose Mn+1 = Mn + An où An suit une loi uniforme sur {(1, 0), (−1, 0), (0, 1), (0, −1)}.
On pose également Mn = (Xn , Yn ).
30