Cours 32

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 30

Variables Aléatoires

sur un univers fini



MPSI Prytanée National Militaire

Pascal Delahaye - D’après le manuel ”Mathématiques tout-en-un” MPSI


21 juin 2018

Dans ce chapitre comme dans le précédent, on ne considère que des univers Ω finis.

1 Variables aléatoires
Dans une expérience aléatoire, on s’intéresse rarement à l’espace probabilisé dans son ensemble, mais plus souvent à
un aspect particulier du résultat. Par exemple :
1. le nombre de boules rouges obtenues lors d’un tirage de n boules.
2. la somme des faces abtenues lors d’un lancer de 2 dés.
Dans les deux cas précédents, ce qui nous intéresse est en fait une grandeur X qui peut prendre différentes valeurs
entières selon les événements élémentaires qui se produisent. Il s’agit donc d’une application X : Ω → N.

Définition 1 : Variable aléatoire


Soit Ω un univers fini et E un ensemble.
Toute application X : Ω → E est appelée une variable aléatoire . On note : X(Ω) = {X(ω) | ω ∈ Ω}
Lorsque E = R on dit que X est une variable aléatoire réelle.

Notations :

1. Pour tout A ⊂ E, X −1 (A) est l’ensemble des événements élémentaires ω tels que X(ω) ∈ A.
En pratique, cet ensemble X −1 (A) est l’événement noté :

(X ∈ A) ou {X ∈ A}

2. Plus généralement, si P est une propriété pouvant être vérifiée par les éléments de E, alors l’ensemble
des éléments ω ∈ Ω tels que ”X(ω) vérifie P ” est noté :

{X vérifie P }

Ainsi :
• {ω ∈ Ω | X(ω) = k} est noté : {X = k} ou (X = k).
• {ω ∈ Ω | X(ω) ≤ k} est noté : {X ≤ k} ou (X ≤ k).

Remarque 1.
1. En pratique, nous verrons que dans la grande majorité des situations, X est à valeurs dans N.
2. Attention à la dénomination variable : X est en fait une application !

1
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Exemple 1. (∗)
1. On lance une pièce à trois reprises et on s’intéresse au nombre de fois où l’on a obtenu ”Face”.
2. On tire n boules au hasard dans une urne qui contient p boules rouges et on s’intéresse au nombre de boules
rouge obtenues.
3. On distribue une main de 8 cartes et on s’intéresse au nombre de coeurs que contient cette main.

Remarque 2. On n’a pas besoin de la notion de probabilité pour définir une variable aléatoire.
En revanche, nous aurons besoin d’une probabilité dès lors que l’on veut calculer P ({X ∈ A}).

Exercice : 1
(∗) Une urne contient N boules numérotées de 1 à N .
L’expérience consiste à tirer au hasard et simultanément p ≤ N boules numérotées. On note :
— X la variable aléatoire qui a tout élément de Ω associe le plus petit numéro tiré
— Y la variable aléatoire qui a tout élément de Ω associe le plus grand numéro tiré
1. Que prendre comme univers Ω ?
2. Déterminer X(Ω) et Y (Ω).

Exercice : 2
(∗) Soit X une variable aléatoire à valeurs dans E ainsi que A et B deux parties de E. 
{X ∈ A}
Exprimer les événements {X ∈ A ∪ B}, {X ∈ A ∩ B} et {X ∈ E\A} en fonction des événements .
{X ∈ B}

Proposition 1 : Décomposition en partition de {X ∈ A}


Soit X : Ω → E une variable aléatoire et A ⊂ E. On a :
[ [
{X ∈ A} = {X = a} = {X = a}
a∈A a∈A∩X(Ω)

Décomposition en partition de l’événement {X ∈ A}


Exemple 2. (∗) On lance deux dés et on s’intéresse à la variable aléatoire donnant la somme des chiffres obtenus.
1. Quel univers Ω peut-on choisir ?
2. Déterminer précisément les événements :

(a) A1 = {X = 7} (b) A2 = {X ≤ 4} (c) A3 = {8, 5 ≤ X ≤ 10, 1}

Définition 2 : Trois variables aléatoires particulières


Soit Ω un univers fini, A ⊂ Ω et a ∈ E.

1. X : Ω → E définie pour tout ω de Ω par X(ω) = a est appelée variable aléatoire constante.

2. X : Ω → {0, 1} est appelée une variable de Bernoulli.



X(ω) = 1 si ω ∈ A
3. X : Ω → {0, 1} définie par est appelée variable indicatrice de A.
X(ω) = 0 si ω 6∈ A
Cette variable est notée 1A et c’est bien entendu une variable de Bernoulli particulière.

2
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

{1A = 1} = A
Remarque 3. Avec les notations introduites précédemment, nous avons bien entendu : .
{1A = 0} = Ā

Proposition 2 : Le produit de deux variables de Bernoulli est une variable de Bernoulli.

Preuve 2 : Immédiat puisqu’un tel produit ne peut également prendre que les valeurs 0 et 1.

2 Loi de probabilité d’une variable aléatoire


2.1 Loi d’une variable aléatoire
La variable aléatoire X permet de définir un nouvel univers X(Ω).
Si l’univers initial Ω est muni d’une probabilité P , la variable aléatoire X induit également une nouvelle probabilité
PX sur cet univers X(Ω).

Définition 3 : Loi de probabilité PX associée à une variable aléatoire X


Soit P une probabilité sur un univers fini Ω et X une variable aléatoire définie sur Ω.
Ω étant de cardinal fini, X(Ω) est aussi de cardinal fini.
La fonction suivante est alors une probabilité sur X(Ω) :

PX : P(X(Ω)) −→ [0, 1]
A 7→ P (X ∈ A)

Cette probabilité est appelée la loi de X.

Remarque 4.
1. Une variable aléatoire X se définit indépendamment de la notion de probabilité.
2. La loi de probabilité de X est quant à elle, déterminée à partir de la probabilité choisie sur Ω.
3. On allègera les notations en notant P (X = x) la probablité P ({X = x})

(Ω, P ) induit un nouvel espace probabilisé (X(Ω), PX )

Définition 4 : Système complet d’événements associé à X


Soit X une variable aléatoire sur un univers Ω.
La famille ({X = x})x∈X(Ω) forme un système complet d’événements appelé le système complet d’événements
associé à X. On a donc : X
P (X = x) = 1
x∈X(Ω)

Proposition 3 : Determination de la loi PX


Soit X une variable aléatoire sur un univers probabilisé (Ω, P ).
La loi PX est déterminée de façon unique par les valeurs de P (X = x) pour tout x ∈ X(Ω).
X
En effet, pour tout A ⊂ X(Ω) on a alors : PX (A) = P (X = x)
x∈A

3
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Exemple 3. (∗) Dans l’exemple précédent où X est la variable aléatoire donnant le nombre de ”face” obtenu après
avoir lancé 3 fois une pièce équilibrée, la probabilité PX est définie par :

1 3 3 1
1. P (X = 0) = 8 2. P (X = 1) = 8 3. P (X = 2) = 8 4. P (X = 3) = 8

Loi d’une variable aléatoire X :

Déterminer la loi d’une variable aléatoire X consiste donc à :


1. Déterminer l’ensemble X(Ω)
2. Déterminer les valeurs PX (x) = P ({X = x}) pour tout x ∈ X(ω).

Lorsque X(Ω) est fini, la loi de probabilité PX de X est souvent présentée sous forme de tableau.
Avec l’exemple de la pièce de monnaie lancée trois fois et X = nombre de face obtenus, cela donne :

X(Ω) x1 = 0 x2 = 1 x3 = 2 x4 = 3 Total

1 3 3 1
P (X = xk ) ou PX ({xk }) p1 = p2 = p3 = p4 = 1
8 8 8 8

Exemple 4. (∗) Déterminer la loi de la variable aléatoire donnant la somme des deux chiffres obtenus par le lancer de
deux dés équilibrés.

Exercice : 3
(∗) Une urne contient N boules numérotées de 1 à N .
L’expérience consiste à tirer au hasard et simultanément p ≤ N boules numérotées. On note :
— X la variable aléatoire qui a tout élément de Ω associe le plus petit numéro tiré
— Y la variable aléatoire qui a tout élément de Ω associe le plus grand numéro tiré
Déterminer les lois de probabilités de X et Y .

Remarque 5. Deux variables aléatoires peuvent être différentes et avoir la même loi de probabilité.
Considérer par exemple le lancer d’un dé équilibré, X le nombre de ”pile” et Y le nombre de ”face”.

RUSE !
Soit X une variable aléatoire sur une espace probabilisé (Ω, P ) telle que X(Ω) ⊂ Z.
Lorsque le calcul de P (X ≤ k) ou de P (X ≤ k) est plus simple que le calcul de P (X = k), on peut envisager
d’utiliser l’une des deux formules suivantes :

P (X ≤ k) − P (X ≤ k − 1)
P (X = k) =
P (X ≥ k) − P (X ≥ k + 1)

Exercice : 4
(∗∗) Un joueur prélève successivement n boules avec remise dans une urne contenant N boules numérotées de 1 à N .
On considère :
— X la variable aléatoire égale au plus grand numéro tiré
— Y la variable aléatoire égale au plus petit numéro tiré
1. Déterminer un espace probabilisé (Ω, P ) rendant compte de l’expérience.
Déterminer X(Ω) et Y (Ω).
2. Déterminer P (X ≤ k) pour tout k ∈ [[1, N ]]. En déduire la loi de X.
3. Déterminer P (Y ≥ k) pour tout k ∈ [[1, N ]]. En déduire la loi de Y .

4
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Proposition 4 : Construction d’une variable aléatoire et de sa loi


Soit Ω un ensemble fini et E un ensemble non vide tel que Card(Ω) ≥ Card(E) = n.
n
X
Soient x1 , . . . , xn ∈ E distincts deux à deux et p1 , . . . , pn ∈ R+ tels que pk = 1.
k=1
Il existe alors une variable aléatoire X (non unique) sur Ω et une probabilité P telles que :

X(Ω) = {x1 , . . . , xn } et ∀k ∈ [[1, n]], P (X = xk ) = pk

Preuve 4 : Pas de difficulté.

Exemple 5. (∗) Construisez vous-même une variable aléatoire associée à une loi de probabilité.

Remarque 6.
n
X
+
Pour que la probabilité P précédente soit bien définie, il suffit de s’assurer que p1 , . . . , pn ∈ R et que pk = 1.
k=1

Exemple 6. (∗) Pour quelles valeurs de p2 ∈ R, existe-t-il une variable aléatoire X à valeurs dans [[0, 5]] telle que
P (X = 2) = p2 et que la suite (P (X = k)))0≤k≤5 soit arithmétique ?

2.2 Opérations sur les variables aléatoires


Définition 5 : La variable aléatoire u(X)
Soit X est une variable aléatoire sur Ω et u ∈ F (X(Ω), E).
u ◦ X est une nouvelle variable aléatoire qui sera notée u(X).
La loi de la variable u(X) est donnée par :
X
∀y ∈ u(X(Ω)) : P (u(X) = y) = P (X = x)
x∈u−1 ({y})

Remarque 7. La notation u(X) est cohérente avec l’appellation ”variable” utilisée pour parler de X.

Exemple 7. (∗) On pose Y = u(X).


1. Lorsque u est une application injective, si on note ∀x ∈ X(Ω), y = u(x), on a P (Y = y) = P (X = x).
2. Lorsque u est définie par u(x) = x2 et que X(Ω) = [[−n, n]], alors Y (Ω) = {k 2 | k ∈ [[0, n]]} et :
P (Y = 0) = P (X = 0) et ∀k ∈ [[1, n]] : P (Y = k 2 ) = P (X = k) + P (X = −k)

Exercice : 5
(∗) Un joueur lance successivement deux fois un dé équilibré.
Soit X la variable aléatoire égale à la différence entre le résultat du premier et du deuxième lancer.
Déterminer les lois de X, |X| et X 2 .

Remarque 8. L’ensemble des variables aléatoires réelles est F (Ω, R).


Or, nous savons que cet ensemble a une structure de R-ev et admet une multiplication interne.
Il sera donc possible de faire des Combinaisons Linéaires et des Produits de variables aléatoires réelles.

Proposition 5 : Lois de X + Y et XY
Soient X et Y deux variables aléatoires réelles sur un même espace probabilisé (Ω, P ).

1. On a : (X + Y )(Ω) = {(X + Y )(ω) | ω ∈ Ω} et en notant Iz = {(x, y) ∈ X(Ω) × Y (Ω) | z = x + y} on a :


X
∀z ∈ (X + Y )(Ω), P (X + Y = z) = P ({X = x} ∩ {Y = y})
(x, y)∈Iz

2. On a : (XY )(Ω) = {X(ω)Y (ω) | ω ∈ Ω} et en notant Jz = {(x, y) ∈ X(Ω) × Y (Ω) | z = xy} on a :


X
∀z ∈ (XY )(Ω), P (XY = z) = P ({X = x} ∩ {Y = y})
(x, y)∈Jz

5
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Preuve 5 : Il suffit dans les deux cas, de partitionner correctement les événements {X + Y = z} et {XY = z}.

Remarque 9. Les sommes précédentes contiennent des termes dont la probabilité est nulle.

Exemple 8. (∗) Si X est le nombre de fois où l’on a obtenu ”Face” après avoir lancé n fois une pièce, alors on peut
écrire X = X1 + X2 + · · · + Xn où Xk est la variable aléatoire qui vaut 1 si on a obtenu ”pile” au kème lancer et 0
sinon.

Exercice : 6
(∗) On lance à deux reprises un dé à 3 faces numérotées de 1 à 3.
Soit X et Y les variables aléatoires telles que :
 
X = 0 si la face est paire au 1er lancé Y = 0 si la face est impaire au 2eme lancé
et
X = le numéro de la face sinon Y = le numéro de la face sinon
Déterminer les lois des variables aléatoires X + Y et XY .

3 Espérance, variance et écart type d’une variable aléatoire


Soit Ω un univers fini correspondant à une expérience aléatoire et P une probabilité sur Ω.
Soit X une variable aléatoire réelle définie sur Ω. X(Ω) est alors de cardinal fini.

3.1 L’espérance
3.1.1 Définition et calcul de l’espérance

Définition 6 : Espérance de X X
L’espérance de X est le réel défini par : E(X) = x.P (X = x)
x∈X(Ω)

Remarque 10.
1. Il s’agit de la moyenne des valeurs prises par X pondérées par les probabilités d’obtenir ces valeurs.
L’espérance représente donc la valeur que l’on atteint en moyenne lorsqu’on réalise l’expérience aléatoire.

2. Lorsque X représente le gain du joueur à un jeu de hasard, E(X) représente l’espoir de gain moyen par par-
tie, lorsqu’il joue un grand nombre de fois. Si E(X) > 0 (resp. E(X) < 0) alors le jeu est avantageux (resp.
désavantageux) pour le joueur. Si E(X) = 0 alors le jeu est dit équitable.

3. L’espérance ne dépend que de la loi. Ainsi, deux variables aléatoires distinctes ayant la même loi auront la
même espérance.

Remarque 11. Pour être utilisée, la formule de définition nécessite la connaissance de la loi de la VA X. Nous verrons
par la suite deux situations permettant de calculer l’expérance d’une VA sans connaı̂tre sa loi :
1. la décomposition X = X1 + · · · + Xn
2. la ”formule de transfert pour l’espérance de u(X).

Exemple 9. (∗) On lance deux dés.


Calculer l’espérance de X, la variable aléatoire égale à la somme des chiffres apparus.

Exercice : 7
(∗) Un joueur tire simultanément n boules dans une urne contenant N boules numérotées de 1 à N .
Déterminer l’espérance de la variable aléatoire X donnant le plus petit numéro tiré.
N    
X k N +1
Aide : on utilisera la formule de Pascal généralisée : =
n n+1
k=n

Proposition 6 : Cas particuliers


Soit (Ω, P ) un espace probabilisé.
1. La variable aléatoire constante égale à a a pour espérance : E(X) = a.
2. L’espérance de la variable aléatoire indicatrique de A est : E(1A ) = P (A).

6
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Preuve 6 : Immédiat.

Lemme 7 : Autre expression de l’espérance


Soit X une variable aléatoire sur un espace probabilisé fini (Ω, P ).
L’espérance est aussi donnée par la formule :
X
E(X) = X(ω).P (ω)
ω∈Ω

Preuve 7 : Immédiat.

Exemple 10. (∗) Dans l’exemple du lancer d’une pièce à trois reprises, lorsque X donne le nombre de ”face” obtenu,
la formule précédente donne :
1X 1
E(X) = X(ω) = (X(P P P ) + X(P P F ) + X(P F P ) + X(P F F ) + X(F P P ) + X(F P F ) + X(F F P ) + X(F F F ))
8 8
ω∈Ω

1 3
E(X) = (0 + 1 + 1 + 2 + 1 + 2 + 2 + 3) =
8 2

Remarque 12. Cette formule sera finalement peu utile dans les exercices mais pourra présenter un intérêt dans les
démonstrations du cours.

Théorème Fondamental 8 : Théorème de Transfert


Soit X une variable aléatoire réelle sur une espace probabilisé fini (Ω, P ) et u ∈ F (X(Ω), R).
L’espérance de u(X) est donnée par la formule :
X
E(u(X)) = u(x)P (X = x)
x∈X(Ω)

Preuve 8 : On utilise la formule de


XdéfinitionXde l’espérance
X et celle donnant la loi de probabilité de u(X).

On conclut en remarquant que = .
y∈u(X)(Ω) x∈u−1 ({y}) x∈X(Ω)

Remarque 13. L’intérêt de cette formule est qu’elle permet de calculer l’espérance de u(X) sans avoir besoin de
connaı̂tre sa loi de probabilité. Seule la loi de X intervient dans la formule.

Exercice : 8 
X(Ω) = [[1, n]]
(∗) Soit X une variable aléatoire sur une espace probabilisé (Ω, P ) telle que 1 .
∀k ∈ [[1, n]], P (X = k) = n
Donner les espérances de X 2 et de eX .

3.1.2 Linéarité de l’espérance - Application

Proposition 9 : Linéarité de l’espérance


Soit X et Y deux variables aléatoires réelles sur un espace probabilisé fini (Ω, P ). Soit λ, µ ∈ R.
On a alors :
E(λX + µY ) = λE(X) + µE(Y )
Ainsi, si a ∈ R, on a : E(aX + b) = aE(X) + b.

Preuve 9 : Pas de difficulté avec la formule donnée dans le lemme 7.

Remarque 14. La fonction espérance est donc une forme linéaire non nulle de l’ev des variables aléatoires. Son noyau
est donc un hyperplan de cet ev.

7
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

RUSE !
Lorsqu’on cherche à calculer l’espérance d’une variable aléatoire X ”compliquée”, il est parfois possible de
décomposer cette variable en somme de variables ”plus simples” :

X = X1 + X2 + · · · + Xn

On peut alors calculer l’espérance de X en appliquant la formule : E(X) = E(X1 ) + E(X2 ) + · · · + E(Xn )

Exemple 11. On lance 4 dés, et on note S la somme des résultats obtenus. Calculer E(S).

Exemple 12. (∗) Une urne contient N boules dont b blanches.


On tire simultanément n ∈ [[1, N ]] boules et l’on considère la variable aléatoire X égale au nombre de boules blanches
obtenues. Calculer l’espérance de X.

Exercice : 9
(∗) Le problème des rencontres.
Une urne contient n boules numérotées de 1 à n.
On les extrait successivement et sans remise. On dit qu’il y a ”rencontre au i-ème tirage” lorsque la boule tirée porte
le numéro i. Déterminer le nombre moyen de rencontres.

Exercice : 10
(∗) Soit n ∈ N∗ . On range n objets dans n tiroirs (chaque tiroir pouvant contenir de 0 à n objets).
Calculer le nombre moyen de tiroirs vides et déterminer sa limite lorsque n → +∞.

Exercice : 11
(∗) On considère r boules numérotées de 1 à r et n tiroirs numérotés de 1 à n.
On lance au hasard chacune des r boules dans l’un des n tiroirs.
On note :
— V la variable aléatoire égale au nombre de tiroirs restés vides
— T la variable aléatoire égale au nombre de boules placées dans le tiroir 1.
Déterminer l’espérance des variables V et T .

3.1.3 Autres propriétés de l’espérance

Définition 7 : Variable aléatoire centrée


On dira que X est une variable aléatoire centrée lorsque : E(X) = 0.

Proposition 10 : Centrage d’une variable aléatoire


Pour tout variable aléatoire réelle X, la variable Y = X − E(X) est centrée.

Preuve 10 : Pas de difficulté.

Proposition 11 : Positivité de l’espérance


Soit X une variable aléatoire réelle positive ou nulle sur une espace probabilisé fini (Ω, P ).
On a alors :
1. E(X) ≥ 0
2. E(X) = 0 si et seulement si P (X = 0) = 1.
Dans ce cas, on dit que la variable X est presque sûrement nulle.

Preuve 11 : Pas de difficulté. On pourra prendre X(Ω) = {x1 , . . . , xn } avec 0 ≤ x1 < · · · < xn .

Remarque 15. Cette propriété est analogue aux propriétés connues sur l’intégrale d’une fonction positive.

Proposition 12 : Croissance de l’espérance


Soit X et Y deux variables aléatoires réelles sur une espace probabilisé fini (Ω, P ).
Alors :
X≤Y ⇒ E(X) ≤ E(Y )
On dit que X ≤ Y lorsque ∀ω ∈ Ω, X(ω) ≤ Y (ω).

8
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Preuve 12 : Pas de difficulté en utilisant la linéarité et la positivité de l’espérance.

Théorème 13 : Inégalité de Markov


Soit X une variable aléatoire réelle positive sur une espace probabilisé fini (Ω, P ) et a > 0.
On a alors :
E(X)
P (X ≥ a) ≤
a

X
Preuve 13 : Il suffit de comparer les variables 1{X≥a} et .
a

3.2 La variance
Définition 8 : Moment d’ordre r
Soit X une variable aléatoire réelle et r un entier naturel.
Le moment d’ordre r de la variable X est :

mr (X) = E(X r )

Remarque 16. Le moment d’ordre 0 est égal à 1 et le moment d’odre 1 est l’espérance de X.

Proposition 14 : Formule du moment


Soit X une variable aléatoire réelle sur un espace probabilisé fini (Ω, P ) et r un entier naturel.
On a : X
mr (X) = xr P (X = x)
x∈X(Ω)

Preuve 14 : Immédiat à l’aide du théorème de transfert.

Définition 9 : Variance
Soit X une variable aléatoire réelle sur un espace probabilisé fini (Ω, P ).
On appelle variance de X le réel :
V (X) = E((X − E(X))2 )

Remarque 17.
1. La formule montre que la variance est une mesure de la dispersion de X par rapport à E(X).
2. Il aurait semblé plus naturel de prendre E(|X − E(X)|) comme mesure de dispersion, mais cette expression ne
possèdent pas les propriétés intéressantes (vues plus loin) de la variance.

Proposition 15 : Formule 1 de la variance


Soit X une variable aléatoire réelle sur un espace probabilisé fini (Ω, P ) et r un entier naturel.
La variance de X est donnée par la formule suivante :
X
V (X) = (x − E(X))2 .P (X = x)
x∈X(Ω)

Preuve 15 : Immédiat à l’aide du théorème de transfert.


Exemple 13. (∗) Calculer la variance de la variable aléatoire X donnant la somme des chiffres apparus lors du lancer
de deux dés équilibrés.

Théorème 16 : Formule 2 de la variance : Koenig-Huyghens


La variance d’une variable aléatoire X peut aussi se calculer avec la relation suivante :

V (X) = E(X 2 ) − [E(X)]2

Preuve 16 : D’après la linéarité de l’espérance :


V (X) = E((X − E(X))2 ) = E(X 2 − 2XE(X) + E(X)2 ) = E(X 2 ) − 2E(X)E(X) + E(X)2 E(1).
Ainsi : V (X) = E(X 2 ) − [E(X)]2 .

9
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Remarque 18. La variance est donc aussi l’écart entre l’espérance des carrés et le carré de l’espérance.

Pour le calcul de la variance :


On préférera l’emploi de la formule de Koenig-Huyghens plutôt que celle donnée en définition.
En effet, outre le fait que les calculs sont beaucoup plus simples à mener, la formule de Koenig-Huyghens est
surtout plus fiable lorsque l’espérance E(X) ne tombe pas juste. En effet, dans la formule de la définition,
l’erreur due à l’arrondi de E(X) se propage tout au long du calcul alors qu’elle n’apparaı̂t que dans le dernier
terme dans la formule de Koenig-Huyghens.

Exemple 14. On lance 3 fois une pièce de monnaie et on note X le nombre de ”face” obtenu. Calculer V (X).

Exercice : 12
(∗) Soit λ ∈ R+ , n ∈ N∗ et X une variable aléatoire à valeurs dans [[1, n]] telle que ∀k ∈ [[1, n]], P (X = k) = λk.
Déterminer λ, E(X) et V (X).

Exercice : 13
(∗) Soit X une variable aléatoire sur un espace probabilisé fini.
Déterminer le minimum de la fonction ϕ définie par ϕ(m) = E((X − m)2 ).

RUSE Pour le calcul de E(X 2 )



 E(X(X + 1))
Parfois, la valeur de E(X 2 ) est plus simple à obtenir en calculant ou puis en utilisant la linéarité.
E(X(X − 1))

Exercice : 14
(∗∗) On tire simultanément n boules dans une urne contenant N boules numérotés de 1 à N .
On considère X la variable aléatoire égale au plus grand des numéros tirés.
k−1

n−1
On admettra que la loi de X est donnée par : ∀k ∈ [[n, N ]], P (X = k) = N
 .
n
n(N +1)
1. Montrer que E(X) = n+1 .
2. Calculer E(X(X + 1)).
N    
X k N +1
Aide : on pourra utiliser la formule de Pascal généralisée : =
n n+1
k=n
n(N +1)(N −n)
3. En déduire que V (X) = (n+2)(n+1)2 .

Proposition 17 : Propriétés de la variance


Soit X une variable aléatoire réelle. On a :
1. V (X) ≥ 0
2. V (X) = 0 ⇐⇒ ∃m ∈ R | P (X = m) = 1 (c’est à dire X est presque sûrement constante).
3. V (aX + b) = a2 V (X) lorsque a, b ∈ R ( la variance n’est pas linéaire !)

Preuve 17 : Pas de difficulté avec la formule de Koenig-Huyghens compte-tenu des propriétés de l’espérance.

Remarque 19. En particulier : V (aX) = a2 V (X) et V (X + b) = V (X).

Définition 10 : Ecart-type
Soit X une variable aléatoire réelle sur un espace probabilisé fini (Ω, P ).
On appelle écart-type de X le réel : p
σ(X) = V (X)
Comme la variance, il s’agit d’une mesure de dispersion de la variable X.

Remarque 20. En particulier, si a, b ∈ R, on a : σ(aX) = |a|σ(X) et σ(X + b) = σ(X).


Une translation n’a pas d’incidence sur la variance ou l’écart type d’une variable aléatoire (en effet, le degré de
dispersion n’est pas modifié).

10
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Définition 11 : Variable centrée réduite

Une variable aléatoire X telle que E(X) = 0 est dite centrée.


Une variable aléatoire X telle que σ(X) = 1 est dite réduite.
Une variable aléatoire X telle que E(X) = 0 et σ(X) = 1 est dite centrée réduite.

Proposition 18 : Soit X une variable aléatoire réelle telle que V (X) 6= 0.

X − E(X)
La variable aléatoire X∗ = est centrée réduite.
σ(X)

Preuve 18 : Aucune difficulté.

Théorème Fondamental 19 : Inégalité de Bienaymé-Tchebychev


Toute variable aléatoire X vérifie la proposition :

V (X)
∀ε > 0, P (|X − E(X)| ≥ ε) ≤
ε2

Preuve 19 : Pas de difficulté en utilisant l’inégalité de Markov.

V (X)
Remarque 21. On en déduit que : ∀ε > 0, P (|X − E(X)| < ε) ≥ 1 − .
ε2

Exercice : 15
(∗) Inégalité de Bienaymé-Tchebytchev
Soit X une variable aléatoire d’espérance µ et d’écart-type σ, et α > 0.
Montrer que l’on a : P (µ − ασ < X < µ + ασ) ≥ 1 − α12

Exercice : 16
(∗∗) Inégalité de Markov
Soit X une variable aléatoire d’espérance µ et d’écart-type σ, et α > 0.
1
En utilisant la variable aléatoire Y = (α(X − µ) + σ)2 que l’on a : P (X ≥ µ + ασ) ≤ 1+α2 .

Remarque 22. (∗∗) On lance une pièce de monnaie n fois. A chaque lancer, la probabilité d’obtenir FACE vaut
p ∈ [0, 1].
Quelle est le nombre minimal de lancers nécessaires pour que la fréquence d’apparition de FACE obtenue soit une
approximation de p à 0, 01 près avec une probabilité minimale à déterminer ?

Remarque 23. Les majoration et minoration obtenues par les inégalités de Markov et de Bienaymé-Tchebychev sont
assez grossières.

4 Les lois usuelles


4.1 La loi uniforme

Modèle : Une variable aléatoire suit une loi uniforme lorsque toutes les valeurs de cette variable sont équiprobables.

Définition 12 : Une variable aléatoire X prenant n ∈ N∗ valeurs toutes équiprobables suit une loi uniforme.
Lorsque X(Ω) = [[1, n]], on a alors :
1
∀k ∈ [[1, n]], P (X = k) =
n

a, b ∈ N 1
Plus généralement, lorsque , on a : ∀k ∈ [[a, b]], P (X = k) = .
X(Ω) = [[a, b]] b−a+1

Remarque 24. Lorsque X suit une loi uniforme sur [[a, b]], on note : X ֒→ U([[a, b]]).

11
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Exemple 15. (∗)


1. La valeur obtenue lors du lancer d’un dé.
2. La face obtenue lors du lancer d’une pièce.
3. Le numéro de la boule tirée parmi n toutes indiscernables au touché.

Proposition 20 : Espérance et Variance (loi uniforme)


Si X ֒→ U([[1, n]]), alors :
n+1 n2 − 1
E(X) = et V (X) =
2 12

Preuve 20 : Aucune difficulté.

Remarque 25. On constate que E(X) est tout simplement la valeur médiane de [[1, n]].

Exercice : 17
(∗) Calculer l’espérance et la variance d’une variable X suivant une loi uniforme sur [[a, b]].

On pourra remarquer que dans ce cas : Y =X −a+1 ֒→ U([[1, b − a + 1]]).

4.2 La loi de Bernoulli

Modèle : On obtient une variable suivant une loi de Bernoulli lorsqu’on ne s’intéresse qu’au fait qu’un événement se
produise ou non.

Définition 13 : Soit p ∈ [0, 1].


On dit qu’une variable aléatoire X suit une loi de Bernoulli de paramètre p lorsque :

p(X = 1) = p
X(Ω) = {0, 1} et
P (X = 0) = 1 − p souvent notée q

Remarque 26. Lorsque X suit une loi de Bernoulli de paramètre p, on note : X ֒→ B(p).
On parle alors d’une variable de Bernoulli.

Exemple 16. (∗)


1. Toute expérience aléatoire ne comportant que deux issues peut être représentée par une variable de Bernoulli.
Une telle expérience est appelée une épreuve de Bernoulli.
2. La variable indicatrice d’un événement est une variable de Bernoulli.
3. Le produit de deux variables de Bernoulli est une variable de Bernoulli.

Proposition 21 : Espérance et Variance (loi de Bernoulli)


Si X ֒→ B(p), alors :
E(X) = p et V (X) = p(1 − p) = pq

Preuve 21 : Aucune difficulté.

Exercice : 18
(∗) Quelle est la valeur maximale de la variance d’une variable de Bernoulli.

Se ramener à une variable de Bernoulli

Lorsque qu’une variable aléatoire ne prend que 2 valeurs, on peut facilement obtenir son espérance et sa
variance en se ramenant à une variable de Bernoulli.

X(Ω) = {a, b} X −a
Lorsque X est telle que , on peut poser Y = .
P (X = b) = p b−a

E(X) = (b − a)p + a
Ainsi on a Y ֒→ B(p) et X = (b − a)Y + a et donc :
V (X) = (b − a)2 p(1 − p)

12
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

X(Ω) = {−1, 1}
Exemple 17. (∗) Déterminer l’espérance et la variance de la variable X telle que
P (X = 1) = 1/3

4.3 La loi Binomiale

Modèle : On obtient une variable suivant une loi binomiale lorsque lorsqu’on s’intéresse au nombre de succès obtenu
lors de la réalisation de n épreuves de Bernoulli indépendantes.
On obtient alors :  
n k
X(Ω) = [[0, n]] et ∀k ∈ [[0, n]], P (X = k) = p (1 − p)n−k
k
Une telle variable X s’écrit aussi X = X1 + . . . Xn où Xi prend la valeur 1 si le résultat de la ième expérience est un
succès et 0 sinon.

Définition 14 : Soit p ∈ [0, 1].


On dit qu’une variable aléatoire X suit une loi binomiale de paramètres (n, p) lorsque :
 
n k
X(Ω) = [[0, n]] et ∀k ∈ [[0, n]], P (X = k) = p (1 − p)n−k
k

Remarque 27.
1. Lorsque X suit une loi binomiale de paramètres (n, p), on note : X ֒→ B(n, p).
2. Les lois B(1, p) et B(p) ont la même signification.

Exemple 18. (∗)


1. On lance indépendamment n pièces équilibrées et on s’intéresse à X, le nombre de ”face” obtenu.
On a alors X ֒→ B(n, 12 ).
2. On effectue n tirages avec remise dans une urnes contenant une proportion p de boules blanches.
Le nombre X de boules blanches tirées vérifie X ֒→ B(n, p).

Proposition 22 : Espérance et Variance (loi binomiale)


Si X ֒→ B(n, p), alors :
E(X) = np et V (X) = np(1 − p) = npq

Preuve 22 : On pourra décomposer la variable X en somme de variables de Bernoulli.


On admet que lorsque les variables X1 , . . ., Xn sont indépendantes, on a V (X1 +· · ·+Xn ) = V (X1 )+· · ·+V (Xn )

Exercice : 19
(∗) Montrer que si X ֒→ B(n, p) alors n − X ֒→ B(n, 1 − p).

Exercice : 20
(∗∗) On lance n fois un dé équilibré à six faces.

13
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Déterminer un entier naturel n0 tel que pour tout n ≥ n0 , on ait plus d’une chance sur 2 d’obtenir une fréquence
d’apparition de 1 qui s’écarte de moins de 10−2 de la valeur 61 .

Remarque 28. Loi hypergéométrique


Parmi les lois usuelles qui ne sont pas au programme, on trouve aussi la loi hypergéométrique.
Lorsqu’une population E est constituée de N éléments répartis en deux groupes, les ”bons” et les ”méchants”, les bons
représentant un pourcentage p de la population. On sélectionne au hasard un échantillon de la population comprenant
n éléments de E (tirage simultanée sans remise). La variable aléatoire X égale au nombre de bons éléments sélectionnés
suit une loi hypergéométrique (voir exercice de TD).

5 Couples de variables aléatoires


5.1 Définition
Définition 15 : Couple de variables aléatoires
Soit Ω un univers fini et X et Y deux variables aléatoires à valeurs dans E et E ′ sur cet univers.

L’application : (X, Y ) : Ω −→ E × E′ est appelée couple de variables aléatoires sur Ω


ω 7→ (X(ω), Y (ω))
On note (X, Y ) ce couple de variables aléatoires.
Si E = E ′ = R, on parle de couple de variables aléatoires réelles.

Remarque 29.
1. Il s’agit en fait d’une nouvelle variable aléatoire à valeurs dans E × E ′ telle que (X, Y )(Ω) ⊂ X(Ω) × Y (Ω).
2. L’ensemble des valeurs prises par (X, Y ) est seulement inclus dans X(Ω) × Y (Ω).

Exemple 19.
1. On lance deux dés parfaitement équilibrés et on considère X le plus petit des nombres obtenus et Y le plus
grand des nombres obtenus.
2. On tire p boules dans une urnes contenant des boules de couleurs et on considère X le nombre de boules blanches
et Y le nombre de boules noires obtenues.

Proposition 23 : Soit (X, Y ) un couple de variables aléatoires sur un univers fini Ω et (x, y) ∈ X(Ω) × Y (Ω).

• L’événement (X, Y ) = (x, y) est le même que {X = x}∩{Y = y} et est également noté {X = x, Y = y}.

• La famille ({X = x, Y = y})(x, y)∈X(Ω)×Y (Ω) est un système complet d’événements de Ω.

5.2 Loi conjointe

Définition 16 : Loi conjointe d’un couple de variables


Soient X et Y deux variables aléatoires sur un espace probabilisé fini (Ω, P ).
La loi conjointe de X et Y est la loi associée à la variable aléatoire (X, Y ) d’univers (X, Y )(Ω).
Cette loi est déterminée par les valeurs de :

(P (X = x, Y = y))(x, y)∈X(Ω)×Y (Ω)

• Lorsque (x, y) 6∈ (X, Y )(Ω), on obtient naturellement P (X = x, Y = y) = 0.


X
• On a bien entendu P (X = x, Y = y) = 1
(x, y)∈X(Ω)×Y (Ω)

Remarque 30. Cette loi est souvent (lorsque X(ω) et Y (ω) comportent peu de valeurs) représentée par un tableau à
double entrée avec les valeurs de X(Ω) en ligne et les valeurs de Y (Ω) en colonne. Voir l’exemple suivant...

14
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Exemple 20. (∗) On lance deux dés bien équilibrés. On note S la somme des résultats obtenus et P le produit.
Donner, sous forme de tableau la loi de probabilité du couple (S, P ).

Dressons tout d’abord deux petits tableaux donnant les différentes possibilités de sommes et de produits :

S 1 2 3 4 5 6 P 1 2 3 4 5 6

1 2 3 4 5 6 7 1 1 2 3 4 5 6
2 3 4 5 6 7 8 2 2 4 6 8 10 12
3 4 5 6 7 8 9 3 3 6 9 12 15 18
4 5 6 7 8 9 10 4 4 8 12 16 20 24
5 6 7 8 9 10 11 5 5 10 15 20 25 30
6 7 8 9 10 11 12 6 6 12 18 24 30 36

Loi du couple (S, P ) :

S/P 1 2 3 4 5 6 8 9 10 12 15 16 18 20 24 25 30 36 Loi de S

1 1
2 36 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36
2 2
3 0 36 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36
2 1 3
4 0 0 36 36 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36
2 2 4
5 0 0 0 36 0 36 0 0 0 0 0 0 0 0 0 0 0 0 36
2 2 1 5
6 0 0 0 0 36 0 36 36 0 0 0 0 0 0 0 0 0 0 36
2 2 2 6
7 0 0 0 0 0 36 0 0 36 36 0 0 0 0 0 0 0 0 36
2 2 1 5
8 0 0 0 0 0 0 0 0 0 36 36 36 0 0 0 0 0 0 36
2 2 4
9 0 0 0 0 0 0 0 0 0 0 0 0 36 36 0 0 0 0 36
2 1 3
10 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36 36 0 0 36
2 2
11 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36 0 36
1 1
12 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 36 36
1 2 2 3 2 4 2 1 2 4 2 1 2 2 2 1 2 1
Loi de P 36 36 36 36 36 36 36 36 36 36 36 36 36 36 36 36 36 36 1

Exercice : 21
(∗) On lance deux dés à 6 faces parfaitement équilibrés et on considère X le plus petit des nombres obtenus et Y le
plus grand des nombres obtenus. On munit Ω = [[1, 6]] de la probabilité uniforme.
Donner la loi de probabilité de (X, Y ).

5.3 Lois marginales

Définition 17 : Lois marginales


Pour tout couple de variables aléatoires (X, Y ) sur un univers fini (Ω, P ) :
— la loi de X est appelée la première loi marginale du couple
— la loi de Y est appelée la deuxième loi marginale du couple

Comme l’indique le thèorème suivant, on peut déduire les lois marginales à partir de la loi du couple.

Proposition 24 : Soient X et Y deux variables aléatoires sur un espace probabilisé fini (Ω, P ).
On a alors :
X
1. Pour tout x ∈ X(Ω), P (X = x) = P (X = x, Y = y)
y∈Y (Ω)
X
2. Pour tout y ∈ Y (Ω), P (Y = y) = P (X = x, Y = y)
x∈X(Ω)

Preuve 24 : Il suffit de remarquer que {{X = x et Y = y}}y∈Y (Ω) est une partition de {X = x}.

Exemple 21. (∗) Retrouver les lois marginales de l’exemple précédent.

15
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Détermination des lois marginales :


Lorsque la loi conjointe est représentée sous forme de tableau, on retrouve les lois marginales en sommant sur
chaque ligne et sur chaque colonne.

Exemple 22. (∗) Une urne contient 3 boules blanches et 5 boules noires. On tire successivement deux boules dans
l’urne sans remise. Soit X (resp. Y ) la variable aléatoire qui vaut 1 si la première (resp. deuxième) boule tirée est
blanches et 0 sinon.
Déterminer la loi conjointe du couple (X, Y ) et les deux lois marginales.

Remarque 31. En revanche, comme le montre l’exemple suivant, les lois marginales ne suffisent pas en général (sauf
dans le cas de variables aléatoires indépendantes) à retrouver la loi conjointe.

Exercice : 22
(∗) Une urne contient 3 boules numérotées de 1 à 3. On en tire 2 et on note X le premier numéro tiré et Y le second.
Déterminer la loi conjointe et les lois marginales dans le cas d’un tirage avec remise et d’un tirage sans remise.
Que peut-on en conclure ?

5.4 Lois conditionnelles


Définition 18 : Lois conditionnelles
Pour tout couple de variables aléatoires (X, Y ) sur un univers fini (Ω, P ) :

— Pour tout y ∈ Y (Ω) tel que P (Y = y) 6= 0, la loi de X sachant {Y = y} est la loi de X dans l’espace
probabilisé (Ω, P{Y =y} ). Elle est donnée pour tout x ∈ X(Ω) par :

P ({X = x} ∩ {Y = y})
P{Y =y} (X = x) =
P ({Y = y})

— Pour tout x ∈ X(Ω) tel que P (X = x) 6= 0, la loi de Y sachant {X = x} est la loi de Y dans l’espace
probabilisé (Ω, P{X=x} ). Elle est donnée pour tout y ∈ Y (Ω) par :

P ({Y = y} ∩ {X = x})
P{X=x} (Y = y) =
P ({X = x})

Remarque 32. La loi de X sachant {Y = y} est aussi appelée la loi de X conditionnelle à {Y = y} (sous entendu ”de
X”).
On peut obtenir cette loi dans le tableau de la loi conjointe en divisant les probabilités par la loi marginale de Y .

Exemple 23. (∗) On lance deux dés à 6 faces parfaitement équilibrés et on considère X le plus petit des nombres
obtenus et Y le plus grand des nombres obtenus. On munit Ω = [[1, 6]] de la probabilité uniforme.
Déterminer les différentes lois conditionnelles associées à X et Y .

Exercice : 23
(∗∗) Une urne contient 2 boules blanches, 3 boules rouges et 4 boules bleues.
On extrait 4 boules de l’urne, successivement avec remise.
On note X le nombre de boules blanches et Y le nombre de boules rouges obtenues.
1. Déterminer la loi conjointe de (X, Y ).
2. En déduire les deux lois marginales. Commenter le résultat.
3. Déterminer les lois conditionnelles. Commenter le résultat.

16
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Proposition 25 : Lien avec les autres lois


Soit (X, Y ) un couple de variables aléatoires sur un univers fini (Ω, P ).
On suppose que pour tout x ∈ X(Ω) et tout y ∈ Y (Ω), on a P (X = x) 6= 0 et P (Y = y) 6= 0.
Pour tout (x, y) ∈ X(Ω) × Y (Ω), on a alors :

1. P (X = x, Y = y) = P{Y =y} (X = x)P (Y = y) et P (X = x, Y = y) = P{X=x} (Y = y)P (X = x)


X
2. P (X = x) = P{Y =y} (X = x)P (Y = y)
y∈Y (Ω)
X
3. P (Y = y) = P{X=x} (Y = y)P (X = x)
x∈X(Ω)

Preuve 25 : Immédiat d’après les formules sur les probabilités conditionnelles.

Remarque 33. Ainsi, on retrouve la loi conjointe et les lois marginales à partir de la loi marginale d’une des variables
et de la loi conditionnelle de l’autre variable par rapport à celle-ci.

Exercice : 24
(∗) Soit n ∈ N∗ et p, p′ ∈]0, 1[.
On considère deux variables aléatoires X et Y à valeurs dans [[0, n]] telles que X ֒→ B(n, p) et que pour tout k ∈ [[0, n]],
la loi de Y conditionnelle à X = k est B(k, p′ ).
1. Déterminer la loi conjointe du couple (X, Y ).
2. Déterminer la loi de Y .
Vous vérifierez que Y vérifie une loi binômiale.

5.5 Généralisation aux n-uplets de variables aléatoires

Définition 19 : n-uplet de variables aléatoires


Soit Ω un univers fini et X1 , . . . , Xn , n variables aléatoires à valeurs dans E1 , . . . , En sur cet univers.

L’application : : Ω −→ E1 × · · · × En est appelée n-uplet de variables aléatoires sur Ω


ω 7→ (X1 (ω), . . . , Xn (ω))
On note (X1 , . . . , Xn ) ce n-uplet de variables aléatoires.
Si E1 = · · · = En = R, on parle de n-uplet de variables aléatoires réelles.

Remarque 34. (X1 , . . . , Xn ) est une variable aléatoire sur Ω à valeurs dans E1 × · · · × En .

Définition 20 : Loi conjointe et lois marginales d’un n-uplet de variables


Soit X1 , . . . , Xn , n variables aléatoires sur un espace probabilisé fini (Ω, P ).

1. La loi conjointe de X1 , . . ., Xn est la loi associée à la variable aléatoire (X1 , . . . , Xn ).


Cette loi est déterminée par les valeurs de (P ({X1 = x1 } ∩ · · · ∩ {Xn = xn }))(x1 , ..., xn )∈X1 (Ω)×···×Xn (Ω) .

2. Les lois marginales du n-uplet (X1 , . . . , Xn ) sont les différentes lois associées aux variables X1 , . . ., Xn .

Remarque 35. Les événements {X1 = x1 } ∩ · · · ∩ {Xn = xn }) et (X1 , . . . , Xn ) = (x1 , . . . , xn ) étant identiques, la
probabilité P ({X1 = x1 } ∩ · · · ∩ {Xn = xn }) est également notée P (X1 = x1 , . . . , Xn = xn ).

Proposition 26 : Formule d’obtention des lois marginale :


Soit X1 , . . . , Xn des variables aléatoires sur un même espace probabilisé fini (Ω, P ).
Pour tout k ∈ [[1, n]] et xk ∈ Xk (Ω), on a :
X
P (Xk = xk ) = P (X1 = x1 , . . . , Xk = xk , . . . , Xn = xn )
(xi ∈Xi (Ω))i6=k

17
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Preuve 26 :
Il suffit d’appliquer la formule des probabilités totales en remarquant que :
{X1 = x1 , . . . , Xk = xk , . . . , Xn = xn }(x1 ,...,xk−1 ,xk+1 ,...,xn )∈X1 (Ω)×···×Xn (Ω) forme une partition de (Xk = xk ).

Exemple 24. (∗) Soit n et N des entiers tels que 1 ≤ n < N .


Une urne contient N boules numérotées de 1 à N : on en tire n simultanément.
Les numéros obtenus sont notés Y1 < Y2 < · · · < Yn .
N

Déterminer la loi conjointe et les lois marginale du n-uplet (Y1 , . . . , Yn ) dans l’hypothèse où les n tirages sont
équiprobables.

6 Indépendance de variables aléatoires


6.1 Indépendance de 2 variables

Définition 21 : Indépendance de variables aléatoires


Soient X et Y deux variables aléatoires définies sur un univers Ω telles que X(Ω) et Y (Ω) soient finis.
On dira que les variables X et Y sont indépendantes lorsque pour tout événement A ⊂ X(Ω) et B ⊂ Y (Ω), les
événements {X ∈ A} et {Y ∈ B} sont indépendants, c’est à dire lorsqu’on a :

P ({X ∈ A} ∩ {Y ∈ B} = P (X ∈ A).P (Y ∈ B)

Remarque 36. Avec cette définition, il y a 2Card(X(Ω))+Card(Y (Ω)) vérifications à effectuer. C’est beaucoup ! !

Exemple 25. (∗) Reprenons l’exemple où l’on lance deux dés bien équilibrés et on s’intéresse à X la somme des
résultats obtenus et Y le produit. Les variables aléatoires X et Y ne sont pas indépendantes.

P ({X = 2} ∩ {Y = 2}) = 0
 (
A = {2}
En effet, en prenant , on constate que 1 2 .
B = {2} P (X = 2).P (Y = 2) = × 6= 0
36 36

Théorème 27 : Caractérisation de l’indépendance


Soient X et Y deux variables aléatoires définies sur un univers Ω telles que X(Ω) et Y (Ω) soient finis.
Les variables X et Y sont indépendantes SSI pour tout (x, y) ∈ X(Ω) × Y (Ω) on a :

P ({X = x} ∩ {Y = y}) = P (X = x).P (Y = y)

Preuve 27 : L’une des implications


 est évidente. 
{X ∈ A} {X = x}
Pour la deuxième, on écrit comme la réunion d’événements de la forme .
{Y ∈ B} {Y = y}

Remarque 37. Dans ce cas, il y a Card(X(Ω)) × Card(Y (Ω)) vérifications à effectuer.

A retenir ! !

Lorsque les variables sont indépendantes, la donnée des lois marginales permet de retrouver la loi conjointe.

Remarque 38. La notion d’indépendance est une notion probabiliste : elle ne dépend que de la probabilité choisie.

Exemple 26. (∗) On considère Ω = [[1, 2]]2 . On note X et Y la valeur du premier et du second élément du couple.
Etudier l’indépendance des variables X et Y dans le cas où :
1. Ω est muni de la probabilité uniforme.
1

3 si i = j
2. Ω est muni de la probabilité P définie par P ((i, j)) = 1 .
6 si i =
6 j

Exemple 27. (∗) Soit X et Y deux variables aléatoires indépendantes sur (Ω, P ) et (x0 , y0 ) ∈ X(Ω) × Y (Ω).
Prouver que les deux variables 1{X=x0 } et 1{Y =y0 } sont indépendantes.

18
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Exercice : 25  
X p
(∗) On considère deux variables de Bernoulli de paramètres définies sur le même espace (Ω, P ).
Y q
Montrer que X et Y sont indépendantes si et seulement si les événements {X = 1} et {Y = 1} sont indépendants.

Proposition 28 : Autre caractérisation de l’indépendance


Soit (X, Y ) un couple de variables aléatoires sur un univers probabilisé fini (Ω, P ).
Il y a équivalence entre :

1. Les variables X et Y sont indépendantes.


2. Pour tout x ∈ X(Ω) tel que P (X = x) 6= 0, on a ∀y ∈ Y (Ω) : P{X=x} (Y = y) = P (Y = y).
3. Pour tout y ∈ Y (Ω) tel que P (Y = y) 6= 0, on a ∀x ∈ X(Ω) : P{Y =y} (X = x) = P (X = x).

Preuve 28 : Immédiat d’après les formules sur les probabilités conditionnelles.

Proposition 29 : Fonctions de deux variables indépendantes


Soit (X, Y ) un couple de variables aléatoires indépendantes sur un univers probabilisé fini (Ω, P ).
Soit f, g deux fonctions définies respectivement sur X(Ω) et Y (Ω).
Les variables f (X) et g(Y ) sont alors indépendantes.

Preuve 29 :
P ({f (X) ∈ A} ∩ {g(Y ) ∈ B}) = P ({X ∈ f −1 (A)} ∩ {Y ∈ g −1 (B)}) = P (X ∈ f −1 (A)).P (Y ∈ g −1 (B))

Remarque 39. Ainsi, si X et Y sont indépendantes, alors X n et Y p sont aussi indépendantes pour tout n, p ∈ N∗ .

Proposition 30 : Somme de deux variables indépendantes


Soit (X, Y ) un couple de variables aléatoires indépendantes sur un univers probabilisé fini (Ω, P ).
La loi de X + Y est alors donnée par :
X
∀z ∈ (X + Y )(Ω), P (X + Y = z) = P (X = x)P (Y = y)
(x, y)∈X(Ω)×Y (Ω)
x+y=z

 k
X(Ω) ⊂ N X
Lorsque la formule s’écrit : ∀k ∈ N, P (X + Y = k) = P (X = i)P (Y = k − i).
Y (Ω) ⊂ N
i=0

Preuve 30 : Immédiat !

Remarque 40. Plus généralement, si Z = f (X, Y ) avec f à valeurs dans E, alors on obtient la loi de Z en remarquant
que : [
{f (X, Y ) = z} = {X = x} ∩ {Y = y}
(x, y)∈X(Ω)×Y (Ω)
f (x,y)=z

Exercice : 26
(∗∗) Soit X et Y deux variables indépendantes sur le même espace probabilisé et suivant une loi uniforme sur [[1, n]].
Déterminer les lois de X + Y et de X − Y .
Attention à bien faire preuve de rigueur...

6.2 Indépendance de n variables

Définition 22 : Indépendance deux à deux de n variables


On dira que n variables X1 , . . ., Xn sont indépendantes deux à deux lorsque pour tout entiers i < j ∈ [[1, n]],
Xi et Xj sont indépendantes.

19
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Définition 23 : n variables mutuellement indépendantes


On dira que n variables X1 , . . ., Xn à valeurs dans E1 , . . ., En sont mutuellement indépendantes (ou plus
simplement indépendantes) lorsque pour toutes parties A1 ⊂ E1 , . . ., An ⊂ En , les événements {X1 ∈ A1 }, . . .,
{Xn ∈ An } sont (mutuellement) indépendants.
Cette notion d’indépendance est indépendante de l’ordre des variables.

Remarque 41. Des variables mutuellement indépendantes sont aussi indépendantes deux à deux.

Proposition 31 : Caractérisation de l’indépendance mutuelle


Soit n variables X1 , . . ., Xn sur un univers probabilisé (Ω, P ).
X1 , . . ., Xn sont indépendantes
si et seulement si
∀(x1 , . . . , xn ) ∈ X1 (Ω) × · · · × Xn (Ω) les événements {X1 = x1 }, . . ., {Xn = xn } sont indépendants.

Preuve 31 : Généralisation de la démonstration faite pour 2 variables aléatoires

Exercice : 27
1
(∗) Soit X et Y deux variables indépendantes suivant la loi de Bernoulli de paramètre p = 2 et Z = |X − Y |.
Etudier l’indépendance deux à deux et l’indépendance mutuelle des variables X, Y et Z.
On pourra utiliser ce que l’on a vu sur l’indépendance de deux variables de Bernoulli.

Proposition 32 : Autres variables indépendantes


Soit n variables X1 , . . ., Xn indépendantes sur un univers probabilisé (Ω, P ).
Alors :
• toute sous-famille de {X1 , . . . , Xn } est constituée de variables indépendantes.
• f1 (X1 ), . . ., fn (Xn ) sont indépendantes lorsque pour tout i ∈ [[1, n]], fi ∈ F (Xi (Ω), Ei ).
• pour tout p ∈ [[1, n − 1]], les ”variables” (X1 , . . . , Xp ) et (Xp+1 , . . . , Xn ) sont indépendantes.
• f (X1 , . . . , Xp ) et g(Xp+1 , . . . , Xn ) sont indépendantes lorsque f , g sont des fonctions adaptées.
• Lemme des coalitions :
Soit k ∈ N∗ et I1 , . . ., Ik des sous-ensembles non vides et disjoints de [[1, n]].
Pour tout i ∈ [[1, k]], on considère une variable aléatoire Yj fonction des variables Xi où i ∈ Ij .
Les variables Y1 , . . ., Yk sont alors indépendantes.

Remarque 42. Ainsi :


— Si X1 , . . ., Xn sont indépendantes alors X1 + · · · + Xp et Xp+1 + · · · + Xn sont indépendantes.
— Si X, Y , Z et T sont indépendantes, alors XY , ZT sont indépendantes, ainsi que X, Y + Z et T 2 .

Remarque 43. On peut utiliser une liste de variables indépendantes pour modéliser la succession de n expériences
aléatoires dont les résultats sont indépendants.
Par exemple, la répétition de n lancers de ”pile ou face” aux résultats indépendants sera décrite par une liste
(X1 , . . . , Xn ) de n variables de Bernoulli (mutuellement) indépendantes où Xk représente le résultat de la kème
épreuve.

6.3 Somme de variables indépendantes suivant une loi binomiale

Théorème 33 : Stabilité de la loi binomiale pour la somme

1. Si X et Y sont des variables aléatoires indépendantes suivants des lois binomiales de paramètres
respectifs (m, p) et (n, p) alors la somme X + Y suit une loi binomiale de paramètres (m + n, p).

2. Plus généralement, si X1 , . . ., Xn sont des variables aléatoires indépendantes suivants des lois bi-
nomiales de paramètres (ni , p) alors la somme X1 + · · · + Xn suit une loi binomiale de paramètres
(n1 + · · · + nn , p).

20
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Preuve 33 :
k     
X n m n+m
1. Simple calcul à l’aide de la formule de Vandermonde : =
i=0
i k−i k
2. Par récurrence sur n.

Corollaire 34 : si X1 , . . ., Xn sont des variables aléatoires indépendantes suivants des lois de Bernoulli
de paramètre p alors la somme X1 + · · · + Xn suit une loi binomiale de paramètres (n, p).

Preuve 34 : Immédiat car B(p) = B(1, p).

Exercice : 28
(∗) Soit (X1 , . . . , Xn ), un n-uplet de variables indépendantes suivants la même loi à valeurs dans E, et x ∈ E.
On note Nx la variable aléatoire égale à Card{k ∈ [[1, n]] | Xk = x}, c’est à dire définie par :
∀ω ∈ Ω, Nx (ω) = Card{k ∈ [[1, n]] | Xk (ω) = x}
Déterminer la loi de Nx , son espérance et sa variance.
Aide : utiliser le théorème précédent en introduisant les variables 1{Xk =x} .

7 Covariance
7.1 Définition et généralités
Définition 24 : Covariance
Soit X et Y deux variables aléatoires réelles sur le même espace probabilisé fini.
On appelle covariance de X et Y (ou du couple (X, Y )) le réel :

Cov(X, Y ) = E((X − E(X))(Y − E(Y )))

Il s’agit de l’espérance du produit des variables centrées.


On remarque que cos(X, X) = V (X).

Exemple 28. (∗∗) Montrer que V (X) = 0 ⇒ Cov(X, Y ) = 0.


On pourra utiliser le fait qu’une variable dont la variance est nulle est quasi-constante.

Théorème 35 : Formule de la covariance


La covariance du couple (X, Y ) est aussi donnée par la formule :

Cov(X, Y ) = E(XY ) − E(X)E(Y )

Preuve 35 : Simple calcul utilisant la linéarité de l’espérance...

Proposition 36 : Formule de calcul de E(XY )


Lorsque X et Y sont deux variables aléatoires réelles sur un espace probabilisé fini (Ω, P ), on obtient E(XY )
par la formule suivante : X
E(XY ) = xyP (X = x, Y = y)
(x, y)∈X(Ω)×Y (Ω)

Preuve 36 : On pourra introduire la variable Z = XY et utiliser le théorème de transfert.

Proposition 37 : Propriétés
Soient X, X ′ , Y , Y ′ des variables aléatoires sur une même espace probabilisé fini et λ, µ ∈ R.
La covariance est bilinéaire, symétrique et positive.

1. Cov(X, X) = V (X) ≥ 0 3. Cov(λX + µX ′ , Y ) = λCov(X, Y ) + µCov(X ′ , Y )


2. Cov(X, Y ) = Cov(Y, X) 4. Cov(X, λY + µY ′ ) = λCov(X, Y ) + µCov(X, Y ′ )

Preuve 37 : Pas de difficulté.

21
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Remarque 44. La covariance n’est pas un produit scalaire car elle n’est pas définie.
En effet, une variable aléatoire constante vérifie Cov(X, X) = 0 sans être nécessairement nulle.

Exercice : 29
(∗∗) On considère r boules numérotées de 1 à r et n tiroirs numérotés de 1 à n.
On lance au hasard chacune des r boules dans l’un des n tiroirs.
On note :
— V la variable aléatoire égale au nombre de tiroirs restés vides
— T la variable aléatoire égale au nombre de boules placées dans le tiroir 1.
Montrer en la calculant, que la covariance de V et T est nulle.
On pourra commencer par décomposer V et T en somme de variables de Bernoulli.

Théorème 38 : Variance d’une somme


Soit X et Y deux variables aléatoires réelles . On a :

V (X + Y ) = V (X) + 2Cov(X, Y ) + V (Y )

Plus généralement, lorsque a, b ∈ R : V (aX + bY ) = a2 V (X) + 2abCov(X, Y ) + b2 V (Y ).


La généralisation à n variables aléatoires donne :
n
X X
V (X1 + · · · + Xn ) = V (Xk ) + 2 Cov(Xi , Xj )
k=1 1≤i<j≤n

Preuve 38 : Simple calcul...

Exemple 29. (∗∗) Une urne contient des boules blanches, noires ou rouges dans les proportions p1 , p2 et p3 .
On extrait n boules de l’urne avec remise. On note X, Y et Z le nombre de boules blanches, noires et rouges obtenues.
Déterminer la covariance du couple (X, Y ). On pensera à utiliser la formule précédente...

Exercice : 30
(∗∗) Le problème des rencontres.
Une urne contient n boules numérotées de 1 à n. On les extrait successivement et sans remise. On dit qu’il y a
”rencontre au i-ème tirage” lorsque la boule tirée porte le numéro i.
On note X le nombre de rencontres. Montrer que V (X) = 1.
On pensera à décomposer X en somme de variables de Bernoulli Xi et on vérifiera que E(Xi ) = n1 .

7.2 Le coefficient de corrélation (affine)

Théorème 39 : Majoration de la covariance


Si X et Y sont deux variables aléatoires réelles sur (Ω, P ), alors :

|Cov(X, Y )| ≤ σ(X)σ(Y )

On a |Cov(X, Y )| = σ(X)σ(Y ) ssi les deux variables sont presque sûrement liées par une relation affine.

Preuve 39 : On s’inspire de la démonstration de Cauchy-Schwarz en utilisant f définie par f (t) = V (tX + Y ).

Définition 25 : Coefficient de corrélation

Cov(X, Y )
• Si V (Y ) 6= 0 et V (X) 6= 0, on peut définir : ρ(X, Y ) =
σ(X)σ(Y )
ρ(X, Y ) ∈ [−1, 1] et est appelé le coefficient de corrélation entre X et Y .

• Deux variables réelles X et Y sont dites non corrélées lorsque : ρ(X, Y ) = 0 cad Cov(X, Y ) = 0.

Remarque 45. Mesure de dépendance affine


|ρ(X, Y )| est minimale (= 0) lorsque les variables X et Y sont indépendantes.
|ρ(X, Y )| est maximale (= 1) lorsque les variables sont presque sûrement liées par une relation affine.
Le coefficient de corrélation mesure donc, en quelque sorte, le degré de dépendance affine des variables X et Y .

22
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

Corrélation (affine) entre 2 variables aléatoires

7.3 Cas de variables indépendantes

Théorème 40 : Formules dans les cas de 2 variables indépendantes


Soit X et Y deux variables aléatoires réelles indépendantes sur le même espace probabilisé (Ω, P ).
On a alors :

1. E(XY ) = E(X)E(Y ) 2. Cov(X, Y ) = 0 3. V (X + Y ) = V (X) + V (Y )

Preuve 40 :
On calcule E(XY ) à partir de la définition en remarquant que P ({X = x} ∩ {Y = y}) = P (X = x).P (Y = y).
Les deux autres sont des conséquences immédiates de la première.

Exercice : 31
(∗) On considère 3 variables aléatoires mutuellement indépendantes X, Y et Z suivant la même loi de Bernoulli de
paramètre p. Déterminer la covariance du couple (X + Y, Y + Z) et celle du couple (XY, Y Z).

Lien entre la notion d’indépendance et celle de non corrélation affine

• Deux variables réelles indépendantes sur le même espace probabilisé fini sont non corrélées.
• Comme le montre l’exemple suivant, la réciproque est fausse.


la variable X qui suit une loi uniforme sur {−1, 0, 1}
Exemple 30. (∗) On considère .
la variable Y indicatrice de l’événement {X = 0}
1. Montrer que ces variables se sont pas indépendantes.
2. Montrer que ces variables sont non corrélées.

Remarque 46. On a cependant l’équivalence pour des variables de Bernoulli.


On montre ce résultat en utilisant le fait que 2 variables de Bernoulli X et Y sont indépendantes si et seulement si les
événements {X = 1} et {Y = 1} sont indépendants.

Exercice : 32
(∗) On considère une suite de N lancers de ”pile ou face” indépendants, la probabilité d’obtenir ”pile” étant p ∈]0, 1[.
Pour n ∈ N∗ , on note Sn le nombre de succès obtenus lors des n premiers lancers.
Montrer que Cov(Sm , Sn ) = min(n, m)p(1 − p) pour m, n ∈ [[1, N ]].

Proposition 41 : Lorsque X1 , . . . , Xn sont n variables aléatoires réelles sur un même espace probabilisé,
deux à deux indépendantes, alors :

V (X1 + · · · + Xn ) = V (X1 ) + · · · + V (Xn )

Preuve 41 : Pas de difficulté en utilisant la formule donnant la variance d’une somme en fonction des cova-
riances.

Remarque 47.
1. Ce résultat est a fortiori vrai lorsque les n variables sont mutuellement indépendantes.

23
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

2. Cette formule doit nous inciter à décomposer une variable aléatoires en somme de variables aléatoires indépendantes
plus simples.
Retrouver ainsi la variance d’une variable suivant une loi binomiale.

Proposition 42 : Lorsque X1 , . . . , Xn sont n variables aléatoires réelles indépendantes sur un même espace
probabilisé, alors :
E(X1 × · · · × Xn ) = E(X1 ) × · · · × E(Xn )

Preuve 42 : Par récurrence en utilisant le lemme des coalitions.

Exercice : 33
(∗) Soit X1 , . . . , Xn , des variables aléatoires réelles indépendantes sur (Ω, P ), toutes d’espérance m et de variance 1.
Y n
Déterminer l’espérance et la variance de Y = Xk .
k=1

Feuille d’exercices MPSI : Variables Aléatoires

Codage :
1. Les exercices avec des coeurs ♥ sont à traiter en priorité.
2. Le nombre d’étoiles ∗ ou de coeurs ♥ correspond à la difficulté des exercices.

I] Espérance
X
1. L’espérance d’une VA X est donnée par la formule : E(X) = x.P (X = x).
x∈X(Ω)
X
2. La formule de transfert permet de trouver l’espérance de u(X) : E(u(X)) = u(x)P (X = x)
x∈X(Ω)

3. C’est un opérateur linéaire et croissant.

4. Pour calculer l’espérance d’une VA X, il peut être utile de décomposer X = X1 + · · · + Xn .

E(X)
5. La loi de Markov nous dit que : P (X ≥ a) ≤ a

Exercice de TD : 1
(♥) Soit n ∈ N∗ et soit X une variable aléatoire finie dont la loi est donnée par :

X(Ω) = [[1, n]] et ∀k ∈ [[1, n]], P (X = k) = ak(n + 1 − k)

1. Trouver a.
2. Déterminer E(X). Le résultat est-il surprenant ?
3. Déterminer E(1/X).

Exercice de TD : 2
(♥♥) Une urne est composée de n boules numérotées de 1 à n.
On effectue des tirages successifs et avec remise dans cette urne et on note b1 , . . ., bk les numéros des boules prélevées.
Les tirages s’arrêtent dès que bk ≥ bk−1 . Soit Xn la variable aléatoire égale au nombre de tirages effectués.
1. Déterminer la loi de probabilité de Xn .
Aide : on pourra commencer par calculer P (Xn > k) pour tout k ∈ Xn (Ω).

24
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

2. En déduire E(Xn ) (on pourra faire apparaı̂tre une somme télescopique) puis la limite de E(Xn ) lorsque n → +∞.

Exercice de TD : 3
(♥♥) Temps d’attente.
Une urne contient n ∈ N∗ boules numérotés de 1 à n. On retire, l’une après l’autre, toutes les boules de l’urne.
1. Quelle est la probabilité que les boules 1, 2 et 3 sortent successivement et dans cet ordre ?
2. Quelle est la probabilité que les boules 1, 2 et 3 sortent dans cet ordre (successivement ou pas) ?
3. On note Xn la variable aléatoire égale au nombre de tirages nécessaires pour obtenir les boules 1, 2 et 3.
Déterminer la loi de Xn , son espérance et la méthode permettant de calculer sa vériance.

Exercice de TD : 4
(♥♥) Une urne contient n − 2 boules blanches et 2 boules rouges.
On la vide en retirant les boules une à une et on note Xi le rang d’apparition de la ième boule rouge.
Déterminer les espérances de X1 et de X2 en calculant successivement des lois de X1 , X2 − X1 et n + 1 − X2 .

Exercice de TD : 5
(∗) Soit X une variable aléatoire réelles et g : R+ → R+ une fonction strictement croissante.
E(g(|X|))
Montrer que ∀a > 0, on a : P (|X| ≥ a) ≤
g(a)

II] Variance

1. La variance peut s’obtenir à l’aide de deux formules :


X
• V (X) = (x − E(X))2 .P (X = x) • V (X) = E(X 2 ) − [E(X)]2
x∈X(Ω)

2. C’est un opérateur positif mais non linéaire : V (X + Y ) 6= V (X) + V (Y ) et V (aX + b) = a2 V (X)

V (X)
3. Inégalité de Bienaymé-Tchebychev : P (|X − E(X)| ≥ ε) ≤
ε2

Exercice de TD : 6
1
(∗) Soit n ∈ N∗ et soit X une variable aléatoire telle que : X(Ω) = [[1, n]] et ∀k ∈ [[1, n]], P (X = k) = .
n

1. Vérifier que l’on a bien défini une variable aléatoire. Déterminer E(X) et V (X).
2. Calculer le moment d’ordre 3 de X
1
3. Calculer E( X(X+1) ).

Exercice de TD : 7
(♥♥) Soit n ∈ N∗ et a ∈ R.  
a n
Soit X une variable aléatoire à valeurs dans [[0, n]] telle que ∀k ∈ [[0, n]] : P (X = k) = .
k+1 k
Déterminer la valeur de a puis calculer l’espérance et la variance de X.

Il pourra être intéressant de calculer E(X + 1) et E(X(X + 1)).

Exercice de TD : 8
(♥) On lance simultanément 2 dés à 6 faces.
On appelle Z la variable aléatoire égale à la valeur absolue de la différence entre les 2 valeurs obtenues.
1. Déterminer la loi de probabilité de Z.
2. Calculer son espérance et sa variance.

25
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

III] Loi Binomiale

1. Une variable aléatoire suit une loi binomiale de paramètres n, p lorsque :


 
n k
X(Ω) = [[0, n]] et P (X = k) = p (1 − p)n−k
k

2. C’est la probablilité d’obtenir k succès lorsqu’on répète n fois une épreuve de Bernoulli de probabilité p.
3. Si X ֒→ B(n, p), alors :
E(X) = np et V (X) = np(1 − p) = npq

Exercice de TD : 9
(♥♥) Soit k ∈ [[0, n]] et X ֒→ B(n, p).
1. Déterminer ε de telle sorte que (X ≤ k) ⊂ (|X − E(X)| ≥ ε).
2. En déduire que P (X ≤ k) −−−−−→ 0.
n→+∞

Exercice de TD : 10
(♥) Soit X une variable aléatoire suivant la loi binomiale de paramètres n ∈ N∗ et p ∈]0, 1[.

1
1. Calculer l’espérance de la variable aléatoire Y = 1+X .
1 eX
2. On suppose que p = 2 et que a > 0. Calculer l’espérance de Z = 2n

Exercice de TD : 11
(♥♥) Un mobile évolue de façon aléatoire le long d’un axe gradué. A l’instant t = 0, il est en O (l’origine de l’axe).
A chaque instant entier t appartenant N∗ , son abscisse varie de +2 avec la probabilité p et de 1 avec la probabilité
q = 1 − p. Pour tout n ∈ N∗ , on note Xn son abscisse au temps t = n et Yn le nombre de déplacements de +2 effectués.

1. Soit n un entier naturel non nul fixé. Donner la loi de Yn . Donner, sans calcul, E(Yn ) et V (Yn ).
2. Soit n ∈ N∗ .
(a) Exprimer Xn en fonction de Yn et en déduire la loi de Xn .
(b) Calculer E(Xn ) puis V (Xn ).
3. Dans cette question, on suppose que n = 3 et que p = 1/2.
Tracer le graphe de la fonction de répartition de X3 .

Exercice de TD : 12
(♥♥) Dans une ville, une proportion p de la population est atteinte par un virus contagieux. Si une personne saine est
en contact avec une personne contaminée, il y a 2 chance sur 3 pour qu’elle soit elle-même contaminée. Un représentant
de commerce, en parfaite santé, décide de rendre visite à n habitants de cette ville.
1. Soit N la variable aléatoire égale au nombre de malades rencontrés par le représentant.
Quelle est la loi de N ?
2. Quelle est la probabilité pour que le représentant soit contaminé à l’issu de sa tournée ?

Exercice de TD : 13
(♥♥) On se propose d’analyser le sang d’une population de N individus pour déceler la présence éventuelle (résultat
du test positif) d’un virus dont on sait qu’il affecte une personne donnée avec la probabilité p. On dispose pour cela
de deux méthodes :

Méthode 1 : On analyse le sang de chacune de N personnes.


Méthode 2 : On regroupe la population en g groupes de n individus. On collecte le sang des n individus de
chaque groupe dans une même éprouvette. Si le résultat d’un groupe est positif, on procède alors à une analyse
individuelle de ses membres.

1. Quelle est la loi de la variable X égale au nombre de groupes positifs ?

26
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

2. Soit Y la variable égale au nombre d’analyses dans la deuxième méthode.


Calculer E(Y ) en fonction de N , n et p.
3. Comparer les deux méthodes lorsque N = 1000, n = 100 et p = 0, 01.

Exercice de TD : 14
(∗∗) Soit n un entier pair strictement positif et soit X ֒→ B(n, 1/2).
On note A l’événement ”X est un nombre pair”.
1. Pour tout k ∈ [[0, n/2]] donner P (X = 2k).
2. Calculer P (A).
3. Soit B l’événement ”X est un nombre impair”. Calculer P (B)

Exercice de TD : 15
(∗∗) Un autre exercice classique du même style. Soit X une variable aléatoire réelle suivant une loi binomiale de
paramètres n et 1/2. On note A l’événement ”X est un multiple de 3”. Calculer P (A).

Exercice de TD : 16
(♥) Une population de personnes présente une propriété donnée avec une proportion inconnue p ∈]0, 1[.
On choisi un échantillon de n personnes et l’on appelle Sn la variable aléatoire donnant le nombre de personnes vérifiant
la propriété étudiée.
1. Quelle est la loi suivie par la variable Sn ?
Sn
2. Déterminer l’espérance et la variance de n
1
3. Soit ε > 0. Montrer que : P (| Snn − p| ≥ ε) ≤ 4nε2
Sn
4. Pour ε = 0, 05, quelle valeur de n choisir pour que n soit voisin de p à ε près avec une probabilité supérieure
à 95% ?

Exercice de TD : 17
(♥♥) Inégalité de Hoeffding

1. Soit X une variable aléatoire réelle positive sur un univers Ω fini et a > 0.
E(X)
(a) Prouver l’inégalité de Markov : P (X ≥ a) ≤ .
a
V (X)
(b) En déduire l’inégalité de Bienaymé Tchebytchev : P (|X − E(X)| ≥ a) ≤ .
a2
1
2. On suppose que X ֒→ B(n, p) sur Ω = [[0, n]] avec n > 0 non multiple de 5 et p = 10 .
(a) Prouver que E(X) = np et que V (X) = np(1 − p).

(b) Application de l’inégalité de Bienaymé Tchebytchev :


n
i. Quelle valeur donner à n pour avoir P (X ≤ 5) ≥ 0, 95 ?
n
ii. Quelle valeur donner à n pour avoir P (X ≤ 5) ≥ 0, 99 ?

2
(c) L’inégalité de Hoeffding nous donne la relation : P (|X − E(X)| ≥ a) ≤ 2 exp(−2 an ).
n
i. Quelle valeur donner à n pour avoir P (X ≤ 5) ≥ 0, 95 ?
n
ii. Quelle valeur donner à n pour avoir P (X ≤ 5) ≥ 0, 99 ?

(d) Constatez-vous une amélioration par rapport à l’inégalité de Bienaymé Tchebytchev ?

27
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

IV] Loi hypergéométrique

Même si cette loi n’est pas officiellement au programme de MPSI, il est important d’en traiter des exemples.

Exercice de TD : 18
(♥♥) La loi hypergéométrique
Une population E est constituée de N éléments répartis en deux groupes, les ”bons” et les ”méchants”, les bons
représentant un pourcentage p de la population. On sélectionne au hasard un échantillon de la population comprenant
n éléments de E (tirage simultanée sans remise). On note X la variable aléatoire égale au nombre de bons éléments
sélectionnés.
1. Déterminer la loi de X.
2. En déduire son espérance et sa variance.
On reconnaitra dans l’expression de l’espérance la formule de Vandermonde.

On dit que la variable aléatoire X suit une loi hypergéométrique de paramètre N , n et p.

Exercice de TD : 19
(♥♥) La loi hypergéométrique
Dans un bocal de vinaigre blanc ont été placés C cornichons et G oignons blancs avec (C, G) ∈ N∗ 2 .
C G
On pose N = C + G, p = N et q = N . Ainsi, on a p, q ∈ R+ et p + q = 1.
On prend simultanément n condiments dans le bocal et on note X le nombre de cornichons recueillis.

1. Quelles sont les valeurs prises par X ?


C N −C
 
k n−k
2. Expliquer la formule : P (X = k) = N
 .
n
3. Démontrer que E(X) = np.

4. Calculer E(X(X + 1)) puis V (X).

On dit que X suit une loi hypergéométrique de paramètres n, p, N notée H(n, p, N ).

V] Couples de variables aléatoires


1) Lois conjointe, marginales et conditionnelles

1. Bien connaı̂tre les notions liées aux couples de VA :

(a) loi conjointe (c) loi conditionnelle


(b) lois marginales (d) Indépendance de deux VA

2. Lorsque deux variables aléatoires ne sont pas indépendantes, il est impossible de déterminer la loi
conjointe à partir des lois marginales. On procédera alors toujours dans l’ordre suivant :

Détermination de la loi conjointe → puis → Détermination des lois marginales

28
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

2) Covariance

1. La covariance s’obtient à l’aide de l’une des deux formules suivantes :

Cov(X, Y ) = E((X − E(X))(Y − E(Y ))) ou Cov(X, Y ) = E(XY ) − E(X)E(Y )

2. La covariance est une ”forme” bilinéaire symétrique positive (non définie).

3. On a la formule : V (X + Y ) = V (X) + 2Cov(X, Y ) + V (Y )

Exercice de TD : 20
(♥) Soient X et Y deux variables de Bernoulli indépendantes et de même paramètre p ∈]0, 1[ sur le même espace
probabilisé.
Soit U = X + Y et V = X − Y . Déterminer :
1. La loi du couple (U, V ).
2. la covariance de U et V .
3. Les variables U , V sont-elles indépendantes ? Conclusion ?

3) Variables Indépendantes

1. Deux VA X et Y sont indépendantes lorsque pour tout (x, y) ∈ X(Ω) × Y (Ω) on a :

P ({X = x} ∩ {Y = y}) = P (X = x).P (Y = y)

2. Dans le cas où X et Y sont indépendantes, on a :

E(XY ) = E(X)E(Y ), Cov(X, Y ) = 0 et donc V (X + Y ) = V (X) + V (Y )

Exercice de TD : 21
1 1
(♥) Soient X et Y deux variables aléatoires suivant les lois binômiales B(n, ) et B(m, ).
2 2
Déterminer la probabilité de l’événement (X = Y ).

Exercice de TD : 22 
X0 + X1
(∗∗) Soit X0 , X1 et X2 trois variables aléatoires deux à deux indépendantes telles que soient indépendantes.
X0 + X2
Montrer que la probabilité de (X0 = constant ) vaut 1 (cad que V (X0 ) = 0).
Vous penserez à utiliser la covariance.

Exercice de TD : 23
(♥♥) On lance deux dés honnêtes. On note X1 le numéro donné par le dé numéro 1 et X2 le numéro donné par le dé
numéro 2. Les variables aléatoires réelles X2 et X2 sont donc indépendantes. On note également X le plus grand des
numéros obtenus et Y le plus petit.

1. Reconnaı̂tre les lois de X1 et de X2 . Donner sans calcul E(X1 ) et V (X1 ).


2. Déterminer les lois de X et Y .
3. Calculer E(X) et E(Y ). Comparer ces espérances et commenter.
4. Calculer V (X) et V (Y ).
5. Représenter graphiquement la fonction de répartition de X.

Exercice de TD : 24
(♥♥ − ♥♥♥) Marche aléatoire

29
Cours MPSI - 2017/2018 Variables Aléatoires sur un univers fini http://pascal.delahaye1.free.fr/

1. Marche dans Z.
Un objet A se trouve en position 0  sur l’axe des réels.
p ∈]0, 1[ de se déplacer de 1 vers la droite
Chaque seconde, il a la probabilité .
1 − p de se déplacer de 1 vers la gauche
On note Xn sa position après n ∈ N secondes et Zn = Xn+1 − Xn .
(a) Déterminer la loi de Zn , son espérance et sa variance.
(b) En déduire la loi de Xn , son espérance et sa variance.

2. Marche dans Z2 .
M0 = (0, 0) = O.
Pour tout n ∈ N, on pose Mn+1 = Mn + An où An suit une loi uniforme sur {(1, 0), (−1, 0), (0, 1), (0, −1)}.
On pose également Mn = (Xn , Yn ).

(a) En posant Un = Xn+1 − Xn , déterminer E(Xn ) et V (Xn ).


En déduire l’espérance du carré de la distance euclidienne de Mn à O.
(b) Les variables Xn et Yn sont-elles indépendantes ?
1 2
(c) Prouver que P (M2n = O) = n 2n n puis en donner un équivalent lorsque N → +∞.
16

30

Vous aimerez peut-être aussi