Poly S3 SMA

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 59

UNIVERSITÉ IBN TOFAIL

FACULTÉ DES SCIENCES


DÉPARTEMENT DE MATHÉMATIQUES
KÉNITRA

Polycopié du cours

Probabilités et Statistique
M. EL A RROUCHI

Filière SMAI/Semestre 3
Année universitaire 2020-2021
Chapitre 1

Espaces probabilisés

1.1 Rappel sur les techniques de dénombrement


Le but de l’analyse combinatoire est d’apprendre à compter le nombre d’éléments d’un ensemble
fini de grande cardinalité.

1.1.1 Généralités
Soit Ω un ensemble. On appelle P(Ω) l’ensemble des parties de Ω, ce que l’on peut noter P(Ω) =
{A| A ⊂ Ω}. Donc A ⊂ Ω ⇔ A ∈ P(Ω).
Exemple 1.1 Si Ω = {P, F }, alors P(Ω) = {∅, {P }, {F }, Ω}.
On définit le produit cartésien de deux ensembles Ω1 et Ω2 , noté Ω1 × Ω2 par

Ω1 × Ω2 := {(x, y)| x ∈ Ω1 , y ∈ Ω2 }.

Exemple 1.2 {P, F } × {P, F } = {(P, P ), (P, F ), (F, P ), (F, F )}


Généralement, Ωn = Ω × . . . × Ω est l’ensemble des n-uplets (x1 , . . . , xn ) d’éléments de Ω. On peut
aussi utiliser Ωn pour représenter toutes les applications d’un ensemble à n éléments dans Ω.

Par analogie avec ce qui précède, l’ensemble de toutes les applications f : Ω1 → Ω2 sera noté ΩΩ 1
2 .
Par exemple avec Ω2 = {P, F } et Ω1 = N, on obtient l’ensemble {P, F } de toutes les suites infinies
N

de Pile ou Face : {P, F }N = {(un )n∈N | un = Pile ou Face}.

1.1.2 Ensembles finis

Définition : Un ensemble Ω est fini si Ω = ∅ ou si ∃n ∈ N∗ tel que Ω est en bijection avec


{1, ..., n}. Cet entier est unique, il est appelé le cardinal de Ω noté Card(Ω) ou |Ω|. Par
convention Card(∅) = 0.
Un ensemble qui n’est pas fini est dit infini.

Propriété 1.3 Soit A et B deux parties d’un ensemble fini Ω et A le complémentaire de A dans Ω.
1. Si A et B sont disjointes, Card(A ∪ B) = Card(A) + Card(B).

2
El Arrouchi-Espaces Probabilisés 3

2. Card(A\B) = Card(A) − Card(A ∩ B).


3. Card(A) = Card(Ω) − Card(A).
4. Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B).
5. Card(A × B) = Card(A) × Card(B).
6. Card(AB ) = Card(A)Card(B) .
7. Card(P(A)) = 2Card(A) .

1.1.3 Ensembles au plus dénombrables

Définition :
— Un ensemble E est dénombrable s’il existe une application bijective de E dans N.
Un ensemble dénombrable est donc infini.
— Un ensemble E est au plus dénombrable s’il existe une application bijective de E
dans une partie de N.

Remarque 1.2 Un ensemble au plus dénombrable est donc un ensemble fini ou un ensemble dénombrable
au sens de la définition précédente.

Propriété 1.4
1. Le produit cartésien d’une famille finie d’ensembles au plus dénombrables est au plus dénombrable.
2. La réunion d’une famille au plus dénombrable d’ensembles au plus dénombrables est au plus dénom-
brables.

Exemples :
— N, Z, Q, Nn , Q[X] sont dénombrables.
— [0, 1], R, C, P(N) , {0, 1}N , NN ne sont pas dénombrables.

1.2.1 Arrangements
Arrangements sans répétition :
Soit Ω un ensemble de cardinal n et k un nombre entier entre 1 et n. On appelle arrangement de
k éléments de Ω tout k-uplet (x1 , x2 , ..., xn ) d’éléments tous distincts de Ω. Un tel arrangement
représente une injection de {1, ..., p} dans Ω.

Exemple 1.5 Voici tous les arrangements de 2 éléments de l’ensemble {a, b, c} :

(a, b), (b, a), (a, c), (c, a), (b, c), (c, b).

On choisit un élément dans l’ensemble, puis un deuxième qui doit être différent. L’ordre de sélection est
important !

Théorème 1.3 Le nombre d’arrangements de k éléments distincts d’un ensemble à n éléments est

n!
Akn = .
(n − k)!
El Arrouchi-Espaces Probabilisés 4

Exemple 1.6 Une association se compose de 7 membres. De combien de manières peut-on nommer le bureau
comprenant le président, le vice-président, le secrétaire et le trésorier ?
Réponse : Il y a A47 = 840 manières.

Exemple 1.7 On considère les chiffres 0, 4, 2, 3, 1 et 7.


(a) Combien de nombres peut-on créer si on utilise tous les chiffres disponibles une seule fois ?
(b) Combien de nombres à 4 chiffres peut-on créer si on utilise une seule fois les chiffres ci-dessus ?
Réponses : (a)A66 = 720 et (b)A46 = 360.

Arrangements avec répétition :


Exemple 1.8 Les arrangements de 2 éléments de l’ensemble {a, b, c} avec répétition sont

(a, a), (a, b), (a, c), (b, a), (b, b), (b, c), (c, a), (c, b), (c, c).

On choisit deux éléments, pas forcément distincts, dans l’ensemble. L’ordre de sélection est important !

Théorème 1.4 Le nombre d’arrangements de k éléments d’un ensemble à n éléments avec possibilité de
choisir plusieurs fois le même élément est
k
An = nk .

Exemple 1.9 On considère les chiffres 0, 4, 2, 3, 1 et 7.


(a) Combien de nombres à 5 chiffres peut-on créer si on utilise les chiffres ci-dessus autant de fois que l’on
veut ?
(b) Combien de nombres à 8 chiffres peut-on créer si on utilise les chiffres ci-dessus autant de fois que l’on
veut ?
5 8
Réponses : (a)A6 = 65 = 70 776 et (b)A6 = 68 = 10 6790 616.

1.4.1 Permutations
Permutations sans répétition :
Exemple 1.10 Les permutations des éléments de l’ensemble {a, b, c} sont

(a, b, c), (a, c, b), (b, a, c), (b, c, a), (c, a, b), (c, b, a).

Théorème 1.5 Le nombre de permutations de n éléments distincts est Ann = n!.

Permutations avec répétition :


Exemple 1.11 Les permutations des 3 éléments aab sont

(aab), (aba), (baa)

Théorème 1.6 Le nombre de permutations avec répétition de n éléments pris parmi {a1 , a2 , ..., ak } où
figurent n1 fois a1 ,..., nk fois ak , avec n1 + ... + nk = n est

n!
.
n1 !n2 !...nk !
El Arrouchi-Espaces Probabilisés 5

Exemple 1.12
1. Le nombre de permutations des chiffres 1, 1, 1, 3, 3, 5, 6, 6, 6, 6 est

10!
.
3!2!1!4!

2. Combien de mots (ou d’anagrammes) peut-on former avec les lettres du mot "excellence" ? Réponse :
10!
Il y a = 370 800 mots.
4!1!2!2!1!

1.6.1 Combinaisons
Combinaisons sans répétitions :
Soit Ω un ensemble à n éléments. On appelle combinaison de k éléments de Ω toute collection non
ordonnée de k éléments distincts de Ω, c’est-à-dire toute partie de Ω contenant k éléments.
Une combinaison a tous ses éléments distincts comme un arrangement, mais l’ordre d’écriture n’a
pas d’importance.

Exemple 1.13 Voici toutes les combinaisons de 2 éléments de l’ensemble {a, b, c} :

{a, b}, {a, c}, {b, c}.

On choisit un élément dans l’ensemble, puis un deuxième qui doit être différent. L’ordre de sélection n’est
pas important !

Théorème 1.7 Le nombre de combinaisons de k éléments parmi n sans répétition ( nombre de sous-
ensembles de k éléments dans un ensemble contenant k éléments) est
n!
(nk ) = Cnk = .
k!(n − k)!

Exemple 1.14 Une classe est composée de 30 élèves. Le professeur de sport veut former une équipe de Basket
de 5 joueurs pour le tournoi du lycée. Combien d’équipes différentes peut-il faire ?
5 = 30×29×28×27×26 = 142506 possibilités.
Réponse : il doit choisir 5 élèves parmi 30, il a donc C30 5×4×3×2

Proposition 1.15
k+1
1. Cnn−k = Cnk , Cn+1 = Cnk + Cnk+1 (Triangle de Pascal).
n
X
2. (x + y)n = Cnk xk y n−k (Formule du binôme).
k=0

Combinaisons avec répétitions :


Exemple 1.16 Les combinaisons de 2 éléments avec répétition de l’ensemble {a, b, c} sont

aa, bb, cc, ab, ac, bc.

On choisit deux éléments, pas forcément distincts, dans l’ensemble. L’ordre de sélection n’est pas important !
El Arrouchi-Espaces Probabilisés 6

Théorème 1.8 Si les répétitions sont permises, le nombre de combinaisons de k éléments choisis parmi
n éléments distincts est
k k (n + k − 1)!
C n = Cn+k−1 = .
k!(n − 1)!

Exemple 1.17 On lance deux dés identiques à 6 faces numérotés de 1 à 6. Combien y a-t-il de possibilités ?
2
Réponse : C 6 = C72 = 21 possibilités.

1.8.1 Partitions ordonnées


Théorème 1.9 Le nombre de partitions ordonnées de n objets distincts en k groupes G1 , ..., Gk tel que
le i-ième groupe contient ni éléments, i = 1, ..., k, est donnée par :

n!
, avec n1 + n2 + ... + nk = n.
n1 !n2 !...nk !

Remarque 1.10 Les groupes du théorème sont distinguables. Par exemple si on considère les 4 objets sui-
vant : {e1 , e2 , e3 , e4 }, alors on distingue entre la partition G1 = {e1 , e2 }, G2 = {e3 , e4 } et la partition
G1 = {e3 , e4 }, G2 = {e1 , e2 }.
4!
Le nombre de partitions de ces objets en 2 groupes de taille 2 est 2!2! = 6.

Proposition 1.18 Le nombre de partitions ordonnées de n objets distincts en k groupes non distin-
guables G1 , ..., Gk tel que le i-ième groupe contient ni éléments, i = 1, ..., k, est donnée par :

n!
, avec n1 + n2 + ... + nk = n.
n1 !n2 !...nk !k!

1.10.1 Résumé
Tirages de k éléments parmi n :

Tirages Ordonnés Non ordonnés


n! n!
Sans remise Akn = (n−k)! Cnk = k!(n−k)!
Avec remise nk C̄nk = k
Cn+k−1

Rangement de k objets dans n cases :

Objets Discernables Indiscernables


n! n!
Un seul dans chaque case Akn = (n−k)! Cnk = k!(n−k)!
Éventuellement plusieurs dans chaque case nk C̄nk = k
Cn+k−1

1.11 Espaces probabilisés


Le calcul des probabilités est une branche très vivante des mathématiques actuelles. Les premières
formalisations de la notion de hasard au XVIIe siècle répondaient pour l’essentiel à diverses ques-
tions issues de la théorie des jeux. Au cours du XXe siècle, le calcul des probabilités a trouvé
El Arrouchi-Espaces Probabilisés 7

avec A. N. Kolmogorov une axiomatique rigoureuse et efficace s’appuyant sur l’intégration de


Lebesgue. L’intuition probabiliste est aujourd’hui un outil efficace dans diverses branches des ma-
thématiques, de l’analyse et la théorie de la mesure jusqu’à la géométrie et même l’algèbre, et forme
le support théorique des statistiques modernes.

1.11.1 Modéliser une expérience aléatoire

Définition : On appelle expérience aléatoire, toute expérience dont le résultat ne peut


être déterminé a priori, c’est-à-dire qui dépend du hasard.

Exemples :
1. Jeter un dé à 6 faces et noter le résultat.
2. Lancer une pièce de monnaie et noter le résultat.
3. On jette une pièce de monnaie et on note le premier rang pour lequel on tombe sur Pile.
4. On jette indéfiniment une pièce de monnaie et on note la suite des résultats obtenus.
5. Temps d’attente d’un bus, qui est un nombre aléatoire.

En théorie des probabilités, le terme modéliser désigne l’opération qui consiste à associer à une
expérience aléatoire trois objets mathématiques, notés et appelés généralement Ω, l’univers, A,
l’ensemble des événements et P, la probabilité.

Définition : L’univers ou espace fondamental est l’ensemble de toutes les issues ou


résultats possibles de l’expérience, souvent noté Ω. Un élément de Ω se note souvent ω,
appelé réalisation ou épreuve.

Exemples : Les univers des expériences de l’exemple précédent sont respectivement


1. Ω = {1, 2, 3, 4, 5, 6} (fini).
2. Ω = {P ile, F ace} (fini).
3. Ω = N∗ (dénombrable).
4. Ω = {P ile, F ace}N est l’ensemble des suites d’éléments de {P ile, F ace}, donc infini et
non dénombrable.
5. Ω = [0, 10]. Cet univers est infini et non dénombrable ( c’est à dire « beaucoup plus
grand » que N).

Un événement aléatoire est lié à une expérience aléatoire ; une fois l’expérience réalisée, on peut
alors dire si l’événement a été réalisé ou non.

Définition : Un événement aléatoire A peut être identifié à la partie de Ω dont les élé-
ments réalisent l’événement A.
Les événements qui sont représentés par un singleton {ω} sont appelés des événements
élémentaires.
El Arrouchi-Espaces Probabilisés 8

Exemple 1.19 Dans un lancer de dé, on peut par exemple considérer l’événement A, « le nombre obtenu est
pair ». L’événement A est réalisé lorsque le résultat est 2, 4 ou 6, donc A n’est pas élémentaire. Il est composé
des trois événements élémentaires {2}, {4}, {6}. On écrit alors A = {2, 4, 6}

Puisque les événements sont par définition des sous-ensembles de l’univers, on peut les traduire
par des opérations ensemblistes. Voici un tableau de correspondance les deux langages : ensem-
bliste et probabiliste.

Langage probabiliste Langage ensembliste


événement impossible ∅
événement certain Ω
résultat possible ω, élément de Ω
événement A, sous-ensemble de Ω (A ⊂ Ω)
A est réalisé ω∈A
A implique B A⊂B
A et B A∩B
A ou B A∪B
contraire de A (A ne se produit pas) A (complémentaire de A)
A et B sont incompatibles A ∩ B = ∅ (A et B sont disjoints)

L’ensemble des événements A associés à une expérience aléatoire est donc un sous-ensemble des
parties de Ω, A ⊂ P(Ω). Il semblerait naturel de prendre A = P(Ω), mais il y a alors des exemples
où il est impossible d’associer à chaque événement une probabilité de façon cohérente. Dans ces
cas-là, il est donc nécessaire de se restreindre à un sous-ensemble strict de P(Ω) contenant les
événements "intéressants". L’ensemble des événements que l’on considère en probabilité doivent
satisfaire à quelques propriétés naturelles, ils doivent former une tribu, dont voici la définition.

Définition : Soit Ω un ensemble et A ⊂ P (Ω). A est une tribu de parties de Ω si


1. Ω ∈ A
2. ∀A ∈ A, on a A ∈ A
+∞
3. Si pour tout n ∈ N, An ∈ A, alors An ∈ A
S
n=0
Le couple (Ω, A) est appelé espace probabilisable et les éléments de A sont appelés les
événements.
Exemple 1.20 Si Ω est un ensemble quelconque, on peut toujours définir deux tribus :
la tribu triviale qui est A = {∅, Ω} et la tribu totale qui est A = P(Ω).

Remarque 1.12 P (Ω) est la seule tribu qu’on utilise lorsque Ω est un ensemble fini. Lorsque Ω est infini,
P (Ω) devient énorme et il est alors souvent commode de considérer des tribus plus petites qui suffisent
pour appliquer notre modèle. De plus, pour des raisons sortant du cadre de ce cours, on peut montrer qu’il
est impossible de construire une probabilité sur (R, P (R)), ce qui nous oblige à considérer des tribus plus
petites qui permettent les calculs de probabilités.

Exercice 1
El Arrouchi-Espaces Probabilisés 9

1. Soit Ω = {1, 2, 3, 4}. Donner une tribu à deux éléments et une tribu à quatre éléments.
2. Soit Ω un ensemble quelconque. Montrer que

A = {A ∈ P(Ω)| A soit dénombrable ou A soit dénombrable}

est une tribu.

Proposition 1.21 Soient Ω un ensemble et A une tribu de partie de Ω.


1. ∅ ∈ A.
2. Si A et B sont deux événements de A, alors A ∪ B, A ∩ B et A \ B sont dans A.
\
3. Si I est une partie de N et si pour tout i ∈ I, Ai ∈ A alors Ai ∈ A.
i∈I

Nous souhaitons maintenant associer à chacun des événements une probabilité, qui mesure la
chance que l’on accorde a priori à l’événement avant la réalisation de l’expérience.

Définition : Soit (Ω, A) un espace probabilisable. On appelle probabilité sur (Ω, A)


toute application P de A dans [0, 1] vérifiant les deux propriétés suivantes (axiomes de
Kolmogorov)

1. P (Ω) = 1

2. Si (An )n∈N est une famille d’événements 2 à 2 disjoints, alors


+∞ +∞
!
[ X
P An = P(An ) (σ − additivité)
n=0 n=0

Le triplet (Ω, A, P) s’appelle espace probabilisé.

1.12.1 Équiprobabilité et probabilité uniforme


Soit Ω un univers fini. Nous disons qu’il y a équiprobabilité lorsque les probabilités de tous les
1
événements élémentaires sont égales, chacun ayant donc une probabilité de .
card(Ω)
Dans ce cas, P est la probabilité uniforme sur (Ω, P(Ω)).
Conséquence : S’il y a équiprobabilité, pour tout événement A, nous avons alors

Card(A) nombre de cas favorables


P(A) = = .
Card(Ω) nombre de cas possibles

Remarque 1.13
1. Quand on parle de choix « au hasard » sur un ensemble fini, on sous-entend souvent que ce choix est
fait au moyen de la probabilité uniforme, c’est-à-dire, en donnant à chaque élément de l’ensemble les
mêmes chances d’être choisi.
2. Il est impossible de définir une probabilité uniforme sur un ensemble qui n’est pas fini.
El Arrouchi-Espaces Probabilisés 10

Exemple 1.22 (Exemple de modélisation) On lance n fois un dé équilibré, on cherche la probabilité d’ob-
tenir k fois (k ≤ n) le chiffre six.
Une réalisation est un n-uplet des entiers compris entre 1 et 6. On prend donc Ω = {1, 2, . . . , 6}n . Le dé
étant équilibré, il est naturel de modéliser cette expérience par le triplet probabilisé (Ω, P(Ω), P) où P est la
probabilité uniforme.
L’événement « on obtient k fois le chiffre six » est représenté par le sous-ensemble
Ak = {(x1 , x2 , . . . , xn )| xi = 6 pour k indices exactement}.
On a Card(Ak ) = Cnk 5n−k (choix des k indices des xi qui sont égaux à 6, puis affectation d’un entier
quelconque compris entre 1 et 5 pour les autres). Puisque Card(Ω) = 6n , il vient
Card(Ak ) 5n−k
P(Ak ) = = Cnk n .
Card(Ω) 6

1.13.1 Propriétés générales d’une probabilité

Définition : Soit (Ω, A, P) un espace probabilisé.


Un événement A est dit négligeable si P(A) = 0 et presque sûr si P(A) = 1.

Proposition 1.23 Soit (Ω, A, P) un espace probabilisé et soient A et B deux événements.


1. P(A) = 1 − P(A), donc P(∅) = 0
2. P(A \ B) = P(A) − P(A ∩ B). Si A ⊂ B alors P(A \ B) = P(A) − P(B) et P(A) 6 P(B)
3. P(A ∪ B) = P(A) + P(B) − P(A ∩ B),
P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩ C) − P(B ∩ C) + P(A ∩ B ∩ C).
4. Si (An )n∈N est une suite croissante d’événements (ie ∀n ∈ N, An ⊂ An+1 ), alors
+∞
!
[
P An = lim P (An ) .
n→+∞
n=0

5. Si (An )n∈N est une suite décroissante d’événements (ie ∀n ∈ N, An+1 ⊂ An ), alors
+∞
!
\
P An = lim P (An ) .
n→+∞
n=0

Exercice 2 (Formule du crible (ou de Poincaré)) Soit (Ω, A, P) un espace probabilisé. Montrer que, pour
toute famille (Ai )16i6n d’événements, on a
n n
!
[ X X
P Ai = P(Ai ) + · · · +(−1)k+1 P(Ai1 ∩ · · · ∩ Aik )+
i=1 i=1 16i1 <i2 <···<ik 6n

··· + (−1)n+1 P(A1 ∩ · · · ∩ An )

1.13.2 Probabilités conditionnelles


Exemple 1.24 Les faces paires d’un dé à six faces sont coloriées en blanc et les faces impaires en noir. On
lance ce dé ; de loin on se rend compte qu’une face blanche est apparue (on note B cet événement) ; quelle est
la probabilité que l’on ait obtenu un six ?
El Arrouchi-Espaces Probabilisés 11

Définition : [Théorème] Soit (Ω, A, P) un espace probabilisé et B un événement de pro-


babilité non nulle.
P(A ∩ B)
Pour tout événement A, on pose PB (A) = .
P(B)
Alors l’application A 7→ PB (A) est une probabilité sur (Ω, A) appelée probabilité condi-
tionnelle relative à A ou encore probabilité sachant A.

Exercice 3 Dans une entreprise, il y a 150 femmes ingénieurs , 80 femmes ouvrières, 100 hommes ingé-
nieurs et 130 hommes ouvriers. On tire au sort, de manière équiprobable, un employé. Quelle est la probabi-
lité d’être ingénieur ? D’être ingénieur sachant qu’on est une femme ? D’être une femme sachant qu’on est
ingénieur ? D’être une femme ingénieur ?

Proposition 1.25 (Formule des probabilités composées) Soit (Ω, A, P) un espace probabilisé et
A1 , A2 , . . . , An des événements tels que P (A1 ∩ A2 ∩ · · · ∩ An−1 ) 6= 0. Alors

P(A1 ∩ A2 ∩ · · · ∩ An ) = P(A1 )PA1 (A2 )PA1 ∩A2 (A3 ) . . . PA1 ∩A2 ∩···∩An−1 (An )

Exercice 4 Une urne contient 5 boules blanches et 7 boules noires, indiscernables au toucher. On tire suc-
cessivement 4 boules sans remise et on note à chaque tirage la couleur obtenue.
1. Décrire l’univers associé à cette expérience.
2. Quelle est la probabilité que les boules tirées soient de même couleur ?
3. Quelle est la probabilité que les deux premières boules tirées soient blanches et la troisième noire ?

Définition : Soit (Ω, A) un espace probabilisable. On appelle système complet d’événe-


ments de Ω toute famille (Ai )i∈I (I ⊂ N) d’éléments de A telle que
1. Les Ai sont 2 à 2 incompatibles : ∀i, j ∈ I, Ai ∩ Aj = ∅,
S
2. Leur réunion est Ω : Ai = Ω
i∈I

Proposition 1.26 (Probabilités totales) Soit (Ai )i∈I un système complet d’événements de probabili-
tés non nulles. Alors pour tout événement B on a
X X
P(B) = P(Ai ∩ B) = P(Ai )PAi (B).
i∈I i∈I

Proposition 1.27 (Formule de Bayes) Soient (Ai )i∈I un système complet d’événements de probabi-
lités non nulles et B un événement de probabilité non nulle. On a

P(Aj )PAj (B)


PB (Aj ) = X .
P(Ai )PAi (B)
i∈I

Exercice 5
— L’urne U1 contenant 1 boule rouge et 5 boules jaunes.
— L’urne U2 contenant 3 boules rouges et 1 boule jaune.
El Arrouchi-Espaces Probabilisés 12

— L’urne U3 contenant 1 boule rouge et 2 boules jaunes.


On lance un dé puis on choisit l’urne 1 si le dé tombe sur 1, l’urne 2 si le dé tombe sur un nombre pair
et l’urne 3 sinon. Ensuite, on tire une boule dans l’urne choisie. On tire une boule jaune. Quelle est la
probabilité que cette boule ait été tirée dans U1 ?

1.13.3 Indépendance d’événements

Définition : Soit (Ω, A, P) un espace probabilisé.


— On dit que deux événements A et B sont indépendants (A ⊥
⊥ B) si

P(A ∩ B) = P(A)P(B)

On a donc PA (B) = P(B) et PB (A) = P(A).


— On dit que les événements A1 , . . . , An sont deux à deux indépendants si pour tout
i 6= j Ai et Aj sont indépendants.
— On dit que les événements A1 , . . . , An sont mutuellement indépendants ou
tout simplement indépendants
! si pour tout ensemble d’indices I choisis dans
\ Y
{1, . . . , n}, P Ai = P(Ai ).
i∈I i∈I

Exercice 6 Montrer que

A⊥
⊥ B ⇐⇒ A ⊥
⊥ B ⇐⇒ A ⊥
⊥ B ⇐⇒ A ⊥
⊥ B.

Exercice 7 Une urne contient 5 boules blanches et 5 boules noires. On en prélève 3 boule successivement et
avec remise. On considère A l’événement « on obtient des boules des deux couleurs » et B l’événement « on
obtient au plus une boule blanche ». A et B sont-ils indépendants ?

1.14 Travaux dirigés


Exercice 1 1. Soit N∗n = J1, nK l’ensemble des n premiers naturels non nuls. Combien y a-t-il de sous-
ensembles de N∗n ? Démontrer que le nombre de parties de N∗n de cardinal pair vaut 2n−1 . Quel est le
nombre de parties constituées de deux elements non consécutifs de N∗n ? Dénombrer les applications
strictement croissantes de N∗n dans N∗p . Dénombrer les applications croissantes de N∗n dans N∗p .
2. Combien y a-t-il de partitions d’un ensemble de cardinal np en n parties de cardinal p ?
3. Soient p, q, m des entiers naturels, avec q ≤ p ≤ m. Démontrer par un dénombrement que
! q ! !
m X q m−q
= × .
p j=0
j p−j

Démontrer
m
p+1
Cjp .
X
Cm+1 =
j=p

Exercice 2 Pour n > 1, calculer X X


k.
X∈P(J1,nK) k∈X
El Arrouchi-Espaces Probabilisés 13

Exercice 3 Calculer Card{(A, B) ∈ (P(Ω))2 | A ⊂ B} où Ω est un ensemble à n éléments.

Exercice 4 On considère des numéros de téléphone de 10 chiffres dans J1, 9K = {0, 1, · · · , 9}. Ils ne com-
mencent pas nécessairement par un 0.
a. Déterminer le nombre de numéros de téléphone comportent exactement un triple (3 fois un même
chiffre), deux doubles (2 fois un même chiffre) et trois simples (3 fois un chiffre).

Pour tout (n, p) ∈ N∗ 2 , on note S(n, p) le nombre de surjections de J1, nK dans J1, pK.
b. Déterminer, en fonction de S(10, p) pour p ∈ J1, 10K, le nombre ∆4 de numéros de téléphone com-
portant au plus 4 chiffres distincts.
c. Soit n ≥ 4 un entier. Calculer successivement les S(n, p) pour p ∈ J1, 4K.
d. Conclure ∆4 .

Exercice 5 Considérons un ensemble de n antennes alignées dont m sont défectueuses et n − m en état de


marche. Supposons que les antennes défectueuses soient indiscernables entre elles et que celles qui marchent
le soient également entre elles.
Combien de configurations peut-on trouver pour lesquelles deux antennes défectueuses ne sont jamais voi-
sines ?

Exercice 6 Quatre couples doivent être assis dans une rangée de 8 chaises. Combien y a-t-il de façon de le
faire si :
— Il n’y a pas de contraintes.
— Les hommes doivent rester ensemble et les femmes aussi.
— Les hommes doivent rester ensemble.
— Chaque couple marié doit rester ensemble.

Exercice 7 On lance simultanément deux dés numérotés de 1 a 6. Déterminer et dénombrer l’ensemble des
résultats possibles dans les cas suivants :
— Les deux dés sont distincts (par exemple un rouge et un bleu).
— Les deux dés sont identiques.
— Les deux dés sont identiques et on s’interesse seulement à la parité du résultat.

Exercice 8 On lance six boules dans quatre cases distinctes. Représenter et dénombrer l’ensemble des résul-
tats possibles dans les deux cas suivants :
— Les boules sont numérotées de 1 a 6.
— Les boules sont identiques.

Exercice 9 On cherche à modéliser le lancer de deux dés à six faces, un rouge et un noir. Voici trois modèles :
1. On prend Ω1 = {1, 2, 3, 4, 5, 6}2 . L’élément (i, j) ∈ Ω1 représente l’éventualité " le dé rouge montre
le nombre i et le dé noir le nombre j ".
2. On prend Ω2 = {(i, j) : i, j ∈ {1, ..., 6}, i ≤ j}. L’élément (i, j) ∈ Ω2 représente l’éventualité
"les deux dés montrent les nombres i et j".
3. On prend Ω3 = {2, 3, 4, ..., 12}. Ici, i ∈ Ω3 représente l’éventualité " la somme des deux dés est i ".
Pour chacun de ces modèles, déterminer la probabilité qu’il convient de mettre sur l’univers choisi pour que
le modèle corresponde bien à notre expérience.
Dire, pour chacun des modèles, si A, B, C sont des événements, et, dans l’affirmative, les écrire comme
sous-ensemble de l’univers et donner leur probabilité :
El Arrouchi-Espaces Probabilisés 14

A = "la somme des deux dés est 4 " ;


B = "le dé noir a donné 1 " ;
C = "les deux dés ont donné 1 et 3".

Exercice 10 Soit (N, n) ∈ N × N∗ . On dispose de N + 1 urnes numérotées de 0 à N . Pour tout k ∈


{0, · · · , N }, l’urne k contient k boules blanches et N − k boules rouges. On choisit une urne au hasard et
on tire n boules avec remise dans cette urne.
1. Décrire un espace probabilisé permettant de modéliser cette expérience aléatoire.
2. Déterminer la probabilité Pn (N ) d’obtenir n boules blanches au cours des n tirages.
3. Calculer lim Pn (N ).
n→∞

Exercice 11 On distribue (après les avoir bien mélangés) N billets à gratter à des revendeurs, parmi lesquels
une proportion p est gagnante.
Jojo achète deux billets. On note A l’événement " le premier billet est gagnant", et B l’événement " le
deuxième billet est gagnant ". Déterminer la probabilité des événements A et B.
Calculer P(A ∩ B). Les événements A et B sont-ils indépendants ?
Observer l’évolution du défaut d’indépendance de A et B lorsque N tend vers l’infini, p restant constant.

Exercice 12 Les services marketing de la société d’assurance automobile JojoTranquile ont mis au point
un questionnaire pour dépister les " conducteurs imprudents " (cette catégorie rassemble en fait tous les
assurés déclarant au moins trois sinistres au cours d’une année, et on a estimé qu’ils représentent 2% de la
population), et éventuellement refuser de les assurer. Depuis plus d’un an, on a demandé à tous les assurés
de le remplir. Les résultats sont les suivants :
— parmi les conducteurs imprudents assurés à JojoTranquile, 95% auraient été dépistés par le ques-
tionnaire.
— parmi les autres, 4% auraient tout de même été déclarés imprudents à cause du questionnaire.
En énonçant ces résultats, le responsable de ce projet, M. Question, se félicite du travail accompli par son
équipe.
Lorsqu’un client potentiel, remplissant le questionnaire, est déclaré imprudent par la procédure mise
au point par M. Question, quelle est la probabilité qu’il soit réellement imprudent ? Pensez-vous qu’il soit
souhaitable d’utiliser les conclusions du questionnaire pour exclure préventivement de nouveaux clients ?

Exercice 13 Jojo fait du ski à la station " Vallées blanches ". Il est en haut du téléski des Cailloux, et a le
choix entre les pistes de Tout-Plat (une bleue), Les-Bosses (une rouge) et Rase- Mottes (une noire). Il va
choisir une de ces trois pistes au hasard, de telle façon qu’il choisisse la bleue ou la noire avec probabilité 1/4,
et la rouge, qu’il préfère, avec probabilité 1/2. Il descend ensuite la piste choisie. Jojo n’est pas encore très à
l’aise cette saison, et il tombe avec une probabilité de 0, 1 sur la piste bleue, de 0, 15 sur la piste rouge, et de
0, 4 sur la piste noire.
1. Soit A = " Jojo tombe en descendant la piste qu’il a choisie". Calculer P(A).
2. Bernard, qui attend Jojo en bas des pistes, à la terrasse d’un café, voit arriver Jojo couvert de neige :
il est donc tombé. Sachant cela, quelle est la probabilité qu’il ait emprunté la piste noire ?
Chapitre 2

Variables aléatoires

2.1 Généralités sur les variables aléatoires

Définition : Soit (Ω, A) un espace probabilisable.


X est une variable aléatoire réelle (v.a.r.) définie sur (Ω, A) si X est une application de Ω
dans R telle que, pour tout élément x de R, on a

{X ≤ x} = {ω ∈ Ω, X(ω) ≤ x} ∈ A.

On note encore X(Ω) l’univers image ou l’ensemble des valeurs prises par X.

X est une variable aléatoire discrète si X(Ω) = {xi , i ∈ I}, où I est un sous-ensemble
de N ou de Z, éventuellement infini.

X est une variable aléatoire finie si X(Ω) est un ensemble fini.

Remarque 2.2 1. Le fait de ne plus centrer la définition sur les événements élémentaires vient du fait
que dans le cas infini et notamment non dénombrable, tous ces événements peuvent être de probabilité
nulle, ce qui ne donnerait finalement aucune information sur la loi de X.
2. La condition théorique qui est ajoutée dans cette définition sert à garantir qu’on puisse bien calculer
la probabilité que X ≤ x puisque la probabilité P est définie sur A. Tout ceci était automatiquement
vérifié dans le cas dans le cas fini car la tribu choisie est P (Ω).
3. On ne vous demandera pas : « démontrer que X est une variable aléatoire ».

Exemple 2.1 Un joueur lance deux fois de suite un dé et note les deux nombres obtenus sous la forme d’un
couple : par exemple si le joueur obtient 2 puis 5, on note son résultat sous la forme (2, 5). L’univers de notre
expérience est Ω = [[1, 6]]2 . On définit la v.a.r. discrète X qui à chaque couple associe la somme des deux
nombres obtenus. Ici on a X(Ω) = {2, 3, . . . , 12}. Donc X est une v.a.r. discrète finie.

Exemple 2.2 On effectue une succession de lancers d’un dé cubique jusqu’à obtenir 6. Soit X le nombre de
lancers effectués. Il est très difficile ici de décrire l’univers de notre expérience mais on peut tout de même
donner très clairement X(Ω). En étant rigoureux on devrait écrire : X(Ω) = N∗ ∪ {+∞} car il se peut
que l’on obtienne jamais 6. Mais on peut démontrer que la probabilité de ne jamais obtenir 6 est égale à 0,
c’est-à-dire que l’on obtiendra presque sûrement 6. On peut alors choisir de considérer que X(Ω) = N∗ et
donc X est une v.a.r discrète infinie.

15
El Arrouchi-Espaces Probabilisés 16

Notation : Soit X une v.a.r. définie sur (Ω, A). Pour tout J intervalle de R, on note l’événement
X −1 (J) = {X ∈ J} = {ω ∈ Ω/X(ω) ∈ J}.

2.3 Fonction de répartition d’une variable aléatoire


On se place dans un espace probabilisé (Ω, A, P) quelconque et X une variable aléatoire réelle
sur cet espace.

Définition : On appelle fonction de répartition de X la fonction définie sur R par :


∀x ∈ R, FX (x) = P(X ≤ x)

Théorème 2.4 (« Propriétés de FX »)


1. ∀x ∈ R, 0 ≤ FX (x) ≤ 1.
2. FX est croissante sur R.
3. lim FX (x) = 0 et lim FX (x) = 1.
x→−∞ x→+∞

4. FX est continue à droite en tout point x de R.


5. FX admet une limite à gauche en tout point x de R et

lim FX (t) = FX (x) − P (X = x) .


t→x−

6. Soient a ≤ b deux réels. P (a < X ≤ b) = FX (b) − FX (a).

Remarque 2.5 Les propriétés de (1)-(4) font de n’importe quelle fonction une fonction de répartition d’une
certaine v.a.r..

Exemple 2.3 On lance une pièce de monnaie bien équilibrée trois fois de suite. Soit X la variable aléatoire
donnant
( le nombre de Face obtenues et soit
1 si deux côtés identiques apparaissent successivement
Y = . Dessiner FX et FY .
0 sinon.

Corollaire 2.4 (« continuité de FX ») FX est continue sur R si et seulement si, pour tout réel x, on
a P (X = x) = 0.

Remarque 2.6 Ce point établit la différence entre une variable aléatoire discrète, dont la fonction de réparti-
tion possède toujours des discontinuités (éventuellement une infinité dénombrable) et une variable aléatoire
continue, dont la fonction de répartition est continue sur R.

2.7 Loi d’une variable aléatoire


On se place dans un espace probabilisé (Ω, A, P) quelconque et X une v.a.r. sur cet espace.

Définition : On appelle loi de probabilité de X la donnée de toutes les probabilités


P (X ∈ A), où A est une réunion au plus dénombrable d’intervalles de R.
El Arrouchi-Espaces Probabilisés 17

Remarque 2.8 Cette définition, très théorique, ne vous servira pas dans la pratique. Par exemple,
— dans le cas où X(Ω) est au plus dénombrable, alors la loi de probabilité de X est caractérisée par la
donnée de P(X = x), ∀x ∈ X(Ω).
— Dans le cas où X(Ω) = R, la loi de probabilité de X est caractérisée par la donnée de P(X ∈
]a, b]), ∀(a, b) ∈ R2 , a < b.

Proposition 2.5 La fonction de répartition caractérise la loi, c’est-à-dire

FX = FY ⇔ X et Y ont la même loi.

2.9 Variables aléatoires discrètes

Définition : Une variable aléatoire réelle X définie sur Ω est dite discrète si elle prend
ses valeurs dans un ensemble discret (au plus dénombrable) : X (Ω) = {xi , i ∈ I}, où
xi−1 < xi et I est une partie non-vide au plus dénombrable de N.

Remarque 2.10 Lorsque Ω est fini, toute application définie sur Ω est une variable aléatoire discrète.

Proposition 2.6 Si X est une v.a.r. discrète définie sur Ω, alors la loi de probabilité de X est caractérisée
par la donnée de la famille {(xi , P(X = xi )) , i ∈ I}.

Propriété 2.7 Soit X une v.a.r. discrète. Si X(Ω) = {xi /i ∈ I} X


alors la famille d’événements ({X =
xi })i∈I est un système complet d’événements. En particulier on a P(X = xi ) = 1.
i∈I

Théorème 2.11 On rappelle que X(Ω) = {xi /i ∈ I}.


X
1. Pour tout réel x, on a FX (x) = P (X = xi ).
xi ≤x,i∈I
2. Si les xi sont rangés par ordre croissant, alors P(X = xi ) = F (xi ) − F (xi−1 ).

Exemple 2.8 Un sac contient 4 boules numérotés de 1 à 4. On tire deux boules avec remise. On note X1
le numéro de la première boule, X2 le numéro de la seconde boule, et Y le plus grand des deux numéros
obtenus. Déterminons la loi de Y .
Remarquons tout d’abord que Y prend les valeurs 1,2,3,4 donc Y (Ω) = {1, 2, 3, 4}. De plus, le calcul de
P(Y 6 k) est plus facile que celui de P(Y = k). Par exemple

{Y = 3} = ({X1 = 1} ∩ {X2 = 3}) ∪ ({X1 = 2} ∩ {X2 = 3}) ∪ ({X1 = 3} ∩ {X2 = 3})∪


({X1 = 3} ∩ {X2 = 2}) ∪ ({X1 = 3} ∩ {X2 = 1})
{Y 6 3} = {X1 6 3} ∩ {X2 6 3}

Nous allons donc calculer F (1), F (2), F (3) et F (4) puis en déduire la loi de Y . On a
1
FY (1) = P(Y 6 1) = P(Y = 1) = P({X1 = 1} ∩ {X2 = 1}) = , FY (2) = P(Y 6 2) = P({X1 6
16
El Arrouchi-Espaces Probabilisés 18

2 2 1 3 3 9
2} ∩ {X2 6 2}) = × = , FY (3) = × = ,FY (4) = 1. Donc
4 4 4 4 4 16



 0, x<1

1/16, 1 ≤ x < 2





FY (x) = 1/4, 2≤x<3


9/16, 3 ≤ x < 4






1, 4 ≤ x.

On peut maintenant en déduire la loi de la variable Y

1 3
P(Y = 1) = FY (1) = , P(Y = 2) = FY (2) − FY (1) =
16 16
5 7
P(Y = 3) = FY (3) − FY (2) = , P(Y = 4) = FY (4) − FY (3) = .
16 16

2.11.1 Espérance d’une variable aléatoire discrète

Définition : Une variable aléatoire réelle discrète X admet une espérance si la série
X
xi P(X = xi ) converge absolument et dans ce cas, l’espérance est la somme de la
i∈I
+∞
X
série, notée E(X). Par exemple, si X(Ω) = N, on a E(X) = kP(X = k)
k=0

Proposition 2.9 (« Propriétés de l’espérance ») Si X et Y admettent une espérance, et si a, b sont


des réels :
1. Linéarité : E(aX + b) = aE(X) + b et E(X + Y ) = E(X) + E(Y )
2. Localisation : si X (Ω) ⊂ [x, y] alors x ≤ E(X) ≤ y.
3. Positivité : si toutes les valeurs de X sont positives (X(Ω) ⊂ R+ ) alors E(X) ≥ 0

On se place dans le cadre des opérations sur les variables aléatoires.

Théorème 2.12 (Théorème Xde transfert)


E(g(X)) existe ssi la série g(xi )P(X = xi ) converge absolument et dans ce cas
i∈I
X
E(g(X)) = g(xi )P(X = xi ).
i∈I

+∞
X
Par exemple, avec X(Ω) = N, on a : E X 2 = k 2 P(X = k)


k=0
El Arrouchi-Espaces Probabilisés 19

2.12.1 Moments d’ordre r d’une variable aléatoire discrète

Définition : Pour un entier r, lorsque X r admet une espérance, on dit que X admet un
moment d’ordre r et on le note mr (X) = E(X r ).
On montre l’existence des moments et on calcule leurs valeurs à l’aide de la formule de
transfert.

Proposition 2.10 Si X admet un moment d’ordre r, alors X admet un moment d’ordre s pour tout s
inférieur à r.

Remarque 2.13 Si E(X 2 ) existe alors E(X) existe. Attention ! La réciproque à cette propriété est fausse.
Considérons par exemple la v.a.r. X dont la loi est donnée par X(Ω) = N∗ et pour tout n ∈ N∗ P(X =
+∞
1 X 1 1 X
n) = 3
avec α = 3
. On a nP(X = n) = 2
donc |nP(X = n)| converge et E(X) existe. De
αn k=1
k αn
1 X
plus n2 P(X = n) = donc |n2 P(X = n)| diverge et E(X 2 ) n’existe pas.
αn

2.13.1 Variance d’une variable aléatoire discrète

Définition : On dit que X admet une variance si (X − E(X))2 admet une espérance. La
variance est alors  
V(X) = E (X − E(X)2 .
p
De plus lorsque V(X) existe, on appelle écart-type de X le réel σ(X) = V(X).
Voici une formule donnant une technique de calcul de la variance qui peut s’avérer plus simple
que la définition.

Proposition 2.11
1. X admet une variance si et seulement si elle admet un moment d’ordre 2, et

V(X) = m2 (X) − (m1 (X))2 = E(X 2 ) − (E(X))2 .

2. Pour des réels a, b et X admettant une variance, V(aX + b) = a2 V(X).


3. V(X) = 0 si et seulement si X est presque sûrement constante.

Définition : [et propriété]


1. X est centrée si E(X) = 0.
2. X est centrée réduite si V(X) = σ(X) = 1.

3. X − E(X) est la variable centrée associée à X.


X − E(X)
4. X ∗ = est la variable centrée réduite associée à X.
σ(X)
El Arrouchi-Espaces Probabilisés 20

2.13.2 Fonction génératrice


Nous introduisons ici la notion de fonction génératrice, qui est un outil permettant de simplifier
le calcul d’espérances.

Définition : Soit X une v.a. à valeurs dans N. On appelle fonction génératrice de X la


fonction GX : R → R donnée par la série entière suivante
X
GX (z) := E(z X ) = P(X = k)z k .
k≥0

Proposition 2.12 Soit X une v.a. à valeurs entières.


1. Le rayon de convergence de la série entière GX (z) est supérieur ou égal à 1. GX est continue sur
l’intervalle fermé [−1, 1] et de classe C ∞ sur ] − 1, 1[.
2. GX caractérise la loi de X, i.e.,
(k)
G (0)
P(X = k) = X .
k!
3. Si la fonction génératrice GX (z) admet un rayon de convergence supérieur strictement à 1, alors
on a
E(X) = G0X (1), E(X(X − 1)) = G00X (1).

Exemple 2.13 Soit X une v.a.r. dont la loi est donnée par P(X = k) = p(1 − p)k , ∀k ∈ N où 0 < p < 1.
La fonction génératrice est une série géométrique :
∞ ∞
X X p 1
GX (z) = E(z X ) = P(X = k)z k = p (z − pz)k = où |z| < .
k=1 k=0
1 − z + pz 1−p

1−p
Le rayon de convergence est donc R = 1
1−p > 1. D’où E(X) = G0X (1) = p et E(X(X − 1)) = G00X (1) =
(1−p)2
2 p2
, puis V(X) = G00X (1) + G0X (1) − (G0X (1))2 = 1−p
p2
.

2.14 Lois discrètes usuelles


On introduit ici certaines lois usuelles (qui reviennent souvent dans les exercices) pour des v.a.r.
discrètes. Les résultats pourront ensuite être réutilisés sans démonstration dans les exercices. Pour
chaque loi usuelle, il faudra connaître par cœur la notation (et ses paramètres éventuels), l’univers
image X(Ω), la fonction de répartition, l’espérance et la variance ou les cas typiques d’utilisation.
Notation : On utilisera le symbole ,→ pour signifier qu’une variable aléatoire « suit »une loi
usuelle.

2.14.1 Loi uniforme

Définition : Une v.a.r. X suit une loi uniforme sur F = {x1 , . . . , xn } si X(Ω) = F et si,
1
pour tout i ∈ [[1, n]], on a P(X = xi ) = . On note alors X ,→ U (F )
n
El Arrouchi-Espaces Probabilisés 21

n+1 n2 − 1
Proposition 2.14 Soit n ∈ N∗ et X ,→ U ([[1, n]]). On a E(X) = , V(X) = et GX (z) =
 2 12
 z 1−z n si z 6= 1
n 1−z
 1 si z = 1.

En fait, une loi est dite uniforme dès qu’il y a équiprobabilité des différentes valeurs prises par X,
mais rien n’impose que ces valeurs soient des entiers consécutifs, ni que la première valeur soit 1.

Exercice 14 Soit X ,→ U ([[a, b]]) où (a, b) ∈ Z2 tels que a < b. Calculer E(X) et V(X).

2.14.2 Loi de Bernoulli

Définition : Soit p ∈]0, 1[. Une v.a.r. X suit une loi de Bernoulli de paramètre p si X(Ω) =
{0, 1}, P(X = 1) = p et P(X = 0) = 1 − p. On note alors X ,→ B(p).

Proposition 2.15 Soit p ∈]0, 1[ et X ,→ B(p). Alors E(X) = p, V(X) = p(1 − p) et GX (z) =
pz + 1 − p.

Exemple 2.16 Soit S est un événement de probabilité p. L’indicatrice de S, définie par


 
 1 si ω ∈ S,  1 si S est réalisé,
X(ω) = 1S (ω) = =
 0 si ω∈
/ S.  0 si S n’est pas réalisé

est une variable aléatoire suivant la loi de Bernoulli de paramètre p.


Pour justifier son utilisation, on peut dire « on appelle succès l’événement S de probabilité p. X, la variable
aléatoire qui vaut 1 en cas de succès, 0 en cas d’échec, suit donc une loi de Bernoulli de paramètre p ».

2.14.3 Loi binomiale (ou des tirages avec remise)

Définition : Soient n ∈ N∗ et p ∈]0, 1[. Une v.a.r. X suit une loi binomiale
! de paramètres
n k
n et p si X(Ω) = [[0, n]] et si, pour tout k ∈ [[0, n]], on a P(X = k) = p (1 − p)n−k . On
k
note alors X ,→ B(n, p).

Proposition 2.17
1. Soient n ∈ N∗ , p ∈]0, 1[ et X ,→ B(n, p). Alors E(X) = np, V(X) = np(1 − p) et GX (z) =
(pz + 1 − p)n .
2. (admis) Soient n ∈ N∗ , p ∈]0, 1[ et X1 , X2 , . . . , Xn une famille de variables aléatoires mutuel-
lement indépendantes suivant une loi de Bernoulli de paramètre p. Alors si X = X1 + X2 +
· · · + Xn , on a X ,→ B(n, p).
El Arrouchi-Espaces Probabilisés 22

Remarque 2.15 Toute répétition d’expérience aléatoires à deux issues (Succès ou Échec) de manière indé-
pendantes, ce qui s’appelle un schéma de Bernoulli, conduit à l’introduction de loi binomiale.
Pour justifier son utilisation, on peut dire « dans une expérience à deux issues, on appelle succès l’événement
S = ... de probabilité p. On répète n fois cette expérience de manière indépendante. Alors si X est la v.a.r.
qui compte le nombre de succès, X ,→ B(n, p). »

Exercice 15 Un conseil d’administration valide sa décision lorsque 10 au moins des 12 membres sont d’ac-
cord. Chacun des membres prend sa décision indépendamment des autres et choisit d’accepter avec la pro-
babilité 34 . Déterminer le nombre moyen de membres qui acceptent, puis la probabilité que la décision soit
validée.

2.15.1 Loi hypergéométrique (ou des tirages sans remise)


Contexte On tire sans remise n objets d’un ensemble de N objets dont M possèdent une caracté-
ristique particulière (et les autres N − M ne la possèdent pas).

Soit X le nombre d’objets de l’échantillon qui possèdent la caractéristique. Alors X suit une loi
hypergéométrique de paramètres N , M , n, dénotée X ,→ H(N, M, n). On a X(Ω) = [[max(0, n −
N + M ), min(M, n)]] et
  
M N −M
  
k n−k
∀k ∈ X(Ω), P(X = k) =  
N
 
n

M
Proposition 2.18 Si X suit la loi hypergéométrique H(N, M, n) avec p = N, alors

N −n
E(X) = np et V(X) = np(1 − p) .
N −1

Théorème 2.16 On suppose que quand N tend vers +∞, M = M (N ) tend vers +∞ en vérifiant la
M
condition lim = p avec 0 < p < 1.
N →+∞ N
Alors, n restant fixé, la loi hypergéométrique H(N, M, n) converge vers la loi binomiale B(n, p), ce qui
signifie
k C n−k
CM N −M
∀k ∈ [[1, n]], lim n = Cnk pk (1 − p)n−k .
N →+∞ CN

Remarque 2.17 En pratique, ce résultat s’applique dès que n/N < 0, 1, c’est-à-dire dès que la population
est 10 fois plus grande que l’échantillon, ce qui arrive fréquemment en sondages.

2.17.1 Loi géométrique

Définition : Soit p ∈]0, 1[. Une v.a.r. X suit une loi géométrique de paramètre p si X(Ω) =
N∗ et si, pour tout k ∈ N∗ , on a P(X = k) = p(1 − p)k−1 . On note alors X ,→ G(p).
El Arrouchi-Espaces Probabilisés 23

1 1−p
Proposition 2.19 Soit p ∈]0, 1[ et X ,→ G(p). On a alors E(X) = , V(X) = et GX (z) =
p p2
pz
.
pz − z + 1

Remarque 2.18 Les variables aléatoires qui décrivent un temps d’attente avant le premier succès, lors-
qu’on répète une expérience de Bernoulli à l’identique et de manière indépendante, suivent une loi géomé-
trique. Pour justifier son utilisation, on peut rédiger ainsi :
« Soit X la variable aléatoire qui compte le nombre de lancers nécessaires pour obtenir le premier suc-
cès en répétant indépendamment l’expérience de Bernoulli dont le succès est l’événement S = ..., de
probabilité p. Donc, X ,→ G(p) ».

Exercice 16 On jette cinq dés équilibrés. Après le premier lancer, on reprend et on relance les dés qui n’ont
pas donné 1, jusqu’à ce qu’on obtienne cinq 1. Soit X le nombre de lancers nécessaires. Calculer P(X 6 k)
puis P(X = k) pour tout k ∈ N∗ . Combien de lancers seront nécessaires en moyenne ?

2.18.1 Loi de Poisson

Définition : Soit λ ∈ R∗+ . Une v.a.r. X suit une loi de Poisson de paramètre λ si X(Ω) = N
λk −λ
et si, pour tout k ∈ N, on a P(X = k) = e . On note alors X ,→ P(λ).
k!

Proposition 2.20 Soit λ ∈ R∗+ et X ,→ P(λ). On a alors E(X) = V(X) = λ et GX (z) = eλ(z−1) .

Remarque 2.19 La loi de Poisson a parfois été appelée loi des événements rares, pour ses applications
classiques à la modélisation de phénomènes rares. On ne dispose pas ici d’une situation concrète simple pour
illustrer la loi de Poisson : cette loi sera toujours introduite par l’énoncé.

Théorème 2.20 Si (pn )n≥1 est une suite de réels de [0, 1] vérifiant

npn → λ ∈]0, +∞[, quand n → +∞,

alors la loi binomiale B(n, pn ) converge vers la loi de Poisson P(λ), ce qui signifie

λk
∀k ∈ N, Cnk pkn (1 − pn )n−k → e−λ , quand n → +∞.
k!

Remarque 2.21 Une telle approximation est valable lorsque n ≥ 30, p ≤ 1/10 et np ≤ 15.

2.22 Couple de v.a.r. discrètes


Dans toute cette partie X et Y désigneront deux v.a.r. discrètes définies sur un même espace pro-
babilisé (Ω, A, P). On notera X(Ω) = {xi /i ∈ I} et Y (Ω) = {yj /j ∈ J} où I et J désignent N, Z ou
une de leurs parties finies.
El Arrouchi-Espaces Probabilisés 24

Définition : On appelle couple de v.a.r. discrète et on note (X, Y ) toute application de Ω


dans R2 définie par (X, Y )(ω) = (X(ω), Y (ω)).
On appelle loi du couple de v.a.r. discrètes (X, Y ), ou encore loi conjointe des variables
aléatoires X et Y , l’ensemble des couples ((xi , yj ), pi,j ) où

xi ∈ X(Ω), yj ∈ Y (Ω), pi,j = P([X = xi ] ∩ [Y = yj ]) = P (X = xi , Y = yj ) .

Définition : Soit (X, Y ) un couple de v.a.r. discrètes.

— La loi de X est appelé la première loi marginale du couple (X, Y ) et la loi de Y


est appelée la deuxième loi marginale du couple (X, Y ).
— Soit y ∈ Y (Ω) tel que P (Y = y)
 6= 0. On appelle loi
 conditionnelle de X sachant
Y = y l’ensemble des couples xi , P(Y =y) (X = xi ) pour i ∈ I.
On définit de même pour x ∈ X(Ω) la loi conditionnelle de Y sachant X = x.

Exemple 2.21 Une urne contient 2 boules blanches, 3 boules rouges et 4 boules bleues. On extrait 3 boules
de l’urne. On note X le nombre de boules blanches parmi ces 3 boules et Y le nombre de boules rouges.
Déterminons la loi du couple (X, Y ).
2 3 4 
i j 3−i−j
On a X(Ω) = {0, 1, 2} et Y (Ω) = {0, 1, 2, 3}. Ainsi, pour i + j ≤ 3, P(X = i, Y = j) = 9 .
3
On résume les résultats dans le tableau suivant
HH Y
H 0 1 2 3
X HH
H
4 1 18 3 12 1 1
0 84 = 21 84 = 14 84 = 7 84
12 1 24 2 6 1
1 84 = 7 84 = 7 84 = 14 0
4 1 3 1
2 84 = 21 84 = 28 0 0

Déterminons ensuite la loi conditionnelle de X sachant Y = 2.


- P[Y =2] (X = 2) = 0. Car on ne peut pas avoir 2 boules blanches sachant que l’on a déjà 2 boules rouges.
P(X = 1, Y = 2)
- P(Y =2) (X = 1) = . Pour obtenir P(Y = 2) on utilise la formule des probabilités totales
P(Y = 2)
avec le système complet d’événements ({X = 0}, {X = 1}, {X = 2}). On a donc :

3
P(Y = 2) = P(X = 0, Y = 2) + P(X = 1, Y = 2) + P(X = 2, Y = 2) =
14
1 14 1
Ainsi P(Y =2) (X = 1) = × =
14 3 3
P(X = 0, Y = 2) 1 14 2
- P(Y =2) (X = 0) = = × = . D’où X|Y = 2 ,→ B(1/3).
P(Y = 2) 7 3 3
El Arrouchi-Espaces Probabilisés 25

Proposition 2.22 (Formules des marginales) Soit (X, Y ) un couple de v.a.r. discrètes. Pour tout
(i, j) ∈ I × J tels que P (X = xi ) 6= 0 et P (Y = yi ) 6= 0 on a
— Lois marginales à partir de la loi du couple :
X
P(X = xi ) = P(X = xi , Y = yj )
j∈J
X
P(Y = yj ) = P(X = xi , Y = yj )
i∈I

— Lois marginales à partir des lois conditionnelles :


X
P(X = xi ) = P(Y = yj )P(Y =yj ) (X = xi )
j∈J
X
P(Y = yj ) = P(X = xi )P(X=xi ) (Y = yj )
i∈I

Exercice 17 Dans une succession de pile ou face pour laquelle la probabilité d’obtenir pile est p ∈]0, 1[ et
la probabilité d’obtenir face est q = 1 − p, on note X le rang d’apparition du premier pile et Y le rang
d’apparition du deuxième pile. Déterminer la loi du couple (X, Y ). En déduire les lois marginales.

2.22.1 Indépendance de v.a.r. discrètes

Définition : Soient X1 , . . . , Xn n v.a.r. discrètes définies sur le même espace probabilisé.


On dit que les variables X1 , . . . , Xn sont mutuellement indépendantes (ou tout simple-
ment indépendantes) lorsque pour tout (x1 , ..., xn ) ∈ X1 (Ω) × · · · × Xn (Ω) :

P ({X1 = x1 } ∩ · · · ∩ {Xn = xn }) = P(X1 = x1 ) × · · · × P(Xn = xn ).

Exemple 2.23 Un urne contient n jetons numérotés de 1 à n. On en tire deux avec remise. Soit X et Y les
variables aléatoires égales au premier et au second numéro tiré. On a pour tout 1 6 i, j 6 n, P(X = i, Y =
1
j) = 2 = P(X = i)P(Y = j) donc X et Y sont indépendantes.
n
On effectue la même expérience mais sans remise. On a alors P(X = i, Y = i]) = 0 mais P(X = i)P(Y =
1
i) = 2 , donc les variables ne sont pas indépendantes.
n

Proposition 2.24 Soient X1 , · · · , Xn n v.a.r. discrètes définies sur le même espace probabilisé.
1. X1 , · · · , Xn sont indépendantes SSI P (X1 ≤ x1 , · · · , Xn ≤ xn ) = P(X1 ≤ x1 )×· · ·×P(Xn ≤
xn ).
2. Soit p ∈ {2, ..., n − 1}. Si X1 , · · · , Xn sont indépendantes, alors toute variable aléatoire fonc-
tion des variables X1 , · · · , Xp est indépendante de toute variable aléatoire fonction des variables
Xp+1 , · · · , Xn .

Exemple 2.25 Si X1 , X2 , X3 , X4 , X5 sont 5 v.a.r. discrètes mutuellement indépendantes alors les variables
X1 + 2X32 et X2 − eX5 sont indépendantes.
El Arrouchi-Espaces Probabilisés 26

2.22.2 moments
Théorème 2.23 (Théorème de Transfert) Soit X et Y deux v.a.r. discrètes. Sous réserve d’existence,
on a, pour toute fonction réelle définie sur X(Ω) × Y (Ω),
X
E(g(X, Y )) = g(x, y)P(X = x, Y = y).
(x,y)∈X(Ω)×Y (Ω)
X
En particulier, E(XY ) = xyP(X = x, Y = y).
(x,y)∈X(Ω)×Y (Ω)

Corollaire 2.26 Soit X, Y deux v.a.r. discrètes admettant une espérance et a, b deux réels. Alors

E(aX + bY ) = aE(X) + bE(Y ).

Théorème 2.24 (Inégalité de Cauchy-Schwarz) Si X et Y ont des moments d’ordre 2

|E(XY )| ≤ (EX 2 )1/2 (EY 2 )1/2 .

Définition : Soient X et Y deux v.a.r. discrètes admettant un moment d’ordre 2.


— On appelle covariance de X et de Y le nombre réel Cov(X, Y ) =
E [(X − E(X))(Y − E(Y ))].
Remarquons que Cov(X, X) = V(X).
— On appelle coefficient de corrélation linéaire de X et Y le réel ρ(X, Y ) =
Cov(X, Y )
.
σ(X)σ(Y )

Proposition 2.27 (Propriétés de la covariance) Pour tout couple (X, Y ) de v.a.r. discrètes ayant des
moments d’ordre 2 :
1. Cov(X, Y ) = Cov(Y, X).
2. Cov(X, Y ) = E(XY ) − E(X)E(Y ) (formule souvent utilisable dans le calcul).
3. Pour tous réels a, b, c, d : Cov(aX + b, cY + d) = acCov(X, Y ).
4. |Cov(X, Y )| ≤ σ(X)σ(Y ), i.e., |ρ(X, Y ) ≤ 1.
5. Si X et Y sont indépendantes alors Cov(X, Y ) = 0 (réciproque fausse).

Remarque 2.25 Il résulte facilement du cas d’égalité dans l’inégalité de Cauchy-Schwarz que si |ρ| = 1,
alors Y est une fonction affine de X : Y = aX + b. Quand ρ = 0 (ce qui arrive en particulier lorsque X et
Y sont indépendantes), on dit que X et Y sont non corrélées.

Exemple 2.28 Reprenons l’exemple 2.21 et calculons la covariance de X et Y . En déterminant les lois
1 2 2 15 6 3
marginales de X et Y , on trouve E(X) = + = et E(Y ) = + + = 1.
2 12 3 28 14 84
51 2 3 1 1 2 1
De même, E(XY ) = 0 × +1× +2× = . Donc Cov(X, Y ) = − = − .
84 7 28 2 2 3 6
El Arrouchi-Espaces Probabilisés 27

Proposition 2.29 Soient X1 , · · · , Xn des v.a.r. discrètes admettant toutes un moment d’ordre 2. Alors
la variable X1 + · · · + Xn admet une variance et
n
X X
V(X1 + · · · + Xn ) = V(Xi ) + 2 Cov(Xi , Xj ).
i=1 16i<j6n

Si les X1 , · · · , Xn sont indépendantes, alors


n
X
V(X1 + · · · + Xn ) = V(Xi ).
i=1

2.26 Variables aléatoires à densité


2.26.1 Définitions et propriétés

Définition : On dit qu’une v.a.r. X est à densité si


1. FX est continue sur R,
2. FX est de classe C 1 sur R sauf éventuellement en un nombre fini de points.

Remarque 2.27 Remarquez que dans le cas des variables aléatoires discrètes, FX n’est jamais continue.
Ces variables aléatoires ne sont donc pas des variables aléatoires à densité.
Les variables aléatoires continues qui ne sont pas à densité ne sont pas au programme de cette année.

Définition : Soit X une v.a.r. à densité. Une densité de probabilité de X est une fonction
fX : R 7→ R telle que
1. fX est positive sur R,
2. fX est continue sur R, sauf éventuellement en un nombre fini de points,
Z x
3. ∀x ∈ R, FX (t) = fX (t)dt.
−∞
Une définition équivalente est la suivante :
si X est une v.a.r. à densité de fonction de répartition FX , alors toute fonction positive
qui vaut FX0 (x) partout sauf en un nombre fini de points est une densité de X.

Théorème 2.28 Soit f une fonction vérifiant les propriétés suivantes


1. f est positive sur R,
2. f est continue sur R, sauf éventuellement en un nombre fini de points,
Z +∞
3. f (t)dt = 1.
−∞
Alors f est la Zdensité de probabilité d’une v.a.r. X dont la fonction de répartition est donnée par : ∀x ∈
x
R, FX (x) = f (t)dt.
−∞
El Arrouchi-Espaces Probabilisés 28

3/2
 
Exemple 2.30 On considère la fonction F définie sur R par F (x) = 1+|x|2 /x 1{0≤|x|≤1} + 1{x>1} .
Montrer que F est la fonction de répartition d’une v.a.r. à densité et en déterminer une densité. Par opéra-
tions, on voit que F est continue sur R et de classe C 1 sur R \ {−1, 0, 1} avec

1
F 0 (x) = p 1{0<|x|<1} .
4 |x|

Comme F est continue, F est bien croissante sur R, lim F (x) = 0 et lim F (x) = 1, on peut donc dire
x→−∞ x→+∞
que F est la fonction de répartition d’une variable aléatoire X.
Ainsi, F est de classe C 1 sur R \ {−1, 0, 1}, X est donc bien une variable à densité et une densité de X est
par exemple f (x) = F 0 (x) = √1 1{0<|x|<1} .
4 |x|

Proposition 2.31 Soit X une v.a.r. admettant la densité fX .


Z x
1. Pour tout x ∈ R : P(X ≤ x) = P(X < x) = FX (x) = fX (t)dt,
−∞
Z +∞
2. Pour tout x ∈ R : P(X ≥ x) = P(X > x) = 1 − FX (x) = fX (t)dt,
x
3. Pour tous a ≤ b :
Z b
P(a < X < b) = P(a ≤ X < b) = P(a < X ≤ b) = P(a ≤ X ≤ b) = fX (t)dt,
a
Z x
4. En particulier, pour tout x ∈ R : P(X = x) = fX (t)dt = 0.
x

Remarque 2.29 On rappelle que la loi d’une v.a.r. est la donnée des probabilités P(X ∈ I) pour tout
intervalle I. D’après les propriétés ci-dessus, une densité fX détermine donc la loi de X.

2.29.1 Moments d’une v.a.r. à densité

+∞ R
Définition : Soit X une v.a.r. de densité fX . Si l’intégrale −∞ tfX (t) dt est absolument
convergente alors on dit que X admet une espérance que l’on note E(X) et on a
Z +∞
E(X) = tfX (t) dt.
−∞

Exemple 2.32 Soit f1 et f2 les fonctions définies sur R par f1 (x) = e−x 1R+ ∗
(x) et f2 (x) = π1 1+x
1
2.
Montrer que f1 et f2 sont resp. des densités de probabilités des v.a.r. X et Y . X et Y admettent-elles des
espérances ? Si oui, les calculer.

Proposition 2.33 Soient X et Y deux v.a.r. à densité admettant une espérance, et si a, b sont des réels :
E(aX + b) = aE(X) + b et E(X + Y ) = E(X) + E(Y )
El Arrouchi-Espaces Probabilisés 29

Théorème 2.30 (Théorème de transfert) . Soit g une fonction qui va de R dans R. Alors on a
Z +∞
E(g(X)) existe ssi l’intégrale g(t)fX (t)dt converge absolument et dans ce cas
−∞
Z +∞
E(g(X)) = g(t)fX (t)dt.
−∞
Z +∞
Par exemple, E X 2 = t2 fX (t)dt.

−∞

Définition : R +∞ r
— Soit r ∈ N∗ . Si l’intégrale −∞ x f (x) dx est absolument convergente alors on dit
que X admet un moment d’ordre r, noté mr (X) et on a
Z +∞
r
mr (X) = E(X ) = xr fX (x) dx.
−∞

— Si X admet un moment d’ordre 2, on appelle variance de X le réel


 
V(X) = E (X − E(X))2 ,
p
et écart-type le réel σ(X) = V(X).

Proposition 2.34 Soit X une variable à densité.


— Si X admet un moment d’ordre r, alors X admet un moment d’ordre s pour tout s inférieur à r.
— Si X admet un moment d’ordre 2. Alors pour tout réels a et b, aX + b admet une variance et
V(aX + b) = a2 V(X).

Remarque 2.31 Pour le calcul de variance dans la pratique on utilisera souvent la formule suivante V(X) =
E(X 2 ) − E2 (X).

Exemple 2.35 Soit X une v.a.r. ayant comme densité la fonction fX (x) = e−x 1R+ ∗
(x). Nous avons vu que
E(X) = 1. X admet-elle une variance R0
? Si oui, la calculer.
Sur ] − ∞, 0], |x2 fX (x)| = 0 donc −∞ |x2 fX (x)| dx converge.
Sur ]0, +∞[, |x2 f (x)| = x 2 e−x . La fonction x → x2 e−x est continue sur ]0, +∞[. De plus, au voisinage
1

de +∞, on a x2 e−x = o . Par comparaison à une intégrale de Riemann convergente, l’intégrale
R +∞ 2 x2
0 |x fX (x)| dx est convergente.
R +∞ 2
Donc l’intégrale −∞ x f (x) dx est absolument convergente ainsi X admet un moment d’ordre 2 et donc
une variance. De plus, on obtient par des simples intégrations par partie que
Z +∞ Z +∞ h i+∞
2
E(X ) = 2
x f (x) dx = x2 e−x dx = −(x2 + 2x + 2)e−x = 2.
−∞ 0 0

Donc V(X) = E(X 2 ) − E2 (X) = 2 − 12 = 1.


El Arrouchi-Espaces Probabilisés 30

2.32 Lois à densité usuelles


On introduit ici certaines lois usuelles (qui reviennent souvent dans les exercices) pour des v.a.r. à
densité. Les résultats pourront ensuite être réutilisés sans démonstration dans les exercices. Pour
chaque loi usuelle, il faudra connaître par cœur la notation (et ses paramètres éventuels), l’univers
image X(Ω), une fonction densité (et éventuellement la fonction de répartition), l’espérance et la
variance.

2.32.1 Loi uniforme U([a, b])


Il s’agit ici de la loi la plus simple pour les variables aléatoires à densité. Elle correspond au fait de
choisir au hasard un réel dans un segment [a; b].

Définition : Soient a et b deux réels tels que a < b. On dit qu’une v.a.r. X suit la loi
uniforme sur [a, b], et on note X ,→ U([a, b]), si elle admet pour densité la fonction fX
définie par
 1

1 si x ∈ [a, b]
fX (x) = 1[a,b] (x) = b − a .
b−a 
0 sinon

Proposition 2.36 Soit X une v.a.r. à densité telle que X ,→ U([a, b]). Alors on a
1. X(Ω) = [a, b].
a+b (b − a)2
2. E(X) = et V(X) = .
2 12


 0 si x 6 a
x − a

3. FX (x) = P(X ≤ x) = si a < x < b .


 b−a
1 si x > b

2.32.2 Loi exponentielle E(λ)

Définition : X suit une loi exponentielle de paramètre λ > 0, et on note X ,→ E(λ),


lorsque qu’elle admet pour densité la fonction fX définie sur R par

 λe−λx si x ∈ [0, +∞[,
fX (x) = λe−λx 1R+ (x) = .
 0 sinon.

Proposition 2.37 Soit X une v.a.r. à densité telle que X ,→ E(λ). Alors on a
1. X(Ω) = R+ .
1 1
2. E(X) = et V(X) = 2 .
λ λ
(
0 si x < 0,
3. FX (x) = P(X ≤ x) = (1 − e−λx )1 R+ (x) =
1 − e−λx si x > 0.
El Arrouchi-Espaces Probabilisés 31

2.32.3 Loi gamma γ(a, λ)

Définition : X suit une loi gamma de paramètre a > 0 et λ > 0, et on note X ,→ γ(a, λ),
lorsque qu’elle admet pour densité la fonction fX définie sur R par

a
λa a−1 −λx  λ xa−1 e−λx si x ∈ [0, +∞[,
Γ(a)
fX (x) = x e 1R+ (x) = ,
Γ(a)  0 sinon.

où Γ(a) = 0∞ xa−1 e−x dx est la fonction gamma. Γ(1/2) =
R
π, Γ(1) = 1. Pour tout x > 0,
on a Γ(x + 1) = xΓ(x), d’où Γ(n + 1) = n!, ∀ n ∈ N.

Proposition 2.38 Soit X une v.a.r. à densité telle que X ,→ γ(a, λ). Alors on a
1. X(Ω) = R+ .
a a
2. E(X) = et V(X) = 2 .
λ λ

2.32.4 Loi normale ou loi gaussienne N (µ, σ 2 )


Le résultat qui suit permet d’introduire la loi normale via la loi binomiale. L’intérêt est de com-
prendre pourquoi la loi normale est si naturelle (notamment car la loi binomiale l’est). En revanche,
il n’est pas nécessaire d’avoir tout cela en tête dès qu’on utilise la loi normale.

Théorème 2.33 (Moivre-Laplace) Soit Sn une v.a.r de loi binomiale de paramètres n et p (Sn ,→
Sn − np
B(n, p)) et Sn∗ = p sa v.a.r. centrée réduite associée.
np(1 − p)
Pour tous réel a < b fixés
Z b
1 2
lim P(a ≤ Sn∗ ≤ b) = √ e−t /2 dt.
n→+∞ a 2π

De Moivre a donné la première version de ce théorème en 1733. Laplace (1812) prouva plus tard
le même résultat par une méthode différente en obtenant une évaluation de la vitesse de conver-
gence.

Définition : On dit que X suit la loi normale de paramètres µ et σ 2 , et on note X ,→


N µ, σ 2 si elle admet pour densité la fonction fX définie sur R par


2
1 1 (x−µ)
fX (x) = √ e− 2 σ2 .
σ 2π
La loi N (0, 1) est appelée loi normale standard (ou centrée réduite).

Remarque 2.34 En raison de la décroissance rapide de l’exponentielle, il est clair que les variables gaus-
siennes ont des moments de tout ordre. L’interprétation des paramètres µ et σ est très simple.
El Arrouchi-Espaces Probabilisés 32

Proposition 2.39
1. Si la v.a.r. X suit la loi N (µ, σ 2 ), alors E(X) = µ et V(X) = σ 2 .
X −µ
2. X ,→ N µ, σ 2 ⇐⇒ X ∗ =

,→ N (0, 1) .
σ

Remarque 2.35
— Tous les calculs de probabilités concernant une v.a.r. de loi N µ, σ 2 peuvent se ramener à des calculs


sur une v.a.r. de loi normale standard N (0, 1).


— Pour une v.a. gaussienne, la fonction de répartition ne se calcule pas à l’aide des fonctions usuelles.
Si on note Φ la fonction de répartition de la loi gaussienne centrée réduite, des tables donnent des
valeurs approchées de Φ(t) pour t > 0 et des valeurs approchées de t pour une probabilité donnée
p = Φ(t) (voir les tables ci-après). En remarquant que Φ(−t) = 1 − Φ(t), on peut en déduire des
valeurs approchées de Φ(t) pour les valeurs négatives de t.

2.35.1 Approximation de la loi binomiale par une loi normale


D’après Moivre-Laplace, la loi binomiale B(n, p) peut être approchée par la loi normale N (np, np(1−
p)). En pratique, on utilise cette approximation lorsque n ≥ 30, np ≥ 15 et np(1 − p) > 5.

Correction de continuité
Si la variable aléatoire X suit la loi binomiale B(n, p) , alors la variable aléatoire X prend des va-
leurs entières positives entre 0 et n. Remplacer la loi binomiale B(n, p) par la loi normale N (np, np(1−
p)) revient à considérer la variable aléatoire X comme une variable qui prend donc toutes les va-
leurs réelles. L’intervalle [k − 0, 5; k + 0, 5[ est l’ensemble des nombres réels qui s’arrondissent à k,
c’est-a-dire pour k ∈ [[1, n − 1]], nous remplacerons P(X = k) par P(k − 0, 5 ≤ X < k + 0, 5).

Remarque 2.36 Pour que la somme des valeurs approchées des P(X = k), k variant de 0 à n, soit égale à
1, nous remplacerons P(X = 0) par P(X < 0, 5) et P(X = n) par P(n − 0, 5 ≤ X).
El Arrouchi-Espaces Probabilisés 33

Table 1 : Fonction de répartition de la loi normale centrée réduite


Z t
1 2
Φ(t) = P (N (0, 1) ≤ t) = √ e−x /2 dx
−∞ 2π
t 0 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0 0,5 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,5279 0,53188 0,53586
0,1 0,53983 0,5438 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535
0,2 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409
0,3 0,61791 0,62172 0,62552 0,6293 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173
0,4 0,65542 0,6591 0,66276 0,6664 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793
0,5 0,69146 0,69497 0,69847 0,70194 0,7054 0,70884 0,71226 0,71566 0,71904 0,7224
0,6 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,7549
0,7 0,75804 0,76115 0,76424 0,7673 0,77035 0,77337 0,77637 0,77935 0,7823 0,78524
0,8 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327
0,9 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891
1 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214
1,1 0,86433 0,8665 0,86864 0,87076 0,87286 0,87493 0,87698 0,879 0,881 0,88298
1,2 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147
1,3 0,9032 0,9049 0,90658 0,90824 0,90988 0,91149 0,91309 0,91466 0,91621 0,91774
1,4 0,91924 0,92073 0,9222 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189
1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408
1,6 0,9452 0,9463 0,94738 0,94845 0,9495 0,95053 0,95154 0,95254 0,95352 0,95449
1,7 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,9608 0,96164 0,96246 0,96327
1,8 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062
1,9 0,97128 0,97193 0,97257 0,9732 0,97381 0,97441 0,975 0,97558 0,97615 0,9767
2 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,9803 0,98077 0,98124 0,98169
2,1 0,98214 0,98257 0,983 0,98341 0,98382 0,98422 0,98461 0,985 0,98537 0,98574
2,2 0,9861 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,9884 0,9887 0,98899
2,3 0,98928 0,98956 0,98983 0,9901 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158
2,4 0,9918 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361
2,5 0,99379 0,99396 0,99413 0,9943 0,99446 0,99461 0,99477 0,99492 0,99506 0,9952
2,6 0,99534 0,99547 0,9956 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643
2,7 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,9972 0,99728 0,99736
2,8 0,99744 0,99752 0,9976 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807
2,9 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861
3 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,999
3,1 0,99903 0,99906 0,9991 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929
3,2 0,99931 0,99934 0,99936 0,99938 0,9994 0,99942 0,99944 0,99946 0,99948 0,9995
3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,9996 0,99961 0,99962 0,99964 0,99965
3,4 0,99966 0,99968 0,99969 0,9997 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
3,5 0,99977 0,99978 0,99978 0,99979 0,9998 0,99981 0,99981 0,99982 0,99983 0,99983
3,6 0,99984 0,99985 0,99985 0,99986 0,99986 0,99987 0,99987 0,99988 0,99988 0,99989
3,7 0,99989 0,9999 0,9999 0,9999 0,99991 0,99992 0,99992 0,99992 0,99992 0,99992
3,8 0,99993 0,99993 0,99993 0,99994 0,99994 0,99994 0,99994 0,99995 0,99995 0,99995
3,9 0,99995 0,99995 0,99996 0,99996 0,99996 0,99996 0,99996 0,99996 0,99997 0,99997
El Arrouchi-Espaces Probabilisés 34

On a, par exemple P(X ≤ 1, 56) = Φ(1, 56) ≈ 0, 9406 (voir les nombres encadrés). Pour les valeurs
négatives, on se sert de la propriété Φ(−t) = 1 − Φ(t).
El Arrouchi-Espaces Probabilisés 35

Table 2 : Fractiles de la loi normale centrée réduite


Il s’agit de la table réciproque de la table précédente. On cherche, en fonction d’une valeur p
donnée, à connaître le nombre xp , appelé fractile d’ordre p (quantile d’ordre p) vérifiant
Φ(xp ) = p.
Pour p < 0.5 (colonne de gauche et ligne supérieure), les fractiles sont négatifs.
Pour p > 0.5 (colonne de droite et ligne inférieure), les fractiles sont positifs.
El Arrouchi-Espaces Probabilisés 36

p 0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01
0 infini 3.0902 2.8782 2.7478 2.6521 2.5758 2.5121 2.4573 2.4089 2.3656 2.3263 0.99
0.01 2.3263 2.2904 2.2571 2.2262 2.1973 2.1701 2.1444 2.1201 2.0969 2.0748 2.0537 0.98
0.02 2.0537 2.0335 2.0141 1.9954 1.9774 1.9600 1.9431 1.9268 1.9110 1.8957 1.8808 0.97
0.03 1.8808 1.8663 1.8522 1.8384 1.8250 1.8119 1.7991 1.7866 1.7744 1.7624 1.7507 0.96
0.04 1.7507 1.7392 1.7279 1.7169 1.7060 1.6954 1.6849 1.6747 1.6646 1.6546 1.6449 0.95
0.05 1.6449 1.6352 1.6258 1.6164 1.6072 1.5982 1.5893 1.5805 1.5718 1.5632 1.5548 0.94
0.06 1.5548 1.5464 1.5382 1.5301 1.5220 1.5141 1.5063 1.4985 1.4909 1.4833 1.4758 0.93
0.07 1.4758 1.4684 1.4611 1.4538 1.4466 1.4395 1.4325 1.4255 1.4187 1.4118 1.4051 0.92
0.08 1.4051 1.3984 1.3917 1.3852 1.3787 1.3722 1.3658 1.3595 1.3532 1.3469 1.3408 0.91
0.09 1.3408 1.3346 1.3285 1.3225 1.3165 1.3106 1.3047 1.2988 1.2930 1.2873 1.2816 0.90
0.10 1.2816 1.2759 1.2702 1.2646 1.2591 1.2536 1.2481 1.2426 1.2372 1.2319 1.2265 0.89
0.11 1.2265 1.2212 1.2160 1.2107 1.2055 1.2004 1.1952 1.1901 1.1850 1.1800 1.1750 0.88
0.12 1.1750 1.1700 1.1650 1.1601 1.1552 1.1503 1.1455 1.1407 1.1359 1.1311 1.1264 0.87
0.13 1.1264 1.1217 1.1170 1.1123 1.1077 1.1031 1.0985 1.0939 1.0893 1.0848 1.0803 0.86
0.14 1.0803 1.0758 1.0714 1.0669 1.0625 1.0581 1.0537 1.0494 1.0451 1.0407 1.0364 0.85
0.15 1.0364 1.0322 1.0279 1.0237 1.0194 1.0152 1.0110 1.0069 1.0027 0.9986 0.9945 0.84
0.16 0.9945 0.9904 0.9863 0.9822 0.9782 0.9741 0.9701 0.9661 0.9621 0.9581 0.9542 0.83
0.17 0.9542 0.9502 0.9463 0.9424 0.9385 0.9346 0.9307 0.9269 0.9230 0.9192 0.9154 0.82
0.18 0.9154 0.9116 0.9078 0.9040 0.9002 0.8965 0.8927 0.8890 0.8853 0.8816 0.8779 0.81
0.19 0.8779 0.8742 0.8706 0.8669 0.8632 0.8596 0.8560 0.8524 0.8488 0.8452 0.8416 0.80
0.20 0.8416 0.8381 0.8345 0.8310 0.8274 0.8239 0.8204 0.8169 0.8134 0.8099 0.8064 0.79
0.21 0.8064 0.8030 0.7995 0.7961 0.7926 0.7892 0.7858 0.7824 0.7790 0.7756 0.7722 0.78
0.22 0.7722 0.7688 0.7655 0.7621 0.7588 0.7554 0.7521 0.7488 0.7454 0.7421 0.7388 0.77
0.23 0.7388 0.7356 0.7323 0.7290 0.7257 0.7225 0.7192 0.7160 0.7128 0.7095 0.7063 0.76
0.24 0.7063 0.7031 0.6999 0.6967 0.6935 0.6903 0.6871 0.6840 0.6808 0.6776 0.6745 0.75
0.25 0.6745 0.6713 0.6682 0.6651 0.6620 0.6588 0.6557 0.6526 0.6495 0.6464 0.6433 0.74
0.26 0.6433 0.6403 0.6372 0.6341 0.6311 0.6280 0.6250 0.6219 0.6189 0.6158 0.6128 0.73
0.27 0.6128 0.6098 0.6068 0.6038 0.6008 0.5978 0.5948 0.5918 0.5888 0.5858 0.5828 0.72
0.28 0.5828 0.5799 0.5769 0.5740 0.5710 0.5681 0.5651 0.5622 0.5592 0.5563 0.5534 0.71
0.29 0.5534 0.5505 0.5476 0.5446 0.5417 0.5388 0.5359 0.5330 0.5302 0.5273 0.5244 0.70
0.30 0.5244 0.5215 0.5187 0.5158 0.5129 0.5101 0.5072 0.5044 0.5015 0.4987 0.4958 0.69
0.31 0.4958 0.4930 0.4902 0.4874 0.4845 0.4817 0.4789 0.4761 0.4733 0.4705 0.4677 0.68
0.32 0.4677 0.4649 0.4621 0.4593 0.4565 0.4538 0.4510 0.4482 0.4454 0.4427 0.4399 0.67
0.33 0.4399 0.4372 0.4344 0.4316 0.4289 0.4261 0.4234 0.4207 0.4179 0.4152 0.4125 0.66
0.34 0.4125 0.4097 0.4070 0.4043 0.4016 0.3989 0.3961 0.3934 0.3907 0.3880 0.3853 0.65
0.35 0.3853 0.3826 0.3799 0.3772 0.3745 0.3719 0.3692 0.3665 0.3638 0.3611 0.3585 0.64
0.36 0.3585 0.3558 0.3531 0.3505 0.3478 0.3451 0.3425 0.3398 0.3372 0.3345 0.3319 0.63
0.37 0.3319 0.3292 0.3266 0.3239 0.3213 0.3186 0.3160 0.3134 0.3107 0.3081 0.3055 0.62
0.38 0.3055 0.3029 0.3002 0.2976 0.2950 0.2924 0.2898 0.2871 0.2845 0.2819 0.2793 0.61
0.39 0.2793 0.2767 0.2741 0.2715 0.2689 0.2663 0.2637 0.2611 0.2585 0.2559 0.2533 0.60
0.40 0.2533 0.2508 0.2482 0.2456 0.2430 0.2404 0.2378 0.2353 0.2327 0.2301 0.2275 0.59
0.41 0.2275 0.2250 0.2224 0.2198 0.2173 0.2147 0.2121 0.2096 0.2070 0.2045 0.2019 0.58
0.42 0.2019 0.1993 0.1968 0.1942 0.1917 0.1891 0.1866 0.1840 0.1815 0.1789 0.1764 0.57
0.43 0.1764 0.1738 0.1713 0.1687 0.1662 0.1637 0.1611 0.1586 0.1560 0.1535 0.1510 0.56
0.44 0.1510 0.1484 0.1459 0.1434 0.1408 0.1383 0.1358 0.1332 0.1307 0.1282 0.1257 0.55
0.45 0.1257 0.1231 0.1206 0.1181 0.1156 0.1130 0.1105 0.1080 0.1055 0.1030 0.1004 0.54
0.46 0.1004 0.0979 0.0954 0.0929 0.0904 0.0878 0.0853 0.0828 0.0803 0.0778 0.0753 0.53
0.47 0.0753 0.0728 0.0702 0.0677 0.0652 0.0627 0.0602 0.0577 0.0552 0.0527 0.0502 0.52
0.48 0.0502 0.0476 0.0451 0.0426 0.0401 0.0376 0.0351 0.0326 0.0301 0.0276 0.0251 0.51
0.49 0.0251 0.0226 0.0201 0.0175 0.0150 0.0125 0.0100 0.0075 0.0050 0.0025 0.0000 0.50
0.01 0.009 0.008 0.007 0.006 0.005 0.004 0.003 0.002 0.001 0 p
El Arrouchi-Espaces Probabilisés 37

On peut se servir de la relation suivante xp = −x1−p . Par exemple, x0,975 = 1, 96 et x0,025 = −1, 96.
El Arrouchi-Espaces Probabilisés 38

2.36.1 Loi du khi-deux χ2 (n) et loi de Student

Définition : On dit que X suit la loi du khi-deux à n degrés de liberté, et on note


X ,→ χ2 (n) si elle admet pour densité la fonction fX définie sur R par

1 n x
fX (x) = n
n
x 2 −1 e− 2 1R+ (x),
2 Γ( 2 )
2

R ∞ a−1 −x
où Γ(a) = 0 x e dx est la fonction gamma.

Remarque 2.37
— On remarque que χ2 (n) = γ(n/2, 1/2). Donc E(χ2 (n)) = n et V(χ2 (n)) = 2n.
— On peut démontrer de même que la loi du khi-deux χ2 (n) est la loi de la somme de carré de n lois
normales centrées réduites indépendantes.

Si X est une v.a. de loi normale centrée et réduite et Y suit une loi du khi-deux à n degrés de liberté,
X et Y étant indépendantes, alors la loi de Tn = √X est appelée loi de Student à n degrés de
Y /n
liberté. Sa densité est donnée par
!− n+1
1 Γ( n+12 ) t2 2
fTn (t) = √ 1 + , pour tout t ∈ R.
nπ Γ( n2 ) n

E(Tn ) ne peut pas être définie pour n = 1, et est nulle pour n > 1. V(Tn ) est infinie pour n = 2 et
n
vaut n−2 pour n > 2.

Si X suit une loi du khi-deux à n degrés de liberté, et Y une loi du khi-deux à m degrés de liberté,
et si X et Y sont indépendantes, alors la loi de Fn,m = YX/n /m est appelée loi de Fisher à n et m
degrés de liberté. Sa densité est donnée par
 n/2  m/2
nx nx
n x+m 1− n x+m
f (x) = pour tout réel x > 0,
x β(n/2, m/2)
R 1 x−1
où n et m sont des entiers positifs et β(x, y) = 0 t (1 − t)y−1 dt est la fonction bêta.

m
Suivant les valeurs de m, Fn,m admet alors une espérance et une variance qui sont E(Fn,m ) = m−2
2 m2
(n+m−2)
pour m > 2 et V(Fn,m ) = n(m−2)2 (m−4)
pour m > 4.

2.38 Travaux dirigés


Exercice 1 Un concierge possède un trousseau de 10 clés dont une seule permet d’ouvrir la porte qu’il a en
face de lui. Soit X le nombre de clés essayées pour ouvrir la porte.
1. Déterminer la loi de X (envisager 2 cas : avec ou sans remise).
2. Le concierge est ivre un jour sur trois, et quand il est ivre, il essaie les clés au hasard avec remise,
sinon il procède sans remise. Sachant qu’un jour 8 essais ont été nécessaires pour ouvrir la porte,
quelle est la probabilité que le concierge ait été ivre ce jour là ?
El Arrouchi-Espaces Probabilisés 39

Exercice 2 On choisit un nombre N au hasard entre 1 et 4, puis un nombre X au hasard entre 1 et N .


Quelle est la loi de X ?

Exercice 3 Paris est interdit à la circulation pour laisser le champ libre aux voitures officielles. Entre l’Étoile
et Orly, il y a treize feux tricolores qui fonctionnent de manière indépendante. Chacun est rouge un tiers du
temps. Soit X le nombre de feux rouges qu’une escorte de motards ignore sur son passage, de l’Étoile à Orly.
Déterminer l’espérance et l’écart-type de X.

Exercice 4 Un jeu consiste à lancer une pièce (ayant une probabilité p ∈]0, 1[ de tomber sur Pile) jusqu’à
obtenir Pile, soit k le nombre de lancers nécessaires, et ensuite à lancer k fois un dé équilibré. La partie est
gagnante si exactement un six a été obtenu.
1. Quelle est la probabilité de gagner ?
2. Comment truquer la pièce pour avoir le maximum de chances de gagner ?

Exercice 5 Une personne A (respectivement une personne B) lance au hasard n + 1 (respectivement n) fois
de façon indépendante une pièce de monnaie parfaitement équilibrée (n ≥ 1).
1. Calculer la probabilité pour que la personne A aie plus de faces que B.
2. Commenter.

Exercice 6 1. Soient X et Y deux variables aléatoires indépendantes de lois binomiales respectives


B(n, p) et B(m, p). Montrer que X + Y suit la loi binomiale B(n + m, p).
2. Soient X et Y deux variables aléatoires indépendantes de lois de Poisson de paramètres respectifs λ
et λ0 . Montrer que X + Y suit la loi de Poisson de paramètre λ + λ0 .

Exercice 7 Un représentant de commerce vendant des panneaux solaires visite un nombre aléatoire N de
clients chaque jour. On suppose que N suit une loi de Poisson de paramètre λ. La probabilité qu’un client
visité achète un panneau solaire est p ∈]0, 1[, et est indépendante des décisions des autres clients. Soit Y le
nombre de panneaux solaires vendus en une journée.
1. Calculer pour tout k ∈ N la probabilité conditionnelle P(Y = k|N = n), i.e. la probabilité que parmi
n clients visités, k clients exactement achètent un panneau solaire.
2. En déduire la loi de Y , i.e. pour tout k ∈ N calculer la probabilité P(Y = k). Reconnaître cette loi.
3. Calculer P(N = n|Y = k).
4. En déduire que la loi conditionnelle de N − k sachant que Y = k suit une loi de Poisson dont on
précisera le paramètre.

Exercice 8 On classe les gérants de portefeuilles de valeurs boursières en deux catégories : ceux qui sont
bien informés et ceux qui ne le sont pas. Lorsqu’un gérant bien informé achète une valeur boursière pour
son client, la probabilité que le cours de celle-ci monte est de 0,8 ; dans le cas d’un gérant mal informé, le
cours descend avec une probabilité 0,6. Dans l’annuaire professionnel, un gérant sur 10 est bien informé.
Un client choisit au hasard un gérant dans l’annuaire et lui demande d’acheter une valeur.
1. Quelle est la probabilité que le cours de la valeur de l’action monte ?
2. Sachant que le cours de la valeur est monté, quelle est la probabilité que le gérant choisi soit mal
informé ?
3. On suppose que les cours des valeurs fluctuent de manière indépendante. Quel est le nombre minimal
de valeurs que doivent être acheter par le gérant, s’il veut être sûr à plus de 95% qu’une valeur au
moins monte ?
El Arrouchi-Espaces Probabilisés 40

Exercice 9 Soit Y une v.a. telle que de loi uniforme sur Y ,→ U([[1, 100]]). On pose

 Y si Y ≤ 50
X=
 50 sinon.

Calculer l’espérance de X. Quelle est la loi de X ?

Exercice 10 (Loi binomiale négative) On considère un jeu de pile ou face où la probabilité d’obtenir face
est 0 < p < 1. On veut étudier la variable aléatoire Sr qui représente le nombre de lancers nécessaires pour
obtenir r fois faces.
1. (a) Quel est l’ensemble des valeurs possibles de Sr ?
(b) Calculer P(Sr = r) et P(Sr = r + 1).
(c) Donner une explication claire et simple de la formule :
r−1 r
P(Sr = k) = Ck−1 p (1 − p)k−r ,

pour k qui appartient aux valeurs possibles de Sr .

(d) Calculer E[S r (Sr + 1)] et V ar[Sr ].


 r ], E[S
r−1
Calculer E pour r ≥ 2.
Sr − 1
2. On introduit la suite de variables aléatoires (Xn )n≥0 telle que :

 S si n = 1,
1
Xn :=
 S −S si 1 < n ≤ r.
n n−1

(a) Calculer P(X1 = k1 , ..., Xr = kr ). Que peut-on en déduire sur les variables Xi ?
(b) Calculer la fonction génératrice de Sr .

Exercice 11 1. Quelle est la fonction génératrice de la loi uniforme sur {2, ..., 12} ?
2. Soit X1 et X2 des variables aléatoires indépendantes à valeurs dans {2, ..., 6}. Montrer que la loi de
X1 + X2 ne peut pas être la loi uniforme sur {2, ..., 12}.
3. Peut-on piper deux dés indépendants de façon à rendre toutes les sommes entre 2 et 12 équiprobables ?

Exercice 12 Soit ψ une application, non identiquement nulle, de N dans R, α un réel et (pi )i∈N une famille
sommable de réels strictement positifs et de somme 1.

Pour chaque couple (i, j) de N2 , on pose

pij = pi pj [1 + αψ(i)ψ(j)]. (2.1)

1.

a. Préciser les conditions que doivent vérifier α et ψ pour que la famille (pij )(i,j)∈N2 définisse une
probabilité sur (N2 , P(N2 )).
b. On suppose que ψ vérifier les inégalités

∀i ∈ N, |ψ(i)| ≤ 1. (2.2)

Montrer que, si X est une variable aléatoire réelle à valuers dans N, ψ(X) admet une espérance
mathématique.
El Arrouchi-Espaces Probabilisés 41

c. Soit γ un réel donné de [−1, 1].


c.1. Vérifier que l’application

1
ψ0 : i ∈ N 7−→ [γ i e1−γ − 1]
1 + e2
satisfait la condition (2.2).

c.2. Calculer, lorsque la loi de X est la loi de Poisson de paramètre 1, l’espérance mathématique
de ψ0 (X).
1
Dans (3.1), on choisit désormais α réel de [−1, 1], ψ = ψ0 et, pour tout i de N, pi = .
i! e
2.

a. Vérifier que la famille (pij )(i,j)∈N2 ainsi obtenue définit une probabilité Q sur l’espace (N2 , P(N2 )).
b. On considère désormais un couple (X, Y ) de v.a.r. à valeurs dans N de loi de probabilité Q.
Déterminer les lois marginales de X et Y .
c. À quelle condition X et Y sont-elles indépendantes ?
3.

a. Calculer la covariance de X et ψ0 (X), puis celle de X et Y .


b. Déterminer la fonction génératrice de (X, Y ).

Exercice 13 (2 à 2 indépendantes ; mutuellement indépendantes) Soit X et Y deux v.a.r. indépen-


dantes et identiquement distribuées (i.i.d.) de loi B(1/2). Posons Z la v.a. qui prend pour valeur 1 si X = Y
et pour valeur 0 sinon. Montrez que les v.a. X, Y et Z sont deux à deux indépendantes mais pas mutuelle-
ment indépendantes.

Exercice 14 Soient X et Y deux variables aléatoires discrètes de loi :


2
P(X = i, Y = j) = , k ≥ 1, 1 ≤ i ≤ k, 1 ≤ j ≤ i.
k(k + 1)

1. Déterminer les lois marginales de X et Y .


2. Déterminer la loi conditionnelle de X sachant Y = j.
3. Déterminer la loi conditionnelle de Y sachant X = i.
4. Calculer E(X|Y = j), Var(X|Y = j), E(Y |X = i), Var(Y |X = i). En déduire EX, Var(X), EY, Var(Y ).
5. Calculer ρ le coefficient de corrélation entre X et Y .

Exercice 15 (Une loi à densité symétrique) Soit f la fonction réelle définie par

f (x) = k|x|e−|x| , x ∈ R.

1. Quelle est la valeur de k pour que f soit une densité de probabilité ?


2. Soit X une v.a.r. dont la fonction de densité est f . Calculer l’espérance, variance et les moments mk
de X.
El Arrouchi-Espaces Probabilisés 42

Exercice 16 Soit X une variable aléatoire réelle ayant une densité f . Montrer que Y = |X| est une variable
aléatoire réelle à densité et déterminer sa densité.

Exercice 17 (Simulation des v.a.r.)


1. Soit X une v.a.r. dont la fonction de répartition F est strictement croissante et continue sur R.
Determiner la loi de Y = F (X).
2. Soit X de loi uniforme sur ]0, 1[. Soit F une fonction de répartition. On définit "F − " par

∀x ∈]0, 1[, F − (x) = inf{y/F (y) ≥ x}.

Préciser pourquoi cette définition a bien un sens, et montrer que la variable aléatoire Z = F − (X) a
pour fonction de répartition F .

Exercice 18 (Simulation d’un jeu du dé) Les personnes suivantes jouent aux dés. Certaines trichent.
Lesquelles ?

Personne A : X = [6U ] + 1.
Personne B : X = arrondi à l’unité(5U ) + 1.
Personne C : X = (Y√mod6) + 1 ; Y = [10U ].
Personne D : X = [6 U ] + 1.

où X représente le résultat du lancer d’un dé équilibré à 6 faces et U est une v. a. uniforme sur [0, 1].

Exercice 19 Soit X une variable aléatoire de loi uniforme dans [0, 1]. On pose

1−X
Z= .
X
1. Z est-elle bien définie ?
2. Calculer la fonction de répartition FZ de Z.
3. La loi de Z a-t-elle une densité ? Si oui, la calculer.
4. On brise une tige de longueur 1 en choisissant au hasard le point de rupture selon la loi uniforme
sur [0, 1]. On notera X la longueur du morceau de gauche. Quelle est la probabilité que l’un des
morceaux soit plus de deux fois plus long que l’autre ?
5. Pour quelles valeurs du réel a, la variable aléatoire Z a admet-elle une espérance ?
6. Expliquez, si possible sans calcul, pourquoi Z et Z −1 ont même loi.

Exercice 20 (Contre-exemple) Soit X une variable aléatoire gaussienne centrée réduite et  une variable
aléatoire prenant les valeurs 1 et -1 avec la probabilité 1/2. On suppose que X et  sont indépendantes.
1. Montrer que X est une variable aléatoire gaussienne centrée réduite.
2. Montrer que la corrélation linéaire entre X et X est nulle.
3. Montrer que X et X ne sont pas indépendantes.

Exercice 21 (Utilisation des tables de la loi normale standard)


1. On considère une variable aléatoire X qui suit une loi Normale N (0, 1). Calculer P(−0.56 < X <
2.00). Quelle est la variable x telle que P(−x < X < x) = 0.6827 ?
El Arrouchi-Espaces Probabilisés 43

2. On considère une variable aléatoire X qui suit une loi Normale N (609.1, 69.2). Calculer P(550 <
X < 700). Quelle est la variable x telle que P(X > x) = 0.01 ?

Exercice 22 (Utilisation des tables de la loi normale standard) On suppose que la distance en mètres
parcourue par un javelot suit une loi normale. Au cours d’un entraînement, on constate que :
— 10% des javelots atteignent plus de 75 mètres.
— 25% des javelots parcourent moins de 50 mètres.
Calculer la longueur moyenne parcourue par un javelot ainsi que l’écart-type de cette longueur.

Exercice 23 (Approximations) En France, la proportion des camping-cars par rapport à l’ensemble des
véhicules est égale à 0,07.
1. Soit X le nombre des camping-cars parmi 100 véhicules choisis au hasard sur un parking contenant
2000 véhicules. Calculez P(X ≥ 5).
2. Soit Y le nombre de camping-cars parmi 1000 véhicules circulant sur le boulevard périphérique d’une
grande ville à une heure d’affluence. Nous supposerons que N ≥ 20000. Calculez P(65 ≤ Y ≤ 75).
3. Nous choisissons n véhicules au hasard. Déterminez pour quelle valeur de n nous pouvons affirmer
que la proportion des camping-cars parmi ces n véhicules est comprise entre 0,06 et 0,08 avec un
risque d’erreur inférieur à 0,05.
Chapitre 3

Statistique descriptive

La statistique descriptive est un ensemble des méthodes permettant à décrire, traiter et interpréter
des ensembles des données. Cette description des données se fait à travers deux approches : gra-
phique et numérique. Dans ces deux approches, aucune hypothèse probabiliste n’est faite sur les
données considérées, il n’est pas nécessaire de supposer que les données observées proviennent
par exemple d’une loi de probabilité.

3.1 Définitions de base


L’ensemble étudié est appelé population. Les éléments de la population sont appelés individus
ou unités statistiques. La population est étudiée selon un ou plusieurs variables statistiques ou
caractères statistiques.

Échantillon est un sous-ensemble de la population dont les individus feront l’objet de l’étude.
Le choix de l’échantillon se fait en respectant certaines règles (théorie des sondages).

La valeur prise par la variable sur un individu est appelée modalité ou observation.
Les Données sont constituées par l’ensemble des modalités (série statistique, tableaux, fichiers,
données primaires).

3.2 Types de variables statistiques


On distingue deux sortes de variables ou caractères :

— Les variables quantitatives ;


— Les variables qualitatives

3.2.1 Variable qualitative


La variable est dite qualitative quand les modalités sont des catégories.

— Variable qualitative nominale : La variable est dite qualitative nominale quand les modali-
tés ne peuvent pas être ordonnées. Exemple : Nationalité, Sexe, Couleur, Groupes sanguins,
etc

44
El Arrouchi-Espaces Probabilisés 45

— Variable qualitative ordinale : La variable est dite qualitative ordinale quand les modalités
peuvent être ordonnées. Exemple : Mention à un examen, Catégorie socioprofessionnelle
de modalités : "ouvriers", "employés", "cadres", etc.

3.2.2 Variable quantitative


Une variable est dite quantitative si toute ses modalités sont numériques.

— Variable quantitative discrète : Une variable est dite discrète, si l’ensemble des modalités
est discret (valeurs isolées). Exemple : Nombre d’enfants par famille, le nombre d’accidents,
etc.

— Variable quantitative continue : Une variable est dite continue, si l’ensemble des modalités
est continu. Exemple : le poids, la taille, la température, le taux de glycémie, le rendement,
etc.

3.3 Distributions statistiques : Effectifs, fréquences


Lorsque le recueil des données a été effectué, on associe, à chaque modalité prise par le caractère
étudié, son effectif ou fréquence absolue (nombre d’apparitions de cette modalité dans les don-
nées). Pour les variables continues, les modalités sont des classes ou des intervalles.

Notation : les variables seront notées par des lettres majuscules X, Y , Z... ; on note leurs modalités
par des lettres minuscules xi , yj , zl ... et les effectifs associés par ni , nj , nl ...

Exemple : X = sexe, x1 = féminin, x2 = masculin, n1 = nombre de femmes, n2 = nombre d’hommes.

Pour les variables continues, on commence par ranger les observations en classes, celles-ci étant
des intervalles de la forme [ai−1 , ai [. Ensuite, pour chaque classe, on compte le nombre d’individus
dont le caractère appartient à la classe : ce nombre est l’effectif de la classe. On note k le nombre
de classes.
La répartition en classes des données nécessite de définir a priori le nombre de classes k et donc
l’amplitude de chaque classe. En règle générale, on choisit au moins cinq classes de même ampli-
tude. Cependant, il existent des formules qui nous permettent d’établir le nombre de classes pour
une série statistique de N observations.
— La règle de Sturge : k = 1√ + (3.3 log10 (N )).
— La règle de Yule : k = 2.5 4 N .
L’amplitude de classe est donc (xmax − xmin )/k, où xmax (resp. xmin ) désigne la plus grande (resp.
la plus petite) modalité.

Définition : On appellera distribution statistique des effectifs de la variable X :


— l’ensemble des données (xi , ni ), i = 1, · · · , k si X est une variable qualitative ou
discrète,
— l’ensemble des données ([ai−1 , ai [, ni ), i = 1, · · · , k si X est une variable continue.
El Arrouchi-Espaces Probabilisés 46

Définition : On appelle
— Fréquence relative (ou proportion), associée à la modalité xi du caractère (resp. à
la classe [ai−1 , ai [), la valeur fi définie par :
ni
fi = . Elle s’exprime souvent en pourcentage.
N
— Effectif cumulé (Fréquence cumulée absolue), associée à la modalité xi du ca-
ractère (resp. à la classe [ai−1 , ai [), le nombre Ni d’individus dont le caractère est
inférieur ou égal à xi :
i
X
Ni = nj .
j=1

— Fréquence cumulée relative, associée à la modalité xi du caractère (resp. à la


classe [ai−1 , ai [), la valeur Fi définie par :
i
X
Fi = fj . Elle s’exprime souvent en pourcentage.
j=1

Les résultats sont généralement présentés sous la forme des tableaux suivants.

Mod Eff.(ni ) Fré. rela.(fi ) Eff. cumulées(Φi ) Fré. rela. cumulées(Fi )


x1 n1 f1 n1 f1
x2 n2 f2 n1 + n2 f1 + f2
.. .. .. .. ..
. . . . .
xi ni fi Φi = n1 + n2 + ... + ni Fi = f1 + f2 + ... + fi
.. .. .. .. ..
. . . . .
xk nk fk Φk = n1 + ... + nk = N Fk = f1 + ... + fk = 100%
Total N 100% kkkkkkk kkkkkkk

TABLE 3.1 – Tableau de distribution de fréquences pour une variable qualitative ou discrète

Classes Amplitudes ni fi Fi Densités


[a0 , a1 [ A1 n1 f1 f1 h1
.. .. .. .. .. ..
. . . . . .
fi
[ai−1 , ai [ Ai = ai − ai−1 ni fi f1 + . . .+fi hi = Ai
.. .. .. .. .. ..
. . . . . .
[ak−1 , ak [ Ak nk fk 100% hk
Total kkkkkkkkkk N 100% kkkkkkk kkkkkk

TABLE 3.2 – Tableau de distribution de fréquences pour une variable continue


El Arrouchi-Espaces Probabilisés 47

Exemple 3.1 On s’intéresse à la variable "taux de réussite au baccalauréat en 2015 dans l’académie de
Kénitra" notée X et à la série statistique des valeurs prises par X sur 4 type de baccalauréat. Les données
sont résumées dans le tableau suivant

xi ni fi Fi
Bac lettre 19 772 42,56% 42,56%
Bac éco 9 043 19,47% 62,03%
Bac science 13 439 28,93% 90,96%
Bac pro 4 200 9,04% 100,00%
Total N = 46454 100% kkkkkk

Exemple 3.2 (Défauts relevés sur une pièce électronique) Un fabricant de pièces électronique essaie
une nouvelle machine ; il compte le nombre de défauts sur 75 échantillons. Il a trouvé les résultats suivants :

TABLE 3.3 – Étude statistique du nombre de défauts sur une pièce : Tableau de distribution.
Nombre de défauts ni fi (%) Ni Fi (%)
0 38 50,6 38 50,6
1 15 20 53 = 38 + 15 70,6
2 11 14,7 64 = 53 + 11 85,3
3 6 8 70 = 64 + 6 93,3
4 3 4 73 = 70 + 3 97,3
5 2 2,7 75 = 73 + 2 100%
Total N = 75 100% kkkkkkkkkk kkkkkk

Exemple 3.3 On a relevé l’âge de 150 personnes. Les résultats de l’enquête sont donnés dans le tableau
suivant :
Classes Effectifs
[20, 25[ 9
[25, 30[ 27
[30, 35[ 36
[35, 40[ 45
[40, 50[ 27
[50, 60[ 6
N 150

3.4 Représentations graphiques d’une série de données


Très souvent, on préfère des représentations graphiques à des tableaux. Les graphes apparaissent
comme plus "parlants". Ces représentations sont adaptées au type de variable étudiée : nominale,
ordinale, discrète ou continue.
El Arrouchi-Espaces Probabilisés 48

3.4.1 Variables nominales


Diagramme en bâtons
À chaque modalité, on associe un "bâton" de longueur proportionnelle à la fréquence fi (ou, si l’on
veut à l’effectif ni ).

F IGURE 3.1 – Diagramme en bâtons de fréquences pour l’exemple 3.1.

Pour une variable nominale, seules les hauteurs sont significatives ; l’ordre et l’écart des xi ne sont
pas significatifs.

Diagramme en secteurs
C’est la représentation la plus utilisée pour les variables nominales. L’angle de chaque secteur αi
est proportionnel à la fréquence fi . En degré, on a αi = 360 × fi .
El Arrouchi-Espaces Probabilisés 49

F IGURE 3.2 – Diagramme en secteurs de fré-


quences.

Type ni fi αi
Bac lettre 19 772 42,56% 153,23
Bac éco 9 043 19,47% 70,08
Bac science 13 439 28,93% 104,15
Bac pro 4 200 9,04% 32,55
Total 46 454 100% 360

3.4.2 Variables ordinales


On utilise les mêmes représentations que pour les variables nominales. Toutefois, il convient de
noter que, pour le diagramme en bâtons, l’ordre des modalités à un sens concret, car il doit corres-
pondre à l’ordre existant entre les valeurs.

3.4.3 Variables discrètes


Pour ce type de variables, on préfère le diagramme en bâtons car, dans ce cas, l’ordre et l’écart
entre les bâtons sont significatifs.

F IGURE 3.3 – Diagramme en bâtons des effectifs pour l’exemple 3.2.


El Arrouchi-Espaces Probabilisés 50

3.4.4 Variables continues


Histogramme
Pour représenter graphiquement la distribution statistique d’une variable continue, on a recours
à un histogramme, qui est la juxtaposition de rectangles dont les bases sont les amplitudes des
classes considérées Ai = ai − ai−1 et dont les hauteurs sont les quantités hi = Afii appelées densités
de fréquence. L’aire du ième rectangle vaut fi . Si les amplitudes des classes sont égales, on peut
prendre les hauteurs hi = fi . À partir de l’histogramme d’une variable statistique continue, on
peut tracer le polygone des fréquences associé en procédant de la manière suivante :

— on joint par des morceaux de droites les milieux des segments horizontaux supérieurs des
rectangles de l’histogramme ;
— on ajoute à droite et à gauche de l’histogramme des classes fictives, toutes deux de même
amplitude et d’effectif nul, ce qui donne alors lieu à deux nouveaux segments. Voir la figure
3.4.

F IGURE 3.4 – Histogramme

Remarque 3.5 On ne doit pas "lisser" la courbe.

Exemple 3.4 On reprend l’exemple 3.3.


El Arrouchi-Espaces Probabilisés 51

TABLE 3.4 – Tableau de distribution de la va-


riable Âge.
Classes ni Ai fi Fi hi
[20, 25[ 9 5 0,06 0,06 0,012
[25, 30[ 27 5 0,18 0,24 0,036
[30, 35[ 36 5 0,24 0,48 0,048
[35, 40[ 45 5 0,3 0,78 0,06
[40, 50[ 27 10 0,18 0,96 0,018
[50, 60[ 6 10 0,04 1 0,004
N 150 kkk 1 kkk kkkk

3.6 Fonction de répartition

Définition : La fonction de répartition du caractère quantitatif X est la fonction F , allant


de l’ensemble des réels vers [0, 1], définie par :

F (x) = proportion d’individus de l’échantillon dont la valeur de X est ≤ x.

Proposition 3.5 Si X est une variable quantitative discrète. Alors







0 si x < x1
F (x) = F i−1 si xi−1 ≤ x < xi , i ≥ 2


 1 si x ≥ xk .

Dans la pratique, on ne l’utilisera que pour des variables continues. Pour ces dernières, la déter-
mination de la fonction de répartition se fait de la manière suivante :
Soit X une variable continue, dont les valeurs sont rangées en classes [a0 , a1 [, . . . , [ak−1 , ak [ , avec
des fréquences f1 , . . . , fk .
— On commence par calculer les valeurs de F aux points du découpage

F (a0 ) = 0, F (a1 ) = F1 = f1 , F (ai ) = Fi , F (ak ) = Fk = 1.

— Ensuite, dans chaque classe , on fait une interpolation linéaire (on relie les points extrêmes
par un segment de droite).
— Puis on prolonge la courbe par 0 à gauche de a0 et par 1 à droite de ak (figure 3.5).
El Arrouchi-Espaces Probabilisés 52

F IGURE 3.5 – Fonction de répartition.

Proposition 3.6 Si X est une variable quantitative continue. Alors, d’après la méthode d’interpolation
linéaire, on obtient





0 si x < a0
fi
F (x) = F i−1 + Ai (x − ai−1 ) si ai−1 ≤ x < ai , i ≥ 1


 1 si x ≥ ak .

Exercice 24 On reprend l’exemple du tableau 3.4. Tracer la fonction de répartition et calculer le pourcentage
des personnes dont l’age est supérieur où égal 45.

3.7 Paramètres associés à la distribution d’une série de données


Le but de cette partie est donc de définir, pour chaque type de variable statistique, un certain
nombre de caractéristiques (ou indicateurs), c’est-à-dire quelques nombres permettant de résumer
de manière quantitative (et non plus qualitative) chaque distribution. Bien entendu, n’importe
quelle quantité ne peut pas être un indicateur.

On se limitera ici à 2 types de caractéristiques statistiques :


— celles dites de tendance centrale, qui donnent un " ordre de grandeur " de la variable étudiée
en dégageant la modalité de la variable la plus représentative ;
— celles dites de dispersion qui, elles, fournissent des informations sur la façon dont les indi-
vidus se répartissent (se dispersent) autour de la tendance centrale.

Le tableau 3.5 suivant donne les caractéristiques étudiées pour chaque type de variable.

Type de la variable Tendance centrale Dispersion


Nominale Mode
Ordinale Mode, médiane, quantiles Écart interquartile
Quantitative Mode, médiane, quantiles, moyenne Écart-type, écart interquartile

TABLE 3.5 – Caractéristiques d’une distribution.


El Arrouchi-Espaces Probabilisés 53

3.7.1 Paramètres de tendance centrale


Mode
Il est défini pour tous les types de variables. Le mode n’est pas nécessairement unique.

Définition :
— si X est une variable statistique nominale, ordinale ou discrète, le mode de la
distribution associée est la modalité de X la plus représentée, c’est-à-dire celle
pour laquelle l’effectif est le plus grand ;
— si X est une variable continue, la classe modale de la distribution associée est
la classe dont la densité de fréquences est la plus élevée. Si [ai−1 , ai [ est la classe
modale, on peut alors approximer le mode par la méthode des diagonales (voir la
figue 3.6 ) :

Mo − ai−1 hi − hi−1 ∆1 ∆1
= = ⇒ Mo = ai−1 + Ai .
ai − ai−1 (hi − hi−1 ) + (hi − hi+1 ) ∆1 + ∆2 ∆1 + ∆ 2

F IGURE 3.6 – Méthode des diagonales

Remarque 3.8 Une distribution est dite unimodale si elle admet un mode unique, bimodale si elle admet
deux modes ou multiimodale si elle admet plusieurs modes.

Exemple 3.7 Le mode dans la table 3.1 est la modalité "bac lettre". Sur la table 3.4, la classe modale est
0,06−0,048
[35, 40[, donc Mo = ai−1 + Ai ∆1∆+∆
1
2
= 35 + 5 × 0,06−0,048+0,06−0,018 ≈ 35, 63.

Médiane

Définition : La médiane est la valeur "centrale" de la série. On dit qu’elle partage la série
en deux moitiés. Ainsi 50% des éléments de l’échantillon ont une valeur inférieure à la
médiane et 50% une valeur supérieure.
En général, on note x(1) ≤ x(2) ≤ ... ≤ x(i) ≤ ... ≤ x(N ) la série ordonnée par ordre croissant de la
série brute x1 , x2 , ...xi , ..., xN de données. Alors,
El Arrouchi-Espaces Probabilisés 54

Si N est impair M é = x( N +1 )
n2 o
1
Si N est pair M é = 2 x( N ) + x( N +1)
2 2

Exemple 3.8 Trouver la médiane de la série brute suivante : 21, 25, 28, 30, 27, 24, 31, 21, 28, 30, 25, 28,
26, 25.
Réponses : Ordonnons la série par ordre croissant : 21, 21, 24, 25, 25, 25, 26, 27, 28, 28, 28, 30, 30, 31. On
x +x
a N = 14, pair, donc la médiane est (7) 2 (8) = 26+27
2 = 26, 5.

Définition : La médiane de la distribution d’une variable continue X, répartie en classes


([ai−1 , ai [)1≤i≤k est donnée par :

— si F (ai−1 ) ≤ 0, 5 < F (ai ), la classe médiane est [ai−1 , ai [ et on calcule la médiane


par interpolation linéaire sur l’intervalle [ai−1 , ai [ :

0, 5 − F (ai−1 )
M é = ai−1 + (ai − ai−1 )
F (ai ) − F (ai−1 )

avec F fonction de répartition de X (Proposition 3.6),

Exemple 3.9 Dans la table 3.4, la classe médiane est [35, 40[ car F (35) = 0, 48 < 0, 5 < F (40) = 0, 78.
En appliquant la formule de la médiane, on obtient M é = 35, 33.

Remarque 3.9 la médiane est peu sensible aux valeurs extrêmes de la variable, donc aux erreurs de mesures
qui, bien souvent, produisent des valeurs aberrantes. On dit que la médiane est robuste ou résistante.

Quantiles-Quartiles
La notion de médiane peut se généraliser à celle de quantile. Soit α dans l’intervalle ]0, 1[. On
note x(1) ≤ x(2) ≤ ... ≤ x(i) ≤ ... ≤ x(N ) la série ordonnée par ordre croissant de la série brute
x1 , x2 , ...xi , ..., xN de données. Alors on définit le nombre Qα , quantile d’ordre α, par

Si N α n’est pas un entier naturel Qα = x([N α]+1)


n o
1
Si N α est un entier naturel Qα = 2 x(N α) + x(N α+1)

où [N α] représente la partie entière de N α.


Si la variable statistique X est répartie en classes ([ai−1 , ai [)1≤i≤k , alors on cherche la classe [ai−1 , ai [
telle que F (ai−1 ) ≤ α < F (ai ). D’après l’interpolation linéaire, on écrit

α − F (ai−1 )
Qα = ai−1 + (ai − ai−1 ) .
F (ai ) − F (ai−1 )

Les cas particuliers les plus utilisés sont :


— les quartiles(partagent la série en 4) :
— Q0,25 premier quartile ;
— Q0,5 médiane ;
— Q0,75 dernier quartile.
— les déciles(partagent la série en 10) : (Q0,1 , Q0,2 , ..., Q0,9 )
El Arrouchi-Espaces Probabilisés 55

Exemple 3.10 On reprend la série brute de l’exercice 3.8, Trouver les quartiles. Même question pour la
table 3.4.
Réponses : Exercice 3.8 : on a 14 × 14 = 3, 5 n’est pas entier, donc Q0,25 = x(4) = 25 et 14 × 43 = 11, 5
n’est pas entier, donc Q0,75 = x(12) = 30. Table 3.4 : on obtient Q0,25 = 30.2 et Q0,75 = 39.5.

Moyenne arithmétique
La moyenne ne peut être définie que sur une variable quantitative.

Définition : La moyenne arithmétique d’une série de données x1 , ..., xi , ..., xN , ou tout


simplement la moyenne, notée X̄, est définie par :
N k k
1 X 1 X X
X̄ = xi = ni xi = fi xi . (3.1)
N i=1 N i=1 i=1

Pour obtenir une approximation de la moyenne d’une variable continue rangée en classes [ai−1 , ai [,
on remplace, dans les expressions en 3.1, les xi par les centres des classes ci = ai−12+ai .

Remarque 3.10
— la moyenne, prenant en compte toutes les valeurs observées, est très sensible aux observations ex-
trêmes ou aberrantes ;
— Les courbes suivantes (Figure 3.7) donnent une idée sur la forme d’une distribution quelconque :

F IGURE 3.7 – Asymétrie d’une distribution

3.10.1 Paramètres de dispersion


L’idée étant de mesurer la dispersion de la distribution. Il y a trois manières de faire, qui corres-
pondent à des buts différents.
— Sans référence à un indicateur de position, notion d’étendue.
— En référence à une valeur centrale (dispersion autour d’un indicateur de position), notion
de variance.
— En indice relatif (coefficient de variation), dans un but de comparaison.

Étendue
L’étendue=observation maximale-valeur minimale= x(N ) − x(1) .
El Arrouchi-Espaces Probabilisés 56

Écart Interquartile
C’est la différence IQ = Q0,75 − Q0,25 . Cet intervalle englobe la moitié, ou approximativement la
moitié, des observations qui se situent au centre de la distribution. Ce paramètre, est assez souvent
utilisé et robuste.

Exemple 3.11 Soit la série des données suivante S = {3, 4, 5, 2, 1, 10, 16, 13, 7, 29, 21}, Q0,75 = 14.5 et
Q0,25 = 3.5, IQ = 14.5 − 3.5 = 11.

Le diagramme en forme de boîte appelé boîte à moustaches ou boxplot en anglais est une bonne
manière de représenter de manière visuelle la dispersion des données d’une distribution ainsi que
sa symétrie ou asymétrie.

F IGURE 3.8 – Construction d’une boîte à moustaches.

Variance-Écart type

Définition : La variance d’une distribution de X, notée V ar(X), est la somme des carrés
des écarts à la moyenne divisée par le nombre d’observations, c’est à dire :
N k k
1 X 1 X X
V ar(X) = (xi − X̄)2 = ni (xi − X̄)2 = fi (xi − X̄)2 .
N i=1 N i=1 i=1

Théorème 3.11 La variance peut aussi s’écrire


N k k
21 X 2 2 1 X 2 2
X
V ar(X) = X2 −X = x − X̄ = ni xi − X̄ = fi x2i − X̄ 2 .
N i=1 i N i=1 i=1

Remarque 3.12 Pour le cas continu où ci sont les centres des classes, on peut utiliser :

N k k
1 X 1 X X
V ar(X) ≈ (ci − X̄)2 = ni (ci − X̄)2 = fi (ci − X̄)2 .
N i=1 N i=1 i=1

N k k
1 X 1 X X
V ar(X) ≈ c2i − X̄ 2 = ni c2i − X̄ 2 = fi c2i − X̄ 2 .
N i=1 N i=1 i=1
p
Pour des raisons d’unités et d’ordre de grandeur, on utilise l’écart-type : σ(X) = V ar(X).

Exemple 3.12 Dans la table 3.4, X̄ = 35, 65 et V ar(X) = 56, 4525.


El Arrouchi-Espaces Probabilisés 57

Coefficient de variation
Dans certaines situations, on désire comparer le taux de dispersion de distributions alors que leur
tendance de mesure respective ne sont pas comparables, l’objectif de ce coefficient est de fournir
un indice quantitatif permettant cette comparaison et indépendant du choix des unités de mesure

σ(X)
C.V = × 100 (%).
X

Exemple 3.13 On considère deux classes de SM C dont les notes en Statistique du semestre 4 sont données
par le tableau suivant :

Notes 5 6 7 8 9 10 11 12 13 14 15 16
Effectifs SM C1 0 3 4 4 5 7 3 4 2 1 0 0
Effectifs SM C2 2 4 3 3 3 4 3 2 2 3 1 2

On trouve que X̄1 = 9, 52, X̄2 = 9, 94, σ1 = 2, 13 et σ2 = 3, 21. Donc, CV1 = 22% et CV2 = 32%. On
en déduit que la 1ère classe est légèrement homogène que la deuxième.

3.13 Travaux dirigés


Exercice 1 Sachant que dans une université il y a deux fois plus d’étudiants en SVI qu’en SMC, quelles
sont les fréquences manquantes (données fictives) :

SVI SMA STAPS SMI SMP SMC SI


? 0.05 0.22 0.15 0.20 ? 0.14

Identifier la population, le caractère étudié et sa nature. Représenter graphiquement ces données.

Exercice 2 Un maraîcher est très fier de la quantité de fruits fournis par sa nouvelle sorte de cerisier. Pour
tenter de comprendre quelle est la quantité "normale" de fruits pour un arbre de ce type, il mesure cette
quantité sur chacun de ses 78 cerisiers et trouve les résultats suivants :

Quantité de cerises (Kg) Nombre d’arbres Quantité de cerises (Kg) Nombre d’arbres
100 3 148 10
108 3 156 9
116 7 164 8
124 7 172 6
132 9 180 4
140 10 188 2

Faites deux histogrammes de ces valeurs ; le premier avec 12 classes (de 96 à 192), le second avec 6 classes.
Que remarquez-vous et quelle conclusion pouvez-vous en tirer ?

Exercice 3 Au poste de péage, on compte le nombre de voitures se présentant sur une période de 5mn. Sur
100 observations de 5mn, on obtient les résultats suivants :
El Arrouchi-Espaces Probabilisés 58

Nombre de voitures 1 2 3 4 5 6 7 8 9 10 11 12
Nombre d’observations 2 8 14 20 19 15 9 6 2 3 1 1
1. Construire la table des fréquences et le diagramme en bâtons en fréquences de la série du nombre de
voitures.
2. Déterminer le mode, la médiane et les quartiles.
3. Calculer la moyenne et l’écart-type de cette série.
4. Étudier la symétrie de la série.

Exercice 4 On donne la série unidimensionnelle suivante, correspondant à la répartition des entreprises du


secteur industriel en fonction de leur chiffre d’affaire en millions de dirhams.

Chiffres d’affaires moins de 0,25 [0,25 ;0,5[ [0,5 ;1[ [1 ;2,5[ [2,5 ;5[ [5 ;10[
Nombre d’entreprises 137 106 112 154 100 33
1. Construire l’histogramme des fréquences.
2. Construire le polygone des fréquences cumulées.
3. Calculer le mode, la médiane et la proportion d’entreprises dont le chiffre d’affaire est supérieur à 3
millions de dirhams.
4. Calculer le chiffre d’affaire moyen et l’écart-type de la série.

Exercice 5 Un fonctionnaire du Ministère des pêches a reçu les résultats de la pêche au homard en Mehdia
pour le printemps 2005. Le tableau qui suit nous indique le nombre de tonnes métriques de homards capturés
par jour durant cette période.

Nombre de tonnes Nombre de jours


Métriques de homards
[0, 6[ 9
[6, 8[ 12
[8, 10[ 30
[10, 12[ 21
[12, 16[ 9
[16, 20[ 9

1. Définir pour ce problème la population et le caractère.


2. Calculer la moyenne et l’écart type du caractère.
3. Calculer la médiane du caractère.
4. Tracer l’histogramme et le polygone de fréquences du caractère.
5. Commenter l’écart entre la moyenne et la médiane du caractère.
6. Calculer la proportion de journées où les pêcheurs ont capturé un tonnage métrique de homards
supérieur à 8.5 tonnes.
7. Un grossiste paie 70 000 Dhs la tonne métrique aux pêcheurs de homards. Par la suite, il vend le
produit à des distributeurs au prix de 150 000 Dhs la tonne métrique. Toutefois, le grossiste doit payer
des frais fixes de 500 000 Dhs par jour (transport, entreposage, main-d’oeuvre, administration).
El Arrouchi-Espaces Probabilisés 59

— Si Y est le profit du grossiste par jour, exprimer Y en fonction du tonnage métrique de homards
capturés.
— Calculer la moyenne et l’écart type du profit du grossiste par jour.

Vous aimerez peut-être aussi