Poly S3 SMA
Poly S3 SMA
Poly S3 SMA
Polycopié du cours
Probabilités et Statistique
M. EL A RROUCHI
Filière SMAI/Semestre 3
Année universitaire 2020-2021
Chapitre 1
Espaces probabilisés
1.1.1 Généralités
Soit Ω un ensemble. On appelle P(Ω) l’ensemble des parties de Ω, ce que l’on peut noter P(Ω) =
{A| A ⊂ Ω}. Donc A ⊂ Ω ⇔ A ∈ P(Ω).
Exemple 1.1 Si Ω = {P, F }, alors P(Ω) = {∅, {P }, {F }, Ω}.
On définit le produit cartésien de deux ensembles Ω1 et Ω2 , noté Ω1 × Ω2 par
Ω1 × Ω2 := {(x, y)| x ∈ Ω1 , y ∈ Ω2 }.
Par analogie avec ce qui précède, l’ensemble de toutes les applications f : Ω1 → Ω2 sera noté ΩΩ 1
2 .
Par exemple avec Ω2 = {P, F } et Ω1 = N, on obtient l’ensemble {P, F } de toutes les suites infinies
N
Propriété 1.3 Soit A et B deux parties d’un ensemble fini Ω et A le complémentaire de A dans Ω.
1. Si A et B sont disjointes, Card(A ∪ B) = Card(A) + Card(B).
2
El Arrouchi-Espaces Probabilisés 3
Définition :
— Un ensemble E est dénombrable s’il existe une application bijective de E dans N.
Un ensemble dénombrable est donc infini.
— Un ensemble E est au plus dénombrable s’il existe une application bijective de E
dans une partie de N.
Remarque 1.2 Un ensemble au plus dénombrable est donc un ensemble fini ou un ensemble dénombrable
au sens de la définition précédente.
Propriété 1.4
1. Le produit cartésien d’une famille finie d’ensembles au plus dénombrables est au plus dénombrable.
2. La réunion d’une famille au plus dénombrable d’ensembles au plus dénombrables est au plus dénom-
brables.
Exemples :
— N, Z, Q, Nn , Q[X] sont dénombrables.
— [0, 1], R, C, P(N) , {0, 1}N , NN ne sont pas dénombrables.
1.2.1 Arrangements
Arrangements sans répétition :
Soit Ω un ensemble de cardinal n et k un nombre entier entre 1 et n. On appelle arrangement de
k éléments de Ω tout k-uplet (x1 , x2 , ..., xn ) d’éléments tous distincts de Ω. Un tel arrangement
représente une injection de {1, ..., p} dans Ω.
(a, b), (b, a), (a, c), (c, a), (b, c), (c, b).
On choisit un élément dans l’ensemble, puis un deuxième qui doit être différent. L’ordre de sélection est
important !
Théorème 1.3 Le nombre d’arrangements de k éléments distincts d’un ensemble à n éléments est
n!
Akn = .
(n − k)!
El Arrouchi-Espaces Probabilisés 4
Exemple 1.6 Une association se compose de 7 membres. De combien de manières peut-on nommer le bureau
comprenant le président, le vice-président, le secrétaire et le trésorier ?
Réponse : Il y a A47 = 840 manières.
(a, a), (a, b), (a, c), (b, a), (b, b), (b, c), (c, a), (c, b), (c, c).
On choisit deux éléments, pas forcément distincts, dans l’ensemble. L’ordre de sélection est important !
Théorème 1.4 Le nombre d’arrangements de k éléments d’un ensemble à n éléments avec possibilité de
choisir plusieurs fois le même élément est
k
An = nk .
1.4.1 Permutations
Permutations sans répétition :
Exemple 1.10 Les permutations des éléments de l’ensemble {a, b, c} sont
(a, b, c), (a, c, b), (b, a, c), (b, c, a), (c, a, b), (c, b, a).
Théorème 1.6 Le nombre de permutations avec répétition de n éléments pris parmi {a1 , a2 , ..., ak } où
figurent n1 fois a1 ,..., nk fois ak , avec n1 + ... + nk = n est
n!
.
n1 !n2 !...nk !
El Arrouchi-Espaces Probabilisés 5
Exemple 1.12
1. Le nombre de permutations des chiffres 1, 1, 1, 3, 3, 5, 6, 6, 6, 6 est
10!
.
3!2!1!4!
2. Combien de mots (ou d’anagrammes) peut-on former avec les lettres du mot "excellence" ? Réponse :
10!
Il y a = 370 800 mots.
4!1!2!2!1!
1.6.1 Combinaisons
Combinaisons sans répétitions :
Soit Ω un ensemble à n éléments. On appelle combinaison de k éléments de Ω toute collection non
ordonnée de k éléments distincts de Ω, c’est-à-dire toute partie de Ω contenant k éléments.
Une combinaison a tous ses éléments distincts comme un arrangement, mais l’ordre d’écriture n’a
pas d’importance.
On choisit un élément dans l’ensemble, puis un deuxième qui doit être différent. L’ordre de sélection n’est
pas important !
Théorème 1.7 Le nombre de combinaisons de k éléments parmi n sans répétition ( nombre de sous-
ensembles de k éléments dans un ensemble contenant k éléments) est
n!
(nk ) = Cnk = .
k!(n − k)!
Exemple 1.14 Une classe est composée de 30 élèves. Le professeur de sport veut former une équipe de Basket
de 5 joueurs pour le tournoi du lycée. Combien d’équipes différentes peut-il faire ?
5 = 30×29×28×27×26 = 142506 possibilités.
Réponse : il doit choisir 5 élèves parmi 30, il a donc C30 5×4×3×2
Proposition 1.15
k+1
1. Cnn−k = Cnk , Cn+1 = Cnk + Cnk+1 (Triangle de Pascal).
n
X
2. (x + y)n = Cnk xk y n−k (Formule du binôme).
k=0
On choisit deux éléments, pas forcément distincts, dans l’ensemble. L’ordre de sélection n’est pas important !
El Arrouchi-Espaces Probabilisés 6
Théorème 1.8 Si les répétitions sont permises, le nombre de combinaisons de k éléments choisis parmi
n éléments distincts est
k k (n + k − 1)!
C n = Cn+k−1 = .
k!(n − 1)!
Exemple 1.17 On lance deux dés identiques à 6 faces numérotés de 1 à 6. Combien y a-t-il de possibilités ?
2
Réponse : C 6 = C72 = 21 possibilités.
n!
, avec n1 + n2 + ... + nk = n.
n1 !n2 !...nk !
Remarque 1.10 Les groupes du théorème sont distinguables. Par exemple si on considère les 4 objets sui-
vant : {e1 , e2 , e3 , e4 }, alors on distingue entre la partition G1 = {e1 , e2 }, G2 = {e3 , e4 } et la partition
G1 = {e3 , e4 }, G2 = {e1 , e2 }.
4!
Le nombre de partitions de ces objets en 2 groupes de taille 2 est 2!2! = 6.
Proposition 1.18 Le nombre de partitions ordonnées de n objets distincts en k groupes non distin-
guables G1 , ..., Gk tel que le i-ième groupe contient ni éléments, i = 1, ..., k, est donnée par :
n!
, avec n1 + n2 + ... + nk = n.
n1 !n2 !...nk !k!
1.10.1 Résumé
Tirages de k éléments parmi n :
Exemples :
1. Jeter un dé à 6 faces et noter le résultat.
2. Lancer une pièce de monnaie et noter le résultat.
3. On jette une pièce de monnaie et on note le premier rang pour lequel on tombe sur Pile.
4. On jette indéfiniment une pièce de monnaie et on note la suite des résultats obtenus.
5. Temps d’attente d’un bus, qui est un nombre aléatoire.
En théorie des probabilités, le terme modéliser désigne l’opération qui consiste à associer à une
expérience aléatoire trois objets mathématiques, notés et appelés généralement Ω, l’univers, A,
l’ensemble des événements et P, la probabilité.
Un événement aléatoire est lié à une expérience aléatoire ; une fois l’expérience réalisée, on peut
alors dire si l’événement a été réalisé ou non.
Définition : Un événement aléatoire A peut être identifié à la partie de Ω dont les élé-
ments réalisent l’événement A.
Les événements qui sont représentés par un singleton {ω} sont appelés des événements
élémentaires.
El Arrouchi-Espaces Probabilisés 8
Exemple 1.19 Dans un lancer de dé, on peut par exemple considérer l’événement A, « le nombre obtenu est
pair ». L’événement A est réalisé lorsque le résultat est 2, 4 ou 6, donc A n’est pas élémentaire. Il est composé
des trois événements élémentaires {2}, {4}, {6}. On écrit alors A = {2, 4, 6}
Puisque les événements sont par définition des sous-ensembles de l’univers, on peut les traduire
par des opérations ensemblistes. Voici un tableau de correspondance les deux langages : ensem-
bliste et probabiliste.
L’ensemble des événements A associés à une expérience aléatoire est donc un sous-ensemble des
parties de Ω, A ⊂ P(Ω). Il semblerait naturel de prendre A = P(Ω), mais il y a alors des exemples
où il est impossible d’associer à chaque événement une probabilité de façon cohérente. Dans ces
cas-là, il est donc nécessaire de se restreindre à un sous-ensemble strict de P(Ω) contenant les
événements "intéressants". L’ensemble des événements que l’on considère en probabilité doivent
satisfaire à quelques propriétés naturelles, ils doivent former une tribu, dont voici la définition.
Remarque 1.12 P (Ω) est la seule tribu qu’on utilise lorsque Ω est un ensemble fini. Lorsque Ω est infini,
P (Ω) devient énorme et il est alors souvent commode de considérer des tribus plus petites qui suffisent
pour appliquer notre modèle. De plus, pour des raisons sortant du cadre de ce cours, on peut montrer qu’il
est impossible de construire une probabilité sur (R, P (R)), ce qui nous oblige à considérer des tribus plus
petites qui permettent les calculs de probabilités.
Exercice 1
El Arrouchi-Espaces Probabilisés 9
1. Soit Ω = {1, 2, 3, 4}. Donner une tribu à deux éléments et une tribu à quatre éléments.
2. Soit Ω un ensemble quelconque. Montrer que
Nous souhaitons maintenant associer à chacun des événements une probabilité, qui mesure la
chance que l’on accorde a priori à l’événement avant la réalisation de l’expérience.
1. P (Ω) = 1
Remarque 1.13
1. Quand on parle de choix « au hasard » sur un ensemble fini, on sous-entend souvent que ce choix est
fait au moyen de la probabilité uniforme, c’est-à-dire, en donnant à chaque élément de l’ensemble les
mêmes chances d’être choisi.
2. Il est impossible de définir une probabilité uniforme sur un ensemble qui n’est pas fini.
El Arrouchi-Espaces Probabilisés 10
Exemple 1.22 (Exemple de modélisation) On lance n fois un dé équilibré, on cherche la probabilité d’ob-
tenir k fois (k ≤ n) le chiffre six.
Une réalisation est un n-uplet des entiers compris entre 1 et 6. On prend donc Ω = {1, 2, . . . , 6}n . Le dé
étant équilibré, il est naturel de modéliser cette expérience par le triplet probabilisé (Ω, P(Ω), P) où P est la
probabilité uniforme.
L’événement « on obtient k fois le chiffre six » est représenté par le sous-ensemble
Ak = {(x1 , x2 , . . . , xn )| xi = 6 pour k indices exactement}.
On a Card(Ak ) = Cnk 5n−k (choix des k indices des xi qui sont égaux à 6, puis affectation d’un entier
quelconque compris entre 1 et 5 pour les autres). Puisque Card(Ω) = 6n , il vient
Card(Ak ) 5n−k
P(Ak ) = = Cnk n .
Card(Ω) 6
5. Si (An )n∈N est une suite décroissante d’événements (ie ∀n ∈ N, An+1 ⊂ An ), alors
+∞
!
\
P An = lim P (An ) .
n→+∞
n=0
Exercice 2 (Formule du crible (ou de Poincaré)) Soit (Ω, A, P) un espace probabilisé. Montrer que, pour
toute famille (Ai )16i6n d’événements, on a
n n
!
[ X X
P Ai = P(Ai ) + · · · +(−1)k+1 P(Ai1 ∩ · · · ∩ Aik )+
i=1 i=1 16i1 <i2 <···<ik 6n
Exercice 3 Dans une entreprise, il y a 150 femmes ingénieurs , 80 femmes ouvrières, 100 hommes ingé-
nieurs et 130 hommes ouvriers. On tire au sort, de manière équiprobable, un employé. Quelle est la probabi-
lité d’être ingénieur ? D’être ingénieur sachant qu’on est une femme ? D’être une femme sachant qu’on est
ingénieur ? D’être une femme ingénieur ?
Proposition 1.25 (Formule des probabilités composées) Soit (Ω, A, P) un espace probabilisé et
A1 , A2 , . . . , An des événements tels que P (A1 ∩ A2 ∩ · · · ∩ An−1 ) 6= 0. Alors
P(A1 ∩ A2 ∩ · · · ∩ An ) = P(A1 )PA1 (A2 )PA1 ∩A2 (A3 ) . . . PA1 ∩A2 ∩···∩An−1 (An )
Exercice 4 Une urne contient 5 boules blanches et 7 boules noires, indiscernables au toucher. On tire suc-
cessivement 4 boules sans remise et on note à chaque tirage la couleur obtenue.
1. Décrire l’univers associé à cette expérience.
2. Quelle est la probabilité que les boules tirées soient de même couleur ?
3. Quelle est la probabilité que les deux premières boules tirées soient blanches et la troisième noire ?
Proposition 1.26 (Probabilités totales) Soit (Ai )i∈I un système complet d’événements de probabili-
tés non nulles. Alors pour tout événement B on a
X X
P(B) = P(Ai ∩ B) = P(Ai )PAi (B).
i∈I i∈I
Proposition 1.27 (Formule de Bayes) Soient (Ai )i∈I un système complet d’événements de probabi-
lités non nulles et B un événement de probabilité non nulle. On a
Exercice 5
— L’urne U1 contenant 1 boule rouge et 5 boules jaunes.
— L’urne U2 contenant 3 boules rouges et 1 boule jaune.
El Arrouchi-Espaces Probabilisés 12
P(A ∩ B) = P(A)P(B)
A⊥
⊥ B ⇐⇒ A ⊥
⊥ B ⇐⇒ A ⊥
⊥ B ⇐⇒ A ⊥
⊥ B.
Exercice 7 Une urne contient 5 boules blanches et 5 boules noires. On en prélève 3 boule successivement et
avec remise. On considère A l’événement « on obtient des boules des deux couleurs » et B l’événement « on
obtient au plus une boule blanche ». A et B sont-ils indépendants ?
Démontrer
m
p+1
Cjp .
X
Cm+1 =
j=p
Exercice 4 On considère des numéros de téléphone de 10 chiffres dans J1, 9K = {0, 1, · · · , 9}. Ils ne com-
mencent pas nécessairement par un 0.
a. Déterminer le nombre de numéros de téléphone comportent exactement un triple (3 fois un même
chiffre), deux doubles (2 fois un même chiffre) et trois simples (3 fois un chiffre).
Pour tout (n, p) ∈ N∗ 2 , on note S(n, p) le nombre de surjections de J1, nK dans J1, pK.
b. Déterminer, en fonction de S(10, p) pour p ∈ J1, 10K, le nombre ∆4 de numéros de téléphone com-
portant au plus 4 chiffres distincts.
c. Soit n ≥ 4 un entier. Calculer successivement les S(n, p) pour p ∈ J1, 4K.
d. Conclure ∆4 .
Exercice 6 Quatre couples doivent être assis dans une rangée de 8 chaises. Combien y a-t-il de façon de le
faire si :
— Il n’y a pas de contraintes.
— Les hommes doivent rester ensemble et les femmes aussi.
— Les hommes doivent rester ensemble.
— Chaque couple marié doit rester ensemble.
Exercice 7 On lance simultanément deux dés numérotés de 1 a 6. Déterminer et dénombrer l’ensemble des
résultats possibles dans les cas suivants :
— Les deux dés sont distincts (par exemple un rouge et un bleu).
— Les deux dés sont identiques.
— Les deux dés sont identiques et on s’interesse seulement à la parité du résultat.
Exercice 8 On lance six boules dans quatre cases distinctes. Représenter et dénombrer l’ensemble des résul-
tats possibles dans les deux cas suivants :
— Les boules sont numérotées de 1 a 6.
— Les boules sont identiques.
Exercice 9 On cherche à modéliser le lancer de deux dés à six faces, un rouge et un noir. Voici trois modèles :
1. On prend Ω1 = {1, 2, 3, 4, 5, 6}2 . L’élément (i, j) ∈ Ω1 représente l’éventualité " le dé rouge montre
le nombre i et le dé noir le nombre j ".
2. On prend Ω2 = {(i, j) : i, j ∈ {1, ..., 6}, i ≤ j}. L’élément (i, j) ∈ Ω2 représente l’éventualité
"les deux dés montrent les nombres i et j".
3. On prend Ω3 = {2, 3, 4, ..., 12}. Ici, i ∈ Ω3 représente l’éventualité " la somme des deux dés est i ".
Pour chacun de ces modèles, déterminer la probabilité qu’il convient de mettre sur l’univers choisi pour que
le modèle corresponde bien à notre expérience.
Dire, pour chacun des modèles, si A, B, C sont des événements, et, dans l’affirmative, les écrire comme
sous-ensemble de l’univers et donner leur probabilité :
El Arrouchi-Espaces Probabilisés 14
Exercice 11 On distribue (après les avoir bien mélangés) N billets à gratter à des revendeurs, parmi lesquels
une proportion p est gagnante.
Jojo achète deux billets. On note A l’événement " le premier billet est gagnant", et B l’événement " le
deuxième billet est gagnant ". Déterminer la probabilité des événements A et B.
Calculer P(A ∩ B). Les événements A et B sont-ils indépendants ?
Observer l’évolution du défaut d’indépendance de A et B lorsque N tend vers l’infini, p restant constant.
Exercice 12 Les services marketing de la société d’assurance automobile JojoTranquile ont mis au point
un questionnaire pour dépister les " conducteurs imprudents " (cette catégorie rassemble en fait tous les
assurés déclarant au moins trois sinistres au cours d’une année, et on a estimé qu’ils représentent 2% de la
population), et éventuellement refuser de les assurer. Depuis plus d’un an, on a demandé à tous les assurés
de le remplir. Les résultats sont les suivants :
— parmi les conducteurs imprudents assurés à JojoTranquile, 95% auraient été dépistés par le ques-
tionnaire.
— parmi les autres, 4% auraient tout de même été déclarés imprudents à cause du questionnaire.
En énonçant ces résultats, le responsable de ce projet, M. Question, se félicite du travail accompli par son
équipe.
Lorsqu’un client potentiel, remplissant le questionnaire, est déclaré imprudent par la procédure mise
au point par M. Question, quelle est la probabilité qu’il soit réellement imprudent ? Pensez-vous qu’il soit
souhaitable d’utiliser les conclusions du questionnaire pour exclure préventivement de nouveaux clients ?
Exercice 13 Jojo fait du ski à la station " Vallées blanches ". Il est en haut du téléski des Cailloux, et a le
choix entre les pistes de Tout-Plat (une bleue), Les-Bosses (une rouge) et Rase- Mottes (une noire). Il va
choisir une de ces trois pistes au hasard, de telle façon qu’il choisisse la bleue ou la noire avec probabilité 1/4,
et la rouge, qu’il préfère, avec probabilité 1/2. Il descend ensuite la piste choisie. Jojo n’est pas encore très à
l’aise cette saison, et il tombe avec une probabilité de 0, 1 sur la piste bleue, de 0, 15 sur la piste rouge, et de
0, 4 sur la piste noire.
1. Soit A = " Jojo tombe en descendant la piste qu’il a choisie". Calculer P(A).
2. Bernard, qui attend Jojo en bas des pistes, à la terrasse d’un café, voit arriver Jojo couvert de neige :
il est donc tombé. Sachant cela, quelle est la probabilité qu’il ait emprunté la piste noire ?
Chapitre 2
Variables aléatoires
{X ≤ x} = {ω ∈ Ω, X(ω) ≤ x} ∈ A.
On note encore X(Ω) l’univers image ou l’ensemble des valeurs prises par X.
X est une variable aléatoire discrète si X(Ω) = {xi , i ∈ I}, où I est un sous-ensemble
de N ou de Z, éventuellement infini.
Remarque 2.2 1. Le fait de ne plus centrer la définition sur les événements élémentaires vient du fait
que dans le cas infini et notamment non dénombrable, tous ces événements peuvent être de probabilité
nulle, ce qui ne donnerait finalement aucune information sur la loi de X.
2. La condition théorique qui est ajoutée dans cette définition sert à garantir qu’on puisse bien calculer
la probabilité que X ≤ x puisque la probabilité P est définie sur A. Tout ceci était automatiquement
vérifié dans le cas dans le cas fini car la tribu choisie est P (Ω).
3. On ne vous demandera pas : « démontrer que X est une variable aléatoire ».
Exemple 2.1 Un joueur lance deux fois de suite un dé et note les deux nombres obtenus sous la forme d’un
couple : par exemple si le joueur obtient 2 puis 5, on note son résultat sous la forme (2, 5). L’univers de notre
expérience est Ω = [[1, 6]]2 . On définit la v.a.r. discrète X qui à chaque couple associe la somme des deux
nombres obtenus. Ici on a X(Ω) = {2, 3, . . . , 12}. Donc X est une v.a.r. discrète finie.
Exemple 2.2 On effectue une succession de lancers d’un dé cubique jusqu’à obtenir 6. Soit X le nombre de
lancers effectués. Il est très difficile ici de décrire l’univers de notre expérience mais on peut tout de même
donner très clairement X(Ω). En étant rigoureux on devrait écrire : X(Ω) = N∗ ∪ {+∞} car il se peut
que l’on obtienne jamais 6. Mais on peut démontrer que la probabilité de ne jamais obtenir 6 est égale à 0,
c’est-à-dire que l’on obtiendra presque sûrement 6. On peut alors choisir de considérer que X(Ω) = N∗ et
donc X est une v.a.r discrète infinie.
15
El Arrouchi-Espaces Probabilisés 16
Notation : Soit X une v.a.r. définie sur (Ω, A). Pour tout J intervalle de R, on note l’événement
X −1 (J) = {X ∈ J} = {ω ∈ Ω/X(ω) ∈ J}.
Remarque 2.5 Les propriétés de (1)-(4) font de n’importe quelle fonction une fonction de répartition d’une
certaine v.a.r..
Exemple 2.3 On lance une pièce de monnaie bien équilibrée trois fois de suite. Soit X la variable aléatoire
donnant
( le nombre de Face obtenues et soit
1 si deux côtés identiques apparaissent successivement
Y = . Dessiner FX et FY .
0 sinon.
Corollaire 2.4 (« continuité de FX ») FX est continue sur R si et seulement si, pour tout réel x, on
a P (X = x) = 0.
Remarque 2.6 Ce point établit la différence entre une variable aléatoire discrète, dont la fonction de réparti-
tion possède toujours des discontinuités (éventuellement une infinité dénombrable) et une variable aléatoire
continue, dont la fonction de répartition est continue sur R.
Remarque 2.8 Cette définition, très théorique, ne vous servira pas dans la pratique. Par exemple,
— dans le cas où X(Ω) est au plus dénombrable, alors la loi de probabilité de X est caractérisée par la
donnée de P(X = x), ∀x ∈ X(Ω).
— Dans le cas où X(Ω) = R, la loi de probabilité de X est caractérisée par la donnée de P(X ∈
]a, b]), ∀(a, b) ∈ R2 , a < b.
Définition : Une variable aléatoire réelle X définie sur Ω est dite discrète si elle prend
ses valeurs dans un ensemble discret (au plus dénombrable) : X (Ω) = {xi , i ∈ I}, où
xi−1 < xi et I est une partie non-vide au plus dénombrable de N.
Remarque 2.10 Lorsque Ω est fini, toute application définie sur Ω est une variable aléatoire discrète.
Proposition 2.6 Si X est une v.a.r. discrète définie sur Ω, alors la loi de probabilité de X est caractérisée
par la donnée de la famille {(xi , P(X = xi )) , i ∈ I}.
Exemple 2.8 Un sac contient 4 boules numérotés de 1 à 4. On tire deux boules avec remise. On note X1
le numéro de la première boule, X2 le numéro de la seconde boule, et Y le plus grand des deux numéros
obtenus. Déterminons la loi de Y .
Remarquons tout d’abord que Y prend les valeurs 1,2,3,4 donc Y (Ω) = {1, 2, 3, 4}. De plus, le calcul de
P(Y 6 k) est plus facile que celui de P(Y = k). Par exemple
Nous allons donc calculer F (1), F (2), F (3) et F (4) puis en déduire la loi de Y . On a
1
FY (1) = P(Y 6 1) = P(Y = 1) = P({X1 = 1} ∩ {X2 = 1}) = , FY (2) = P(Y 6 2) = P({X1 6
16
El Arrouchi-Espaces Probabilisés 18
2 2 1 3 3 9
2} ∩ {X2 6 2}) = × = , FY (3) = × = ,FY (4) = 1. Donc
4 4 4 4 4 16
0, x<1
1/16, 1 ≤ x < 2
FY (x) = 1/4, 2≤x<3
9/16, 3 ≤ x < 4
1, 4 ≤ x.
1 3
P(Y = 1) = FY (1) = , P(Y = 2) = FY (2) − FY (1) =
16 16
5 7
P(Y = 3) = FY (3) − FY (2) = , P(Y = 4) = FY (4) − FY (3) = .
16 16
Définition : Une variable aléatoire réelle discrète X admet une espérance si la série
X
xi P(X = xi ) converge absolument et dans ce cas, l’espérance est la somme de la
i∈I
+∞
X
série, notée E(X). Par exemple, si X(Ω) = N, on a E(X) = kP(X = k)
k=0
+∞
X
Par exemple, avec X(Ω) = N, on a : E X 2 = k 2 P(X = k)
k=0
El Arrouchi-Espaces Probabilisés 19
Définition : Pour un entier r, lorsque X r admet une espérance, on dit que X admet un
moment d’ordre r et on le note mr (X) = E(X r ).
On montre l’existence des moments et on calcule leurs valeurs à l’aide de la formule de
transfert.
Proposition 2.10 Si X admet un moment d’ordre r, alors X admet un moment d’ordre s pour tout s
inférieur à r.
Remarque 2.13 Si E(X 2 ) existe alors E(X) existe. Attention ! La réciproque à cette propriété est fausse.
Considérons par exemple la v.a.r. X dont la loi est donnée par X(Ω) = N∗ et pour tout n ∈ N∗ P(X =
+∞
1 X 1 1 X
n) = 3
avec α = 3
. On a nP(X = n) = 2
donc |nP(X = n)| converge et E(X) existe. De
αn k=1
k αn
1 X
plus n2 P(X = n) = donc |n2 P(X = n)| diverge et E(X 2 ) n’existe pas.
αn
Définition : On dit que X admet une variance si (X − E(X))2 admet une espérance. La
variance est alors
V(X) = E (X − E(X)2 .
p
De plus lorsque V(X) existe, on appelle écart-type de X le réel σ(X) = V(X).
Voici une formule donnant une technique de calcul de la variance qui peut s’avérer plus simple
que la définition.
Proposition 2.11
1. X admet une variance si et seulement si elle admet un moment d’ordre 2, et
Exemple 2.13 Soit X une v.a.r. dont la loi est donnée par P(X = k) = p(1 − p)k , ∀k ∈ N où 0 < p < 1.
La fonction génératrice est une série géométrique :
∞ ∞
X X p 1
GX (z) = E(z X ) = P(X = k)z k = p (z − pz)k = où |z| < .
k=1 k=0
1 − z + pz 1−p
1−p
Le rayon de convergence est donc R = 1
1−p > 1. D’où E(X) = G0X (1) = p et E(X(X − 1)) = G00X (1) =
(1−p)2
2 p2
, puis V(X) = G00X (1) + G0X (1) − (G0X (1))2 = 1−p
p2
.
Définition : Une v.a.r. X suit une loi uniforme sur F = {x1 , . . . , xn } si X(Ω) = F et si,
1
pour tout i ∈ [[1, n]], on a P(X = xi ) = . On note alors X ,→ U (F )
n
El Arrouchi-Espaces Probabilisés 21
n+1 n2 − 1
Proposition 2.14 Soit n ∈ N∗ et X ,→ U ([[1, n]]). On a E(X) = , V(X) = et GX (z) =
2 12
z 1−z n si z 6= 1
n 1−z
1 si z = 1.
En fait, une loi est dite uniforme dès qu’il y a équiprobabilité des différentes valeurs prises par X,
mais rien n’impose que ces valeurs soient des entiers consécutifs, ni que la première valeur soit 1.
Exercice 14 Soit X ,→ U ([[a, b]]) où (a, b) ∈ Z2 tels que a < b. Calculer E(X) et V(X).
Définition : Soit p ∈]0, 1[. Une v.a.r. X suit une loi de Bernoulli de paramètre p si X(Ω) =
{0, 1}, P(X = 1) = p et P(X = 0) = 1 − p. On note alors X ,→ B(p).
Proposition 2.15 Soit p ∈]0, 1[ et X ,→ B(p). Alors E(X) = p, V(X) = p(1 − p) et GX (z) =
pz + 1 − p.
Définition : Soient n ∈ N∗ et p ∈]0, 1[. Une v.a.r. X suit une loi binomiale
! de paramètres
n k
n et p si X(Ω) = [[0, n]] et si, pour tout k ∈ [[0, n]], on a P(X = k) = p (1 − p)n−k . On
k
note alors X ,→ B(n, p).
Proposition 2.17
1. Soient n ∈ N∗ , p ∈]0, 1[ et X ,→ B(n, p). Alors E(X) = np, V(X) = np(1 − p) et GX (z) =
(pz + 1 − p)n .
2. (admis) Soient n ∈ N∗ , p ∈]0, 1[ et X1 , X2 , . . . , Xn une famille de variables aléatoires mutuel-
lement indépendantes suivant une loi de Bernoulli de paramètre p. Alors si X = X1 + X2 +
· · · + Xn , on a X ,→ B(n, p).
El Arrouchi-Espaces Probabilisés 22
Remarque 2.15 Toute répétition d’expérience aléatoires à deux issues (Succès ou Échec) de manière indé-
pendantes, ce qui s’appelle un schéma de Bernoulli, conduit à l’introduction de loi binomiale.
Pour justifier son utilisation, on peut dire « dans une expérience à deux issues, on appelle succès l’événement
S = ... de probabilité p. On répète n fois cette expérience de manière indépendante. Alors si X est la v.a.r.
qui compte le nombre de succès, X ,→ B(n, p). »
Exercice 15 Un conseil d’administration valide sa décision lorsque 10 au moins des 12 membres sont d’ac-
cord. Chacun des membres prend sa décision indépendamment des autres et choisit d’accepter avec la pro-
babilité 34 . Déterminer le nombre moyen de membres qui acceptent, puis la probabilité que la décision soit
validée.
Soit X le nombre d’objets de l’échantillon qui possèdent la caractéristique. Alors X suit une loi
hypergéométrique de paramètres N , M , n, dénotée X ,→ H(N, M, n). On a X(Ω) = [[max(0, n −
N + M ), min(M, n)]] et
M N −M
k n−k
∀k ∈ X(Ω), P(X = k) =
N
n
M
Proposition 2.18 Si X suit la loi hypergéométrique H(N, M, n) avec p = N, alors
N −n
E(X) = np et V(X) = np(1 − p) .
N −1
Théorème 2.16 On suppose que quand N tend vers +∞, M = M (N ) tend vers +∞ en vérifiant la
M
condition lim = p avec 0 < p < 1.
N →+∞ N
Alors, n restant fixé, la loi hypergéométrique H(N, M, n) converge vers la loi binomiale B(n, p), ce qui
signifie
k C n−k
CM N −M
∀k ∈ [[1, n]], lim n = Cnk pk (1 − p)n−k .
N →+∞ CN
Remarque 2.17 En pratique, ce résultat s’applique dès que n/N < 0, 1, c’est-à-dire dès que la population
est 10 fois plus grande que l’échantillon, ce qui arrive fréquemment en sondages.
Définition : Soit p ∈]0, 1[. Une v.a.r. X suit une loi géométrique de paramètre p si X(Ω) =
N∗ et si, pour tout k ∈ N∗ , on a P(X = k) = p(1 − p)k−1 . On note alors X ,→ G(p).
El Arrouchi-Espaces Probabilisés 23
1 1−p
Proposition 2.19 Soit p ∈]0, 1[ et X ,→ G(p). On a alors E(X) = , V(X) = et GX (z) =
p p2
pz
.
pz − z + 1
Remarque 2.18 Les variables aléatoires qui décrivent un temps d’attente avant le premier succès, lors-
qu’on répète une expérience de Bernoulli à l’identique et de manière indépendante, suivent une loi géomé-
trique. Pour justifier son utilisation, on peut rédiger ainsi :
« Soit X la variable aléatoire qui compte le nombre de lancers nécessaires pour obtenir le premier suc-
cès en répétant indépendamment l’expérience de Bernoulli dont le succès est l’événement S = ..., de
probabilité p. Donc, X ,→ G(p) ».
Exercice 16 On jette cinq dés équilibrés. Après le premier lancer, on reprend et on relance les dés qui n’ont
pas donné 1, jusqu’à ce qu’on obtienne cinq 1. Soit X le nombre de lancers nécessaires. Calculer P(X 6 k)
puis P(X = k) pour tout k ∈ N∗ . Combien de lancers seront nécessaires en moyenne ?
Définition : Soit λ ∈ R∗+ . Une v.a.r. X suit une loi de Poisson de paramètre λ si X(Ω) = N
λk −λ
et si, pour tout k ∈ N, on a P(X = k) = e . On note alors X ,→ P(λ).
k!
Proposition 2.20 Soit λ ∈ R∗+ et X ,→ P(λ). On a alors E(X) = V(X) = λ et GX (z) = eλ(z−1) .
Remarque 2.19 La loi de Poisson a parfois été appelée loi des événements rares, pour ses applications
classiques à la modélisation de phénomènes rares. On ne dispose pas ici d’une situation concrète simple pour
illustrer la loi de Poisson : cette loi sera toujours introduite par l’énoncé.
Théorème 2.20 Si (pn )n≥1 est une suite de réels de [0, 1] vérifiant
alors la loi binomiale B(n, pn ) converge vers la loi de Poisson P(λ), ce qui signifie
λk
∀k ∈ N, Cnk pkn (1 − pn )n−k → e−λ , quand n → +∞.
k!
Remarque 2.21 Une telle approximation est valable lorsque n ≥ 30, p ≤ 1/10 et np ≤ 15.
Exemple 2.21 Une urne contient 2 boules blanches, 3 boules rouges et 4 boules bleues. On extrait 3 boules
de l’urne. On note X le nombre de boules blanches parmi ces 3 boules et Y le nombre de boules rouges.
Déterminons la loi du couple (X, Y ).
2 3 4
i j 3−i−j
On a X(Ω) = {0, 1, 2} et Y (Ω) = {0, 1, 2, 3}. Ainsi, pour i + j ≤ 3, P(X = i, Y = j) = 9 .
3
On résume les résultats dans le tableau suivant
HH Y
H 0 1 2 3
X HH
H
4 1 18 3 12 1 1
0 84 = 21 84 = 14 84 = 7 84
12 1 24 2 6 1
1 84 = 7 84 = 7 84 = 14 0
4 1 3 1
2 84 = 21 84 = 28 0 0
3
P(Y = 2) = P(X = 0, Y = 2) + P(X = 1, Y = 2) + P(X = 2, Y = 2) =
14
1 14 1
Ainsi P(Y =2) (X = 1) = × =
14 3 3
P(X = 0, Y = 2) 1 14 2
- P(Y =2) (X = 0) = = × = . D’où X|Y = 2 ,→ B(1/3).
P(Y = 2) 7 3 3
El Arrouchi-Espaces Probabilisés 25
Proposition 2.22 (Formules des marginales) Soit (X, Y ) un couple de v.a.r. discrètes. Pour tout
(i, j) ∈ I × J tels que P (X = xi ) 6= 0 et P (Y = yi ) 6= 0 on a
— Lois marginales à partir de la loi du couple :
X
P(X = xi ) = P(X = xi , Y = yj )
j∈J
X
P(Y = yj ) = P(X = xi , Y = yj )
i∈I
Exercice 17 Dans une succession de pile ou face pour laquelle la probabilité d’obtenir pile est p ∈]0, 1[ et
la probabilité d’obtenir face est q = 1 − p, on note X le rang d’apparition du premier pile et Y le rang
d’apparition du deuxième pile. Déterminer la loi du couple (X, Y ). En déduire les lois marginales.
Exemple 2.23 Un urne contient n jetons numérotés de 1 à n. On en tire deux avec remise. Soit X et Y les
variables aléatoires égales au premier et au second numéro tiré. On a pour tout 1 6 i, j 6 n, P(X = i, Y =
1
j) = 2 = P(X = i)P(Y = j) donc X et Y sont indépendantes.
n
On effectue la même expérience mais sans remise. On a alors P(X = i, Y = i]) = 0 mais P(X = i)P(Y =
1
i) = 2 , donc les variables ne sont pas indépendantes.
n
Proposition 2.24 Soient X1 , · · · , Xn n v.a.r. discrètes définies sur le même espace probabilisé.
1. X1 , · · · , Xn sont indépendantes SSI P (X1 ≤ x1 , · · · , Xn ≤ xn ) = P(X1 ≤ x1 )×· · ·×P(Xn ≤
xn ).
2. Soit p ∈ {2, ..., n − 1}. Si X1 , · · · , Xn sont indépendantes, alors toute variable aléatoire fonc-
tion des variables X1 , · · · , Xp est indépendante de toute variable aléatoire fonction des variables
Xp+1 , · · · , Xn .
Exemple 2.25 Si X1 , X2 , X3 , X4 , X5 sont 5 v.a.r. discrètes mutuellement indépendantes alors les variables
X1 + 2X32 et X2 − eX5 sont indépendantes.
El Arrouchi-Espaces Probabilisés 26
2.22.2 moments
Théorème 2.23 (Théorème de Transfert) Soit X et Y deux v.a.r. discrètes. Sous réserve d’existence,
on a, pour toute fonction réelle définie sur X(Ω) × Y (Ω),
X
E(g(X, Y )) = g(x, y)P(X = x, Y = y).
(x,y)∈X(Ω)×Y (Ω)
X
En particulier, E(XY ) = xyP(X = x, Y = y).
(x,y)∈X(Ω)×Y (Ω)
Corollaire 2.26 Soit X, Y deux v.a.r. discrètes admettant une espérance et a, b deux réels. Alors
Proposition 2.27 (Propriétés de la covariance) Pour tout couple (X, Y ) de v.a.r. discrètes ayant des
moments d’ordre 2 :
1. Cov(X, Y ) = Cov(Y, X).
2. Cov(X, Y ) = E(XY ) − E(X)E(Y ) (formule souvent utilisable dans le calcul).
3. Pour tous réels a, b, c, d : Cov(aX + b, cY + d) = acCov(X, Y ).
4. |Cov(X, Y )| ≤ σ(X)σ(Y ), i.e., |ρ(X, Y ) ≤ 1.
5. Si X et Y sont indépendantes alors Cov(X, Y ) = 0 (réciproque fausse).
Remarque 2.25 Il résulte facilement du cas d’égalité dans l’inégalité de Cauchy-Schwarz que si |ρ| = 1,
alors Y est une fonction affine de X : Y = aX + b. Quand ρ = 0 (ce qui arrive en particulier lorsque X et
Y sont indépendantes), on dit que X et Y sont non corrélées.
Exemple 2.28 Reprenons l’exemple 2.21 et calculons la covariance de X et Y . En déterminant les lois
1 2 2 15 6 3
marginales de X et Y , on trouve E(X) = + = et E(Y ) = + + = 1.
2 12 3 28 14 84
51 2 3 1 1 2 1
De même, E(XY ) = 0 × +1× +2× = . Donc Cov(X, Y ) = − = − .
84 7 28 2 2 3 6
El Arrouchi-Espaces Probabilisés 27
Proposition 2.29 Soient X1 , · · · , Xn des v.a.r. discrètes admettant toutes un moment d’ordre 2. Alors
la variable X1 + · · · + Xn admet une variance et
n
X X
V(X1 + · · · + Xn ) = V(Xi ) + 2 Cov(Xi , Xj ).
i=1 16i<j6n
Remarque 2.27 Remarquez que dans le cas des variables aléatoires discrètes, FX n’est jamais continue.
Ces variables aléatoires ne sont donc pas des variables aléatoires à densité.
Les variables aléatoires continues qui ne sont pas à densité ne sont pas au programme de cette année.
Définition : Soit X une v.a.r. à densité. Une densité de probabilité de X est une fonction
fX : R 7→ R telle que
1. fX est positive sur R,
2. fX est continue sur R, sauf éventuellement en un nombre fini de points,
Z x
3. ∀x ∈ R, FX (t) = fX (t)dt.
−∞
Une définition équivalente est la suivante :
si X est une v.a.r. à densité de fonction de répartition FX , alors toute fonction positive
qui vaut FX0 (x) partout sauf en un nombre fini de points est une densité de X.
3/2
Exemple 2.30 On considère la fonction F définie sur R par F (x) = 1+|x|2 /x 1{0≤|x|≤1} + 1{x>1} .
Montrer que F est la fonction de répartition d’une v.a.r. à densité et en déterminer une densité. Par opéra-
tions, on voit que F est continue sur R et de classe C 1 sur R \ {−1, 0, 1} avec
1
F 0 (x) = p 1{0<|x|<1} .
4 |x|
Comme F est continue, F est bien croissante sur R, lim F (x) = 0 et lim F (x) = 1, on peut donc dire
x→−∞ x→+∞
que F est la fonction de répartition d’une variable aléatoire X.
Ainsi, F est de classe C 1 sur R \ {−1, 0, 1}, X est donc bien une variable à densité et une densité de X est
par exemple f (x) = F 0 (x) = √1 1{0<|x|<1} .
4 |x|
Remarque 2.29 On rappelle que la loi d’une v.a.r. est la donnée des probabilités P(X ∈ I) pour tout
intervalle I. D’après les propriétés ci-dessus, une densité fX détermine donc la loi de X.
+∞ R
Définition : Soit X une v.a.r. de densité fX . Si l’intégrale −∞ tfX (t) dt est absolument
convergente alors on dit que X admet une espérance que l’on note E(X) et on a
Z +∞
E(X) = tfX (t) dt.
−∞
Exemple 2.32 Soit f1 et f2 les fonctions définies sur R par f1 (x) = e−x 1R+ ∗
(x) et f2 (x) = π1 1+x
1
2.
Montrer que f1 et f2 sont resp. des densités de probabilités des v.a.r. X et Y . X et Y admettent-elles des
espérances ? Si oui, les calculer.
Proposition 2.33 Soient X et Y deux v.a.r. à densité admettant une espérance, et si a, b sont des réels :
E(aX + b) = aE(X) + b et E(X + Y ) = E(X) + E(Y )
El Arrouchi-Espaces Probabilisés 29
Théorème 2.30 (Théorème de transfert) . Soit g une fonction qui va de R dans R. Alors on a
Z +∞
E(g(X)) existe ssi l’intégrale g(t)fX (t)dt converge absolument et dans ce cas
−∞
Z +∞
E(g(X)) = g(t)fX (t)dt.
−∞
Z +∞
Par exemple, E X 2 = t2 fX (t)dt.
−∞
Définition : R +∞ r
— Soit r ∈ N∗ . Si l’intégrale −∞ x f (x) dx est absolument convergente alors on dit
que X admet un moment d’ordre r, noté mr (X) et on a
Z +∞
r
mr (X) = E(X ) = xr fX (x) dx.
−∞
Remarque 2.31 Pour le calcul de variance dans la pratique on utilisera souvent la formule suivante V(X) =
E(X 2 ) − E2 (X).
Exemple 2.35 Soit X une v.a.r. ayant comme densité la fonction fX (x) = e−x 1R+ ∗
(x). Nous avons vu que
E(X) = 1. X admet-elle une variance R0
? Si oui, la calculer.
Sur ] − ∞, 0], |x2 fX (x)| = 0 donc −∞ |x2 fX (x)| dx converge.
Sur ]0, +∞[, |x2 f (x)| = x 2 e−x . La fonction x → x2 e−x est continue sur ]0, +∞[. De plus, au voisinage
1
de +∞, on a x2 e−x = o . Par comparaison à une intégrale de Riemann convergente, l’intégrale
R +∞ 2 x2
0 |x fX (x)| dx est convergente.
R +∞ 2
Donc l’intégrale −∞ x f (x) dx est absolument convergente ainsi X admet un moment d’ordre 2 et donc
une variance. De plus, on obtient par des simples intégrations par partie que
Z +∞ Z +∞ h i+∞
2
E(X ) = 2
x f (x) dx = x2 e−x dx = −(x2 + 2x + 2)e−x = 2.
−∞ 0 0
Définition : Soient a et b deux réels tels que a < b. On dit qu’une v.a.r. X suit la loi
uniforme sur [a, b], et on note X ,→ U([a, b]), si elle admet pour densité la fonction fX
définie par
1
1 si x ∈ [a, b]
fX (x) = 1[a,b] (x) = b − a .
b−a
0 sinon
Proposition 2.36 Soit X une v.a.r. à densité telle que X ,→ U([a, b]). Alors on a
1. X(Ω) = [a, b].
a+b (b − a)2
2. E(X) = et V(X) = .
2 12
0 si x 6 a
x − a
3. FX (x) = P(X ≤ x) = si a < x < b .
b−a
1 si x > b
Proposition 2.37 Soit X une v.a.r. à densité telle que X ,→ E(λ). Alors on a
1. X(Ω) = R+ .
1 1
2. E(X) = et V(X) = 2 .
λ λ
(
0 si x < 0,
3. FX (x) = P(X ≤ x) = (1 − e−λx )1 R+ (x) =
1 − e−λx si x > 0.
El Arrouchi-Espaces Probabilisés 31
Définition : X suit une loi gamma de paramètre a > 0 et λ > 0, et on note X ,→ γ(a, λ),
lorsque qu’elle admet pour densité la fonction fX définie sur R par
a
λa a−1 −λx λ xa−1 e−λx si x ∈ [0, +∞[,
Γ(a)
fX (x) = x e 1R+ (x) = ,
Γ(a) 0 sinon.
√
où Γ(a) = 0∞ xa−1 e−x dx est la fonction gamma. Γ(1/2) =
R
π, Γ(1) = 1. Pour tout x > 0,
on a Γ(x + 1) = xΓ(x), d’où Γ(n + 1) = n!, ∀ n ∈ N.
Proposition 2.38 Soit X une v.a.r. à densité telle que X ,→ γ(a, λ). Alors on a
1. X(Ω) = R+ .
a a
2. E(X) = et V(X) = 2 .
λ λ
Théorème 2.33 (Moivre-Laplace) Soit Sn une v.a.r de loi binomiale de paramètres n et p (Sn ,→
Sn − np
B(n, p)) et Sn∗ = p sa v.a.r. centrée réduite associée.
np(1 − p)
Pour tous réel a < b fixés
Z b
1 2
lim P(a ≤ Sn∗ ≤ b) = √ e−t /2 dt.
n→+∞ a 2π
De Moivre a donné la première version de ce théorème en 1733. Laplace (1812) prouva plus tard
le même résultat par une méthode différente en obtenant une évaluation de la vitesse de conver-
gence.
2
1 1 (x−µ)
fX (x) = √ e− 2 σ2 .
σ 2π
La loi N (0, 1) est appelée loi normale standard (ou centrée réduite).
Remarque 2.34 En raison de la décroissance rapide de l’exponentielle, il est clair que les variables gaus-
siennes ont des moments de tout ordre. L’interprétation des paramètres µ et σ est très simple.
El Arrouchi-Espaces Probabilisés 32
Proposition 2.39
1. Si la v.a.r. X suit la loi N (µ, σ 2 ), alors E(X) = µ et V(X) = σ 2 .
X −µ
2. X ,→ N µ, σ 2 ⇐⇒ X ∗ =
,→ N (0, 1) .
σ
Remarque 2.35
— Tous les calculs de probabilités concernant une v.a.r. de loi N µ, σ 2 peuvent se ramener à des calculs
Correction de continuité
Si la variable aléatoire X suit la loi binomiale B(n, p) , alors la variable aléatoire X prend des va-
leurs entières positives entre 0 et n. Remplacer la loi binomiale B(n, p) par la loi normale N (np, np(1−
p)) revient à considérer la variable aléatoire X comme une variable qui prend donc toutes les va-
leurs réelles. L’intervalle [k − 0, 5; k + 0, 5[ est l’ensemble des nombres réels qui s’arrondissent à k,
c’est-a-dire pour k ∈ [[1, n − 1]], nous remplacerons P(X = k) par P(k − 0, 5 ≤ X < k + 0, 5).
Remarque 2.36 Pour que la somme des valeurs approchées des P(X = k), k variant de 0 à n, soit égale à
1, nous remplacerons P(X = 0) par P(X < 0, 5) et P(X = n) par P(n − 0, 5 ≤ X).
El Arrouchi-Espaces Probabilisés 33
On a, par exemple P(X ≤ 1, 56) = Φ(1, 56) ≈ 0, 9406 (voir les nombres encadrés). Pour les valeurs
négatives, on se sert de la propriété Φ(−t) = 1 − Φ(t).
El Arrouchi-Espaces Probabilisés 35
p 0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01
0 infini 3.0902 2.8782 2.7478 2.6521 2.5758 2.5121 2.4573 2.4089 2.3656 2.3263 0.99
0.01 2.3263 2.2904 2.2571 2.2262 2.1973 2.1701 2.1444 2.1201 2.0969 2.0748 2.0537 0.98
0.02 2.0537 2.0335 2.0141 1.9954 1.9774 1.9600 1.9431 1.9268 1.9110 1.8957 1.8808 0.97
0.03 1.8808 1.8663 1.8522 1.8384 1.8250 1.8119 1.7991 1.7866 1.7744 1.7624 1.7507 0.96
0.04 1.7507 1.7392 1.7279 1.7169 1.7060 1.6954 1.6849 1.6747 1.6646 1.6546 1.6449 0.95
0.05 1.6449 1.6352 1.6258 1.6164 1.6072 1.5982 1.5893 1.5805 1.5718 1.5632 1.5548 0.94
0.06 1.5548 1.5464 1.5382 1.5301 1.5220 1.5141 1.5063 1.4985 1.4909 1.4833 1.4758 0.93
0.07 1.4758 1.4684 1.4611 1.4538 1.4466 1.4395 1.4325 1.4255 1.4187 1.4118 1.4051 0.92
0.08 1.4051 1.3984 1.3917 1.3852 1.3787 1.3722 1.3658 1.3595 1.3532 1.3469 1.3408 0.91
0.09 1.3408 1.3346 1.3285 1.3225 1.3165 1.3106 1.3047 1.2988 1.2930 1.2873 1.2816 0.90
0.10 1.2816 1.2759 1.2702 1.2646 1.2591 1.2536 1.2481 1.2426 1.2372 1.2319 1.2265 0.89
0.11 1.2265 1.2212 1.2160 1.2107 1.2055 1.2004 1.1952 1.1901 1.1850 1.1800 1.1750 0.88
0.12 1.1750 1.1700 1.1650 1.1601 1.1552 1.1503 1.1455 1.1407 1.1359 1.1311 1.1264 0.87
0.13 1.1264 1.1217 1.1170 1.1123 1.1077 1.1031 1.0985 1.0939 1.0893 1.0848 1.0803 0.86
0.14 1.0803 1.0758 1.0714 1.0669 1.0625 1.0581 1.0537 1.0494 1.0451 1.0407 1.0364 0.85
0.15 1.0364 1.0322 1.0279 1.0237 1.0194 1.0152 1.0110 1.0069 1.0027 0.9986 0.9945 0.84
0.16 0.9945 0.9904 0.9863 0.9822 0.9782 0.9741 0.9701 0.9661 0.9621 0.9581 0.9542 0.83
0.17 0.9542 0.9502 0.9463 0.9424 0.9385 0.9346 0.9307 0.9269 0.9230 0.9192 0.9154 0.82
0.18 0.9154 0.9116 0.9078 0.9040 0.9002 0.8965 0.8927 0.8890 0.8853 0.8816 0.8779 0.81
0.19 0.8779 0.8742 0.8706 0.8669 0.8632 0.8596 0.8560 0.8524 0.8488 0.8452 0.8416 0.80
0.20 0.8416 0.8381 0.8345 0.8310 0.8274 0.8239 0.8204 0.8169 0.8134 0.8099 0.8064 0.79
0.21 0.8064 0.8030 0.7995 0.7961 0.7926 0.7892 0.7858 0.7824 0.7790 0.7756 0.7722 0.78
0.22 0.7722 0.7688 0.7655 0.7621 0.7588 0.7554 0.7521 0.7488 0.7454 0.7421 0.7388 0.77
0.23 0.7388 0.7356 0.7323 0.7290 0.7257 0.7225 0.7192 0.7160 0.7128 0.7095 0.7063 0.76
0.24 0.7063 0.7031 0.6999 0.6967 0.6935 0.6903 0.6871 0.6840 0.6808 0.6776 0.6745 0.75
0.25 0.6745 0.6713 0.6682 0.6651 0.6620 0.6588 0.6557 0.6526 0.6495 0.6464 0.6433 0.74
0.26 0.6433 0.6403 0.6372 0.6341 0.6311 0.6280 0.6250 0.6219 0.6189 0.6158 0.6128 0.73
0.27 0.6128 0.6098 0.6068 0.6038 0.6008 0.5978 0.5948 0.5918 0.5888 0.5858 0.5828 0.72
0.28 0.5828 0.5799 0.5769 0.5740 0.5710 0.5681 0.5651 0.5622 0.5592 0.5563 0.5534 0.71
0.29 0.5534 0.5505 0.5476 0.5446 0.5417 0.5388 0.5359 0.5330 0.5302 0.5273 0.5244 0.70
0.30 0.5244 0.5215 0.5187 0.5158 0.5129 0.5101 0.5072 0.5044 0.5015 0.4987 0.4958 0.69
0.31 0.4958 0.4930 0.4902 0.4874 0.4845 0.4817 0.4789 0.4761 0.4733 0.4705 0.4677 0.68
0.32 0.4677 0.4649 0.4621 0.4593 0.4565 0.4538 0.4510 0.4482 0.4454 0.4427 0.4399 0.67
0.33 0.4399 0.4372 0.4344 0.4316 0.4289 0.4261 0.4234 0.4207 0.4179 0.4152 0.4125 0.66
0.34 0.4125 0.4097 0.4070 0.4043 0.4016 0.3989 0.3961 0.3934 0.3907 0.3880 0.3853 0.65
0.35 0.3853 0.3826 0.3799 0.3772 0.3745 0.3719 0.3692 0.3665 0.3638 0.3611 0.3585 0.64
0.36 0.3585 0.3558 0.3531 0.3505 0.3478 0.3451 0.3425 0.3398 0.3372 0.3345 0.3319 0.63
0.37 0.3319 0.3292 0.3266 0.3239 0.3213 0.3186 0.3160 0.3134 0.3107 0.3081 0.3055 0.62
0.38 0.3055 0.3029 0.3002 0.2976 0.2950 0.2924 0.2898 0.2871 0.2845 0.2819 0.2793 0.61
0.39 0.2793 0.2767 0.2741 0.2715 0.2689 0.2663 0.2637 0.2611 0.2585 0.2559 0.2533 0.60
0.40 0.2533 0.2508 0.2482 0.2456 0.2430 0.2404 0.2378 0.2353 0.2327 0.2301 0.2275 0.59
0.41 0.2275 0.2250 0.2224 0.2198 0.2173 0.2147 0.2121 0.2096 0.2070 0.2045 0.2019 0.58
0.42 0.2019 0.1993 0.1968 0.1942 0.1917 0.1891 0.1866 0.1840 0.1815 0.1789 0.1764 0.57
0.43 0.1764 0.1738 0.1713 0.1687 0.1662 0.1637 0.1611 0.1586 0.1560 0.1535 0.1510 0.56
0.44 0.1510 0.1484 0.1459 0.1434 0.1408 0.1383 0.1358 0.1332 0.1307 0.1282 0.1257 0.55
0.45 0.1257 0.1231 0.1206 0.1181 0.1156 0.1130 0.1105 0.1080 0.1055 0.1030 0.1004 0.54
0.46 0.1004 0.0979 0.0954 0.0929 0.0904 0.0878 0.0853 0.0828 0.0803 0.0778 0.0753 0.53
0.47 0.0753 0.0728 0.0702 0.0677 0.0652 0.0627 0.0602 0.0577 0.0552 0.0527 0.0502 0.52
0.48 0.0502 0.0476 0.0451 0.0426 0.0401 0.0376 0.0351 0.0326 0.0301 0.0276 0.0251 0.51
0.49 0.0251 0.0226 0.0201 0.0175 0.0150 0.0125 0.0100 0.0075 0.0050 0.0025 0.0000 0.50
0.01 0.009 0.008 0.007 0.006 0.005 0.004 0.003 0.002 0.001 0 p
El Arrouchi-Espaces Probabilisés 37
On peut se servir de la relation suivante xp = −x1−p . Par exemple, x0,975 = 1, 96 et x0,025 = −1, 96.
El Arrouchi-Espaces Probabilisés 38
1 n x
fX (x) = n
n
x 2 −1 e− 2 1R+ (x),
2 Γ( 2 )
2
R ∞ a−1 −x
où Γ(a) = 0 x e dx est la fonction gamma.
Remarque 2.37
— On remarque que χ2 (n) = γ(n/2, 1/2). Donc E(χ2 (n)) = n et V(χ2 (n)) = 2n.
— On peut démontrer de même que la loi du khi-deux χ2 (n) est la loi de la somme de carré de n lois
normales centrées réduites indépendantes.
Si X est une v.a. de loi normale centrée et réduite et Y suit une loi du khi-deux à n degrés de liberté,
X et Y étant indépendantes, alors la loi de Tn = √X est appelée loi de Student à n degrés de
Y /n
liberté. Sa densité est donnée par
!− n+1
1 Γ( n+12 ) t2 2
fTn (t) = √ 1 + , pour tout t ∈ R.
nπ Γ( n2 ) n
E(Tn ) ne peut pas être définie pour n = 1, et est nulle pour n > 1. V(Tn ) est infinie pour n = 2 et
n
vaut n−2 pour n > 2.
Si X suit une loi du khi-deux à n degrés de liberté, et Y une loi du khi-deux à m degrés de liberté,
et si X et Y sont indépendantes, alors la loi de Fn,m = YX/n /m est appelée loi de Fisher à n et m
degrés de liberté. Sa densité est donnée par
n/2 m/2
nx nx
n x+m 1− n x+m
f (x) = pour tout réel x > 0,
x β(n/2, m/2)
R 1 x−1
où n et m sont des entiers positifs et β(x, y) = 0 t (1 − t)y−1 dt est la fonction bêta.
m
Suivant les valeurs de m, Fn,m admet alors une espérance et une variance qui sont E(Fn,m ) = m−2
2 m2
(n+m−2)
pour m > 2 et V(Fn,m ) = n(m−2)2 (m−4)
pour m > 4.
Exercice 3 Paris est interdit à la circulation pour laisser le champ libre aux voitures officielles. Entre l’Étoile
et Orly, il y a treize feux tricolores qui fonctionnent de manière indépendante. Chacun est rouge un tiers du
temps. Soit X le nombre de feux rouges qu’une escorte de motards ignore sur son passage, de l’Étoile à Orly.
Déterminer l’espérance et l’écart-type de X.
Exercice 4 Un jeu consiste à lancer une pièce (ayant une probabilité p ∈]0, 1[ de tomber sur Pile) jusqu’à
obtenir Pile, soit k le nombre de lancers nécessaires, et ensuite à lancer k fois un dé équilibré. La partie est
gagnante si exactement un six a été obtenu.
1. Quelle est la probabilité de gagner ?
2. Comment truquer la pièce pour avoir le maximum de chances de gagner ?
Exercice 5 Une personne A (respectivement une personne B) lance au hasard n + 1 (respectivement n) fois
de façon indépendante une pièce de monnaie parfaitement équilibrée (n ≥ 1).
1. Calculer la probabilité pour que la personne A aie plus de faces que B.
2. Commenter.
Exercice 7 Un représentant de commerce vendant des panneaux solaires visite un nombre aléatoire N de
clients chaque jour. On suppose que N suit une loi de Poisson de paramètre λ. La probabilité qu’un client
visité achète un panneau solaire est p ∈]0, 1[, et est indépendante des décisions des autres clients. Soit Y le
nombre de panneaux solaires vendus en une journée.
1. Calculer pour tout k ∈ N la probabilité conditionnelle P(Y = k|N = n), i.e. la probabilité que parmi
n clients visités, k clients exactement achètent un panneau solaire.
2. En déduire la loi de Y , i.e. pour tout k ∈ N calculer la probabilité P(Y = k). Reconnaître cette loi.
3. Calculer P(N = n|Y = k).
4. En déduire que la loi conditionnelle de N − k sachant que Y = k suit une loi de Poisson dont on
précisera le paramètre.
Exercice 8 On classe les gérants de portefeuilles de valeurs boursières en deux catégories : ceux qui sont
bien informés et ceux qui ne le sont pas. Lorsqu’un gérant bien informé achète une valeur boursière pour
son client, la probabilité que le cours de celle-ci monte est de 0,8 ; dans le cas d’un gérant mal informé, le
cours descend avec une probabilité 0,6. Dans l’annuaire professionnel, un gérant sur 10 est bien informé.
Un client choisit au hasard un gérant dans l’annuaire et lui demande d’acheter une valeur.
1. Quelle est la probabilité que le cours de la valeur de l’action monte ?
2. Sachant que le cours de la valeur est monté, quelle est la probabilité que le gérant choisi soit mal
informé ?
3. On suppose que les cours des valeurs fluctuent de manière indépendante. Quel est le nombre minimal
de valeurs que doivent être acheter par le gérant, s’il veut être sûr à plus de 95% qu’une valeur au
moins monte ?
El Arrouchi-Espaces Probabilisés 40
Exercice 9 Soit Y une v.a. telle que de loi uniforme sur Y ,→ U([[1, 100]]). On pose
Y si Y ≤ 50
X=
50 sinon.
Exercice 10 (Loi binomiale négative) On considère un jeu de pile ou face où la probabilité d’obtenir face
est 0 < p < 1. On veut étudier la variable aléatoire Sr qui représente le nombre de lancers nécessaires pour
obtenir r fois faces.
1. (a) Quel est l’ensemble des valeurs possibles de Sr ?
(b) Calculer P(Sr = r) et P(Sr = r + 1).
(c) Donner une explication claire et simple de la formule :
r−1 r
P(Sr = k) = Ck−1 p (1 − p)k−r ,
(a) Calculer P(X1 = k1 , ..., Xr = kr ). Que peut-on en déduire sur les variables Xi ?
(b) Calculer la fonction génératrice de Sr .
Exercice 11 1. Quelle est la fonction génératrice de la loi uniforme sur {2, ..., 12} ?
2. Soit X1 et X2 des variables aléatoires indépendantes à valeurs dans {2, ..., 6}. Montrer que la loi de
X1 + X2 ne peut pas être la loi uniforme sur {2, ..., 12}.
3. Peut-on piper deux dés indépendants de façon à rendre toutes les sommes entre 2 et 12 équiprobables ?
Exercice 12 Soit ψ une application, non identiquement nulle, de N dans R, α un réel et (pi )i∈N une famille
sommable de réels strictement positifs et de somme 1.
1.
a. Préciser les conditions que doivent vérifier α et ψ pour que la famille (pij )(i,j)∈N2 définisse une
probabilité sur (N2 , P(N2 )).
b. On suppose que ψ vérifier les inégalités
∀i ∈ N, |ψ(i)| ≤ 1. (2.2)
Montrer que, si X est une variable aléatoire réelle à valuers dans N, ψ(X) admet une espérance
mathématique.
El Arrouchi-Espaces Probabilisés 41
1
ψ0 : i ∈ N 7−→ [γ i e1−γ − 1]
1 + e2
satisfait la condition (2.2).
c.2. Calculer, lorsque la loi de X est la loi de Poisson de paramètre 1, l’espérance mathématique
de ψ0 (X).
1
Dans (3.1), on choisit désormais α réel de [−1, 1], ψ = ψ0 et, pour tout i de N, pi = .
i! e
2.
a. Vérifier que la famille (pij )(i,j)∈N2 ainsi obtenue définit une probabilité Q sur l’espace (N2 , P(N2 )).
b. On considère désormais un couple (X, Y ) de v.a.r. à valeurs dans N de loi de probabilité Q.
Déterminer les lois marginales de X et Y .
c. À quelle condition X et Y sont-elles indépendantes ?
3.
Exercice 15 (Une loi à densité symétrique) Soit f la fonction réelle définie par
f (x) = k|x|e−|x| , x ∈ R.
Exercice 16 Soit X une variable aléatoire réelle ayant une densité f . Montrer que Y = |X| est une variable
aléatoire réelle à densité et déterminer sa densité.
Préciser pourquoi cette définition a bien un sens, et montrer que la variable aléatoire Z = F − (X) a
pour fonction de répartition F .
Exercice 18 (Simulation d’un jeu du dé) Les personnes suivantes jouent aux dés. Certaines trichent.
Lesquelles ?
Personne A : X = [6U ] + 1.
Personne B : X = arrondi à l’unité(5U ) + 1.
Personne C : X = (Y√mod6) + 1 ; Y = [10U ].
Personne D : X = [6 U ] + 1.
où X représente le résultat du lancer d’un dé équilibré à 6 faces et U est une v. a. uniforme sur [0, 1].
Exercice 19 Soit X une variable aléatoire de loi uniforme dans [0, 1]. On pose
1−X
Z= .
X
1. Z est-elle bien définie ?
2. Calculer la fonction de répartition FZ de Z.
3. La loi de Z a-t-elle une densité ? Si oui, la calculer.
4. On brise une tige de longueur 1 en choisissant au hasard le point de rupture selon la loi uniforme
sur [0, 1]. On notera X la longueur du morceau de gauche. Quelle est la probabilité que l’un des
morceaux soit plus de deux fois plus long que l’autre ?
5. Pour quelles valeurs du réel a, la variable aléatoire Z a admet-elle une espérance ?
6. Expliquez, si possible sans calcul, pourquoi Z et Z −1 ont même loi.
Exercice 20 (Contre-exemple) Soit X une variable aléatoire gaussienne centrée réduite et une variable
aléatoire prenant les valeurs 1 et -1 avec la probabilité 1/2. On suppose que X et sont indépendantes.
1. Montrer que X est une variable aléatoire gaussienne centrée réduite.
2. Montrer que la corrélation linéaire entre X et X est nulle.
3. Montrer que X et X ne sont pas indépendantes.
2. On considère une variable aléatoire X qui suit une loi Normale N (609.1, 69.2). Calculer P(550 <
X < 700). Quelle est la variable x telle que P(X > x) = 0.01 ?
Exercice 22 (Utilisation des tables de la loi normale standard) On suppose que la distance en mètres
parcourue par un javelot suit une loi normale. Au cours d’un entraînement, on constate que :
— 10% des javelots atteignent plus de 75 mètres.
— 25% des javelots parcourent moins de 50 mètres.
Calculer la longueur moyenne parcourue par un javelot ainsi que l’écart-type de cette longueur.
Exercice 23 (Approximations) En France, la proportion des camping-cars par rapport à l’ensemble des
véhicules est égale à 0,07.
1. Soit X le nombre des camping-cars parmi 100 véhicules choisis au hasard sur un parking contenant
2000 véhicules. Calculez P(X ≥ 5).
2. Soit Y le nombre de camping-cars parmi 1000 véhicules circulant sur le boulevard périphérique d’une
grande ville à une heure d’affluence. Nous supposerons que N ≥ 20000. Calculez P(65 ≤ Y ≤ 75).
3. Nous choisissons n véhicules au hasard. Déterminez pour quelle valeur de n nous pouvons affirmer
que la proportion des camping-cars parmi ces n véhicules est comprise entre 0,06 et 0,08 avec un
risque d’erreur inférieur à 0,05.
Chapitre 3
Statistique descriptive
La statistique descriptive est un ensemble des méthodes permettant à décrire, traiter et interpréter
des ensembles des données. Cette description des données se fait à travers deux approches : gra-
phique et numérique. Dans ces deux approches, aucune hypothèse probabiliste n’est faite sur les
données considérées, il n’est pas nécessaire de supposer que les données observées proviennent
par exemple d’une loi de probabilité.
Échantillon est un sous-ensemble de la population dont les individus feront l’objet de l’étude.
Le choix de l’échantillon se fait en respectant certaines règles (théorie des sondages).
La valeur prise par la variable sur un individu est appelée modalité ou observation.
Les Données sont constituées par l’ensemble des modalités (série statistique, tableaux, fichiers,
données primaires).
— Variable qualitative nominale : La variable est dite qualitative nominale quand les modali-
tés ne peuvent pas être ordonnées. Exemple : Nationalité, Sexe, Couleur, Groupes sanguins,
etc
44
El Arrouchi-Espaces Probabilisés 45
— Variable qualitative ordinale : La variable est dite qualitative ordinale quand les modalités
peuvent être ordonnées. Exemple : Mention à un examen, Catégorie socioprofessionnelle
de modalités : "ouvriers", "employés", "cadres", etc.
— Variable quantitative discrète : Une variable est dite discrète, si l’ensemble des modalités
est discret (valeurs isolées). Exemple : Nombre d’enfants par famille, le nombre d’accidents,
etc.
— Variable quantitative continue : Une variable est dite continue, si l’ensemble des modalités
est continu. Exemple : le poids, la taille, la température, le taux de glycémie, le rendement,
etc.
Notation : les variables seront notées par des lettres majuscules X, Y , Z... ; on note leurs modalités
par des lettres minuscules xi , yj , zl ... et les effectifs associés par ni , nj , nl ...
Pour les variables continues, on commence par ranger les observations en classes, celles-ci étant
des intervalles de la forme [ai−1 , ai [. Ensuite, pour chaque classe, on compte le nombre d’individus
dont le caractère appartient à la classe : ce nombre est l’effectif de la classe. On note k le nombre
de classes.
La répartition en classes des données nécessite de définir a priori le nombre de classes k et donc
l’amplitude de chaque classe. En règle générale, on choisit au moins cinq classes de même ampli-
tude. Cependant, il existent des formules qui nous permettent d’établir le nombre de classes pour
une série statistique de N observations.
— La règle de Sturge : k = 1√ + (3.3 log10 (N )).
— La règle de Yule : k = 2.5 4 N .
L’amplitude de classe est donc (xmax − xmin )/k, où xmax (resp. xmin ) désigne la plus grande (resp.
la plus petite) modalité.
Définition : On appelle
— Fréquence relative (ou proportion), associée à la modalité xi du caractère (resp. à
la classe [ai−1 , ai [), la valeur fi définie par :
ni
fi = . Elle s’exprime souvent en pourcentage.
N
— Effectif cumulé (Fréquence cumulée absolue), associée à la modalité xi du ca-
ractère (resp. à la classe [ai−1 , ai [), le nombre Ni d’individus dont le caractère est
inférieur ou égal à xi :
i
X
Ni = nj .
j=1
Les résultats sont généralement présentés sous la forme des tableaux suivants.
TABLE 3.1 – Tableau de distribution de fréquences pour une variable qualitative ou discrète
Exemple 3.1 On s’intéresse à la variable "taux de réussite au baccalauréat en 2015 dans l’académie de
Kénitra" notée X et à la série statistique des valeurs prises par X sur 4 type de baccalauréat. Les données
sont résumées dans le tableau suivant
xi ni fi Fi
Bac lettre 19 772 42,56% 42,56%
Bac éco 9 043 19,47% 62,03%
Bac science 13 439 28,93% 90,96%
Bac pro 4 200 9,04% 100,00%
Total N = 46454 100% kkkkkk
Exemple 3.2 (Défauts relevés sur une pièce électronique) Un fabricant de pièces électronique essaie
une nouvelle machine ; il compte le nombre de défauts sur 75 échantillons. Il a trouvé les résultats suivants :
TABLE 3.3 – Étude statistique du nombre de défauts sur une pièce : Tableau de distribution.
Nombre de défauts ni fi (%) Ni Fi (%)
0 38 50,6 38 50,6
1 15 20 53 = 38 + 15 70,6
2 11 14,7 64 = 53 + 11 85,3
3 6 8 70 = 64 + 6 93,3
4 3 4 73 = 70 + 3 97,3
5 2 2,7 75 = 73 + 2 100%
Total N = 75 100% kkkkkkkkkk kkkkkk
Exemple 3.3 On a relevé l’âge de 150 personnes. Les résultats de l’enquête sont donnés dans le tableau
suivant :
Classes Effectifs
[20, 25[ 9
[25, 30[ 27
[30, 35[ 36
[35, 40[ 45
[40, 50[ 27
[50, 60[ 6
N 150
Pour une variable nominale, seules les hauteurs sont significatives ; l’ordre et l’écart des xi ne sont
pas significatifs.
Diagramme en secteurs
C’est la représentation la plus utilisée pour les variables nominales. L’angle de chaque secteur αi
est proportionnel à la fréquence fi . En degré, on a αi = 360 × fi .
El Arrouchi-Espaces Probabilisés 49
Type ni fi αi
Bac lettre 19 772 42,56% 153,23
Bac éco 9 043 19,47% 70,08
Bac science 13 439 28,93% 104,15
Bac pro 4 200 9,04% 32,55
Total 46 454 100% 360
— on joint par des morceaux de droites les milieux des segments horizontaux supérieurs des
rectangles de l’histogramme ;
— on ajoute à droite et à gauche de l’histogramme des classes fictives, toutes deux de même
amplitude et d’effectif nul, ce qui donne alors lieu à deux nouveaux segments. Voir la figure
3.4.
Dans la pratique, on ne l’utilisera que pour des variables continues. Pour ces dernières, la déter-
mination de la fonction de répartition se fait de la manière suivante :
Soit X une variable continue, dont les valeurs sont rangées en classes [a0 , a1 [, . . . , [ak−1 , ak [ , avec
des fréquences f1 , . . . , fk .
— On commence par calculer les valeurs de F aux points du découpage
— Ensuite, dans chaque classe , on fait une interpolation linéaire (on relie les points extrêmes
par un segment de droite).
— Puis on prolonge la courbe par 0 à gauche de a0 et par 1 à droite de ak (figure 3.5).
El Arrouchi-Espaces Probabilisés 52
Proposition 3.6 Si X est une variable quantitative continue. Alors, d’après la méthode d’interpolation
linéaire, on obtient
0 si x < a0
fi
F (x) = F i−1 + Ai (x − ai−1 ) si ai−1 ≤ x < ai , i ≥ 1
1 si x ≥ ak .
Exercice 24 On reprend l’exemple du tableau 3.4. Tracer la fonction de répartition et calculer le pourcentage
des personnes dont l’age est supérieur où égal 45.
Le tableau 3.5 suivant donne les caractéristiques étudiées pour chaque type de variable.
Définition :
— si X est une variable statistique nominale, ordinale ou discrète, le mode de la
distribution associée est la modalité de X la plus représentée, c’est-à-dire celle
pour laquelle l’effectif est le plus grand ;
— si X est une variable continue, la classe modale de la distribution associée est
la classe dont la densité de fréquences est la plus élevée. Si [ai−1 , ai [ est la classe
modale, on peut alors approximer le mode par la méthode des diagonales (voir la
figue 3.6 ) :
Mo − ai−1 hi − hi−1 ∆1 ∆1
= = ⇒ Mo = ai−1 + Ai .
ai − ai−1 (hi − hi−1 ) + (hi − hi+1 ) ∆1 + ∆2 ∆1 + ∆ 2
Remarque 3.8 Une distribution est dite unimodale si elle admet un mode unique, bimodale si elle admet
deux modes ou multiimodale si elle admet plusieurs modes.
Exemple 3.7 Le mode dans la table 3.1 est la modalité "bac lettre". Sur la table 3.4, la classe modale est
0,06−0,048
[35, 40[, donc Mo = ai−1 + Ai ∆1∆+∆
1
2
= 35 + 5 × 0,06−0,048+0,06−0,018 ≈ 35, 63.
Médiane
Définition : La médiane est la valeur "centrale" de la série. On dit qu’elle partage la série
en deux moitiés. Ainsi 50% des éléments de l’échantillon ont une valeur inférieure à la
médiane et 50% une valeur supérieure.
En général, on note x(1) ≤ x(2) ≤ ... ≤ x(i) ≤ ... ≤ x(N ) la série ordonnée par ordre croissant de la
série brute x1 , x2 , ...xi , ..., xN de données. Alors,
El Arrouchi-Espaces Probabilisés 54
Si N est impair M é = x( N +1 )
n2 o
1
Si N est pair M é = 2 x( N ) + x( N +1)
2 2
Exemple 3.8 Trouver la médiane de la série brute suivante : 21, 25, 28, 30, 27, 24, 31, 21, 28, 30, 25, 28,
26, 25.
Réponses : Ordonnons la série par ordre croissant : 21, 21, 24, 25, 25, 25, 26, 27, 28, 28, 28, 30, 30, 31. On
x +x
a N = 14, pair, donc la médiane est (7) 2 (8) = 26+27
2 = 26, 5.
0, 5 − F (ai−1 )
M é = ai−1 + (ai − ai−1 )
F (ai ) − F (ai−1 )
Exemple 3.9 Dans la table 3.4, la classe médiane est [35, 40[ car F (35) = 0, 48 < 0, 5 < F (40) = 0, 78.
En appliquant la formule de la médiane, on obtient M é = 35, 33.
Remarque 3.9 la médiane est peu sensible aux valeurs extrêmes de la variable, donc aux erreurs de mesures
qui, bien souvent, produisent des valeurs aberrantes. On dit que la médiane est robuste ou résistante.
Quantiles-Quartiles
La notion de médiane peut se généraliser à celle de quantile. Soit α dans l’intervalle ]0, 1[. On
note x(1) ≤ x(2) ≤ ... ≤ x(i) ≤ ... ≤ x(N ) la série ordonnée par ordre croissant de la série brute
x1 , x2 , ...xi , ..., xN de données. Alors on définit le nombre Qα , quantile d’ordre α, par
α − F (ai−1 )
Qα = ai−1 + (ai − ai−1 ) .
F (ai ) − F (ai−1 )
Exemple 3.10 On reprend la série brute de l’exercice 3.8, Trouver les quartiles. Même question pour la
table 3.4.
Réponses : Exercice 3.8 : on a 14 × 14 = 3, 5 n’est pas entier, donc Q0,25 = x(4) = 25 et 14 × 43 = 11, 5
n’est pas entier, donc Q0,75 = x(12) = 30. Table 3.4 : on obtient Q0,25 = 30.2 et Q0,75 = 39.5.
Moyenne arithmétique
La moyenne ne peut être définie que sur une variable quantitative.
Pour obtenir une approximation de la moyenne d’une variable continue rangée en classes [ai−1 , ai [,
on remplace, dans les expressions en 3.1, les xi par les centres des classes ci = ai−12+ai .
Remarque 3.10
— la moyenne, prenant en compte toutes les valeurs observées, est très sensible aux observations ex-
trêmes ou aberrantes ;
— Les courbes suivantes (Figure 3.7) donnent une idée sur la forme d’une distribution quelconque :
Étendue
L’étendue=observation maximale-valeur minimale= x(N ) − x(1) .
El Arrouchi-Espaces Probabilisés 56
Écart Interquartile
C’est la différence IQ = Q0,75 − Q0,25 . Cet intervalle englobe la moitié, ou approximativement la
moitié, des observations qui se situent au centre de la distribution. Ce paramètre, est assez souvent
utilisé et robuste.
Exemple 3.11 Soit la série des données suivante S = {3, 4, 5, 2, 1, 10, 16, 13, 7, 29, 21}, Q0,75 = 14.5 et
Q0,25 = 3.5, IQ = 14.5 − 3.5 = 11.
Le diagramme en forme de boîte appelé boîte à moustaches ou boxplot en anglais est une bonne
manière de représenter de manière visuelle la dispersion des données d’une distribution ainsi que
sa symétrie ou asymétrie.
Variance-Écart type
Définition : La variance d’une distribution de X, notée V ar(X), est la somme des carrés
des écarts à la moyenne divisée par le nombre d’observations, c’est à dire :
N k k
1 X 1 X X
V ar(X) = (xi − X̄)2 = ni (xi − X̄)2 = fi (xi − X̄)2 .
N i=1 N i=1 i=1
Remarque 3.12 Pour le cas continu où ci sont les centres des classes, on peut utiliser :
—
N k k
1 X 1 X X
V ar(X) ≈ (ci − X̄)2 = ni (ci − X̄)2 = fi (ci − X̄)2 .
N i=1 N i=1 i=1
—
N k k
1 X 1 X X
V ar(X) ≈ c2i − X̄ 2 = ni c2i − X̄ 2 = fi c2i − X̄ 2 .
N i=1 N i=1 i=1
p
Pour des raisons d’unités et d’ordre de grandeur, on utilise l’écart-type : σ(X) = V ar(X).
Coefficient de variation
Dans certaines situations, on désire comparer le taux de dispersion de distributions alors que leur
tendance de mesure respective ne sont pas comparables, l’objectif de ce coefficient est de fournir
un indice quantitatif permettant cette comparaison et indépendant du choix des unités de mesure
σ(X)
C.V = × 100 (%).
X
Exemple 3.13 On considère deux classes de SM C dont les notes en Statistique du semestre 4 sont données
par le tableau suivant :
Notes 5 6 7 8 9 10 11 12 13 14 15 16
Effectifs SM C1 0 3 4 4 5 7 3 4 2 1 0 0
Effectifs SM C2 2 4 3 3 3 4 3 2 2 3 1 2
On trouve que X̄1 = 9, 52, X̄2 = 9, 94, σ1 = 2, 13 et σ2 = 3, 21. Donc, CV1 = 22% et CV2 = 32%. On
en déduit que la 1ère classe est légèrement homogène que la deuxième.
Exercice 2 Un maraîcher est très fier de la quantité de fruits fournis par sa nouvelle sorte de cerisier. Pour
tenter de comprendre quelle est la quantité "normale" de fruits pour un arbre de ce type, il mesure cette
quantité sur chacun de ses 78 cerisiers et trouve les résultats suivants :
Quantité de cerises (Kg) Nombre d’arbres Quantité de cerises (Kg) Nombre d’arbres
100 3 148 10
108 3 156 9
116 7 164 8
124 7 172 6
132 9 180 4
140 10 188 2
Faites deux histogrammes de ces valeurs ; le premier avec 12 classes (de 96 à 192), le second avec 6 classes.
Que remarquez-vous et quelle conclusion pouvez-vous en tirer ?
Exercice 3 Au poste de péage, on compte le nombre de voitures se présentant sur une période de 5mn. Sur
100 observations de 5mn, on obtient les résultats suivants :
El Arrouchi-Espaces Probabilisés 58
Nombre de voitures 1 2 3 4 5 6 7 8 9 10 11 12
Nombre d’observations 2 8 14 20 19 15 9 6 2 3 1 1
1. Construire la table des fréquences et le diagramme en bâtons en fréquences de la série du nombre de
voitures.
2. Déterminer le mode, la médiane et les quartiles.
3. Calculer la moyenne et l’écart-type de cette série.
4. Étudier la symétrie de la série.
Chiffres d’affaires moins de 0,25 [0,25 ;0,5[ [0,5 ;1[ [1 ;2,5[ [2,5 ;5[ [5 ;10[
Nombre d’entreprises 137 106 112 154 100 33
1. Construire l’histogramme des fréquences.
2. Construire le polygone des fréquences cumulées.
3. Calculer le mode, la médiane et la proportion d’entreprises dont le chiffre d’affaire est supérieur à 3
millions de dirhams.
4. Calculer le chiffre d’affaire moyen et l’écart-type de la série.
Exercice 5 Un fonctionnaire du Ministère des pêches a reçu les résultats de la pêche au homard en Mehdia
pour le printemps 2005. Le tableau qui suit nous indique le nombre de tonnes métriques de homards capturés
par jour durant cette période.
— Si Y est le profit du grossiste par jour, exprimer Y en fonction du tonnage métrique de homards
capturés.
— Calculer la moyenne et l’écart type du profit du grossiste par jour.