Probabilte 3
Probabilte 3
Probabilte 3
y.c
Cours Commun Scientifique
de
em
Probabilités & Statistiques
d
Résumé de cours
ca
Suivi des fiches d’exercices
loa
om
1.1 Définitions
Définition
Un espace de probabilité (Ω,P ) est constitué de
– Ω, un ensemble (l’ensemble des résultats d’une expérience aléatoire)
– P , une probabilité sur Ω.
y.c
Un élément ω ∈ Ω est appelé une réalisation, c’est un résultat possible d’une expérience
aléatoire.
Un sous-ensemble A ⊂ Ω est appelé un événement. C’est un ensemble de réalisations (par
exemple, celles qui vérifient une certaine condition). L’ensemble des événements est donc l’en-
semble P(Ω) des parties (ou sous-ensembles) de Ω.
Définition
em
Une probabilité sur Ω est une application P : P(Ω) → [0,1], définie sur les événements,
telle que
1. P (Ω) = 1
[ X
2. pour toute suite (An )n d’événements disjoints deux à deux, P An = P (An ).
n n
Si un événement A vérifie P (A) = 0, on dit que A est négligeable ; et si P (A) = 1, on dit
d
que A est presque sûr, ou que A a lieu presque sûrement, abrégé « p.s. ».
Propriétés
ca
(i) P (∅) = 0
(ii) Pour tout événement A, P (Ac ) = 1 − P (A)
(iii) Si A ⊂ B, alors P (A) ≤ P (B)
(iv) Pour tous événements A et B, P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
loa
(v) Pour toute suite croissante (An )n d’événements (c’est-à-dire An ⊂ An+1 pour tout n),
[
P An = lim↑ P (An )
n
n
(vi) Pour toute suite décroissante (An )n d’événements (c’est-à-dire An+1 ⊂ An pour tout n),
.al
\
P An = lim↓ P (An )
n
n
w
Pour simplifier, on suppose dans ce cours que tout ensemble de réalisations est un événement. En
réalité, ceci n’est plus possible dans le cas par exemple où Ω = [0,1] est muni de la probabilité uniforme
car on ne peut pas définir l’intégrale sur n’importe quel ensemble mais seulement sur des ensembles
ww
« mesurables ». En pratique, ceci n’est pas une limitation car tous les ensembles que l’on utilise sont
mesurables. Néanmoins, pour définir rigoureusement la théorie des probabilités, on appellerait espace
de probabilités un triplet (Ω,A,P ) où A est l’ensemble des événements, qui doit être une tribu sur Ω,
c’est-à-dire un ensembleSde parties de Ω tel que a) Ω ∈ A, b) si A ∈ A alors Ac ∈ A, et c) si An ∈ A
pour tout n ∈ N, alors n An ∈ A ; et P est uniquement définie sur A. Puis, sur R, on définirait la
tribu borélienne, qui est la plus petite tribu contenant les intervalles.
1
1.2 Cas élémentaire : équiprobabilité
om
On suppose que Card Ω = n, avec Ω = {ω1 ,ω2 , . . . ,ωn }.
Définition
La probabilité uniforme sur Ω (ou distribution équiprobable) est la probabilité P définie
par : pour tout A = {ωi1 ,ωi2 , . . . ,ωik } ⊂ Ω,
k Card A
P (A) = = .
y.c
n Card Ω
Rappels de dénombrement :
em
Proposition
Soit E un ensemble fini.
– Une permutation de E est une façon d’ordonner les éléments de E.
Le nombre de permutations d’un ensemble à n éléments est
n! = 1 × 2 × 3 × · · · × (n − 2) × (n − 1) × n.
d
– Un arrangement de k éléments de E est une façon de choisir et d’ordonner k éléments
de E : c’est une suite de k éléments de E distincts 2 à 2.
ca
Le nombre d’arrangements de k éléments parmi n éléments (où 0 ≤ k ≤ n) est
n!
Akn = n(n − 1) · · · (n − k + 1) = .
(n − k)!
n(n − 1) · · · (n − k + 1)
n n!
= Cnk = = .
k k! k!(n − k)!
.al
On peut dire aussi qu’un arrangement correspond à un tirage de k éléments un par un (et sans
remise) en mémorisant l’ordre de tirage, tandis qu’une combinaison correspond à un tirage de
k éléments simultanément.
Un arrangement de n éléments parmi n est une permutation, donc Ann = n!.
w
ww
2
1.3 Probabilités conditionnelles
om
Définition
Soit B un événement tel que P (B) > 0. L’application P (·|B) : P(Ω) −→ [0,1] définie par
P (A ∩ B)
P (A|B) =
P (B)
y.c
P (A|B) est appelée la probabilité conditionnelle de A sachant B.
Proposition
On a
P (A ∩ B) = P (A|B)P (B) = P (B|A)P (A).
em
Définition
Un système complet d’événements est une partition (An )n de Ω, c’est-à-dire une suite
finie ou infinie (An )n d’événements disjoints, dont la réunion est Ω :
[
pour tous i 6= j, Ai ∩ Aj = ∅, et Ω= An .
d n
Par exemple, pour tout événement B, le couple (B,B c ) est un système complet d’événements.
Théorème (Théorème des probabilités totales)
ca
Soit (An )n un système complet d’événements. Pour tout événement A,
X
P (A) = P (A|An )P (An ).
n
loa
du système,
P (A|Ai )P (Ai )
P (Ai |A) = P .
n P (A|An )P (An )
P (A|B c )P (B c )
P (B c |A) = .
P (A|B)P (B) + P (A|B c )P (B c )
ww
3
1.4 Événements indépendants
om
Définition
Deux événements A et B sont indépendants si
P (A ∩ B) = P (A)P (B).
y.c
Proposition
Si deux événements A et B sont indépendants, alors Ac et B c le sont aussi.
Définition
Une famille (Ai )i d’événements est indépendante si pour toute sous-famille finie on a
em
P (Ai1 ∩ Ai2 · · · ∩ Aik ) = P (Ai1 )P (Ai2 ) · · · P (Aik ).
P ({(1,0,1,1)}) = p × (1 − p) × p × p
et on voit qu’en général, si la séquence ω comporte k fois 1 (et donc n − k fois 0),
P ({ω}) = pk (1 − p)n−k .
On vient de voir que, pour toute séquence ω ∈ Ak , P ({ω}) = pk (1 − p)n−k . Par ailleurs, le
nombre de telles séquences est Card Ak = nk . On en déduit que
w
n k
P (Ak ) = p (1 − p)n−k .
k
ww
En notant X le nombre de fois où Pile est apparu, on dira plus tard que X est une variable
aléatoire qui suit la loi binomiale B(n,p).
Plus généralement, on peut bien sûr appliquer ce qui précède pour évaluer le nombre d’événe-
ments réalisés parmi une suite de n événements indépendants B1 , . . . ,Bn ayant tous la même
probabilité P (Bi ) = p : on pose Ak = {k événements exactement parmi B1 , . . . ,Bn se réalisent}.
Ci-dessus, on avait Bi = {le i-ième tirage est Pile}.
4
2 Variables aléatoires. Généralités
om
Soit (Ω,P ) un espace de probabilité.
Définition
Une variable aléatoire est une application X : Ω → R.
Définition
Soit X une variable aléatoire. La loi de X est la probabilité PX sur R définie par :
y.c
pour tout B ⊂ R, PX (B) = P ({ω ∈ Ω | X(ω) ∈ B})
= P (X ∈ B).
PX peut aussi être vue comme une probabilité sur X(Ω), ensemble des valeurs prises par X,
aussi appelé support de PX . On note parfois X ∼ PX pour indiquer que X suit la loi PX .
em
La seconde égalité est une nouvelle notation : on note {X ∈ B} l’événement formé des éven-
tualités ω pour lesquelles X(ω) ∈ B, et on abrège P ({X ∈ B}) = P (X ∈ B).
Définition
Si A est un événement, on introduit la variable aléatoire fonction indicatrice de A,
notée 1A , qui indique si l’événement A est réalisé :
d
1 si ω ∈ A
pour tout ω ∈ Ω, 1A (ω) =
0 si ω ∈
/ A.
ca
2.1 Lois discrètes
Une variable aléatoire X est dite discrète si l’ensemble X(Ω) des valeurs qu’elle prend est
loa
dénombrable (c’est-à-dire que l’on peut trouver une suite qui énumère tous les éléments de
X(ω) : c’est le cas notamment si X(Ω) est un ensemble fini, N, Z ou Q, mais pas l’intervalle [0,1]
ni R). On dit aussi que la loi de X est discrète.
Si X est discrète, alors, pour tout B ⊂ R, on peut calculer
X X
PX (B) = P (X ∈ B) = P (X = x) = P (X = x).
x∈B∩X(Ω) x∈B
.al
Pour caractériser une loi discrète, il suffit donc de se donner les probabilités élémentaires
x∈E
Dans ce cas, il existe une variable aléatoire X (sur un espace de probabilité (Ω,P )), à valeurs
dans E, de probabilités élémentaires pX = p, c’est-à-dire
pour tout x ∈ E, P (X = x) = p(x).
5
2.2 Lois continues
om
Une variable aléatoire X est dite continue ou à densité s’il existe une fonction fX : R→R
telle que, pour tout B ⊂ R,
Z
PX (B) = P (X ∈ B) = fX (x)dx.
B
y.c
Définition-Proposition
Une fonction f : R → R est une fonction de densité de probabilité si
1. pour tout x ∈ R, f (x) ≥ 0
Z
2. f (x)dx = 1.
R
em
Dans ce cas, il existe une variable aléatoire X (sur un espace de probabilité (Ω,P )) de densité
fX = f .
P (X = x) = 0.
R
De plus, si fX (x) = 0 pour tout x ∈ B, alors P (X ∈ B) = B fX (x)dx = 0.
d
On en déduit que X est à valeurs dans {x ∈ R | fX (x) > 0}.
ca
2.3 Fonction de répartition
Définition
Soit X une variable aléatoire. La fonction de répartition de X est la fonction FX : R → R
définie par
pour tout x ∈ R, FX (x) = P (X ≤ x).
loa
Proposition
a) Soit X une variable aléatoire. Sa fonction de répartition FX est une fonction croissante,
b) Si X et Y sont deux variables aléatoires telles que FX (t) = FY (t) pour tout t ∈ R, alors
X et Y ont même loi.
c) Si X est une variable aléatoire discrète, FX est une fonction constante par morceaux,
dont les sauts se situent aux points de X(Ω), et le saut en x ∈ X(Ω) a pour hauteur
w
P (X = x).
d) Si X est une variable aléatoire de densité fX , on a
Z x
pour tout x ∈ R,
ww
FX (x) = fX (t)dt
−∞
6
2.4 Espérance d’une variable aléatoire
om
Définition
L’espérance d’une variable aléatoire X, notée E[X], est la moyenne de ses valeurs, pondé-
rées par leurs probabilités.
Si X est discrète, X
E[X] = xP (X = x).
x∈X(Ω)
y.c
Si X est continue, de densité f ,
Z
E[X] = xf (x)dx.
R
Attention. L’espérance n’est pas toujours définie. Il faut pour cela que la série ou l’intégrale
ci-dessus converge absolument.
em
Propriétés
(i) Si X est constante, égale à c ∈ R (pour tout ω ∈ Ω, X(ω) = c), alors E[X] = E[c] = c.
(ii) Pour tout événement A ⊂ Ω, E[1A ] = P (A).
(iii) L’espérance est linéaire : pour toutes variables aléatoires X et Y , et tout réel a,
d
E[aX] = aE[X] et E[X + Y ] = E[X] + E[Y ].
x∈X(Ω)
à sa moyenne : h 2 i
Var(X) = E X − E[X] ≥ 0.
p
L’écart type de X est σ(X) = Var(X).
ww
Attention. La variance n’est pas toujours définie. Il faut que l’espérance E[X] soit définie
et que l’espérance ci-dessus converge. Ceci revient à demander à ce que E[X 2 ] converge.
NB. À la différence de la variance, l’écart type σ(X) est homogène à X : si par exemple X est
une distance, alors σ(X) est une distance aussi. Ceci justifie l’intérêt de l’écart type.
7
Propriétés
om
Pour toutes variables aléatoires X et Y et toute constante a,
1. Var(X) = E[X 2 ] − E[X]2
2. Var(aX) = a2 Var(X)
3. Var(X + a) = Var(X)
4. Var(X + Y ) = Var(X) + 2 Cov(X,Y ) + Var(Y ), où la covariance est définie par
y.c
h i
Cov(X,Y ) = E X − E[X] Y − E[Y ] = E[XY ] − E[X]E[Y ].
Proposition
X − E[X]
Pour toute variable aléatoire X possédant une variance, la variable aléatoire Y =
σ(X)
em
est centrée (E[Y ] = 0) et réduite (Var(Y ) = 1).
mr (X) = E[X r ],
Démonstration : On a toujours |X|r ≥ 0 et, si |X| ≥ a, alors |X|r ≥ ar . D’où ar 1{|X|≥a} ≤ |X|r , ce
.al
Et E[ar 1{|X|≥a} ] = ar P (|X| ≥ a), d’où résulte l’inégalité annoncée (r = 1 donne la première).
w
Var(X)
ww
P X − E[X] ≥ a ≤ .
a2
8
2.6 Indépendance de variables aléatoires
om
Définition
Des variables aléatoires X1 , . . . ,Xn sont indépendantes si, pour tous B1 , . . . ,Bn ⊂ R,
y.c
Par exemple, deux variables aléatoires X et Y sont indépendantes si les événements qui ne
dépendent que de X sont indépendants des événements qui ne dépendent que de Y .
Proposition
1. Si X1 , . . . ,Xn sont indépendantes, alors les variables aléatoires f1 (X1 ), . . . ,fn (Xn ) sont
indépendantes, quelles que soient les fonctions f1 , . . . ,fn .
2. « Indépendance par paquets ». Si X1 , . . . ,Xn sont indépendantes alors, par exemple,
em
les variables aléatoires f1,2 (X1 ,X2 ), f4 (X4 ), f3,5,6 (X3 ,X5 ,X6 ),. . . sont indépendantes :
les fonctions de « paquets disjoints » de variables sont indépendantes.
3. Si des événements A1 , . . . ,An sont indépendants alors leurs fonctions indicatrices
1A1 , . . . ,1An sont des variables aléatoires indépendantes ; et réciproquement.
Proposition
d
Si X1 , . . . ,Xn sont des variables aléatoires indépendantes, alors
1. si leurs espérances sont bien définies,
ca
E[X1 · · · Xn ] = E[X1 ] · · · E[Xn ]
2. si leurs variances sont bien définies, alors on a Cov(Xi ,Xj ) = 0 pour tous i 6= j, d’où
On rappelle que E est toujours linéaire : même si X1 , . . . ,Xn ne sont pas indépendantes,
Théorème
Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, et de même loi, d’espérance m
et de variance σ 2 . On définit la variable aléatoires X n , appelée moyenne empirique, par
ww
X1 + · · · + Xn
Xn = .
n
On a :
pour tout ε > 0, P X n − m < ε −→ 1.
n→∞
9
Démonstration : Par linéarité de l’espérance, E[X n ] = n1 (E[X1 ] + · · · + E[Xn ]) = m, et les variables
om
sont indépendantes donc
n
1 X σ2
Var X n = 2 Var(Xi ) = .
n n
i=1
y.c
ce qui donne, en passant au complémentaire,
σ2
P Xn − m < ε ≥ 1 − 2 .
nε
Comme le terme de droite converge vers 1 quand n → ∞, et que le terme de gauche est ≤ 1, on obtient
l’énoncé.
em
NB. Si (An )n≥1 est une suite d’événements indépendants et qui ont même probabilité p (par
exemple, dans une suite de tirages à Pile-ou-Face, An = {le n-ième tirage est Pile}, et p = 12 ),
alors en posant Xi = 1Ai , on a
10
3 Lois usuelles
om
3.1 Loi de Bernoulli de paramètre p, B(p)
C’est la loi d’une variable aléatoire X qui ne peut prendre que 2 valeurs, notées 1 et 0, et
p ∈ [0,1] est la probabilité de la valeur 1 :
P (X = 1) = p et P (X = 0) = 1 − p.
y.c
C’est donc la loi de la fonction indicatrice 1A d’un événement A tel que P (A) = p.
On a
E[X] = p et Var(X) = p(1 − p).
em
La loi binomiale B(n,p) est la loi de la variable aléatoire Sn = X1 + X2 + · · · + Xn .
C’est donc la loi du nombre d’événements parmi A1 , . . . ,An qui sont réalisés, si A1 , . . . ,An
sont indépendants et de même probabilité p. (Ci-dessus, Xn = 1An )
Sn est à valeurs dans {0,1, . . . ,n} et on a (cf. chapitre 1)
n k
pour k = 0,1, . . . ,n, P (Sn = k) = p (1 − p)n−k .
k
De plus
d n
X
E[X] = E[Xi ] = np
ca
i=1
et comme les variables aléatoires sont indépendantes,
n
X
Var(X) = Var(Xi ) = np(1 − p).
i=1
loa
λk
pour tout k ∈ N, P (X = k) = e−λ .
k!
On a
E[X] = λ et Var(X) = λ .
C’est la « loi des petites probabilités » car la loi limite de la loi binomiale B(n,p), avec np ∼ λ :
w
Proposition
Si, pour tout n, Sn suit la loi B(n,pn ), et npn −→ λ, alors
n→∞
ww
λk
pour tout k ∈ N, P (Sn = k) −→ e−λ .
n→∞ k!
Dans la pratique, on peut approcher la loi binomiale par une loi de Poisson lorsque
n ≥ 50, p ≤ 0,1 et λ = np ≤ 15.
11
3.4 Loi géométrique de paramètre p, G(p)
om
Soit p ∈]0,1[. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes et de même loi B(p).
La loi géométrique de paramètre p est la loi de la variable aléatoire
N = min{n ≥ 1|Xn = 1}.
C’est donc la loi du premier instant n tel que An est réalisé, si (An )n≥1 est une suite
d’événements indépendants et de même probabilité p. (Ci-dessus, Xn = 1An )
N est à valeurs dans N∗ et on a
y.c
pour k ∈ N∗ , P (N = k) = P (X1 = 0,X2 = 0, . . . ,Xk−1 = 0,Xk = 1) = (1 − p)k−1 p.
On a
1 1−p
E[N ] = et Var(N ) = .
p p2
em
3.5 Loi uniforme sur [a,b], U([a,b])
Soit a < b. La loi uniforme sur [a,b] est la loi de densité
(b − a)−1 si a ≤ x ≤ b
1
f (x) = 1[a,b] (x) =
b−a 0 si x ∈
/ [a,b].
Une variable aléatoire X de loi U([a,b]) est donc à valeurs dans [a,b] et sa fonction de répartition
est donnée par :
d Z x
1 x−a
pour tout x ∈ [a,b], FX (x) = P (X ≤ x) = dt = ,
b−a a b−a
ca
pour tout x < a, FX (x) = 0 et, pour tout x > b, FX (x) = 1.
On a
a+b 1
E[X] = et Var(X) = (b − a)2 .
2 12
loa
On a
pour tout x ≥ 0, P (X ≥ x) = e−λx ,
1 1
E[X] = et Var(X) = 2 .
ww
λ λ
La loi exponentielle est une loi « sans mémoire ». En effet, pour tous s,t ≥ 0,
P ({X ≥ s + t} ∩ {X ≥ s}) e−λ(s+t)
P (X ≥ s + t|X > s) = = −λs
= e−λt = P (X ≥ t),
P (X ≥ s) e
en utilisant le fait que l’événement {X ≥ s + t} est inclus dans l’événement {X ≥ s}.
12
3.7 La loi normale de moyenne m et variance σ 2 , N (m,σ 2 )
om
La loi normale centrée (m = 0) réduite (σ = 1), notée N (0,1), est la loi de densité
1 x2
f (x) = √ e− 2 .
2π
La courbe représentative de f est la « courbe en cloche ». Si X suit la loi N (0,1), on a
y.c
P (−2 ≤ X ≤ 2) ' 0,954 et P (−3 ≤ X ≤ 3) ' 0,997.
em
Lorsque X suit une loi normale, on dit que X est une variable aléatoire gaussienne.
Proposition
Toute combinaison linéaire de variables aléatoires gaussiennes indépendantes est une variable
aléatoire gaussienne.
Plus précisément, si X1 , . . . ,Xn sont indépendantes et Xi ∼ N (mi ,σi2 ) alors, pour tous
a1 , . . . ,an ∈ R, la variable aléatoire X = a1 X1 + · · · + an Xn suit la loi N (M,Σ2 ), où
n
X
d n
X
2
M = E[X] = ai mi et Σ = Var(X) = a2i σi2 .
ca
i=1 i=1
13
4 Couples de variables aléatoires
om
4.1 Loi du couple, loi marginale
Définition
Soit X,Y deux variables aléatoires. La loi du couple (X,Y ) est la probabilité P(X,Y ) sur
R2 qui vérifie :
pour tous A,B ⊂ R, P(X,Y ) (A × B) = P (X ∈ A, Y ∈ B).
y.c
Inversement, les lois de X et de Y sont appelées les lois marginales de P(X,Y ) .
em
La loi du couple contient davantage d’information que PX et PY : elle indique aussi la façon
dont les variables dépendent l’une de l’autre (connaître X peut renseigner sur Y ).
Cas de deux variables discrètes. Si X et Y sont discrètes alors la loi de (X,Y ) est donnée
par les probabilités élémentaires :
p(X,Y ) (x,y) = P (X = x, Y = y) pour tous x ∈ X(Ω), y ∈ Y (Ω).
d
Elles vérifient p(X,Y ) (x,y) ∈ [0,1] pour tous x,y, et
ca
X X
p(X,Y ) (x,y) = 1.
x∈X(Ω) y∈Y (Ω)
NB. X et Y sont indépendantes si, et seulement si p(X,Y ) (x,y) = pX (x)pY (y) pour tous x,y.
.al
Cas où P(X,Y ) a une densité. On dit que le couple (X,Y ) a une densité s’il y a une fonction
f(X,Y ) : R2 → R telle que
ZZ
pour tout D ⊂ R ,
2
P(X,Y ) (D) = f(X,Y ) (x,y)dx dy.
D
f(X,Y ) est appelée la densité du couple (X,Y ). Alors f(X,Y ) (x,y) ≥ 0 pour tous x,y ∈ R, et
w
Z Z
f(X,Y ) (x,y)dx dy = 1.
R R
ww
En particulier,
Z Z
pour tous A,B ⊂ R, P (X ∈ A,Y ∈ B) = f(X,Y ) (x,y)dy dx
A B
On déduit les lois marginales de la loi du couple et, dans le cas indépendant, on déduit la loi
du couple des lois marginales :
14
Proposition
om
1. Si (X,Y ) a pour densité f(X,Y ) , alors X et Y ont des densités fX et fY données par
Z Z
fX (x) = f(X,Y ) (x,y)dy et fY (y) = f(X,Y ) (x,y)dx.
R R
y.c
f(X,Y ) (x,y) = fX (x)fY (y).
em
Si X,Y sont des variables aléatoires, connaître la valeur de X peut influer sur la loi de Y .
Cas où P(X,Y ) a une densité. Étant donné x ∈ R tel que fX (x) > 0, la loi conditionnelle
de Y sachant X = x est la probabilité sur R donnée similairement par la densité suivante :
ca
f(X,Y ) (x,y)
fY |X=x (y) = .
fX (x)
loa
(U,V ) = ϕ(X,Y ).
La loi du (U,V ) se calcule par changement de variable : en posant (u,v) = ϕ(x,y), on aura
(x,y) = ϕ−1 (u,v) et donc
dx dy = |Jacϕ−1 (u,v)|du dv
où Jac est le déterminant jacobien : si ψ : R2 → R2 s’écrit ψ(u,v) = (ψ1 (u,v),ψ2 (u,v)),
w
∂ψ1 ∂ψ1
Jacψ (u,v) = ∂u
∂ψ2
∂v
∂ψ2 .
∂u ∂v
ww
Ainsi, si C ⊂ B,
ZZ
−1
P ((U,V ) ∈ C) = P ((X,Y ) ∈ ϕ (C)) = f(X,Y ) (x,y)dxdy
ϕ−1 (C)
ZZ
= f(X,Y ) (ϕ−1 (u,v))|Jacϕ−1 (u,v)|dudv.
C
15
Ceci montre que le couple (U,V ) a pour densité
om
f(U,V ) (u,v) = f(X,Y ) (ϕ−1 (u,v))|Jacϕ−1 (u,v)|.
Il est parfois plus simple, pour effectuer le changement de variable, de calculer plutôt
du dv = |Jacϕ (x,y)|dx dy
y.c
f(U,V ) (u,v) = f(X,Y ) (x,y)|Jacϕ (x,y)|−1
em
Soit un couple (X,Y ) qui admet une densité f(X,Y ) . Soit h une fonction R2 → R. On suppose
que, pour tout x ∈ R, y 7→ h(x,y) est strictement croissante, ou strictement décroissante (ou
que ∂h
∂y
6= 0).
On considère la variable aléatoire
Z = h(X,Y ).
Pour obtenir la loi de Z, on calcule la densité de (X,Z) = ϕ(X,Y ) par la formule précédente,
où ϕ(x,y) = (x,h(x,y)),
d
−1
1 0 f(X,Y ) (x,y)
ca
f(X,Z) (x,z) = f(X,Y ) (x,y) ∂h ∂h = ,
∂x ∂y
, ∂h
∂y
on remplace y par son expression en fonction de z (il faut h(x,y) = z), et on en déduit la loi de
la marginale Z par la formule usuelle :
loa
Z
fZ (z) = f(X,Z) (x,z)dx.
R
16
5 Estimation
om
5.1 Principe, statistiques classiques
Définition
Soit X une variable aléatoire. Un échantillon de taille n de X est une famille X1 , . . . ,Xn
de n variables aléatoires indépendantes et de même loi que X.
On souhaite étudier la loi de X. Par exemple, X est la taille en centimètres d’un individu choisi
y.c
uniformément dans la population adulte française. Son espérance est donc la taille moyenne d’un
Français adulte, que l’on peut vouloir estimer.
On ne dispose pour cela que d’une réalisation d’un échantillon de taille n : une réalisation
(x1 , . . . ,xn ) ∈ Rn de n variables aléatoires indépendantes (X1 , . . . ,Xn ) qui ont la même loi que X.
À défaut de pouvoir mesurer toute la population, ce qui serait long, coûteux et compliqué, on se
contente de mesurer la taille de n personnes choisies au hasard parmi les Français adultes.
em
L’objectif de l’estimation statistique consiste donc à déduire certaines propriétés de la loi de X
(son espérance, sa variance, ses paramètres...) à partir d’un échantillon de valeurs X1 , . . . ,Xn .
Statistiques simples. Les quantités les plus classiques pour décrire un échantillon sont
– la moyenne empirique :
n
X1 + · · · + Xn 1X
Xn = = Xi
d n n i=1
– la variance empirique :
ca
n
1X 2
Sn2 = Xi − X n
n i=1
– la variance empirique modifiée :
loa
n
1 X 2
Σ2n = Xi − X n .
n − 1 i=1
Proposition
Si X a pour espérance m et pour écart type σ, alors
σ2
.al
E X n = m, Var X n = ,
n
n−1 2
E Sn2 = E Σ2n = σ 2 .
σ ,
n
w
ww
17
5.2 Estimateurs
om
On suppose que X suit une loi Pθ qui dépend d’un paramètre θ ∈ Θ, où Θ ⊂ R est l’ensemble
des valeurs a priori possibles du paramètre. On ignore la valeur de θ, et on souhaite l’estimer.
NB. Dans ce qui suit, on pourrait noter Eθ au lieu de E pour indiquer que la loi de X et donc de
X1 , . . . ,Xn dépend de θ ; on ne le fait pas, afin d’alléger la notation, mais il faut le garder à l’esprit.
Définition
Un estimateur de θ est une variable aléatoire Tn = f (X1 , . . . ,Xn ) qui dépend d’un échan-
y.c
tillon X1 , . . . ,Xn de X. On utilise souvent la notation θb pour un estimateur de θ.
Une estimation de θ est la valeur réelle tn = f (x1 , . . . ,xn ) prise par une réalisation parti-
culière de l’échantillon.
NB. La définition d’estimateur peut paraître curieuse à plusieurs titres. On note que n n’ap-
paraît pas dans l’appellation « estimateur de θ » mais apparaît dans la définition. En fait,
un estimateur peut être vu comme une suite (Tn )n de variables aléatoires où Tn dépend de
em
X1 , . . . ,Xn , et on utilisera la variable Tn adaptée à la taille de l’échantillon dont on dispose. De
plus, θ n’apparaît pas dans la définition : n’importe quelle fonction de X1 , . . . ,Xn est donc un
estimateur de θ. En revanche θ intervient pour mesurer la qualité de l’estimateur :
Définition
Soit Tn un estimateur de θ.
Le biais de Tn est la différence E[Tn ] − θ.
d
On dit que Tn est sans biais si E[Tn ] = θ, quel que soit θ ∈ Θ.
On dit que Tn est asymptotiquement sans biais si E[Tn ] −→ θ, quel que soit θ ∈ Θ.
n→∞
On dit que Tn est convergent si, quel que soit θ ∈ Θ,
ca
pour tout α > 0, P |Tn − θ| > α −→ 0.
n→∞
Proposition
loa
Tout estimateur asymptotiquement sans biais dont la variance tend vers 0 est convergent.
Définition
Le risque quadratique d’un estimateur Tn de θ est
On dit que l’estimateur Sn est meilleur que Tn si, quel que soit θ,
Par l’inégalité de Markov, un estimateur dont le risque quadratique tend vers 0 (quel que soit θ)
w
est convergent.
NB. Si Tn est sans biais, alors RTn (θ) = Var(Tn ).
ww
18
5.3 Construction d’estimateurs
om
Méthode des moments Le principe est d’utiliser la loi des grands nombres pour estimer les
moments, et d’utiliser ensuite ces estimateurs des moments pour estimer θ.
Par la loi des grands nombres, on a :
Proposition
Soit X une variable aléatoire d’espérance m et de variance σ 2 .
1. La moyenne empirique est un estimateur sans biais et convergent de m.
y.c
2. La variance empirique est un estimateur asymptotiquement sans biais et convergent
de σ 2 , et la variance empirique modifiée est un estimateur sans biais et convergent
de σ 2 .
3. Pour tout r > 0, le moment empirique d’ordre r,
n
1X
em
m
br = (Xi )r
n i=1
est un estimateur sans biais et convergent de mr = E[X r ]. (Si mr est bien défini)
On en déduit la méthode des moments : exprimer (si possible) θ à l’aide des moments (mr )r>0 ,
puis remplacer dans cette expression les moments par les moments empiriques. Ceci fournit un
estimateur convergent de θ. L’expression peut aussi faire intervenir σ 2 , que l’on remplace par
Sn2 ou Σ2n .
d
En pratique, on calcule E[X], E[X 2 ], etc., jusqu’à obtenir une expression faisant intervenir θ
ca
(souvent, E[X] suffit), et on inverse pour obtenir θ en fonction de E[X], E[X 2 ],etc. Il ne reste
plus qu’à remplacer m1 = E[X] par X n , m2 = E[X 2 ] par m b 2 , etc.
Définition
La vraisemblance de l’échantillon (X1 , . . . ,Xn ) est la fonction L définie par :
– si X est discrète, de probabilité élémentaire Pθ , pour tous x1 , . . . ,xn ,
n
Y
L(x1 , . . . ,xn ; θ) = Pθ (xi )
.al
i=1
L x1 ,x2 , . . . ,xn ; h(x1 , . . . ,xn ) = max L(x1 , . . . ,xn ; θ).
θ∈Θ
NB. Pour tous x1 , . . . ,xn , h(x1 , . . . ,xn ) est la, ou l’une des valeurs de θ où L(x1 , . . . ,xn ; θ) est
maximum. Ceci définit l’estimation (pratique). L’estimateur est la variable aléatoire h(X1 , . . . ,Xn ).
Sous des hypothèses assez générales, on montre que ceci définit un bon estimateur convergent.
19
Pour le calcul, on est amené à maximiser L(x1 , . . . ,xn ; θ) selon θ. Vu que le logarithme est
om
strictement croissant, c’est équivalent à maximiser la log-vraisemblance ln(L(x1 , . . . ,xn ; θ)),
souvent plus pratique. La dérivée étant nulle au maximum, ceci mène à chercher θ tel que
∂
ln L(x1 , . . . ,xn ; θ) = 0.
∂θ
C’est l’équation de la vraisemblance.
y.c
5.4 Intervalles de confiance
Définition
Un intervalle de confiance de niveau 1 − α est un intervalle IC1−α , qui dépend de
X1 , . . . ,Xn , contenant la valeur θ avec probabilité ≥ 1 − α.
em
Intervalle de confiance pour la moyenne m. Soit X une variable aléatoire de moyenne m
et de variance σ 2 .
Soit (X1 ,X2 , · · · ,Xn ) un échantillon de X. On cherche un intervalle de confiance à partir des
estimateurs sans biais Xn et Σ2n .
Théorème (Théorème central limite)
Soit (Xn )n une suite de variables aléatoires indépendantes, de même loi de moyenne m et
d
d’écart type σ. Soit Zn la variable aléatoire définie par
√
n(Xn − m)
Zn = .
ca
σ
Lorsque n → +∞, Zn converge en loi vers une variable Z ∼ N (0,1). On a donc
1
Z
pour tout intervalle I ⊂ R,
x2
P (Zn ∈ I) −→ P (Z ∈ I) = √ e− 2 dx.
n→∞ 2π I
loa
Dans la pratique on applique ce résultat dès que n est suffisamment grand (n ≥ 30).
Soit Z ∼ N (0,1) et a et α définis par
P (−a ≤ Z ≤ a) = 1 − α
Par exemple, on sait que (voir la table)
.al
ce qui se réécrit
Σn Σn
P Xn − a√ ≤ m ≤ Xn + a√ ' 1 − α.
n n
Si xn est la moyenne observée et σn2 la variance corrigée observée, en posant π1 = xn − a √σnn et
π2 = xn + a √σnn , on en déduit que [π1 ,π2 ] est un intervalle de confiance de m de niveau 1 − α.
20
Intervalle de confiance pour une proportion p. Ici X est une variable aléatoire de
om
Bernoulli de paramètre p, d’où E[X] = p et Var(X) = p(1 − p).
On a, pour n grand, √
n(X − p)
p n ∼ N (0,1)
p(1 − p)
et l’intervalle de confiance pour p de niveau 1 − α précédent est donc
" p p #
(xn )(1 − xn ) (xn )(1 − xn )
y.c
I = xn − a √ , xn + a √ .
n n
em
On utilise généralement plutôt J (plus simple) comme intervalle de confiance de niveau 1 − α.
Remarques.
1. Attention : pour que ces approximations soient justifiées, les valeurs de nπ1 , nπ2 , n(1−π1 )
et n(1 − π2 ) doivent être toutes les quatre supérieures ou égales à 5.
2. Les intervalles de confiance donnés ci-dessus permettent aussi de déterminer la gran-
d
deur n de l’échantillon nécessaire pour avoir une précision donnée pour l’estimation d’une
proportion.
ca
5.5 Application aux tests de différence
On souhaite, à partir de l’échantillon observé x1 , . . . ,xn , savoir si l’on peut raisonnablement
conclure qu’une certaine hypothèse sur la loi de X est fausse (en vue de prendre une décision).
L’hypothèse est appelée hypothèse nulle, et notée H0 . C’est une hypothèse que l’on veut
loa
avoir « peu de chance » de rejeter si elle est vraie (erreur de première espèce).
Le seuil de risque du test est
Zn = p ∼ N (0,1),
π(1 − π)
d’où √
n(X n − π)
P (−1,96 ≤ p ≤ 1,96) = 95%.
π(1 − π)
21
Comme p est l’estimation associée à X n , ceci conduit au test suivant, qui a un seuil de risque
om
de 5% : si √
n(p − π)
p > 1,96
π(1 − π)
alors on rejette l’hypothèse H0 .
NB : Si le test est faux, on ne peut pas conclure que la proportion est π, mais simplement que
l’échantillon ne permet pas d’exclure que la proportion est π. On utilise ce test pour détecter
(avec grande probabilité) les cas où la proportion n’est pas conforme à π. Par exemple pour
y.c
vérifier si un fabricant fournit bien des pièces qui ont une précision donnée, ou des médicaments
qui ont une certaine efficacité, etc.
em
conforme à la moyenne théorique annoncée µ.
alors on rejette l’hypothèse H0 . C’est un test dont le seuil de risque est 5%.
Si l’hypothèse est rejetée, on peut donc conclure que la moyenne n’est pas µ, et on se trompe
ca
dans seulement 5% des cas.
loa
w .al
ww
22
Université Paris 13 — Institut Galilée Année universitaire 2013–2014
om
y.c
d em
Cours Commun Scientifique
de
ca
Probabilités & Statistiques
loa
Fiches d’exercices
w .al
ww
ww
w.al
loa
ca
dem
y.c
om
Université Paris 13, Institut Galilée CCS Probabilités & Statistiques
Année universitaire 20132014
om
Fiche 1 Calculs élémentaires,
probabilités conditionnelles, loi binomiale
y.c
Exercice 1.
Combien de nombres peut-on former avec les chires 0, 1, 2, 3, 4, 5, 6 et 7, en tenant compte
de l'ensemble des contraintes suivantes :
• chaque nombre est composé de chires diérents ;
• chaque nombre commence par un 7 ;
em
• chaque nombre est divisible par 5,
1. si les nombres sont de 8 chires ?
2. si les nombres sont de 6 chires ?
Exercice 2.
Un ensemble de délégués, composé de 6 étudiants d'informatique, de 7 étudiants d'énergétique et
de 5 étudiants de télécom, doit élire un comité représentatif formé de 2 étudiants d'informatique,
d
2 de télécom et de 2 d'énergétique . Quel est le nombre de comités possibles si :
1. les 18 élèves sont éligibles ?
2. un étudiant d'énergétique est élu d'oce ?
ca
3. 2 étudiants d'informatique ne sont pas éligibles ?
Exercice 3.
Bruno et Alain jouent avec deux dés. La règle du jeu est la suivante :
• Bruno joue le premier, et gagne s'il fait un double ;
• sinon, Alain joue, et gagne si la somme des chires tirés est impaire ;
loa
• si aucun d'eux n'a gagné, on joue un deuxième tour dans les mêmes conditions, et ainsi de
suite.
Calculer la probabilité de succès des deux joueurs pour chacun des tours successifs, puis globa-
lement. Discuter les résultats obtenus.
Exercice 4.
.al
Les trois ls de Ken, au cours d'une partie de chasse, aperçoivent un superbe faisan huppé se
percher sur la ligne électrique alimentant leur ferme. Ils tirent tous les trois en même temps.
Les tirs de chasseurs diérents sont supposés indépendants, et chacun d'eux tire une fois et une
seule. On admet que chaque chasseur a une chance sur deux de tuer le volatile, et une chance
sur cinq de couper le l, ces deux événements étant également supposés indépendants.
1. Quelle est la probabilité pour chaque chasseur
w
2. Calculer la probabilité de ne pas être obligé de dîner le soir aux chandelles (en d'autres
termes : quelle est la probabilité que le l ne soit pas coupé ?).
3. Quelle est la probabilité pour le faisan ait reçu :
• aucune balle ?
• exactement deux balles ?
• au moins deux balles ?
1
• au plus deux balles ?
• exactement une balle ?
om
4. Montrer que les deux événements le l est coupé et le faisan est mort sont indépen-
dants.
Suggestion : on pourra montrer que les événements complémentaires le sont.
5. En déduire la probabilité de déguster le soir le faisan aux chandelles, après l'avoir fait rôtir
dans la cheminée puisque le four électrique ne fonctionne plus.
Exercice 5.
y.c
Une population est composée de 40% d'hommes et de 60% de femmes. Dans cette population,
50% des femmes et 30% des hommes lisent plus de 10 romans par an. Quelle est la probabilité
pour qu'un lecteur de plus de 10 romans par an, choisi au hasard, soit un homme ?
Exercice 6.
Lors d'une brève conversation vous apprenez d'un homme qu'il a deux enfants dont au moins
une lle. Quelle est la probabilité pour qu'il ait deux lles ?
em
Exercice 7.
Deux usines fabriquent les mêmes pièces. La première en produit 70% de bonnes et la deuxième
90%. Les deux usines fabriquent la même quantité de pièces.
1. Quel est le pourcentage de bonnes pièces sur l'ensemble du marché, supposé alimenté par
les deux usines ?
2. On achète une pièce, elle est bonne ; quelle est la probabilité pour qu'elle provienne de la
deuxième usine ?
d
3. Mêmes questions lorsque la première usine produit 2,5 fois plus que la deuxième.
ca
Exercice 8.
Un antiquaire possède trois cores C1 , C2 , C3 . Ces cores ont chacun deux tiroirs et dans chacun
de ces 6 tiroirs, il y a une pièce de monnaie.
Dans le core C1 , il y a 2 pièces d'or,
dans le core C2 , il y a 2 pièces d'argent,
loa
Le directeur d'un centre de loisirs ouvert aux adultes et adolescents de plus de 15 ans s'interroge
sur la nécessité de recruter un moniteur de planche à voile. Il décide de le faire si la proportion
des personnes choisissant cette activité est supérieure à 15%.
Une étude de la fréquentation du centre sur l'année précédente a montré que les activités choisies
par les adultes (âge ≥ 18 ans) fréquentant ce centre se répartissent entre : 50% pour le tennis,
40% pour les sports nautiques et 10% pour l'équitation. Parmi les adultes ayant choisi les sports
w
55% pour le tennis, 40% pour les sports nautiques (dont la moitié pour la planche à voile), 5%
pour l'équitation.
2. Déterminer parmi les adolescents la proportion de ceux qui font de la planche à voile.
3. Sachant qu'une personne sur 5 fréquentant ce centre est un adolescent, déterminer la propor-
tion π0 des usagers (adultes et adolescents confondus) faisant de la planche à voile. Le directeur
du centre va-t-il recruter un moniteur spécialisé ?
2
Exercice 10.
Un modèle simplié d'évolution du prix d'une action suppose que chaque jour le prix de l'action
om
grimpe de 1 euro avec une probabilité p (0 < p < 1) et descend de 1 euro avec une probabilité
1 − p. L'évolution d'un jour donné est indépendante de l'évolution des jours passés.
1. Quelle est la probabilité qu'après 2 jours le prix de l'action soit celui du premier jour ?
2. Quelle est la probabilité qu'après 3 jours le prix de l'action ait grimpé d'un euro ?
3. Sachant qu'après 3 jours le prix de l'action a grimpé d'un euro, quelle est la probabilité que
le mouvement du premier jour ait été une hausse ?
y.c
Exercice 11.
Maryse joue à un jeu télévisé. Elle a, face à elle, trois portes (A, B et C) identiques. Derrière
l'une d'elles se trouvent 5000 euros et derrière les deux autres rien du tout.
Maryse choisit une des portes (la porte A par exemple). L'animateur, qui connaît la porte
gagnante, ouvre une autre porte (disons la C ) et lui montre qu'il n'y a rien derrière. Il demande
alors à Maryse si elle maintient son choix ou si elle préfère la porte B . Quel choix donne à
em
Maryse la plus grande probabilité de gagner ? Justiez votre réponse.
Exercice 12.
On considère un avion de 50 places. La probabilité pour qu'un voyageur ayant réservé ne se
présente pas à l'embarquement est de 20% . Un jour la compagnie a enregistré 52 réservations.
Quelle est la probabilité pour qu'elle se trouve dans une situation embarrassante ?
d
Exercice 13.
En tant qu'ingénieur, on sollicite votre avis sur un projet de lancement d'une fusée. Le moteur
et l'équipement électronique se composent de 1 500 000 pièces distinctes. Chaque pièce a une
ca
chance sur dix millions de se révéler défectueuse. On précise que la défectuosité d'une seule
pièce sut à mettre le projet en échec, et que les causes de défectuosité de chacune des pièces
sont statistiquement indépendantes. Qu'en pensez-vous ?
Exercice 14.
Un nouveau test de dépistage d'une maladie rare, touchant environ une personne sur 100 000,
loa
vient d'être mis au point. Pour tester sa validité, on a eectué un test statistique : sur 534
sujets sains, le test a été positif 1 seule fois, et, sur 17 sujets malades, il a été positif 16 fois.
Une personne eectue ce test ; le résultat est positif. Quelle est la probabilité pour qu'elle soit
atteinte par cette maladie ?
Au vu de ces résultats, peut-on commercialiser le test ?
.al
Exercice 15.
La probabilité pour que l'injection d'un vaccin à un individu choisi au hasard provoque une
réaction allergique est de 0,1%. Quelle est la probabilité pour que, sur 900 individus vaccinés,
on observe l'allergie dans :
1. exactement trois cas ?
2. au plus trois cas ?
w
Exercice 16.
Un système de communication est constitué de n composants qui fonctionnent indépendamment
ww
les uns des autres avec une probabilité pour chacun d'entre eux de p ∈]0,1[. Le système est
opérationnel dès qu'au moins la moitié de ses composants fonctionnent. Pour quelles valeurs de
p un système à 5 composants a une plus forte probabilité d'être opérationnel qu'un système à
3 composants ?
3
Université Paris 13, Institut Galilée CCS Probabilités & Statistiques
om
Année universitaire 20132014
y.c
Exercice 1.
Le trousseau de clés d'un gardien de nuit comporte dix clés, dont une seule ouvre la porte du
poste de garde. Pour qu'il y pénètre, il y a deux scénarios possibles :
• Cas A : il prend une clé au hasard, l'essaie, la met de côté si elle n'ouvre pas, et ainsi de suite.
• Cas B : il prend une clé au hasard, l'essaie, mais la laisse sur le trousseau si elle n'ouvre pas,
et ainsi de suite.
em
On désigne respectivement par XA et XB les variables aléatoires égales aux nombres d'essais
(y compris le bon) avant le succès, dans le premier et le second scénarios.
Déterminer la loi de probabilité et la fonction de répartition de XA et de XB .
Calculer E[XA ] et E[XB ].
Le gardien utilise la méthode B un jour sur trois. Un jour, après avoir essayé 8 clés, il n'a
toujours pas ouvert la porte. Quelle est la probabilité pour qu'il ait utilisé la méthode B ?
Exercice 2.
d
On considère une fonction F dénie par
ca
a
si x ≤ −1,
F (x) = bx + c si x ∈] − 1,1[
si x ≥ 1.
d
1. Déterminer les valeurs de a, b, c et d pour que F soit une fonction de répartition d'une
loa
Exercice 3.
Soit f la fonction de R dans R+ dénie par
.al
1
pour tout x ∈ [2,4[, f (x) = λ et, si x ∈
/ [2,4[, f (x) = 0.
(1 − x)2
x = (x − 1) + 1 , x2 = (x − 1)2 + 2(x − 1) + 1 .
ww
Exercice 4.
Dans l'urne du bureau de vote du quartier Saint-Roman à Roquebrune (06), les électeurs ont
déposé, à l'occasion de l'élection présidentielle, N bulletins de vote, dont S pour le candidat des
verts. Le président du bureau extrait successivement, sans les remettre, n bulletins de l'urne.
On désigne par X la variable aléatoire égale au nombre de bulletins verts sur les n.
1
Remarque : pour que le calcul qui suit ait un sens, on est amené à supposer que la taille n de
om
l'échantillon extrait de l'ensemble des bulletins est susamment petite pour que n < S .
1. Montrer que X suit la loi hypergéométrique :
CSk CNn−k
−S
pour 0 ≤ k ≤ n, P (X = k) = .
CNn
2. Vérier la normalisation de cette loi. Pour cela, on pourra développer les deux membres de
l'identité :
y.c
(1 + x)N = (1 + x)S (1 + x)N −S
et comparer les coecients.
3. Calculer la moyenne E[X] et la variance Var(X). On montrera que :
N −n
E[X] = np et Var(X) = np(1 − p)
N −1
em
où p désigne la proportion de bulletins verts : S = pN .
Exercice 5.
On considère une variable aléatoire réelle X dont la fonction de répartition FX (x) est donnée
par (
0 si x < 0
FX (x) = x − x2
d 1 − (1 + 2 )e si x ≥ 0.
1. FX (x) est-elle continue sur R ?
2. Déterminer limx→+∞ FX (x). Interprétation ?
ca
3. Calculer la densité de probabilité fX (x). Quel est le mode de X ? (C'est-à-dire la valeur x
où fX (x) est maximale)
4. Calculer l'espérance et l'écart-type de X .
5. Déduire de ce qui précède les variations et la courbe représentative de FX (x).
6. Calculer P (1 ≤ X < 2).
loa
Exercice 6.
Soit T une variable aléatoire, de densité de probabilité fT donnée par :
Exercice 7.
Soit U une variable aléatoire de loi uniforme sur [0,1] (sa densité de probabilité, fU est dénie
par fU (x) = 1[0,1] (x)). On pose
ww
1
X = − ln(U ).
λ
On note FX la fonction de répartition de X et fX sa densité de probabilité.
1. Rappeler la fonction de répartition FU (u) = P (U ≤ u), pour u ∈ R, de la variable aléatoire U .
2. Déterminer la fonction de répartition FX et la densité de probabilité de la variable aléa-
toire X .
2
3. Quelle est la loi de X ? Donner les valeurs de E[X] et Var(X). On rappelle que, pour tout
om
n ∈ N, Z +∞
xn e−x dx = n! .
0
Exercice 8.
On cherche à comparer l'ecacité de deux méthodes pour réaliser dans un délai très court un
contrôle médical sur 1000 personnes.
Ce contrôle utilise un prélèvement sanguin et doit permettre de déterminer la présence ou
y.c
l'absence d'un virus dont on sait qu'il atteint un individu donné avec la probabilité 0,01.
Méthode A : On teste séparément les 1000 personnes ; ce qui conduit à réaliser 1000 analyses.
Méthode B : On répartit les 1000 individus en n groupes de r personnes (avec nr = 1000). Pour
chaque groupe, on mélange ensemble les prélèvements sanguins eectués sur les r personnes
du groupe et on analyse le mélange. Si le résultat est positif pour un groupe, alors on analyse
séparément le sang des r personnes qui composent ce groupe. Donc si y est le nombre de groupes
em
positifs, la méthode B conduit à faire n + ry analyses.
1. Étude de la méthode B.
a) Quelle est la probabilité q pour qu'un groupe de r personnes soit négatif ? En déduire la
probabilité p pour qu'un groupe de r personnes soit positif. Donner en fonction de p et q la loi
de probabilité et l'espérance de la variable aléatoire
Exercice 9.
.al
Chaque page du site web de l'institut Galilée comporte un grand nombre de caractères, et un
gros eort a été fait pour éviter coquilles et autres erreurs. On constate cependant qu'on y
trouve en moyenne trois fautes toutes les deux pages. Déterminez la probabilité pour que la
page que vous êtes en train de consulter présente au moins trois fautes.
w
Exercice 10.
Le nombre de connexions par jour au site web de l'institut Galilée est une variable poissonnienne
de paramètre c. Chaque connexion peut provenir d'un ordinateur ou d'un smartphone. On note p
la probabilité pour qu'elle provienne d'un ordinateur. Déterminer la loi suivie par le nombre de
ww
Exercice 11.
Un avion peut transporter 100 passagers et leurs bagages. Il pèse sans les passagers mais avec
l'équipage et le carburant 120 tonnes. Les consignes de sécurité interdisent le décollage si le
poids de l'appareil dépasse 129,42 tonnes.
3
Les 100 places ont été occupées. Le poids d'un voyageur suit une loi d'espérance 70 kg et d'écart
om
type 10 kg. Le poids de ses bagages suit une loi d'espérance 20 kg et d'écart type 10 kg. Toutes
ces variables sont supposées indépendantes.
1. Calculer l'espérance du poids de l'avion au décollage. Est-elle conforme aux normes de
sécurité ?
2. Calculer l'écart type du poids total de l'appareil.
3. En utilisant l'inégalité de Bienaymé-Tchebychev, trouver un majorant de la probabilité pour
que le poids réel de l'appareil au décollage dépasse 129,42 tonnes.
y.c
Exercice 12.
1. Soient X et Y deux variables aléatoires indépendantes de lois de Poisson respectives P(λ)
et P(µ).
a) Soit n un entier strictement positif. En remarquant que
n
[
{X + Y = n} = {X = k} ∩ {Y = n − k} ,
em
k=0
P (X = k|X + Y = n).
montrer que √ √
G(a) − G(0) = F ( a) − F (− a) .
w
√
2. En déduire la valeur de f ( a) pour tout a > 0, puis que
|x| − 1 x2
ww
4
Exercice 14.
om
Une urne contient des boules, dont une proportion p (0 < p < 1) de boules blanches, les autres
boules étant rouges. On tire les boules une à une avec remise.
1. Soit Xn la variable aléatoire égale au nombre de boules blanches obtenues au cours des n
premiers tirages. Quelle est la loi de Xn ?
2. Soit Y1 la variable aléatoire égale au rang d'apparition de la première boule blanche. Quelle
est la loi de Y1 ? Retrouver pour tout entier k ≥ 1 la probabilité P (Y1 = k) et calculer l'espérance
de Y1 .
y.c
On pourra dériver terme à terme l'égalité suivante :
+∞
X 1
(E) pour tout q tel que |q| < 1, qk = .
k=0
1−q
3. Soit n > 1. On note Yn la variable aléatoire égale au rang d'apparition de la n-ième boule
blanche.
em
a) Quelles sont les valeurs prises par Yn ?
b) Après avoir remarqué que, pour tout k ≥ n,
donner la loi de Yn .
c) Calculer l'espérance de Yn . On pourra dériver n fois terme à terme l'égalité (E).
Exercice 15.
d
On pose pour tout a > 0,
ca
Z +∞
Γ(a) = xa−1 e−x dx .
0
Une variable aléatoire Z suit une loi Gamma de paramètres a et θ (a > 0 et θ > 0), notée Γ(a,θ),
si sa densité de probabilité est
loa
1 x
f (x) = a
xa−1 e− θ si x > 0, f (x) = 0 sinon.
Γ(a)θ
1. Vérier que f est bien une densité de probabilité. Quelle est la moyenne de la variable
aléatoire Z ∼ Γ(a,θ) ?
2. Le nombre d'appels reçus par un standard téléphonique pendant une durée t (t > 0) est une
.al
variable aléatoire Xt suivant une loi de Poisson de paramètre λt où λ est un réel strictement
positif.
Soit Yn le temps d'arrivée du n-ième appel (à partir de t = 0).
a) Remarquer que P (Y1 > t) = P (Xt = 0).
En déduire que Y1 suit une loi exponentielle E(λ).
w
X
Fn (t) = 1 − e −λt
si t ≥ 0, Fn (t) = 0 sinon,
k=0
k!
puis que Yn suit une loi Gamma dont on donnera les paramètres.
5
Exercice 16.
om
On cherche à caractériser deux sources photoniques par la valeur moyenne λ du nombre de
photons émis par unité de temps. Le nombre de photons émis par unité de temps suit une loi
de Poisson.
On sait que les sources appartiennent à deux familles distinctes (F0 ,F1 ) associées aux paramètres
λ0 et λ1 . Par ailleurs on sait qu'une source sur 10 est une source F1 .
1. Donner les probabilités P (k | F0 ) et P (k | F1 ) d'observer k photons sachant que la source
provient de la famille F0 ou F1 respectivement.
y.c
2. Calculer en fonction de λ0 et λ1 la probabilité P (k) d'observer k photons en prenant une
source au hasard.
3. On a observé k photons. Calculer la probabilité P (F0 | k) que la source observée soit une
source F0 . De même calculer P (F1 | k) .
On décide que la source observée appartient à la famille F1 si P (F1 | k) > P (F0 | k).
4. Montrer que cette règle de décision conduit à choisir F1 si
em
P (k | F1 )
>9.
P (k | F0 )
5. En déduire une règle de décision permettant de choisir directement F0 ou F1 suivant le
nombre k de photons observés.
Application numérique : λ0 = 1, λ1 = 4.
Exercice 17.
Le conseil d'administration d'une banque décide d'organiser sa gestion de manière à ce qu'il y
d
ait 999 chances sur 1000 de toujours pouvoir faire face aux demandes de retrait de ses clients.
La banque a 1000 clients, le dépôt de chaque client est de 1000 euros. La probabilité pour
qu'un client retire son argent un jour donné est 0,001. Dans ces conditions, combien la banque
ca
doit-elle conserver de liquidités journalières pour suivre le principe de gestion qui a été posé ?
(On pourra utiliser une loi de Poisson.)
Exercice 18.
On lance une pièce de monnaie n fois.
loa
1.Soit X la variable aléatoire égale au nombre de piles obtenus. Quelle est la loi de probabilité
suivie par X ? Préciser son espérance m et sa variance σ 2 en fonction de n.
2. Soit Y = Xn
la proportion de piles obtenus. Déterminer E[Y ] et Var(Y ).
3. En utilisant l'inégalité de Bienaymé-Tchebychev, déterminer un nombre de lancers n tel que
P (0,4 < Y < 0,6) ≥ 90%.
Exercice 19.
.al
Une variable aléatoire X suit une loi normale N (m(λ),1) où λ est un paramètre prenant les
valeurs 0, 1, 2 avec les probabilités
P (λ = 0) = a P (λ = 1) = 1 − 2a P (λ = 2) = a,
et la moyenne de X est donnée par m(λ) = λ − 1.
1. Quelles sont les conditions sur a pour que le support de la loi de λ soit {0,1,2} ?
w
2. Soit Z une variable aléatoire de loi normale centrée réduite. Soit x ∈ R. On pose
β(x) = P (Z > x).
Déterminer en fonction de β(x) les probabilités
ww
P (Z < x), P (Z < −x), P (|Z| < x), P (0 < Z < x).
3. La table de la loi gaussienne centrée réduite donne les valeurs de Φ(x) = P (Z < x). Déduire
de la table les valeurs β(0), β(1) et β(2).
4. Calculer, en fonction de a, la probabilité P (−1 < X < 1).
6
Université Paris 13, Institut Galilée CCS Probabilités & Statistiques
om
Année universitaire 20132014
y.c
Exercice 1.
On considère deux variables aléatoires indépendantes X et Y , dénies sur R. Ces deux variables
suivent chacune la loi normale centrée réduite N (0,1).
1. Soit Z la variable aléatoire dénie par Z = X + Y et T la variable aléatoire dénie par
T = aX où a est un réel.
em
Déterminer les espérances E[Z] et E[T ] puis les variances Var(Z) et Var(T ) des variables
aléatoires Z et T .
Sachant que toute combinaison linéaire de variables aléatoires gaussiennes indépendantes est
une variable aléatoire gaussienne, en déduire les lois et les densités de probabilité des variables
aléatoires Z et T .
2. a) Soit f une fonction paire et x ∈ R+ . Montrer que
d
Z √
x Z x √
f ( u)
√
f (t)dt = √ du.
− x 0 u
ca
b) On appelle U la variable aléatoire dénie par U = X 2 . Déterminer pour tout réel x la valeur
de la probabilité
P (U ≤ x).
En déduire la densité de probabilité de la variable aléatoire U .
loa
Exercice 2.
On dit qu'une variable aléatoire Z suit une loi Γ(λ,n), où n ∈ N et λ > 0, si Z a pour densité
de probabilité la fonction :
λn
fZ (z) = z n−1 e−λz 1R+ (z)
(n − 1)!
.al
1. Vérier que la loi Γ(λ,n) est bien dénie, puis calculer E[Z], E[Z 2 ] et Var(Z).
2. Soient X et Y deux variables aléatoires indépendantes de lois respectives Γ(λ,m) et Γ(λ,n).
Déterminer la loi jointe du couple (U,V ) déni par :
X
w
U =X +Y , V =
X +Y
3. Déterminer les lois marginales de U et V . Ces variables sont-elles indépendantes ?
On donne : Z 1
Γ(m)Γ(n)
ww
tm−1 (1 − t)n−1 dt =
0 Γ(m + n)
où Γ est la fonction d'Euler : Z ∞
Γ(z) = tz−1 e−t dt
0
et on rappelle que pour n ∈ N, Γ(n) = (n − 1)!.
1
Exercice 3.
om
Un atelier fonctionne avec deux équipes d'ouvriers, une du matin et l'autre du soir. Chaque
jour on enregistre le nombre d'ouvriers absents. On note X (respectivement Y ), le nombre
d'absences dans l'équipe de jour (respectivement de nuit). La loi jointe P de (X,Y ) est donnée
par
y.c
P (2,0) = 0 P (2,1) = 4c P (2,2) = 2c P (2,3) = c
1. Déterminer la constante c.
2. Donner les lois marginales de X et Y ainsi que leurs espérances.
3. Une absence coûte 30 euros à l'usine. Quelle est la perte journalière moyenne due aux
absences ?
em
Exercice 4.
1. Soit u ∈ [0,1], v ∈ [0,1], et le changement de variables
1
x = (−2 ln u) 2 cos(2πv)
1
y = (−2 ln u) 2 sin(2πv)
d
Déterminer à quel ensemble appartiennent x et y et le jacobien J associé à ce changement de
variables. Écrire J en fonction de u puis en fonction de x et y .
2. Soient U et V deux variables aléatoires indépendantes de loi uniforme sur [0,1].
ca
Soient X et Y les variables aléatoires dénies par
1
X = (−2 ln U ) 2 cos(2πV )
1
Y = (−2 ln U ) 2 sin(2πV )
loa
Exercice 5.
On considère deux variables aléatoires indépendantes X1 et X2 , obéissant à des lois dénies
respectivement par les fonctions de répartition FX1 et FX2 . On pose U = max(X1 ,X2 ) et
.al
V = min(X1 ,X2 ).
1. Déterminer les lois de U et de V . Que deviennent-elles si X1 et X2 suivent la même loi, de
fonction de répartition F ?
2. On suppose à présent X1 et X 2 équiréparties sur l'intervalle [0,1]. Déterminer la probabilité
conditionnelle P U > 4 | V < 3 .
3 1
w
Exercice 6.
On considère un couple (X1 ,X2 ) de variables aléatoires de loi uniforme sur le carré [0,1] × [0,1].
1. Montrer que X1 et X2 sont deux variables indépendantes.
ww
X1
2. On pose Y1 = et Y2 = X1 + X2 . Déterminer la loi jointe de ces deux nouvelles variables.
X2
3. Déterminer les lois marginales de Y1 et Y2 . Ces deux variables sont-elles indépendantes ?
2
Exercice 7.
om
Soit (X,Y ) un couple de variables aléatoires de densité
1
f (x,y) = si (x,y) ∈ D, f (x,y) = 0 sinon
2x
avec
1
D = (x,y) 0 < y ≤ x et 0 < y ≤ .
x
1. Donner une représentation graphique de D .
y.c
2. Déterminer les densités des variables aléatoires X et Y .
Les variables aléatoires X et Yqsont-elles indépendantes ?
√
3. On pose S = XY et T = Y
X
.
a) Montrer que l'ensemble des valeurs prises par S et T estpl'intervalle ]0,1].
√
b) Soit (s,t) ∈]0,1] et (x,y) ∈ D tels que s = xy et t = .
2 y
x
Calculer x et y en fonction de s et t.
em
c) Déterminer la densité h(s,t) du couple (S,T ).
Exercice 8.
1. Soit D le domaine du plan
Dessiner D.
d
2. Soit (X,Y ) un couple de variables aléatoires à valeurs réelles de densité de probabilité
ca
(
√1
2 x
e−y si (x,y) ∈ D
f (x,y) =
0 ailleurs.
Lors d'un salon de l'artisanat, un artisan a un stand où il ne vend que deux produits.
Le produit A au prix unitaire de 8 euros, le produit B au prix unitaire de 12 euros.
On suppose dans la suite de l'exercice,
que les quantités achetées par les diérents clients sont indépendantes,
que le nombre de produits achetés par une personne s'arrêtant au stand est :
pour le produit A, une variable aléatoire de Poisson de paramètre 2 notée X ,
.al
3
c) On suppose que la loi de W peut être approchée par une loi normale de moyenne m = 9800
om
et d'écart type σ = 309.
• Quelle est la loi suivie par la variable aléatoire W ∗ = W −9800
309
?
• Avec la table de la loi gaussienne centrée réduite, trouver, si Z ∼ N (0,1),
P (Z ≤ 0,16) et P (Z ≤ 0,49).
• En déduire la probabilité pour que le chire d'aaire W d'une journée soit compris entre 9750
et 9951 euros.
y.c
Exercice 10.
1. Soit C le carré de sommets A (0,0), B (0,1), C (1,1), D (1,0).
Déterminer, pour tout u ∈ [0,1], l'aire D(u) du domaine D(u) déni par
D(u) = C ∩ {(x,y) | − u ≤ x − y ≤ u} .
em
2. Deux personnes se donnent rendez-vous entre 19h et 20h. On suppose que l'on peut associer
aux instants d'arrivée de ces deux personnes des variables aléatoires X et Y continues, indépen-
dantes et uniformes sur [0,1]. Soit U = |X − Y | la variable aléatoire égale au temps d'attente
de la première personne. Montrer que la fonction de répartition de U est donnée par
0
si u < 0
F (u) = D(u) si u ∈ [0,1]
d
1 si u > 1.
ca
3. Calculer la densité de U et son espérance E[U ].
4. Ces deux personnes conviennent que la première arrivée s'en ira après un temps d'attente
égal à 2E[U ]. Quelle est la probabilité pour que le rendez-vous ait lieu ?
loa
w .al
ww
4
Université Paris 13, Institut Galilée CCS Probabilités & Statistiques
Année universitaire 20132014
om
Fiche 4 Lois limites, estimation
y.c
Exercice 1.
Trois machines, A, B , C fournissent respectivement 50%, 30%, 20% de la production d'une
usine. Les pourcentages de pièces défectueuses produites par ces machines sont respectivement
3%, 4%, 5%.
1. Quelle est la probabilité pour qu'une pièce prise au hasard dans la production soit dé-
fectueuse ?
2. On prélève un échantillon de 100 pièces sur la production. Quelle est la loi suivie par le
em
nombre de pièces défectueuses ? Par quelle loi peut-on l'approcher ?
3. Quelle est la probabilité pour qu'une pièce défectueuse prise au hasard provienne de A, de B ,
de C ?
Exercice 2.
Une compagnie d'assurance assure 500 navires pour une somme de 5 millions d'euros chacun.
Chaque navire a chaque année une probabilité égale à 0,1% de subir un sinistre majeur couvert
d
par l'assurance. Soit X le nombre de navires perdus en une année. Donner la loi de X , son
espérance et sa variance.
On cherche à estimer quelles réserves doit posséder la compagnie d'assurance pour être sûre de
ca
pouvoir payer les indemnités avec une probabilité égale à 99,9% à la n de chaque année.
1. Pourquoi peut-on estimer que la variable aléatoire X suit une loi de Poisson ? Quelle est le
paramètre de cette loi ?
La table de la loi de Poisson pour le paramètre λ = 0,5 donne
loa
P (X ≤ 3) = 0,9982 et P (X ≤ 4) = 0,9998.
Conclure.
2. Une seconde compagnie d'assurance assure également 500 navires dans les mêmes conditions
que la précédente. Les compagnies ont-elles intérêt à fusionner ?
La table de la loi de Poisson pour le paramètre λ = 1 donne
.al
P (X ≤ 4) = 0,9963 et P (X ≤ 5) = 0,9994.
Exercice 3.
Montrer que tout estimateur Tn asymptotiquement sans biais dont la variance tend vers 0 est
convergent. Utiliser l'inégalité de Markov.
w
Exercice 4.
Soit (X1 ,X2 ) un échantillon d'une variable aléatoire X admettant pour densité :
(
3x2
θ3
si 0 < x < θ
f (x) =
ww
0 ailleurs.
1. Calculer E[X], en déduire un estimateur T1 de θ par la méthode des moments.
2. Soit Z = max(X1 ,X2 ). Calculer la fonction de répartition de Z et en déduire sa densité g .
Calculer E[Z] et en déduire un estimateur T2 de θ par la méthode des moments.
3. Montrer que T1 et T2 sont sans biais. Quel est le meilleur ?
1
Exercice 5.
Soit X une variable aléatoire admettant pour densité
om
f (x) = θxθ−1 1]0,1] (x),
y.c
densité de Y .
b) Calculer
Z 0
xθexθ dx
−∞
et en déduire E[Y ].
3. Soit (X1 ,X2 , · · · ,Xn ) un échantillon de la variable aléatoire X .
em
a) On pose α = 1θ .
Écrire la vraisemblance L(x1 ,x2 , · · · ,xn ; α) de l'échantillon pour α. En déduire un estimateur α
b
de α par la méthode du maximum de vraisemblance. Montrer que cet estimateur est sans biais.
b) On pose β = θ+1 θ
. Donner un estimateur sans biais de β par la méthode des moments.
Exercice 6.
Soit X une variable aléatoire de loi uniforme sur [0,θ], où θ > 0 est un paramètre. Soit
d
(X1 ,X2 , · · · ,Xn ) un échantillon de X . Montrer que :
1. T1 = 2Xn est un estimateur sans biais et convergent de θ ;
2. T2 = max(X1 ,X2 , · · · ,Xn ) est un estimateur asymptotiquement sans biais et convergent de θ .
ca
Exercice 7.
Soit X une variable aléatoire dont la loi dépend de deux paramètres p1 et p2 par :
P (X = 0) = 1 − p1 − p2 , P (X = 1) = p1 et P (X = 2) = p2 .
loa
1. Trouver les conditions à vérier par p1 et p2 pour que le support de la loi de X soit égal
à {0,1,2}. Calculer E[X], E[X 2 ], Var(X).
2. Soit (X1 ,X2 , · · · ,Xn ) un échantillon de X . Déterminer des estimateurs L1 et L2 de p1 et p2
par la méthode des moments. Montrer qu'ils sont sans biais.
3. Pour j = 0,1,2, on désigne par Nj le nombre de Xk égaux à j . Écrire la vraisemblance de
l'échantillon en fonction de p1 , p2 , N0 , N1 , N2 . Déterminer les estimateurs Z1 et Z2 de p1 et p2
.al
N0 = 20, N1 = 50, N2 = 30 .
w
2
Exercice 8.
Soit X une variable aléatoire admettant pour densité de probabilité :
om
1
a 0 ≤ x < 2
f (x) = b 12 ≤ x ≤ 1
0 sinon.
1. Indiquer les relations que doivent satisfaire a et b pour que f soit une densité de probabilité
y.c
de support [0,1]. Exprimer b en fonction de a, paramètre que l'on cherche à estimer.
2. Calculer E[X], E[X 2 ] et Var(X) en fonction de a.
3. Soit (X1 ,X2 , · · · ,Xn ) un échantillon de X . Déterminer un estimateur Ln de a par la méthode
des moments. Montrer que cet estimateur est sans biais et que sa variance tend vers 0 quand
n → +∞ ; en déduire qu'il est convergent.
4. On désigne par N0 le nombre de variables aléatoires Xi appartenant à l'intervalle [0, 12 [.
Montrer que l'estimateur Zn de a par la méthode du maximum de vraisemblance peut s'écrire
em
n
2X
Zn = Yi
n i=1
Exercice 9.
d
Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ > 0. On considère un
échantillon (X1 ,X2 , .P
. . ,Xn ) de X .
ca
1. On pose X n = n1 i=1 Xi . Que valent E[X n ] et Var(X n ) ?
n
X ki
−1+ =0,
i=1
λ
abilité
1 x
f (x) = e− a 1]0,+∞[ (x),
a
où a > 0 est un paramètre.
1. Calculer E[Xi ] et en déduire un estimateur de a par la méthode des moments.
2. Écrire la vraisemblance L(x1 ,x2 , . . . ,xn ; a) de l'échantillon (X1 ,X2 , . . . ,Xn ). En déduire l'es-
w
3
Exercice 11.
Un directeur de centre de loisirs souhaite embaucher un moniteur de planche à voile si la
om
proportion de personnes choisissant cette activité est supérieure à 15%.
Il a observé que π0 = 12% des personnes fréquentant le centre de loisirs avaient choisi la planche
à voile l'année dernière. Il souhaite aujourd'hui réactualiser sa décision. Pour cela, il dispose
de plus du pourcentage π1 = 16% des personnes ayant choisi la planche à voile parmi les n
premières venues en juillet. Il souhaite estimer avec un risque de 5% si π1 est conforme aux
observations de l'année précédente.
On dénit n variables aléatoires indépendantes et de même loi (Xi )1≤i≤n par :
y.c
(
1 si la i-ième personne choisit la planche à voile
Xi =
0 si la i-ième personne choisit un autre sport.
1. Soit π0 = E[Xi ], P
que vaut Var(Xi ) ?
2. On note X n = n ni=1 Xi . Que valent E[X n ] et σ(X n ) ?
1
em
3. Déterminer en fonction de n un intervalle In tel que
P (X n ∈ In ) = 95%.
suit approximativement la loi gaussiene centrée réduite N (0,1) ? Énoncer ce théorème dans le
cas général où Y est une variable aléatoire de moyenne m et d'écart type σ .
2. On pose n = 100 et p = 0,1. Sur la table de la loi gaussienne, on voit que P (Z < 1,96) ' 0,975
si Z ∼ N (0,1). En déduire le plus petit réel A tel que
w
3. Application. Un acheteur veut tester les livraisons qu'il reçoit et savoir si elles sont conformes
à ce que dit le fabricant. Le fabricant assure que moins de 10% des vis livrées sont défecteuses.
L'acheteur prélève 100 vis à chaque livraison et relève la proportion π de vis défectueuses.
ww
Pour quelles valeurs de π , l'acheteur peut-il légitimement refuser la livraison au seuil de risque
de 2,5% ?
4
Exercice 13.
On cherche à comparer les pourcentages de satisfaction de deux groupes de personnes utilisant
om
un même produit cosmétique.
Chacune des personnes du groupe A a une probabilité π0 d'être satisfaite.
Chacune des personnes du groupe B a une probabilité π1 d'être satisfaite.
On dispose d'un échantillon de 50 personnes dans le groupe A, dont 15 se déclarent satisfaites.
Pour le groupe B , sur un échantillon de 100 personnes, 60 sont satisfaites.
1. Quels sont les pourcentages p0 et p1 de satisfaction observés sur ces deux échantillons ?
2. Soit une variable aléatoire X de loi normale de moyenne m et d'écart type σ : X ∼ N (m,σ).
y.c
Rappeler quelle est la loi suivie par la variable aléatoire
X −m
Y = .
σ
3. Soit X une variable aléatoire de Bernoulli de paramètre π0 . Montrer que la moyenne em-
pirique X 50 suit une loi normale de moyenne π0 et d'écart type
em
r
π0 (1 − π0 )
.
50
De la même façon, donner la loi suivie par Y 100 , où Y est une variable aléatoire de Bernoulli
de paramètre π1 .
4. Soit D la variable aléatoire D = X 50 − Y 100 . Quelle est la loi suivie par D ?
d
5. Soit H0 l'hypothèse π0 = π1 , que l'on souhaite tester. Sous cette hypothèse,
1
1
ca
D ∼ N 0, p(1 − p) +
50 100
où
50p0 + 100p1
p=
150
loa
est la moyenne des pourcentages observés sur les deux échantillons. Préciser la valeur de p.
a) Déterminer un intervalle I tel que sous l'hypothèse H0
P (|D| ∈ I) = 95% .
50
1 X 2
X 50 (ω) = 58 jours et Xi (ω) − X 50 (ω) = 99 jours2 .
50 i=1
ww
5
Exercice 16.
On a observé que l'âge X des étudiants assidus en première année d'université suivait une loi
om
normale N (18,1) et que l'âge Y des étudiants non assidus suivait la loi normale N (20,1).
1. Calculer la probabilité pour qu'un étudiant assidu ait plus de 20 ans.
2. Dans un premier temps, pour organiser les groupes de TD, il est décidé d'un test basé sur
l'âge de l'étudiant pour évaluer son assiduité.
Soit H0 l'hypothèse : l'étudiant est assidu et H1 l'hypothèse alternative : l'étudiant n'est
pas assidu .
On décide de rejeter l'hypothèse H0 si l'âge de l'étudiant est supérieur à A = 20 ans.
y.c
Soit
α = P (rejeter H0 | H0 vraie)
le risque de première espèce et
β = P ( ne pas rejeter H0 | H0 fausse) = P ( ne pas rejeter H0 | H1 vraie)
le risque de deuxième espèce.
em
a) Remarquer que le risque de première espèce, α, est égal à P (X > 20). Que vaut β ?
b) On admet un risque de première espèce égal à 5%. Quelle valeur peut-on prendre pour A ?
Que vaut alors β ?
Exercice 17.
1. La table statistique donnée en annexe donne la probabilité Φ(t) pour qu'une variable aléatoire
normale Z centrée réduite (Z ∼ N (0,1)) soit inférieure ou égale à une valeur donnée t.
d
Soit X une variable normale de moyenne m et d'écart type σ . Rappeler comment se calcule, en
fonction de Z , la probabilité P (X < A).
2. Un grossiste reçoit des pelotes de laine provenant de deux usines diérentes. Toutes les
ca
pelotes d'une même usine n'ont pas exactement le même poids, mais le poids (en grammes)
d'une pelote prise au hasard dans un lot de même provenance suit une loi normale N (m,σ 2 ).
Les usines A et B annoncent respectivement
mA = 100g, σA = 8g ; mB = 96g, σB = 4g.
loa
a) Un premier client refuse toute pelote dont le poids est inférieur à 90g. De quelle usine
provient le lot donnant le plus faible pourcentage de rebut ?
b) Pour un autre client, le poids minimum exigé est inconnu ; mais on constate qu'il est tel que
le choix entre les deux provenances est indiérent. Déterminer ce poids minimum exigé ainsi
que le pourcentage de rebut (commun au deux lots).
3. Le grossiste de son côté souhaite vérier si les lots reçus sont conformes aux qualications
annoncées. Pour cela il prélève un échantillon de 100 pelotes dans le lot provenant de l'usine A
.al
100 i=1
Quelle loi peut approcher la loi suivie par la variable aléatoire
X 100 − mA
Y = 10 ?
ww
σA
Énoncer le théorème utilisé.
b) Quelles sont les valeurs de m pour lesquelles il pourra rejeter, au seuil de risque 5%, l'hy-
pothèse H0 : m = mA ?
On rappelle que si Z ∼ N (0,1), P (|Z| ≤ 1,96) = 95%.
6
Table de la fonction de répartition de la loi normale centrée réduite N (0,1)
om
0, 5
Pour Z de loi N (0,1),
t
x2 dx
Z
Φ(t) = FZ (t) = P (Z ≤ t) = e− 2 √
Φ(t) −∞ 2π
−3 −2 −1 0 1 t 2 3
t 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
y.c
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
em
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066
d
0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
ca
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
loa
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
.al
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
w
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
3,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998
ww
3,6 0,9998 0,9998 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999
3,7 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999
3,8 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999
3,9 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
Exemples : Φ(0,25) ' 0,5987, Φ(−0,32) = 1 − Φ(0,32) ' 1 − 0,6255 = 0,3745
m
Memento des lois usuelles
.co
Lois discrètes
X
Nom Paramètres Support Définition : P (A) = p(a) Espérance Variance
my
a∈A
de
k
1 1−p
Loi géométrique G(p) p ∈]0,1] N∗ p(k) = (1 − p)k−1 p
p p2
λk
Loi de Poisson P(λ) λ ∈]0, + ∞[ N p(k) = e−λ λ λ
ca
k!
Nom
loa
Paramètres
Lois continues
A
f (x)dx Espérance Variance
.al
1 a+b (b − a)2
Loi uniforme U([a,b]) a<b [a,b] f (x) = 1[a,b] (x)
b−a 2 12
1 1
Loi exponentielle E(λ) λ ∈]0,∞[ ]0, + ∞[ f (x) = λe−λx 1]0,+∞[ (x)
λ λ2
w
(x − m)2
1
Loi normale/gaussienne N (m,σ 2 ) m ∈ R, σ 2 ∈]0, + ∞[ R f (x) = √ exp − m σ2
2πσ 2 2σ 2
ww