Annales - Exercices Supplémentaires (1413)
Annales - Exercices Supplémentaires (1413)
Annales - Exercices Supplémentaires (1413)
Annales 2019-2020
Exercices supplémentaires
2 Exercices supplémentaires 37
1
1 Annales 2019-2020 corrigés
Exercice 1 (4 points)
Exercice 2 (3 points)
Exercice 3 (6 points)
+∞
X
1. Vérier que (e − 1)e−k = 1.
k=1
Soit X une variable aléatoire à valeurs dans IN∗ telle que pour, pour tout
k ∈ IN∗ ,
IP(X = k) = (e − 1)e−k .
2. Quelle est la loi de X ? En déduire son espérance et sa variance.
3. Montrer que, pour tout k ∈ IN∗ , IP(X = k + 1|X ≥ 2) = IP(X = k).
4. Soit Y une variable aléatoire indépendante de X et de même loi. Calculer,
pour tout n ∈ IN tel que n ≥ 2, IP(X + Y = n).
2
Exercice 4 (7 points)
Formulaire
3
Corrigé de l'exercice 1. D'après l'énoncé, IPA (P c ) = 0, 80 ; IPP (A) = 0, 10 ;
IP(A ∪ P ) = 0, 70.
3. On obtient le système
0, 20 × IP(A) = 0, 10 × IP(P )
0, 70 = IP(A) + 0, 90IP(P ),
d'où l'on déduit que
IP(A) = 0, 25 et IP(P ) = 0, 50.
4
ce qui est faux, en particulier pour p = q = 0. Donc X et Y ne sont pas
indépendantes.
donc
(e − 1)e−(k+1)
IP(X = k + 1|X ≥ 2) = = (e − 1)e−k = IP(X = k).
1 − (e − 1)e−1
5
2. Pour tout x ∈ IR, ˆ x
FX (x) = f (t)dt,
−∞
Si x ≥ 1, ˆ t=x
t2 −(x−1)2 −x2
h(x) = te− 2 dt = e 2 −e 2 .
t=x−1
Ainsi,
−(x−1)2 −x2
h(x) = e 2 −e 2 si x ≥ 1
−x2
= 1−e 2 si x ∈ [0; 1[
= 0 si x < 0.
6
Corrigé de l'exercice 5. D'une part,
g −1 (∅) = {x ∈ Ω : g(x) ∈ ∅} = ∅ ∈ A,
g −1 (E) = {x ∈ Ω : g(x) ∈ E} = Ω ∈ A,
car A est une tribu. Donc, pour tout B ∈ E , g −1 (B) ∈ A, et ainsi g est mesu-
rable.
7
1.2 Devoir surveillé du 21/11/2019
Exercice 1 (1 point)
Exercice 2 (4 points)
tiers.
Exercice 3 (8 points)
Exercice 4 (8 points)
8
2. Démontrer que
+∞ k
X α k + 1 −α
e = 1.
k! α + 1
k=0
3. Soit X une variable aléatoire à valeurs dans IN telle que, pour tout k ∈ IN,
αk k + 1 −α
IP(X = k) = e .
k! α + 1
Montrer que
α(α + 2)
E[X] = .
α+1
4. Dans cette question, on suppose que α = 1 et que la variable aléatoire
Y , indépendante de X , suit une loi de Bernoulli B( 21 ). Montrer que, pour
tout n ∈ IN,
n2 + n + 1
IP(X + Y = n) = .
n!4e
Dans cette dernière question, on pourra distinguer les cas n=0 et n ∈ IN∗ .
Formulaire
9
Corrigé de l'exercice 1. Soit Ω un ensemble. On appelle tribu sur Ω toute
famille A ⊂ P(Ω) de parties de Ω vériant :
1. Ω ∈ A,
2. A ∈ A =⇒ Ac ∈ A,
3. (An )n∈IN∗ ⊂ A =⇒ ∪n∈IN∗ An ∈ A.
10
Pour tout x ≥ 0,
ˆ x ˆ 0 ˆ x
FX (x) = h(t)dt = h(t)dt + h(t)dt
−∞ −∞ 0
ˆ x ix
1 1 −t 1 h 1 1 1 1 1
= + e dt = + − e−t = + − e−x = 1 − e−x .
2 0 2 2 2 0 2 2 2 2
3. On a ˆ ˆ
+∞ +∞
1
E[X] = th(t)dt = t e−|t| dt = 0,
−∞ −∞ 2
en utilisant que l'intégrale d'une fonction impaire convergente est nulle.
Si x ≥ 0, alors
ˆ t=+∞ h −e−2t it=+∞ 1 −x
(f ? g)(x) = ex e−2t dt = ex = e = h(x).
t=x 2 t=x 2
Si x < 0, alors
ˆ t=+∞ h −e−2t it=+∞ 1 x
(f ? g)(x) = e x
e−2t dt = ex = e = h(x).
t=0 2 t=0 2
11
où l'on a eectué un changement d'indice puis utiliser l'expression de la série
exponentielle. Ainsi, si Z suit une loi de Poisson de paramètre α, alors
+∞ +∞
X X αk
E[Z] = kIP(Z = k) = e−α k = e−α αeα = α.
k!
k=0 k=0
2. Utilisant 1.,
+∞ k +∞ +∞
X α k + 1 −α e−α X αk X αk
e = k +
k! α + 1 α+1 k! k!
k=0 k=0 k=0
−α
e
= (αeα + eα ) = 1.
α+1
3. On a
+∞ +∞ +∞ +∞
X X αk k + 1 −α e−α X αk X αk
E[X] = kIP(X = k) = k e = k(k − 1) +2 k
k! α + 1 α+1 k! k!
k=0 k=0 k=0 k=0
−α +∞ k +∞ k −α +∞ k +∞ k
e X α X α e
X α X α
= +2 = α2 + 2α
α+1 (k − 2)! (k − 1)! α+1 k! k!
k=2 k=1 k=0 k=0
e−α α(α + 2)
= (α2 eα + 2αeα ) = .
α+1 α+1
4. D'une part, par indépendance des variables aléatoires X et Y à valeurs posi-
tives,
e−1 1 02 + 0 + 1
IP(X+Y = 0) = IP(X = 0, Y = 0) = IP(X = 0)IP(Y = 0) = × = .
2 2 4e
D'autre part, pour tout n ∈ IN∗ ,
n
X
IP(X + Y = n) = IP(X = k)IP(Y = n − k)
k=0
1
= (IP(X = n) + IP(X = n − 1))
2
(on n'a gardé que les termes pour k = n et k = n − 1, pour lesquels IP(Y =
n − k) = 21 ), donc
1 1n n + 1 −1 1n−1 n −1 e−1 n + 1 n n2 + n + 1
IP(X+Y = n) = e + e = + = .
2 n! 1 + 1 (n − 1)! 1 + 1 4 n! (n − 1)! n!4e
12
1.3 Devoir surveillé du 12/12/2019
Exercice 1 (6 points)
Soit n ∈ IN∗ .
1. Montrer que
n
X k n 1
n−1
= 1.
n k 2
k=1
Soit X une variable aléatoire à valeurs dans {1, . . . , n} telle que, pour tout
k ∈ {1, . . . , n},
k n 1
IP(X = k) = .
n k 2n−1
Soit Y une variable aléatoire de loi de Bernoulli B( 21 ), indépendante de X .
2. Calculer IP(X + Y = 1), puis IP(X + Y = n + 1).
3. Calculer, pour tout m ∈ {2, . . . , n}, IP(X + Y = m).
4. En déduire la loi de la variable aléatoire X + Y − 1.
Exercice 2 (2 points)
Exercice 3 (7 points)
13
Exercice 4 (6 points)
Formulaire
14
Corrigé de l'exercice 1. 1. En utilisant un changement d'indice puis la formule
du binome de Newton,
n n n n
X k n 1 1 X n 1 X n! 1 X (n − 1)!
= n−1 k = n−1 k = n−1
n k 2n−1 n2 k n2 k!(n − k)! 2 (k − 1)!(n − k)!
k=1 k=1 k=1 k=1
n−1 n−1
1 X (n − 1)! X n−1 1 k 1 n−1−k 1 1 n−1
= n−1 = 1− = +1− = 1.
2 k!(n − 1 − k)! k 2 2 2 2
k=0 k=0
2. Puisque X est à valeurs dans {1, . . . , n}, Y est à valeurs dans {0; 1} et par
indépendance de X et Y , on a
1 n 1 1 1
IP(X+Y = 1) = IP(X = 1, Y = 0) = IP(X = 1)IP(Y = 0) = × = n
n 1 2n−1 2 2
et
n n 1 1 1
IP(X+Y = n+1) = IP(X = n, Y = 1) = IP(X = n)IP(Y = 1) = × = n.
n n 2n−1 2 2
4. On déduit des deux questions précédentes que, pour tout m ∈ {1, . . . , n + 1},
1 n
IP(X + Y = m) = n ,
2 m−1
d'où l'on peut conclure que X + Y − 1 suit une loi binomiale B(n, 21 ).
15
Corrigé de l'exercice 2. Soit B ∈ P(IN). Si a ∈ B , alors
f −1 (B) = {n ∈ IN : f (n) ∈ B} = {n ∈ IN : a ∈ B} = IN ∈ A.
Si a ∈
/ B , alors
f −1 (B) = {n ∈ IN : f (n) ∈ B} = {n ∈ IN : a ∈ B} = ∅ ∈ A.
Pour tout x ≥ 0,
ˆ x ˆ x ˆ x
FX (x) = g(t)dt = 4te−2t dt = [−2te−2t ]x0 + 2e−2t dt
−∞ 0 0
= −2xe−2x + [−e−2x ]x0 = −2xe−2x − e−2x + 1 = 1 − (2x + 1)e−2x .
Ainsi, si x < 0,
g ? g(x) = 0,
16
et, si x ≥ 0,
ˆ x
g ? g(x) = g(t)g(x − t)dt
−∞
ˆ x
= 4te−2t 4(x − t)e−2(x−t) dt
0
ˆ x
= e−2x 16t(x − t)dt
0
−2x
h 16 3 ix
= e 8xt2 − t
3 0
8 3 −2x
= x e ,
3
donc, pour tout x ∈ IR,
8 3 −2x
g ? g(x) = x e 1[0;+∞[ (x),
3
et ainsi, pour tout t ∈ IR,
ˆ x=t ˆ x=t
IP(X + Y ≤ t) = (g ? g)(x)dx = cx3 e−2x 1[0;+∞[ (x)dx,
x=−∞ x=−∞
où c = 83 .
17
donc T a même loi que X , Y et Z (la loi uniforme discrète sur {1, . . . , n}).
5. D'après 3. et 4.,
n−1
IP(X + Y + Z = n + 1) = IP(X + Y = T ) = IP(X + Y = Z) = .
2n2
18
1.4 Examen du 09/01/2020
Durée de l'épreuve : 2h. Le sujet comporte cinq pages, dont trois annexes.
Soit p ∈]0; 1[. Soit Y une variable aléatoire à valeurs dans IN \ {0; 1} dont la
loi de probabilité est donnée, pour tout k ∈ IN tel que k ≥ 2, par IP(Y = k) =
p2 (1 − p)k−2 (k − 1).
B.3. Montrer que la fonction caractéristique de Y est donnée, pour tout t ∈ IR,
par
peit 2
φY (t) = it
.
1 − (1 − p)e
Pour tout p ∈]0; 1[, la loi ainsi dénie est désormais notée D(p).
19
Partie C - Etude d'une loi à densité (5 points)
Soit θ > 0. Soit Z une variable aléatoire réelle de densité donnée, pour tout
x ∈ IR, par
fθ (x) = θ2 xe−θx 1[0;+∞[ (x).
C.1. Préciser la loi de Z . En déduire son espérance et sa variance.
Soit (Yn )n∈IN∗ une suite de variables aléatoires indépendantes telle que, pour
tout n ∈ IN∗ , Yn suit une loi D( nθ ).
D.1. Montrer que la suite de variables aléatoires ( Ynn )n∈IN∗ converge en loi vers
Z.
D.2. Soit (Zn )n∈IN∗ une suite de variables aléatoires indépendantes et de même
loi que Z . On pose, pour tout n ∈ IN∗ ,
n
1X
Zn = Zj .
n j=1
EXERCICE 2 (3 points)
x1 x2 x3 x4 x5 x6 x7 x8 x9 x10
184 226 231 262 197 157 208 171 262 249
20
Annexe 1 : Table des fractiles de la loi normale
centrée réduite
21
Annexe 2 : Table des fractiles de la loi du khi-deux
22
Annexe 3 : Table des fractiles de la loi de Student
23
Corrigé de l'exercice 1. A.1. D'après le cours, l'espérance de la loi Gamma
Γ (a, λ) est donnée par E[X] = λa .
d'où
a
V[X] = E[X 2 ] − (E[X])2 = .
λ2
∂ ln V (θ, x1 , . . . , xn ) 2n (x1 + · · · + xn ) − 2n
= − ,
∂p p 1−p
donc
∂ ln V (θ, x1 , . . . , xn ) 2n 2
= 0 ⇐⇒ p = = ,
∂p x1 + · · · + xn xn
donc
2
pb = .
xn
24
Quatrième étape : pour tous p ∈]0; 1[ et x1 , . . . , xn ∈ IN \ {0; 1},
∂ 2 ln V (θ, x1 , . . . , xn ) −2n (x1 + · · · + xn ) − 2n
2
= 2 −
∂p p (1 − p)2
donc
∂ 2 ln V (θ,
b x 1 , . . . , xn )
H2 =
∂p2
−2n (x1 + · · · + xn ) − 2n
= − < 0,
pb2 (1 − pb)2
donc la matrice H2 est dénie négative.
Pour tout p ∈]0; 1[, la loi ainsi dénie est désormais notée D(p).
C.1. La densité de Z est celle d'une loi Γ (2, θ), où l'on remarque à l'aide des
rappels au début du sujet que Γ (2) = 1Γ (1) = 1.
Pour tout x ≥ 0,
ˆ x ˆ x ˆ x
FZ (x) = fθ (t)dt = θ te 1[0;+∞[ (t)dt =
2 −θt
tθ2 e−θt dt
−∞ −∞ 0
ˆ x
IP P −θt x
= [−θte ]0 + θe−θt dt = −θxe−θx − [e−θt ]x0 = 1 − e−θx − θxe−θx .
0
25
On obtient θb = x2n et l'estimateur de θ fourni par la méthode des moments
est donc donné par
b 1 , . . . , Xn ) = 2 .
Tn = θ(X
Xn
D'une part,
θ it θ 1
e n = +o .
n n n
D'autre part,
θ it θ it 1
1− 1− e n = 1− 1− 1+ +o
n n n n
θ − it 1
= +o ,
n n
si bien que
θ 2
lim φ Yn (t) = = φZ (t),
n→+∞ n θ − it
donc la suite ( Ynn )n∈IN∗ converge en loi vers la variable Z .
Pn
D.2. Puisque Z n = n1 j=1 Zj et que les Zj ont la même loi que Z , on déduit
de C.4. que, pour tout t ∈ IR,
t n θ 2 nθ 2
φZ n (t) = φZ = t n= n,
n θ − in nθ − it
26
Ainsi,
2
IP θZ n − 2 > ε ≤ 2 ,
nε
donc, d'après un théorème de comparaison,
lim IP θZ n − 2 > ε = 0,
n→+∞
et l'on peut conclure que la suite (θZ n )n∈IN∗ converge en probabilité vers 2.
(2) Estimateur de m : X n .
27
1.5 Rattrapage du 04/02/2020
Durée de l'épreuve : 2h. Le sujet comporte cinq pages, dont trois annexes.
EXERCICE 1 (3 points)
Soit un paramètre inconnu θ ∈ IR. Soit (Tn )n∈IN∗ une suite d'estimateurs de
θ asymptotiquement sans biais telle que
lim V(Tn ) = 0.
n→+∞
EXERCICE 2 (7 points)
Soit θ ∈ [0; 1]. Soit X une variable aléatoire à valeurs dans IN telle que, pour
tout k ∈ IN,
θ (1 − θ)(e − 1)
IP(X = k) = + .
k!e ek+1
1. Vérier que l'on a bien
+∞
X
IP(X = k) = 1.
k=0
3. Montrer que
e−2
E[X] = θ + b,
e−1
où b ∈ IR, constant par rapport à θ, est à déterminer.
28
EXERCICE 3 (7 points)
Soit θ > 0. Soit Y une variable aléatoire réelle de densité donnée, pour tout
x ∈ IR, par
2
gθ (x) = θ2 e−θ x 1[0;+∞[ (x).
1. Quelle est la loi de Y ? Préciser (sans nécessairement calculer) son espérance
et sa variance en fonction de θ.
Montrer que si lim θn = +∞, alors la suite de variables aléatoires (Yn )n∈IN∗
n→+∞
converge en loi vers 0.
EXERCICE 4 (3 points)
Chez un primeur, on vend des sacs de pommes de terre (de variété Charlotte).
On s'intéresse à la masse de tels sacs. On suppose que la variable X , masse d'un
sac de pommes de terre en kilogrammes, suit une loi normale N (m, σ 2 ). On
souhaite avoir une estimation de m. Pour cela, on prélève un échantillon de 10
sacs de pommes de terre avec remise. On a relevé les masses en kilogrammes de
ces 10 sacs :
x1 x2 x3 x4 x5 x6 x7 x8 x9 x10
2, 08 2, 04 2, 32 2, 11 2, 01 2, 16 1, 87 2, 19 2, 07 2, 15
29
Annexe 1 : Table des fractiles de la loi normale
centrée réduite
30
Annexe 2 : Table des fractiles de la loi du khi-deux
31
Annexe 3 : Table des fractiles de la loi de Student
32
Corrigé de l'exercice 1. 1. Soit ε > 0. Pour tout n ∈ IN∗ ,
Or, la suite (Tn )n∈IN∗ est asymptotiquement sans biais, donc lim E[Tn ] =
n→+∞
θ, et donc ε
∃n0 ∈ IN∗ : n ≥ n0 =⇒ IP |E[Tn ] − θ| > = 0,
2
donc, utilisant 1., la suite d'estimateurs (Tn )n∈IN∗ est convergente.
1 1k
IP(X = k) = = e−1 ,
k!e k!
et donc X suit une loi de Poisson de paramètre 1.
e − 1 1 1 k−1 1 1 k−1
IP(X+1 = k) = IP(X = k−1) = = 1− = 1− 1− 1− ,
ek e e e e
et donc X + 1 suit une loi géométrique de paramètre 1 − 1e .
33
3.
+∞ +∞
X X θ (1 − θ)(e − 1)
E[X] = kIP(X = k) = k +
k!e ek+1
k=0 k=0
+∞ +∞ +∞ +∞
θX 1 (1 − θ)(e − 1) X −1 k−1 θX 1 (1 − θ)(e − 1) X k 0
= k + k(e ) = + x
e k! e2 e (k − 1)! e2 x=e−1
k=1 k=1 k=1 k=0
+∞ 0
θ X 1 (1 − θ)(e − 1) 1 θ 1 (1 − θ)(e − 1) 1
= + = e +
e k! e2 1−x x=e−1 e e2 (1 − x)2 x=e−1
k=0
(1 − θ)(e − 1) 1 1−θ e−2 1
= θ+ =θ+ = θ+ .
e2 (1 − e−1 )2 e−1 e−1 e−1
Ainsi, b = e−1 .
1
e−2 1
5. D'après 3., pour tout θ ∈ [0; 1], m1 (θ) = E[X] = θ+ .
e−1 e−1
On cherche alors pour tous x1 , . . . , xn ∈ IN, θb = θ(x
b 1 , . . . , xn ) dépendant de
x1 , . . . , xn , tel que
n
1X
m1 (θ) = xn =
b xi .
n i=1
On obtient
e−2b 1
xn = θ+ ,
e−1 e−1
puis
(e − 1)xn − 1
θb = .
e−2
La suite de variables aléatoires fournie par la méthode des moments est donc
donnée par
b 1 , . . . , Xn ) = (e − 1)X n − 1 .
Tn = θ(X
e−2
D'une part, on observe que
e−2 1
(e − 1)E[X n ] − 1 (e − 1)E[X] − 1 (e − 1)( e−1 θ+ e−1 ) −1
E[Tn ] = = = = θ.
e−2 e−2 e−2
D'autre part, θ ∈ [0; 1], mais Tn (Ω) 6⊂ [0; 1], car par exemple IP(X = 0) 6= 0
et donc IP(X n = 0) 6= 0, ainsi Tn n'est nalement pas un estimateur de θ.
34
2. Puisque Y ∼ E(θ2 ), sa fonction de répartition est donnée, pour tout t ∈ IR,
par
FY (t) = 0 si t < 0 ;
−θ 2 t
1−e si t ≥ 0.
ln V (θ, x1 , . . . , xn ) = 2n ln θ − θ2 (x1 + · · · + xn ).
∂ 2 ln V (θ, x1 , . . . , xn ) −2n
= 2 − 2(x1 + · · · + xn ),
∂θ2 θ
donc
∂ 2 ln V (θ,
b x1 , . . . , xn )
H2 =
∂θ2
−2n
= − 2(x1 + · · · + xn )
θb2
= −4(x1 + · · · + xn ) < 0,
b 1 , . . . , Xn ) = p1 .
Tn = θ(X
Xn
35
5. Pour tout t ∈ IR, pour tout n ∈ IN∗ , puisque Yn ∼ E(θn2 ),
θn2
φYn (t) = .
θn2 − it
Or, lim θn = +∞, donc, pour tout t ∈ IR,
n→+∞
(2) Estimateur de m : X n .
Xn − m
Rn := √ ∼ N (0, 1).
σ/ n
Il s'ensuit que
Xn − m
IP − zα/2 < √ < zα/2 = 1 − α,
σ/ n
puis que σ σ
IP X n − zα/2 √ < m < X n + zα/2 √ = 1 − α.
n n
L'intervalle de conance au seuil d'erreur α est alors donné par
i σ σ h
Iα = xn − zα/2 √ ; xn + zα/2 √ ,
n n
avec n = 10, σ = 0, 1,
n
1X
xn = xk = 2, 10.
n
k=1
36
2 Exercices supplémentaires
Exercice 2 (Encore une famille, Chapitre 1). Tout comme dans l'exercice 1 un
enfant peut être à la naissance un garçon ou une lle avec la même probabilité,
indépendamment des enfants qui l'ont éventuellement précédé.
1. Un des enfants d'une fratrie de deux est un garçon. Quelle est la probabilité
que l'autre soit aussi un garçon ?
2. Un couple attend son deuxième enfant. Quelle est la probabilité que celui-
ci soit une lle, sachant que l'aînée en est une ?
Exercice 3 (La chèvre de Monty Hall, Chapitre 1). Lors d'un jeu télévisé
un candidat doit choisir une porte parmi trois. Derrière deux d'entre elles se
trouvent des chèvres, la troisième cache une voiture de luxe. La porte choisie par
le candidat n'est pas ouverte. Le présentateur (sachant où se trouve la voiture)
ouvre une deuxième porte (parmi celles que le candidat n'a pas désignées) et
découvre, évidemment, un capriné. Il propose alors au candidat l'alternative
suivante : conserver son premier choix et ouvrir la première porte ou ouvrir la
troisième porte. Calculer la probabilité de gagner la voiture en fonction de la
stratégie adoptée (conserver son premier choix ou ouvrir la troisième porte).
37
3. Quelle est la probabilité que son quatrième enfant, une lle, soit porteuse
saine ?
Exercice 5. (Canaux bruités, Chapitre 1) Une chaîne de transmission numé-
rique est constituée d'une succession de canaux binaires. Ces canaux étant brui-
tés, la probabilité que le symbole binaire 0 ou 1 soit correctement transmis sur
un canal donné est p < 1. On note Bn l'événement "le bit en sortie du canal n
est identique au bit en netrée du canal 0". On note pn = P (Bn ) la probabilité
de cet événement.
1. Que vaut pn+1 en fonction de pn ?
2. Montrer que la fonction f , dénie sur [0; 1], telle que pn+1 = f (pn ) est
contractante sur [0; 1].
3. En déduire limn→+∞ pn . Conclusions.
Exercice 6 (Codage canal, Chapitre 1). Un canal transmet une information
binaire (des 0 et des 1) avec une probabilité d'erreur p. An de pallier ces erreurs,
un codage redondant est appliqué : lors de la transmission chaque bit transmis
est répété cinq fois. A la réception le décodage se fait à la majorité : si dans la
succession de cinq symboles reçus il y a une majorité de 1, le bit décodé est 1,
0 sinon. Quelle est la nouvelle probabilité d'erreur de transmission ?
Exercice 7 (Chapitre 2). Dans un lot de 20 articles, 12 sont parfaits, 6 com-
portent un défaut mineur et 2 un défaut majeur. Deux articles sont choisis au
hasard, calculer les probabilités des événements suivants :
A : "Les deux sont parfaits."
B : "Les deux ont un défaut majeur."
C : "Au moins l'un d'entre eux est parfait."
D : "Exactement un est parfait."
E : "Au plus l'un d'entre eux est parfait."
Un lot de 20 articles est accepté lorsque 3 éléments choisis au hasard n'ont
pas de défaut majeur. Calculer la probabilité de l'événement
F : "Le lot décrit ci-dessus est accepté."
Correction. Soit G l'ensemble de 20 articles considéré. L'univers Ω associé à
l'expérience aléatoire est donné par l'ensemble des sous-ensembles de 2 articles
de G, c'est-à-dire
Ω = {S ∈ P(G) : |S| = 2}.
Chaque article ayant la même probabilité d'être tiré, on est en situation d'équi-
probabilité. On obtient successivement
20 12 2 c 8
|Ω| = = 190, |A| = = 66, |B| = = 1, |C | = = 28,
2 2 2 2
|C| = |Ω| − |C c | = 190 − 28 = 162, |D| = |C \ A| = |C| − |A| = 162 − 66 = 96,
|E| = |Ac | = |Ω| − |A| = 190 − 66 = 124,
donc
66 1 162 96 124
IP(A) = , IP(B) = , IP(C) = , IP(D) = , IP(E) = .
190 190 190 190 190
38
Enn, pour calculer la probabilité de F , on considère une nouvelle expérience
aléatoire, donc un nouvel univers
avec |Ω0 | = 20
3 = 1140 et |F | = 3 = 816, d'où
18
|F | 816 68
IP(F ) = = = .
|Ω0 | 1140 95
Exercice 8 (Tapis, Chapitre 2). Le poker se joue avec 52 cartes (4 couleurs,
13 cartes par couleur). Une main est constituée de 5 cartes.
1. Combien y-a-t-il de mains ?
2. Quelle est la probabilité d'avoir une quinte ush (cinq cartes successives
de la même couleur) ?
3. Quelle est la probabilité d'avoir une couleur (cinq cartes d'une même cou-
leur qui ne font pas une quinte ush) ?
4. Quelle est la probabilité d'avoir un carré ?
5. Dans la version ouverte du jeu, il s'agit de réaliser la meilleure main de 5
cartes parmi 7. Quelle est alors la probabilité d'avoir un carré ?
Exercice 9 (Le concierge, Chapitre 2). On reprend l'exemple de l'exercice 17.
Lorsque le concierge est ivre (événement B , IP(B) = p), il adopte une autre
stratégie : il essaie successivement les clés mais en les mélangeant entre chaque
tentative.
1. Déterminer la loi IPB (X = k) pour tout k . Un soir en particulier, le
concierge fait 9 essais et n'a toujours pas trouvé la bonne clé (X > 9).
2. Quelle est la probabilité qu'il ait été ivre ce soir-là (on prendra p = 0, 33) ?
Exercice 10 (Chapitre 3). Soit X une variable aléatoire de densité f , et (a, b) ∈
IR2 . Exprimer la densité de probabilité de la variable aléatoire Y = aX + b en
fonction de f , a et b.
Correction. Il faut supposer a 6= 0 sinon Y est constante et n'admet pas de
densité. Pour tout x ∈ IR, utilisant les dénitions de fonction de répartition puis
de densité,
FY (x) = IP(Y ≤ x) = IP(aX + b ≤ x).
Si a > 0, alors
x − b
FY (x) = IP X ≤
a
ˆ x−ba
= f (t)dt
−∞
ˆ x
1 u − b
= f du,
−∞ a a
où l'on a utilisé le changement de variable u = at + b, du = adt, et ainsi Y a
pour densité de probabilité la fonction dénie pour tout x ∈ IR par
1 x − b
fY (x) = f .
a a
39
Si a < 0, alors
x − b
FY (x) = IP X ≥
a
ˆ +∞
= f (t)dt
x−b
ˆ a
x
−1 u − b
= f du,
−∞ a a
Exercice 12 (Loi log-normale, Chapitre 3). On dit que la v.a.r. X suit une
loi log-normale de paramètres (m, σ 2 ) si la v.a.r. Y = ln X suit une loi normale
N (m, σ 2 ). On prendra pour la suite m = 0 et σ 2 = 1. On note Φ la fonction de
répartition de la loi normale centrée réduite.
1. Exprimer F , la fonction de répartition de X , à l'aide de Φ.
2. Donner l'expression de f , une densité de la v.a.r. X .
3. Calculer E[X].
Exercice 14 (Chapitre 4). Soit X de loi uniforme sur {0, 1} et Z de loi uniforme
sur {−1, +1} indépendante de X . Soit Y = ZX . Montrer que X et Y sont
décorrélées mais ne sont pas indépendantes.
40
ind. 1
IP(Y = −1) = IP(X = 1, Z = −1) = IP(X = 1)IP(Z = −1) = ,
4
ind. 1
IP(Y = 1) = IP(X = 1, Z = 1) = IP(X = 1)IP(Z = 1) = ,
4
1
IP(Y = 0) = IP(X = 0) = .
2
On a alors
1
E[X] = 0 × IP(X = 0) + 1 × IP(X = 1) = = E[X 2 ],
2
E[Z] = −1 × IP(X = −1) + 1IP(X = 1) = 0,
ind.
E[Y ] = E[XZ] = E[X]E[Z] = 0,
ind.
E[XY ] = E[X 2 Z] = E[X 2 ]E[Z] = 0,
d'où
Cov(X, Y ) = E[XY ] − E[X]E[Y ] = 0
et les variables X et Y sont donc décorrélées. Or,
1
IP(X = 1, Y = 1) = IP(Y = 1) = ,
4
mais
1 1 1
IP(X = 1)IP(Y = 1) = × = 6= IP(X = 1, Y = 1),
2 4 8
donc les variables X et Y ne sont pas indépendantes.
Exercice 15 (Chapitre 4). Soit X une variable aléatoire réelle positive admet-
tant une densité et un moment d'ordre 1. Montrer que
ˆ +∞
E[X] = IP(X > x)dx.
0
Exercice 16 (On lance deux dés, Chapitres 1 et 4). On lance deux dés bien
équilibrés. La variable X étudiée est le score obtenu en faisant la somme des
deux valeurs.
41
1. Décrire Ω ainsi que X(Ω).
2. Décrire X −1 ({7}).
3. Décrire X −1 ({2, 3, 4}). On note pi = IP(X = i) = IPX ({i}).
4. Calculer pi pour i ∈ X(Ω). ).
5. Que vaut E[X] ?
Exercice 17 (Le trousseau de clés, Chapitres 2 et 4). Un concierge a un trous-
seau de 10 clés, dont une seule ouvre une porte. Il essaie successivement les
diérentes clés jusqu'à trouver la bonne clé. La v.a. X est le nombre d'essais
nécessaires à l'ouverture de la porte.
1. Décrie X(Ω).
2. Déterminer la loi de probabilité de la variable X .
3. Déterminer l'espérance de X .
Exercice 18 (Natalité, Chapitres 2 et 4). A la naissance, la probabilité qu'un
nouveau-né soit un garçon est p. Un couple décide de faire autant d'enfants
que nécessaire pour avoir un garçon et s'arrête ensuite. On note X le nombre
d'enfants du couple.
1. Quelle est la loi de X ?
2. Que vaut E[X] ?
Exercice 19 (Chapitre 5). Soient X, Y ∼ U([0; 1]).
1. Déterminer la loi du vecteur (X, Y ) lorsque X et Y sont indépendants.
2. Déterminer la loi du vecteur (X, Y ) lorsque X = Y .
3. Déterminer la loi de (W, Z) = (min(X, Y ), max(X, Y )), lorsque X et Y
sont indépendants.
Correction. 1. Les variables aléatoires X et Y étant indépendantes et de loi
U([0; 1]), la densité du vecteur aléatoire (X, Y ) est donnée par
f(X,Y ) (x, y) = fX (x)fY (y) = 1[0;1] (x)1[0;1] (y) = 1[0;1]2 (x, y).
2. On calcule la fonction de répartition du vecteur aléatoire (X, Y ), donnée pour
t, s ∈ IR par
F(X,Y ) (t, s) = IP(X ≤ t, Y ≤ s) = IP(X ≤ min(t, s))
= 0 si min(t, s) < 0
= 1 si min(t, s) > 1
= min(t, s) si min(t, s) ∈ [0; 1].
3. Soient t, s ∈ [0; 1]. Si t ≤ s,
IP(W ≤ t, Z ≤ s) = IP(min(X, Y ) ≤ t, max(X, Y ) ≤ s)
ˆ x=1 ˆ y=1
= 1min(x,y)≤t 1max(x,y)≤s dy dx
x=0 y=0
ˆ x=s ˆ y=s
= 1min(x,y)≤t dy dx
x=0 y=0
ˆ x=t ˆ y=s ˆ x=s ˆ y=t
= 1dy dx + 1dy dx
x=0 y=0 x=t y=0
= ts + (s − t)t = t(2s − t).
42
Si s ≤ t,
IP(W ≤ t, Z ≤ s) = IP(min(X, Y ) ≤ t, max(X, Y ) ≤ s)
= IP(max(X, Y ) ≤ s)
ˆ x=s ˆ y=s
= 1dy dx
x=0 y=0
2
= s .
Exercice 20 (Chapitre 5). Soit Z = (X, Y ) la loi de densité π1 1D (x, y) où D
est le disque unité de IR2 .
1. Calculer les lois (marginales) de X et de Y .
2. Les variables aléatoires X et Y sont-elles indépendantes ?
3. Calculer la loi du vecteur (min(X, Y ), max(X, Y )).
Correction. 1. Pour tout t ≥ −1,
ˆ +∞ ˆ +∞
1
IP(X ≤ t) = 1x≤t 1x2 +y 2 ≤1 dxdy
−∞ −∞ π
ˆ t∧1 ˆ
√
y= 1−x2
1
= √ 1dy dx
π x=−1 y=− 1−x2
ˆt∧1
1 p
= 2 1 − x2 dx,
π x=−1
43
Exercice 21 (Chapitre 5). Soit (X, Y ) un vecteur aléatoire de IR2 de densité
donnée, pour tout (x, y) ∈ IR2 , par
x2 +y 2
f (x, y) = ce− 2 1{x>y} ,
où c ∈ IR.
1. Calculer la valeur de c.
2. Soit Φ la fonction de répartition de la loi normale N (0; 1). Donner les
fonctions de répartition respectives de X et Y en fonction de Φ.
Correction. 1. Pour tout (x, y) ∈ IR2 ,
ˆ ˆ x=+∞ ˆ y=x
x2 +y 2
f (x, y)d(x, y) = c e− 2 dy dx
IR2 x=−∞ y=−∞
ˆ x=+∞ ˆ y=x
x2 y2
= c e− 2 e− 2 dy dx
x=−∞ y=−∞
h 1 ˆ y=x y2
2 ix=+∞
IP P
= c e− 2 d y
2 y=−∞ x=∞
ˆ y=+∞ 2
c y2
= e− 2 dy
2 y=−∞
c √ 2
= ( 2π) = cπ,
2
donc, f étant une densité, c = π.
1
44
Exercice 22 (Uniformes, Chapitre 5). Soit (X, Y ) un couple de v.a.r. discrètes
suivant une loi uniforme discrète sur I × J = {0, . . . , n}2 .
1. Déterminer la loi de X ainsi que la loi de Y .
2. Les v.a.r. X et Y sont-elle indépendantes ?
3. Déterminer la loi de X + Y .
Indication. On pourra séparer les cas X +Y ≤n et X + Y > n.
Exercice 23 (Couple géométrique, Chapitre 5). Le couple de v.a.r. (X, Y ) suit
une loi géométrique :
a
∀i, j ∈ IN∗ , P (X = i, Y = j) = .
2i+j
1. Déterminer la valeur de a.
2. Calculer les lois marginales de X et de Y .
3. Les v.a.r. X et Y sont-elles indépendantes ?
Exercice 26 (Fratries, Chapitre 5). Dans une famille donnée, le nombre d'en-
fants est une v.a.r. N suivant une loi de Poisson de paramètre λ > 0. Chaque
enfant a une probabilité p d'être une lle et on note q = 1 − p la probabilité
qu'un enfant soit un garçon. On suppose que les sexes des naissances successives
sont indépendants. On désigne par les v.a.r. X le nombre de lles et Y le nombre
de garçons.
1. Déterminer la loi du couple (N, X).
2. En déduire la loi de X .
45
Exercice 27 (Exponentielles, Chapitre 5). Soient X et Y deux v.a.r. indépen-
dantes suivant des lois exponentielles de paramètres respectifs λ et µ. Déterminer
P (X > Y ). Indication. On rappelle que IP(X > Y ) = E[1{X>Y } ].
Exercice 28 (Chapitre 7). Soit λ > 0. Soit, pour tout n ∈ IN∗ tel que n ≥ λ,
une suite de variables aléatoires (Xn,k )k∈IN∗ indépendantes et de même loi de
Bernoulli B( nλ ). On pose alors
1
Yn = inf{k ∈ IN∗ : Xn,k = 1}.
n
Soit X une variable aléatoire de loi exponentielle E(λ). Montrer que la suite
(Yn )n∈IN∗ ,n≥λ converge en loi vers la variable X .
Correction. Pour tout n ∈ IN∗ , pour tout j ∈ IN∗ ,
et donc t
λ in
e
φYn (t) = n t.
1 − 1 − nλ ei n
D'une part,
λ it λ 1
e n = +o .
n n n
D'autre part,
λ i t λ it 1
1− 1− e n = 1− 1− 1+ +o
n n n n
λ − it 1
= +o ,
n n
si bien que
λ
lim φYn (t) = = φX (t),
n→+∞ λ − it
donc la suite (Yn )n∈IN∗ ,n≥λ converge en loi vers la variable X .
Exercice 29 (Chapitre 7). Soit (Xk )k∈IN∗ une suite de variables aléatoires
indépendantes et de même loi d'ordre 2. On note µ = E[X1 ] et σ 2 = V[X1 ]. On
pose pour tout n ∈ IN∗ :
n
1X
Sn = Xk ,
n
k=1
46
puis
Sn − µ
Zn = √ .
σ/ n
Alors la suite (Zn )n∈IN∗ converge en loi vers une variable aléatoire de loi normale
centrée réduite N (0, 1).
φ00 (0) 2
φ(x) = φ(0) + φ0 (0)x + x + o(x2 )
2!
E[X12 ] 2
= 1 + E[X1 ]x − x + o(x2 )
2
x2
= 1− + o(x2 ).
2
On en déduit que
t
ln(φZn (t)) = n ln φ √
n
t2 1
= n ln 1 − +o 2
2n n
−t2 1
= +o ,
2 n
d'où
−t2
lim ln(φZn (t)) = ,
n→+∞ 2
puis
t2
lim φZn (t) = e− 2 = φX (t)
n→+∞
Exercice 30 (Chapitre 7). Soit la suite de variables aléatoires (Xn )n∈IN∗ telle
que, pour tout n ∈ IN∗ , Xn suit une loi Γ (n, n). Etudier la convergence en
loi, puis la convergence en probabilité de la suite (Xn )n∈IN∗ . On rappelle que
la fonction caractéristique d'une variable aléatoire Y de loi Γ (a, λ) est donnée,
pour tout t ∈ IR, par
λ a
φY (t) = .
λ − it
47
Correction. Pour tout n ∈ IN∗ , la fonction caractéristique de la variable aléa-
toire Xn de loi Γ (n, n) est donnée, pour tout t ∈ IR, par
n n
φXn (t) =
n − it
it n
= 1+
n − it
it
= en ln(1+ n−it ) .
où X est une variable aléatoire telle que IP(X = 1) = 1. Donc la suite (Xn )n∈IN∗
converge en loi vers 1.
Montrons alors que la suite converge en probabilité vers 1. Pour tout ε > 0,
pour tout n ∈ IN∗ , d'après l'inégalité de Bienaymé-Tchebychev,
V[Xn ]
IP(|Xn − E[Xn ]| > ε) ≤ .
ε2
Or, puisque Xn suit une loi Γ (n, n), on a E[Xn ] = nn = 1 et V[Xn ] = n
n2 = n,
1
donc
1
IP(|Xn − 1| > ε) ≤ 2 .
nε
Ainsi,
lim IP(|Xn − 1| > ε) = 0,
n→+∞
Or, puisque α ∈]0; +∞[, on a θ = e−3α ∈]0; 1[. On peut donc considérer que
l'intervalle associé au paramètre θ est I =]0; 1[. Mais la statistique (−2)X1 n'est
pas à valeurs dans I , donc elle n'est pas un estimateur de θ.
48
Exercice 32 (Chapitre 8). Soit X une variable aléatoire de loi de densité f
donnée, pour tout x ∈ IR, par
axa−1
f (x) = 1[0;θ] (x),
θa
où a > 1 est connu et θ > 0 inconnu.
Proposer un estimateur sans biais de θ.
Correction. On a
ˆ +∞ ˆ θ
axa aθ
E[X] = f (x)dx = dx = ,
−∞ 0 θa a+1
aθ
=⇒ E[X n ] = E[X] = .
a+1
2. On en déduit que E[ 5X4 n ] = θ, et donc que 5X n
4 est un estimateur sans biais
de θ.
Exercice 34 (Chapitre 9). Soit X ∼ U([0; θ]) où θ ∈]0; +∞[ est inconnu.
1. Calculer un estimateur de θ par la méthode du maximum de vraisem-
blance.
2. Calculer un estimateur de θ par la méthode des moments.
49
Première étape : pour tous θ = (m, σ 2 ) ∈ IR × IR∗+ et x1 . . . , xn ∈ IR,
donc
∂ ln V x1 + · · · + xn
(m, σ 2 , x1 . . . , xn ) = 0 ⇐⇒ m = = xn
∂m n
donc
m
b = xn ,
et
n
∂ ln V 2 2 1X
(m, σ , x1 . . . , xn ) = 0 ⇐⇒ σ = b 2
(xi − m)
∂(σ 2 )
b
n i=1
donc
n
c2 = 1
X
σ (xi − xn )2 = s2n .
n i=1
∂ 2 ln V (m, σ 2 , x1 , . . . , xn ) −n
2
= 2,
∂m σ
n
∂ 2 ln V (m, σ 2 , x1 , . . . , xn ) n 1 X
= − (xi − m)2 ,
∂(σ 2 )2 2σ 4 σ 6 i=1
n
∂ 2 ln V (m, σ 2 , x1 , . . . , xn ) −1 X
2
= 4 (xi − m).
∂m∂(σ ) σ i=1
Or,
n Pn
∂ 2 ln V 2 n 1 X 2 σ 2 − 2 i=1 (xi − m)
nb b 2
2 2
(m,
b σ
b , x1 , . . . , x n ) = 4
− 6
(x i − m)
b = 6
∂(σ ) 2b
σ σ
b i=1 2b
σ
Pn n n
b 2 − 2 i=1 (xi − m) b 2 b 2
P P
(xi − m) − i=1 (xi − m)
= i=1 6
= 6
< 0,
2bσ 2b
σ
50
n n n
∂ 2 ln V 2 1 X 1 X 1X
( m, σ , x1 , . . . , x n ) = − (x i − m) = − x i − xj
∂m∂(σ 2 ) b4 i=1 b4 i=1
b b b
σ σ n j=1
n n
1 X X
=− x i − x j = 0,
b4 i=1
σ j=1
donc
∂ 2 ln V ∂ 2 ln V
∂m2 (m, b2 , x1 , . . . , xn )
b σ (m, σ 2
, x1 , . . . , x )
n
∂m∂(σ 2 )
b b
H2 = 2
∂ ln V ∂ 2 ln V
(m,
b σb2 , x1 , . . . , xn ) (m,
b σ 2
b , x1 , . . . , xn )
∂(σ 2 )∂m ∂(σ )2 2
n
− 2 0
= σb Pn
(xi − m) b 2
0 − i=1 6
2bσ
est bien dénie négative.
Tn = θ(X
b 1 , . . . , Xn ) = (m,
b σc2 )(X1 , . . . , Xn ) = (X n , S 2 ).
n
Tn = θ(X
b 1 , . . . , Xn ) = (m,
b σc2 )(X1 , . . . , Xn ) = (X n , S 2 ),
n
51
Correction. Méthode du maximum de vraisemblance.
52
Exercice 37 (Chapitre 9). Soit X une variable aléatoire de loi de densité f
donnée, pour tout x ∈ IR, par
−θx2
f (x) = θxe 2 1[0;+∞[ (x)
θ(x2 2
1 +···+xn )
= θn x1 x2 . . . xn e− 2 > 0.
θ(x21 + · · · + x2n )
ln V (θ, x1 , . . . , xn ) = n ln θ + ln(x1 x2 . . . xn ) − .
2
Troisième étape : pour tous θ > 0 et x1 , . . . , xn ∈ IR+ ,
∂ 2 ln V (θ, x1 , . . . , xn ) −n
= 2,
∂θ2 θ
donc
∂ 2 ln V (θ,
b x 1 , . . . , xn )
H2 =
∂θ2
−n
= < 0,
θb2
donc la matrice H2 est dénie négative.
53
Remarque intéressante : la loi dénie dans cette exercice est une loi de Ray-
leigh, dont on peut montrer que l'espérance est donnée par
r
π
E[X] = .
2θ
Ainsi, on pourra vérier que la méthode des moments nous fournit comme
estimateur de θ
π
Un = ,
2(X n )2
diérent de l'estimateur Tn obtenu par la méthode du maximum de vraisem-
blance. Les deux méthodes d'estimation étudiées n'aboutissent donc pas systé-
matiquement sur le même estimateur.
54