Annales - Exercices Supplémentaires (1413)

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 54

Probabilités et statistiques

Annales 2019-2020

Exercices supplémentaires

Table des matières

1 Annales 2019-2020 corrigés 2


1.1 Devoir surveillé du 07/11/2019 . . . . . . . . . . . . . . . . . . . 2
1.2 Devoir surveillé du 21/11/2019 . . . . . . . . . . . . . . . . . . . 8
1.3 Devoir surveillé du 12/12/2019 . . . . . . . . . . . . . . . . . . . 13
1.4 Examen du 09/01/2020 . . . . . . . . . . . . . . . . . . . . . . . 19
1.5 Rattrapage du 04/02/2020 . . . . . . . . . . . . . . . . . . . . . . 28

2 Exercices supplémentaires 37

1
1 Annales 2019-2020 corrigés

1.1 Devoir surveillé du 07/11/2019

Durée de l'épreuve : 2h. Documents et calculatrices interdits.

Exercice 1 (4 points)

Dans un verger, on trouve des pommes de variétés A et B. Une partie de


ces pommes est utilisée pour la production de pommeau, les pommes restantes
niront en compote. On sait que 80% des pommes de variété A nissent en
compote, que 10% des pommes utilisées pour la production de pommeau sont
des pommes de variété A, et que 70% des pommes du verger sont de variété A
ou utilisées pour la production de pommeau. On cueille une pomme au hasard
dans le verger.
Soient IP la mesure de probabilité associée à l'expérience aléatoire, et A et
P les événements

A : "la pomme cueillie est de variété A"

P : "la pomme cueillie est utilisée pour la production de pommeau".


1. Exprimer IP(A ∩ P ) en fonction de IP(A), puis en fonction de IP(P ).
2. Exprimer IP(A ∪ P ) en fonction de IP(A) et IP(P ).
3. En déduire la probabilité que la pomme cueillie soit de variété A, puis
la probabilité que la pomme cueillie soit utilisée pour la production de
pommeau.

Exercice 2 (3 points)

Soient deux variables aléatoires X et Y à valeurs dans IN telles que, pour


tout (p, q) ∈ IN2 ,
p+q
IP(X = p, Y = q) = e−1 .
p!q!2p+q
1. Calculer, pour tous p, q ∈ IN, IP(X = p) et IP(Y = q).
2. Les variables aléatoires X et Y sont-elles indépendantes ?

Exercice 3 (6 points)
+∞
X
1. Vérier que (e − 1)e−k = 1.
k=1
Soit X une variable aléatoire à valeurs dans IN∗ telle que pour, pour tout
k ∈ IN∗ ,
IP(X = k) = (e − 1)e−k .
2. Quelle est la loi de X ? En déduire son espérance et sa variance.
3. Montrer que, pour tout k ∈ IN∗ , IP(X = k + 1|X ≥ 2) = IP(X = k).
4. Soit Y une variable aléatoire indépendante de X et de même loi. Calculer,
pour tout n ∈ IN tel que n ≥ 2, IP(X + Y = n).

2
Exercice 4 (7 points)

La loi de probabilité de Rayleigh admet pour densité de probabilité la fonc-


tion f dénie, pour tout x ∈ IR, par
x2
f (x) = xe− 2 1{x≥0} .

1. Vérier que f est bien une densité de probabilité.


Soit X une variable aléatoire suivant une loi de Rayleigh.
2. Calculer la fonction de répartition FX de la variable aléatoire X .
3. Soient a, b ∈ IR+ tels que a ≤ b. Calculer IP(a ≤ X ≤ b).
4. Calculer l'espérance de la variable aléatoire X .
5. Soit Y une variable aléatoire de loi uniforme U([0; 1]), indépendante de X .
Montrer que la variable aléatoire X + Y admet pour densité la fonction h
dénie, pour tout x ∈ IR, par
−(x−1)2 −x2
h(x) = e 2 −e 2 si x ≥ 1
−x2
= 1−e 2 si x ∈ [0; 1[
= 0 si x < 0.

Bonus - Exercice 5 (1 point)

Soit (Ω, A) un espace mesurable et E un ensemble non vide muni de sa tribu


grossière E = {∅, E}. Soit g une application de Ω dans E . Montrer que g est
(A, E )-mesurable.

Formulaire

• Loi de Bernoulli B(p) : IP({0}) = 1 − p, IP({1}) = p.


• Loi binomiale B(n, p) : ∀k ∈ {0, 1, · · · , n}, IP({k}) = n
pk (1 − p)n−k où

k
n!
k = k!(n − k)! .
n


• Loi géométrique G(p) : ∀k ∈ IN∗ , IP({k}) = p(1 − p)k−1 .


αk
• Loi de Poisson P(α) : ∀k ∈ IN, IP({k}) = e−α .
k!
1
• Loi uniforme U([a; b]) : ∀x ∈ IR, f (x) = 1[a;b] (x).
b−a
• Loi exponentielle E(λ) : ∀x ∈ IR, f (x) = λe−λx 1[0;+∞[ (x).
1 (x−m)2
• Loi normale N (m, σ 2 ) : ∀x ∈ IR, f (x) = √ e− 2σ2 .
σ 2π
λa e−λx
• Loi Gamma Γ (a, λ) : ∀x ∈ IR, f (x) = xa−1 1[0;+∞[ (x) où Γ (a) =
Γ (a)
´ +∞ a−1 −t
0
t e dt.
1 α
• Loi de Cauchy C(m, α) : ∀x ∈ IR, f (x) = .
π (x − m)2 + α2

3
Corrigé de l'exercice 1. D'après l'énoncé, IPA (P c ) = 0, 80 ; IPP (A) = 0, 10 ;
IP(A ∪ P ) = 0, 70.

1. D'après la dénition de la probabilité conditionnelle,


IP(A ∩ P ) = IPA (P )IP(A) = (1 − IPA (P c )) × IP(A) = 0, 20 × IP(A)
et
IP(A ∩ P ) = IPP (A)IP(P ) = 0, 10 × IP(P ).

2. On applique la formule du cours et ce qui précède :


IP(A∪P ) = IP(A)+IP(P )−IP(A∩P ) = IP(A)+IP(P )−0, 10×IP(P ) = IP(A)+0, 90IP(P ).

3. On obtient le système
0, 20 × IP(A) = 0, 10 × IP(P )
0, 70 = IP(A) + 0, 90IP(P ),
d'où l'on déduit que
IP(A) = 0, 25 et IP(P ) = 0, 50.

Corrigé de l'exercice 2. 1. D'après la formule des probabilités totales, pour


tout p ∈ IN,
+∞ +∞
X X p+q
IP(X = p) = IP(X = p, Y = q) = e−1
q=0 q=0
p!q!2p+q
+∞ +∞
e−1  X 1 X q 
= p +
p!2p q=0 q!2q q=0 q!2q
+∞ +∞
e−1  1/2 X 1  e−1  1/2 1 X 1 
= pe + = pe +
p!2p q=1
(q − 1)!2q p!2p 2 q=0 q!2q

e−1  1/2 1 1/2  e−1 e1/2  1 1  1


= p
pe + e = p
p+ = p
√ p+ .
p!2 2 p!2 2 p!2 e 2
De façon symétrique, pour tout q ∈ IN,
1  1
IP(Y = q) = √ q + ,
q!2q e 2
donc X et Y ont même loi.

2. Les variables X et Y sont indépendantes


⇐⇒ ∀p, q ∈ IN, IP(X = p, Y = q) = IP(X = p)IP(Y = q)
p+q 1  1 1  1
⇐⇒ ∀p, q ∈ IN, e−1 = √ p + √ q +
p!q!2p+q p!2p e 2 q!2q e 2
 1  1 
⇐⇒ ∀p, q ∈ IN, p + q = p + q+ ,
2 2

4
ce qui est faux, en particulier pour p = q = 0. Donc X et Y ne sont pas
indépendantes.

Corrigé de l'exercice 3. 1. Utilisant la formule d'une série géométrique, on a


+∞ +∞ +∞  k 1
X X X 1
(e − 1)e−k = (e − 1) e−k = (e − 1) = (e − 1) e
1 = 1.
k=1 k=1 k=1
e 1− e

2. Pour tout k ∈ IN∗ ,


 1 k e − 1  1 k−1  1   1 k−1
IP(X = k) = (e−1)e−k = (e−1) = = 1− 1− 1− ,
e e e e e
donc X suit une loi géométrie de paramètre 1 − 1e , donc E[X] = e
e−1 et V[X] =
(e−1)2 .
e

3. Pour tout k ∈ IN∗ ,

IP(X = k + 1, X ≥ 2) IP(X = k + 1) IP(X = k + 1)


IP(X = k+1|X ≥ 2) = = = ,
IP(X ≥ 2) IP(X ≥ 2) 1 − IP(X = 1)

donc
(e − 1)e−(k+1)
IP(X = k + 1|X ≥ 2) = = (e − 1)e−k = IP(X = k).
1 − (e − 1)e−1

4. Pour tout n ∈ IN tel que n ≥ 2,


n
X
IP(X + Y = n) = IP(X = k)IP(Y = n − k)
k=0
n−1
X
= IP(X = k)IP(Y = n − k)
k=1
n−1
X
= (e − 1)e−k (e − 1)e−(n−k)
k=1
n−1
X
= (e − 1)2 e−n 1
k=1
= (e − 1)2 e−n (n − 1).

Corrigé de l'exercice 4. 1. La fonction f est continue par morceaux et posi-


tive. De plus,
ˆ +∞ ˆ +∞
−t2 −t2
f (t)dt = te 2 dt = [−e 2 ]+∞
0 = 1 − 0 = 1,
−∞ 0

donc f est bien une densité de probabilité.

5
2. Pour tout x ∈ IR, ˆ x
FX (x) = f (t)dt,
−∞

donc, pour tout x < 0, FX (x) = 0 et, pour tout x ≥ 0,


ˆ x
−t2 −t2 −x2
FX (x) = te 2 dt = [−e 2 ]x0 = 1 − e 2 .
0

3. Pour tous a, b ∈ IR+ tels que a ≤ b,


−b2 −a2 −a2 −b2
   
IP(a ≤ X ≤ b) = FX (b) − FX (a) = 1 − e 2 − 1 − e 2 =e 2 −e 2 .

4. Intégrant par parties, on obtient


ˆ +∞ ˆ +∞ 0
−t2

E[X] = tf (t)dt = t − e 2 dt
−∞ 0
ˆ ˆ +∞
+∞
−t2 −t2 −t2
= [−te ]+∞ 2 + e 2 dt = e 2 dt
0
0
ˆ +∞ r 0
1 −t2 1 √ π
= e 2 dt = 2π = ,
2 −∞ 2 2
−t2
où l'on a utilisé la parité de la fonction t 7→ e 2 et la densité de la loi normale
centrée réduite, dont l'intégrale vaut 1.

5. Pour tout x ∈ IR,


ˆ t=+∞ ˆ t=+∞
t2
h(x) = (f ? g)(x) = f (t)g(x − t)dt = te− 2 1{t≥0} 1[0;1] (x − t)dt,
t=−∞ t=−∞

où g = 1[0;1] est la densité de la loi U([0; 1]).

Si x < 0, le produit des indicatrices et donc la fonction sous l'intégrale sont


nuls, donc h(x) = 0.

Si x ∈ [0; 1[, d'après un calcul précédent,


ˆ t=x
t2 −x2
h(x) = te− 2 dt = 1 − e 2 .
t=0

Si x ≥ 1, ˆ t=x
t2 −(x−1)2 −x2
h(x) = te− 2 dt = e 2 −e 2 .
t=x−1

Ainsi,
−(x−1)2 −x2
h(x) = e 2 −e 2 si x ≥ 1
−x2
= 1−e 2 si x ∈ [0; 1[
= 0 si x < 0.

6
Corrigé de l'exercice 5. D'une part,

g −1 (∅) = {x ∈ Ω : g(x) ∈ ∅} = ∅ ∈ A,

car A est une tribu. D'autre part,

g −1 (E) = {x ∈ Ω : g(x) ∈ E} = Ω ∈ A,

car A est une tribu. Donc, pour tout B ∈ E , g −1 (B) ∈ A, et ainsi g est mesu-
rable.

7
1.2 Devoir surveillé du 21/11/2019

Durée de l'épreuve : 2h. Documents et calculatrices interdits.

Exercice 1 (1 point)

Rappeler la dénition précise d'une tribu.

Exercice 2 (4 points)

Dans un champ, on cultive des pommes de terre de deux variétés, Charlotte


(60%) et Belle de Fontenay (40%). Malheureusement, une partie de la culture a
été contaminée par le mildiou, une maladie de pommes de terre redoutable. On
estime qu'un tiers des pommes de terre de la variété Charlotte est contaminée
et qu'un quart de celles de la variété Belle de Fontenay n'a pas été contaminée.
1. On choisit au hasard une pomme de terre dans le champ. Quelle est la
probabilité qu'elle soit contaminée ?
2. Enoncer et démontrer la formule de Bayes.
3. On choisit au hasard une pomme de terre dans le champ : elle est saine.
Calculer la probabilité que cette pomme de terre soit de la variété Char-
lotte.
Les résultats numériques peuvent être donnés sous forme de fractions d'en-

tiers.

Exercice 3 (8 points)

La loi de probabilité de Laplace admet pour densité de probabilité la fonction


h : IR → IR dénie, pour tout x ∈ IR, par h(x) = 21 e−|x| . Autrement écrit,
1 −x 1 x
h(x) = e si x ≥ 0 et h(x) = e si x < 0.
2 2
1. Vérier que h est bien une densité de probabilité.
Soit X une variable aléatoire suivant une loi de Laplace.
2. Calculer la fonction de répartition FX de la variable aléatoire X .
3. Calculer l'espérance de la variable aléatoire X .
4. Soient Y et Z deux variables aléatoires indépendantes de même loi expo-
nentielle E(1). Démontrer que la variable aléatoire −Z admet pour den-
sité de probabilité la fonction g : IR → IR dénie, pour tout x ∈ IR, par
g(x) = ex 1]−∞;0] (x).
5. En déduire la loi de la variable aléatoire Y − Z .

Exercice 4 (8 points)

Soit α ∈]0; +∞[.


1. Montrer que
+∞
X αk
k = αeα
k!
k=0

et en déduire l'espérance d'une variable aléatoire de loi de Poisson de


paramètre α.

8
2. Démontrer que
+∞ k
X α k + 1 −α
e = 1.
k! α + 1
k=0

3. Soit X une variable aléatoire à valeurs dans IN telle que, pour tout k ∈ IN,

αk k + 1 −α
IP(X = k) = e .
k! α + 1

Montrer que
α(α + 2)
E[X] = .
α+1
4. Dans cette question, on suppose que α = 1 et que la variable aléatoire
Y , indépendante de X , suit une loi de Bernoulli B( 21 ). Montrer que, pour
tout n ∈ IN,
n2 + n + 1
IP(X + Y = n) = .
n!4e
Dans cette dernière question, on pourra distinguer les cas n=0 et n ∈ IN∗ .

Formulaire

• Loi de Bernoulli B(p) : IP({0}) = 1 − p, IP({1}) = p.


• Loi binomiale B(n, p) : ∀k ∈ {0, 1, · · · , n}, IP({k}) = n
pk (1 − p)n−k où

k
n!
k = k!(n − k)! .
n


• Loi géométrique G(p) : ∀k ∈ IN∗ , IP({k}) = p(1 − p)k−1 .


αk
• Loi de Poisson P(α) : ∀k ∈ IN, IP({k}) = e−α .
k!
1
• Loi uniforme U([a; b]) : ∀x ∈ IR, f (x) = 1[a;b] (x).
b−a
• Loi exponentielle E(λ) : ∀x ∈ IR, f (x) = λe−λx 1[0;+∞[ (x).
1 (x−m)2
• Loi normale N (m, σ 2 ) : ∀x ∈ IR, f (x) = √ e− 2σ2 .
σ 2π
λa e−λx
• Loi Gamma Γ (a, λ) : ∀x ∈ IR, f (x) = xa−1 1[0;+∞[ (x) où Γ (a) =
Γ (a)
´ +∞ a−1 −t
0
t e dt.
1 α
• Loi de Cauchy C(m, α) : ∀x ∈ IR, f (x) = .
π (x − m)2 + α2

9
Corrigé de l'exercice 1. Soit Ω un ensemble. On appelle tribu sur Ω toute
famille A ⊂ P(Ω) de parties de Ω vériant :
1. Ω ∈ A,
2. A ∈ A =⇒ Ac ∈ A,
3. (An )n∈IN∗ ⊂ A =⇒ ∪n∈IN∗ An ∈ A.

Corrigé de l'exercice 2. On note C et M les événements

C : "La pomme de terre est de la variété Charlotte",

M : "La pomme de terre est contaminée par le mildiou".


D'après l'énoncé, IP(C) = 0, 60, IP(C c ) = 0, 40, IPC (M ) = 1
3 et IPC c (M c ) =
4.
1

1. La probabilité que la pomme de terre choisie soit contaminée est donnée,


d'après la formule des probabilités totales, par
1 3
IP(M ) = IPC (M )IP(C) + IPC c (M )IP(C c ) = × 0, 60 + × 0, 40 = 0, 50.
3 4
2. Soit (Ω, A, IP) un espace probabilisé. Soient A, B ∈ A deux événements tels
que IP(A) 6= 0 et IP(B) 6= 0. Alors, appliquant deux fois successivement la
dénition d'une probabilité conditionnelle, on obtient
IP(A ∩ B) IPA (B)IP(A)
IPB (A) = = .
IP(B) IP(B)
3. Appliquant la formule de Bayes, la probabilité demandée est donnée par

IPC (M c )IP(C) (1 − IPC (M ))IP(C) (1 − 13 ) × 0, 60 4


IPM c (C) = c
= = = .
IP(M ) 1 − IP(M ) 1 − 0, 50 5

Corrigé de l'exercice 3. 1. La fonction h est continue par morceaux et posi-


tive (car la fonction exponentielle est positive). De plus, d'après la relation de
Chasles,
ˆ +∞ ˆ 0 ˆ +∞
h(t)dt = h(t)dt + h(t)dt
−∞ −∞ 0
ˆ0 ˆ +∞
1 t 1 −t
= e dt + e dt
−∞ 2 0 2
h 1 i0 h 1 i+∞
= et + − e−t
2 −∞ 2 0
1 1
= + = 1,
2 2
donc h est bien une densité de probabilité.

2. Pour tout x < 0,


ˆ x ˆ x h 1 ix
1 t 1
FX (x) = h(t)dt = e dt = et = ex .
−∞ −∞ 2 2 −∞ 2

10
Pour tout x ≥ 0,
ˆ x ˆ 0 ˆ x
FX (x) = h(t)dt = h(t)dt + h(t)dt
−∞ −∞ 0
ˆ x ix
1 1 −t 1 h 1 1 1 1 1
= + e dt = + − e−t = + − e−x = 1 − e−x .
2 0 2 2 2 0 2 2 2 2

3. On a ˆ ˆ
+∞ +∞
1
E[X] = th(t)dt = t e−|t| dt = 0,
−∞ −∞ 2
en utilisant que l'intégrale d'une fonction impaire convergente est nulle.

Autre méthode : séparer l'intégrale en deux avec la relation de Chasles (sur


] − ∞; 0] et [0; +∞[), puis intégrer par parties.

4. Pour tout x ∈ IR,


ˆ +∞
F−Z (x) = IP(−Z ≤ x) = IP(Z ≥ −x) = 1 − FZ (−x) = e−t 1[0;+∞[ (t)dt
−x

en utilisant que Z ∼ E(1). Par changement de variable u = −t dans l'intégrale,


on obtient
ˆ −∞ ˆ x ˆ x
F−Z (x) = − eu 1[0;+∞[ (−u)dt = eu 1]−∞;0] (u)du = g(u)du,
x −∞ −∞

donc −Z admet bien pour densité g .

5. On note f la densité de la loi de Y , i.e. la loi exponentielle E(1). Les variables


Y et Z étant indépendantes, la variable aléatoire Y − Z = Y + (−Z) admet
pour densité la fonction f ? g donnée, pour tout x ∈ IR, par
ˆ t=+∞ ˆ t=+∞
(f ? g)(x) = f (t)g(x − t)dt = e−t 1[0;+∞[ (t)ex−t 1]−∞;0] (x − t)dt.
t=−∞ t=−∞

Si x ≥ 0, alors
ˆ t=+∞ h −e−2t it=+∞ 1 −x
(f ? g)(x) = ex e−2t dt = ex = e = h(x).
t=x 2 t=x 2

Si x < 0, alors
ˆ t=+∞ h −e−2t it=+∞ 1 x
(f ? g)(x) = e x
e−2t dt = ex = e = h(x).
t=0 2 t=0 2

Donc Y − Z suit une loi de Laplace.

Corrigé de l'exercice 4. 1. Le premier terme de la série étant nul, on a


+∞ +∞ +∞ +∞ k
X αk X αk X αk X α
k = k = =α = αeα ,
k! k! (k − 1)! k!
k=0 k=1 k=1 k=0

11
où l'on a eectué un changement d'indice puis utiliser l'expression de la série
exponentielle. Ainsi, si Z suit une loi de Poisson de paramètre α, alors
+∞ +∞
X X αk
E[Z] = kIP(Z = k) = e−α k = e−α αeα = α.
k!
k=0 k=0

2. Utilisant 1.,
+∞ k +∞ +∞
X α k + 1 −α e−α  X αk X αk 
e = k +
k! α + 1 α+1 k! k!
k=0 k=0 k=0
−α
e
= (αeα + eα ) = 1.
α+1
3. On a
+∞ +∞ +∞ +∞
X X αk k + 1 −α e−α  X αk X αk 
E[X] = kIP(X = k) = k e = k(k − 1) +2 k
k! α + 1 α+1 k! k!
k=0 k=0 k=0 k=0
−α +∞ k +∞ k −α +∞ k +∞ k 
e X α X α e
  X α X α
= +2 = α2 + 2α
α+1 (k − 2)! (k − 1)! α+1 k! k!
k=2 k=1 k=0 k=0
e−α α(α + 2)
= (α2 eα + 2αeα ) = .
α+1 α+1
4. D'une part, par indépendance des variables aléatoires X et Y à valeurs posi-
tives,

e−1 1 02 + 0 + 1
IP(X+Y = 0) = IP(X = 0, Y = 0) = IP(X = 0)IP(Y = 0) = × = .
2 2 4e
D'autre part, pour tout n ∈ IN∗ ,
n
X
IP(X + Y = n) = IP(X = k)IP(Y = n − k)
k=0
1
= (IP(X = n) + IP(X = n − 1))
2
(on n'a gardé que les termes pour k = n et k = n − 1, pour lesquels IP(Y =
n − k) = 21 ), donc

1  1n n + 1 −1 1n−1 n −1  e−1  n + 1 n  n2 + n + 1
IP(X+Y = n) = e + e = + = .
2 n! 1 + 1 (n − 1)! 1 + 1 4 n! (n − 1)! n!4e

12
1.3 Devoir surveillé du 12/12/2019

Durée de l'épreuve : 2h. Documents et calculatrices interdits.

Précision de notation : si a, b ∈ IN∗ , on rappelle que {a, . . . , b} désigne l'en-

semble des entiers naturels k tels que a ≤ k ≤ b.

Exercice 1 (6 points)

Soit n ∈ IN∗ .
1. Montrer que
n  
X k n 1
n−1
= 1.
n k 2
k=1

Soit X une variable aléatoire à valeurs dans {1, . . . , n} telle que, pour tout
k ∈ {1, . . . , n},  
k n 1
IP(X = k) = .
n k 2n−1
Soit Y une variable aléatoire de loi de Bernoulli B( 21 ), indépendante de X .
2. Calculer IP(X + Y = 1), puis IP(X + Y = n + 1).
3. Calculer, pour tout m ∈ {2, . . . , n}, IP(X + Y = m).
4. En déduire la loi de la variable aléatoire X + Y − 1.

Exercice 2 (2 points)

Soient a ∈ IN et f : IN → IN la fonction dénie, pour tout n ∈ IN, par


f (n) = a. Soit A = {∅, IN}. Montrer que f est (A, P(IN))-mesurable.

Exercice 3 (7 points)

Soit g : IR → IR la fonction dénie pour tout x ∈ IR par

g(x) = 4xe−2x 1[0;+∞[ (x).

1. Montrer que g est une densité de probabilité.


2. Soit X une variable aléatoire de loi de probabilité de densité g . Calculer
la fonction de répartition de X .
3. Calculer l'espérance de X .
4. Calculer IP(X ≤ 1|X ≤ 2) et IP(X ≤ 2|X ≤ 1).
5. Soit Y une variable aléatoire indépendante de X et de même loi. Montrer
que, pour tout t ∈ IR,
ˆ x=t
IP(X + Y ≤ t) = cx3 e−2x 1[0;+∞[ (x)dx,
x=−∞

où c est une constante réelle à déterminer.

13
Exercice 4 (6 points)

Soit n ∈ IN∗ . Soient X , Y et Z trois variables aléatoires indépendantes à


valeurs dans {1, . . . , n} telles que, pour tout k ∈ {1, . . . , n},
1
IP(X = k) = IP(Y = k) = IP(Z = k) = .
n
1. Montrer que, pour tout k ∈ {2, . . . , n + 1}, IP(X + Y = k) = n2 .
k−1

2. Montrer que, pour tout k ∈ {n + 2, . . . , 2n}, IP(X + Y = k) = 2n−k+1


n2 .
3. Utiliser la formule des probabilités totales pour déduire des deux premières
questions que
n−1
IP(X + Y = Z) = .
2n2
4. Déterminer la loi de la variable aléatoire T = n + 1 − Z .
5. En déduire la valeur de IP(X + Y + Z = n + 1).

Formulaire

• Loi de Bernoulli B(p) : IP({0}) = 1 − p, IP({1}) = p.


• Loi binomiale B(n, p) : ∀k ∈ {0, 1, · · · , n}, IP({k}) = n
pk (1 − p)n−k où

k
n!
k = k!(n − k)! .
n


• Loi géométrique G(p) : ∀k ∈ IN∗ , IP({k}) = p(1 − p)k−1 .


αk
• Loi de Poisson P(α) : ∀k ∈ IN, IP({k}) = e−α .
k!
1
• Loi uniforme U([a; b]) : ∀x ∈ IR, f (x) = 1[a;b] (x).
b−a
• Loi exponentielle E(λ) : ∀x ∈ IR, f (x) = λe−λx 1[0;+∞[ (x).
1 (x−m)2
• Loi normale N (m, σ 2 ) : ∀x ∈ IR, f (x) = √ e− 2σ2 .
σ 2π
λa e−λx
• Loi Gamma Γ (a, λ) : ∀x ∈ IR, f (x) = xa−1 1[0;+∞[ (x) où Γ (a) =
Γ (a)
´ +∞ a−1 −t
0
t e dt.
1 α
• Loi de Cauchy C(m, α) : ∀x ∈ IR, f (x) = .
π (x − m)2 + α2

14
Corrigé de l'exercice 1. 1. En utilisant un changement d'indice puis la formule
du binome de Newton,
n   n   n n
X k n 1 1 X n 1 X n! 1 X (n − 1)!
= n−1 k = n−1 k = n−1
n k 2n−1 n2 k n2 k!(n − k)! 2 (k − 1)!(n − k)!
k=1 k=1 k=1 k=1
n−1 n−1    
1 X (n − 1)! X n−1 1 k 1  n−1−k  1 1 n−1
= n−1 = 1− = +1− = 1.
2 k!(n − 1 − k)! k 2 2 2 2
k=0 k=0

2. Puisque X est à valeurs dans {1, . . . , n}, Y est à valeurs dans {0; 1} et par
indépendance de X et Y , on a
 
1 n 1 1 1
IP(X+Y = 1) = IP(X = 1, Y = 0) = IP(X = 1)IP(Y = 0) = × = n
n 1 2n−1 2 2
et
 
n n 1 1 1
IP(X+Y = n+1) = IP(X = n, Y = 1) = IP(X = n)IP(Y = 1) = × = n.
n n 2n−1 2 2

3. Pour tout m ∈ {2, . . . , n}, en utilisant que Y ∼ B( 21 ),


n
X
IP(X + Y = m) = IP(X = k)IP(Y = m − k)
k=0
= IP(X = m − 1)IP(Y = 1) + IP(X = m)IP(Y = 0)
   
1m − 1 n 1 m n 1 
= +
2 n m − 1 2n−1 n m 2n−1
   
1  n n
= n
(m − 1) +m
n2 m−1 m
1  (m − 1)n! mn! 
= +
n2n (m − 1)!(n − m + 1)! m!(n − m)!
n!  (m − 1) + (n − m + 1) 
=
n2n (m − 1)!(n − m + 1)!
1 n!
=
2n (m − 1)!(n − m + 1)!
 
1 n
= .
2n m − 1

4. On déduit des deux questions précédentes que, pour tout m ∈ {1, . . . , n + 1},
 
1 n
IP(X + Y = m) = n ,
2 m−1

donc, pour tout k ∈ {0, . . . , n},


     
1 n n 1 k 1 n−k
IP(X + Y − 1 = k) = n = 1− ,
2 k k 2 2

d'où l'on peut conclure que X + Y − 1 suit une loi binomiale B(n, 21 ).

15
Corrigé de l'exercice 2. Soit B ∈ P(IN). Si a ∈ B , alors

f −1 (B) = {n ∈ IN : f (n) ∈ B} = {n ∈ IN : a ∈ B} = IN ∈ A.

Si a ∈
/ B , alors

f −1 (B) = {n ∈ IN : f (n) ∈ B} = {n ∈ IN : a ∈ B} = ∅ ∈ A.

Ainsi, pour tout B ∈ P(IN), f −1 (B) ∈ A, donc f est (A, P(IN))-mesurable.

Corrigé de l'exercice 3. 1. La fonction g est continue par morceaux et positive


(car la fonction exponentielle est positive). De plus, intégrant par parties,
ˆ +∞ ˆ +∞ ˆ +∞
g(t)dt = 4te dt = [−2te ]0 +
−2t −2t +∞
2e−2t dt = 0+[−e−2t ]+∞
0 = 1,
−∞ 0 0

donc g est bien une densité de probabilité.

2. On note FX la fonction de répartition de X . Pour tout x < 0,


ˆ x
FX (x) = g(t)dt = 0.
−∞

Pour tout x ≥ 0,
ˆ x ˆ x ˆ x
FX (x) = g(t)dt = 4te−2t dt = [−2te−2t ]x0 + 2e−2t dt
−∞ 0 0
= −2xe−2x + [−e−2x ]x0 = −2xe−2x − e−2x + 1 = 1 − (2x + 1)e−2x .

3. Intégrant par parties et utilisant 1.,


ˆ +∞ ˆ +∞ ˆ +∞
E[X] = tg(t)dt = 4t2 e−2t dt = [−2t2 e−2t ]+∞
0 + 4te−2t dt = 0+1 = 1.
−∞ 0 0

4. D'une part, d'après 2.,

IP(X ≤ 1, X ≤ 2) IP(X ≤ 1) FX (1) 1 − (2 × 1 + 1)e−2×1 1 − 3e−2


IP(X ≤ 1|X ≤ 2) = = = = −2×2
= .
IP(X ≤ 2) IP(X ≤ 2) FX (2) 1 − (2 × 2 + 1)e 1 − 5e−4
D'autre part,
IP(X ≤ 2, X ≤ 1) IP(X ≤ 1)
IP(X ≤ 2|X ≤ 1) = = = 1.
IP(X ≤ 1) IP(X ≤ 1)

5. Les variables aléatoires X et Y étant indépendantes et de même loi à densité


g , la variable aléatoire X + Y admet pour densité la fonction g ? g , dénie pour
tout x ∈ IR par ˆ x
g ? g(x) = g(t)g(x − t)dt.
−∞

Ainsi, si x < 0,
g ? g(x) = 0,

16
et, si x ≥ 0,
ˆ x
g ? g(x) = g(t)g(x − t)dt
−∞
ˆ x
= 4te−2t 4(x − t)e−2(x−t) dt
0
ˆ x
= e−2x 16t(x − t)dt
0
−2x
h 16 3 ix
= e 8xt2 − t
3 0
8 3 −2x
= x e ,
3
donc, pour tout x ∈ IR,
8 3 −2x
g ? g(x) = x e 1[0;+∞[ (x),
3
et ainsi, pour tout t ∈ IR,
ˆ x=t ˆ x=t
IP(X + Y ≤ t) = (g ? g)(x)dx = cx3 e−2x 1[0;+∞[ (x)dx,
x=−∞ x=−∞

où c = 83 .

Corrigé de l'exercice 4. 1. Pour tout k ∈ {2, . . . , n + 1}, X et Y étant


indépendantes et à valeurs dans {1, . . . , n},
k−1 k−1 k−1
X X 1 1 1 X k−1
IP(X + Y = k) = IP(X = j)IP(Y = k − j) = × = 2 1= .
j=1 j=1
n n n j=1 n2

2. Pour tout k ∈ {n + 2, . . . , 2n}, X et Y étant indépendantes et à valeurs dans


{1, . . . , n},
n n n
X X 1 1 1 X 2n − k + 1
IP(X+Y = k) = IP(X = j)IP(Y = k−j) = × = 2 1= .
n n n n2
j=k−n j=k−n j=k−n

3. D'après la formule des probabilités totales, puis par indépendance de Z avec


X et Y ,
n
X n
X
IP(X + Y = Z) = IP(X + Y = Z, Z = k) = IP(X + Y = k, Z = k)
k=1 k=2
n n n−1
X X k−1 1 1 X (n − 1)n n−1
= IP(X + Y = k)IP(Z = k) = = k= = .
n2 n n 3 2n 3 2n2
k=2 k=2 k=1

4. Puisque Z est à valeurs dans {1, . . . , n}, T = n + 1 − Z est à valeurs dans


{1, . . . , n}. De plus, pour tout k ∈ {1, . . . , n},
1
IP(T = k) = IP(Z = n + 1 − k) = ,
n

17
donc T a même loi que X , Y et Z (la loi uniforme discrète sur {1, . . . , n}).

5. D'après 3. et 4.,
n−1
IP(X + Y + Z = n + 1) = IP(X + Y = T ) = IP(X + Y = Z) = .
2n2

18
1.4 Examen du 09/01/2020

Durée de l'épreuve : 2h. Le sujet comporte cinq pages, dont trois annexes.

Documents interdits. Calculatrices autorisées.

Rappels sur la fonction Gamma d'Euler : pour tout a > 0,


ˆ +∞
Γ (a) = xa−1 e−x dx, Γ (a + 1) = aΓ (a) et Γ (1) = 1.
0

EXERCICE 1 (18 points)

Partie A - Résultats de cours (3 points)

Soit une variable aléatoire X de loi Gamma Γ (a, λ) où a, λ ∈ IR∗+ .

A.1. Rappeler la formule de l'espérance de la variable aléatoire X en fonction


de a et λ.
a
A.2. Montrer que V[X] = .
λ2
Pour la suite, on rappelle que la fonction caractéristique de X est donnée,
pour tout t ∈ IR, par
 λ a
φX (t) = .
λ − it

Partie B - Etude d'une loi discrète (5 points)

Soit p ∈]0; 1[. Soit Y une variable aléatoire à valeurs dans IN \ {0; 1} dont la
loi de probabilité est donnée, pour tout k ∈ IN tel que k ≥ 2, par IP(Y = k) =
p2 (1 − p)k−2 (k − 1).

B.1. Calculer l'espérance de Y .

B.2. Déterminer un estimateur de p par la méthode du maximum de vraisem-


blance.

B.3. Montrer que la fonction caractéristique de Y est donnée, pour tout t ∈ IR,
par
 peit 2
φY (t) = it
.
1 − (1 − p)e
Pour tout p ∈]0; 1[, la loi ainsi dénie est désormais notée D(p).

19
Partie C - Etude d'une loi à densité (5 points)

Soit θ > 0. Soit Z une variable aléatoire réelle de densité donnée, pour tout
x ∈ IR, par
fθ (x) = θ2 xe−θx 1[0;+∞[ (x).
C.1. Préciser la loi de Z . En déduire son espérance et sa variance.

C.2. Calculer la fonction de répartition de Z .

C.3. Déterminer un estimateur de θ par la méthode des moments.

C.4. Déterminer la fonction caractéristique de Z .

Partie D - Convergences (5 points)

Soit (Yn )n∈IN∗ une suite de variables aléatoires indépendantes telle que, pour
tout n ∈ IN∗ , Yn suit une loi D( nθ ).

D.1. Montrer que la suite de variables aléatoires ( Ynn )n∈IN∗ converge en loi vers
Z.

D.2. Soit (Zn )n∈IN∗ une suite de variables aléatoires indépendantes et de même
loi que Z . On pose, pour tout n ∈ IN∗ ,
n
1X
Zn = Zj .
n j=1

Calculer pour tout n ∈ IN∗ la fonction caractéristique de la variable aléatoire


Z n et en déduire sa loi.

D.3. Montrer que la suite (θZ n )n∈IN∗ converge en probabilité vers 2.

EXERCICE 2 (3 points)

Dans un atelier de lutherie, on fabrique des instruments de musique. On


s'intéresse au temps de séchage d'une pièce de bois d'un certain type. On suppose
que la variable X , temps de séchage d'une pièce de bois en nombre de semaines,
suit une loi normale N (m, σ 2 ). On souhaite avoir une estimation de m. Pour
cela, on prélève un échantillon de 10 pièces de bois avec remise. On a relevé les
diamètres de ces 10 pièces de bois :

x1 x2 x3 x4 x5 x6 x7 x8 x9 x10
184 226 231 262 197 157 208 171 262 249

On suppose le paramètre σ 2 inconnu. Donner un intervalle de conance de


m au seuil d'erreur α = 0, 10. Est attendue la rédaction en cinq étapes présentée
dans le cours.

20
Annexe 1 : Table des fractiles de la loi normale
centrée réduite

21
Annexe 2 : Table des fractiles de la loi du khi-deux

22
Annexe 3 : Table des fractiles de la loi de Student

23
Corrigé de l'exercice 1. A.1. D'après le cours, l'espérance de la loi Gamma
Γ (a, λ) est donnée par E[X] = λa .

A.2. Si X ∼ Γ (a, λ), alors


ˆ +∞ ˆ +∞
1
E[X ] 2
= t f (t)dt =
2
ta+1 λa e−λt dt
−∞ Γ (a) 0
ˆ +∞
1
= ua+1 e−u du (chgt de var. u = λt)
λ2 Γ (a) 0
1 Γ (a + 2)Γ (a + 1) (a + 1)a
= 2
Γ (a + 2) = 2
= ,
λ Γ (a) Γ (a + 1)λ Γ (a) λ2

d'où
a
V[X] = E[X 2 ] − (E[X])2 = .
λ2

B.1. Utilisant la formule d'une série géométrique, on obtient


+∞
X +∞
X  +∞
X 00
E[Y ] = kp2 (1 − p)k−2 (k − 1) = p2 k(k − 1)xk−2 = p2 xk
|x=1−p |x=1−p
k=2 k=2 k=0
 1 00  2  2p2 2
= p2 = p2 = = .
1 − x |x=1−p (1 − x)3 |x=1−p (1 − (1 − p))3 p

B.2. Soit (X1 , . . . , Xn ) un n-échantillon de Y , avec n ∈ IN∗ . Appliquons la


méthode du maximum de vraisemblance.

Première étape : pour tous p ∈]0; 1[ et x1 , . . . , xn ∈ IN \ {0; 1},

V (θ, x1 , . . . , xn ) = IP(X1 = x1 )IP(X2 = x2 ) . . . IP(Xn = xn )


n
Y
= p2n (1 − p)(x1 +···+xn )−2n (xi − 1) > 0.
i=1

Deuxième étape : pour tous p ∈]0; 1[ et x1 , . . . , xn ∈ IN \ {0; 1},


n
X
ln V (θ, x1 , . . . , xn ) = 2n ln p + ((x1 + · · · + xn ) − 2n) ln(1 − p) + (xi − 1).
i=1

Troisième étape : pour tous p ∈]0; 1[ et x1 , . . . , xn ∈ IN \ {0; 1},

∂ ln V (θ, x1 , . . . , xn ) 2n (x1 + · · · + xn ) − 2n
= − ,
∂p p 1−p

donc
∂ ln V (θ, x1 , . . . , xn ) 2n 2
= 0 ⇐⇒ p = = ,
∂p x1 + · · · + xn xn
donc
2
pb = .
xn

24
Quatrième étape : pour tous p ∈]0; 1[ et x1 , . . . , xn ∈ IN \ {0; 1},
∂ 2 ln V (θ, x1 , . . . , xn ) −2n (x1 + · · · + xn ) − 2n
2
= 2 −
∂p p (1 − p)2
donc
∂ 2 ln V (θ,
b x 1 , . . . , xn )
H2 =
∂p2
−2n (x1 + · · · + xn ) − 2n
= − < 0,
pb2 (1 − pb)2
donc la matrice H2 est dénie négative.

Conclusion : l'estimateur de p fourni par la méthode du maximum de vraisem-


blance est donné par
2
Tn = pb(X1 , . . . , Xn ) = .
Xn

B.3. Pour tout t ∈ IR,


+∞
X +∞
X +∞
X 
φY (t) = eitk p2 (1 − p)k−2 (k − 1) = p2 ei2t k(eit (1 − p))k−1 = p2 ei2t kxk−1
|x=eit (1−p)
k=2 k=1 k=1
+∞ 0
X 1 0   1 
= p2 ei2t xk = p2 ei2t = p 2 i2t
e
|x=eit (1−p) 1 − x |x=eit (1−p) (1 − x)2 |x=eit (1−p)
k=0
 1   peit 2
= p2 ei2t = .
(1 − (eit (1 − p)))2 1 − (1 − p)eit

Pour tout p ∈]0; 1[, la loi ainsi dénie est désormais notée D(p).

C.1. La densité de Z est celle d'une loi Γ (2, θ), où l'on remarque à l'aide des
rappels au début du sujet que Γ (2) = 1Γ (1) = 1.

C.2. On note FZ la fonction de répartition de Z . Pour tout x > 0,


ˆ x ˆ x
FZ (x) = fθ (t)dt = θ2 te−θt 1[0;+∞[ (t)dt = 0.
−∞ −∞

Pour tout x ≥ 0,
ˆ x ˆ x ˆ x
FZ (x) = fθ (t)dt = θ te 1[0;+∞[ (t)dt =
2 −θt
tθ2 e−θt dt
−∞ −∞ 0
ˆ x
IP P −θt x
= [−θte ]0 + θe−θt dt = −θxe−θx − [e−θt ]x0 = 1 − e−θx − θxe−θx .
0

C.3. Pour tout θ > 0, m1 (θ) = E[Z] = θ2 .


On cherche alors pour tous x1 , . . . , xn ∈ IR∗+ , θb = θ(x
b 1 , . . . , xn ) dépendant
de x1 , . . . , xn , tel que
n
b = xn = 1
X
m1 (θ) xi .
n i=1

25
On obtient θb = x2n et l'estimateur de θ fourni par la méthode des moments
est donc donné par
b 1 , . . . , Xn ) = 2 .
Tn = θ(X
Xn

C.4. D'après la partie A, la fonction caractéristique de Z est donnée, pour tout


t ∈ IR, par
 θ 2
φZ (t) = .
θ − it

D.1. On déduit de B.3. et de la formule de la fonction caractéristique d'une


transformation ane que
θ in t
 e 2
φ Yn (t) = n  t .
n
1 − 1 − nθ ei n

D'une part,
θ it θ 1
e n = +o .
n n n
D'autre part,
 θ it  θ  it  1 
1− 1− e n = 1− 1− 1+ +o
n n n n
θ − it 1
= +o ,
n n
si bien que
 θ 2
lim φ Yn (t) = = φZ (t),
n→+∞ n θ − it
donc la suite ( Ynn )n∈IN∗ converge en loi vers la variable Z .
Pn
D.2. Puisque Z n = n1 j=1 Zj et que les Zj ont la même loi que Z , on déduit
de C.4. que, pour tout t ∈ IR,
  t n  θ 2  nθ 2
φZ n (t) = φZ = t n= n,
n θ − in nθ − it

donc Z n suit une loi Gamma Γ (2n, θn).

D.3. Soit ε > 0. Pour tout n ∈ IN∗ , on applique à θZ n l'inégalité de Bienaymé-


Tchebychev : 
   V Zn
IP θZ n − E θZ n > ε ≤
,
ε2
avec
  2
E θZ n = θE[Z] = θ × = 2
θ
et, par indépendance des Zj , qui ont même loi que Z ,
n
 θ2 X θ2 θ2 2 2
V Zn = 2 V[Zk ] = V[Z] = × 2 = .
n n n θ n
k=1

26
Ainsi,
 2
IP θZ n − 2 > ε ≤ 2 ,

donc, d'après un théorème de comparaison,

lim IP θZ n − 2 > ε = 0,
n→+∞

et l'on peut conclure que la suite (θZ n )n∈IN∗ converge en probabilité vers 2.

Corrigé de l'exercice 2. On eectue les cinq étapes proposées ci-dessus.

(1) Paramètre à étudier : m.

(2) Estimateur de m : X n .

(3) Loi de X n : puisque X1 , . . . , Xn sont des variables indépendantes de même


2
loi N (m, σ 2 ), on a X n ∼ N (m, σn ).

(4) Rapport critique : on pose


Xn − m
Rn := ∗ √ ∼ S(n − 1).
Sn/ n

(5) On note zn,α/2 la valeur telle que


IP(−zn,α/2 < Rn < zn,α/2 ) = 1 − α.
Il s'ensuit que
 Xn − m 
IP − zn,α/2 < ∗ √ < zn,α/2 = 1 − α,
Sn/ n
puis que
∗ ∗
 S S 
IP X n − zn,α/2 √n < m < X n + zn,α/2 √n = 1 − α.
n n
L'intervalle de conance au seuil d'erreur α est alors donné par
i s∗ s∗ h
Iα = xn − zn,α/2 √n ; xn + zn,α/2 √n ,
n n
avec n = 10,
n
1X
xn = xk = 214, 70,
n
k=1
v
u n

u 1 X
sn = t (xk − xn )2 = 37, 39.
n−1
k=1

Puisque Rn ∼ S(n − 1), on obtient la valeur de zn,α/2 à l'aide de la table


des fractiles de la loi de Student donnée en annexe 3 :
n = 10 et α = 0, 10 =⇒ n − 1 = 9 et α/2 = 0, 05 =⇒ zn,α/2 = 1, 833.
L'intervalle de conance au seuil d'erreur α = 0, 10 est ainsi donné par
Iα =]193, 03 ; 236, 37[.

27
1.5 Rattrapage du 04/02/2020

Durée de l'épreuve : 2h. Le sujet comporte cinq pages, dont trois annexes.

Documents interdits. Calculatrices autorisées.

EXERCICE 1 (3 points)

Soit un paramètre inconnu θ ∈ IR. Soit (Tn )n∈IN∗ une suite d'estimateurs de
θ asymptotiquement sans biais telle que

lim V(Tn ) = 0.
n→+∞

1. Montrer que, pour tout ε > 0 et pour tout n ∈ IN∗ ,


 ε  ε
IP(|Tn − θ| > ε) ≤ IP |Tn − E[Tn ]| > + IP |E[Tn ] − θ| > .
2 2
2. En déduire que la suite d'estimateurs (Tn )n∈IN∗ est convergente.

EXERCICE 2 (7 points)

Soit θ ∈ [0; 1]. Soit X une variable aléatoire à valeurs dans IN telle que, pour
tout k ∈ IN,
θ (1 − θ)(e − 1)
IP(X = k) = + .
k!e ek+1
1. Vérier que l'on a bien
+∞
X
IP(X = k) = 1.
k=0

2. Préciser la loi de X lorsque θ = 1, et celle de X + 1 lorsque θ = 0.

3. Montrer que
e−2
E[X] = θ + b,
e−1
où b ∈ IR, constant par rapport à θ, est à déterminer.

4. On suppose dans cette question que θ = 0. Calculer la fonction caractéristique


de X .

5. On souhaite estimer le paramètre θ. Appliquer la méthode des moments, puis


calculer l'espérance du résultat obtenu. La méthode des moments a-t-elle ici
permis la construction d'un estimateur sans biais ?

28
EXERCICE 3 (7 points)

Soit θ > 0. Soit Y une variable aléatoire réelle de densité donnée, pour tout
x ∈ IR, par
2
gθ (x) = θ2 e−θ x 1[0;+∞[ (x).
1. Quelle est la loi de Y ? Préciser (sans nécessairement calculer) son espérance
et sa variance en fonction de θ.

2. Déterminer la fonction de répartition de la variable aléatoire Y .

3. Déterminer un estimateur de θ par la méthode du maximum de vraisemblance.

4. Soit Z une variable aléatoire de loi exponentielle de paramètre λ > 0. Montrer


que sa fonction caractéristique est donnée, pour tout t ∈ IR, par
λ
φZ (t) = .
λ − it
5. Soit, pour tout n ∈ IN∗ , θn > 0 et Yn une variable aléatoire de densité gθn
avec, pour tout x ∈ IR,
2
gθn (x) = θn2 e−θn x 1[0;+∞[ (x).

Montrer que si lim θn = +∞, alors la suite de variables aléatoires (Yn )n∈IN∗
n→+∞
converge en loi vers 0.

EXERCICE 4 (3 points)

Chez un primeur, on vend des sacs de pommes de terre (de variété Charlotte).
On s'intéresse à la masse de tels sacs. On suppose que la variable X , masse d'un
sac de pommes de terre en kilogrammes, suit une loi normale N (m, σ 2 ). On
souhaite avoir une estimation de m. Pour cela, on prélève un échantillon de 10
sacs de pommes de terre avec remise. On a relevé les masses en kilogrammes de
ces 10 sacs :
x1 x2 x3 x4 x5 x6 x7 x8 x9 x10
2, 08 2, 04 2, 32 2, 11 2, 01 2, 16 1, 87 2, 19 2, 07 2, 15

On suppose le paramètre σ 2 connu et égal à 0,01. Donner un intervalle de


conance de m au seuil d'erreur α = 0, 05. Est attendue la rédaction en cinq
étapes présentée dans le cours.

29
Annexe 1 : Table des fractiles de la loi normale
centrée réduite

30
Annexe 2 : Table des fractiles de la loi du khi-deux

31
Annexe 3 : Table des fractiles de la loi de Student

32
Corrigé de l'exercice 1. 1. Soit ε > 0. Pour tout n ∈ IN∗ ,

IP(|Tn − θ| > ε) ≤ IP(|Tn − E[Tn ]| + |E[Tn ] − θ| > ε)


 ε  ε 
≤ IP |Tn − E[Tn ]| > ∪ |E[Tn ] − θ| >
2 2 
 ε  ε
≤ IP |Tn − E[Tn ]| > + IP |E[Tn ] − θ| > .
2 2
2. D'après l'inégalité de Bienaymé-Tchebychev et par hypothèse,
 ε  4V[Tn ]
IP |Tn − E[Tn ]| > ≤ −−−−−→ 0.
2 ε2 n→+∞

Or, la suite (Tn )n∈IN∗ est asymptotiquement sans biais, donc lim E[Tn ] =
n→+∞
θ, et donc  ε
∃n0 ∈ IN∗ : n ≥ n0 =⇒ IP |E[Tn ] − θ| > = 0,
2
donc, utilisant 1., la suite d'estimateurs (Tn )n∈IN∗ est convergente.

Corrigé de l'exercice 2. 1. Utilisant les formules des séries exponentielles et


géométriques, on a
+∞ +∞ 
X X θ (1 − θ)(e − 1) 
IP(X = k) = +
k!e ek+1
k=0 k=0
+∞ +∞
θ X 1k (1 − θ)(e − 1) X 1
= +
e k! e ek
k=0 k=0
θ 1 (1 − θ)(e − 1) 1
= e +
e e 1 − e−1
e−1
= θ + (1 − θ) = 1.
e−1

2. Si θ = 1, alors, pour tout k ∈ IN,

1 1k
IP(X = k) = = e−1 ,
k!e k!
et donc X suit une loi de Poisson de paramètre 1.

Si θ = 0, alors, pour tout k ∈ IN∗ ,

e − 1  1  1 k−1  1   1 k−1
IP(X+1 = k) = IP(X = k−1) = = 1− = 1− 1− 1− ,
ek e e e e
et donc X + 1 suit une loi géométrique de paramètre 1 − 1e .

33
3.
+∞ +∞ 
X X θ (1 − θ)(e − 1) 
E[X] = kIP(X = k) = k +
k!e ek+1
k=0 k=0
+∞ +∞ +∞ +∞
θX 1 (1 − θ)(e − 1) X −1 k−1 θX 1 (1 − θ)(e − 1)  X k 0
= k + k(e ) = + x
e k! e2 e (k − 1)! e2 x=e−1
k=1 k=1 k=1 k=0
+∞ 0
θ X 1 (1 − θ)(e − 1)  1 θ 1 (1 − θ)(e − 1)  1 
= + = e +
e k! e2 1−x x=e−1 e e2 (1 − x)2 x=e−1
k=0
(1 − θ)(e − 1) 1 1−θ e−2 1
= θ+ =θ+ = θ+ .
e2 (1 − e−1 )2 e−1 e−1 e−1

Ainsi, b = e−1 .
1

4. Avec θ = 0, pour tout t ∈ IR,


+∞ +∞ +∞
itX
X
itk
X
itk e −1 e − 1 X eitk
φX (t) = E[e ]= e IP(X = k) = e =
ek+1 e ek
k=0 k=0 k=0
e−1 1 e−1
= it−1
= .
e 1−e e − eit

e−2 1
5. D'après 3., pour tout θ ∈ [0; 1], m1 (θ) = E[X] = θ+ .
e−1 e−1
On cherche alors pour tous x1 , . . . , xn ∈ IN, θb = θ(x
b 1 , . . . , xn ) dépendant de
x1 , . . . , xn , tel que
n
1X
m1 (θ) = xn =
b xi .
n i=1
On obtient
e−2b 1
xn = θ+ ,
e−1 e−1
puis
(e − 1)xn − 1
θb = .
e−2
La suite de variables aléatoires fournie par la méthode des moments est donc
donnée par
b 1 , . . . , Xn ) = (e − 1)X n − 1 .
Tn = θ(X
e−2
D'une part, on observe que
e−2 1
(e − 1)E[X n ] − 1 (e − 1)E[X] − 1 (e − 1)( e−1 θ+ e−1 ) −1
E[Tn ] = = = = θ.
e−2 e−2 e−2
D'autre part, θ ∈ [0; 1], mais Tn (Ω) 6⊂ [0; 1], car par exemple IP(X = 0) 6= 0
et donc IP(X n = 0) 6= 0, ainsi Tn n'est nalement pas un estimateur de θ.

Corrigé de l'exercice 3. 1. La variable aléatoire Y suit une loi exponentielle


E(θ2 ), donc E[Y ] = 1
θ2 et V[Y ] = θ14 .

34
2. Puisque Y ∼ E(θ2 ), sa fonction de répartition est donnée, pour tout t ∈ IR,
par

FY (t) = 0 si t < 0 ;
−θ 2 t
1−e si t ≥ 0.

3. Première étape : pour tous θ > 0 et x1 , . . . , xn ∈ IR+ ,

V (θ, x1 , . . . , xn ) = gθ (x1 )gθ (x2 ) . . . gθ (xn )


2
x1 2 −θ 2 x2 2
= θ2 e−θ θ e . . . θ2 e−θ xn
2
= θ2n e−θ (x1 +···+xn )
> 0.

Deuxième étape : pour tous θ > 0 et x1 , . . . , xn ∈ IR+ ,

ln V (θ, x1 , . . . , xn ) = 2n ln θ − θ2 (x1 + · · · + xn ).

Troisième étape : pour tous θ > 0 et x1 , . . . , xn ∈ IR+ ,


∂ ln V (θ, x1 , . . . , xn ) 2n
= − 2θ(x1 + · · · + xn ),
∂θ θ
donc r
∂ ln V (θ, x1 , . . . , xn ) n 1
= 0 ⇐⇒ θ = =√ ,
∂θ x1 + · · · + xn xn
donc
1
θb = √ .
xn
Quatrième étape : pour tous θ > 0 et x1 , . . . , xn ∈ IR+ ,

∂ 2 ln V (θ, x1 , . . . , xn ) −2n
= 2 − 2(x1 + · · · + xn ),
∂θ2 θ
donc
∂ 2 ln V (θ,
b x1 , . . . , xn )
H2 =
∂θ2
−2n
= − 2(x1 + · · · + xn )
θb2
= −4(x1 + · · · + xn ) < 0,

donc la matrice H2 est dénie négative.

Conclusion : l'estimateur de θ fourni par la méthode du maximum de vraisem-


blance est donné par

b 1 , . . . , Xn ) = p1 .
Tn = θ(X
Xn

4. Pour tout t ∈ IR,


ˆ +∞ ˆ +∞
λ
φZ (t) = e itx
λe −λx
dx = λ e(it−λ)x dx = .
0 0 λ − it

35
5. Pour tout t ∈ IR, pour tout n ∈ IN∗ , puisque Yn ∼ E(θn2 ),
θn2
φYn (t) = .
θn2 − it
Or, lim θn = +∞, donc, pour tout t ∈ IR,
n→+∞

lim φYn (t) = 1 = eit×0 = φ0 (t),


n→+∞

donc la suite de variables aléatoires (Yn )n∈IN∗ converge en loi vers 0.

Corrigé de l'exercice 4. (1) Paramètre à étudier : m.

(2) Estimateur de m : X n .

(3) Loi de X n : puisque X1 , . . . , Xn sont des variables indépendantes de même


2
loi N (m, σ 2 ), on a X n ∼ N (m, σn ).

(4) Rapport critique : on pose

Xn − m
Rn := √ ∼ N (0, 1).
σ/ n

(5) On note zα/2 la valeur telle que

IP(−zα/2 < Rn < zα/2 ) = 1 − α.

Il s'ensuit que
 Xn − m 
IP − zα/2 < √ < zα/2 = 1 − α,
σ/ n
puis que  σ σ 
IP X n − zα/2 √ < m < X n + zα/2 √ = 1 − α.
n n
L'intervalle de conance au seuil d'erreur α est alors donné par
i σ σ h
Iα = xn − zα/2 √ ; xn + zα/2 √ ,
n n
avec n = 10, σ = 0, 1,
n
1X
xn = xk = 2, 10.
n
k=1

Puisque Rn ∼ N (0, 1), on obtient la valeur de zα/2 à l'aide de la table des


fractiles de la loi normale centrée réduite :

α = 0, 05 =⇒ α/2 = 0, 025 =⇒ zα/2 = 1, 9600.

L'intervalle de conance au seuil d'erreur α = 0, 05 est ainsi donné par

Iα =]2, 038 ; 2, 162[.

36
2 Exercices supplémentaires

Exercice 1 (Famille, Chapitre 1). On considère une famille de trois enfants.


La probabilité d'avoir une lle est identique à la probabilité d'avoir un garçon,
indépendamment du sexe des enfants précedents. On considère l'événement A
"il y a au plus une lle" et l'événement B "il y a au moins un enfant de chaque
sexe".
1. Décrire l'univers Ω associé à l'expérience aléatoire.
2. Calculer les probabilités IP(A) et IP(B).
3. Les événement A et B sont-ils indépendants ?
4. Qu'en est-il pour une famille de quatre enfants ?

Exercice 2 (Encore une famille, Chapitre 1). Tout comme dans l'exercice 1 un
enfant peut être à la naissance un garçon ou une lle avec la même probabilité,
indépendamment des enfants qui l'ont éventuellement précédé.
1. Un des enfants d'une fratrie de deux est un garçon. Quelle est la probabilité
que l'autre soit aussi un garçon ?
2. Un couple attend son deuxième enfant. Quelle est la probabilité que celui-
ci soit une lle, sachant que l'aînée en est une ?

Exercice 3 (La chèvre de Monty Hall, Chapitre 1). Lors d'un jeu télévisé
un candidat doit choisir une porte parmi trois. Derrière deux d'entre elles se
trouvent des chèvres, la troisième cache une voiture de luxe. La porte choisie par
le candidat n'est pas ouverte. Le présentateur (sachant où se trouve la voiture)
ouvre une deuxième porte (parmi celles que le candidat n'a pas désignées) et
découvre, évidemment, un capriné. Il propose alors au candidat l'alternative
suivante : conserver son premier choix et ouvrir la première porte ou ouvrir la
troisième porte. Calculer la probabilité de gagner la voiture en fonction de la
stratégie adoptée (conserver son premier choix ou ouvrir la troisième porte).

Exercice 4 (Hérédité, Chapitre 1). La deutéranomalie est une forme de dalto-


nisme congénital. Le gène codant étant porté par le chromosome X , on distingue
cinq cas de gures :
 les hommes sains non porteurs du gène (XY ) ;
 les hommes porteurs du gène, donc daltoniens (X̄Y ) ;
 les femmes non porteuses du gène (XX ) ;
 les femmes porteuses saines (X̄X) ;
 les femmes daltoniennes (X̄ X̄ ).
Quand le père est sain (XY ) et la mère porteuse saine (X̄X ), l'enfant a une
probabilité de 0, 5d'être porteur (X̄Y pour un garçon, X̄X pour une lle).
Une femme (dont le mari est non daltonien) non aectée par l'anomalie sait
qu'elle a une probabilité de 0, 5 d'être porteuse saine (ayant un frère daltonien
et son père étant sain, elle sait que sa propre mère est nécessairement porteuse
saine). A la naissance de son premier enfant, un garçon, elle constate que ce
dernier n'est pas aecté.
1. Quelle est alors la probabilité qu'elle soit porteuse saine ? Ses deuxième et
troisième enfant sont également des garçons, non daltoniens.
2. Quelle est alors la probabilité qu'elle soit porteuse saine ?

37
3. Quelle est la probabilité que son quatrième enfant, une lle, soit porteuse
saine ?
Exercice 5. (Canaux bruités, Chapitre 1) Une chaîne de transmission numé-
rique est constituée d'une succession de canaux binaires. Ces canaux étant brui-
tés, la probabilité que le symbole binaire 0 ou 1 soit correctement transmis sur
un canal donné est p < 1. On note Bn l'événement "le bit en sortie du canal n
est identique au bit en netrée du canal 0". On note pn = P (Bn ) la probabilité
de cet événement.
1. Que vaut pn+1 en fonction de pn ?
2. Montrer que la fonction f , dénie sur [0; 1], telle que pn+1 = f (pn ) est
contractante sur [0; 1].
3. En déduire limn→+∞ pn . Conclusions.
Exercice 6 (Codage canal, Chapitre 1). Un canal transmet une information
binaire (des 0 et des 1) avec une probabilité d'erreur p. An de pallier ces erreurs,
un codage redondant est appliqué : lors de la transmission chaque bit transmis
est répété cinq fois. A la réception le décodage se fait à la majorité : si dans la
succession de cinq symboles reçus il y a une majorité de 1, le bit décodé est 1,
0 sinon. Quelle est la nouvelle probabilité d'erreur de transmission ?
Exercice 7 (Chapitre 2). Dans un lot de 20 articles, 12 sont parfaits, 6 com-
portent un défaut mineur et 2 un défaut majeur. Deux articles sont choisis au
hasard, calculer les probabilités des événements suivants :
A : "Les deux sont parfaits."
B : "Les deux ont un défaut majeur."
C : "Au moins l'un d'entre eux est parfait."
D : "Exactement un est parfait."
E : "Au plus l'un d'entre eux est parfait."
Un lot de 20 articles est accepté lorsque 3 éléments choisis au hasard n'ont
pas de défaut majeur. Calculer la probabilité de l'événement
F : "Le lot décrit ci-dessus est accepté."
Correction. Soit G l'ensemble de 20 articles considéré. L'univers Ω associé à
l'expérience aléatoire est donné par l'ensemble des sous-ensembles de 2 articles
de G, c'est-à-dire
Ω = {S ∈ P(G) : |S| = 2}.
Chaque article ayant la même probabilité d'être tiré, on est en situation d'équi-
probabilité. On obtient successivement
       
20 12 2 c 8
|Ω| = = 190, |A| = = 66, |B| = = 1, |C | = = 28,
2 2 2 2
|C| = |Ω| − |C c | = 190 − 28 = 162, |D| = |C \ A| = |C| − |A| = 162 − 66 = 96,
|E| = |Ac | = |Ω| − |A| = 190 − 66 = 124,
donc
66 1 162 96 124
IP(A) = , IP(B) = , IP(C) = , IP(D) = , IP(E) = .
190 190 190 190 190

38
Enn, pour calculer la probabilité de F , on considère une nouvelle expérience
aléatoire, donc un nouvel univers

Ω0 = {S ∈ P(G) : |S| = 3},

avec |Ω0 | = 20
3 = 1140 et |F | = 3 = 816, d'où
18
 

|F | 816 68
IP(F ) = = = .
|Ω0 | 1140 95
Exercice 8 (Tapis, Chapitre 2). Le poker se joue avec 52 cartes (4 couleurs,
13 cartes par couleur). Une main est constituée de 5 cartes.
1. Combien y-a-t-il de mains ?
2. Quelle est la probabilité d'avoir une quinte ush (cinq cartes successives
de la même couleur) ?
3. Quelle est la probabilité d'avoir une couleur (cinq cartes d'une même cou-
leur qui ne font pas une quinte ush) ?
4. Quelle est la probabilité d'avoir un carré ?
5. Dans la version ouverte du jeu, il s'agit de réaliser la meilleure main de 5
cartes parmi 7. Quelle est alors la probabilité d'avoir un carré ?
Exercice 9 (Le concierge, Chapitre 2). On reprend l'exemple de l'exercice 17.
Lorsque le concierge est ivre (événement B , IP(B) = p), il adopte une autre
stratégie : il essaie successivement les clés mais en les mélangeant entre chaque
tentative.
1. Déterminer la loi IPB (X = k) pour tout k . Un soir en particulier, le
concierge fait 9 essais et n'a toujours pas trouvé la bonne clé (X > 9).
2. Quelle est la probabilité qu'il ait été ivre ce soir-là (on prendra p = 0, 33) ?
Exercice 10 (Chapitre 3). Soit X une variable aléatoire de densité f , et (a, b) ∈
IR2 . Exprimer la densité de probabilité de la variable aléatoire Y = aX + b en
fonction de f , a et b.
Correction. Il faut supposer a 6= 0 sinon Y est constante et n'admet pas de
densité. Pour tout x ∈ IR, utilisant les dénitions de fonction de répartition puis
de densité,
FY (x) = IP(Y ≤ x) = IP(aX + b ≤ x).
Si a > 0, alors
 x − b
FY (x) = IP X ≤
a
ˆ x−ba
= f (t)dt
−∞
ˆ x
1 u − b
= f du,
−∞ a a
où l'on a utilisé le changement de variable u = at + b, du = adt, et ainsi Y a
pour densité de probabilité la fonction dénie pour tout x ∈ IR par
1 x − b
fY (x) = f .
a a

39
Si a < 0, alors
 x − b
FY (x) = IP X ≥
a
ˆ +∞
= f (t)dt
x−b

ˆ a
x
−1  u − b 
= f du,
−∞ a a

où l'on a utilisé le changement de variable u = at + b, du = adt, et ainsi Y a


pour densité de probabilité la fonction dénie pour tout x ∈ IR par
−1  x − b 
fY (x) = f .
a a
On peut conclure que, si a 6= 0, on a, pour tout x ∈ IR,
1 x − b
fY (x) = f .
|a| a

Exercice 11 (Rendez-vous, Chapitre 3). Deux amis se donnent rendez-vous au


restaurant. Il se mettent d'accord pour ne pas s'attendre plus de t = 10 minutes.
Leurs temps d'arrivée (en minutes) sont modélisés par des variables aléatoires
gaussiennes indépendantes X et Y d'espérances respectives µ = 15, ρ = 23 et
de variances respectives σ 2 = 9 et θ2 = 16.
Quelle est la probabilité que les deux amis ne se retrouvent pas ? Indication.
La somme de deux v.a.r. de loi normale est une v.a.r. de loi normale.

Exercice 12 (Loi log-normale, Chapitre 3). On dit que la v.a.r. X suit une
loi log-normale de paramètres (m, σ 2 ) si la v.a.r. Y = ln X suit une loi normale
N (m, σ 2 ). On prendra pour la suite m = 0 et σ 2 = 1. On note Φ la fonction de
répartition de la loi normale centrée réduite.
1. Exprimer F , la fonction de répartition de X , à l'aide de Φ.
2. Donner l'expression de f , une densité de la v.a.r. X .
3. Calculer E[X].

Exercice 13. (Simulation, Chapitre 3) On souhaite simuler une v.a.r. suivant


une loi exponentielle E(λ) avec λ > 0. On a la possibilité de simuler X , une
v.a.r. uniforme : X ∼ U[0; 1]. On créé une v.a.r. T = − λ1 ln(1 − X).
1. Quel est le support de T (i.e l'ensemble des valeurs prises par T ) ?
2. Déterminer l'expression de FT , la fonction de répartition de T .
3. Quelle est la loi de T ?

Exercice 14 (Chapitre 4). Soit X de loi uniforme sur {0, 1} et Z de loi uniforme
sur {−1, +1} indépendante de X . Soit Y = ZX . Montrer que X et Y sont
décorrélées mais ne sont pas indépendantes.

Correction. Par hypothèse,


1 1
IP(X = 0) = IP(X = 1) = , IP(Z = −1) = IP(Z = 1) = ,
2 2

40
ind. 1
IP(Y = −1) = IP(X = 1, Z = −1) = IP(X = 1)IP(Z = −1) = ,
4
ind. 1
IP(Y = 1) = IP(X = 1, Z = 1) = IP(X = 1)IP(Z = 1) = ,
4
1
IP(Y = 0) = IP(X = 0) = .
2
On a alors
1
E[X] = 0 × IP(X = 0) + 1 × IP(X = 1) = = E[X 2 ],
2
E[Z] = −1 × IP(X = −1) + 1IP(X = 1) = 0,
ind.
E[Y ] = E[XZ] = E[X]E[Z] = 0,
ind.
E[XY ] = E[X 2 Z] = E[X 2 ]E[Z] = 0,
d'où
Cov(X, Y ) = E[XY ] − E[X]E[Y ] = 0
et les variables X et Y sont donc décorrélées. Or,
1
IP(X = 1, Y = 1) = IP(Y = 1) = ,
4
mais
1 1 1
IP(X = 1)IP(Y = 1) = × = 6= IP(X = 1, Y = 1),
2 4 8
donc les variables X et Y ne sont pas indépendantes.

Exercice 15 (Chapitre 4). Soit X une variable aléatoire réelle positive admet-
tant une densité et un moment d'ordre 1. Montrer que
ˆ +∞
E[X] = IP(X > x)dx.
0

Correction. Soit f la densité de X . On a


ˆ +∞ ˆ x=+∞ ˆ t=+∞
IP(X > x)dx = f (t)dtdx
0 x=0 t=x
ˆ x=+∞ ˆ t=+∞
= f (t)1{t≥x} dtdx
x=0 t=0
ˆ t=+∞ ˆ x=+∞
= f (t)1{t≥x} dxdt (théorème de Fubini)
t=0 x=0
ˆ t=+∞  ˆ x=t 
= f (t) 1dx dt
t=0 x=0
ˆ t=+∞
= tf (t)dt = E[X].
t=0

Exercice 16 (On lance deux dés, Chapitres 1 et 4). On lance deux dés bien
équilibrés. La variable X étudiée est le score obtenu en faisant la somme des
deux valeurs.

41
1. Décrire Ω ainsi que X(Ω).
2. Décrire X −1 ({7}).
3. Décrire X −1 ({2, 3, 4}). On note pi = IP(X = i) = IPX ({i}).
4. Calculer pi pour i ∈ X(Ω). ).
5. Que vaut E[X] ?
Exercice 17 (Le trousseau de clés, Chapitres 2 et 4). Un concierge a un trous-
seau de 10 clés, dont une seule ouvre une porte. Il essaie successivement les
diérentes clés jusqu'à trouver la bonne clé. La v.a. X est le nombre d'essais
nécessaires à l'ouverture de la porte.
1. Décrie X(Ω).
2. Déterminer la loi de probabilité de la variable X .
3. Déterminer l'espérance de X .
Exercice 18 (Natalité, Chapitres 2 et 4). A la naissance, la probabilité qu'un
nouveau-né soit un garçon est p. Un couple décide de faire autant d'enfants
que nécessaire pour avoir un garçon et s'arrête ensuite. On note X le nombre
d'enfants du couple.
1. Quelle est la loi de X ?
2. Que vaut E[X] ?
Exercice 19 (Chapitre 5). Soient X, Y ∼ U([0; 1]).
1. Déterminer la loi du vecteur (X, Y ) lorsque X et Y sont indépendants.
2. Déterminer la loi du vecteur (X, Y ) lorsque X = Y .
3. Déterminer la loi de (W, Z) = (min(X, Y ), max(X, Y )), lorsque X et Y
sont indépendants.
Correction. 1. Les variables aléatoires X et Y étant indépendantes et de loi
U([0; 1]), la densité du vecteur aléatoire (X, Y ) est donnée par
f(X,Y ) (x, y) = fX (x)fY (y) = 1[0;1] (x)1[0;1] (y) = 1[0;1]2 (x, y).
2. On calcule la fonction de répartition du vecteur aléatoire (X, Y ), donnée pour
t, s ∈ IR par
F(X,Y ) (t, s) = IP(X ≤ t, Y ≤ s) = IP(X ≤ min(t, s))
= 0 si min(t, s) < 0
= 1 si min(t, s) > 1
= min(t, s) si min(t, s) ∈ [0; 1].
3. Soient t, s ∈ [0; 1]. Si t ≤ s,
IP(W ≤ t, Z ≤ s) = IP(min(X, Y ) ≤ t, max(X, Y ) ≤ s)
ˆ x=1 ˆ y=1
= 1min(x,y)≤t 1max(x,y)≤s dy dx
x=0 y=0
ˆ x=s ˆ y=s
= 1min(x,y)≤t dy dx
x=0 y=0
ˆ x=t ˆ y=s ˆ x=s ˆ y=t
= 1dy dx + 1dy dx
x=0 y=0 x=t y=0
= ts + (s − t)t = t(2s − t).

42
Si s ≤ t,
IP(W ≤ t, Z ≤ s) = IP(min(X, Y ) ≤ t, max(X, Y ) ≤ s)
= IP(max(X, Y ) ≤ s)
ˆ x=s ˆ y=s
= 1dy dx
x=0 y=0
2
= s .
Exercice 20 (Chapitre 5). Soit Z = (X, Y ) la loi de densité π1 1D (x, y) où D
est le disque unité de IR2 .
1. Calculer les lois (marginales) de X et de Y .
2. Les variables aléatoires X et Y sont-elles indépendantes ?
3. Calculer la loi du vecteur (min(X, Y ), max(X, Y )).
Correction. 1. Pour tout t ≥ −1,
ˆ +∞ ˆ +∞
1
IP(X ≤ t) = 1x≤t 1x2 +y 2 ≤1 dxdy
−∞ −∞ π
ˆ t∧1 ˆ

y= 1−x2
1 
= √ 1dy dx
π x=−1 y=− 1−x2
ˆt∧1
1 p
= 2 1 − x2 dx,
π x=−1

donc la loi de X admet pour densité la fonction donnée par


2p
x ∈ IR 7→ 1 − x2 1−1≤x≤1 .
π
Par symétrie, la variable Y admet la même densité que X .
2. Les variables X et Y sont indépendantes si et seulement si leurs densités
respectives fX et fY vérient
∀x, y ∈ IR, f(X,Y ) (x, y) = fX (x)fY (y).
Or, pour tous x, y ∈ IR,
1
f(X,Y ) (x, y) = 1D (x, y),
π
mais
4p p
fX (x)fY (y) =2
1 − x2 1 − y 2 1−1≤x≤1 1−1≤y≤1 ,
π
donc les variables X et Y ne sont pas indépendantes.
3. Pour tous (t, s) ∈ IR2 ,
IP(X ∧ Y ≤ t, X ∨ Y ≤ s) = IP(X ∧ Y ≤ t, X ≤ s, Y ≤ s)
= IP(X ≤ s, Y ≤ s) − IP(t < X ≤ s, t < Y ≤ s)
ˆ s ˆ s ˆ sˆ s
= f(X,Y ) (x, y)dxdy − f(X,Y ) (x, y)dxdy
−∞ −∞ t t
1 1
= Aire(] − ∞; s]2 ∩ D) − Aire(]t; s]2 ∩ D)
π π
1
Aire (] − ∞; s]2 \]t; s]2 ) ∩ D .

=
π

43
Exercice 21 (Chapitre 5). Soit (X, Y ) un vecteur aléatoire de IR2 de densité
donnée, pour tout (x, y) ∈ IR2 , par
x2 +y 2
f (x, y) = ce− 2 1{x>y} ,

où c ∈ IR.
1. Calculer la valeur de c.
2. Soit Φ la fonction de répartition de la loi normale N (0; 1). Donner les
fonctions de répartition respectives de X et Y en fonction de Φ.
Correction. 1. Pour tout (x, y) ∈ IR2 ,
ˆ ˆ x=+∞ ˆ y=x
x2 +y 2
f (x, y)d(x, y) = c e− 2 dy dx
IR2 x=−∞ y=−∞
ˆ x=+∞ ˆ y=x
x2 y2

= c e− 2 e− 2 dy dx
x=−∞ y=−∞
h 1  ˆ y=x y2
2 ix=+∞
IP P
= c e− 2 d y
2 y=−∞ x=∞
ˆ y=+∞ 2
c  y2

= e− 2 dy
2 y=−∞
c √ 2
= ( 2π) = cπ,
2
donc, f étant une densité, c = π.
1

2. Pour tout t ∈ IR,


ˆ x=t ˆ y=x
1 − x2 +y2
IP(X ≤ t) = e 2 dy dx
x=−∞ y=−∞ π
ˆ x=t
1 − x2 √
= e 2 2πΦ(x)dx
x=−∞ π
ˆ x=t x2
e− 2
= 2 √ Φ(x)dx
x=−∞ 2π
ˆ x=t
= 2(Φ(x))0 Φ(x)dx
x=−∞
2
= Φ(t) .

Pour tout t ∈ IR,


ˆ y=t ˆ x=+∞
1 − x2 +y2
IP(Y ≤ t) = e 2 dxdy
y=−∞ x=y π
ˆ y=t y2 ˆ x=+∞ x2
e− 2 e− 2
= 2 √ √ dxdy
y=−∞ 2π x=y 2π
ˆ y=t
= 2 Φ0 (y)(1 − Φ(y))dy
y=−∞
2
= 2Φ(t) − Φ(t) .

44
Exercice 22 (Uniformes, Chapitre 5). Soit (X, Y ) un couple de v.a.r. discrètes
suivant une loi uniforme discrète sur I × J = {0, . . . , n}2 .
1. Déterminer la loi de X ainsi que la loi de Y .
2. Les v.a.r. X et Y sont-elle indépendantes ?
3. Déterminer la loi de X + Y .
Indication. On pourra séparer les cas X +Y ≤n et X + Y > n.
Exercice 23 (Couple géométrique, Chapitre 5). Le couple de v.a.r. (X, Y ) suit
une loi géométrique :
a
∀i, j ∈ IN∗ , P (X = i, Y = j) = .
2i+j
1. Déterminer la valeur de a.
2. Calculer les lois marginales de X et de Y .
3. Les v.a.r. X et Y sont-elles indépendantes ?

Exercice 24 (Urnes et loi marginale, Chapitre 5). On dispose de n urnes nu-


mérotées de 1 à n. L'urne numérotée k contient k boules numérotées de 1 à k .
On choisit de manière équiprobable le numéro (noté X ) de l'urne choisie puis
une boule (numérotée Y dans l'urne choisie).
1. Déterminer la loi du couple (X, Y ). Indication. On peut commencer par

calculer IP(Y = i|X = k).

2. En déduire la loi de Y ainsi que son espérance. Indication. Pour calculer

E[Y ], on peut permuter les sommes.


Exercice 25 (Bureau de poste, Chapitre 5). Le nombre de personnes fréquen-
tant le bureau de poste dans une même journée est modélisé par une v.a.r. X
suivant loi de Poisson de paramètre λ > 0. Chaque personne arrivant au bureau
de poste choisit, indépendamment du choix des clients l'ayant précédé, le pre-
mier guichet avec une probabilité p. On note Y la v.a.r. désignant le nombre de
personnes choisisant le premier guichet dans une même journée.
1. Déterminer la loi conditionnelle P (Y = i|X = k).
2. En déduire la loi du couple (X, Y ).
3. Déteminer la loi de Y . Indication. Un changement d'indice permet d'écrire
+∞
X xk−i
ex = .
(k − i)!
k=i

Exercice 26 (Fratries, Chapitre 5). Dans une famille donnée, le nombre d'en-
fants est une v.a.r. N suivant une loi de Poisson de paramètre λ > 0. Chaque
enfant a une probabilité p d'être une lle et on note q = 1 − p la probabilité
qu'un enfant soit un garçon. On suppose que les sexes des naissances successives
sont indépendants. On désigne par les v.a.r. X le nombre de lles et Y le nombre
de garçons.
1. Déterminer la loi du couple (N, X).
2. En déduire la loi de X .

45
Exercice 27 (Exponentielles, Chapitre 5). Soient X et Y deux v.a.r. indépen-
dantes suivant des lois exponentielles de paramètres respectifs λ et µ. Déterminer
P (X > Y ). Indication. On rappelle que IP(X > Y ) = E[1{X>Y } ].

Exercice 28 (Chapitre 7). Soit λ > 0. Soit, pour tout n ∈ IN∗ tel que n ≥ λ,
une suite de variables aléatoires (Xn,k )k∈IN∗ indépendantes et de même loi de
Bernoulli B( nλ ). On pose alors

1
Yn = inf{k ∈ IN∗ : Xn,k = 1}.
n
Soit X une variable aléatoire de loi exponentielle E(λ). Montrer que la suite
(Yn )n∈IN∗ ,n≥λ converge en loi vers la variable X .
Correction. Pour tout n ∈ IN∗ , pour tout j ∈ IN∗ ,

IP(nYn = j) = IP(inf{k ∈ IN∗ : Xn,k = 1} = j)


= IP(Xn,1 = 0, . . . , Xn,j−1 = 0, Xn,j = 1)
= IP(Xn,1 = 0) . . . IP(Xn,j−1 = 0)IP(Xn,j = 1) par indépendance des Xn,k
 λ j−1 λ
= 1− ,
n n
donc nYn ∼ G( nλ ). On en déduit donc que sa fonction caractéristique est donnée,
pour tout t ∈ IR, par
λ it
e
φnYn (t) = n 
1 − 1 − nλ eit

et donc t
λ in
e
φYn (t) = n  t.
1 − 1 − nλ ei n

D'une part,
λ it λ 1
e n = +o .
n n n
D'autre part,
 λ i t  λ  it  1 
1− 1− e n = 1− 1− 1+ +o
n n n n
λ − it 1
= +o ,
n n
si bien que
λ
lim φYn (t) = = φX (t),
n→+∞ λ − it
donc la suite (Yn )n∈IN∗ ,n≥λ converge en loi vers la variable X .

Exercice 29 (Chapitre 7). Soit (Xk )k∈IN∗ une suite de variables aléatoires
indépendantes et de même loi d'ordre 2. On note µ = E[X1 ] et σ 2 = V[X1 ]. On
pose pour tout n ∈ IN∗ :
n
1X
Sn = Xk ,
n
k=1

46
puis
Sn − µ
Zn = √ .
σ/ n
Alors la suite (Zn )n∈IN∗ converge en loi vers une variable aléatoire de loi normale
centrée réduite N (0, 1).

Correction. On note φ la fonction caractéristique de la variable aléatoire X1 .


On peut supposer, quitte à centrer et réduire que µ = 0 et σ = 1. Pour tous
n ∈ IN∗ et t ∈ IR,
 t    t n
φSn (t) = φPnk=1 Xk = φ
n n
d'où
√   t n
φZn (t) = φ√nSn (t) = φSn ( nt) = φ √ .
n
Or, le développement de Taylor en 0 à l'ordre 2 de φ donne, pour x ∈ IR,

φ00 (0) 2
φ(x) = φ(0) + φ0 (0)x + x + o(x2 )
2!
E[X12 ] 2
= 1 + E[X1 ]x − x + o(x2 )
2
x2
= 1− + o(x2 ).
2
On en déduit que
  t 
ln(φZn (t)) = n ln φ √
n
 t2  1 
= n ln 1 − +o 2
2n n
−t2 1
= +o ,
2 n
d'où
−t2
lim ln(φZn (t)) = ,
n→+∞ 2
puis
t2
lim φZn (t) = e− 2 = φX (t)
n→+∞

où X ∼ N (0, 1), et ainsi (Zn ) converge en loi vers X .

Exercice 30 (Chapitre 7). Soit la suite de variables aléatoires (Xn )n∈IN∗ telle
que, pour tout n ∈ IN∗ , Xn suit une loi Γ (n, n). Etudier la convergence en
loi, puis la convergence en probabilité de la suite (Xn )n∈IN∗ . On rappelle que
la fonction caractéristique d'une variable aléatoire Y de loi Γ (a, λ) est donnée,
pour tout t ∈ IR, par
 λ a
φY (t) = .
λ − it

47
Correction. Pour tout n ∈ IN∗ , la fonction caractéristique de la variable aléa-
toire Xn de loi Γ (n, n) est donnée, pour tout t ∈ IR, par
 n n
φXn (t) =
n − it
 it n
= 1+
n − it
it
= en ln(1+ n−it ) .

Utilisant le développement limité à l'ordre 1 de la fonction x 7→ ln(1 + x) en


0, on a, pour tout n ∈ IN∗ ,
 it  it  it  it 1
n ln 1 + = +o = +o ,
n − it n − it n − it n − it n
donc  it 
lim n ln 1 + = it,
n→+∞ n − it
puis
lim φXn (t) = eit = φX ,
n→+∞

où X est une variable aléatoire telle que IP(X = 1) = 1. Donc la suite (Xn )n∈IN∗
converge en loi vers 1.

Montrons alors que la suite converge en probabilité vers 1. Pour tout ε > 0,
pour tout n ∈ IN∗ , d'après l'inégalité de Bienaymé-Tchebychev,
V[Xn ]
IP(|Xn − E[Xn ]| > ε) ≤ .
ε2
Or, puisque Xn suit une loi Γ (n, n), on a E[Xn ] = nn = 1 et V[Xn ] = n
n2 = n,
1

donc
1
IP(|Xn − 1| > ε) ≤ 2 .

Ainsi,
lim IP(|Xn − 1| > ε) = 0,
n→+∞

et on peut conclure que la suite (Xn )n∈IN∗ converge en probabilité vers 1.


Exercice 31 (Chapitre 8). Soit X ∼ P(α) où α ∈]0; +∞[. Soit X1 un 1-
échantillon de X . La statistique (−2)X1 est-elle un estimateur sans biais de
θ = e−3α ?
Correction. On a
+∞ +∞
X αk X (−2α)k
E[(−2)X1 ] = (−2)k e−α = e−α
k! k!
k=0 k=0
−α −2α −3α
=e e =e = θ.

Or, puisque α ∈]0; +∞[, on a θ = e−3α ∈]0; 1[. On peut donc considérer que
l'intervalle associé au paramètre θ est I =]0; 1[. Mais la statistique (−2)X1 n'est
pas à valeurs dans I , donc elle n'est pas un estimateur de θ.

48
Exercice 32 (Chapitre 8). Soit X une variable aléatoire de loi de densité f
donnée, pour tout x ∈ IR, par

axa−1
f (x) = 1[0;θ] (x),
θa
où a > 1 est connu et θ > 0 inconnu.
Proposer un estimateur sans biais de θ.

Correction. On a
ˆ +∞ ˆ θ
axa aθ
E[X] = f (x)dx = dx = ,
−∞ 0 θa a+1


=⇒ E[X n ] = E[X] = .
a+1
2. On en déduit que E[ 5X4 n ] = θ, et donc que 5X n
4 est un estimateur sans biais
de θ.

Exercice 33 (Chapitre 8). Soit X une variable aléatoire de loi de densité f


donnée, pour tout x ∈ IR, par
2
f (x) = 2θxe−θx 1[0;θ] (x),

où θ > 0 est un paramètre inconnu.


Soit n ∈ IN∗ et (X1 , . . . , Xn ) un n-échantillon de X .
1. Déterminer la loi de Y = θX 2 .
Xn
2. En déduire celle de θXk2 .
k=1
n
3. L'estimateur Tn = Pn de θ est-il sans biais ?
k=1Xk2
4. La suite (Tn )n∈IN∗ ainsi construite est-elle asymptotiquement sans biais ?
Convergente ? On pourra utiliser le résultat de l'exercice 8.5.3.

Exercice 34 (Chapitre 9). Soit X ∼ U([0; θ]) où θ ∈]0; +∞[ est inconnu.
1. Calculer un estimateur de θ par la méthode du maximum de vraisem-
blance.
2. Calculer un estimateur de θ par la méthode des moments.

Exercice 35 (Chapitre 9). Soit X ∼ N (m, σ 2 ) où m ∈ IR et σ 2 > 0 sont


inconnus.
1. Appliquer à θ = (m, σ 2 ) la méthode du maximum de vraisemblance.
2. Appliquer à θ = (m, σ 2 ) la méthode des moments.
3. Justier que les estimateurs obtenus par chacune des deux méthodes ne
sont pas toujours optimaux.

Correction. 1. Appliquons la méthode du maximum de vraisemblance. On note


f la fonction de densité de X .

49
Première étape : pour tous θ = (m, σ 2 ) ∈ IR × IR∗+ et x1 . . . , xn ∈ IR,

V (θ, x1 , . . . , xn ) = f (x1 )f (x2 ) . . . f (xn )


1  Pn (x − m)2 
i
= √ n exp − i=1 2 > 0.
σ n 2π 2σ

Deuxième étape : pour tous θ = (m, σ 2 ) ∈ IR × IR∗+ et x1 , . . . , xn ∈ IR,


Pn
n 2 (xi − m)2 n
ln V (θ, x1 , . . . , xn ) = − ln(σ ) − i=1 2 − ln(2π).
2 2σ 2
Troisième étape : pour tous θ = (m, σ 2 ) ∈ IR × IR∗+ et x1 . . . , xn ∈ IR,
n
∂ ln V X xi − m
(m, σ 2 , x1 . . . , xn ) = ,
∂m i=1
σ2
n
∂ ln V n 1 X
(m, σ 2 , x1 . . . , xn ) = − + (xi − m)2 ,
∂(σ 2 ) 2σ 2 2σ 4 i=1

donc
∂ ln V x1 + · · · + xn
(m, σ 2 , x1 . . . , xn ) = 0 ⇐⇒ m = = xn
∂m n
donc
m
b = xn ,
et
n
∂ ln V 2 2 1X
(m, σ , x1 . . . , xn ) = 0 ⇐⇒ σ = b 2
(xi − m)
∂(σ 2 )
b
n i=1
donc
n
c2 = 1
X
σ (xi − xn )2 = s2n .
n i=1

Quatrième étape : pour tous θ = (m, σ 2 ) ∈ IR × IR∗+ et x1 . . . , xn ∈ IR,

∂ 2 ln V (m, σ 2 , x1 , . . . , xn ) −n
2
= 2,
∂m σ
n
∂ 2 ln V (m, σ 2 , x1 , . . . , xn ) n 1 X
= − (xi − m)2 ,
∂(σ 2 )2 2σ 4 σ 6 i=1
n
∂ 2 ln V (m, σ 2 , x1 , . . . , xn ) −1 X
2
= 4 (xi − m).
∂m∂(σ ) σ i=1
Or,
n Pn
∂ 2 ln V 2 n 1 X 2 σ 2 − 2 i=1 (xi − m)
nb b 2
2 2
(m,
b σ
b , x1 , . . . , x n ) = 4
− 6
(x i − m)
b = 6
∂(σ ) 2b
σ σ
b i=1 2b
σ
Pn n n
b 2 − 2 i=1 (xi − m) b 2 b 2
P P
(xi − m) − i=1 (xi − m)
= i=1 6
= 6
< 0,
2bσ 2b
σ

50
n n n
∂ 2 ln V 2 1 X 1 X 1X 
( m, σ , x1 , . . . , x n ) = − (x i − m) = − x i − xj
∂m∂(σ 2 ) b4 i=1 b4 i=1
b b b
σ σ n j=1
n n
1 X X 
=− x i − x j = 0,
b4 i=1
σ j=1

donc
∂ 2 ln V ∂ 2 ln V
 
 ∂m2 (m, b2 , x1 , . . . , xn )
b σ (m, σ 2
, x1 , . . . , x )
n 
∂m∂(σ 2 )
b b
H2 =  2 
 ∂ ln V ∂ 2 ln V 
(m,
b σb2 , x1 , . . . , xn ) (m,
b σ 2
b , x1 , . . . , xn )
∂(σ 2 )∂m ∂(σ )2 2
 n 
− 2 0
=  σb Pn
(xi − m) b 2

0 − i=1 6
2bσ
est bien dénie négative.

Conclusion : l'estimateur de θ = (m, σ 2 ) fourni par la méthode du maximum


de vraisemblance est donné par

Tn = θ(X
b 1 , . . . , Xn ) = (m,
b σc2 )(X1 , . . . , Xn ) = (X n , S 2 ).
n

2. Pour tout θ = (m, σ 2 ) ∈ IR × IR∗+ , m1 (θ) = E[X] = m et

m2 (θ) = E[(X − E[X])2 ] = V[X] = σ 2 .

On cherche alors pour tous x1 , . . . , xn ∈ IR, θb = θ(x


b 1 , . . . , xn ) dépendant de
x1 , . . . , xn , tel que
n
b = xn = 1
X
m1 (θ) xi ,
n i=1
n
1X
m2 (θ)
b = (xi − xn )2 = s2n .
n i=1

On obtient θb = (xn , s2n ) et l'estimateur de θ fourni par la méthode des


moments est donc donné par

Tn = θ(X
b 1 , . . . , Xn ) = (m,
b σc2 )(X1 , . . . , Xn ) = (X n , S 2 ),
n

soit les mêmes estimateurs que pour la méthode du maximum de vraisemblance.


2
3. L'estimateur S n de σ 2 , obtenu par chacune des deux méthodes, n'est pas un
estimateur sans biais, on peut donc considérer qu'il n'est pas optimal.

Exercice 36 (Chapitre 9). Soit X une variable aléatoire de loi de Poisson de


paramètre inconnu θ > 0, que l'on souhaite estimer. Appliquer la méthode du
maximum de vraisemblance, puis la méthode des moments.

51
Correction. Méthode du maximum de vraisemblance.

Première étape : pour tous θ > 0 et x1 , . . . , xn ∈ IN,

V (θ, x1 , . . . , xn ) = IP(X1 = x1 )IP(X2 = x2 ) . . . IP(Xn = xn )


θx1 −θ θx2 θ xn
= e−θ e . . . e−θ
x1 ! x2 ! xn !
x1 +x2 +···+xn
θ
= e−nθ > 0.
x1 !x2 ! . . . xn !
Deuxième étape : pour tous θ > 0 et x1 , . . . , xn ∈ IN,

ln V (θ, x1 , . . . , xn ) = −nθ + (x1 + · · · + xn ) ln θ − ln(x1 !x2 ! . . . xn !).

Troisième étape : pour tous θ > 0 et x1 , . . . , xn ∈ IN,


∂ ln V (θ, x1 , . . . , xn ) x1 + · · · + xn
= −n + ,
∂θ θ
donc
∂ ln V (θ, x1 , . . . , xn ) x1 + · · · + xn
= 0 ⇐⇒ θ = = xn ,
∂θ n
donc
θb = xn .
Quatrième étape : pour tous θ > 0 et x1 , . . . , xn ∈ IN,
∂ 2 ln V (θ, x1 , . . . , xn ) −(x1 + · · · + xn )
= ,
∂θ2 θ2
donc
∂ 2 ln V (θ,
b x 1 , . . . , xn )
H2 =
∂θ2
−(x1 + · · · + xn )
= < 0,
θb2
donc la matrice H2 est dénie négative.

Conclusion : l'estimateur de θ fourni par la méthode du maximum de vraisem-


blance est donné par
Tn = θ(X
b 1 , . . . , Xn ) = X n .

Méthode des moments. Pour tout θ > 0, m1 (θ) = E[X] = θ.


On cherche alors pour tous x1 , . . . , xn ∈ IR+ , θb = θ(x
b 1 , . . . , xn ) dépendant
de x1 , . . . , xn , tel que
n
1X
m1 (θ) = xn =
b xi .
n i=1

On obtient θb = xn et l'estimateur de θ fourni par la méthode des moments


est donc donné par
Tn = θ(X
b 1 , . . . , Xn ) = X n .

52
Exercice 37 (Chapitre 9). Soit X une variable aléatoire de loi de densité f
donnée, pour tout x ∈ IR, par
−θx2
f (x) = θxe 2 1[0;+∞[ (x)

où le paramètre θ > 0 est supposé inconnu. Appliquer la méthode du maximum


de vraisemblance pour estimer θ.
Correction. Méthode du maximum de vraisemblance.

On note f la fonction de densité de la loi exponentielle de paramètre θ.

Première étape : pour tous θ > 0 et x1 , . . . , xn ∈ IR+ ,

V (θ, x1 , . . . , xn ) = f (x1 )f (x2 ) . . . f (xn )


−θx2
1 −θx2
2 −θx2n
= θx1 e 2 θx2 e 2 . . . θxn e 2

θ(x2 2
1 +···+xn )
= θn x1 x2 . . . xn e− 2 > 0.

Deuxième étape : pour tous θ > 0 et x1 , . . . , xn ∈ IR+ ,

θ(x21 + · · · + x2n )
ln V (θ, x1 , . . . , xn ) = n ln θ + ln(x1 x2 . . . xn ) − .
2
Troisième étape : pour tous θ > 0 et x1 , . . . , xn ∈ IR+ ,

∂ ln V (θ, x1 , . . . , xn ) n (x2 + · · · + x2n )


= − 1 ,
∂θ θ 2
donc
∂ ln V (θ, x1 , . . . , xn ) 2n
= 0 ⇐⇒ θ = 2 ,
∂θ x1 + · · · + x2n
donc
2n
θb = .
x21 + · · · + x2n
Quatrième étape : pour tous θ > 0 et x1 , . . . , xn ∈ IR+ ,

∂ 2 ln V (θ, x1 , . . . , xn ) −n
= 2,
∂θ2 θ
donc
∂ 2 ln V (θ,
b x 1 , . . . , xn )
H2 =
∂θ2
−n
= < 0,
θb2
donc la matrice H2 est dénie négative.

Conclusion : l'estimateur de θ fourni par la méthode du maximum de vraisem-


blance est donné par
2n
Tn = θ(X
b 1 , . . . , Xn ) = .
X12 + · · · + Xn2

53
Remarque intéressante : la loi dénie dans cette exercice est une loi de Ray-
leigh, dont on peut montrer que l'espérance est donnée par
r
π
E[X] = .

Ainsi, on pourra vérier que la méthode des moments nous fournit comme
estimateur de θ
π
Un = ,
2(X n )2
diérent de l'estimateur Tn obtenu par la méthode du maximum de vraisem-
blance. Les deux méthodes d'estimation étudiées n'aboutissent donc pas systé-
matiquement sur le même estimateur.

54

Vous aimerez peut-être aussi