Examen 2022 2023

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 4

Sorbonne Université Janvier 2023

Master Mathématiques et Applications Aucun document autorisé


MU4MA015 : Statistique Durée : 3 heures

Examen

Rappels :
• Il sera tenu compte du soin apporté à la présentation et à la rédaction. Si vous n’arrivez pas
à démontrer un résultat, vous pouvez l’admettre pour la suite de l’exercice.
• Si X1 et X2 sont deux vecteurs gaussiens indépendants et de même dimension, avec X1 ∼
N (m1 , Σ1 ) et X2 ∼ N (m2 , Σ2 ), alors Y = X1 + X2 est aussi un vecteur gaussien et Y ∼
N ( m1 + m2 , Σ1 + Σ2 ).
• On rappelle que la loi E (λ) correspond à la loi Γ(1, λ).

Exercice 1 (6 points)
Soit θ > 0 un paramètre inconnu et X de densité
1 1
f θ (x) = (1 − x ) θ −1 1]0,1[ ( x ).
θ
Dans la suite, on suppose disposer d’un échantillon ( X1 , . . . , Xn ) i.i.d. de même loi que X.
1. Calculer la fonction de répartition Fθ de X. En déduire la médiane de la loi de X.
2. En déduire un estimateur θ̂n de θ. Etablir sa normalité asymptotique.
3. Donner un intervalle de confiance de niveau asymptotique (1 − α) pour θ.
4. Déterminer l’estimateur du maximum de vraisemblance θ̃n de θ.
5. Montrer que T = − log(1 − X ) suit une loi exponentielle dont on précisera le paramètre.
6. D’un point de vue asymptotique, entre θ̂n et θ̃n , quel estimateur choisissez-vous ?
7. Montrer que θ̃n /θ suit une loi Gamma Γ(r, λ) dont on précisera les paramètres r et λ (qui ne
dépendent pas de θ). En déduire un test de niveau (non asymptotique) α pour décider entre
H0 : θ ≤ 1 et H1 : θ > 1.

Exercice 2 (4 points)
On suppose disposer de deux ensembles T1 , . . . , Tℓ et U1 , . . . , Um de variables aléatoires réelles. On
note T = [ T1 , . . . , Tℓ ]′ ∈ Rℓ et U = [U1 , . . . , Um ]′ ∈ Rm les vecteurs correspondants. On suppose
que les vecteurs T et U sont observés et donnés par

T = Vβ + ση et U = Wγ + τε

où β, γ ∈ R p sont inconnus, V et W sont des matrices connues de tailles ℓ × p et m × p et de rang


p (avec ℓ > p et m > p), σ et τ sont des réels positifs inconnus, et η, ε sont deux vecteurs gaussiens
standards indépendants non observés et de dimensions respectives ℓ et m. On désigne par β̂, γ̂,
σ̂2 et τ̂ 2 les estimateurs usuels des moindres carrés de β, γ, σ2 et τ 2 respectivement.

1/4
1. Rappeler la loi de (ℓ − p)σ̂2 /σ2 ainsi que son espérance et sa variance. Quelle est la loi de
(τ 2 σ̂2 )/(σ2 τ̂ 2 ) ?
2. On veut tester τ = σ contre l’alternative τ ̸= σ. Proposer un test de niveau α.
2 2
3. Quelle est la loi de la variable (ℓ − p) σ̂σ2 + (m − p) τ̂τ2 ?
4. Jusqu’à la fin de l’exercice, on suppose que τ = σ. Déduire de la question précédente un
estimateur sans biais σ̃2 de σ2 . Préciser sa variance. Comment se compare-t-il à σ̂2 en terme
de risque quadratique ?
5. Quelle est la loi du vecteur β̂ − γ̂ ?
6. Soit X ∼ N (m, Γ) un vecteur gaussien en dimension d, avec Γ inversible. Rappeler (sans le
justifier) la loi de la variable ( X − m)′ Γ−1 ( X − m).
7. Construire un test de niveau α de l’hypothèse β = γ contre l’alternative β ̸= γ.

Exercice 3 (7 points)
Soient δ, r > 0. La loi de Pareto P (δ, r ) est la loi de densité par rapport à la mesure de Lebesgue
sur R
x 7→ δr δ x −δ−1 1[r,+∞[ ( x ) .
On considère le cadre bayésien suivant:

θ ∼ Π = P (δ, r )
X = ( X1 , . . . , Xn ) θ ∼ Pθ⊗n = Unif[0, θ]⊗n .

1. Représenter la densité de la loi P (δ, r ) et donner sa fonction de répartition.


2. Montrer que la loi a posteriori de θ sachant X est une loi de Pareto P (δX , rX ) pour deux
paramètres δX , rX que l’on déterminera.
3. Donner une région de crédibilité de plus haute densité a posteriori de niveau 1 − α, pour
α ∈]0, 1[.
4. Dans cette question, on s’intéresse à la consistance de la loi a posteriori.
(a) Montrer que si 0 < θ0 < r, alors la loi a posteriori n’est pas consistante en θ0 .
On suppose maintenant que θ0 ≥ r et on rappelle que X|θ = θ0 ∼ Pθ⊗0 n .
(b) Montrer que pour tout ε > 0, Pθ0 -presque sûrement,

 rX δ+n

  θ0 + si rX > θ0 − ε,
P | θ − θ0 | > ε X = 
ε
δ+n  δ+n
r rX
 X

θ0 + ε + 1 − θ0 − ε si rX ≤ θ0 − ε.

(c) En déduire que pour tout ε > 0, Pθ0 -presque sûrement,


 δ+n
θ0
P | θ − θ 0 | > ε X ≤ 1 { X ≤ θ0 − ε } +

,
(n) θ0 + ε

où X(n) = max{ X1 , . . . , Xn }.

2/4
Soit ( Mn )n≥1 une suite de réels positifs qui tend vers +∞ quand n → +∞.
(d) Montrer que  
Mn
Pθ0 X( n ) ≤ θ0 − −→ 0 .
n n→∞

On pourra utiliser l’inégalité: ∀u ∈ [0, 1], (1 − u)n ≤ e−un .


(e) Montrer que
!δ+n
θ0
−→ 0 .
θ0 + Mnn n→∞

(f) En déduire que, sous Pθ⊗0 n , on a


 
Mn P
P | θ − θ0 | > X −→ 0 .
n n→∞

Exercice 4 (3 points)
Expliquer en termes mathématiques précis ce que fait chacune des parties de l’illustration
numérique suivante.

Partie 1
[2]: a, b = 2, 3
n = 30

prior = stats.gamma(a=a, scale=1/b)


theta0 = prior.rvs()
ptheta0 = stats.norm(loc=theta0)
X = ptheta0.rvs(size=n)

Partie 2
[3]: def likelihood(theta):
return stats.norm(loc=theta).pdf(X).prod()

est_emv = X.mean()

N = 1000
thetas = prior.rvs(size=N)
likelihoods = np.array([likelihood(theta) for theta in thetas])
est_mc = (thetas*likelihoods).sum() / likelihoods.sum()

print(est_emv)
print(est_mc)

0.1743723482282432
0.27901366347949874

Partie 3
3/4
[4]: M = 2000
thetas = prior.rvs(size=M)
likelihoods = np.array([likelihood(theta) for theta in thetas])
print(((thetas-est_emv)**2 * likelihoods).sum() / likelihoods.sum())
print(((thetas-est_mc)**2 * likelihoods).sum() / likelihoods.sum())

0.025305233550915397
0.017664889523622763

Partie 4
[5]: unif = stats.uniform()

m = 5000
l = 2*m

sample = []
while len(sample) < m:
candidates = prior.rvs(size=l)
thresholds = unif.rvs(size=l)
crit = np.exp(-n/2 * (est_emv - candidates)**2)
sample += list(candidates[crit > thresholds])
sample = sample[:m]

est_abs = np.quantile(sample, q=0.5, interpolation='lower')

print((np.abs(thetas-est_emv) * likelihoods).sum() / likelihoods.


,→sum())

print((np.abs(thetas-est_mc) * likelihoods).sum() / likelihoods.sum())


print((np.abs(thetas-est_abs) * likelihoods).sum() / likelihoods.
,→sum())

0.12283677437841431
0.10911696680300526
0.1066337249029515

4/4

Vous aimerez peut-être aussi