Corrigé SérieTD1

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 7

Faculté des Sciences Exactes

2019/2020
Département de Mathématiques /M.I
Master 1 (PSA)

Corrigé de la série de TD N 1 de MBCS


Exercice 1. 1. Soit Ω = {1, 2, . . . , 6} et A = {{1, 3, 5}, {2, 4, 6}}, B = {{2, 4, 6}, {2, 3, 4}}.
σ(A) = {∅, {1, 3, 5}, {2, 4, 6}, Ω}. (card(A) = 4 = 22 .)
σ(B) = {∅, {2}, {5}, {2, 4}, {3, 6}, {1, 5}, {2, 4, 6}, {2, 3, 4}, {1, 3, 5}, {1, 5, 6}, {2, 3, 4, 6}, {1, 3, 5, 6},
{1, 2, 4, 5}, {1, 2, 4, 5, 6}, {1, 2, 3, 4, 5}, Ω} (card(σ(B)) = 16 = 24 ).
N.B: Si Ω est fini, le cardinal d’une tribu sur Ω est toujours égal à 2m avec m ∈ N∗ .
2. Soit F1 , F2 deux tribus sur Ω.
Montrons que F1 ∩ F2 est une tribu sur Ω:
Il suffit de vérifier les trois conditions de la définition d’une tribu.
i) ∅ ∈ F1 ∩ F2 (car ∅ ∈ F1 et ∅ ∈ F2 )
ii) ∀ A ∈ F1 ∩ F2 , Ac ∈ F1 ∩ F2 (car Ac ∈ F1 et Ac ∈ F2 ).
∪ ∪
iii) Soit (An )n≥1 ∈ F1 ∩ F2 =⇒ An ∈ F1 et An ∈ F2 (car F1 et F2 sont des tribus).
∪ n≥1 n≥1
Donc An ∈ F 1 ∩ F2 .
n≥1
Les conditions d’une tribu étant vérifiées, donc F1 ∩ F2 est une tribu sur Ω.
• Montrons qu’en général F1 ∪ F2 n’est pas une tribu:
Contre exemple
Soit Ω = {1, 2, . . . , 6} et F1 = {∅, {1}, {2, 3, 4, 5, 6}, Ω} , F2 = {∅, {2}, {1, 3, 4, 5, 6}, Ω} deux
tribus sur Ω. Alors
F1 ∪ F2 = {∅, {1}, {2}, {1, 3, 4, 5, 6}, {2, 3, 4, 5, 6}, Ω} n’est pas une tribu sur Ω car
{1} ∪ {2} = {1, 2} ̸∈ F1 ∪ F2 .

Exercice 2. 1. Soit Ω un ensemble muni d’une tribu F et E ⊂ Ω.


Montrons que
FE = {A ∩ E, A ∈ F } est une tribu sur E (tribu trace de F sur E).
FE = F ∩ E
i) ∅ = ∅ ∩ E ∈ FE .
ii) Soit A ∈ FE =⇒ ∃B ∈ F : A = B ∩ E
CE A = CE (B ∩ E) = CE B ∩ E ∈ FE car CE B ∈ F.
iii) Soit (An )n≥1 ∈ FE et (Bn )n≥1 tel que An = Bn ∩ E. Alors
∪ ∪ ∪ ∪
An = (Bn ∩ E) = (Bn ) ∩ E ∈ FE car (Bn ) ∈ F .
Les conditions de la définition d’une tribu étant vérifiées, donc FE est une tribu sur E.
2. Soitf : F → G une application et T est une tribu sur G.

1
Montrons que T ′ = f −1 (T ) est une tribu sur F
On a T ′ = {f −1 (A), A ∈ T }
i) On a ∅ = f −1 (∅) ∈ T ′ car ∅ ∈ T .
ii) Soit B ∈ T ′ =⇒ B = f −1 (A) avec A ∈ T alors CF B = CF (f −1 (A)) = f −1 (CG A) ∈ T ′ car
CG A ∈ T .
∪ ∪ ∪
iii) Soit (Bn ) ∈ T ′ =⇒ Bn = f −1 (An ) avec An ∈ T alors Bn = f −1 (An ) = f −1 ( An ) ∈ T ′

car An ∈ T .
D’où T ′ est une tribu sur F.

Exercice 3. Soit g : R −→ R une fonction borélienne et X : (Ω, F) −→ (R, B(R) une variable
aléatoire.
Montrons que g(X) est une variable aléatoire.
On a g(X) = g ◦ X : Ω −→ R.
Soit B ∈ B(R) =⇒ (g ◦ X)−1 (B) = X −1 (g −1 (B)) ∈ F car g −1 (B) ∈ R.
donc (g(X))−1 (B) ∈ F. d’où g(X) est une variable aléatoire.

Exercice 4. Soit (Ω, F, P) un espace probabilisé, G une sous tribu de F. On considère deux
variables aléatoires X et Y telles que: X − Y est indépendante de G d’espérance mathématique
m et de variance σ 2 et Y est G-mesurable.
1. E(X − Y |G) = E(X − Y ) = m car X − Y est indépendante de G.
On en déduit que

E(X|G) = m + E(Y |G)


= m + Y car Y est G-mesurable

2. E[(X − Y )2 |G) = E[(X − Y )2 ] = σ 2 + m2 car X − Y est indépendante de G, il en est de


même pour (X − Y )2 . Or E[(X − Y )2 |G) = E(X 2 |G) + Y 2 − 2Y E(X|G). D’où on en déduit
que

E(X 2 |G) = σ 2 + m2 − Y 2 + 2Y (m + Y )
= σ 2 + m2 + Y 2 + 2Y m
= σ 2 + (Y + m)2

Exercice 5. Soit (Ω, F, P) un espace de probabilité, F1 ⊂ F2 des sous tribus de F et X une


variable aléatoire.
1. Montrons que: E([X − E(X|F2 )]2 ) + E([E(X|F2 ) − E(X|F1 )]2 ) = E([X − E(X|F1 )]2 )
On pose X1 = E(X|F1 ), X2 = E(X|F2 )
En utilisant la propriété (g) de l’espérance conditionnelle et le théorème de l’espérance totale
(revoir le cours):
On a X1 = E(X2 |F1 ) et E(XX1 ) = E(E(XX1 |F1 )) = E(X1 E(X|F1 )) = E(X12 )

2
par conséquent
E[(X − X1 )2 ] = E(X 2 ) − 2E(X1 X) + E(X12 ) = E(X 2 ) − E(X12 ).
De la même manière on trouve
E(XX2 ) = E(X22 ) et E(X1 X2 ) = E(X12 )
E[(X − X2 )2 ] = E(X 2 ) − E(X22 ) et E[(X1 − X2 )2 ] = E(X22 ) − E(X12 ). D’où E[(X − X2 )2 ] +
E[(X1 − X2 )2 ] = E[(X − X1 )2 ].
2. Montrons que V ar(X) = E(V ar(X|F1 )) + V ar(E(X|F1 )).
On a V ar(X|F1 ) = E(X 2 |F1 ) − (E(X|F1 ))2 . Alors en appliquant l’espérance mathématique au
deux membres on aura

E(V ar(X|F1 )) = E[E(X 2 |F1 )] − E[(E(X|F1 ))2 ]


= E(X 2 ) − (V ar(E(X|F1 ))) + E2 [(E(X|F1 ))]
= E(X 2 ) − V ar(E(X|F1 )) − E2 (X)
= V ar(X) − V ar(E(X|F1 )).

D’où V ar(X) = E(V ar(X|F1 )) + V ar(E(X|F1 )).

Exercice 6. 1. X N (0, σ 2 ).
Calculons E(X 3 ), E(X 4 ), E(|X|), E(|X 3 |) et E(eX ).
∫ +∞ x2
• E(X 3 ) = σ√12π −∞ x3 e− 2σ2 dx
x2
On pose f (x) = x3 e− 2σ2

[∫ 0 ∫ +∞ ]
1
E(X ) =
3
√ f (x)dx + f (x)dx
σ 2π −∞ 0
[∫ 0 ∫ +∞ ]
1
= √ f (x)dx + f (x)dx
σ 2π +∞ 0
[ ∫ +∞ ∫ +∞ ]
1
= √ − f (x)dx + f (x)dx
σ 2π 0 0
= 0

Donc E(X 3 ) = 0
∫ +∞ x2 ∫ +∞ x2
• E(X 4 ) = σ√12π −∞ x4 e− 2σ2 dx = √2
σ 2π 0
x4 e− 2σ2 dx
Utilisons l’intégration par parties: On pose x3 = u =⇒ du = 3x2 dx,
x2 x2
dv = xe− 2σ2 =⇒[v = −σ 2 e− 2σ]2 alors
x2
+∞
∫ +∞ x2 ∫ +∞ x2
E(X 4 ) = σ√22π −x3 σ 2 e− 2σ2 + √2σ2π 0 3x2 e− 2σ2 dx = √2σ
2π 0
3x2 e− 2σ2 dx (le premier
0
terme est nul).
Intégrons une 2ème fois par parties:
x2 x2
On pose u = x[ =⇒ du = dx, ] dv = xe− 2σ2 =⇒ v = −σ 2 e− 2σ2
3 ∫ +∞
+∞
x2 x2
E(X 4 ) = √6σ2π −xσ 2 e− 2σ2 + √6σ2π 0 e− 2σ2 dx
0

3
∫ +∞ x2
Comme √2
0
σ 2π
e− 2σ2 dx = 1. Alors E(X 4 ) = 3σ 4 .
∫0 x2 ∫ +∞ x2
• E(|X|) = σ√12π −∞ −xe− 2σ2 dx + σ√12π 0 xe− 2σ2 dx.
En posant dans la 1ère intégrale u = −x on aura après calcul E(|X|) = √2σ2π .
∫0 x2 ∫ +∞ x2 ∫ +∞ x2
• E(|X 3 |) = σ√12π −∞ −x3 e− 2σ2 dx + σ√12π 0 x3 e− 2σ2 dx = σ√22π 0 x3 e− 2σ2 dx.
x2
En intégrant par parties: u = x2 , dv = xe− 2σ2 , on aura E(|X 3 |) = 4σ 3


.
∫ +∞ x2 ∫ +∞ x2
• E(eX ) = σ√12π −∞ ex e− 2σ2 dx = σ√12π −∞ ex− 2σ2 dx
x2 (x−σ 2 )2 2
or ex− 2σ2 = e− 2σ 2
+ σ2
. Donc
σ2 ∫ +∞ −
(x−σ 2 )2 σ2 ∫ +∞ (x−σ 2 )2
E(eX ) = √1 e
σ 2π
2
−∞
e 2σ 2 dx = e 2 car √1
σ 2π −∞
e− 2σ 2 dx = 1.
σ2
Donc E(e ) = e .
X 2

2. X N (m; σ 2 ).
a) • Y = X−m
σ
N (0; 1). On peut le vérifier soit par:
FY (y) = FX (m + σy) =⇒ fY (y) = σfX (m + σy). Donc
2
√1 e− 2
x
fY (y) = 2π
t2 σ 2
soit en utilisant les fonctions caractéristiques: 0n a φX (t) = E(eitX ) = eitm− 2 , ∀t ∈ R
2
−i tm − t2
φY (t) = e σ φX ( σt ) = e , ∀t ∈ R.
• On a : X − m N (0, σ 2 ) =⇒ E(|X − m|) = √2σ

(voir question 1).
b) • Montrons que E(eλX ) = exp(λm + 12 λ σ ). 2 2

σ 2 ∫ +∞ (x−σ 2 )2 ∫ +∞
E(eλX ) = σ√12π e 2 −∞ eλx e− 2σ2 dx = σ√12π −∞ e− 2σ2 [(x−m) −2λxσ ] dx
1 2 2

λ2 σ 2
or e− 2σ2 [(x−m)
2 −2λxσ 2 ]
= e− 2σ2 [x−(m+λσ )] eλm+ 2 . D’où
1 1 2 2

λ2 σ 2 ∫ +∞
E(eλX ) = σ√12π eλm+ 2 −∞ e− 2σ2 [x−(m+λσ )] dx = eλm+ 2 λ σ .( C.Q.F.D).
1 2 2 1 2 2

• Calculer E(XeλX ).
σ 2 ∫ +∞ (x−σ 2 )2 ∫ +∞
E(XeλX ) = σ√12π e 2 −∞ xeλx e− 2σ2 dx = eλm+ 2 λ σ σ√12π −∞ xe− 2σ2 [x−(m+λσ )] dx
1 2 2 1 2 2

∫ +∞
or σ√12π −∞ xe− 2σ2 [x−(m+λσ )] dx = m + λσ 2 (la moyenne de N (m + λσ 2 , σ 2 )).
1 2 2

1 2 σ2
Donc E(XeλX ) = (m + λσ 2 )eλm+ 2 λ .

Exercice 7. Soit X une v.a. sur (Ω, F, P) et Y (w) = eX(w) , ∀w ∈ Ω


1. FY (y) = P(eX ≤ y) = P(X ≤ ln y) = FX (ln y)
2. Supposons que X est continue. fY (y) = y1 fX (ln y).
√1 e− 2 (ln y) , ∀
1 2
3. On suppose que X N (0, 1). fY (y) = y 2π
y ≥ 0.
∫ 1
P(Y ≤ 1) = fY (y)dy
0
∫ 1
1
√ e− 2 (ln y) dy
1 2
=
0 y 2π
∫ 0
1
√ e− 2 u du (en posant u = ln y)
1 2
=
−∞ 2π
= FX (0) = 0.5

4
Exercice 8. Soit Xn N (mn , σn2 )
2
Xn L X =⇒ mn −→ m et σn2 −→ σ 2 .
−→
D’où X N (m, σ 2 ).

Exercice 9. Soient X, Y N (0, 1).


1. Si X et Y sont indépendantes, alors (X; Y ) est un vecteur gaussien car toute combinaison
linéaire de ses composantes est gaussienne, en particulier X + Y est gaussienne.
Soit T une variable aléatoire indépendante de X et telle que P(T = +1) = P(T = −1) = 1/2
(veuillez corriger cette probabilité sur la série de TD).
2. Montrer que Z = T X est gaussienne:

FZ (z) = P(XT < z)


1 1
= P(X < z) + P(−X < z)
2 2
1 1
= FX (z) + P(X > −z)
2 2
1 1
= FX (z) + (1 − P(X < −z))
2 2
1 1
= FX (z) + P(X < z)
2 2
= FX (z)

Donc Z N (0, 1).


3.

Cov(X, Z) = E(XZ) − E(X)E(Z)


= E(XZ)
= E(XT X)
= E(T )E(X 2 )(car T et X sont indépendantes)
= 0.

Si on conclut que X et Z sont indépendantes alors X + Z N (0, 2)


or P(X + Z = 0) = P(X(1 + T ) = 0) = P(1 + T = 0) = 1/2 contradiction car X + Z est une v.a.
continue (la probabilité attachée en un point doit être nulle). D’où X + Z n’est pas gaussienne
et X et Z ne sont pas indépendantes et donc (X, Z) n’est pas un vecteur gaussien.

Exercice 10. Soit (Ω, F, P) un espace de probabilité et G une sous tribu de F.


1. a) Montrons que E(Y E(X|G)) = E(XE(Y |G))
On a X et Y sont deux v.a. sur (Ω, F, P) donc elles sont F-mesurables. Donc

E [E(XY |G)|F] = E [Y E(X|G)|F]


= E [Y E(X|G)|F]
= E [Y E(X|G)]
= E [XE(Y |G)]

5
b) X ∈ L2 (Ω) et E(X|G) = Y et E(X 2 |G) = Y 2 . Montrons que X = Y .
[ ] [ ]
E (X − Y )2 |G = E X 2 − 2XY + Y 2 |G
= E(X 2 |G) + E(Y 2 |G) − 2E(XY |G)
= Y 2 + Y 2 − 2Y 2 = 0

D’où E [E((X − Y )2 |G)] = E((X − Y )2 ) = 0 =⇒ X = Y .


2. Soit X = X1 + X2 . On suppose que X1 est gaussienne et indépendante de G, que X2 est
G-mesurable.
a) E(X|G) = E(X1 + X2 |G) = E(X1 |G) + E(X2 |G) = E(X1 ) + X2 .
E(X 2 |G) = E(X12 |G) + E(X22 |G) + 2E(X1 X2 |G) = E(X12 |) + X22 + 2X2 E(X1 )
V ar(X|G) = E(X 2 |G) − (E(X|G))2 = V arX1 .
b) E(eλ X|G).

E(eλ X|G) = E(eλ X1 eλ X2 |G)


= eλ X2 E(eλ X1 )
λ2
= eλ X2 exp{λE(X1 ) + var(X1 )} ( voir Exercice 6).
2

Exercice 11. Dans (Ω, F, (Ft )), on considère (Mt )t≥0 une Ft -martingale de carré intégrable.
1.
[ ]
E (Mt − Ms )2 |Fs = E(Mt2 |Fs ) + E(Ms2 |Fs ) − 2E(Mt Ms |Fs )
= E(Mt2 |Fs ) − Ms2

2. Par passage à l’espérance, on trouve E[(Mt − Ms )2 ] = E(Mt2 ) − E(Ms2 ) ≥ 0, ∀t > s.


3. Soit ϕ définit par ϕ(t) = E(Mt2 ).
Soit t ≥ s =⇒ ϕ(t) − ϕ(s) = E(Mt2 ) − E(Ms2 ) ≥ 0.
D’où ϕ est croissante.

Exercice 12. L’espace Ω est muni d’une filtration (Ft ).


1. Soit s ≤ t et Yt = E(X|Ft ) .
On a Yt est intégrable et Ft -mesurable et

E(Yt |Fs ) = E(E(X|Ft )|Fs )


= E(E(X|Fs )|Ft )
= E(X|Fs ) = Ys

Donc (Yt ) est une martingale.


2. On dit que M est une surmartingale si Mt est adapté, intégrable et
E(Mt |Ft ) ≤ Ms ; ∀s ≤ t.

6
Le processus M est une sous-martingale si −M est une sur-martingale.
a) Montrons que si M est une martingale et A un processus croissant adapté
(As ≤ At ; ∀s ≤ t) alors M − A est une sur-martingale.
Soit Zt = Mt − At et s ≤ t: on a E(Zt |Fs ) = Ms − E(At |Fs ) et comme As ≤ At ou −At ≤ −As ,
E(Zt |Fs ) ≤ Ms − E(As |Fs ) = Ms − As = Zs . Donc M − A est une sur-martingale.
b) Soit M une martingale. Que peut-on dire de M 2 ?
On a ∀s ≤ t, E(Mt2 |Fs ) = E [(Mt − Ms )2 ] + Ms2 ≥ Ms2 . D’où (Mt2 ) est une sous-martingale.

Vous aimerez peut-être aussi