Cours STOC
Cours STOC
Cours STOC
1 Rappels de probabilité 3
1.1 Espace de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Variables aléatoire : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.1 Indépendance de tribus . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.2 Indépendance de v.a . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5 Espérence condétionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Convergence des suites de variables aléatoires . . . . . . . . . . . . . . . . 20
1
2 TABLE DES MATIÈRES
Rappels de probabilité
Définition 1.2. Une tribu (ou σ-algèbre) sur Ω est la famille (F) de sous ensemble de
Ω (appelés évènements) telsque :
i)∅ ∈ F
ii)A ∈ F =⇒ Ac = A ∈ (F) .
S∞
iii) (An )∞
n=1 ∈ F =⇒ n=1 An ∈ F
S
En particulier AetB ∈ F =⇒ A B ∈ F
T
De même ,si AetB ∈ F =⇒ A B ∈ F (preuve en TD)
Exercice: 1. Soit Ω = {1, 2, ..., 6},on peut définir plusieurs tribus sur Ω.
F = {∅, 1, 1, 2, ..., Ω}=P(Ω) tribu complète (la plus grande des tribus)
F0 = {∅, Ω}=tribu triviale (la plus petite)
F1 = {∅, 1, 2, 3, 4, 5, 6, Ω}
F2 = {∅, 1, 3, 5, 2, 4, 6, Ω}...
Exercice: 2. Soit Ω = [0, 1] et I1 , I2 , I3 , ..., In une famille d’intervalles forment une par-
tition de Ω
La famille de sous ensembles définies par :
3
4 CHAPITRE 1. RAPPELS DE PROBABILITÉ
S S S S S S S
G = {∅, I1 , ..., In , I1 I2 , ..., I1 In , ..., In−1 In , ..., I1 I2 I3 , ..., In−2 In−1 In , ..., Ω}
est une tribu sur Ω.
Définition 1.3. Soit A = {Ai , i ∈ I} une famille de parties de Ω .On note σ(A) la
plus petite tribu qui contient A On appelle la tribu engendré par A (I n’est pas forcement
dénombrable )
Définition 1.4. Soit Ω = [0, 1] .la tribu boorelinne sur [0, 1] est une tribu engendrée par la
familleA = ]0, 1[, 0 ≤ a < b ≤ 1 elle est noté B([0, 1]).On peut voir que B([0, 1]) 6= P([0, 1])
Définition 1.5. Soit G une tribu ,si F une autre tribu tq F ⊂ G F est dite sous-tribu de
G
Définition 1.6. Soit F une tribu sur un esemble Ω ,une (mesure)de probabilité sur (Ω
,F) est une application P :F → [0, 1] tel que :
i)P(∅) = 0, P(Ω) = 1
S∞ P∞
ii) (An )∞
n=1 ⊂ F avec les An disjoints 2 à 2 alors P( n=1 An ) = n=1 P(An )
on peut voir que :si on a une suite croissante d’événements (An )n (Ai ⊂ Ai+1 , ∀i ∈ N
alors NN N P( ∞
S
n=1 An ) = limn→+∞ P(An ) et si (An )n est une suite décroissante (Ai+1 ⊂
Ai , ∀i ∈ N alors P( ∞
T
n=1 An ) = limn→+∞ P(An )
Définition 1.7. Soit Ω = [0, 1] et F = B(Ω). On appèlle mesure de lebesgue sur [0, 1],la
mesure de probabilité définie par :
P(]a, b[) = b − a ; ∀0 ≤ a < b ≤ 1
P n’est pas définie à priori que sur les intervalles ouvert, mais uniquement extensible à
tout ensemble borélien P ∈ B([0, 1]).Elle est notée P(B) =| B |.En utilisant la propriété
1.2. VARIABLES ALÉATOIRE : 5
,Notation P(B) =| B |.
Théorème 1.1. Si f (.) est une applications de Ω dans Ω0 muni d’une tribu A0 ,la classe
de parties de Ω ,f −1 (A0 ) = {f −1 (A0 ), A0 ∈ A0 } est une tribu appelée tribu réciproque de
A0 par f (.) ou tribu réciproque.
Définition 1.9. Soit 2 espaces mesurables (Ω, A) et (Ω0 , A)0 .Une fonction f : Ω → Ω0
sera dite mesurable si f −1 (A0 ) ⊂ A On peut aussi définir une tribu engendrée par une
famille de (v.a)Xi , i ∈ I Xi : Ω → Ωi
Définition 1.10. Soit (Xi )i∈I une famille d’applications définies à valeurs respectivement
dans (Ω0 , A)0 ,on appelle tribu engendré par la famille (Xi )i∈I la plus petite tribu rendant
mesurable.toutes les application (Xi ) Elle est notée σ(Xi , i ∈ I)
Dans la suite,on va voir un critère qui permet d’avoir la mesurabilité d’une fonction
sans être obligé de vérifier que f −1 (A0 ) ∈ A,∀A0 ∈ A0 (f : (Ω, A) → (Ω0 , A0 ) où A, A0 deux
tribus)
Démonstration. on a
f (C 0 ) ⊂ f −1 (σ(C 0 )) donc σ(f −1 (C 0 )) ⊂ f −1 (σ(C 0 )) (car f −1 (σ(C 0 )) est un tribu)
−1
Inversement :
6 CHAPITRE 1. RAPPELS DE PROBABILITÉ
Notons A0f la tribu induite de σ(f −1 (C 0 )) par A0f = {A0 ⊂ Ω0 : f −1 (A0 ) ∈ σ(f −1 (C 0 ))}
on a C 0 ⊂ A0f ⇒ σ(C 0 ) ⊂ A0f d’où f −1 (σ(C 0 )) ⊂ f −1 (A0f ) ⊂ σ(f −1 (C 0 ))
Théorème 1.3. (Critère de mesurabilité) Si f(.) est une fonction définie de (Ω, A) dans
(Ω0 , A0 ) et si A0 = σ(C 0 ) .Une CNS pour que f(.) soit mesurable est que f −1 (C 0 ) ⊂ A
Démonstration. on a
f (A0 ) = f −1 (σ(C 0 )) = σ(f −1 (C 0 )) (D’aprés thm 2.5)
−1
Théorème 1.4. Si f (.) et g(.) 2 fonctions mesurable réelles f, g : (Ω, F) → (R, B(R))
Alors les fonctions (αf ), (f + g) et (f × g) sont mesurables (où α ∈ R)
Théorème 1.5. Si (fn )n∈N est une suite de fonction mesurables définies sur (Ω, A) à
valeurs dans (R, B(R)) (ou dans (R, B(R))),les fonctions supn fn , inf n fn , lim sup fn et
lim inf fn sont mesurables.
T
Démonstration. (supn fn ≤ t) = n (fn ∈ A ≤ t) ∈ A
on voir aussi que
1) (fn )n ) mesurable ⇒ limn fn mesurable (si limn fn existe)
2)(fn )n ) mesurable ⇒ L’ensemble de convergence des fn est mesurable({ω ∈ Ω, fn (ω)converge} ∈
A)
1.3. INTÉGRATION 7
1.3 Intégration
Définition 1.11. Une fonction réelle mesurable définie sur (Ω, A, µ) (µ une mesure sur
A) est dite étagée s’il existe A1 , . . . , An une partition de Ω telle que sur tout Ai , f (.) est
constante on pourra donc écrire f (.) sous la forme
n
(
X 1 si x ∈ Ai
f (x) = αi 1Ai , x ∈ Ω, αi ∈ R̄ où 1Ai (x) =
i=1
0 si sinon
Ex1 : si f et g sont 2 fonctions étagés alors af (.) avec a ∈ R,f + g f xg sont étagés.
Définition 1.12. soit (Ω, A, µ) un espace mesuré, l’intégrale d’une fonction f mesurable
Z n
X n
X
étagé positive est l’élément de R̄+ définie par f dµ = αi µ(Ai ) où f = αi 1Ai (on
i=1 i=1
adoptera la convention 0X∞ = 0).
R
Ex2 : on peut montrer que f dµ est ⊥ de la partie choisie pour défini f dans la suite
on notera :
ε+ l’ensemble
Z des fonctions
Z mesurable étagé positives définies sur(Ω, A, µ).
Notation : f dµ = f 1A dµ
A
Propriété de l’intégrale de fonction ε+ :
a) semi linéarité
Z Z
– af dµ = a f dµ
Z Z Z
– (f + g)dµ = f dµ + gdµ
Z Z
+
b) croissance soient f et g ∈ ε , si f ≤ g ⇒ f dµ ≤ gdµ
Z
+
c)si f ∈ ε , la fonction suivante définie sur A par f µ(A) = f dµ est une mesure.
A
n
X
– la σ− additive soit B = ∪∞
j=1 Bj , Bj ∈ A et f = αi 1Ai , Bi ∩ Bj = ∅ ∀i 6= j
i=1
Z Z ∞
X ∞ X
Z X ∞ ∞
X ∞
X
fµ (B) = f dµ = αi 1Ai = αi 1Ai ∩Bj = αi µ(Ai ∩ Bj )
B ∪∞
j=1 B i=1 i=1 j=1 i=1 j=1
∞ X
X ∞
= αi µ(Ai ∩ Bj )
i=1 j=1
∞ Z X
X ∞
= ( αi 1Ai ) 1Bj dµ
j=1 i=1
∞ Z
X X∞ ∞ Z
X ∞
X
= ( αi 1Ai ) dµ = f dµ = fµ (Bj )
j=1 Bj i=1 j=1 Bj j=1
Z
= cgµ(Ω) = gdµ
d’où Z Z
lim fn dµ ≥ gdµ
n−→∞
1.3. INTÉGRATION 9
cette définition est difficilement exploitable car elle faut intervenir toutes les fonctions
+
Z ε qui sont ≤ f . c’est pourquoi on donnera un important théorème qui caractérise
de
f dµ d’une manière plus opérationnelle.
Z Z
lim fn dµ = fµ
n−→∞
n2n −1
X k
Démonstration soit f une fonction mesurable positive, on pose fn = 1 k k+1 +
n [ 2n ≤f ≤ 2n ]
k=0
2
n1f ≤n soit maintenant une suite (fn )n∈N quelconque vérifiant les condition de l’énoncé
(on sait qu’il existe au moins 1)
on a
lim fn = f
n−→∞
donc Z Z
∀n ∈ N fn dµ ≤ f dµ
donc Z Z
lim fn dµ ≥ sup{g∈ε+ ,g≤f } gdµ
n−→∞
10 CHAPITRE 1. RAPPELS DE PROBABILITÉ
ie Z Z
∀n ∈ N fn dµ ≥ f dµ
Z Z
– af dµ = a f dµ ∀a ∈ R
Z Z Z
– (f + g)dµ = f dµ + gdµ
b) croissance
Z Z
– f ≤ g alors f dµ ≤ af dµ
En effet :
∀n, fn ≤ lim fn
n−→∞
Z Z
⇒ fn dµ ≤ lim fn dµ
n−→∞
Z Z
⇒ lim fn dµ ≤ lim fn dµ
n−→∞ n−→∞
on a Z Z
gdµ ≤ lim fn dµ
n−→∞
Z Z Z
⇒ sup gdµ = f dµ ≤ lim fn dµ
{g∈ε+ ,g≤f } n−→∞
d) σ-additive
∞
Z X ∞ Z
X
fn dµ = fn dµ
n= n=
En effet
1.3. INTÉGRATION 11
∞
X m
X
fn = lim fn
m−→∞
n= n=
e) Propriété de Fatou
Z Z
lim inf fn dµ = lim inf fn dµ fn mesurable
n−→∞ n−→∞
En effet
Z Z
lim inf fn dµ = lim % ( inf fn )dµ
n−→∞ n−→∞ n>m
Z
= lim % ( inf fn )dµ
m−→∞ n>m
or
inf fn ≤ fn ∀n ∈ N
n>m
Donc Z Z
inf fn dµ ≤ fn dµ ∀n ∈ N
n>m
Donc Z Z Z
lim inf fn dµ ≤ lim % inf fn dµ = lim inf fn dµ
n−→∞ n−→∞ n>m n−→∞
propriété 1.1. a) ℵR1 l’ensemble des fonctions mesurables intégrables, est un espace sur
R.
b) Linéarité
Z : Z
– af dµ = a f dµ ∀a ∈ R
Z Z Z
– (f + g)dµ = f dµ + gdµ
– (f + g)+ − (f + g)− = (f )+ + (g)+ − (f )− − (g)−
c) croissance Z Z
– f ≤ g alors f dµ ≤ gdµ
Z Z
d) | f dµ| ≤ |f |dµ
luette de la v.a X.
propriété 1.2. soit X une v.a et g : R −→ R une fonction borélienne tel que E(|g(X)|) <
∞
X
a) si X est une v.a.d (à valeurs dans D dénombrable) E(g(X)) = g(x)P (X = x)
Z x∈D
Proposition 1.2. si An ) ⊂ F est une famille d’événement négligeable alors ∪n≥1 An ) est
X
négligeable, puisque P (∪n≥1 An ) ≤ P (An ) .
n≥1
Ex3.11 : l’ensemble A = [0, 1]∩Q est négligeable pour la mesure de |{x}| = 0 ∀x ∈ [0, 1]
Inégalité de Cauchy- Schwarz
soit 2 v.a X et Y de carré intégrable Alors
– XY est intégrable.
– (E(|XY |))2 ≤ E(X 2 )E(Y 2 )
Démonstration
1 1
– |ab| ≤ (a2 + b2 ) =⇒ E(|XY |) ≤ (E(X)2 + E(Y )2 )
2 2
1.4. INDÉPENDANCE 13
Z
– si on définit < X, Y >= XY dP
Z
2 2 2
| < X, Y > | ≤ kXk kY k =⇒ ( |X||Y |dP )2 ≤ E(X 2 )E(Y 2 )
Inégalité triangulaire
soit 2 v.a X et Y intégrables Alors E(|X + Y |) ≤ E(X) + E(Y )
Inégalité de Jensen
soit X une v.a et ϕ : R → R une fonction borélienne et convexe tel que E(|ϕ(X)|) < ∞
alors
ϕ(E(X)) ≤ E(ϕ(X))
E(Ψ(X))
P (X ≥ a) ≤ ∀a ∈ R
Ψ(a)
Démonstration
Z
E(Ψ(X)) ≥ E(Ψ(X)1X≥a ) = Ψ(a)P (X ≥ a) Ψ(X)dP
X≥a
Z
≥ Ψ(a)dP = Ψ(a)P (X ≥ a)
X≥a
1.4 Indépendance
Définition 1.16. deux evenement A et B (∈ F ) sont indépendants (⊥) si P (A ∩ B) =
P (A)P (B)
Notation A ⊥ B
14 CHAPITRE 1. RAPPELS DE PROBABILITÉ
conséquence si A ⊥ B ⇔ Ā ⊥ B
Donc
n
Y
Démonstration ⇒) supposons que Jn : P (∪ni=1 A∗i ) = P (A∗i )
i=1
n−1
Y n−1
Y
= P (A∗i )(P (A∗n + P (Ā∗n )) = P (A∗i ) ⇒ Jn−1
i=1 i=1
n−1
Y n
Y n−1
Y
= P (Ai ) − P (Ai ) = P (Ai )P (Ān ), R(n, 1)
i=1 i=1 i=1
n−2
Y n−2
Y
= P (Ai )P (Ān−1 ) − P (Ai )P (An )P (Ān−1 )
i=1 i=1
n−2
Y
= P (Ai )P (Ān )P (Ān−1 )
i=1
(∗∗)P (A1 ∩A2 ∩....Ān−2 ∩ Ān−1 ) = P (A1 ∩A2 ∩....Ān−2 )−P (A1 ∩....∩An−3 ∩An−2 ∩An−1 )
(1)P (A1 ∩A2 ∩....An−p ∩Ān−p+1 ....∩Ān ) = P (A1 ∩A2 ∩....An−p ∩Ān−p+1 ....∩Ān−1− )−P (A1 ∩....∩Ān−1 ∩An ))
(2)P (A1 ∩A2 ∩....An−p−1 ∩Ān−p ∩Ān−1 ) = P (A1 ∩A2 ∩....Ān−2 )−P (A1 ∩....∩An−3 ∩Ān−2 ∩An−1 )
Proposition 1.4. soit A1 , ..., An n événement σ(A1 ), ..., σ(An ) sont indépendantes ssi
A1 , ..., An sont indépendantes.
Proposition 1.5. X1 , ..., Xn une famille de v.a ⊥ ssi {{X1 ≤ t1 }, ..., {Xn ≤ tn }} sont
indépendantes ∀t1 , ..., tn ∈ R.
Démonstration. Passe par considérer que X et Y des indicatrices puis à une fonction
étagée . . . .
Exemple 1. Soient X1 et X2 deux v.a indépendantes et tel que :Xi ∼ N (0, 1) les v.a
1
X1
R = (X12 + X22 ) 2 et H = Arctg( X2
) sont aussi indépendantes .
Proposition 1.7. Soit X ⊥ Y ,X et Y v.a.c possedant une densité conjointe fX,Y (., .)
RR
P ((X, Y ) ∈ B) = f (x, y)dxdy alors
B X,Y
Rappel
On considère un espace préhibertienne E,F s.e.v de E
∀x ∈ E, ∃!x0 ∈ F tel que : < x − u, x0 >= 0 ∀ u ∈ F ou bien que x0 et tel que :
kx − x0 k = minu∈F kx − uk , x0 est noté par rF (x) on note Z = E(X/G)
Exemple 3. Soit X et Y deux v.a continues admettant une densité conjointe fX,Y (., .)
tel que E(| X |) < ∞ alors E(X/σ(Y )) = f (Y ) où f = E(X/Y )
Z Z
1
f (y) = E(X/Y )(y) = E(X/Y = y) = xfX,Y (x, y)dx fY (y) fX,Y (x, y)dx
fY (y) R
18 CHAPITRE 1. RAPPELS DE PROBABILITÉ
Z Z
= xg(y)fX,Y (x, y)dxdy = E(Xg(Y ))
i Positivité - Monotonie
Si X ≥ Y ps =⇒ E(X|G) ≥ E(Y |G) ps
En effet :
Si Z ≥ 0 ps =⇒ E(Z|G) ≥ 0 ps
R R
car ∀A ∈ G , A ZdP = A E(Z|G)dP ≥ 0
=⇒ E(Z|G) ≥ 0 ps (car E(Z|G) est G-mesurable)
i E(E(X—G))=E(X)
R R
puisque ∀A ∈ G , A E(X|G)dP = A XdP en particulier pour A = Ω
i Si X ⊥ G , E(X|G) = E(X)
En effet :
Soit A ∈ G ,
1.5. ESPÉRENCE CONDÉTIONNELLE 19
R R
A
XdP = X1A dP = E(1A X)
= E(1A X) = E(1A )E(X)
R
= A E(X)dP
E(X) est une constante donc σ− mesurable.
i Soit H ⊂ G ⊂ F . Alors,
En effet :
E(E(X|H)|G) = E(X|H)
Soit X variable aléatoire et G sous tribu de F et ϕ : R → R convexe telle que E(| ϕ(X) |
) < ∞ alors
ϕ(E(X|G)) ≤ E(ϕ(X)|G)
S
⇒ lim P ( |Xn − X| ≥ ε) = 0
N →+∞ n≥N T
⇒ lim P (|Xn − X| ≥ ε) = 0 ( An & P ( An ) = lim P (An ) )
N →+∞ n≥1 n→+∞
la convergence p.s vers 0 car l’événement Xn = 1 est toujours possible , ce la veut dire
que Xn ne tent pas vers 0 p.s
En effet :
+∞ +∞
1
E(|Xn − X|2 ) < ∞ ∀ε > 0 fixé d’aprés B-C a) on a
P P
On a P {|Xn − X| > ε} ≤ ε2
n=1 n=1
∀ε > 0 , P ({ω ∈ Ω : |Xn (ω) − X(ω)| > ε} pour une infinité de n}) = 0 et pour le critère
de convergence énoncé ci-dessus Xn → X p.s. Preuve.
+∞
P N
P
a) Si P (An ) < ∞ ⇒ lim P (An ) = 0(*)
n=1 N →+∞ n=1
Supposons que P (A) > 0
Soit ω ∈ A , ∀N ∈ N , ∃n ≥ N tq ω ∈ AN
T S T S
⇒ω∈ An ⇒ P ( An ) > 0
N ∈N n≥N
S N ∈N n≥N
⇒ lim P ( An ) > 0 ce qui contredit (*)
N →+∞ n≥N
b) Soit ω ∈ A ⇒ ∃N ∈ N , ∀n ≥ N , ω ∈ An
T
⇒ ∃N ∈ N , ω ∈ An
n≥N
S T
⇒ ω∈ An or
N ∈N n≥N
\ Q
P( An ) = P (An )
n≥N n≥N
+∞
Y
= (1 − P (An ))
n=N
+∞
Y P (An )2 P (An )3
≤ (1 − P (An ) + − + ...)
n=N
2! 3!
Y
= exp(−P (An ))
n≥N
+∞
X
= exp(− P (An )) = 0
n=N
T
∀N , An est négligeable
n≥N
S T
d’où, An est négligeable d’où,P (A) = 0 et P (A) = 1.
N ∈N n≥N
soit(Xn )n une suite de v.a independantes et ayant le même esperance et le même variance
alors Xn −→ E(X1 ) en probabilité.
Exemple.
Soit(Xn )n une suite de pile(1) et de face (0) independants et équilibrées du fait que
E(X1 ) = 12 on a pour la lois forte des grand nembre Snn → 12 p.s.
-convergence en loi :
soit (Xn )n une suite de v.a définie sur (Ω, F, P )F X n la fonction de repartion de Xn
(F X n (t) = P (Xn ≤ t) ∀t ∈ R).
on dit que Xn converge vers x en loi si F X n (t) −→ F X (t) R t pts de discontinuité de
F(.).on note Xn ⇒ x
1 1
Exercice : Soit(Xn )n une suite de pile et de face,P (X1 = 1) = 2
; E(X1 = a
);
S −n
V ar(X1 = 41 ) donc 1n√na ⇒ N (0, 1).
2
24 CHAPITRE 1. RAPPELS DE PROBABILITÉ
Chapitre 2
Généralisations.
25
26 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET
Exemple 5. La filtration naturelle d’un processus (Xn )n est bornée par (FnX )n où FnX =
σ(Xm , m ≤ n)
Définition 2.2. Une sous martingale (respectivement une sur martingale) est un proces-
sus (Mn )n∈N adapté à une filtration (Fn )n tels que
2.4. TEMPS D’ARRÊT 27
i) E(|Mn |) < ∞
ii) E(Mn+1 /Fn ) ≥ Mn ∀n ∈ N(respectivement E(Mn+1 /Fn ) ≤ Mn ∀n ∈ N)
Une martingale est un processus qui est à la fois une sur-martingale et une sous-
martingale.
Remarque 6. -La notion de martingale équivaut a celle de ”jeu honnete”, à l’instant n
où l’on dispose de l’information Fn .L’espèrance de la somme posedée à l’instant d’après
est égale à la somme dont dispose à l’instant present.
-Les applations ”sous martingale” et ”sur martingale” sont contre intuitive :une sous
martingale est un processus qui a tendance à monter (jeu favorable).
Proposition 2.1. Soit Mn une martingale alors :
∀m, n ∈ N
E(Mn+m /Fn ) = Mn p.s
E(Mn+1 − Mn /Fn ) = 0 p.s, E(Mi ) = 0 ∀i ∈ N
Exemple 6. Soit (Sn )n une marche aléatoire à valeurs dans N ou R
n
P
i.e S0 = 0, Sn = Xi avec Xi iid, E(X1 ) = 0 On pose F0 = {∅, ω} et Fn = σ{Xi , i ≤ n}
i=1
∀n ∈ N∗
Alors (Sn )n est une martingale par rapport à Fn
Proposition 2.2. Soit Mn une martingale relativement à une filtration (Fn )n∈N et ϕ :
R → R convexe tel que E(|ϕ(Mn )|) < ∞ ∀n ∈ N
Alors ϕ(Mn ) est une sous martingale par rapport à (Fn )n∈N . En particulier (Mn2 )n∈N est
une sous martingale.
Preuve. Par l’inégalité de Jensen(Espérance conditionnelle)
E(ϕ(Mn+1 )/Fn ) ≥ ϕ(E(Mn+1 /Fn )) = ϕ(Mn ) ce qui prouve ii)
i) donnée par l’hypothèse(ϕ est convexe donc continue sur un ouvert (borélienne)donc
mesurable et donc ϕ(Mn est mesurable)H
Définition 2.4. Soit (Xn ) un processus adapté à une filtration (Fn )n∈N et T un temps
d’arrêt par rapport à (Fn )n∈N
P
On pose XT (ω) = XT (ω) .(ω) = Xn (ω).1T =n
n∈N
FT = {A ∈ F, A ∩ (T ≤ n) ∈ Fn , ∀n ∈ N} est une tribu
Remarque 7. Bien que sa définition est peu explicite, la tribu FT represnte l’information
disponible au temps T
Théorème 2.1. (théorème d’arrêt) : Soit (Mn ) une martingale par rapport à (Fn )n∈N
filtration et T1 et T2 deux temps d’arrêt tels que T1 (ω) ≤ T2 (ω) ≤ N < ∞ ∀ω ∈ Ω
Alors E(MT2 /FT1 ) = MT1 p.s et donc E(MT2 ) = E(MT1 )
En particulier si T (ω) ≤ N ∀ω ∈ Ω alors E(MT ) = E(M0 )
Remarque 8. Ce théorème reste vrai pour un sous ou sur martingale avec les inégalités
correspondantes dans (∗)
Lemme 2.1. Soit T un temps d’arrêt et Y une variable aléatoire , Y est FT -mesurable
si et seulement si Y.1t=n est Fn -mesurable
Preuve.
Démontrons tout d’abord que si T est un temps d’arrêt tel que T (ω) ≤ N ∀ω ⊂ Ω
PN
Alors E(MN /FT ) = Mn 1t=n = MT p.s
n=0
Appelons Z le terme du milieu de l’équation précedente.Pour vérifier que E(MN /FT ) = Z
il faut vérifier les deux points de la définitions de l’espérance conditionnelle.
N N
c
X X
(b) E(E(MN 1t=m U ) Fn ) = E(MN 1t=m U )
n=0 n=0
= E(MN U )
N
P
(c) 1t=m = 1
n=0
En utilisant ce qui précede successivement à T = T1 et T = T2 , on trouve
Proposition 2.3. Si Hn est une variable aléatoire bornée (ie |Hn (w)| < kn ∀w ∈ ω et
∀n ≥ 1)et Hn est prévisible, le processus (In )n∈N est une martingale par rapport à (Fn )n∈N .
n
P
Application :Soit (Mn )n∈N la marche aléatoire symétrique sur Mn = Xi , P (X1 =
i=1
1
1) = P (X1 = −1) = 2
30 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET
On pose M0 = 0 (
2Hn , si X1 = X2 = ... = Xn−1 (n ≥ 1) ;
H0 = 0, H1 = 1 et Hn+1 =
0, dés que Xn = 1.
n
P Pn
Alors In = Hi (Mi − Mi−1 ) = Hi Xi est une martingale par la proposition ci-
i=1 i=1
dessus (Hi est bornée par 2i−1 en particulier E(In ) = E(I1 ) = 0)
On définit le temps d’arrêt T = inf {n ≥ 1, Xn = 1}
On peut vérifier que IT = 1
n
P
En effet :Soit ω ∈ Ω tel que T (ω) = n, IT (ω) = IT (ω) (ω) = In (ω) = Hi (ω)Xi (ω)
i=1
n−1
X
IT (ω) = Hi (ω).Xi (ω) + Hn (ω).Xn (ω)
i=1
n−1
X
=− Hi (ω) + Hn (ω)
i=1
or,
d’où
E(IT ) = 1 6= E(I1 ) = 0
nous remarquons que le théorème d’arrêt mentionné ci-dessus ne s’applique pas ici car T
n’est pas borné.
(en d’autre terme, en appliquant la stratégie(Hn ) , on est sûre de gangner un dollar
(HI = 1) au temps T , mais le prix à payer est donc qu’on risque de perdre toute notre
fortune avant de gagner ce dollar.
pour des martingales uniformément intégrable, il est possible de faire une extention du
théorème d’arrêt borné.
Définition 2.6. on dit que X une famille de variable aléatoire est uniformement intégrable
R
(UI)si : ∀ > 0, ∃λ > 0 tel que |X|>λ |X|dp < , ∀X ∈ x
2.5. INTÉGRALE STOCHASTIQUE DISCRÉTE 31
Démonstration :
preuve :
démonstrations :
supposons d’abord que M et A existent, on peut voir que : E(Xn |Fn−1 ) = X0 + Mn−1 +
An ∀n ≥ 1
et donc An = E(Xn |Fn−1 ) − X0 − Mn−1 = E(Xn |Fn−1 ) − X0 − (Xn−1 − X0 − An−1 )
par induction
n
X
An = E(Xk − Xk−1 \ Fk−1 ) p.s
k=1
Remarque 9. Pour le théorème d’arrêt borné les inégalités du théorème restent vrais
sans UI, pour le voir, il suffirait de remplacer X∞ par Xk où S < T < k dans la
2.5. INTÉGRALE STOCHASTIQUE DISCRÉTE 33
démonstration qui suit la dernière assertion 2.2 sera changé en la famille {X : T t.a tq T ≤
k}
Preuve. Puisque X est bornée E(Xn ) ≤ E(X0 ), la limite X∞ = lim Xn existe p.s
n→∞
pour chaque k ∈ N. ((Γ ∩ K)(ω) = min(Γ(ω), K))
La sur-martringale X k = (Xk∩n )n∈N (i.e Xnk (ω) = Xk∩n (ω))
34 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET
En appliquant le théorème d’arrêt sur les sur-martingales UI sur X k ,il vient que
Z Z
XT dP = lim XT ∩k dP
F ∩(s≤j) F ∩(s≤j) k→n
Z
≤ lim XT ∩k dP
k→n F ∩(s≤j)
Z Z
(car2.3) ≤ Xs∩j dP = Xs dP
F ∩(s≤j) F ∩(s≤j)
R R
Par la convergence (Beppo-Levi) {F ∩(s<∞)} XT dP ≤ {F ∩(s<∞)} Xs dP
On note que {s = ∞} ⊂ {T = ∞} (s ≤ T )
R R
On a F ∩{s=∞} XT dP = {F ∩s=∞} Xs dP cela implique que
Z Z
XT dP ≤ Xs dP (2.4)
F F
Théorème 2.5. Soit (Xn )n une suite i.i.d telle que E(|X1 |) < ∞ et T un temps d’arrêt
integrable pour la filtration associée à (Xn )n et Sn = X1 + ... + Xn
Preuve.
X X
E( |Xk | .1T ≥k ) = E(|Xk | .1T ≥k )
k≥1 k≥1
X
= E(|Xk |).E(1T ≥k )
k≥1
X
= E(|Xk |)E( 1T ≥k )
k≥1
= E(|X1 |).E(T )
Proposition 2.4. (Propriété de Markov généralisée) Soit (Xn )n une chaine de Markov
à valeurs dans E (E au plus dénombrable ) pour tout x et y dans E et pour tout sous
ensemble A de E n
On a : P (Xn+1 = y|(X0 , X1 , ..., Xn−1 ) ∈ A, Xn = x) = P (Xn+1 = y|Xn = x)
Preuve.
36 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET
Proposition 2.5. Soit (Xn )n une chaine de Markov à valeurs dans E (E au plus dénombrable
), pour tout n et k, pour tout y1 , y2 , ..., yk ∈ E, pour tout B ⊂ E k , et pour toute fonction
f (.) définie de E dans R+ boréliènne, on a :
P (Xn+1 = y1 , ..., Xn+k = yk |(X0 , X1 , ..., Xn−1 ) ∈ A, Xn = x) = P (Xn+1 = y1 , ..., Xn+k = yk |Xn = x)
= P (Xn+1 = y1 |Xn = x) × P (Xn+2 = y2 |Xn+1 = y2 ) × ... × P (Xn+k = yk |Xn+k−1 = yk−1 )
et
E(f (Xn+1 , ..., Xn+k )|(X0 , X1 , ..., Xn−1 ) ∈ A, Xn = x) = E(f (Xn+1 , ..., Xn+k )|Xn = x)
Remarque 10. Si en plus la chaine est homogène on remplacera n par 0 dans tous les
termes de droit des trois égalités.
P (Xn+1 = y1 , ..., Xn+k = yk |C, Xn = x) = P (Xn+k = yk |C, Xn = x, Xn+1 = y1 , ..., Xn+k−1 = yk−1 )
×P (Xn+k−1 = yk−1 |C, Xn = x, Xn+1 = y1 , ..., Xn+k−2 = yk−2 ) × ... × P (Xn+1 = y1 |C, Xn = x)
= P (Xn+k = yk |Xn+k−1 = yk−1 ) × P (Xn+k−1 = yk−1 |Xn+k−2 = yk−2 ) × ... × P (Xn+1 = y1 |Xn = x)
X
P ((Xn+1 , ..., Xn+k ) ∈ B|(X0 , ..., Xn−1 ) ∈ A, Xn = x) = P (Xn+1 = y1 , ..., Xn+k = yk |(X0 , ..., Xn
(y1 ,...,yk )∈B
X
= P (Xn+1 = y1 , ..., Xn+k = yk |Xn = x))
Quant à la 3éme partie elle s’établit par combinaison linéaire de fonction indicatrice
puis par passage à la limite croissante pour une suite des fonctions étagées approximant
Propriétè de Markov forte :
soit (Xn )n une chaine de Markov homogène à valeurs dans E (E au plus dénombrable) de
2.5. INTÉGRALE STOCHASTIQUE DISCRÉTE 37
(car B ∩ (T = k) ∈ Fk )
Px (X0 = y0 , ..., Xn = yn
X P (A, B, T = k, Xk = x)
P (A, B|T < +∞, XT = x) =
k≥0
P (T < +∞, XT = x)
X P (Xk = x, B, T = k, )
= Px (X0 = y0 , ..., Xn = yn )
k≥0
P (T < +∞, XT = x)
la famille des évenements de la forme (2) est un Π systeme coincident sur la tribu que
le Π systeme engendre et que
σ((XT +n )n ∈ N
pour montrer (1), on suppose φ ≥ 0, et on l’approche par des fonctions simples ϕ1 , ..., ϕp ↑
ϕ si
P
ϕp ((xn )n∈N ) = k λk .1(xn )n ∈ Ek
38 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET
Rappel
Définition 3.1. vecteur aléatoire un vecteur aléatoire (de dimension n) est une applica-
tion : X : {Ω −→ Rn w 7−→ X(w) = (X1 (w), ..., Xn (w)) tq {w ∈ Ω : X(w) ∈ B} ∈
F, ∀B ∈ B(Rn )
Remarque 11. A) X est un vecteur aléatoire discret ssi les Xi sont discretes.
B) Si X est un vecteur aléatoire continu alors les Xi sont continues mais la réciproque
n’est pas vraie : soit U v.a.c,alors la variable aléatoire X = (U, U ) n’est pas continue
car B = (x, y) ∈ R2 : x = y on a P (X ∈ B) = 0 alors que |B| = 0.
39
40 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU
ii) cov(X) = Q tq Qij = cov(Xi , Xj ) = E[((Xi − E(Xi ))(Xj − E(Xj )))] = E(Xi , Xj ) −
E(Xi ).E(Xj ).
Vecteur gaussien
Xi
αi Xi ).
i
Proposition 3.4. Soit X un vecteur aléatoire gaussien alors les variables aléatoires sont
indépendantes si et seulement si la matrice de covariance est diagonale.
Remarque 12. Il n’est pas obligatoire qu’un vecteur aléatoire dont les composantes sont
gaussien soit gaussien.
Notation
Si X est un vecteur gaussien de moyenne m et de matrice de covariance Q, on note
X ∼ N (m, Q).
En mots, cette proposition dit qu’un vecteur aléatoire gaussien dont la matrice de cova-
riance est de rang K peut toujours s’exprimer en terme de K variable gaussiennes. Cette
décomposition correspond à la décomposition de Q dans la base de ses vecteurs propres
associées au valeur propre non nulles.
Pour de tels processus, donner la loi de Xt − X0 , ∀t > 0, ainsi que celle de X0 suffit à
caractériser entiérement le processus.
Citons encore une définition dont nous avons besoin pour définir le mouvement brownien.
Définition 3.6. Un processus (Xt ) est appelé un processus à trajectoires continues (ou
simplement processus continu) si P(ω ∈ Ω : t 7→ Xt (ω)est continue) = 1.
En appliquant la loi des grands nombres, on peut voir Btt → 0 p.s. lorsque t → ∞
soit n ∈ N∗ , Bn = n−1
P Pn−1
i=0 (Bi+1 −Bi ) = i=0 Xi les Xi sont i.i.d et centrée donc d’aprés la
B
Bn
loi des grand nombre n → 0. soit t ∈ / N∗ , t = n + t0 où n = [t], t0 ∈ [0, 1[, Btt ∼ tt0 + Btn
Bt
De plus, √ t
∼ N (0, 1) ∀t > 0, On voit donc que le m.b.s. est bien une généralisation à
temps continu de la marche aléatoire symétrique sur Z
Le processus B̃t est donc un m.b.s. Cette ”construction” a le désavantage de ne pas être
explicite, contrairement aux deux suivantes.
II. Principe d’invariance de Donsker
Soit S0 = 0, Sn = X1 + . . . + Xn , la marche aléatoire symétrique sur Z (avec Xi i.i.d. et
P(Xi = +1) = P(Xi = −1) = 21 ).
Sn
Rappel : par le TCL, √ ⇒n→∞ Z ∼ N (0, 1).
n
(n) Y
Soit Yt = S[t] + (t − [t])X[t]+1 (i.e. si t = n + , alors Yt = Sn + Xn+1 ). On pose Bt = √nt .
n
43
(n)
i.e. que la suite de processus (Bt ) converge en loi vers le m.b.s. (Bt ). III. Construction
par série de Fourier
Soit t ∈ [0, π]. On pose √ ∞
8 X sin(nt)
Bt = ξn ,
π n=1 n
où (ξn ) est une suite de v.a. i.i.d. ∼ N (0, 1). Alors Bt est une v.a. gaussienne (car c’est
une somme de v.a. gaussiennes indépendantes), E(Bt ) = 0 et
∞ ∞
8 X sin(nt) sin(mt) 8 X (sin(nt))2
E(Bt2 ) = 2 E(ξn ξm ) = 2 = t.
π n,m=1 n n π n=1 n2
On peut également vérifier que le processus (Bt ) ainsi défini a toutes les propriétés d’un
m.b.s. A l’aide de cette troisième construction, effectuons un petit calcul (formel) :
√ ∞ √ ∞
∂Bt 8 X ∂ sin(nt) 8X
= ξn = cos(nt)ξn .
∂t π n=1 ∂t n π n=1
∂Bt
La v.a. ∂t
est donc une v.a. gaussienne (car c’est une somme de v.a. gaussiennes indépendantes),
mais 2 !
∞
∂Bt 8 X
E = 2 (cos(nt))2 = ∞.
∂t π n=1
Il y a donc une contradiction, car une v.a. gaussienne ne peut pas avoir une variance
infinie.
En conclusion, la v.a. ∂B
∂t
t
n’est pas bien définie, i.e. la fonction t 7→ Bt est continue mais
pas dérivable. On reverra ceci de manière plus rigoureuse ci-après.
Soit (Bt )t≥0 un mBs, alors les cinq processus suivants sont également des mbs :
1. Bt1 = −Bt , t ∈ R+ (propriété de symétrie du mBs),
2. Soit T ∈ R+ fixé Bt2 = Bt+T − Bt , ∀t ∈ [0, T ] (Stationnarité),
3. Soit T ∈ R+ Bt3 = BT − BT −t , ∀t ∈ [0, T ] (Renversement du temps),
4. Soit α > 0 fixé Bt4 = √1 Bat ∀t ≥ 0 (loi d’echelle)
a
0, ∀c1 , · · · , cn ∈ R, ∀t1 , · · · , tn R+
Proposition 3.9. Un mBs (Bt )t≥0 est un processus à trajectoires continues et gaussien
de moyenne m(t) = 0 et de covariance K(t, s) = min(t, s).
Démonstration. Il faudra montrer que ni=1 ci Bti est une variable aléatoire gaus-
P
3.2. PROCESSUS DE MARKOV 45
Démonstration.
où ψ(y) = E(f (Bt−s +y)) puisque Bt−s ⊥Bs . Un calcul identique montre que E(f (Bt )|YsBs ) =
Ψ(Bs ) p.s.
Remarque 16. De la démonstration ci-dessus, on déduit que : E f (Bt )|FsB = Ψ(Bs )
p.s où Ψ(y) = E(f (X + y)) avec X ∼ N (0, t − s), ceci montre qu’une expression à priori
compliquée faisant intervenir une espérance conditionnelle d’une fonction d’un mouve-
ment brownien peut se réduire à une simple espérance d’une fonction d’une loi gaussienne.
Définition 3.9. Un processus (Mt )t ≥ 0 est adapté à une filtaration Ft ≥ 0 tel que
– E(|Mt |) < ∞ ∀t ≥ 0
– E(Mt | Fs ) = Ms ∀t ≥ s ≥ 0
M est appelé une martingale(à temps continu).
Théorème 3.1 (Théorème d’arrêt). Soit (Xt )t une martingale par rapport à une filtration
(Ft )t≥0 uniformement continue et continue à droite et T1 et T2 2 t.a tels que 0 ≤ T1 ≤
T2 < N < ∞ alors E(XT2 | XT1 ) = XT1 p.s
Remarque 17. Le théorème reste vrai pour les sous et sur martingales.
XS p.s
Yk est uniformement intégrable (car (Xt )t est UI)
R R
Yk → Y dans L1 ⇒ Yk dP → Y dP
Proposition 3.13. Soit (Xt )t≥0 un processus et T un temps d’arrêt alors XT est mesu-
rable.
Inégalité de Doob : Soit (Mt )t ≥ 0 une martingale par rapport à une filtration (Ft )t≥0
continue de carré intégrable et tel que M0 = 0 p.s, alors
t |)
– P (sup0≤s≤t |Ms | ≥ λ) ≤ E(|M λ
∀t, λ > 0
2 2
– E(sup0≤s≤t Ms ) ≤ 4E(Mt ) ∀t > 0
Remarque 18. Ces ≥ sont précieuses, car elles permettent de borner (en espérance)le
supremum d’une martingale sur un intervalle par quelque chose qui ne dépend que de la
valeur de la martingale à la fin de l’intervalle.
T1 = inf {S ≥ 0 : |MS | ≥ λ} ∧ t, T2 = t
λP({|MT1 | ≥ λ}) = E(λ1{|MT1 |≥λ} ≤ E(|MT1 |1{|MT1 |≥λ} ≤ E(|Mt |1|MT1 |≥λ}
{|MT1 | ≥ λ} = {|M ∗ | ≥ λ}
b) Pour simplifier, supposons que l’on sait que E((M ∗ )2 ) < ∞ (ça n’est pas claire a
priori).
Alors du fait que Z ∞
∗ 0
g(M ) = g (x)1{M ∗ ≥x} dx
0
autremenr dit ,
p p
E((M ∗ )2 ) ≤ 2 E((Mt )2 ) i.e. E((M ∗ )2 ) ≤ 4E(Mt2 )
ou le supremum est pris sur toutes les partitions (t0 , ..., tn ) de [0, t],avec n arbitraire.
Cette intégrale est définie trajectoire par trajectoire (ie ”ω” par ”ω”).
Remarque 20. Si la courbe (Vt ) est l’évolution dans le temps du prix d’un actif financier
Rt
et (Ht ) est la stratégie d’investissement sur cet actif, alors 0 Hs dVs représente le gain
effectué sur l’intervalle [0, t]. L’intégrale ci-dessus est donc bien définie et l’on peut se
demander pourquoi on a besoin de parler d’intégrale ”stochastique” ?
Il se trouve qu’en mathématiques financières, les processus d’évolution des prix sont mieux
repésentés par des mouvements browniens (ou des processus plus compliqués encore). Or le
mouvement brownien (standard) a des trajectoires continues mais pas à variation bornée
Rt
(voir plus loin). Comment définir alors 0 Hs dBs ?
2n 2
X it (i − 1)t
hBi(n)
t = B( ) − B( )
i=1
n n
lim hBi(n)
t =t P.s
n→∞
3.4. VARIATION QUADRATIQUE 51
2 n
X
E(hBi(n)
t ) = E(Xi2 ) = t
i=1
et n n
2
X 2
X
V ar(hBi(n)
t ) = V ar(Xi2 ) = E(Xi4 ) − E(Xi2 )2
i=1 i=1
2 n
X t2 t2 t2
= 3 n− n = n
i=1
4 4 4
En conséquence,
∞ ∞
X 1 X t2
P | hBit(n) − | ≤ 2 ≺∞
n=1
n=1 4n
Par le lemme de Borel-Cantelli (a) et le critère donné pour la convergence presque sûre,
on a donc
(n)
hBit →t
n → ∞ , P.s
Corollaire 3.1. n
2
X it (i − 1)t
lim B( n
) − B( = ∞ , P.s
n→∞
i=1
2 2n
Démonstration.
Supposons par l’absurde que P limn→∞ ni=1 B( 2itn ) − B( (i−1)t
P
2n
) < ∞ > 0.
Alors on a,
2n 2 n !
X X
hBit = lim hBi(n)
t = lim Xi2 ≤ lim maxn | Xi | lim | Xi | .
n→∞ n→∞ n→∞ 1≤i≤2 n→∞
i=1 i=1
Or le processus (Bt ) est continu, donc il est uniformément continu sur [0, t], et donc
2n !
X
P lim | Xi |< ∞ > 0.
n→∞
i=1
Remarque 21. Le fait que le processus (Bt ) n’est pas a variation bornée implique que
ses trajectoires ne sont pas dérivables.
Remarque 22. On remarque que le processus (Bt2 − hBit , t ∈ R+ ) est une martingale.
Ceci n’est pas un hasard. Cette propriété va même nous servir à définir la variation
quadratique d’une martingale continue de carré intégrable.
Exemple 8. On a vu que hBit = t. Noter que dans ce cas, la variation quadratique est
un processus déterministe.
Remarque 23. Noter qu’on a toujours par définition : E(hM it ) = E(Mt2 ) − E(M02 ).
- Du fait que le processus (hM it ) est croissant, c’est un processus à variation bornée (i.e.
la variation quadratique d’une martingale est un processus a variation bornée).
- Si (Mt ) est une martingale continue à variation bornée, alors Mt = M0 pour tout
t 0 (i.e. Mt est constante). puisque (Mt )t≥0 martingale, en particulier elle est un sous-
martingale Mt = 2Mt − Mt et (2Mt )t est un sous-martingale, grâce à l’unicité de la
variation quadratique et (Mt )t croissante d’aprés le théorème de décomposition de Doob.
d’autre part, (−Mt ) est un martingale et donc (−Mt ) est un sous martingale. Par le
3.4. VARIATION QUADRATIQUE 53
même raisonnement on va avoir (−Mt ) croissante donc (Mt ) est décoissante donc (Mt )
est constante et qui est égale à M0 .
Proposition 3.16. Si (Mt ) est une martingale continue de carré intégrable, alors on a :
n
2 2
X it (i − 1)t
hM i(n)
t = M( n ) − M( )
i=1
2 2n
Remarque 24. A priori, la convergence n’a lieu qu’en probabilité (alors qu’elle a lieu
presque sûrement dans le cas où (Mt ) est un mouvement brownien standard).
Définition 3.11. Soient (Mt ), (Nt ) deux martingales continues de carré intégrable. On
définit la covariation quadratique de (Mt ) et (Nt ) par
1
hM, N it = (hM + N it − hM − N it )
4
Proposition 3.18. Si (Mt )t≥0 et (Nt )t≥0 sont deux martingales continues de carré intégrable,
alors on a :
2n
X it (i − 1)t it (i − 1)t
hM, N i(n)
t = M( n ) − M( n
) N( n ) − N( n
) →Pn→∞ hM, N it , ∀t ≥ 0
i=1
2 2 2 2
Proposition 3.19. Soient (Mt )t≥0 et (Nt )t≥0 deux martingales continues de carré intégrable
indépendantes et soit c ∈ R. Alors
hM, N it = 0 et c2 hM it + hN it ∀t ≥ 0.
Définition 3.12. On appelle mouvement brownien standard par rapport à une filtration
(Ft ) un mouvement brownien standard (Bt ) adapté à (Ft ) et tel que
hM it = t p.s., ∀t ∈ R+ .
Proposition 3.20. Soit (Mt ) une martingale continue de carré intégrable (par rapport à
une filtration (Ft )) et telle que
lim hM it = ∞p.s.
t→∞
Gs = FT (s) et Bs = MT (s) , s ∈ R+ .
Alors le processus (Bs ) est un mouvement brownien standard par rapport à (Gs ).
Car pour s2 ≥ s1 , T (s2 ) ≥ T (s1 ), le processus (Bs ) est donc une martingale (Bs ) est
clairement carré intégrable et
2 2
| Gs1 = E MT2 (s2) − MT2 (s1) | FT (s1) .
E Bs2 − Bs1
i.e.
2 2
E Bs2 − Bs1 | Gs1 = E hM iT (s2) − hM iT (s1) | FT (s1) = E s2 − s1 | FT (s1) = s2 − s1 .
Donc le processus (Bs2 − s) est une martingale par rapport à (Gs ), i.e. hBis = s p.s., et
par le théorème de Lévy, (Bs ) est un mouvement brownien standard par rapport à (Gs ).
3.4. VARIATION QUADRATIQUE 55
Corollaire 3.2. Toute martingale continue de carré intégrable telle que limt→∞ hM it =
∞ p.s. s’écrit Mt = BhM it , où (Bt ) est un mouvement brownien standard. (BhM it =
MT (hM it ) = Mt par la continuité et croissance de t 7→ hM it p.s.)
Rt
Remarque 25. En mathématique financières sur cet actif et 0 Hs dBs , t ∈ [0.T ] représente
le gaine réaliser à l’instant t. De la même manière qui pour le cas discret (Ht )t≥0 doit
être prévisible pour qu’il n’y ait pas pas(délit d’un initie). Nous allons voir une manière
simple de traduire cette propriété de prévisibilité à a temps continue.
Première étape
Définition 3.13. un processus simple prévisible par rapport à une filtration (Ft )t est un
processus (Ht )t∈[0,T ] tel que Ht = ni=1 Xi 1]ti−1 ,ti−1 ] où 0 = t0 < t1 ..... < tn = T et Xi une
P
on voit donc que sur l’intervalle ]ti−1 , ti−1 ], la valeur du processus (Ht )t≥0 est donc
déterminer par la valeur Fi−1 , d’où le nom de ”prévisibilité” ’l’application simple vient
quant à elle du fais que le processus ne prend qu’un nombre fini de valeurs ”aléatoire” )
on pose
Z T X n
(H.B)T = Hs dBs = Xi (Bti − Bti−1 )
0 i=1
56 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU
cette définition de l’intégrale stochastique pour des processus simple prévisible est uni-
voque et l’intégrale est linéaire en H
on a Z T Z T Z T
(cH + K)s dBs = c (H)s dBs + (K)s dBs
0 0 0
RT
Remarque 26. L’IS 0 (H)s dBs représente en quelque sorte l’aire sous le courbe de
t −→ (H)t de 0 à T , lorsqu’on mesure les intervalles [ti−1 , ti−1 [ à l’aide du m.b (Bt )t≥0
Ici il faut faire attention quand on parle de mesure car
P
1. cette mesure ne vérifie pas non plus l’axiome ii) P (∪An ) = P (An ) de la définition
d’une mesure .
2. la mesure de [ti−1 , ti−1 [ par (Bt )t≥0 est Bti − Bti−1 peut être négative.
E(BT2 ) = T
Démonstration. n
X
E[(H.B)T ] = E(Xi (Bti − Bti−1 ))
i=1
n
X
= E(E(Xi (Bti − Bti−1 ))|Fti−1 )
i=1
n
X
= E(Xi E((Bti − Bti−1 ))|Fti−1 )
i=1
n
X
= E(Xi E((Bti − Bti−1 ))) = 0
i=1
3.4. VARIATION QUADRATIQUE 57
n
X n
X
2 2
= (Xi (Bti − Bti−1 ) + 2 E(Xi Xj (Bti − Bti−1 )(Btj − Btj−1 ))
i=1 i,j=1
n
X n
X
= E(Xi2 (Bti − Bti−1 ) + 2 2
E(E(Xi Xj (Bti − Bti−1 )(Btj − Btj−1 ))|Ftj−1 )
i=1 i,j=1
n
X
= E(Xi2 (Bti − Bti−1 )2
i=1
n
X n
X
= E(Xi2 (ti − ti−1 )) = (ti − ti−1 )E(Xi2 )
i=1 i=1
d’autre part
Z T Xn Z ti
2
E( (H)s ds) = E( (H)2s ds)
0 i=1 ti−1
d’où l’isométrie.
Remarque 28. L’isométrie d’Ito dit encore que si H et k sont 2 processus simple,et
RT
prévisible alorsE((H.B)T .(K.B)T ) = E( 0 Hs Ks ds) la vérifification
est simillaire á celle effectuée ci-dessus.
Deuxième étape
soit (Ht ) un processus simple et prévisible et t ∈ [0, T ]
RT
on pose (H.B)t = 0 Hs dBs = (H1[0,t] .B)T
= i=n
P
i=1 Xi (Bti ∧t − Bti+1 ∧t )
cette intégrale est encore linéaire en H et on a la proposition prćedente
E((H.B)t ) = 0 etE((H.B)2t ) = E((H1[0,t] .B)2T ))
RT Rt
= E( 0 Hs2 1[0,t] ds) = E( 0 Hs2 ds)
de plus,en utilisant la remarque précedante ,on peut encore calculer
58 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU
R t∧s
cov ((H.B)t , (K.B)s ) = E( 0
Hr .Kr dr)
Pi=k−1
Remarque 29. si t ∈]tk−1 , tk ] alors (H.B)t = i=0 Xi (Bti − Bti−1 ) + Xk (Bt − Btk−1 )
Proposition 3.22. le processus ((H.B)t )t∈[0,T ] est une martingale continue de carré intégrable
Troisième étape
On étend maintenant l’intégrale (H.B) par continuité á l’ensemble :
HT = (Ht , t ∈ [0, T ]) :H adapté contiue á gauche et admettant une limite á droite et tq
RT
E( 0 Hs2 ds) ≺ ∞
RT
cet ensemble est un espace vectoriel normé muni de la norme ||.||T1 définie par :E( 0 Hs2 ds)
d’autre part on entend par ” limie á droit” que le processus peut être discontinu á
droite mais doit tout de même avoir une limite depuis la droite (ie : ”le future”) ;cette
restriction essentiellement téchnique,elle assure que le processus soit suffisament règulier.
Lemme
R 3.1. ∀H ∈HT ;il existe une suite (H (n) ) de processus simple et prévisible telque :
T (n)
E 0 (Hs − H s )2 converge vers 0 lorsque n tends vers +∞
n−→∞
ie : ||Hn − H|| → 0
Conséquence :
Du fait que la suite H n converge ;elle égalemment une suite de cauchy
Z T
n;m−→∞
E (Hs(n) − Hs(m) )2 ds → 0
0
et donc on a :
E supt∈[0,T ] (H (n) .B)t − (H (m) .B)2t
Z T
(n) (m) 2 n;m−→∞
≤ 4E (Hs − Hs ) ds → 0
0
la suite de processus (H (n) .B) est donc une suite de cauchy dans l’ espace de Banach MT
definie par MT = {(Mt , t ∈ [0, T ]) martingale continue de carée intégrable tq M0 = 0}
et muni par la norme ||.||T2 = E supt∈[0,T ] Mt2 le fait que MT soit complet implique que
la suite (H (n) .B)converge dans MT .
Il existe donc un élèment de MT qu’ on notera (H.B) ∈ MT tq :
n→∞
E supt∈[0,T ] (H (n) .B)t − (H.B)2t −→ 0
HT −→ MT
H 7−→ (H.B)
Sous construction
(1)Xi estFti−1 - mesurable or ∀i ≤ k − 1 ona : Fti−1 ⊂ Ftk−1 ⊂ Ft
∀i ≤ k − 1Xi estFt - mesurable
(Bti − Bti−1 )estFti−1 - mesurable
donc ∀i ≤ k − 1 ;Bti − Bti−1 est Ftk−1 - mesurable donc Ft - mesurable
(1) = k−1
P
i=1 Xi (Bti − Bti−1 )
(2)Xk estFtk−1 - mesurable .
60 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU
E(Xt (Btk − Btk−1 )/Ft ) = Xk E((Btk−1 − Btk )/Ft )car : (Ftk−1 ⊂ Ftk )