Cours STOC

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 60

Table des matières

1 Rappels de probabilité 3
1.1 Espace de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Variables aléatoire : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.1 Indépendance de tribus . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.2 Indépendance de v.a . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5 Espérence condétionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Convergence des suites de variables aléatoires . . . . . . . . . . . . . . . . 20

2 Processus aléatoire à temps discret 25


2.1 marche aléatoire symétrique sur Z . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Chaine de Markov : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.1 chaine de Markov stationnaire . . . . . . . . . . . . . . . . . . . . . 26
2.3 Filtration et Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5 Intégrale stochastique discréte . . . . . . . . . . . . . . . . . . . . . . . . . 29

3 Processus aléatoire à temps continu 39


3.0.1 processus aléatoire à temps continue . . . . . . . . . . . . . . . . . 41
3.0.2 Processus à accroissements indépendants et stationnnaires . . . . . 41
3.1 Processus Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2 Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3 Integrale de Riemann-Stieltjis . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3.1 Integrale de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3.2 Fonction (localement) à variation bornée . . . . . . . . . . . . . . . 49
3.3.3 Integrale de Riemann-Stieltjes . . . . . . . . . . . . . . . . . . . . . 49
3.3.4 fonctions déterministes aux processus aléatoires . . . . . . . . . . . 50

1
2 TABLE DES MATIÈRES

3.4 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50


3.4.1 Variation quadratique du mouvement brownien standard . . . . . . 50
3.4.2 Intégrale stochastique(IS) . . . . . . . . . . . . . . . . . . . . . . . 55
Chapitre 1

Rappels de probabilité

1.1 Espace de probabilité


Définition 1.1. On appelle espace de Probabilité est un triplet (Ω, F, P) où :
-Ω est un ensemble
-F est une tribu (ou σ-algèbre).
-P est une (mesure de) probabilité sur (Ω,F)

Définition 1.2. Une tribu (ou σ-algèbre) sur Ω est la famille (F) de sous ensemble de
Ω (appelés évènements) telsque :
i)∅ ∈ F
ii)A ∈ F =⇒ Ac = A ∈ (F) .
S∞
iii) (An )∞
n=1 ∈ F =⇒ n=1 An ∈ F
S
En particulier AetB ∈ F =⇒ A B ∈ F
T
De même ,si AetB ∈ F =⇒ A B ∈ F (preuve en TD)

Exercice: 1. Soit Ω = {1, 2, ..., 6},on peut définir plusieurs tribus sur Ω.
F = {∅, 1, 1, 2, ..., Ω}=P(Ω) tribu complète (la plus grande des tribus)
F0 = {∅, Ω}=tribu triviale (la plus petite)
F1 = {∅, 1, 2, 3, 4, 5, 6, Ω}
F2 = {∅, 1, 3, 5, 2, 4, 6, Ω}...

Exercice: 2. Soit Ω = [0, 1] et I1 , I2 , I3 , ..., In une famille d’intervalles forment une par-
tition de Ω
La famille de sous ensembles définies par :

3
4 CHAPITRE 1. RAPPELS DE PROBABILITÉ
S S S S S S S
G = {∅, I1 , ..., In , I1 I2 , ..., I1 In , ..., In−1 In , ..., I1 I2 I3 , ..., In−2 In−1 In , ..., Ω}
est une tribu sur Ω.

Définition 1.3. Soit A = {Ai , i ∈ I} une famille de parties de Ω .On note σ(A) la
plus petite tribu qui contient A On appelle la tribu engendré par A (I n’est pas forcement
dénombrable )

Exercice: 3. Soit Ω = {1, 2, ..., 6} si A∞ = {{1}} Alors σA = F1

si A = {1, 2, 3} Alors σA2 = F2


si Ω = [0, 1] et si A = {I1 , ..., In } Alors σA = G

Définition 1.4. Soit Ω = [0, 1] .la tribu boorelinne sur [0, 1] est une tribu engendrée par la
familleA = ]0, 1[, 0 ≤ a < b ≤ 1 elle est noté B([0, 1]).On peut voir que B([0, 1]) 6= P([0, 1])

Remarque 1. -Pour tout Ω ensemble fini,on choisit souvent F = P(Ω)


-Pour Ω ∈ Rn où n ∈ N∗ ,on choisit souvent F=B(Ω)

Définition 1.5. Soit G une tribu ,si F une autre tribu tq F ⊂ G F est dite sous-tribu de
G

Exercice: 4. Reprenons l’exemple 1.2 :


F0 ⊂ F∞ ⊂ F ,F0 ⊂ F∈ ⊂ F

Définition 1.6. Soit F une tribu sur un esemble Ω ,une (mesure)de probabilité sur (Ω
,F) est une application P :F → [0, 1] tel que :
i)P(∅) = 0, P(Ω) = 1
S∞ P∞
ii) (An )∞
n=1 ⊂ F avec les An disjoints 2 à 2 alors P( n=1 An ) = n=1 P(An )

on peut voir que :si on a une suite croissante d’événements (An )n (Ai ⊂ Ai+1 , ∀i ∈ N
alors NN N P( ∞
S
n=1 An ) = limn→+∞ P(An ) et si (An )n est une suite décroissante (Ai+1 ⊂
Ai , ∀i ∈ N alors P( ∞
T
n=1 An ) = limn→+∞ P(An )

Définition 1.7. Soit Ω = [0, 1] et F = B(Ω). On appèlle mesure de lebesgue sur [0, 1],la
mesure de probabilité définie par :
P(]a, b[) = b − a ; ∀0 ≤ a < b ≤ 1
P n’est pas définie à priori que sur les intervalles ouvert, mais uniquement extensible à
tout ensemble borélien P ∈ B([0, 1]).Elle est notée P(B) =| B |.En utilisant la propriété
1.2. VARIABLES ALÉATOIRE : 5

ii) , on déduit que ∀n ∈ [0, 1]


| {x} |= P({x}) = P( ∞ 1 1 1 1 2
T
n=1 ]x − n , x + n [) = limn→+∞ (]x − n , x + n [) = limn→+∞ n = 0
∗Géniralisant à n dimensions
Soit Ω = [0, 1]n ,Soit A = {]a1 , b1 [×]a2 , b2 [, ..., ]an , bn [, 0 ≤ ai ≤ bi ≤ 1}
σ(A) = B(Ω) La mesure de lebesgue sur B(Ω) est définie par :
P(]a1 , b1 [×, ..., ]an , bn [) = ni=1 (bi − ai ) P est extensible à tout les évènements de B(Ω)
Q

,Notation P(B) =| B |.

1.2 Variables aléatoire :


Définition 1.8. Soit (Ω, F, P) un espace de Probabilité.Une variable aléatoire réelle (v.a)
est une application X : Ω −→ R telque {ω ∈ Ω, X(Ω) ∈ B} = {X ∈ B} ∈ F

Théorème 1.1. Si f (.) est une applications de Ω dans Ω0 muni d’une tribu A0 ,la classe
de parties de Ω ,f −1 (A0 ) = {f −1 (A0 ), A0 ∈ A0 } est une tribu appelée tribu réciproque de
A0 par f (.) ou tribu réciproque.

Démonstration. Elle resulte immédiatement de proprietés de f −1 (.) avec les opérations


d’ensemble .D’où une autre définition d’une fonction mesurable 

Définition 1.9. Soit 2 espaces mesurables (Ω, A) et (Ω0 , A)0 .Une fonction f : Ω → Ω0
sera dite mesurable si f −1 (A0 ) ⊂ A On peut aussi définir une tribu engendrée par une
famille de (v.a)Xi , i ∈ I Xi : Ω → Ωi

Définition 1.10. Soit (Xi )i∈I une famille d’applications définies à valeurs respectivement
dans (Ω0 , A)0 ,on appelle tribu engendré par la famille (Xi )i∈I la plus petite tribu rendant
mesurable.toutes les application (Xi ) Elle est notée σ(Xi , i ∈ I)

Dans la suite,on va voir un critère qui permet d’avoir la mesurabilité d’une fonction
sans être obligé de vérifier que f −1 (A0 ) ∈ A,∀A0 ∈ A0 (f : (Ω, A) → (Ω0 , A0 ) où A, A0 deux
tribus)

Théorème 1.2. Si f (.) une fonction définie de f : Ω → Ω0 et C 0 une classe de parties de


Ω0 alors f −1 (σ(C 0 )) = σ(f −1 (C 0 ))

Démonstration. on a
f (C 0 ) ⊂ f −1 (σ(C 0 )) donc σ(f −1 (C 0 )) ⊂ f −1 (σ(C 0 )) (car f −1 (σ(C 0 )) est un tribu)
−1

Inversement :
6 CHAPITRE 1. RAPPELS DE PROBABILITÉ

Notons A0f la tribu induite de σ(f −1 (C 0 )) par A0f = {A0 ⊂ Ω0 : f −1 (A0 ) ∈ σ(f −1 (C 0 ))}
on a C 0 ⊂ A0f ⇒ σ(C 0 ) ⊂ A0f d’où f −1 (σ(C 0 )) ⊂ f −1 (A0f ) ⊂ σ(f −1 (C 0 ))


Théorème 1.3. (Critère de mesurabilité) Si f(.) est une fonction définie de (Ω, A) dans
(Ω0 , A0 ) et si A0 = σ(C 0 ) .Une CNS pour que f(.) soit mesurable est que f −1 (C 0 ) ⊂ A

Démonstration. on a
f (A0 ) = f −1 (σ(C 0 )) = σ(f −1 (C 0 )) (D’aprés thm 2.5)
−1

f est mesurable ⇔ f −1 (A0 ) ⊂ A


⇔ σ(f −1 (C 0 )) ⊂ A
⇔ f −1 (C 0 ) ⊂ A


Proposition 1.1. X est un variable aléatoire si seulment si {ω ∈ Ω : X(ω) ≤ t} ∈


A, ∀t ∈ R
X : (Ω, A) −→ (R, B(R))

Théorème 1.4. Si f (.) et g(.) 2 fonctions mesurable réelles f, g : (Ω, F) → (R, B(R))
Alors les fonctions (αf ), (f + g) et (f × g) sont mesurables (où α ∈ R)

Démonstration. Soit t ∈ R ,α ∈ R∗ ,(α.f ≤ t) = (f ≤ αt ) ∈ B(R) D’aprés la propsi-


tion 2.7 (αf ) est mesurable...
-x ,→ (f (x), g(x)) est mesurable car f (.) et g(.) sont mesurables.
-(x, y) ,→ (x + y),et (x, y) ,→ xy sont mesurable donc f + g et f × g sont mesurables qui
composées de fonctions mesurables 

Théorème 1.5. Si (fn )n∈N est une suite de fonction mesurables définies sur (Ω, A) à
valeurs dans (R, B(R)) (ou dans (R, B(R))),les fonctions supn fn , inf n fn , lim sup fn et
lim inf fn sont mesurables.
T
Démonstration. (supn fn ≤ t) = n (fn ∈ A ≤ t) ∈ A
on voir aussi que
1) (fn )n ) mesurable ⇒ limn fn mesurable (si limn fn existe)
2)(fn )n ) mesurable ⇒ L’ensemble de convergence des fn est mesurable({ω ∈ Ω, fn (ω)converge} ∈
A)
1.3. INTÉGRATION 7

3)(fn )n ) mesurable ⇒ f + ,f − et | f | sont mesurables


4) si | f | mesurable ; f est mesurable 

1.3 Intégration

Définition 1.11. Une fonction réelle mesurable définie sur (Ω, A, µ) (µ une mesure sur
A) est dite étagée s’il existe A1 , . . . , An une partition de Ω telle que sur tout Ai , f (.) est
constante on pourra donc écrire f (.) sous la forme

n
(
X 1 si x ∈ Ai
f (x) = αi 1Ai , x ∈ Ω, αi ∈ R̄ où 1Ai (x) =
i=1
0 si sinon

Ex1 : si f et g sont 2 fonctions étagés alors af (.) avec a ∈ R,f + g f xg sont étagés.

Définition 1.12. soit (Ω, A, µ) un espace mesuré, l’intégrale d’une fonction f mesurable
Z n
X n
X
étagé positive est l’élément de R̄+ définie par f dµ = αi µ(Ai ) où f = αi 1Ai (on
i=1 i=1
adoptera la convention 0X∞ = 0).

R
Ex2 : on peut montrer que f dµ est ⊥ de la partie choisie pour défini f dans la suite
on notera :
ε+ l’ensemble
Z des fonctions
Z mesurable étagé positives définies sur(Ω, A, µ).
Notation : f dµ = f 1A dµ
A
Propriété de l’intégrale de fonction ε+ :
a) semi linéarité
Z Z
– af dµ = a f dµ
Z Z Z
– (f + g)dµ = f dµ + gdµ
Z Z
+
b) croissance soient f et g ∈ ε , si f ≤ g ⇒ f dµ ≤ gdµ
Z
+
c)si f ∈ ε , la fonction suivante définie sur A par f µ(A) = f dµ est une mesure.
A

– positivité c’est par définition.


8 CHAPITRE 1. RAPPELS DE PROBABILITÉ

n
X
– la σ− additive soit B = ∪∞
j=1 Bj , Bj ∈ A et f = αi 1Ai , Bi ∩ Bj = ∅ ∀i 6= j
i=1

Z Z ∞
X ∞ X
Z X ∞ ∞
X ∞
X
fµ (B) = f dµ = αi 1Ai = αi 1Ai ∩Bj = αi µ(Ai ∩ Bj )
B ∪∞
j=1 B i=1 i=1 j=1 i=1 j=1

∞ X
X ∞
= αi µ(Ai ∩ Bj )
i=1 j=1

(car termes positifs)


∞ Z X
X ∞
= αi 1Ai ∩Bj dµ
j=1 i=1

∞ Z X
X ∞
= ( αi 1Ai ) 1Bj dµ
j=1 i=1

∞ Z
X X∞ ∞ Z
X ∞
X
= ( αi 1Ai ) dµ = f dµ = fµ (Bj )
j=1 Bj i=1 j=1 Bj j=1

d) si fn est une suite croissante


Z de fonctions
Z de ε+ et g une fonction de ε+ tel que
R
f ≤ lim fn alors on a gdµ ≤ lim fn dµ (la limn−→∞ fn n’appartient forcement
n−→∞ n−→∞
+
à ε ).
En effet :
Z c ∈]0, 1[
soit Z et An = {fnZ ≥ cg}An ∈ A, ∀n ∈ N
fn dµ ≥ fn dµ ≥ c gdµ (croissance)
An An
lorsque n −→ ∞, An % Ω donc , ∀c ∈]0, 1[
Z Z Z
lim fn dµ ≥ lim fn dµ ≥ lim c gdµ = lim cgµ(An )
n−→∞ n−→∞ An n−→∞ An n−→∞

Z
= cgµ(Ω) = gdµ

d’où Z Z
lim fn dµ ≥ gdµ
n−→∞
1.3. INTÉGRATION 9

Inversement : pour g = limn−→∞ fn c’est g de la propriété d) alors


Z Z
lim fn dµ ≥ lim fn µ
n−→∞ n−→∞

intégration des fonctions interastrales positives

Définition 1.13. on appelle intégrale d’une fonction mesurable positive f : (Ω, A) −→


(R¯+ , B(R¯+ )) l’élément de R¯+ ,
Z Z
f dµ = sup gdµ
g∈ε+ g≤f

cette définition est difficilement exploitable car elle faut intervenir toutes les fonctions
+
Z ε qui sont ≤ f . c’est pourquoi on donnera un important théorème qui caractérise
de
f dµ d’une manière plus opérationnelle.

Théorème 1.6. (théorème de représentation des fonctions mesurables positives)


si f une fonction mesurable positive f : (Ω, A) −→ (R¯+ , B(R¯+ )) il existe une suite (fn )n∈N
de ε+ tel que lim fn = f et pour toute suite de ce type
n−→∞

Z Z
lim fn dµ = fµ
n−→∞

n2n −1
X k
Démonstration soit f une fonction mesurable positive, on pose fn = 1 k k+1 +
n [ 2n ≤f ≤ 2n ]
k=0
2
n1f ≤n soit maintenant une suite (fn )n∈N quelconque vérifiant les condition de l’énoncé
(on sait qu’il existe au moins 1)
on a
lim fn = f
n−→∞

donc Z Z
∀n ∈ N fn dµ ≤ f dµ

Inversement : soit g ∈ ε+ tel que g ≤ f on a grâce à d) du paragraphe précédent


Z Z
lim fn dµ ≥ gdµ
n−→∞

donc Z Z
lim fn dµ ≥ sup{g∈ε+ ,g≤f } gdµ
n−→∞
10 CHAPITRE 1. RAPPELS DE PROBABILITÉ

ie Z Z
∀n ∈ N fn dµ ≥ f dµ

Propriété de l’intégrale d’une fonction mesurable positive :


a) semi linéarité

Z Z
– af dµ = a f dµ ∀a ∈ R
Z Z Z
– (f + g)dµ = f dµ + gdµ

b) croissance

Z Z
– f ≤ g alors f dµ ≤ af dµ

c) continuité croissance(Propriétè de Beppo Levi)


Z Z
lim fn dµ = lim fn dµ si fn %
n−→∞ n−→∞

En effet :

∀n, fn ≤ lim fn
n−→∞
Z Z
⇒ fn dµ ≤ lim fn dµ
n−→∞
Z Z
⇒ lim fn dµ ≤ lim fn dµ
n−→∞ n−→∞

Inversement : la propriété d) du paragraphe précédent reste vrai si g ∈ ε+ mais les fn


sont positive ,
g ≤ lim fn = f
n−→∞

on a Z Z
gdµ ≤ lim fn dµ
n−→∞
Z Z Z
⇒ sup gdµ = f dµ ≤ lim fn dµ
{g∈ε+ ,g≤f } n−→∞

d) σ-additive

Z X ∞ Z
X
fn dµ = fn dµ
n= n=

En effet
1.3. INTÉGRATION 11


X m
X
fn = lim fn
m−→∞
n= n=

e) Propriété de Fatou
Z Z
lim inf fn dµ = lim inf fn dµ fn mesurable
n−→∞ n−→∞

En effet
Z Z
lim inf fn dµ = lim % ( inf fn )dµ
n−→∞ n−→∞ n>m
Z
= lim % ( inf fn )dµ
m−→∞ n>m

or
inf fn ≤ fn ∀n ∈ N
n>m

Donc Z Z
inf fn dµ ≤ fn dµ ∀n ∈ N
n>m

Donc Z Z Z
lim inf fn dµ ≤ lim % inf fn dµ = lim inf fn dµ
n−→∞ n−→∞ n>m n−→∞

Fonctions mesurables intégrable


DéfinitionZ 1.14. une fonction mesurable
Z définie
Z de (Ω, A, µ) vers
Z (R, B(R)) est dite in-
f + dµ − f − dµest noté
R
tegrable si |f |dµ > ∞ le nombre f dµ ( Ω f (ω)dµ(ω)).

propriété 1.1. a) ℵR1 l’ensemble des fonctions mesurables intégrables, est un espace sur
R.
b) Linéarité
Z : Z
– af dµ = a f dµ ∀a ∈ R
Z Z Z
– (f + g)dµ = f dµ + gdµ
– (f + g)+ − (f + g)− = (f )+ + (g)+ − (f )− − (g)−
c) croissance Z Z
– f ≤ g alors f dµ ≤ gdµ
Z Z
d) | f dµ| ≤ |f |dµ

Définition 1.15. soit XZ une v.a X : (Ω, A, P ) −→Z (R, B(R) Z


X est dite intégrable si |X|dP < ∞ et E(X) = X + dµ − X − dP est appelé esper-
12 CHAPITRE 1. RAPPELS DE PROBABILITÉ

luette de la v.a X.

– si E(X) = 0 on dit que X est centré.


– si E(X 2 ) < ∞ on dit que X est carré intégrable
– (f + g)+ − (f + g)− = (f )+ + (g)+ − (f )− − (g)−
X est borné si ∃K > 0 tq |X(ω)| ≤ K.

Remarque X est bornée ⇒ E(X 2 ) < ∞ ⇒ E(X 2 ) < ∞

propriété 1.2. soit X une v.a et g : R −→ R une fonction borélienne tel que E(|g(X)|) <

X
a) si X est une v.a.d (à valeurs dans D dénombrable) E(g(X)) = g(x)P (X = x)
Z x∈D

b) si X est une v.a.c admettant une densité E(X) = g(x)f (x)dx


R

variance et covariance de v.a


– var(X) = E((X − E(X)2 ) = E(X 2 ) − (E(X))2
– cov(X, Y ) = E[(X − E(X)(Y − E(Y )] = E(XY ) − E(X)E(Y )
Terminologie

– un événement A ∈ F est dit négligeable si P (A) = 0.


– un événement A ∈ F est dit presque sûr si P (A) = 1.
si A est négligeable alors Ā est presque sûr. Ex3.9 : soit X v.a tel que P (X = a) = 1 p.s
on dit que X = a presque sûrement (ie X = a p.s)

Proposition 1.2. si An ) ⊂ F est une famille d’événement négligeable alors ∪n≥1 An ) est
X
négligeable, puisque P (∪n≥1 An ) ≤ P (An ) .
n≥1

Ex3.11 : l’ensemble A = [0, 1]∩Q est négligeable pour la mesure de |{x}| = 0 ∀x ∈ [0, 1]
Inégalité de Cauchy- Schwarz
soit 2 v.a X et Y de carré intégrable Alors
– XY est intégrable.
– (E(|XY |))2 ≤ E(X 2 )E(Y 2 )
Démonstration

1 1
– |ab| ≤ (a2 + b2 ) =⇒ E(|XY |) ≤ (E(X)2 + E(Y )2 )
2 2
1.4. INDÉPENDANCE 13
Z
– si on définit < X, Y >= XY dP
Z
2 2 2
| < X, Y > | ≤ kXk kY k =⇒ ( |X||Y |dP )2 ≤ E(X 2 )E(Y 2 )

Inégalité triangulaire
soit 2 v.a X et Y intégrables Alors E(|X + Y |) ≤ E(X) + E(Y )
Inégalité de Jensen
soit X une v.a et ϕ : R → R une fonction borélienne et convexe tel que E(|ϕ(X)|) < ∞
alors
ϕ(E(X)) ≤ E(ϕ(X))

Démonstration vu que ϕ est convexe on a ϕ(x) = sup (ax + b)


{a,b:ax+b≤ϕ(y),∀y}
on a

ϕ(E(X)) = sup (aE(X) + b) ≤ E( sup (aX + b)) = E(ϕ(x))


{a,b:ax+b≤ϕ(y),∀y} {a,b:ax+b≤ϕ(y),∀y}

Exemple2.12 : si X = a ou b a, b ∈ R avec les probabilité 21 , 12 respectivement et ϕ une


a+b ϕ(a) + ϕ(b)
fonction borélienne convexe ϕ(E(X)) = ϕ( )≤ = ϕ(E(X))
2 2

ϕ(pa + (1 − p)b) ≤ pϕ(a) + (1 − p)ϕ(b)

Inégalité de Chebychev( ou Markov)


soit X v.a et Ψ : R =⇒ R borélienne et croissante tel que Ψ(a) 6= 0 ∀a ∈ R alors :

E(Ψ(X))
P (X ≥ a) ≤ ∀a ∈ R
Ψ(a)

Démonstration
Z
E(Ψ(X)) ≥ E(Ψ(X)1X≥a ) = Ψ(a)P (X ≥ a) Ψ(X)dP
X≥a
Z
≥ Ψ(a)dP = Ψ(a)P (X ≥ a)
X≥a

1.4 Indépendance
Définition 1.16. deux evenement A et B (∈ F ) sont indépendants (⊥) si P (A ∩ B) =
P (A)P (B)
Notation A ⊥ B
14 CHAPITRE 1. RAPPELS DE PROBABILITÉ

conséquence si A ⊥ B ⇔ Ā ⊥ B

P (B) = P (B ∩ (A ∪ Ā) = P ((B ∪ A) ∩ (B ∪ Ā)) = P (B ∪ A) + P (B ∪ Ā)

Donc

P (B ∪ Ā) = P (B) − P (B ∪ A) = P (B) − P (A)P (B) = P (B)(1 − P (A)) = P (Ā)P (B)

Définition 1.17. n événement A1 , ..., An ∈ F sont indépendant si


n
Y
P ∪ni=1 A∗i = P (A∗i ) où A∗i = Ai ou Āi
i=1

Proposition 1.3. n événement A1 , ..., An ∈ F sont indépendant si


Y
P (∪i∈I Ai ) = P (Ai ), ∀I ⊂ {1, ..., n}
i∈I

n
Y
Démonstration ⇒) supposons que Jn : P (∪ni=1 A∗i ) = P (A∗i )
i=1

P (∪ni=1 A∗i ) = P (∪ni=1 A∗i ) + P (∪ni=1 A∗i ∩ Ā∗n )

n−1
Y n−1
Y
= P (A∗i )(P (A∗n + P (Ā∗n )) = P (A∗i ) ⇒ Jn−1
i=1 i=1

de la même maniérer on peut montrer que ∀2 ≤ p ≤ n Jp ⇒ Jp−1


Il suffit de prendre ensuite A∗i = Ai
Y
pour avoir J : P (∪i∈I Ai ) = P (Ai ), ∀I ⊂ {1, ..., n}
i∈I

⇔ P (A1 ∩ A2 ∩ ....An−1 ∩ An ) = P (A1 ∩ A2 ∩ ....An−1 ) − P (A1 ∩ .... ∩ An )

n−1
Y n
Y n−1
Y
= P (Ai ) − P (Ai ) = P (Ai )P (Ān ), R(n, 1)
i=1 i=1 i=1

d’où J ⇒ R(n, 1) et J ⇒ R(n − 1, 1) de la même manière


( (
R(n, 1) R(n, 2)(∗)

R(n − 1, 1) R(n − 1, 2)(∗∗)

(∗)P (A1 ∩ A2 ∩ ....Ān−1 ∩ Ān ) = P (A1 ∩ A2 ∩ ....Ān−1 ) − P (A1 ∩ .... ∩ Ān−1 ∩ An ))


1.4. INDÉPENDANCE 15

n−2
Y n−2
Y
= P (Ai )P (Ān−1 ) − P (Ai )P (An )P (Ān−1 )
i=1 i=1

n−2
Y
= P (Ai )P (Ān )P (Ān−1 )
i=1

(∗∗)P (A1 ∩A2 ∩....Ān−2 ∩ Ān−1 ) = P (A1 ∩A2 ∩....Ān−2 )−P (A1 ∩....∩An−3 ∩An−2 ∩An−1 )

soit p < n Montrons que


( (
R(n, p − 1) R(n, p − 2)(1)

R(n − 1, p − 1) R(n − 1, p − 2)(2)

(1)P (A1 ∩A2 ∩....An−p ∩Ān−p+1 ....∩Ān ) = P (A1 ∩A2 ∩....An−p ∩Ān−p+1 ....∩Ān−1− )−P (A1 ∩....∩Ān−1 ∩An ))

(2)P (A1 ∩A2 ∩....An−p−1 ∩Ān−p ∩Ān−1 ) = P (A1 ∩A2 ∩....Ān−2 )−P (A1 ∩....∩An−3 ∩Ān−2 ∩An−1 )

1.4.1 Indépendance de tribus


Définition 1.18. soit une famille de tribu (F1 , ..., Fn ) d’une tribu F F1 , ..., Fn sont dite
indépendantes ssi P (A1 ∩ A2 ... ∩ An ) = P (A1 )P (A2 )...P (An ) ∀Ai ∈ Fi i = 1, ..., n

Proposition 1.4. soit A1 , ..., An n événement σ(A1 ), ..., σ(An ) sont indépendantes ssi
A1 , ..., An sont indépendantes.

1.4.2 Indépendance de v.a


Définition 1.19. une famille X1 , ..., Xn de v.a F −mesurable est indépendantes ssi σ(X1 ), ..., σ(Xn )
l’est.

Proposition 1.5. X1 , ..., Xn une famille de v.a ⊥ ssi {{X1 ≤ t1 }, ..., {Xn ≤ tn }} sont
indépendantes ∀t1 , ..., tn ∈ R.

Exemple 4.8 si X(ω) = c, ∀ω ∈ Ω alors X ⊥ Y (∀Y v.a)


Ex 4.9 si X ⊥ Y , g et h 2 fonctions borélienne g(X) ⊥ h(Y ) viens du faite que g(X) est
σ(X)−mesurable h(Y ) est σ(Y )−mesurable
X ⊥ Y ⇒ σ(X) ⊥ σ(Y )
(
σ(g(X)) ⊂ σ(X)
⇒ σ(X) ⊥ σ(Y ) ⇒ g(X) ⊥ h(Y )
σ(h(Y )) ⊂ σ(Y )
16 CHAPITRE 1. RAPPELS DE PROBABILITÉ

Proposition 1.6. Soit c ∈ R et X ,Y deux v.a indépendantes de carré intégrable alors

E(XY ) = E(X)E(Y ) et var(cX + Y ) = c2 var(X) + var(Y )

Démonstration. Passe par considérer que X et Y des indicatrices puis à une fonction
étagée . . . .


Exemple 1. Soient X1 et X2 deux v.a indépendantes et tel que :Xi ∼ N (0, 1) les v.a
1
X1
R = (X12 + X22 ) 2 et H = Arctg( X2
) sont aussi indépendantes .

Proposition 1.7. Soit X ⊥ Y ,X et Y v.a.c possedant une densité conjointe fX,Y (., .)
RR
P ((X, Y ) ∈ B) = f (x, y)dxdy alors
B X,Y

fX,Y (x, y) = fX (x)fY (y)

1.5 Espérence condétionnelle


Conditionnement par rapport à un événement B ∈ F
Soit
X : (Ω, F) −→ (R, B(R))
P (A∩B)
Soit A et B ∈ F P (A/B) = P (B)
P (B) 6= 0 On suppose que E(| X |) < ∞ et B ∈ F tel
que : P (B) 6= 0 P (X/B) = P (A∩ 1B )
P (B)
Conditionnement par rapport à une v.a Y .
Y à valeur dans D dénombrables Y (Ω, F) −→ D
Soit A ∈ F P (A/Y ) = f (Y ) où f (y) = P (A/Y = y) et ∈ D
P(A/Y) est une v.a P (A/Y )(ω) = P (A/Y = y)(ω)
E(X 1Y =y )
Soit X v.a intégrable E(X/Y ) = f (Y ) où f (y) = E(X/Y = y) = P (Y =y)

Exemple 2. Soit (X1 , Y2 ) les résultats de jets ⊥ de deux dés .


E(X1 + X2 /X2 ) = f (X2 ) où

E((X1 + X2 )1X2 =y ) E(X1 1X2 =y + X2 1X2 =y ) E(X1 1X2 =y )


f (y) = E(X1 +X2 /X2 = y) = = = +y
P (X2 = y) P (X2 = y) P (X2 = y)

f (y) = E(X1 /X2 = y) + y = E(X1 ) + y

Donc E(X1 + X2 /X2 ) = E(X1 ) + X2


1.5. ESPÉRENCE CONDÉTIONNELLE 17

Conditionnement par rapport à une tribu :


Soit (Ω, F, P ) un espace de probabilité , X v.a F − mesurable tel que E(| X |) < ∞ et G
sous tribu de F

Théorème 1.7. il existe v.a Z tel que E(| Z |) 6= ∞ et :

1. Z est une v.a G − mesurable


2. E(XU ) = E(ZU )∀U G − mesurable

Rappel
On considère un espace préhibertienne E,F s.e.v de E
∀x ∈ E, ∃!x0 ∈ F tel que : < x − u, x0 >= 0 ∀ u ∈ F ou bien que x0 et tel que :
kx − x0 k = minu∈F kx − uk , x0 est noté par rF (x) on note Z = E(X/G)

Définition 1.20. On pose P (A/G) = E(1A /G) où A ∈ F

Définition 1.21. Soit X et Y deux v.a X,Y :(Ω, F) −→ (R, B(R))


R R
E(X/σ(Y )) est définie par XU dP = E(X/σ(Y ))U dP ∀U σ(Y ) − mesurable tel que :
U = g(Y ) i.e Z Z
Xg(Y )dP = E(X/σ(Y ))g(Y )dP ∀

g(.) borelienne borné .

E(X/σ(Y )) = h(Y ),h borelienne bornée et on note h = E(X/Y )


Z Z Z
Xg(Y )dP = E(X/Y )(Y )g(Y )dP = E(X/Y )(y)g(y)dY (P )(y)

si g = 1B g(Y ) = 1B ◦ Y = 1Y −1 (B) = 1Y ∈(B)


R R
Y ∈B
XdP = B
E(X/Y )(y)dY (P )(y)
Alors si ∀B ∈ B(R) et Z est borelienne Z : R −→ R
R R
−1
Y (B)
XdP = B
ZdY (P ) alors Z = E(X/Y )

Exemple 3. Soit X et Y deux v.a continues admettant une densité conjointe fX,Y (., .)
tel que E(| X |) < ∞ alors E(X/σ(Y )) = f (Y ) où f = E(X/Y )
Z Z
1
f (y) = E(X/Y )(y) = E(X/Y = y) = xfX,Y (x, y)dx fY (y) fX,Y (x, y)dx
fY (y) R
18 CHAPITRE 1. RAPPELS DE PROBABILITÉ

Démonstration. f(.) est borelienne donc f (Y ) est σ(Y ) − mesurable


On va montrer que g(.) est borelienne bornée E(Xg(Y )) = E(f (Y )g(Y ))
on a
Z Z Z
1
E(f (Y )g(Y )) = f (Y )g(Y )fY (y)dy = xfX,Y (x, y)dxg(y)fY (y)dy
R R fY (y) R

Z Z
= xg(y)fX,Y (x, y)dxdy = E(Xg(Y ))

Propriétés de l’éspérence conditionnelle :


Soit X, Y deux variables aléatoires intégrable.
i Linéarité
E(cX + Y |G) = cE(X|G) + E(Y |G)
En effet :

soit U une variable aléatoire G− mesurable

E((cX + Y )U ) = cE(XU ) + E(Y U )

= cE(U E(X|G)) + E(U E(Y |G))

= E(cU E(X|G) + U E(Y |G))

= E((cE(X|G) + E(Y |G))U )

i Positivité - Monotonie
Si X ≥ Y ps =⇒ E(X|G) ≥ E(Y |G) ps
En effet :

Si Z ≥ 0 ps =⇒ E(Z|G) ≥ 0 ps
R R
car ∀A ∈ G , A ZdP = A E(Z|G)dP ≥ 0
=⇒ E(Z|G) ≥ 0 ps (car E(Z|G) est G-mesurable)
i E(E(X—G))=E(X)
R R
puisque ∀A ∈ G , A E(X|G)dP = A XdP en particulier pour A = Ω

i Si X ⊥ G , E(X|G) = E(X)
En effet :

Soit A ∈ G ,
1.5. ESPÉRENCE CONDÉTIONNELLE 19

R R
A
XdP = X1A dP = E(1A X)
= E(1A X) = E(1A )E(X)
R
= A E(X)dP
E(X) est une constante donc σ− mesurable.

i Si Y est G− mesurable bornée alors E(XY |G) = Y E(X|G) ps


En effet :

Soit U − mesurable bornée


R R R R
Y E(X|G)U dP = E(X|G)(Y U )dP = X(Y U )dP = XY U dP
=⇒ E(XY |G) = Y E(X|G) puisque Y E(X|G) est G− mesurable.

i Soit H ⊂ G ⊂ F . Alors,

E(E(X|H)|G) = E(E(X|G)|H) = E(X|H)

En effet :

– E(X|H) est H− mesurable donc G− mesurable.

E(E(X|H)|G) = E(X|H)

– Soit U H− mesurable bornée.


R R
U E(X|H)dP = E(U X|H)dP = E(E(U X|H)) = E(U X)
= E(E(U X|G)) = E(U E(X|G)))
E(E(X|G)|H) = E(X|H)

propriété 1.3. Si X⊥G , Y est G− mesurable et ϕ : R2 =⇒ R est borélienne et telle


que E(| ϕ(X, Y ) |) < ∞ alors
E(| ϕ(X, Y ) | |G) = ψ(Y ) où ψ(y) = E(ϕ(X, y))

Preuve. Prendre ϕ = 1A×B ,A, B ∈ β(R)


P
Ensuite ϕ = αi 1Ci
ci = Ai × Bi −→ ϕ positive, ϕ = lim ϕn , ϕn ∈ ε+ 

propriété 1.4. de Jensen


20 CHAPITRE 1. RAPPELS DE PROBABILITÉ

Soit X variable aléatoire et G sous tribu de F et ϕ : R → R convexe telle que E(| ϕ(X) |
) < ∞ alors
ϕ(E(X|G)) ≤ E(ϕ(X)|G)

Preuve. Pareille à Jensen classique. 

1.6 Convergence des suites de variables aléatoires


soit (Xn )∞
n=1 une suite de variables aléatoires et X une autre variable aléatoire toutes
définies sur (Ω, F, P ) , il y a plusieurs façons de définir la convergence de Xn vers X .
Convergence en probabilité :
P n→+∞
Xn −→ X si ∀ε > 0 , P (| Xn − X |> ε) −→ 0

Convergence presque sûr :


Xn −→ X p.s si P (w : limn→+∞ Xn (ω) = X(ω)) = 1
P
Remarque 2. Si Xn −→ X p.s alors Xn −→ X
En effet :

Supposons que Xn −→ X p.s


=⇒ ∃Ω0 ⊂ Ω tel que P (Ω0 ) = 1 et ∀ω ∈ Ω0 , Xn (ω) −→ X(ω)
=⇒ ∀ω ∈ Ω0 , ∀ε > 0 , ∃N ∈N , ∀n ∈ N | Xn (ω) − X(ω) |< ε
Soit ω ∈ Ω0 ⇒ ω ∈ Ωε ∀ε > 0 où Ωε =
S T
(| Xn − X |< ε)
S T N ∈N n≥N
=⇒ P (Ωε ) = 1 =⇒ P ( (| Xn − X |< ε)) = 1
S T N ∈N n≥N
=⇒ P ( (| Xn − X |≥ ε)) = 0
N ∈N n≥N

S
⇒ lim P ( |Xn − X| ≥ ε) = 0
N →+∞ n≥N T
⇒ lim P (|Xn − X| ≥ ε) = 0 ( An & P ( An ) = lim P (An ) )
N →+∞ n≥1 n→+∞

Remarque 3. La réciproque n’est pas vraie , le contre exemple :


considérons une suite 
de pile ou face indépendante et équilibrée
1 si pile
on définit X1 = 1p = , X2 = 1f , X3 = 1pp , X4 = 1pf , X5 = 1f p , X6 =
0 sinon
1f f , X7 = 1ppp , X8 = 1ppf , X9 = .....
La suite Xn → 0 en probabilité puisque ∀ε > 0 , P (|Xn | > ε) = P (Xn = 1) → 0 on a pas
1.6. CONVERGENCE DES SUITES DE VARIABLES ALÉATOIRES 21

la convergence p.s vers 0 car l’événement Xn = 1 est toujours possible , ce la veut dire
que Xn ne tent pas vers 0 p.s

Critère de la convergence pesque sûr :


Xn → Xp.s ⇐⇒ P ({w ∈ Ω, |Xn (w) − X(w)| > ε pour une infinité de n})=0
En effet :
Soit ε > 0 et Aε = {w ∈ Ω, |Xn (w) − X(w)| > ε pour une infinité de n}
Soit w ∈ Aε ⇒ ∃ une infinité de n telle que |Xn (w) − X(w)| > ε
⇒ Xn (w) 9 X(w)
0
⇒ w ∈ Ω̄0 où Ω = {w : Xn (w) → X(w)}
⇒ Aε ∈ Ω̄0 ⇒ P (Aε ) = 0
0
⇐=) Soit w ∈ / Ω ⇒ Xn (w) 9 X(w)
⇒ ∃ ε0 > 0 , ∀N ∈ N, ∃n ≥ N tel que |Xn (w) − X(w)| > ε0
⇒ ∃ ε0 > 0 tel que w ∈ {|Xn (w) − X(w)| > ε0 pour une infinité de n}
⇒ w ∈ Aε0 et P (Aε0 ) = 0
0
⇒ Ω̄0 ⊂ Aε0 ⇒ P (Ω̄0 ) = 0 ⇒ P (Ω ) = 1
Convergence en moyenne d’ordre p :
p ∈ N∗ , limn→+∞ E(|Xn − X|p ) = 0 (convergence dans Lp )
* Convergence en moyenne si p = 1
* Convergence quadratique si p = 2
* Convergence dans L2 ou L1 ⇒convergence en probabilité par Chebychev :
E(|Xn − X|2 ) n→+∞
P (|Xn − X| > ε) < −→ 0
ε2
L2 P
Ψ(x) = x2 =⇒ (Xn −→ X =⇒ Xn −→ X)
L1 P
Ψ(x) = |x| =⇒ (Xn −→ X =⇒ Xn −→ X)

Lemme de Borel Cantelli B-C :


Soit An une suite d’événements de F
+∞
P
a) Si P (An ) < ∞ alors P {w ∈ Ω : w ∈ An pour une infinité de n} = 0
n=1
+∞
b) Si (An )∞
P
n=1 sont indépendantes et P (An ) = ∞ alors
n=1
P {w ∈ Ω : w ∈ An pour une infinité de n} = 1
Application :
+∞
X
E(|Xn − X|2 ) < ∞ =⇒ Xn −→ X p.s
n=1
22 CHAPITRE 1. RAPPELS DE PROBABILITÉ

En effet :
+∞ +∞
1
E(|Xn − X|2 ) < ∞ ∀ε > 0 fixé d’aprés B-C a) on a
P P
On a P {|Xn − X| > ε} ≤ ε2
n=1 n=1
∀ε > 0 , P ({ω ∈ Ω : |Xn (ω) − X(ω)| > ε} pour une infinité de n}) = 0 et pour le critère
de convergence énoncé ci-dessus Xn → X p.s. Preuve.
+∞
P N
P
a) Si P (An ) < ∞ ⇒ lim P (An ) = 0(*)
n=1 N →+∞ n=1
Supposons que P (A) > 0
Soit ω ∈ A , ∀N ∈ N , ∃n ≥ N tq ω ∈ AN
T S T S
⇒ω∈ An ⇒ P ( An ) > 0
N ∈N n≥N
S N ∈N n≥N
⇒ lim P ( An ) > 0 ce qui contredit (*)
N →+∞ n≥N

b) Soit ω ∈ A ⇒ ∃N ∈ N , ∀n ≥ N , ω ∈ An
T
⇒ ∃N ∈ N , ω ∈ An
n≥N
S T
⇒ ω∈ An or
N ∈N n≥N

\ Q
P( An ) = P (An )
n≥N n≥N

+∞
Y
= (1 − P (An ))
n=N
+∞
Y P (An )2 P (An )3
≤ (1 − P (An ) + − + ...)
n=N
2! 3!
Y
= exp(−P (An ))
n≥N
+∞
X
= exp(− P (An )) = 0
n=N

T
∀N , An est négligeable
n≥N
S T
d’où, An est négligeable d’où,P (A) = 0 et P (A) = 1.
N ∈N n≥N


a) Loi des grandes nombres (LGN)(forte) :


Soit (Xn )n une suite de variables aléatoire et équidistribuées et
Sn = X1 + X2 + ... + Xn si E(|X1 |) < ∞ alors Snn = Xn −→ E(|X1 |) p.s
b) Loi faible des grandes nombres :
1.6. CONVERGENCE DES SUITES DE VARIABLES ALÉATOIRES 23

soit(Xn )n une suite de v.a independantes et ayant le même esperance et le même variance
alors Xn −→ E(X1 ) en probabilité.

Remarque 4. si on suppose l’hypothèse E(| X1 |) < ∞ alors on auras :


Sn
1. n
diverge p.s lorsque n −→ ∞.
2. si limaP (X1 > a) = 0 alors Xn = E(X1 .1|X1 |≤n ) −→ 0.

Exemple.
Soit(Xn )n une suite de pile(1) et de face (0) independants et équilibrées du fait que
E(X1 ) = 12 on a pour la lois forte des grand nembre Snn → 12 p.s.
-convergence en loi :
soit (Xn )n une suite de v.a définie sur (Ω, F, P )F X n la fonction de repartion de Xn
(F X n (t) = P (Xn ≤ t) ∀t ∈ R).
on dit que Xn converge vers x en loi si F X n (t) −→ F X (t) R t pts de discontinuité de
F(.).on note Xn ⇒ x

Théorème 1.8. Thoerème central limite :(T.C.L)


soit (Xn )n une suite de v.a iid tq E(| X1 |) < ∞ ou l’on note E(X1 = µ) et var(X1 = σ 2 )
−nµ
Sn √ −nµ
Sn √
Rt −1 2
−→ Z ∼ N (0, 1) .i.e P ( ≤ t) −→ √1 e 2 x dx = φ(t) ∀t ∈ R φ(.) fonc-
σ n σ n 2Π −∞
tion de repartion de N(0,1).

1 1
Exercice : Soit(Xn )n une suite de pile et de face,P (X1 = 1) = 2
; E(X1 = a
);
S −n
V ar(X1 = 41 ) donc 1n√na ⇒ N (0, 1).
2
24 CHAPITRE 1. RAPPELS DE PROBABILITÉ
Chapitre 2

Processus aléatoire à temps discret

2.1 marche aléatoire symétrique sur Z


soit (Xn )n une suit de variable aléatoire iid tel que p(X1 = 1) = p(X1 = −1) = 21 est
S0 = 0,Sn = X1 + ... + Xn , le processus (Sn ,n ∈ N) est appelé marche aléatoire symétrique
sur Z.
deux points de vus possible :

1. (Sn , n ∈ N ) une famille de variable aléatoire à valeurs dans Z,


(
Ω 7→ {suit(Zn , n ∈ N) à valeurs dans Z},
ω 7→ S(ω) = (Sn (ω), n ∈ N) à valeurs dans Z,

Remarque 5. E(X1 ) = 0 ⇒ E(Sn ) = 0.


V ar(X1 ) = E(X12 ) = 1 ⇒ V ar(Sn ) = ni=1 V ar(Xi ) = n.
P

– Loi forte des grands nombres : Snn → 0 p.s.


Sn √
– Thoerème central limite : √ n
⇒ Z ∼ N (0, 1) (i.eSn ' nZ).

Généralisations.

– Marche aléatoire asymétrique sur Z


Sn = X1 + ... + Xn ,Xi sont iid , P (X1 = 1) = 1 − P (X1 = −1) = p 6= 12 .
– Marche aléatoire à valeurs R :
Sn = X1 + ... + Xn , Xi sont iid Xi ∼ N (0; 1).
– Temps continu : mouvement Brounien.

25
26 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET

2.2 Chaine de Markov :


Chaine de Markov est un processus aléatoire à temps discret (Mn , n ∈ N) à valeurs un
ensemble dénombrable D (appelé espace des états) tq :
P (Mn+1 = xn+1 \ Mn = xn= , Mn−1 = xn−1 , ....., M0 = x0 )=P (Mn+1 = xn+1 \ Mn = xn )
(C’est un processus qui oblie son passé au fur et à mesure).

2.2.1 chaine de Markov stationnaire


C’est une chaine de Markov tq : P (Mn+1 = y\Mn = x) = Q(x, y), ∀n ∈ N et ∀x, y ∈ D
,Q(x, y) est appelé probabilité de transition de x à y.
La probabilité µ définie par µ(x) = p(M0 = x) ∀x ∈ D est appelé la loi intiale.
→ µ et Q caracrérisent entiérement la chaine de Markov dans le cas stationnaire
En effet : on verifie que
P (Mn = xn , ..., M0 = x0 ) = µ(x0 )Q(x0 , x1 )...Q(xn−1 , xn )
Puisque

P (Mn = xn , ..., M0 = x0 ) = P (Mn = xn /Mn−1 = xn−1 ..., M0 = x0 )


∗ P (Mn−1 = xn−1 /Mn−2 = xn−2 ..., M0 = x0 )
∗ ... ∗ P (M1 = x1 /M0 = x0 ) ∗ P (M0 = x0 )
= µ(x0 )Q(x0 , x1 )...Q(xn−1 , xn )

Exemple 4. La marche aléatoire symétrique ou asymétrique sur Z est une chaine de


Markov stationnaire

2.3 Filtration et Martingale


Définition 2.1. St (ω, F, P ) un espace de probabilité
-Une filtration est une famille (Fn , n ∈ N) de sous tribus d’une tribu F.
Fn ⊂ Fn+1 ∀n ∈ N
-Un processus à temps discret (Xn , n ∈ N) est adapté à la filtration (Fn ) si Xn est
Fn −mesurable ∀n ∈ N

Exemple 5. La filtration naturelle d’un processus (Xn )n est bornée par (FnX )n où FnX =
σ(Xm , m ≤ n)

Définition 2.2. Une sous martingale (respectivement une sur martingale) est un proces-
sus (Mn )n∈N adapté à une filtration (Fn )n tels que
2.4. TEMPS D’ARRÊT 27

i) E(|Mn |) < ∞
ii) E(Mn+1 /Fn ) ≥ Mn ∀n ∈ N(respectivement E(Mn+1 /Fn ) ≤ Mn ∀n ∈ N)
Une martingale est un processus qui est à la fois une sur-martingale et une sous-
martingale.
Remarque 6. -La notion de martingale équivaut a celle de ”jeu honnete”, à l’instant n
où l’on dispose de l’information Fn .L’espèrance de la somme posedée à l’instant d’après
est égale à la somme dont dispose à l’instant present.
-Les applations ”sous martingale” et ”sur martingale” sont contre intuitive :une sous
martingale est un processus qui a tendance à monter (jeu favorable).
Proposition 2.1. Soit Mn une martingale alors :
∀m, n ∈ N
E(Mn+m /Fn ) = Mn p.s
E(Mn+1 − Mn /Fn ) = 0 p.s, E(Mi ) = 0 ∀i ∈ N
Exemple 6. Soit (Sn )n une marche aléatoire à valeurs dans N ou R
n
P
i.e S0 = 0, Sn = Xi avec Xi iid, E(X1 ) = 0 On pose F0 = {∅, ω} et Fn = σ{Xi , i ≤ n}
i=1
∀n ∈ N∗
Alors (Sn )n est une martingale par rapport à Fn
Proposition 2.2. Soit Mn une martingale relativement à une filtration (Fn )n∈N et ϕ :
R → R convexe tel que E(|ϕ(Mn )|) < ∞ ∀n ∈ N
Alors ϕ(Mn ) est une sous martingale par rapport à (Fn )n∈N . En particulier (Mn2 )n∈N est
une sous martingale.
Preuve. Par l’inégalité de Jensen(Espérance conditionnelle)
E(ϕ(Mn+1 )/Fn ) ≥ ϕ(E(Mn+1 /Fn )) = ϕ(Mn ) ce qui prouve ii)
i) donnée par l’hypothèse(ϕ est convexe donc continue sur un ouvert (borélienne)donc
mesurable et donc ϕ(Mn est mesurable)H 

2.4 Temps d’arrêt


Définition 2.3. Un temps d’arrêt par rapport à une filtration (Fn )n∈N est une variable
aléatoire T à valeurs dans N ∪ {+∞} tel que {T ≤ n} ∈ Fn ∀n ∈ N
Exemple 7. Soit (Xn )n un processus adapté à une filtration (Fn )n∈N et T un temps
d’arrêt par rapport à (Fn )n∈N .On pose Ta = inf {n ∈ N : Xn ≥ a} est un temps d’arrêt.
Sm
Puisque (Ta ≤ m) = {∃i ≤ m : Xi ≥ a} = {Xi ≥ a} ∈ Fm
i=0
28 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET

Définition 2.4. Soit (Xn ) un processus adapté à une filtration (Fn )n∈N et T un temps
d’arrêt par rapport à (Fn )n∈N
P
On pose XT (ω) = XT (ω) .(ω) = Xn (ω).1T =n
n∈N
FT = {A ∈ F, A ∩ (T ≤ n) ∈ Fn , ∀n ∈ N} est une tribu

Remarque 7. Bien que sa définition est peu explicite, la tribu FT represnte l’information
disponible au temps T

Théorème 2.1. (théorème d’arrêt) : Soit (Mn ) une martingale par rapport à (Fn )n∈N
filtration et T1 et T2 deux temps d’arrêt tels que T1 (ω) ≤ T2 (ω) ≤ N < ∞ ∀ω ∈ Ω
Alors E(MT2 /FT1 ) = MT1 p.s et donc E(MT2 ) = E(MT1 )
En particulier si T (ω) ≤ N ∀ω ∈ Ω alors E(MT ) = E(M0 )

Remarque 8. Ce théorème reste vrai pour un sous ou sur martingale avec les inégalités
correspondantes dans (∗)

Pour la démonstration on aura besoin de du lemme suivant

Lemme 2.1. Soit T un temps d’arrêt et Y une variable aléatoire , Y est FT -mesurable
si et seulement si Y.1t=n est Fn -mesurable

Preuve.
Démontrons tout d’abord que si T est un temps d’arrêt tel que T (ω) ≤ N ∀ω ⊂ Ω
PN
Alors E(MN /FT ) = Mn 1t=n = MT p.s
n=0
Appelons Z le terme du milieu de l’équation précedente.Pour vérifier que E(MN /FT ) = Z
il faut vérifier les deux points de la définitions de l’espérance conditionnelle.

1. Z est FT mesurable Z.1t=m = Mm .1t=m est Fm ∀m ∈ N donc Z est FT mesurable


d’aprés le lemme 1.

2. E(ZU ) = E(MN U ) ∀U variable aléatoire FT mesurable borné.


N N
P a P
E(ZU ) = E(MN 1t=m U ) = E(E(MN Fn )1t=m U )
n=0 n=0

N N
c
X X
(b) E(E(MN 1t=m U ) Fn ) = E(MN 1t=m U )
n=0 n=0
= E(MN U )

(a)Car (Mn ) est une martingale


(b)1t=m U est Fn mesurable, puisque T est un temps d’arrêt et le lemme 1
2.5. INTÉGRALE STOCHASTIQUE DISCRÉTE 29

N
P
(c) 1t=m = 1
n=0
En utilisant ce qui précede successivement à T = T1 et T = T2 , on trouve

MT1 = E(MN /FT1 ) = E(E(MN /FT1 )/FT2 )(T1 ≤ T2 ⇒ FT1 ⊂ FT2 )


= E(E(MN /FT2 )/FT1 ) = E(MT2 /FT1 )

2.5 Intégrale stochastique discréte


Définition 2.5. Un processus (Hn )n∈N est dit prévisible par rapport à la filtration (Fn )n∈N
Si H0 = 0 et ∀n ∈ N∗ Hn est Fn−1 mesurable
Soit (Hn )n∈N un processus prévisible et (Mn )n∈N une martingale
Pn
On pose I0 = 0 et In = (H.M )n = Hi (Mi − Mi−1 ), n ≥ 1
i=1
In : represente le gain effectue au temps n en appliquant la stratégie (Hn )n∈N
Hn : represente la mise à l’instant n que ne doit dépendre que des observations passés
(la tribu Fn−1 ), sinon il y a délit d’initié (c.à.d on a une information sur le futur du
processus)

Proposition 2.3. Si Hn est une variable aléatoire bornée (ie |Hn (w)| < kn ∀w ∈ ω et
∀n ≥ 1)et Hn est prévisible, le processus (In )n∈N est une martingale par rapport à (Fn )n∈N .

Preuve. Il est clair que In est Fn mesurable


D’autre part :
n
P n
P
E(|In |) ≤ E(|Hi |.(|Mi | + |Mi−1 |)) ≤ ki (E(|Mi |) + E(|Mi−1 |))
i=1 i=1

E(In+1 /Fn ) = E(In + Hn+1 (Mn+1 − Mn /Fn )


= In + E(Hn+1 Mn+1 Fn ) − E(Hn+1 Mn /Fn )
= In + Hn+1 Mn − Hn+1 Mn
= In


n
P
Application :Soit (Mn )n∈N la marche aléatoire symétrique sur Mn = Xi , P (X1 =
i=1
1
1) = P (X1 = −1) = 2
30 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET

On pose M0 = 0 (
2Hn , si X1 = X2 = ... = Xn−1 (n ≥ 1) ;
H0 = 0, H1 = 1 et Hn+1 =
0, dés que Xn = 1.
n
P Pn
Alors In = Hi (Mi − Mi−1 ) = Hi Xi est une martingale par la proposition ci-
i=1 i=1
dessus (Hi est bornée par 2i−1 en particulier E(In ) = E(I1 ) = 0)
On définit le temps d’arrêt T = inf {n ≥ 1, Xn = 1}
On peut vérifier que IT = 1
n
P
En effet :Soit ω ∈ Ω tel que T (ω) = n, IT (ω) = IT (ω) (ω) = In (ω) = Hi (ω)Xi (ω)
i=1

Puisque T (w) = n ⇐⇒ X1 (ω) = . . . = Xn−1 (ω) = −1 et Xn (ω) = 1 d’où

n−1
X
IT (ω) = Hi (ω).Xi (ω) + Hn (ω).Xn (ω)
i=1

n−1
X
=− Hi (ω) + Hn (ω)
i=1
or,

H0 (ω) = 0, H1 (ω) = 1, H2 (ω) = 2, H0 (ω) = 0, H3 (ω) = 22 , . . . , Hi (ω) = 2i−1 , . . . , Hn (ω) = 2n−1

(car Xn−1 (ω) = −1)


d’où n
X
IT (ω) = − −1 2i−1 + 2n−1 = −(2n−1 − 1) + 2n−1 = 1
i=1

d’où
E(IT ) = 1 6= E(I1 ) = 0

nous remarquons que le théorème d’arrêt mentionné ci-dessus ne s’applique pas ici car T
n’est pas borné.
(en d’autre terme, en appliquant la stratégie(Hn ) , on est sûre de gangner un dollar
(HI = 1) au temps T , mais le prix à payer est donc qu’on risque de perdre toute notre
fortune avant de gagner ce dollar.
pour des martingales uniformément intégrable, il est possible de faire une extention du
théorème d’arrêt borné.

Définition 2.6. on dit que X une famille de variable aléatoire est uniformement intégrable
R
(UI)si : ∀ > 0, ∃λ > 0 tel que |X|>λ |X|dp < , ∀X ∈ x
2.5. INTÉGRALE STOCHASTIQUE DISCRÉTE 31

Lemme 2.2. si X intégrable alors { E(X|ε), ε sous tribu de F } est UI .

Démonstration :

X intégrable ⇒ ∀ > 0, ∃δ > 0, ∀A un évènement tel que p(A) < δ


R
⇒ A |X|dp < ε
soit ε sous tribu de F .
|E(X|ε)| ≤ E(|X||ε)
R R R R
d’où ∀λ > 0 , {|E(X|ε)|>λ} |E(X|ε)|dp ≤ {E(|X||ε)>λ} E(|X|ε)dp ≤ E(|X||ε)dp = {E(|X||ε)>λ} |X|dp
par l’inégalité de Tchebychev P (E|X||ε ≥ λ) ≤ λ1 E(E(|X||ε)) = E(|X|)
λ
En prenant λ assez grand tel que E(|X|)
λ
< δ
R R
on obtient {|E(X|ε)|>λ} |E(X|ε)|dp ≤ A |X|dp ≤ , ∀ε sous tribu de F

Théorème 2.2. soitM = (Mn ) une martingale uniforemément intégrable. soient S et T


deux temps d’arrêt telle que S ≤ T alors Ms et MT sont intégrable et on a presque sûre
E(MT |Fs ) = Ms . en plus {MT , temps d’arrêt} est uniforemément intégrable.

preuve :

par le théorème de Doob de convergence de martingale, ∃ M∞ variable aléatiore tel que


Mn →ps M∞ et Mn →L1 M∞
en prenant F∞ = F soit R un temps d’arrêt.
on a : E(m∞ |Fs ) = E(m∞ |Fj ) = Mj = MR presque sûre sur {R = j}
En effet : soit k ∈ N, E(MK |FJ )1IR=J = E(MK |FJ )
On a E(MK |FJ ).1IR=J = E(MK 1IR=J |FJ )
soit U un variable aléatoire Fj mesurable bornée
Z Z
MK 1IR=J U dp = E(MK |FR )1IR=J U dp

en tendant K vers l’infini, on aura ; E(M∞ |FR ) = E(M∞ |FJ ) = MJ ∀K ≥ j en tandant


K ves l’infini.on aura E(M∞ |FJ ) = E(MK |FJ ) = MJ qui est égale à MR sur {R = J}
i.e :E(M∞ |FR ) = E(M∞ |FJ ) = MJ = MR sur {R = J}
Il vient que E(M∞ |FR ) = MR ∀J presque sûre
en particulier MR est intégrable .
en appliquant ceci à T et S,on obtient :
32 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET

E(MT |FS ) = E(E(M∞ |FT |FS )) = E(M∞ |FS ) = MS


On peut étendre le théorème précédent aux sous et sur martingale .

Lemme 2.3. (Décomposition de Doob Mayer )


soit (XN ) une suite de variable aléatoire adapté à une filtration (Fn )n∈N tel que Xn soit
intégrable ∀n. alors ∃ presque sûre M = (Mn ) martingale avec M0 = 0 et∃ processus
prévisible A = (An )n∈N avec A0 = 0 tel que Xn = X0 + Mn + An ∀n ∈ N.
En plus :A % ssi (Xn ) sous martingale
A % ssi (Xn ) sur martingale.

démonstrations :

supposons d’abord que M et A existent, on peut voir que : E(Xn |Fn−1 ) = X0 + Mn−1 +
An ∀n ≥ 1
et donc An = E(Xn |Fn−1 ) − X0 − Mn−1 = E(Xn |Fn−1 ) − X0 − (Xn−1 − X0 − An−1 )

= E(Xn \ Fn−1 ) + An−1 − Xn−1 (2.1)


= E(Xn − Xn−1 \ Fn−1 ) + An−1 ∀n ≥ 1 (2.2)

par induction
n
X
An = E(Xk − Xk−1 \ Fk−1 ) p.s
k=1

d’où l’unicité de A qui entraine celle de M


Pour l’existence, en posant A0 = 0 et pour n ≥ 1, on définit An par la formule 2.2. La
suite M := X − A − X0 est une martingale satisfait M0 = 0

Théorème 2.3 (sous et sur martingale). est S et T 2 t.a tq S ≤ T


1). Si X = (Xn )n∈N est une sous martingale UI alors Xs et Xt sont intégrables et p.s
E(XT \ Fs ) ≥ Xs p.s
2). Si X = (Xn )n∈N est une sur martingale UI alors Xs et Xt sont intégrables et p.s
E(XT \ Fs ) ≤ Xs et dans les 2 cas {XT , T t.a} est UI

Remarque 9. Pour le théorème d’arrêt borné les inégalités du théorème restent vrais
sans UI, pour le voir, il suffirait de remplacer X∞ par Xk où S < T < k dans la
2.5. INTÉGRALE STOCHASTIQUE DISCRÉTE 33

démonstration qui suit la dernière assertion 2.2 sera changé en la famille {X : T t.a tq T ≤
k}

Preuve. 1).Par la décomposition de Doob-Meyer on a : Xn = X0 + Mn + An ,où M


est une martingale et An un processus prévisible tel que M0 = A0 = 0.
Pour le théorème de convergence de sur-martingale de Doob, L’UI de X implique X∞
existe tel que Xr −→ X∞ p.s etXn −→ X∞ par L1 .
En particulier E(X∞ ) = lim E(Xn ) = E(X0 ) + lim E(An ) car (E(Mn ) = E(M0 ) = 0).
n→∞ n→∞
puisque A est croissante ,alors A∞ := lim An est intégrable(Beppo-Levi)
n→∞
et satisfait
E(A∞ ) = lim E(An ) = E(X∞ ) − E(X0 )
n→∞

mais 0 ≤ An ≤ A∞ , ∀n ∈ An on conclut que A est UI puisque X est UI (par hypothése).


Alors M est UI .
Par le théorème précedent 2.4.2 MT est intégrable et E(MT \ Fs ) = Ms p.s
De 0 ≤ AT ≤ A∞ p.s on voit que AT est intégrable et de As ≤ AT on voit que
E(AT \ Fs ) − As = E(AT − As \ Fs ) car (As est Fs −mesurable)
et on obtient de XT = X0 + MT + AT que XT est intégrable et que :

E(XT \ Fs ) = X0 + E(MT \ Fs ) + E(AT \ Fs ) ≥ X0 + Ms + As = Xs .

Pour la dernière assertion : par la relation MT = E(M∞ \ FT ) et le lemme 2.4.1 et par


l’intégrabilité de A∞ et 0 ≤ AT ≤ E(A∞ \ FT ) il vient que la famille {AT :T t.a} est UI
(E(AT − A∞ \ FT ) = E(AT \ FT ) − E(A∞ \ FT ) = AT − E(A∞ \ FT ) ≤ 0)
Pour 2) un raisonnement analogue permet d’avoir le resultat ,puisque (-X) est une sous-
martingale.

Dans le théorème suivant, on peut voir que pour les sous-martingales l’ UI peut être
remplacé par la positivité.

Théorème 2.4. soit (Xn ) une sur-martingale positive, soit s ≤ T Alors Xs et Xt


sont intégrables et on p.s :E(XT \ Fs ) ≤ Xs

Preuve. Puisque X est bornée E(Xn ) ≤ E(X0 ), la limite X∞ = lim Xn existe p.s
n→∞
pour chaque k ∈ N. ((Γ ∩ K)(ω) = min(Γ(ω), K))
La sur-martringale X k = (Xk∩n )n∈N (i.e Xnk (ω) = Xk∩n (ω))
34 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET

En appliquant le théorème d’arrêt sur les sur-martingales UI sur X k ,il vient que

E(XT ∩k \ Fs∩k ) ≤ Xs∩k p.s (2.3)

On suppose maintenant que F ∈ Fs ,on sait que F ∩ (s ≤ j) ∈ Fs∩j (TD)


De la convergence p.s XT = lim XT ∩n et du lemme de Fatou, on obtient
n→∞

Z Z
XT dP = lim XT ∩k dP
F ∩(s≤j) F ∩(s≤j) k→n
Z
≤ lim XT ∩k dP
k→n F ∩(s≤j)
Z Z
(car2.3) ≤ Xs∩j dP = Xs dP
F ∩(s≤j) F ∩(s≤j)

R R
Par la convergence (Beppo-Levi) {F ∩(s<∞)} XT dP ≤ {F ∩(s<∞)} Xs dP
On note que {s = ∞} ⊂ {T = ∞} (s ≤ T )
R R
On a F ∩{s=∞} XT dP = {F ∩s=∞} Xs dP cela implique que
Z Z
XT dP ≤ Xs dP (2.4)
F F

En remplaçant S et T par 0 et S respectivement, on obtient ∀G ∈ F0 on a


Z Z
Xs dP ≤ X0 dP
G G

et en prenant G = Ω, on obtient que Xs et integrable et satisfait E(Xs ) ≤ E(X0 ) et (*)


donne E(XT ) ≤ E(X0 ) =⇒ XT est integrable et E(XT ) ≤ E(Xs ) ≤ E(X0 )

Théorème 2.5. Soit (Xn )n une suite i.i.d telle que E(|X1 |) < ∞ et T un temps d’arrêt
integrable pour la filtration associée à (Xn )n et Sn = X1 + ... + Xn

Alors E(XT ) = E(T )E(X1 )


2.5. INTÉGRALE STOCHASTIQUE DISCRÉTE 35

Preuve.
X X
E( |Xk | .1T ≥k ) = E(|Xk | .1T ≥k )
k≥1 k≥1
X
= E(|Xk |).E(1T ≥k )
k≥1
X
= E(|Xk |)E( 1T ≥k )
k≥1
= E(|X1 |).E(T )

Donc la fonction h : Ω × N → R(ω, k) 7→ Xk (ω).1T (ω)≥k est integrable sur Ω × N par


rapport à T (ω) ≥ k. la mesure P × Q où Q est la mesure de comptage sur N∗ ,Q(x) = 1
R R R
k∈N
E(|Xk | .1(T ≥k) )dQ = k |Xk | .1(T ≥k) dP dQ < ∞
On peut refaire le calcul précedent sans mettre la valeur absolue et on obtient
X X
E(ST ) = E( Xk .1T ≥k ) = E(X1 ).E(1T ≥k ) = E(X1 ).E(T )
k≥1 k≥1

Proposition 2.4. (Propriété de Markov généralisée) Soit (Xn )n une chaine de Markov
à valeurs dans E (E au plus dénombrable ) pour tout x et y dans E et pour tout sous
ensemble A de E n
On a : P (Xn+1 = y|(X0 , X1 , ..., Xn−1 ) ∈ A, Xn = x) = P (Xn+1 = y|Xn = x)

Preuve.

T = P (Xn+1 = y, (X0 , X1 , ..., Xn−1 ) ∈ A, Xn = x)


X
= P (Xn+1 = y, X0 = α0 , X1 = α1 , ..., Xn−1 = αn−1 , Xn = x)
(α0 ,α1 ,...,αn−1 )∈A
X
= P (X0 = α0 , X1 = α1 , ..., Xn−1 = αn−1 , Xn = x)
(α0 ,α1 ,...,αn−1 )∈A

× P (Xn+1 = y|X0 = α0 , X1 = α1 , ..., Xn−1 = αn−1 , Xn = x)


X
= P (X0 = α0 , X1 = α1 , ..., Xn−1 = αn−1 , Xn = x) × P (Xn+1 = y|Xn = x)
(α0 ,α1 ,...,αn−1 )∈A

= P ((X0 , X1 , ..., Xn−1 ) ∈ A, Xn = x).P (Xn+1 = y|Xn = x)


36 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET

Proposition 2.5. Soit (Xn )n une chaine de Markov à valeurs dans E (E au plus dénombrable
), pour tout n et k, pour tout y1 , y2 , ..., yk ∈ E, pour tout B ⊂ E k , et pour toute fonction
f (.) définie de E dans R+ boréliènne, on a :

P (Xn+1 = y1 , ..., Xn+k = yk |(X0 , X1 , ..., Xn−1 ) ∈ A, Xn = x) = P (Xn+1 = y1 , ..., Xn+k = yk |Xn = x)
= P (Xn+1 = y1 |Xn = x) × P (Xn+2 = y2 |Xn+1 = y2 ) × ... × P (Xn+k = yk |Xn+k−1 = yk−1 )

et

E(f (Xn+1 , ..., Xn+k )|(X0 , X1 , ..., Xn−1 ) ∈ A, Xn = x) = E(f (Xn+1 , ..., Xn+k )|Xn = x)

Remarque 10. Si en plus la chaine est homogène on remplacera n par 0 dans tous les
termes de droit des trois égalités.

Preuve. Notons C l’événement (X0 , ..., Xn−1 ) ∈ A. En utilisant la formule de Bayes

P (Xn+1 = y1 , ..., Xn+k = yk |C, Xn = x) = P (Xn+k = yk |C, Xn = x, Xn+1 = y1 , ..., Xn+k−1 = yk−1 )
×P (Xn+k−1 = yk−1 |C, Xn = x, Xn+1 = y1 , ..., Xn+k−2 = yk−2 ) × ... × P (Xn+1 = y1 |C, Xn = x)
= P (Xn+k = yk |Xn+k−1 = yk−1 ) × P (Xn+k−1 = yk−1 |Xn+k−2 = yk−2 ) × ... × P (Xn+1 = y1 |Xn = x)

En faisant marche arrière on aura

= P (Xn+1 = y1 , ..., Xn+k = yk |Xn = x)

pour la deuxième partie il suffit d’écrire

X
P ((Xn+1 , ..., Xn+k ) ∈ B|(X0 , ..., Xn−1 ) ∈ A, Xn = x) = P (Xn+1 = y1 , ..., Xn+k = yk |(X0 , ..., Xn
(y1 ,...,yk )∈B
X
= P (Xn+1 = y1 , ..., Xn+k = yk |Xn = x))


Quant à la 3éme partie elle s’établit par combinaison linéaire de fonction indicatrice
puis par passage à la limite croissante pour une suite des fonctions étagées approximant
Propriétè de Markov forte :
soit (Xn )n une chaine de Markov homogène à valeurs dans E (E au plus dénombrable) de
2.5. INTÉGRALE STOCHASTIQUE DISCRÉTE 37

matrice de transition P . Si on considère la filtration naturelle (Fn = σ(Xi , i ≤ n)). Nous


amenons généraliser dans ce paragraphe la propriétè faible généralisé.

Théorème 2.6. (proprièté de Markov forte) Soit un temps d’arrêt.Pour tout x ∈ E


conditionellement à l’évenement (T < ∞) ∩ XT = x le processus (XT +n )n∈N est ⊥ FT est
une chaine de Markov de matrice de transition P issue de x en particulier sur T < ∞,
on a :
(1) E(φ(XT +n )n∈N )|FT ) = EXT (φ(Xn )n∈N )
Pour tout φ : E N −→ R (mesurable) et telle que φ(XT +n )n∈N soit integrable.

Preuve. On doit montrer que pour tout évenement A de la forme


(2) A = XT = y0 , ..., XT +n = yn pour y0 , ..., yn ∈ E et B ∈ FT
On a (3) P (A, B|T < +∞, XT = x) = P (A|T < +∞, XT = x)P (B|T < +∞, XT = x)
On a pour la propriété de Markov usuelle

P (A, B, T = k, XT = x) = P (Xk = y0 , ..., Xk+n = yk , Xk = x, B, T = k) = P (Xk = y0 , ..., Xk+n = yk |Xk =

(car B ∩ (T = k) ∈ Fk )

Px (X0 = y0 , ..., Xn = yn
X P (A, B, T = k, Xk = x)
P (A, B|T < +∞, XT = x) =
k≥0
P (T < +∞, XT = x)
X P (Xk = x, B, T = k, )
= Px (X0 = y0 , ..., Xn = yn )
k≥0
P (T < +∞, XT = x)

= Px (X0 = y0 , ..., Xn = yn )P (B|T < +∞, XT = x)

la famille des évenements de la forme (2) est un Π systeme coincident sur la tribu que
le Π systeme engendre et que
σ((XT +n )n ∈ N

pour montrer (1), on suppose φ ≥ 0, et on l’approche par des fonctions simples ϕ1 , ..., ϕp ↑
ϕ si

P
ϕp ((xn )n∈N ) = k λk .1(xn )n ∈ Ek
38 CHAPITRE 2. PROCESSUS ALÉATOIRE À TEMPS DISCRET

pour l’equation (3) et B = Ω,


X
E(ϕp ((XT +n ))n≥0 /FT ) = λk .P ((XT +n ) ∈ Ek/XT )
k
X
= λk .PXT ((XT +n )n∈N∈Ek )
k
X
= λk .EXT .(IXT +n )n∈N∈Ek )
k
X
= E( λk .(IXT +n )n∈N∈Ek ) = E(ϕp ((XT +n )n≥0 ))
k

les cyes monotones donnent l’equation (1)



Chapitre 3

Processus aléatoire à temps continu

Rappel

Définition 3.1. vecteur aléatoire un vecteur aléatoire (de dimension n) est une applica-
tion : X : {Ω −→ Rn w 7−→ X(w) = (X1 (w), ..., Xn (w)) tq {w ∈ Ω : X(w) ∈ B} ∈
F, ∀B ∈ B(Rn )

Proposition 3.1. X est un vecteur aléatoire ssi ω ∈ Ω : X1 ≤ t1 , ..., Xn ≤ tn ∈ F∀t1 , ..., tn ∈


R

Deux types particuliers de vecteurs aléatoires :


A) Vecteur aléatoire discret : X prend ses valeurs dans un ensemble dénombrable.
B) Vecteur aléatoire continu : X prend ses valeurs dans un P (X ∈ B) = 0si|B| = 0.
Sous cette condition, le théorème de Radon Nikodym assure qu’il existe une fonction
Rn
borèliènne f (.) boréliènne positive fX (.) tq R fx (x1 , x2 , ..., xn )dx1, ..., dxn = 1 et
Z
P (X ∈ B) = fx (x1 , x2 , ..., xn )dx1, ..., dxn∀B ∈ B(Rn )
B

Remarque 11. A) X est un vecteur aléatoire discret ssi les Xi sont discretes.
B) Si X est un vecteur aléatoire continu alors les Xi sont continues mais la réciproque
n’est pas vraie : soit U v.a.c,alors la variable aléatoire X = (U, U ) n’est pas continue
car B = (x, y) ∈ R2 : x = y on a P (X ∈ B) = 0 alors que |B| = 0.

Espérance et matrice de covariance d’une variable aléatoire :


soit X un vecteur aléatoire tq les Xi sont de carré intégrable é, alors :
i) E(X) = (E(X1 ), ..., E(Xn ).

39
40 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU

ii) cov(X) = Q tq Qij = cov(Xi , Xj ) = E[((Xi − E(Xi ))(Xj − E(Xj )))] = E(Xi , Xj ) −
E(Xi ).E(Xj ).

Proposition 3.2. i) Q est symetrique.


ii) Q est positive.
iii)
X X
C T QC = Ci .Cj .Qi,j = Ci .Cj .cov(Xi , Xj )
i,j i,j
n n
! n
!
X X X
= cov ci X i , ci X i = var ci X i ≥ 0.
i=1 i=1 i=1

Proposition 3.3. Si X1 , . . . , Xn sont des variables aléatoires indépendantes et de carrés


intégrables alors X = (X1 , . . . , Xn ) est un vecteur aléatoire de matrice de covariance
diagonale.

Vecteur gaussien

Définition 3.2. Un vecteur aléatoire X = (X1 , . . . , Xn ) est dit gaussien si et seulement


(x−µ)2
X
1
si αi Xi est gaussien ∀α1 , . . . , αn ∈ R. (f (x) = √2πσ 2 exp( 2σ 2 ) est la densité de

Xi
αi Xi ).
i

Proposition 3.4. Soit X un vecteur aléatoire gaussien alors les variables aléatoires sont
indépendantes si et seulement si la matrice de covariance est diagonale.

Remarque 12. Il n’est pas obligatoire qu’un vecteur aléatoire dont les composantes sont
gaussien soit gaussien.

Notation
Si X est un vecteur gaussien de moyenne m et de matrice de covariance Q, on note
X ∼ N (m, Q).

Définition 3.3. Soit X un vecteur aléatoire gaussien de dimension n de moyenne m et


de matrice de covariance Q, X est dit dégénéré si rang(Q) < n.

Proposition 3.5. si X un vecteur aléatoire gaussien non dégénéré de dimension n de


moyenne m et de matrice de covariance Q, alors X est un vecteur aléatoire continue dont
la densité s’écrit (f (x) = √ 1 n exp( −1
2
(x − m)t Q−1 (x − m)).
(2π) |Q|
41

Proposition 3.6. (décomposition de Karhunen-Lowe) Si X est un vecteur aléatoire gaus-


sien X ∼ N (m, Q) et k = rang(Q), Alors ∃ k variable aléatoire gaussien U1 , . . . , Uk i.i.d
k
X
n,k
avec Ui ∼ N (0, 1) et des nombres (αij )ij tel que Xi = αij Uj ).
j=1

En mots, cette proposition dit qu’un vecteur aléatoire gaussien dont la matrice de cova-
riance est de rang K peut toujours s’exprimer en terme de K variable gaussiennes. Cette
décomposition correspond à la décomposition de Q dans la base de ses vecteurs propres
associées au valeur propre non nulles.

3.0.1 processus aléatoire à temps continue


Définition 3.4. Un processus aléatoire à temps continu est une famille de v.a. (Xt , t ∈
R+ ) définie sur (Ω, F, P). On peut également le voir comme une fonction aléatoire :
(
Ω → {fonctions de R+ dans R}
X:
ω 7→ {t 7→ Xt (ω)}

Remarque 13. Que faut-t-il pour caractériser un processus (Xt , t ∈ R+ ) ?


Donner P (Xt ≤ x1 , . . . , Xtn ≤ xn ), ∀n > 1, t1 . . . tn ∈ R+ , x1 . . . xn ∈ R. C’est suffisant,
mais a-t-on toujours besoin de toutes ces informations pour caractériser un processus ?

Définition 3.5. Les v.a. Xt − Xs , t > s ≥ 0, sont appelées des accroissements du


processus (Xt ).

3.0.2 Processus à accroissements indépendants et stationnnaires


(Indépendance) : (Xt − Xs ) ⊥ FsX = σ(Xr , 0 ≤ r ≤ s), ∀t > s ≥ 0.
(Stationnarité) : Xt − Xs ∼ Xt−s − X0 , ∀t > s ≥ 0.

Pour de tels processus, donner la loi de Xt − X0 , ∀t > 0, ainsi que celle de X0 suffit à
caractériser entiérement le processus.

Citons encore une définition dont nous avons besoin pour définir le mouvement brownien.

Définition 3.6. Un processus (Xt ) est appelé un processus à trajectoires continues (ou
simplement processus continu) si P(ω ∈ Ω : t 7→ Xt (ω)est continue) = 1.

Attention :ne pas confondre processus à temps continu et processus continu


42 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU

Mouvement brownien standard

Définition 3.7. (1ère caractérisation du mouvement brownien standard)


Un mouvement brownien standard (abrégé m.b.s.) est un processus aléatoire à temps
continu (Bt , t ∈ R+ ) tel que
i) B0 = 0 p.s,
ii) (Bt ) est à accroissements indépendants et stationnaires,
iii) Bt ∼ N (0, t), ∀t > 0,
iv) (Bt ) est à trajectoires continues.

Remarque 14. De cette définition, il suit que pour t ≥ s ≥ 0,

Bt − Bs ∼ Bt−s ∼ N (0, t − s), i.e. E(Bt − Bs ) = 0 et E((Bt − Bs )2 ) = t − s.

En appliquant la loi des grands nombres, on peut voir Btt → 0 p.s. lorsque t → ∞
soit n ∈ N∗ , Bn = n−1
P Pn−1
i=0 (Bi+1 −Bi ) = i=0 Xi les Xi sont i.i.d et centrée donc d’aprés la
B
Bn
loi des grand nombre n → 0. soit t ∈ / N∗ , t = n + t0 où n = [t], t0 ∈ [0, 1[, Btt ∼ tt0 + Btn
Bt
De plus, √ t
∼ N (0, 1) ∀t > 0, On voit donc que le m.b.s. est bien une généralisation à
temps continu de la marche aléatoire symétrique sur Z

Il existe plusieurs manières de construire un mouvement brownien standard. Citons


trois d’entre elles. I. Construction de Kolmogorov
Un théorème d’existence général (le ”théorème de Kolmogorov”) implique qu’il existe un
processus (Bt ) qui vérifie (i) − (iii). A priori, il n’est pas clair que ce processus posséde
des trajectoires continues, mais un second théorème (baptisé ”critére de continuité de
Kolmogorov”) permet de montrer que

E(| Bt − Bs |2p ) ≤ Cp | t − s |p , ∀p ≥ 1, ⇒ ∃(B̃t )tel que P(B̃t = Bt ) = 1, ∀t ∈ R}


et B̃t est à trajectoires continues.

Le processus B̃t est donc un m.b.s. Cette ”construction” a le désavantage de ne pas être
explicite, contrairement aux deux suivantes.
II. Principe d’invariance de Donsker
Soit S0 = 0, Sn = X1 + . . . + Xn , la marche aléatoire symétrique sur Z (avec Xi i.i.d. et
P(Xi = +1) = P(Xi = −1) = 21 ).

Sn
Rappel : par le TCL, √ ⇒n→∞ Z ∼ N (0, 1).
n
(n) Y
Soit Yt = S[t] + (t − [t])X[t]+1 (i.e. si t = n + , alors Yt = Sn + Xn+1 ). On pose Bt = √nt .
n
43

Supposons pour simplier que nt ∈ N. Alors on a

(n) Snt √ Snt √


Bt = √ = t √ ⇒n→∞ tZ ∼ N (0, t), car Z ∼ N (0, 1),
n nt

ce qui veut dire que


(n)
P(Bt ≤ x) →n→∞ P(Bt ≤ x).

On peut montrer de manière similaire que ∀m ≥ 1, t1 , . . . , tm ∈ R+ , x1 , . . . , xm ∈ R,


 
(n) (n)
P Bt1 ≤ x1 , . . . , Btm ≤ xm →n→∞ P (Bt1 ≤ x1 , . . . , Btm ≤ xm ) ,

(n)
i.e. que la suite de processus (Bt ) converge en loi vers le m.b.s. (Bt ). III. Construction
par série de Fourier
Soit t ∈ [0, π]. On pose √ ∞
8 X sin(nt)
Bt = ξn ,
π n=1 n

où (ξn ) est une suite de v.a. i.i.d. ∼ N (0, 1). Alors Bt est une v.a. gaussienne (car c’est
une somme de v.a. gaussiennes indépendantes), E(Bt ) = 0 et
∞ ∞
8 X sin(nt) sin(mt) 8 X (sin(nt))2
E(Bt2 ) = 2 E(ξn ξm ) = 2 = t.
π n,m=1 n n π n=1 n2

On peut également vérifier que le processus (Bt ) ainsi défini a toutes les propriétés d’un
m.b.s. A l’aide de cette troisième construction, effectuons un petit calcul (formel) :
√ ∞   √ ∞
∂Bt 8 X ∂ sin(nt) 8X
= ξn = cos(nt)ξn .
∂t π n=1 ∂t n π n=1

∂Bt
La v.a. ∂t
est donc une v.a. gaussienne (car c’est une somme de v.a. gaussiennes indépendantes),
mais 2 !
 ∞
∂Bt 8 X
E = 2 (cos(nt))2 = ∞.
∂t π n=1

Il y a donc une contradiction, car une v.a. gaussienne ne peut pas avoir une variance
infinie.
En conclusion, la v.a. ∂B
∂t
t
n’est pas bien définie, i.e. la fonction t 7→ Bt est continue mais
pas dérivable. On reverra ceci de manière plus rigoureuse ci-après.

Remarque 15. Il est toutefois possible de définir la dérivée du mouvement brownien


”au sens des distributions” ; l’objet représentant la dérivée est appelé ”bruit blanc”.
44 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU

Transformation du mouvement brownien standard

Soit (Bt )t≥0 un mBs, alors les cinq processus suivants sont également des mbs :
1. Bt1 = −Bt , t ∈ R+ (propriété de symétrie du mBs),
2. Soit T ∈ R+ fixé Bt2 = Bt+T − Bt , ∀t ∈ [0, T ] (Stationnarité),
3. Soit T ∈ R+ Bt3 = BT − BT −t , ∀t ∈ [0, T ] (Renversement du temps),
4. Soit α > 0 fixé Bt4 = √1 Bat ∀t ≥ 0 (loi d’echelle)
a

5. Bt5 = tB1/t ∀t > 0 et B05 = 0 (Inversion du temps)

3.1 Processus Gaussien


Un processus guassien est un processus (Xt )t∈R+ telque (Xt1 , · · · , Xtn ) est un vecteur
aléatoire gaussien ∀t1 , · · · , tn ∈ R+ ceci revient à dire que c1 + · · · + cn Xtn est une variable
aléatoire gaussien ∀n ≥ 1, ∀ c1 , · · · , cn ∈ R et ∀ t1 , · · · , tn ∈ R+ . Pour un processus
aléatoire quelconque (non forcement gaussien) on définit la fonction m : R+ → R, appelé
la moyenne du procesus et la fonction k :m athbbR+ × R+ → R appelée la covariance du
processus.

Proposition 3.7. – k(.,.) est symètrique,


– k(.,.) est définie positive, ie ni,j=1 ci cj k(ti , tj ) = ni,j=1 ci cj cov(Xti , xj ) = cov( ni=1 ci Xti ) >
P P P

0, ∀c1 , · · · , cn ∈ R, ∀t1 , · · · , tn R+

Proposition 3.8. Etant donnée m : R+ → R et k : R+ × R+ → R symétrique et définie


positive, il existe un processus gaussien (Xt )t ∈ R+ ) de moyenne m et de covariance k.
De plus m et k caractérise entièrement (Xt )t≥0 .

Proposition 3.9. Un mBs (Bt )t≥0 est un processus à trajectoires continues et gaussien
de moyenne m(t) = 0 et de covariance K(t, s) = min(t, s).

Démonstration. Il faudra montrer que ni=1 ci Bti est une variable aléatoire gaus-
P

sienne ∀n ∈ N∗ et ∀ c1 , · · · , cn ∈ R, vérifions seulement que Bt + Bs est gaussienne.


En effet B + Bs = Bt − Bs + 2Bs = Bt−s + 2Bs est gaussienne car somme de deux variables
aléatoires gaussienne. Soit t ≥ s > 0 E(Bt ) = 0 = m(t) ;

cov(Bt , Bs ) = E(Bt Bs ) = E((Bt−s + Bs )Bs ) = E(Bt−s Bs ) + E(Bs2 ) = s = s ∧ t


3.2. PROCESSUS DE MARKOV 45

3.2 Processus de Markov


C’est un processus (Xt )t≥0 telque E(f (Xt )|FsX ) = E(f (xt )|Xs ) p.s ∀t > s ≥ 0 et
pour toute fonction f (.) borelienne et bornée (FsX = σ(Xi , i < s)). En particulier si
f = IB , B ⊂ B(R) alors P (Xt ∈ B|FsX ) = E(Xt ∈ B|Xs ) ps ∀ t > s ≥ 0.

Proposition 3.10. Le mBs est un processus de Markov.

Démonstration.

E f (Bt )|FsB = E f (Bt−s + Bs ) |FsB = Ψ(Bs ) p.s.


 

où ψ(y) = E(f (Bt−s +y)) puisque Bt−s ⊥Bs . Un calcul identique montre que E(f (Bt )|YsBs ) =
Ψ(Bs ) p.s. 


Remarque 16. De la démonstration ci-dessus, on déduit que : E f (Bt )|FsB = Ψ(Bs )
p.s où Ψ(y) = E(f (X + y)) avec X ∼ N (0, t − s), ceci montre qu’une expression à priori
compliquée faisant intervenir une espérance conditionnelle d’une fonction d’un mouve-
ment brownien peut se réduire à une simple espérance d’une fonction d’une loi gaussienne.

Définition 3.8. Soit (Ω, F, P ) un espace de probabilité, pour tout t ≥ s > 0


– Une filtration (Ft )t≥0 est une famille de sous-tribus de F telleque Fs ⊂ Ft ,
– Un processus est adapté à une filtration (ft )t si Xt est Ft -mesurable pour tout t ≥ 0.
– La filtration naturelle d’un processus (Xt )t ≥ 0 est donnée par (FtX = σ(Xs , s ≤ t))

Définition 3.9. Un processus (Mt )t ≥ 0 est adapté à une filtaration Ft ≥ 0 tel que
– E(|Mt |) < ∞ ∀t ≥ 0
– E(Mt | Fs ) = Ms ∀t ≥ s ≥ 0
M est appelé une martingale(à temps continu).

Proposition 3.11. Le m.b.s est une martingale


p √
– E(|Bs |) ≤ (Bt2 ) = t < ∞ ∀t ≥ 0
– ∀t ≥ s ≥ 0, on a
E(Bt | FtB ) = E(Bt − Bs | FsB ) + E(Bs | FsB ) = Bs p.s (car Bt − Bs ⊥FsB et Bs
est FsB -mesurable)

Proposition 3.12. Les processus suivants sont des martingales :


– Mt = Bt2 − t
– Nt = exp(Bt − 2t )
46 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU

Définition 3.10. Soit (Ft )t≥0 une filtration


– Un temps d’arret T par rapport à (Ft )t≥0 est une variable aléatoire à valeurs de R+
tel que {T ≤ t} ∈ Ft ∀t ≥ 0 et Ft = {A ∈ F : A ∩ (T ≤ t) ∈ Ft , ∀t ≥ 0}
– Si (Xt )t≥0 est un processus adapté à une filtration (Ft )t≥0 ,
On pose XT (ω) = XT (ω) (ω)

Théorème 3.1 (Théorème d’arrêt). Soit (Xt )t une martingale par rapport à une filtration
(Ft )t≥0 uniformement continue et continue à droite et T1 et T2 2 t.a tels que 0 ≤ T1 ≤
T2 < N < ∞ alors E(XT2 | XT1 ) = XT1 p.s

En particulier, si 0 ≤ T ≤ k p.s alors E(XT ) = E(X0 )

Remarque 17. Le théorème reste vrai pour les sous et sur martingales.

Démonstration. Pour k, n ∈ N, on définit Xn (k) = X nk et Fn (k) = F nk (T1 =


2 2
S, T2 = T )
X (k) est une martigale puisque
– E(|X (k) n |) = E(|X nk |) < ∞ ∀n ∈ N
2
– E(X (k) m | Fn (k) ) = E(X mk | F nk ) = X nk = Xn (k)
 2 2 2
(k)
Définissons σ (k) (ω) = min j ∈ N : S(ω) ≤ 2jk et S k = σ2k
(σ (k) ≤ n) = ∃m ≤ n telque S ≤ 2mk = ∪m≤n (S ≤ 2mk )
D’où S k est un temps d’arrêt par rapport (Fn (k) )n∈N
Définissons τ (k) et T (k) de la même manière que σ (k) et S (k) , nous avons S (k) ≤ T (k) car
S (k) (ω) = 2−k σ (k) (ω) = 2−k min j ∈ N : S(ω) ≤ 2jk ≤ 2−k min j ∈ N : T (ω) ≤ 2jk
 

(j, T (ω) ≤ xj ⊂ j, S(ω) ≤ xj ) = 2−k τ (k) (ω) = T (k) (ω)


En utilisant le théorème d’arrêt analogue au cas discret E(XT (k) | FS (k) ) = XS (k) p.s, on
k
vérifie que T (k) < N p.s ⇒ T ≤ 22kN
k (k)
car T < N p.s ⇒ T ≤ 22kN ⇒ 2k N ≥ τ (k) ⇒ N ≥ τ2k = T (k)
or S ≤ S (k) car :
(k)
Soit ω ∈ Ω et jσ = σ (k) (ω), S(ω) ≤ 2jσk = σ 2k(ω) = S (k) (ω)
D’où FS ⊂ FS (k) et donc ∀F ∈ FS
Z Z
XT (k) dP = XS (k) dP (3.1)
F F

or S (k) → Set T (k) → T quand k → +∞(en décroissant)


(k)
puisque : Soit ω ∈ Ω tel que jσ = σ (k) (ω) ⇒ jσ2−1
k < S(ω) ≤ 2jσk = σ 2k(ω) = S (k) (ω).
|S (k) (ω) − S(ω)| ≤ 21k → 0 quand k → +∞
et lim XT (k) = XT (car X est continue à droite p.s)
x→∞
En passant à la limite, on aura dans (1) i.e E(XT | XS ) = XS p.s car XS k →
3.2. PROCESSUS DE MARKOV 47

XS p.s
Yk est uniformement intégrable (car (Xt )t est UI)
R R
Yk → Y dans L1 ⇒ Yk dP → Y dP 

Proposition 3.13. Soit (Xt )t≥0 un processus et T un temps d’arrêt alors XT est mesu-
rable.
Inégalité de Doob : Soit (Mt )t ≥ 0 une martingale par rapport à une filtration (Ft )t≥0
continue de carré intégrable et tel que M0 = 0 p.s, alors
t |)
– P (sup0≤s≤t |Ms | ≥ λ) ≤ E(|M λ
∀t, λ > 0
2 2
– E(sup0≤s≤t Ms ) ≤ 4E(Mt ) ∀t > 0

Remarque 18. Ces ≥ sont précieuses, car elles permettent de borner (en espérance)le
supremum d’une martingale sur un intervalle par quelque chose qui ne dépend que de la
valeur de la martingale à la fin de l’intervalle.

Démonstration. (inégalité de Doob)


a)Par l’inégalité de Jensen,le processus (|Mt |, t ∈ R) est une sous-martingale.on définit

T1 = inf {S ≥ 0 : |MS | ≥ λ} ∧ t, T2 = t

on voie alors que 0 ≤ T1 ≤ T2 = t. en appliquant le théorème d’arrét ci-dessus à la sous-


martingale (|Mt |),on va voire donc que :

|MT1 | ≤ E(|Mt ||FT1 )

En multiploant par1{|MT1 |≥λ} ,on retrouve encore

|MT1 |1{|MT1 |≥λ} ≤ E(|Mt |1{|MT1 |≥λ} |FT1 )

car 1{|MT1 |≥λ} est FT1 mesurable. De là on déduit que

λP({|MT1 | ≥ λ}) = E(λ1{|MT1 |≥λ} ≤ E(|MT1 |1{|MT1 |≥λ} ≤ E(|Mt |1|MT1 |≥λ}

Soit maintenant M ∗ = sup0≤S≤t |MS | : il importe de remarquer que

{|MT1 | ≥ λ} = {|M ∗ | ≥ λ}

(Effectivement,chacun des deux événements ci-dessus correspond à l’événement ”le pro-


cessus |Mt | a dépassé la valeur λ dans l’intervalle [0, t] ”),Ceci implique que
48 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU

λP({|M ∗ | ≥ λ}) ≤ E(|Mt |1{|M ∗ |≥λ} ≤ E(|Mt |)

et donc l’inégalité a).

b) Pour simplifier, supposons que l’on sait que E((M ∗ )2 ) < ∞ (ça n’est pas claire a
priori).
Alors du fait que Z ∞
∗ 0
g(M ) = g (x)1{M ∗ ≥x} dx
0

on a par l’inégalité de gauche dans (2),


Z ∞ Z ∞
∗ 2 ∗
E((M ) ) = 2xP({M ≥ x})dx ≤ 2E(|Mt |1{M ∗ ≥x} )dx = 2E(|Mt |M ∗ )
0 0

l’inégalité de Cauchy-Scharz permet finalement de conclure que


p p
E((M ∗ )2 ) ≤ 2 E(|Mt |2 ) E((M ∗ )2 )

autremenr dit ,

p p
E((M ∗ )2 ) ≤ 2 E((Mt )2 ) i.e. E((M ∗ )2 ) ≤ 4E(Mt2 )

ce qui termine la démonstration . 

3.3 Integrale de Riemann-Stieltjis

3.3.1 Integrale de Riemann

Soitt > 0 et f : R+ → R continue.On définit


Rt (n) (n) (n)
f (s)ds = limn→∞ ni=1 f (si )(ti − ti−1 ),
P
0
(n) (n) (n) (n) (n) (n) (n)
ou 0 = t0 < t1 < ... < tn = t, si (n) ∈ [ti−1 , ti ]et(t0 , ..., tn ) est une partition de de
(n) (n)
[0, t] telle que limn→∞ max1≤i≤n |ti − ti−1 | = 0
3.3. INTEGRALE DE RIEMANN-STIELTJIS 49

3.3.2 Fonction (localement) à variation bornée


Fonction g : R+ → R telle que ∀t > 0,
n
X
sup |g(ti ) − g(ti−1 )| < ∞
i=1

ou le supremum est pris sur toutes les partitions (t0 , ..., tn ) de [0, t],avec n arbitraire.

Remarque 19. si g est croissante ,alors g est à variation bornée,car


Pn Pn
i=1 |g(ti ) − g(ti−1 )| = i=1 (g(ti ) − g(ti−1 )) = g(t) − g(0)
est indépendant de la partition choisis,donc
n
X
sup |g(ti ) − g(ti−1 )| = g(t) − g(0) < ∞
i=1

Si g est la différence de deux fonction croissantes,alos g est à variation bornée.


(La démonstration est simaire a ce qui précède.)
Sig est continument dérivable,alors g est à variation bornée.
n
X n
X Z ti n
X
0
|g(ti ) − g(ti−1 )| = | g (s)ds| ≤ sup |g 0 (s)|(ti − ti−1 )
i=1 i=1 ti−1 i=1 s∈[ti−1 ,ti ]
n
X
0
≤ sup |g (s)| (ti − ti−1 ) = sup |g 0 (s)|t
s∈[0,t] i=1 s∈[0,t]

est indépendant de la partition choisis ,donc


n
X
sup |g(ti ) − g(ti−1 )| ≤ sup |g 0 (s)|t < ∞
i=1 s∈[0,t]

3.3.3 Integrale de Riemann-Stieltjes


Soit t > 0, f : R+ → R à variation bornée. on définit
Rt (n) (n) (n)
f (s)dgs = limn→∞ ni=1 f (si )(g(ti ) − g(ti−1 )),
P
0

(n) (n) (n) (n) (n) (n) (n)


ou 0 = t0 < t1 < ... < tn = t, si (n) ∈ [ti−1 , ti ]et(t0 , ..., tn ) est une partition de
(n) (n)
de [0, t] telle que limn→∞ max1≤i≤n |ti − ti−1 | = 0

Proposition 3.14. – Si f est continue et g est de classe C 1 , alors


Z t Z t
f (s)dg(s) = f (s)g 0 (s)d(s)
0 0
50 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU

– Si f et g sont continues et à variation bornée, alors


t
f 2 (t) − f 2 (0)
Z
f (s)df (s) =
0 2
Z t Z t
f (s)df (s) = f (t)g(t) − f (0)g(0) − g(s)dg(s)
0 0

3.3.4 fonctions déterministes aux processus aléatoires


Soit (Ht , t ∈ R+ ) un processus à trajectoires continues.
Soit (Vt , t ∈ R+ ) un processus (à trajectoires) à variation bornée.On définit
Z t  Z t
Hs dVs (ω) = Hs (ω)dVs (ω)
0 0

Cette intégrale est définie trajectoire par trajectoire (ie ”ω” par ”ω”).

Remarque 20. Si la courbe (Vt ) est l’évolution dans le temps du prix d’un actif financier
Rt
et (Ht ) est la stratégie d’investissement sur cet actif, alors 0 Hs dVs représente le gain
effectué sur l’intervalle [0, t]. L’intégrale ci-dessus est donc bien définie et l’on peut se
demander pourquoi on a besoin de parler d’intégrale ”stochastique” ?
Il se trouve qu’en mathématiques financières, les processus d’évolution des prix sont mieux
repésentés par des mouvements browniens (ou des processus plus compliqués encore). Or le
mouvement brownien (standard) a des trajectoires continues mais pas à variation bornée
Rt
(voir plus loin). Comment définir alors 0 Hs dBs ?

3.4 Variation quadratique


3.4.1 Variation quadratique du mouvement brownien standard
Soit (Bt , t ∈ R+ ) un mouvement brownien standard (par convenance, on notera parfois
Bt = B(t)). Pour t  0, on définit

2n  2
X it (i − 1)t
hBi(n)
t = B( ) − B( )
i=1
n n

Proposition 3.15. Définition :Pour t  0

lim hBi(n)
t =t P.s
n→∞
3.4. VARIATION QUADRATIQUE 51

et on définit la variation quadratique du mouvement brownien standard hBit comme étant


donnée par cette limite (par convention, on pose également hBit = 0).

Démonstration. :Soient Xi = B( itn ) − B( (i−1)tn


) , 1 ≤ i ≤ 2n .Les v.a Xi sont i.i.d
n
wedgeN (0, 2tn ) et hBi(n) = 2i=1 Xi2 .De plus on a
P
t

2 n
X
E(hBi(n)
t ) = E(Xi2 ) = t
i=1

et n n
2
X 2
X
V ar(hBi(n)
t ) = V ar(Xi2 ) = E(Xi4 ) − E(Xi2 )2
i=1 i=1

2 n
X t2 t2 t2
= 3 n− n = n
i=1
4 4 4

En conséquence,
∞ ∞
X   1 X t2
P | hBit(n) − |   ≤ 2 ≺∞
n=1
 n=1 4n

Par le lemme de Borel-Cantelli (a) et le critère donné pour la convergence presque sûre,
on a donc
(n)
hBit →t
n → ∞ , P.s

Corollaire 3.1. n
2
X it (i − 1)t
lim B( n
) − B( = ∞ , P.s
n→∞
i=1
2 2n

donc le processus (Bt ) n’est pas à variation bornée.

Démonstration.  
Supposons par l’absurde que P limn→∞ ni=1 B( 2itn ) − B( (i−1)t
P
2n
) < ∞ > 0.
Alors on a,

2n   2 n !
X X
hBit = lim hBi(n)
t = lim Xi2 ≤ lim maxn | Xi | lim | Xi | .
n→∞ n→∞ n→∞ 1≤i≤2 n→∞
i=1 i=1

Or le processus (Bt ) est continu, donc il est uniformément continu sur [0, t], et donc

lim max | Xi | p.s.


n→∞ 1≤i≤2n
52 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU

D’un autre côté, on a supposé que

2n !
X
P lim | Xi |< ∞ > 0.
n→∞
i=1

donc, P (hBit = 0) > 0, ce qui est contradictoire avec hBit = t.




Remarque 21. Le fait que le processus (Bt ) n’est pas a variation bornée implique que
ses trajectoires ne sont pas dérivables.

Remarque 22. On remarque que le processus (Bt2 − hBit , t ∈ R+ ) est une martingale.
Ceci n’est pas un hasard. Cette propriété va même nous servir à définir la variation
quadratique d’une martingale continue de carré intégrable.

Théorème 3.2. (décomposition de Doob)


Soit (Xt , t ∈ R+ ) une sous-martingale continue (par rapport à une filtration (Ft , t ∈
R+ )).Alors il existe un unique processus (At , t ∈ R+ ) croissant, continu et adapté à
(Ft , t ∈ R+ ) tel que A0 = 0 et (Xt − At , t ∈ R+ ) est une martingale.

Application : définition de la variation quadratique d’une martingale


Soit (Mt ) une martingale continue de carré intégrable (par rapport à une filtration (Ft )).Alors
(Mt2 ) est une sous-martingale et donc, d’après le théorème ci-dessus, il existe un unique
processus (At ) croissant, continu et adapté à (Ft ) tel que A0 = 0 et (Mt2 − At ) est une
martingale. On note At = hM it et on appelle ce processus la variation quadratique de
(Mt ).

Exemple 8. On a vu que hBit = t. Noter que dans ce cas, la variation quadratique est
un processus déterministe.

Remarque 23. Noter qu’on a toujours par définition : E(hM it ) = E(Mt2 ) − E(M02 ).
- Du fait que le processus (hM it ) est croissant, c’est un processus à variation bornée (i.e.
la variation quadratique d’une martingale est un processus a variation bornée).
- Si (Mt ) est une martingale continue à variation bornée, alors Mt = M0 pour tout
t  0 (i.e. Mt est constante). puisque (Mt )t≥0 martingale, en particulier elle est un sous-
martingale Mt = 2Mt − Mt et (2Mt )t est un sous-martingale, grâce à l’unicité de la
variation quadratique et (Mt )t croissante d’aprés le théorème de décomposition de Doob.
d’autre part, (−Mt ) est un martingale et donc (−Mt ) est un sous martingale. Par le
3.4. VARIATION QUADRATIQUE 53

même raisonnement on va avoir (−Mt ) croissante donc (Mt ) est décoissante donc (Mt )
est constante et qui est égale à M0 .
Proposition 3.16. Si (Mt ) est une martingale continue de carré intégrable, alors on a :
n
2  2
X it (i − 1)t
hM i(n)
t = M( n ) − M( )
i=1
2 2n

Remarque 24. A priori, la convergence n’a lieu qu’en probabilité (alors qu’elle a lieu
presque sûrement dans le cas où (Mt ) est un mouvement brownien standard).
Définition 3.11. Soient (Mt ), (Nt ) deux martingales continues de carré intégrable. On
définit la covariation quadratique de (Mt ) et (Nt ) par

1
hM, N it = (hM + N it − hM − N it )
4

Proposition 3.17. Le processus (Mt Nt − hM, N it ) est une martingale.

Démonstration. voir T.D. 

Proposition 3.18. Si (Mt )t≥0 et (Nt )t≥0 sont deux martingales continues de carré intégrable,
alors on a :
2n   
X it (i − 1)t it (i − 1)t
hM, N i(n)
t = M( n ) − M( n
) N( n ) − N( n
) →Pn→∞ hM, N it , ∀t ≥ 0
i=1
2 2 2 2

Proposition 3.19. Soient (Mt )t≥0 et (Nt )t≥0 deux martingales continues de carré intégrable
indépendantes et soit c ∈ R. Alors

hM, N it = 0 et c2 hM it + hN it ∀t ≥ 0.

Démonstration. Indication : si M et N deux martingales indépendantes alors (Mt Nt )


est une martingale. 
Changement de temps :

Définition 3.12. On appelle mouvement brownien standard par rapport à une filtration
(Ft ) un mouvement brownien standard (Bt ) adapté à (Ft ) et tel que

(Bt − Bs )⊥Fs , ∀t > s ≥ 0.


54 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU

Théorème de Lévy(seconde version) Soit (Mt ) une martingale continue de carré


intégrable par rapport à une filtration (Ft ) telle que

hM it = t p.s., ∀t ∈ R+ .

Alors (Mt ) est un mouvement brownien standard par rapport à (Ft ).

Proposition 3.20. Soit (Mt ) une martingale continue de carré intégrable (par rapport à
une filtration (Ft )) et telle que

lim hM it = ∞p.s.
t→∞

Soit T (s) = inf{t ≥ 0 : hM it ≥ s}. On pose

Gs = FT (s) et Bs = MT (s) , s ∈ R+ .

Alors le processus (Bs ) est un mouvement brownien standard par rapport à (Gs ).

Démonstration. Par continuité de l’application s 7→ T (s) (qui provient de la conti-


nuité de t 7→ hM it ), le processus (Bs ) est continu. D’autre part, pour s2 > s1 ≥ 0, on a,
par le théorème d’arrêt :

E (Bs2 − Bs1 | Gs1 ) = E MT (s2) − MT (s1) | FT (s1) = 0.

Car pour s2 ≥ s1 , T (s2 ) ≥ T (s1 ), le processus (Bs ) est donc une martingale (Bs ) est
clairement carré intégrable et

2 2
| Gs1 = E MT2 (s2) − MT2 (s1) | FT (s1) .
 
E Bs2 − Bs1

Par définition de la variation quadratique (et en utilisant a nouveau le théorème d’arrêt),


on a  
E MT2 (s2) − hM iT (s2) | FT (s1) = MT2 (s1) − hM iT (s1)

i.e.
 
2 2
 
E Bs2 − Bs1 | Gs1 = E hM iT (s2) − hM iT (s1) | FT (s1) = E s2 − s1 | FT (s1) = s2 − s1 .

Donc le processus (Bs2 − s) est une martingale par rapport à (Gs ), i.e. hBis = s p.s., et
par le théorème de Lévy, (Bs ) est un mouvement brownien standard par rapport à (Gs ). 
3.4. VARIATION QUADRATIQUE 55

Corollaire 3.2. Toute martingale continue de carré intégrable telle que limt→∞ hM it =
∞ p.s. s’écrit Mt = BhM it , où (Bt ) est un mouvement brownien standard. (BhM it =
MT (hM it ) = Mt par la continuité et croissance de t 7→ hM it p.s.)

On voit donc qu’une martingale se comporte généralement comme un mouvement brownien


(en ce qui concerne l’allure des trajectoires).

Attention ! Du corollaire ci-dessus on pourrait avoir en vie de conclure que toute


martingale est un processus gaussien ceci n’est avidement pas vrai, car < M >t est luis
même aléatoire en générale et donc (B< M >t ) n’est pas forcement gaussien par contre
si < M >t est un processus deterministe alors (Mt )t est un processus gaussien.

3.4.2 Intégrale stochastique(IS)


soit (Mt )t≥0 un b.m.s par rapport à une filtration (Ft )t≥0 .soit T > 0 notre but est est
Rt
de contrôler l’IS 0 Hs dBs , t ∈ [0.T ] pour (Ht )t≥0 versifiant certaine condition pour cela ,
on procède en plusieurs étapes

Rt
Remarque 25. En mathématique financières sur cet actif et 0 Hs dBs , t ∈ [0.T ] représente
le gaine réaliser à l’instant t. De la même manière qui pour le cas discret (Ht )t≥0 doit
être prévisible pour qu’il n’y ait pas pas(délit d’un initie). Nous allons voir une manière
simple de traduire cette propriété de prévisibilité à a temps continue.

Première étape

Définition 3.13. un processus simple prévisible par rapport à une filtration (Ft )t est un
processus (Ht )t∈[0,T ] tel que Ht = ni=1 Xi 1]ti−1 ,ti−1 ] où 0 = t0 < t1 ..... < tn = T et Xi une
P

v.a Fi−1 mesurable et bornée ∀i = 1, ...., n.

on voit donc que sur l’intervalle ]ti−1 , ti−1 ], la valeur du processus (Ht )t≥0 est donc
déterminer par la valeur Fi−1 , d’où le nom de ”prévisibilité” ’l’application simple vient
quant à elle du fais que le processus ne prend qu’un nombre fini de valeurs ”aléatoire” )
on pose
Z T X n
(H.B)T = Hs dBs = Xi (Bti − Bti−1 )
0 i=1
56 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU

cette définition de l’intégrale stochastique pour des processus simple prévisible est uni-
voque et l’intégrale est linéaire en H

((cH + K).B) = c(H.B)T + (k.B)T

on a Z T Z T Z T
(cH + K)s dBs = c (H)s dBs + (K)s dBs
0 0 0

RT
Remarque 26. L’IS 0 (H)s dBs représente en quelque sorte l’aire sous le courbe de
t −→ (H)t de 0 à T , lorsqu’on mesure les intervalles [ti−1 , ti−1 [ à l’aide du m.b (Bt )t≥0
Ici il faut faire attention quand on parle de mesure car
P
1. cette mesure ne vérifie pas non plus l’axiome ii) P (∪An ) = P (An ) de la définition
d’une mesure .

2. la mesure de [ti−1 , ti−1 [ par (Bt )t≥0 est Bti − Bti−1 peut être négative.

Proposition 3.21. On a les égalités suivantes :


Z T
E[(H.B)T ] = 0 et E[(H.B)2T ] = E( (H)2s ds)
0

la seconde égalité ci-dessus s’appelle l’isométrie d’ito.

Remarque 27. Si Ht = 1 on retrouve

E(BT2 ) = T

Démonstration. n
X
E[(H.B)T ] = E(Xi (Bti − Bti−1 ))
i=1
n
X
= E(E(Xi (Bti − Bti−1 ))|Fti−1 )
i=1
n
X
= E(Xi E((Bti − Bti−1 ))|Fti−1 )
i=1

(car Xi est Fti−1 mesurable)

n
X
= E(Xi E((Bti − Bti−1 ))) = 0
i=1
3.4. VARIATION QUADRATIQUE 57

(car (Bti − Bti−1 ) ⊥ Fti−1 )


Pour les isométrie
n
X
E[(H.B)2T ] = E(Xi Xj (Bti − Bti−1 )(Btj − Btj−1 ))
i=1

n
X n
X
2 2
= (Xi (Bti − Bti−1 ) + 2 E(Xi Xj (Bti − Bti−1 )(Btj − Btj−1 ))
i=1 i,j=1

n
X n
X
= E(Xi2 (Bti − Bti−1 ) + 2 2
E(E(Xi Xj (Bti − Bti−1 )(Btj − Btj−1 ))|Ftj−1 )
i=1 i,j=1

n
X
= E(Xi2 (Bti − Bti−1 )2
i=1
n
X n
X
= E(Xi2 (ti − ti−1 )) = (ti − ti−1 )E(Xi2 )
i=1 i=1

d’autre part
Z T Xn Z ti
2
E( (H)s ds) = E( (H)2s ds)
0 i=1 ti−1

(car (H)s = (X)i sur [ti−1 , ti−1 [)


n
X n
X
= E( Xi2 (ti − ti−1 )) = (ti − ti−1 )E(Xi2 )
i=1 i=1

d’où l’isométrie. 

Remarque 28. L’isométrie d’Ito dit encore que si H et k sont 2 processus simple,et
RT
prévisible alorsE((H.B)T .(K.B)T ) = E( 0 Hs Ks ds) la vérifification
est simillaire á celle effectuée ci-dessus.

Deuxième étape
soit (Ht ) un processus simple et prévisible et t ∈ [0, T ]
RT
on pose (H.B)t = 0 Hs dBs = (H1[0,t] .B)T
= i=n
P
i=1 Xi (Bti ∧t − Bti+1 ∧t )
cette intégrale est encore linéaire en H et on a la proposition prćedente
E((H.B)t ) = 0 etE((H.B)2t ) = E((H1[0,t] .B)2T ))
RT Rt
= E( 0 Hs2 1[0,t] ds) = E( 0 Hs2 ds)
de plus,en utilisant la remarque précedante ,on peut encore calculer
58 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU
R t∧s
cov ((H.B)t , (K.B)s ) = E( 0
Hr .Kr dr)

Pi=k−1
Remarque 29. si t ∈]tk−1 , tk ] alors (H.B)t = i=0 Xi (Bti − Bti−1 ) + Xk (Bt − Btk−1 )

Proposition 3.22. le processus ((H.B)t )t∈[0,T ] est une martingale continue de carré intégrable

Démonstration. par la derniére remarque et la continuité de ((Bt )t≥0 ) le procesus


(H.B)t ) est continue sur]tk−1 , tk ] aux points limites,il est aisé de vérifier que le processus
est encore continue, d’autre part, l’isométrie d’ Ito dit que(H.B)t est un processus de carée
intégrable donc par l’inégalité de cauchy-schwartz
p
E(|(H.B)t |) ≤ E((H.B)2t ) < ∞ de plus si t ∈]tk−1 , tk ] alors :
E((H.B)T |Ft ) = (H.B)t (exercice en TD)
d’oú ∀t ≥ s; E((H.B)t |Fs ) = E(E((H.B)T |Ft )|Fs )(carFs ⊂ Ft )
= E ((H.B)T |Fs )
= (H.B)s
l’inégualité de Doob on a donc :
Z T
E(supt∈[0,T ] (H.B)2T ) ≤ 4E((H.B)2T ) = 4E( Hs2 ds)
0


Troisième étape
On étend maintenant l’intégrale (H.B) par continuité á l’ensemble :
HT = (Ht , t ∈ [0, T ]) :H adapté contiue á gauche et admettant une limite á droite et tq
RT
E( 0 Hs2 ds) ≺ ∞
RT
cet ensemble est un espace vectoriel normé muni de la norme ||.||T1 définie par :E( 0 Hs2 ds)

Remarque 30. un processus adapté et contiue á gauche estl’équivalent en temps contiuá


un processus prévisible á temps discret la valeur d’ un tel processusá l’instant t ne peut pas
”trop” different de sa valeur á l’instant t −  instant oú il est Ft− mésurable car adapté.

d’autre part on entend par ” limie á droit” que le processus peut être discontinu á
droite mais doit tout de même avoir une limite depuis la droite (ie : ”le future”) ;cette
restriction essentiellement téchnique,elle assure que le processus soit suffisament règulier.

On a maintenant besoin du lemme suivant :


3.4. VARIATION QUADRATIQUE 59

Lemme
R 3.1. ∀H ∈HT ;il existe une suite (H (n) ) de processus simple et prévisible telque :
T (n)
E 0 (Hs − H s )2 converge vers 0 lorsque n tends vers +∞
n−→∞
ie : ||Hn − H|| → 0

Conséquence :
Du fait que la suite H n converge ;elle égalemment une suite de cauchy
Z T 
n;m−→∞
E (Hs(n) − Hs(m) )2 ds → 0
0

et donc on a :
E supt∈[0,T ] (H (n) .B)t − (H (m) .B)2t


= E supt∈[0,T ] ((Hn − Hm).B)2t




Z T 
(n) (m) 2 n;m−→∞
≤ 4E (Hs − Hs ) ds → 0
0

la suite de processus (H (n) .B) est donc une suite de cauchy dans l’ espace de Banach MT
definie par MT = {(Mt , t ∈ [0, T ]) martingale continue de carée intégrable tq M0 = 0}

et muni par la norme ||.||T2 = E supt∈[0,T ] Mt2 le fait que MT soit complet implique que
la suite (H (n) .B)converge dans MT .
Il existe donc un élèment de MT qu’ on notera (H.B) ∈ MT tq :

 n→∞
E supt∈[0,T ] (H (n) .B)t − (H.B)2t −→ 0

nous avons aussi définie l’ application linèaire et continue

HT −→ MT

H 7−→ (H.B)

Sous construction
(1)Xi estFti−1 - mesurable or ∀i ≤ k − 1 ona : Fti−1 ⊂ Ftk−1 ⊂ Ft
∀i ≤ k − 1Xi estFt - mesurable
(Bti − Bti−1 )estFti−1 - mesurable
donc ∀i ≤ k − 1 ;Bti − Bti−1 est Ftk−1 - mesurable donc Ft - mesurable
(1) = k−1
P
i=1 Xi (Bti − Bti−1 )
(2)Xk estFtk−1 - mesurable .
60 CHAPITRE 3. PROCESSUS ALÉATOIRE À TEMPS CONTINU

E(Xt (Btk − Btk−1 )/Ft ) = Xk E((Btk−1 − Btk )/Ft )car : (Ftk−1 ⊂ Ftk )

= Xk E((Btk /Ft ) − E(Btk−1 )/Ft )

= Xk ((Bt − E(Btk−1 )/Ft ))(Bt )martingale

= Xk ((Bt − Btk−1 )car : (Ftk−1 ⊂ Ftk )


n
X
(3) = E(Xi (Bti − Bti−1 /Ft )
i=k+1
= E(E(Xi (Bti − Bti−1 )/Fti−1 )/Ft )

= E(Xi E(Bti − Bti−1 )/Fti−1 )/Ft )

car (i ≥ k + 1, (Ftk−1 ⊂ Fti ), t ≤ tk ≤ ti−1 (Ft ⊂ Fti ))


= E(Xi E((Bti − Bti−1 )/Ft ) et Bti − Bti−1 = 0
Pk−1
= E((H.B)T /Ft ) = (1) + (2) = i=1 (Xi (Bti − Bti−1 ) + Xk (Bt − Btk−1 )
= (H.B)t

Vous aimerez peut-être aussi