Processus Stochastiques
Processus Stochastiques
Processus Stochastiques
ES
Sans etre exhaustif, nous rappelons ici quelques elements de la theorie des probabilites qui
reviendront tout au long de ce cours. Des notions telles que:
La notion despace de probabilite (,F,P);
La notion de variable aleatoire;
La notion de loi dune variable aleatoire;
La notion de fonction caracteristique;
Le theor`eme central limite et la loi des grands nombres;
La notion dindependance de tribus ou de variables aleatoires;
La notion de loi gaussienne et de vecteurs gaussiens;
sont supposees acquises. Dans le cas contraire, nous renvoyons `a tout ouvrage elementaire dont
notamment:
Probability par A.N. Shiryaev, Springer, Graduate Texts in Mathematics, 95.
1
CHAPITRE 1: QUELQUES RAPPELS DE TH
1. Lemme de Borel-Cantelli
Soit (,F,P) un espace de probabilite. Soit (A
n
)
nN
, une suite devenements de F. On note
limsup A
n
=
nm
A
n
= { ,m,n() m, A
n()
}.
Proposition 1. (Lemme de Borel-Cantelli) Soit (A
n
)
nN
une suite devenements de F telle que
n
P(A
n
) < +.
Alors
P(limsup A
n
) = 0.
2. Quelques in egalit es
Soit (,F,P) un espace de probabilite.
Proposition 2. (Inegalite de Markov) Soient X une variable aleatoire mesurable et g : R
(0, +) une fonction borelienne, alors pour tout x R,
P(X x)
E(g(X))
g(x)
.
Proposition 3. (Inegalite de Jensen) Soient : R R une fonction convexe et X une variable
aleatoire mesurables. Supposons que,
E(| X |) < +, E(| (X) |) < +.
Alors,
E((X)) (E(X)).
Proposition 4. (Inegalite de Tchebychev) Soit X une variable aleatoire mesurable dans L
2
,
alors pour tout c > 0,
P(| X E(X) | c)
Var(X)
c
2
.
Proposition 5. (Inegalites de Holder et Minkowski) Soient p > 1 et q tels que
1
p
+
1
q
= 1. On
a pour toutes variables aleatoires mesurables X et Y ,
| E(XY ) | E(| X |
p
)
1
p
E(| Y |
q
)
1
q
,
et
E(| X +Y |
p
)
1
p
E(| X |
p
)
1
p
+E(| Y |
p
)
1
p
.
3. Convergence dune suite de variables al eatoires
Soit (X
n
)
nN
une suite de variables aleatoires reelles mesurables.
Denition 6. On dit que X
n
n+
X presque s urement si
P(X
n
n+
X) = 1.
On dit que X
n
n+
X en probabilite si pour tout > 0,
P(| X
n
X |> )
n+
0.
On dit X
n
n+
X dans L
p
, p 1, si
E(| X
n
X |
p
)
1
p
n+
0.
2
Entre ces dierents modes de convergence, on a les relations suivantes:
La convergence presque s ure implique la convergence en probabilite;
La convergence dans L
p
implique la convergence en probabilite.
Dautre part,
Proposition 7. (Theor`eme de convergence dominee) Soit (X
n
)
nN
une suite de variables aleatoires
reelles mesurables telle que X
n
n+
X en probabilite. Si il existe une constante K > 0 telle
que
sup
n
| X
n
| K,
alors X
n
n+
X presque s urement.
Denition 8. Soit (X
i
)
iI
une famille de variables aleatoires. On dit que (X
i
)
iI
est uni-
formement integrable si pour tout > 0, on peut trouver un K 0 tel que
i I, E(| X
i
| 1
|X
i
|>K
) < .
On a alors quelques proprietes:
Une famille nie de L
1
est toujours uniformement integrable;
Une famille uniformement integrable est bornee dans L
1
;
Une famille bornee dans L
p
, p > 1, est uniformement integrable.
Proposition 9. Soit (X
n
)
nN
une suite de variables aleatoires appartenant `a L
1
. Soit X L
1
.
Alors X
n
n+
X dans L
1
, si et seulement si:
(1) X
n
n+
X en probabilite;
(2) La suite (X
n
)
nN
est uniformement integrable.
La notion de convergence en loi est la plus faible mais aussi la plus interessante dun point de
vue probabiliste.
Soit (X
n
)
nN
une suite de variables aleatoires mesurables `a valeurs dans un espace polonais
1
.
Denition 10. On dit que (X
n
)
nN
converge en loi vers une variable aleatoire X si pour toute
fonction f : E R, continue, bornee, on a:
E(f(X
n
))
n+
E(f(X
n
)).
Cela revient `a dire que la suite des lois de X
n
converge etroitement vers la loi de X.
On remarquera que pour la convergence en loi, les variables aleatoires X
n
nont donc pas
necessairement besoin detre denies sur le meme espace de probabilite.
Theor`eme 11. (Theor`eme de Prokhorov) Soit P une famille de probabilites denies sur (E,E).
Alors P est un ensemble relativement compact pour la topologie de la convergence etroite, si
et seulement si la famille P est tendue, i.e. pour tout (0,1), on peut trouver un ensemble
compact K
) 1 .
La raison detre de ce theor`eme est quelle permet la strategie suivante pour demontrer la
convergence en loi dune suite (X
n
)
nN
:
(1) On demontre que la famille (X
n
)
nN
est tendue;
(2) On demontre que la suite (X
n
)
nN
ne peut avoir quune unique valeur dadherence.
Si (X
n
)
nN
est une suite de variables aleatoires reelles, alors tous les autres modes de convergence
cites plus haut, impliquent la convergence en loi.
1. Un espace topologique est dit polonais si cest un espace metrique complet separable.
3
4. Esp erances conditionnelles
Soit (,F,P) un espace de probabilite. Soient maintenant G une sous-tribu de F et X une
variable aleatoire reelle F mesurable telle que
E(| X |) < +.
Alors il existe une variable aleatoire Y , G mesurable telle que:
(1) E(| Y |) < +;
(2) Pour tout A G,
E(1
A
X) = E(1
A
Y ).
De plus, si Z est une autre variable aleatoire G mesurable qui verie les 2 proprietes precedentes,
alors
P(Y = Z) = 1.
La variable Y sappelle une version de lesperance conditionnelle de X sachant G et on note
Y = E(X | G).
Si on consid`ere des variables aleatoires X
1
et X
2
denies sur (,F,P) telles que
E(| X
1
|) < +, E(| X
2
|) < +,
ainsi que deux sous-tribus H et G de F veriant:
= H G,
alors on a les proprietes suivantes:
Si X
1
est G mesurable, E(X
1
| G) = X
1
;
Si Y est une variable aleatoire G mesurable positive et bornee alors
E(Y X
1
) = E(Y E(X
1
| G)) ;
Si Y
1
et Y
2
sont deux variables aleatoires positives bornees et G mesurables, alors
E(Y
1
X
1
+Y
2
X
2
| G) = Y
1
E(X
1
| G) +Y
2
E(X
2
| G) ;
E(E(X
1
| G) | H) = E(X
1
| H);
Si X
n
est une suite de variables integrables qui converge dans L
1
vers X
1
, alors
lim
n+
E(X
n
| G) = E(X
1
| G) .
Si X
1
X
2
, E(X
1
| G) E(X
2
| G);
Si : R R est une fonction convexe telle que (X
1
) est integrable alors on a linegalite
de Jensen:
E((X
1
) | G) (E(X
1
| G)) .
5. Lois infiniment divisibles et th eor` eme de L evy-Khinchin
Soient (,F,P) un espace de probabilite et X une variable aleatoire reelle.
Denition 12. On dit que X est une variable aleatoire inniment divisible si pour tout n 1,
on peut trouver des variables aleatoires independantes X
1
,...,X
n
telles que
X
1
+... +X
n
=
loi
X.
4
On a alors le theor`eme important suivant qui caracterise enti`erement les variables aleatoires
inniment divisibles:
Theor`eme 13. (Levy-Khinchin) Soit X une variable aleatoire inniment divisible. On peut
trouver R, > 0 et une mesure sur R\{0} tels que
R
(1 x
2
)(dx) < +,
R, E(e
iX
) = e
i
1
2
2
+
R
(e
ix
1ix1
|x|1
)(dx)
.
Reciproquement, soient R, > 0 et une mesure sur R\{0} telle que
R
(1 x
2
)(dx) < +.
La fonction:
e
i
1
2
2
+
R
(e
ix
1ix1
|x|1
)(dx)
est alors la fonction caracteristique dune loi inniment divisible.
5
Dans ce chapitre nous jetons les bases de la theorie des processus stochastiques en temps continu.
Nous denissons un processus stochastique comme une variable aleatoire `a valeurs dans un espace
de fonctions reels. Les outils importants introduits sont:
La theorie de la mesure dans les espaces de fonctions;
Le theor`eme de Daniell-Kolmogorov ;
La notion de processus de Markov et de processus gaussien;
Le crit`ere de continuite de Kolmogorov qui donne une condition simple pour lexistence
dune version continue dun processus;
La notion de convergence en loi dune suite de processus continus.
1
6
CHAPITRE 2: PROCESSUS STOCHASTIQUES EN TEMPS CONTINU
1. Quelques el ements de th eorie de la mesure dans les espaces de fonctions
Avant dattaquer la theorie des processus stochastiques qui peuvent etre vus comme des variables
aleatoires `a valeurs dans un espace de fonctions, il est important de bien comprendre quelles
sont les tribus canoniques sur ces espaces fonctionnels.
Notons A(R
+
,R) lensemble de toutes les applications R
+
R.
On consid`ere la famille densemble dits cylindriques:
{f A(R
+
,R),f(t
1
) I
1
,...,f(t
n
) I
n
}
o` u
t
1
,...,t
n
R
+
et o` u I
1
,...,I
n
sont des intervalles de la forme (a
i
,b
i
].
On note alors T (R
+
,R) la -alg`ebre de A(R
+
,R) engendree par cette famille. Cette -alg`ebre
admet dautres familles generatrices.
Proposition 1. En tant que -alg`ebre, T (R
+
,R) est egalement engendree par les familles sui-
vantes:
(1)
{f A(R
+
,R),f(t
1
) B
1
,...,f(t
n
) B
n
}
o` u
t
1
,...,t
n
R
+
et o` u B
1
,...,B
n
sont des ensembles boreliens de R.
(2)
{f A(R
+
,R),(f(t
1
),...,f(t
n
)) B}
o` u
t
1
,...,t
n
R
+
et o` u B est un ensemble borelien de R
n
.
Preuve.
Exercice
Exercice 2. Montrer que les ensembles suivants ne sont pas dans T ([0,1],R):
(1)
{f A([0,1],R), sup
t[0,1]
f(t) < 1}
(2)
{f A([0,1],R),t [0,1]f(t) = 0}
Lexercice precedent montre bien que la tribu T (R
+
,R) nest pas assez riche pour rendre mesu-
rable des evenements dont, pourtant, on aimerait pouvoir calculer la probabilite (sic !). Cela est
d u au fait que lespace dont on est parti, A(R
+
,R) est bien trop gros.
Dans ce cours nous nous interesserons beaucoup `a des processus qui ont des trajectoires conti-
nues. Dans ce cas on part de lespace des fonctions continues C(R
+
,R) et on consid`ere la tribu
B(R
+
,R) engendree par les cylindres:
{f C(R
+
,R),f(t
1
) I
1
,...,f(t
n
) I
n
}
o` u
t
1
,...,t
n
R
+
et o` u I
1
,...,I
n
sont des intervalles de la forme (a
i
,b
i
].
7
Il est interessant de noter que B(R
+
,R) est borelienne:
Proposition 3. B(R
+
,R) est engendree par les ouverts de la topologie de la convergence uni-
forme sur tout compact.
Preuve.
On rappelle tout dabord que sur C(R
+
,R) la topologie de la convergence uniforme sur tout
compact est metrisable, par exemple grace `a la distance
d(f,g) =
+
n=1
1
2
n
min( sup
0tn
| f(t) g(t) | ,1).
Cette distance fait de C(R
+
,R) un espace metrique complet separable.
Notons O la tribu engendree par les ouverts.
Il est clair que les cylindres de la forme
{f C(R
+
,R),f(t
1
) < a
1
,...,f(t
n
) < a
n
}
sont des ouverts qui engendrent B(R
+
,R). Par consequent
B(R
+
,R) O.
Pour demontrer linclusion inverse, il sut de demontrer que pour tout n N, n 1 tout > 0
et tout g C(R
+
,R),
{f C(R
+
,R), sup
0tn
| f(t) g(t) |< } B(R
+
,R),
ce qui decoule de legalite
{f C(R
+
,R), sup
0tn
| f(t) g(t) |< } =
tQ,0tn
{f C(R
+
,R), | f(t) g(t) |< }.
9
3. Le th eor` eme dextension de Daniell-Kolmogorov
Dans le paragraphe precedent, nous avons vu quun processus stochastique denissait une mesure
de probabilite sur lespace (A(R
+
,R),T (R
+
,R)). Nous allons tout dabord voir que cette mesure
est enti`erement determinee par ce que lon appelle les lois ni-dimensionnelles du processus.
Denition 9. Soit t
1
,...,t
n
R
n
+
. On note
t
1
,...,t
n
la loi de la variable aleatoire
(X
t
1
,...,X
t
n
).
Cest donc une mesure de probabilite portee par R
n
. Cette probabilite sappelle une loi ni-
dimensionnelle du processus X.
Proposition 10. Soient (X
t
)
tR
+
et (X
t
)
tR
+
2 processus stochastiques eventuellement denis
sur des espaces de probabilite dierents. Si ces 2 processus ont les memes lois ni-dimensionnelles,
alors ils ont les memes lois.
Preuve.
Dire que (X
t
)
tR
+
et (X
t
)
tR
+
ont les memes lois ni-dimensionnelles revient `a dire que les lois
de X et X
ont la
meme loi.
Lensemble des lois ni-dimensionnelles dun processus verient les 2 conditions dite de compa-
tibilite: Soient t
1
,...,t
n
R
+
et une permutation de lensemble {1,...,n}, on a
(1)
t
1
,...,t
n
(A
1
... A
n
) =
t
(1)
,...,t
(n)
(A
(1)
... A
(n)
), A
i
B(R).
(2)
t
1
,...,t
n
(A
1
... A
n1
R) =
t
1
,...,t
n1
(A
1
... A
n1
), A
i
B(R).
Le theor`eme de Daniell-Kolmogorov arme que reciproquement, etant donnee une famille com-
patible de probabilites denis sur les cylindres de T (R
+
,R), il est toujours possible de construire
un processus dont les lois ni-dimensionnelles sont donnees par ces probabilites.
Theor`eme 11. (Daniell 1918, Kolmogorov 1933)
Supposons donnee pour chaque t
1
,...,t
n
R
+
une probabilite
t
1
,...,t
n
sur R
n
. Supposons que cette
famille de probabilites verie les 2 conditions:
(1)
t
1
,...,t
n
(A
1
... A
n
) =
t
(1)
,...,t
(n)
(A
(1)
... A
(n)
), A
i
B(R).
(2)
t
1
,...,t
n
(A
1
... A
n1
R) =
t
1
,...,t
n1
(A
1
... A
n1
), A
i
B(R).
Alors il existe une unique probabilite sur (A(R
+
,R),T (R
+
,R)) telle que pour t
1
,...,t
n
R
+
,
A
1
,...,A
n
B(R):
(
t
1
A
1
,...,
t
n
A
n
) =
t
1
,...,t
n
(A
1
... A
n
).
10
Pour demontrer ce theor`eme, nous nous appuyons sur le theor`eme classique de Caratheodory
dextension de la mesure que nous rappelons ici:
Theor`eme 12. (Carathedory) Soit un ensemble non vide et A une famille de sous-ensembles
de telle que:
(1) A;
(2) Si A,B A, A B A;
(3) Si A A, \A A.
Notons (A) la -alg`ebre engendree par A. Si
0
est une mesure -additive sur (,A), alors il
existe une unique mesure sur (,(A)) telle que pour A A,
0
(A) = (A).
Nous utiliserons egalement le lemme suivant:
Lemme 13. Soit B
n
R
n
, n N, une suite de boreliens tels que
B
n+1
B
n
R.
On suppose donnee pour chaque n N une probabilite
n
sur (R
n
,B(R
n
)) telle que,
n
(B
n
) > ,
o` u est un reel strictement positif strictement inferieur `a 1. Alors, on peut trouver une suite
de compacts K
n
R
n
, n N, tels que:
K
n
B
n
K
n+1
K
n
R.
n
(K
n
)
2
.
Preuve du lemme. Cest un resultat classique de theorie de la mesure que pour chaque B
n
on
peut trouver un compact K
n
R
n
tel que
K
n
B
n
et
n
(B
n
\K
n
)
2
n+1
.
On pose alors
K
n
= (K
1
R
n1
) ... (K
n1
R) K
n
.
Il est facile de verier que:
K
n
B
n
K
n+1
K
n
R.
Dautre part,
n
(K
n
) =
n
(B
n
)
n
(B
n
\K
n
)
=
n
(B
n
)
n
B
n
\
(K
1
R
n1
) ... (K
n1
R) K
n
(B
n
)
n
B
n
\
(K
1
R
n1
)
...
n
B
n
\
n1
R
n
(B
n
\K
n
)
n
(B
n
)
n
(B
1
\K
1
) ...
n
(B
n
\K
n
)
4
...
2
n+1
2
.
11
Preuve du theor`eme de Daniell-Kolmogorov. Pour le cylindre
C
t
1
,...,t
n
(B) = {f A(R
+
,R),(f(t
1
),...,f(t
n
)) B}
o` u
t
1
,...,t
n
R
+
et o` u B est un borelien de R
n
, on pose
(C
t
1
,...,t
n
((B))) =
t
1
,...,t
n
(B).
Grace aux proprietes de compatibilite, il est facile de voir que est bien denie et que
(A(R
+
,R)) = 1.
Maintenant, lensemble A de tous les cylindres C
t
1
,...,t
n
(B) verie les hypotheses du theor`eme
de Caratheodory. Pour conclure la demonstration du theor`eme de Daniell-Kolmogorov, il reste
donc `a demontrer que est -additive, cest-`a-dire que si (C
n
)
nN
est une suite de cylindres 2
`a 2 disjoints telle que C =
nN
C
n
est un cylindre alors
(C) =
+
n=0
(C
n
).
Cest la partie dicile du theor`eme.
Comme pour tout N N, on a
(C) =
C\
N
n=0
C
n
N
n=0
C
n
,
il sut de montrer que
lim
N+
(D
N
) = 0.
o` u D
N
= C\
N
n=0
C
n
.
La suite ((D
N
))
NN
est decroissante et positive et donc convergente. Supposons par labsurde
quelle converge vers > 0. Nous allons demontrer que cela implique
NN
D
N
= ,
ce qui est clairement absurde.
Comme chaque D
N
est un cylindre, levenement
NN
D
N
ne fait intervenir quun nombre
denombrable dinstants t
1
< ... < t
n
< ... et on peut supposer, quitte `a rajouter des ensembles
dans la suite des D
N
, que chaque ensemble D
N
peut etre ecrit
D
N
= {f A(R
+
,R),(f(t
1
),...,f(t
N
)) B
N
}
o` u B
n
R
n
, n N, est une suite de boreliens tels que
B
n+1
B
n
R.
Comme, par hypoth`ese, (D
N
) , on peut utiliser le lemme precedent pour construire une
suite de compacts K
n
R
n
, n N, tels que:
K
n
B
n
K
n+1
K
n
R.
t
1
,...,t
n
(K
n
)
2
.
Chaque K
n
etant non vide, on peut trouver
(x
n
1
,...,x
n
n
) K
n
.
La suite (x
n
1
)
nN
admet une suite extraite (x
j
1
(n)
1
)
nN
qui converge vers x
1
K
1
. De meme
la suite ((x
j
1
(n)
1
,x
j
1
(n)
2
)
nN
va admettre une suite extraite qui converge vers (x
1
,x
2
) K
2
. En
12
raisonnant ainsi, de proche en proche, on construit ainsi une suite (x
n
)
nN
telle que pour tout
n,
(x
1
,...,x
n
) K
n
.
Levenement
{f A(R
+
,R),(f(t
1
),...,f(t
N
)) = (x
1
,...,x
N
)}
se trouve alors dans chaque D
N
, ce qui conduit `a notre contradiction.
Linteret essentiel du theor`eme de Daniell-Kolmogorov est de pouvoir construire un processus `a
laide de ses lois ni-dimensionnelles:
Corollary 14. Supposons donnee pour chaque t
1
,...,t
n
R
+
une probabilite
t
1
,...,t
n
sur R
n
.
Supposons que cette famille de probabilites verie les conditions de compatibilite du theor`eme de
Daniell-Kolmogorov.
Alors on peut trouver un espace de probabilite (,F,P) ainsi quun processus (X
t
)
t0
deni sur
cet espace dont les lois ni-dimensionnelles sont les
t
1
,...,t
n
.
Preuve du corollaire. Comme espace de probabilite, on prend
(,F,P) = (A(R
+
,R),T (R
+
,R),)
o` u est la probabilite donnee par le theor`eme de Daniell-Kolmogorov. On consid`ere alors le
processus (
t
)
t0
deni sur A(R
+
,R) par
t
(f) = f(t). Par construction meme, ce processus est
de loi .
R
P
t
(y,A)P
s
(x,dy);
Lequation (1) est appelee lequation de Chapman-Kolmogorov.
Une fonction de transition peut egalement etre vu comme une famille doperateurs (P
t
)
t0
continus et de norme inferieure `a 1 denis sur lespace des fonctions f : R R boreliennes
bornees:
(P
t
f)(x) =
R
f(y)P
t
(x,dy).
13
Exercice 16.
(1) Montrer que lequation de Chapman-Kolmogorov equation est equivalente `a la propriete
de semigroupe:
P
t+s
= P
t
P
s
,s,t 0.
(2) Soit f : R
+
R une fonction continue en 0 telle que
f(t + s) = f(t)f(s),s,t 0.
Montrer quil existe R tel que pour t 0,
f(t) = e
t
.
(3) Soit f : R
+
M
n
(R) (espace des matrices n n) une fonction continue en 0 telle que
f(t + s) = f(t)f(s),s,t 0.
Montrer quil existe M
n
(R) tel que pour t 0,
f(t) = e
t
.
Cet exercice suggere que sous une hypoth`ese de continuite en 0, on doit pouvoir ecrire
P
t
= e
tL
,
o` u L sera un operateur deni sur un certain espace fonctionnel.
Denition 17. Un processus (X
t
)
t0
deni sur lespace de probabilite (,F,P) est appele un
processus de Markov sil existe une fonction de transition {P
t
,t 0} telle que pour toute fonction
borelienne bornee f : R R, et 0 < s,t,
E(f(X
s+t
) | (X
u
,u s)) = (P
t
f)(X
s
),
o` u (X
u
,u s) est la plus petite sous-tribu de T (R
+
,R) qui rend mesurable toutes les variables
aleatoires
(X
u
1
,...,X
u
n
),u
1
,...,u
n
[0,s].
La fonction de transition {P
t
,t 0} est appelee la fonction de transition du processus (X
t
)
t0
.
Ainsi, pour un processus de Markov, toute linformation contenue dans X
s+t
conditionnellement
`a (X
u
,u s) se resume `a X
s
. Le theor`eme de Daniell-Kolomogorov assure lexistence dun
processus de Markov de fonction de transition donnee.
Proposition 18. Soient {P
t
,t 0} une fonction de transition et une mesure de probabilite
sur R. Alors, il existe un espace de probabilite (,F,P) ainsi quun processus de Markov (X
t
)
t0
de fonction de transition {P
t
,t 0} deni sur cet espace tel que
X
0
=
loi
.
Preuve. Nous allons montrer comment la fonction de transition caracterise les lois ni-dimensionnelles
et ensuite utiliser le corollaire 14.
Si (X
t
)
t0
est un processus de Markov de fonction de transition {P
t
,t 0} tel que:
X
0
=
loi
.
14
Alors on doit avoir, pour toute fonction borelienne bornee f:
E(f(X
t
)) = E((P
t
f)(X
0
))
=
R
(P
t
f)(x)(dx)
=
R
f(y)P
t
(x,dy)(dx).
Ainsi necessairement, si B est un borelien de R,
t
(B) =
B
P
t
(x,dy)(dx).
De meme on peut calculer les lois bi-dimensionnelles. Si f est une fonction borelienne bornee
R
2
R, pour 0 < t
1
< t
2
,
E(f(X
t
1
,X
t
2
)) = E(E(f(X
t
1
,X
t
2
) | (X
u
,u t
1
)))
= E
R
f(X
t
1
,y)P
t
2
t
1
(X
t
1
,dy)
R
f(x,y)P
t
1
(z,dx)P
t
2
t
1
(x,dy)(dz).
Ainsi, necessairement, si B est un borelien de R
2
,
t
1
,t
2
(B) =
B
P
t
2
t
1
(x,dy)P
t
1
(z,dx)(dz).
De meme, on montre que necessairement, si 0 < t
1
< ... < t
n
et si B est un borelien de R
n
alors
t
1
,...,t
n
(B) =
B
P
t
1
(z,dx
1
)P
t
2
t
1
(x
1
,dx
2
)...P
t
n
t
n1
(x
n1
,dx
n
)(dz).
Lidee est donc maintenant de denir pour 0 = t
0
< t
1
< ... < t
n
, A borelien de R et B borelien
de R
n
,
t
0
,t
1
,...,t
n
(AB) =
B
P
t
1
(z,dx
1
)P
t
2
t
1
(x
1
,dx
2
)...P
t
n
t
n1
(x
n1
,dx
n
)(dz).
Voir que cette famille de probabilites est compatible au sens du theor`eme de Daniell-Kolmogorov
est une consequence de lequation de Chapman-Kolmogorov (Exercice !).
Donc dapr`es le corollaire 14 on peut trouver un processus (X
t
)
t0
deni sur un certain espace
de probabilite dont les lois ni-dimensionnelles sont donnees par les
t
0
,t
1
,...,t
n
. Montrons que ce
processus est un processus de Markov de fonction de transition {P
t
,t 0} et que:
X
0
=
loi
.
Comme
0
(A) =
A
(dz) = (A),A B(R),
on a bien
X
0
=
loi
.
Il sagit maintenant de demontrer que pour toute fonction borelienne bornee f : R R, et
0 < s,t,
E(f(X
s+t
) | (X
u
,u s)) = (P
t
f)(X
s
).
15
Pour cela, il sut de demontrer que pour toutes fonctions boreliennes bornees f : R R,
F : R
n
R, et 0 = t
0
< t
1
< ... < t
n
,
E
f(X
t
n
)F(X
t
0
,...,X
t
n1
)
= E
(P
t
n
t
n1
f)(X
t
n1
)F(X
t
0
,...,X
t
n1
)
.
Mais dapr`es le theor`eme de Fubini:
E
f(X
t
n
)F(X
t
0
,...,X
t
n1
)
R
n+1
f(x
n
)F(z,x
1
,...,x
n1
)P
t
1
(z,dx
1
)P
t
2
t
1
(x
1
,dx
2
)...P
t
n
t
n1
(x
n1
,dx
n
)(dz)
=
R
n1
(P
t
n
t
n1
f)(x
n1
)F(z,x
1
,...,x
n1
)P
t
1
(z,dx
1
)P
t
2
t
1
(x
1
,dx
2
)...P
t
n1
t
n2
(x
n2
,dx
n1
)(dz)
=E
(P
t
n
t
n1
f)(X
t
n1
)F(X
t
0
,...,X
t
n1
)
.
Ce qui conclut la demonstration.
4.2. Processus gaussiens.
Denition 19. Un processus (X
t
)
t0
deni sur un espace de probabilite (,F,P) est dit gaussien
si toutes ses lois ni-dimensionnelles sont des lois gaussiennes.
La loi dun tel processus est caracterisee par sa fonction moyenne
m(t) = E(X
t
)
et sa fonction de covariance
R(s,t) = E((X
t
m(t))(X
s
m(s))) .
En eet la loi ni-dimensionnelle
t
1
,...,t
n
a la densite suivante par rapport `a la mesure de
Lebesgue:
1
(2)
n/2
1
det
exp
1
2
1i,jn
(x
i
m(t
i
))(
1
)
i,j
(x
j
m(t
j
))
,
o` u
i,j
= R(t
i
,t
j
).
On remarquera que la fonction de covariance R(s,t) est symetrique (R(s,t) = R(t,s)) et telle que
pour tout a
1
,...,a
n
R et t
1
,...,t
n
R
+
,
1i,jn
a
i
a
j
R(t
i
,t
j
) =
1i,jn
a
i
a
j
E
(X
t
i
m(t
i
))(X
t
j
m(t
j
))
= E
i=1
(X
t
i
m(t
i
))
0.
Reciproquement,
Proposition 20. Soient m : R
+
R et R : R
+
R
+
R une fonction symetrique qui verie
pour tout a
1
,...,a
n
R et t
1
,...,t
n
R
+
,
1i,jn
a
i
a
j
R(t
i
,t
j
) 0.
Alors, il existe un espace de probabilite (,F,P) ainsi quun processus gaussien (X
t
)
t0
deni
sur cet espace de fonction moyenne m et de fonction de covariance R.
16
Preuve. Denissons une famille de probabilites par
t
1
,...,t
n
=
1
(2)
n/2
1
det
exp
1
2
1i,jn
(x
i
m(t
i
))(
1
)
i,j
(x
j
m(t
j
))
dx
1
...dx
n
,
o` u
i,j
= R(t
i
,t
j
) et o` u dx
1
...dx
n
est la mesure de Lebesgue sur R
n
. Par hypoth`ese sur R, notez
que est bien une matrice symetrique positive, de sorte que
t
1
,...,t
n
est bien une loi gaussienne. Il
est facile de verier que cette famille est compatible au sens du theor`eme de Daniell-Kolmogorov,
on peut donc appliquer le corollaire 14 pour obtenir la conclusion souhaitee.
Exercice 21. Soit (X
t
)
t0
un processus gaussien de fonction moyenne nulle et de fonction de
covariance R(s,t) = min(s,t). Montrer que (X
t
)
t0
est egalement un processus de Markov et
calculer sa fonction de transition.
5. Le crit` ere de continuit e de Kolmogorov
Comme nous lavons dej`a precise, les processus stochastiques que nous avons etudies jusqu`a
present sont encore extremement generaux dans le sens o` u leurs trajectoires sont quelconques.
Neanmoins, de nombreux processus continus qui sont interessants dans la pratique ont des
trajectoires relativement reguli`eres.
Denition 22. Une fonction f : R
+
R est dite Holderienne dexposant > 0 si il existe une
constante C > 0 telle que pour tout s,t R
+
,
| f(t) f(s) | C | t s |
.
Exercice 23.
(1) Montrer que si f est une fonction Holderienne dexposant > 1, alors f est constante.
(2) Montrer quune fonction Holderienne est uniformement continue.
(3) Donner un exemple de fonction Holderienne dordre
1
2
.
Denition 24. Un processus stochastique (
X
t
)
t0
est appele une modication du processus
(X
t
)
t0
si pour t 0,
P
X
t
=
X
t
= 1.
Remarque 25. Si (
X
t
)
t0
est une modication du processus (X
t
)
t0
alors (
X
t
)
t0
a les memes
loi-ni-dimensionnelles que (X
t
)
t0
.
Le theor`eme important suivant, d u `a A. Kolmogorov, donne une condition susante pour quun
processus X admette une modication continue avec des trajectoires Holderiennes.
Theor`eme 26. (Kolmogorov 1956) Soit ,,c > 0. Si un processus (X
t
)
t[0,1]
deni sur (,F,P)
verie pour tout s,t [0,1],
E(| X
t
X
s
|
) c | t s |
1+
,
alors il existe une modication de (X
t
)
t[0,1]
qui est un processus continu dont les trajectoires
sont Holderiennes pour tout [0,
).
Preuve. Pour n N, notons
D
n
=
k
2
n
,k = 0,...,2
n
17
et
D =
nN
D
n
.
On remarque que D est dense dans [0,1]. Soit [0,
).
On a, dapr`es linegalite de Tchebychev:
P
max
1k2
n
| X k
2
n
Xk1
2
n
| 2
n
= P
1k2
n | X k
2
n
Xk1
2
n
| 2
n
2
n
k=1
P
| X k
2
n
Xk1
2
n
| 2
n
2
n
k=1
E
| X k
2
n
Xk1
2
n
|
2
n
c2
n()
Ainsi, comme > , on a
+
n=1
P
max
1k2
n
| X k
2
n
Xk1
2
n
| 2
n
< +,
donc dapr`es le lemme de Borel-Cantelli on peut trouver un ensemble
F tel que P(
) = 1
et tel que pour
i=n
(X
s
i+1
X
s
i
) + (X
s
n
X
t
n
) +
+
i=n
(X
t
i
X
t
i+1
)
Remarquez que les sommes ci-dessus sont en realite nies.
Par consequent,
| X
t
X
s
| 2
+
i=n
max
1k2
i
| X k
2
i
() Xk1
2
i
() |
2
+
i=n
2
i
2
1 2
2
n
.
Ainsi, les trajectoires de X
/
sont bien Holderiennes sur D.
18
Pour
, soit t
X
t
() lunique fonction continue qui coincide avec t X
t
() sur D. Pour
/
, on pose
X
t
() = 0. On obtient alors un processus (
X
t
)
t[0,1]
qui est la modication de
(X
t
)
t[0,1]
desiree (veriez le !).
C(R
+
,R), tel que pour tout n N:
P
n
(K
) 1 .
En ecrivant K
sous la forme donnee par le theor`eme dAscoli, on verie alors facilement que
les proprietes (1) et (2) sont satisfaites avec n
0
= 0.
Supposons maintenant que les proprietes (1) et (2) sont satisfaites. Tout dabord, comme une
suite nie est toujours relativement compacte, on peut supposer que les proprietes (1) et (2) sont
satisfaites avec n
0
= 0. Toujours dapr`es le theor`eme de Prokhorov, pour demontrer la relative
compacite, il sut de demontrer la tension.
Soient > 0 et N N. Pour tout k 1, on peut alors trouver A
N
> 0 et
N,k
tels que:
sup
nN
P
n
(|
0
|> A
N
)
2
N+1
sup
nN
P
n
V
N
(,
k
) >
1
k
2
N+k+1
On pose alors,
K
NN
f C(R
+
,R), | f(0) | A
N
,V
N
(,
N,k
)
1
k
,k 1
.
Le theor`eme dAscoli implique la relative compacite de K
) 1 .
) | t s |
1+
.
Alors la famille des lois de (X
n
)
nN
est relativement compacte dans la topologie de la convergence
etroite.
20
Preuve.
Exercice.
.
7. Un invit e de marque: A. Kolmogorov
Born: 25 April 1903 in Tambov, Tambov province, Russia
Died: 20 Oct 1987 in Moscow, Russia
Andrei Nikolaevich Kolmogorovs parents were not married and his father took no part in his
upbringing. His father Nikolai Kataev, the son of a priest, was an agriculturist who was exi-
led. He returned after the Revolution to head a Department in the Agricultural Ministry but
died in ghting in 1919. Kolmogorovs mother also, tragically, took no part in his upbringing
since she died in childbirth at Kolmogorovs birth. His mothers sister, Vera Yakovlena, brought
Kolmogorov up and he always had the deepest aection for her.
In fact it was chance that had Kolmogorov born in Tambov since the family had no connections
with that place. Kolmogorovs mother had been on a journey from the Crimea back to her home
in Tunoshna near Yaroslavl and it was in the home of his maternal grandfather in Tunoshna that
Kolmogorov spent his youth. Kolmogorovs name came from his grandfather, Yakov Stepanovich
Kolmogorov, and not from his own father. Yakov Stepanovich was from the nobility, a dicult
status to have in Russia at this time, and there is certainly stories told that an illegal printing
press was operated from his house.
After Kolmogorov left school he worked for a while as a conductor on the railway. In his spare
time he wrote a treatise on Newtons laws of mechanics. Then, in 1920, Kolmogorov entered
Moscow State University but at this stage he was far from committed to mathematics. He
studied a number of subjects, for example in addition to mathematics he studied metallurgy
and Russian history. Nor should it be thought that Russian history was merely a topic to ll
out his course, indeed he wrote a serious scientic thesis on the owning of property in Novgorod
in the 15th and 16th centuries. There is an anecdote regarding this thesis, his teacher saying:
You have supplied one proof of your thesis, and in the mathematics that you study this would
perhaps suce, but we historians prefer to have at least ten proofs.
Kolmogorov may have told this story as a joke but nevertheless jokes are only funny if there is
some truth in them and undoubtedly this is the case here.
In mathematics Kolmogorov was inuenced at an early stage by a number of outstanding mathe-
maticians. P S Aleksandrov was beginning his research (for the second time) at Moscow around
the time Kolmogorov began his undergraduate career. Luzin and Egorov were running their
impressive research group at this time which the students called Luzitania. It included M Ya
Suslin and P S Urysohn, in addition to Aleksandrov. However the person who made the deepest
impression on Kolmogorov at this time was Stepanov who lectured to him on trigonometric
series.
It is remarkable that Kolmogorov, although only an undergraduate, began research and produced
results of international importance at this stage. He had nished writing a paper on operations
on sets by the spring of 1922 which was a major generalisation of results obtained by Suslin. By
June of 1922 he had constructed a summable function which diverged almost everywhere. This
was wholly unexpected by the experts and Kolmogorovs name began to be known around the
world.
Kolmogorov graduated from Moscow State University in 1925 and began research under Lusins
supervision in that year. It is remarkable that Kolmogorov published eight papers in 1925,
all written while he was still an undergraduate. Another milestone occurred in 1925, namely
Kolmogorovs rst paper on probability appeared. This was published jointly with Khinchin
21
and contains the three series theorem as well as results on inequalities of partial sums of
random variables which would become the basis for martingale inequalities and the stochastic
calculus.
In 1929 Kolmogorov completed his doctorate. By this time he had 18 publications and Kendall
writes:
These included his versions of the strong law of large numbers and the law of the iterated loga-
rithm, some generalisations of the operations of dierentiation and integration, and a contribu-
tion to intuitional logic. His papers ... on this last topic are regarded with awe by specialists in
the eld. The Russian language edition of Kolmogorovs collected works contains a retrospective
commentary on these papers which [Kolmogorov] evidently regarded as marking an important
development in his philosophical outlook.
An important event for Kolmogorov was his friendship with Aleksandrov which began in the
summer of 1929 when they spent three weeks together. On a trip starting from Yaroslavl, they
went by boat down the Volga then across the Caucasus mountains to Lake Sevan in Arme-
nia. There Aleksandrov worked on the topology book which he co-authored with Hopf, while
Kolmogorov worked on Markov processes with continuous states and continuous time. Kolmo-
gorovs results from his work by the Lake were published in 1931 and mark the beginning of
diusion theory. In the summer of 1931 Kolmogorov and Aleksandrov made another long trip.
They visited Berlin, Gttingen, Munich, and Paris where Kolmogorov spent many hours in deep
discussions with Paul Levy. After this they spent a month at the seaside with Frechet
Kolmogorov was appointed a professor at Moscow University in 1931. His monograph on probabi-
lity theory Grundbegrie der Wahrscheinlichkeitsrechnung published in 1933 built up probability
theory in a rigorous way from fundamental axioms in a way comparable with Euclids treatment
of geometry. One success of this approach is that it provides a rigorous denition of conditional
expectation.
Around this time Malcev and Gelfand and others were graduate students of Kolmogorov along
with Gnedenko who describes what it was like being supervised by Kolmogorov:
The time of their graduate studies remains for all of Kolmogorovs students an unforgettable
period in their lives, full of high scientic and cultural strivings, outbursts of scientic progress
and a dedication of all ones powers to the solutions of the problems of science. It is impossible to
forget the wonderful walks on Sundays to which [Kolmogorov] invited all his own students (gra-
duates and undergraduates), as well as the students of other supervisors. These outings in the
environs of Bolshevo, Klyazma, and other places about 30-35 kilometres away, were full of dis-
cussions about the current problems of mathematics (and its applications), as well as discussions
about the questions of the progress of culture, especially painting, architecture and literature.
In 1938-1939 a number of leading mathematicians from the Moscow University joined the Steklov
Mathematical Institute of the USSR Academy of Sciences while retaining their positions at the
University. Among them were Aleksandrov, Gelfand, Kolmogorov, Petrovsky, and Khinchin.
The Department of Probability and Statistics was set up at the Institute and Kolmogorov was
appointed as Head of Department.
Kolmogorov later extended his work to study the motion of the planets and the turbulent ow of
air from a jet engine. In 1941 he published two papers on turbulence which are of fundamental
importance. In 1954 he developed his work on dynamical systems in relation to planetary motion.
He thus demonstrated the vital role of probability theory in physics.
We must mention just a few of the numerous other major contributions which Kolmogorov
made in a whole range of dierent areas of mathematics. In topology Kolmogorov introduced
the notion of cohomology groups at much the same time, and independently of, Alexander.
In 1934 Kolmogorov investigated chains, cochains, homology and cohomology of a nite cell
22
complex. In further papers, published in 1936, Kolmogorov dened cohomology groups for an
arbitrary locally compact topological space. Another contribution of the highest signicance in
this area was his denition of the cohomology ring which he announced at the International
Topology Conference in Moscow in 1935. At this conference both Kolmogorov and Alexander
lectured on their independent work on cohomology.
In 1953 and 1954 two papers by Kolmogorov, each of four pages in length, appeared. These are
on the theory of dynamical systems with applications to Hamiltonian dynamics. These papers
mark the beginning of KAM-theory, which is named after Kolmogorov, Arnold and Moser.
Kolmogorov addressed the International Congress of Mathematicians in Amsterdam in 1954 on
this topic with his important talk General theory of dynamical systems and classical mechanics.
N H Bingham notes Kolmogorovs major part in setting up the theory to answer the probability
part of Hilberts Sixth Problem to treat ... by means of axioms those physical sciences in
which mathematics plays an important part; in the rst rank are the theory of probability and
mechanics in his 1933 monograph Grundbegrie der Wahrscheinlichkeitsrechnung. Bingham
also notes:
Paul Levy writes poignantly of his realisation, immediately on seeing the Grundbegrie, of the
opportunity which he himself had neglected to take. A rather dierent perspective is supplied by
the eloquent writings of Mark Kac on the struggles that Polish mathematicians of the calibre
Steinhaus and himself had in the 1930s, even armed with the Grundbegrie, to understand the
(apparently perspicuous) notion of stochastic independence.
If Kolmogorov made a major contribution to Hilberts sixth problem, he completely solved
Hilberts Thirteenth Problem in 1957 when he showed that Hilbert was wrong in asking for a
proof that there exist continuous functions of three variables which could not be represented by
continuous functions of two variables.
Kolmogorov had many interests outside mathematics, in particular he was interested in the form
and structure of the poetry of the Russian author Pushkin.
Article by: J J OConnor and E F Robertson,
23
Dans ce chapitre, nous considerons un processus stochastique comme un syst`eme aleatoire trans-
portant de linformation et evoluant dans le temps.
Les outils importants introduits sont:
La notion de ltration et de temps darret;
La notion de martingale;
Le theor`eme darret de Doob;
Le theor`eme de convergence de Doob;
Le theor`eme de regularisation de Doob;
Les inegalites maximales de Doob;
La notion de processus de Feller-Dynkin;
Letude de labsolue continuite de probabilites sur un espace de probabilite ltre.
1
24
CHAPITRE 3: MARTINGALES
1. Filtrations et temps darr ets
Un processus stochastique (X
t
)
t0
est un syst`eme aleatoire qui evolue dans le temps. Ce pro-
cessus transporte avec lui de linformation; plus precisement, par observation des trajectoires
de X, `a un instant t > 0, on sait si un evenement
A (X
s
,s t)
sest produit ou non. Ce ux temporel dinformations correspond `a la notion mathematique de
ltration.
Denition 1. Soit (,F,P) un espace de probabilite. Une ltration (F
t
)
t0
est une suite crois-
sante de sous-tribus de F.
Par exemple si (X
t
)
t0
est un processus stochastique deni sur (,F,P), alors
F
t
= (X
s
,s t)
est une ltration. Cette ltration est appelee la ltration naturelle du processus X.
Denition 2. On dit quun processus (X
t
)
t0
est adapte `a une ltration (F
t
)
t0
si pour tout
t 0, X
t
est F
t
-mesurable.
Un processus est evidemment toujours adapte `a sa ltration naturelle. On remarquera que si un
processus (X
t
)
t0
est adapte `a une ltration (F
t
)
t0
et que si F
0
contient tous les sous-ensembles
de F qui sont de mesure nulle, alors toute modication du processus X est encore adaptee `a la
ltration (F
t
)
t0
.
Dans le chapitre precedent (denition 6), on a deni la notion de mesurabilite pour un processus.
Pour tenir compte de laspect dynamique associe `a une ltration, on introduit maintenant la
notion de mesurabilite progressive:
Denition 3. On dit quun processus (X
t
)
t0
, adapte `a une ltration (F
t
)
t0
, est progressive-
ment mesurable si pour tout t 0,
A B(R),{(s,) [0,t] ,X
s
() A} B([0,t]) F
t
.
Et on peut montrer, de la meme mani`ere que la proposition 8,
Proposition 4. Un processus continu (X
t
)
t0
, adapte `a une ltration (F
t
)
t0
, est progressive-
ment mesurable.
Il est souvent interessant dassocier `a une ltration une certaine famille de temps aleatoires.
Denition 5. Soit (F
t
)
t0
une ltration sur un espace de probabilite (,F,P). Soit maintenant
T une variable aleatoire F mesurable `a valeurs dans R
+
{+}. On dit que T est un temps
darret de la ltration (F
t
)
t0
si pour tout t 0,
{T t} F
t
.
Lexercice suivant donne un exemple tr`es important de temps darret.
Exercice 6. (Temps datteinte) Soit (X
t
)
t0
un processus continu adapte `a une ltration (F
t
)
t0
.
Soit
T = inf{t 0,X
t
F},
o` u F est un sous-ensemble ferme de R. Montrer que T est un temps darret pour la ltration
(F
t
)
t0
.
25
Etant donne un temps darret T, on peut denir la tribu des evenements qui se produisent avant
T:
Proposition 7. Soit T un temps darret dune ltration (F
t
)
t0
. On note
F
T
= {A F,t 0,A {T t} F
t
}.
Alors F
T
est une tribu, appelee tribu des evenements anterieurs `a T.
Preuve.
Il est tout dabord facile de verier que F
T
puisque pour tout t 0, F
t
. Soit maintenant
A F
T
. On a
c
A {T t} = {T t}\ (A {T t}) F
t
,
et donc
c
A F
T
. Enn si (A
n
)
nN
est une suite devenements de F
T
,
(
nN
A
n
) {T t} =
nN
(A
n
{T t}) F
t
.
Si T est un temps darret dune ltration pour laquelle un certain processus est adapte, alors il
est possible darreter ce processus au temps T:
Proposition 8. Soient (F
t
)
t0
une ltration sur un espace de probabilite (,F,P) et T un
temps darret de la ltration (F
t
)
t0
ni presque s urement. Soit (X
t
)
t0
un processus adapte `a la
ltration (F
t
)
t0
et progressivement mesurable. Alors le processus (X
tT
)
t0
est progressivement
mesurable par rapport `a la ltration (F
tT
)
t0
.
Preuve.
Exercice.
.
2. Martingales
Nous allons maintenant introduire `a la notion de martingale en temps continu. Les martingales
sont un des objets centraux du calcul stochastique et reviendront tout au long de ce cours.
Denition 9. Soit (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P). Un pro-
cessus (M
t
)
t0
adapte `a la ltration (F
t
)
t0
est appele une sous-martingale si:
(1) Pour tout t 0, E(| M
t
|) < +;
(2) Pour tout t s 0
E(M
t
| F
s
) M
s
.
Un processus (M
t
)
t0
adapte `a la ltration (F
t
)
t0
tel que (M
t
)
t0
est une sous-martingale est
appele une sur-martingale. Enn, un processus (M
t
)
t0
adapte `a la ltration (F
t
)
t0
qui est `a
la fois une sous et une sur-martingale est appele une martingale.
Exercice 10. Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et X
une variable aleatoire integrable F-mesurable. Montrer que le processus (E(X | F
t
))
t0
est une
martingale relativement `a la ltration (F
t
)
t0
.
Exercice 11. Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et
(M
t
)
t0
une sous-martingale par rapport `a la ltration (F
t
)
t0
. Montrer que lapplication t
E(M
t
) est croissante.
Exercice 12. Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et
(M
t
)
t0
une martingale par rapport `a la ltration (F
t
)
t0
. Soit maintenant : R R une
fonction convexe telle que pour tout t 0, E(| (M
t
) |) < +. Montrer que le processus
((M
t
))
t0
est une sous-martingale.
26
Exercice 13. Sur un espace de probabilite (,F,P), on considere un processus gaussien de
moyenne nulle et de fonction de covariance R(s,t) = min(s,t). Montrer que ce processus est une
martingale par rapport `a sa ltration naturelle.
Le theor`eme suivant, d u a Doob, sav`ere tr`es utile dans la pratique:
Proposition 14. (Theor`eme darret de Doob)
Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et (M
t
)
t0
un processus
integrable, `a trajectoires localement bornees, et adapte `a la ltration (F
t
)
t0
. Les deux conditions
suivantes sont equivalentes:
(1) (M
t
)
t0
une martingale par rapport `a la ltration (F
t
)
t0
;
(2) Pour tout temps darret T borne presque s urement de la ltration (F
t
)
t0
, E(| M
T
|) <
+ et
E(M
T
) = E(M
0
).
Preuve.
Supposons que (M
t
)
t0
une martingale par rapport `a la ltration (F
t
)
t0
. Soit maintenant T
un temps darret borne presque s urement par K 0. Supposons tout dabord que T prend un
nombre ni de valeurs
0 t
1
< ... < t
n
K.
On a, par propriete de martingale,
E(M
T
) = E(
n
i=1
M
T
1
T=t
i
)
=
n
i=1
E(M
t
i
1
T=t
i
)
=
n
i=1
E(M
t
n
1
T=t
i
)
= E(M
t
n
)
= E(M
0
).
Ainsi, le resultat est prouve dans le cas dun temps darret qui ne prend quun un nombre ni de
valeurs. Quand T ne prend pas un nombre ni de valeurs, on lapproxime par la suite de temps
darrets
n
=
2
n
k=1
kK
2
n
1
(k1)K
2
n
T<
kK
2
n
.
Chaque
n
ne prend quun nombre ni de valeurs et quand n +,
n
T. Pour conclure, il
nous faut donc demontrer
lim
n+
E(M
n
) = E(M
T
).
Pour cela on demontre que la famille (M
n
)
nN
est uniformement integrable. Soit donc A 0.
Tout dabord, comme
n
ne prend quun nombre ni de valeurs, il est facile de voir en utilisant
la propriete de martingale que
E(M
K
1
M
n
A
) = E(M
n
1
M
n
A
).
Ainsi,
E(M
n
1
M
n
A
) E(M
K
1
sup
0sK
M
s
A
)
A+
0.
27
Donc, par integrabilite uniforme
lim
n+
E(M
n
) = E(M
T
).
do` u
E(M
T
) = E(M
0
).
Reciproquement, supposons maintenant que pour tout temps darret T borne presque s urement
de la ltration (F
t
)
t0
,
E(M
T
) = E(M
0
).
Soit 0 s t et A F
s
. En utilisant
T = s1
A
+t1c
A
,
on obtient alors facilement
E((M
t
M
s
)1
A
) = 0
qui conduit `a la propriete de martingale.
, lim sup
t+
M
t
() = lim inf
t+
M
t
()
Demontrer que (M
t
)
t0
converge presque s urement revient donc `a demontrer
P
, lim sup
t+
M
t
() > lim inf
t+
M
t
()
= 0.
Raisonnons par labsurde en supposant que
P
, lim sup
t+
M
t
() > lim inf
t+
M
t
()
> 0.
Dans ce cas, on peut trouver a < b tels que:
P
, lim sup
t+
M
t
() > a > b > lim inf
t+
M
t
()
> 0.
Lidee est maintenant detudier les oscillations de (M
t
)
t0
entre a et b. Nous allons etudier ces
oscillations en des temps dyadiques. Pour N N
et n N, on note
D
n,N
=
kN
2
n
,0 k 2
n
,
et
D =
n,N
D
n,N
.
Soit maintenant N(a,b,n,N) le plus grand entier k pour lequel on peut trouver des elements de
D
n,N
,
0 q
1
< r
1
< q
2
< r
2
< ... < q
k
< r
k
N
veriant
M
q
i
< a,M
r
i
> b.
On consid`ere alors
Y
n,N
=
2
n
k=1
CkN
2
n
(MkN
2
n
M(k1)N
2
n
),
o` u C
k
{0,1} est recursivement deni par:
C
1
= 1
M
0
<a
et
C
k
= 1
C
k1
=1
1
M
(k1)N
2
n
b
+ 1
C
k1
=0
1
M
(k1)N
2
n
<a
.
Comme (M
t
)
t0
est une martingale, il est facile de voir que
E(Y
n,N
) = 0.
Dautre part, par denition meme de N(a,b,n,N),
Y
n,N
(b a)N(a,b,n,N) max(a M
N
,0).
29
Par consequent,
(b a)E(N(a,b,n,N)) E(max(a M
N
,0)) | a | +E(| M
N
|) | a | +sup
t>0
E(| M
t
|).
et donc
(b a)E
sup
n,N
N(a,b,n,N)
| a | +sup
t>0
E(| M
t
|),
et ainsi, presque s urement sup
n,N
N(a,b,n,N) < +. Cela implique evidemment
P
, lim sup
t+,tD
M
t
() > a > b > lim inf
t+,tD
M
t
()
= 0.
Cependant, comme (M
t
)
t0
est continue `a droite, on a,
P
, lim sup
t+,tD
M
t
() > a > b > lim inf
t+,tD
M
t
()
=P
, lim sup
t+
M
t
() > a > b > lim inf
t+
M
t
()
.
Ce qui est absurde. Ainsi (M
t
)
t0
converge presque s urement vers une variable aleatoire X qui
est F mesurable. Voir que X est integrable est une consequence du lemme de Fatou.
Ainsi, une martingale continue `a droite et limitee `a gauche et bornee dans L
1
converge presque
s urement vers une variable aleatoire integrable.
A laide de ce resultat preliminaire, demontrons maintenant notre theor`eme.
Supposons que (M
t
)
t0
converge dans L
1
. Dans ce cas (M
t
)
t0
est bornee dans L
1
, do` u la
convergence presque s ure vers une variable aleatoire X qui est F mesurable et integrable. Soient
t 0 et A F
t
, on a pour tout s t,
E(M
s
1
A
) = E(M
t
1
A
)
Quand s +, le theor`eme de convergence dominee donne
E(X1
A
) = E(M
t
1
A
).
Ainsi
E(X | F
t
) = M
t
.
Supposons maintenant que (M
t
)
t0
converge presque s urement vers une variable aleatoire X
integrable et F-mesurable telle que
M
t
= E(X | F
t
),t 0.
On a alors sup
t0
| M
t
|< + p.s. et donc pour A 0,
E(| M
t
| 1
|M
t
|A
) = E(| E(X | F
t
) | 1
|M
t
|A
)
E(| X | 1
|M
t
|A
)
E(| X | 1
sup
t0
|M
t
|A
).
Ce qui nous donne lintegrabilite uniforme.
Enn, supposons que la famille (M
t
)
t0
est uniformement integrable. Dans ce cas elle est bornee
dans L
1
, et donc converge presque s urement. La convergence presque s ure entraine la convergence
en probabilite et on sait que la convergence en probabilite plus luniforme integrabilite entraine
la convergence L
1
.
30
Tant que faire se peut, nous essayons de travailler avec des versions reguli`eres des processus.
Le crit`ere de continuite de Kolmogorov allait dej`a dans cette direction. Concernant lexistence
de bonnes versions pour les sur-martingales (et du meme coup pour les sous-martingales et les
martingales), on a un theor`eme important.
Denition 18. Soit (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P). Si les
hypoth`eses suivantes sont satisfaites:
(1) Si A F est tel que P(A) = 0, alors tous les sous-ensembles de A sont dans F
0
;
(2) La ltration (F
t
)
t0
est continue `a droite, i.e. pour tout t 0
F
t
=
>0
F
t+
alors on dira que lespace de probabilite ltre
(,(F
t
)
t0
,F,P)
satisfait les conditions usuelles.
Remarque 19. Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et
(M
t
)
t0
une (sous, sur) martingale continue `a droite et limitee `a gauche par rapport `a la ltration
(F
t
)
t0
. Alors lespace de probabilite ltre
(,(F
t
)
t0
,F,P)
peut etre plonge canoniquement dans un espace de probabilite ltre
(,(G
t
)
t0
,G,P)
qui satisfait les conditions usuelles. En eet, pour G, on prend la P-completion de F et
G
t
=
u>t
(F
u
,N)
o` u N est lensemble des ensembles de mesure nulle pour P. De plus (M
t
)
t0
est alors une (sous,
sur) martingale par rapport `a la ltration (G
t
)
t0
(ce dernier point nest pas trivial, nous le
laissons cependant en exercice !). Lespace
(,(G
t
)
t0
,G,P)
sappelle la completion usuelle de
(,(F
t
)
t0
,F,P).
Exercice 20. * Soient (,(F
t
)
t0
,F,P) un espace de probabilite ltre qui satisfait les conditions
usuelles et (X
t
)
t0
un processus adapte `a la ltration (F
t
)
t0
dont les trajectoires sont continues
`a droite et ont des limites `a gauche. Soit K un ensemble compact de R. Montrez que le temps
T = inf{t 0,X
t
K}
est un temps darret de la ltration (F
t
)
t0
.
Nous en venons maintenant `a notre theor`eme de regularisation sous des hypoth`eses usuelles.
Theor`eme 21. (Theor`eme de regularisation de Doob)
Soient (,(F
t
)
t0
,F,P) un espace de probabilite ltre qui satisfait les conditions usuelles et
(M
t
)
t0
une sur-martingale par rapport `a la ltration (F
t
)
t0
. Supposons que la fonction t
E(M
t
) est continue `a droite. Alors il existe un processus (
M
t
)
t0
qui est une modication de
(M
t
)
t0
et tel que:
(1) (
M
t
)
t0
est adapte `a la ltration (F
t
)
t0
;
(2) Les trajectoires de (
M
t
)
t0
sont des fonctions localement bornees qui en tout point sont
continues `a droite et ont des limites `a gauche;
31
(3) (
M
t
)
t0
une sur-martingale par rapport `a la ltration (F
t
)
t0
.
Preuve.
Lidee est encore detudier les oscillations de (M
t
)
t0
. Nous reprenons donc certaines notations
de la demonstration du theor`eme de convergence de Doob.
Pour N N
et n N, on note
D
n,N
=
kN
2
n
,0 k 2
n
,
D
N
=
n
D
n,N
et
D =
n,N
D
n,N
.
Pour a < b, on note N(a,b,n,N) le plus grand entier k pour lequel on peut trouver des elements
de D
n,N
,
0 q
1
< r
1
< q
2
< r
2
< ... < q
k
< r
k
N
veriant
M
q
i
< a,M
r
i
> b.
On note maintenant
=
a,bQ
NN
, sup
tD
N
| M
t
() |< + et sup
nN
N(a,b,n,N) < +
.
Par consequent,
M
t
() = lim
st,s>t,sD
M
s
()
Si /
M
t
() = 0.
Il est clair que les trajectoires de (
M
t
)
t0
sont des fonctions localement bornees qui en tout point
sont continues `a droite et ont des limites `a gauche. Montrons que (
M
t
)
t0
est la modication de
(M
t
)
t0
souhaitee.
Tout dabord, on remarque que pour t 0,
lim
st,s>t,sD
M
s
est mesurable par rapport `a
s>t
F
s
= F
t
. Dautre part, \
)
E(M
s
1
M
u
<
) +E(M
u
) E(M
s
1
M
u
)
E(| M
s
| 1
|M
u
|>
) +
2
.
Maintenant, comme M
s
L
1
, on peut trouver un > 0 tel que pour tout F F,
P(F) < implique E(| M
s
| 1
F
) <
2
.
Mais pour t < u < s,
P(| M
u
|> )
E(| M
u
|)
=
E(M
u
) + 2E(max(M
u
,0))
.
Par linegalite de Jensen, on voit que le processus (max(M
u
,0))
t<u<s
est une sous-martingale
do` u
E(max(M
u
,0)) E(max(M
s
,0)).
Par consequent pour t < u < s,
P(| M
u
|> )
E(M
t
) + 2E(max(M
s
,0))
.
On peut donc trouver A > 0 tel que pour tout t < u < s,
P(| M
u
|> A) < ,
Et on alors pour tout t < u < s,
E(| M
u
| 1
|M
u
|>
) < .
Cela montre bien que pour toute suite (s
n
)
nN
delements de D qui converge en decroissant vers
t, la famille (M
s
n
)
nN
est uniformement integrable. Ainsi la convergence
lim
st,s>t,sD
M
s
=
M
t
.
a aussi lieu dans L
1
.
Comme (M
t
)
t0
est une sur-martingale, pour s t on a
E(M
s
| F
t
) M
t
.
Par consequent,
lim
st,s>t,sD
E(M
s
| F
t
) M
t
.
Par continuite L
1
de lesperance conditionnelle, on obtient donc
E
M
t
| F
t
M
t
.
Do` u
M
t
M
t
33
car
M
t
est adapte `a F
t
. Dun autre cote, comme u E(M
u
) est continue `a droite,
lim
st,s>t,sD
E(M
s
) = E(M
t
).
Mais on a aussi par convergence L
1
,
lim
st,s>t,sD
E(M
s
) = E( lim
st,s>t,sD
M
s
) = E(
M
t
),
Do` u
E(
M
t
) = E(M
t
).
M
t
M
t
est donc une variable aleatoire positive desperance nulle. On en conclut que presque
s urement M
t
=
M
t
, i.e. (
M
t
)
t0
est une modication de (M
t
)
t0
. Une modication dune sur-
martingale restant une sur-martingale, (
M
t
)
t0
est egalement une sur-martingale par rapport `a
la ltration (F
t
)
t0
. Cela conclut la demonstration du theor`eme de regularisation (ouf!).
3. In egalit es martingales
Dans ce paragraphe nous presentons deux inegalites fondamentales, une nouvelle fois dues `a
Doob.
Theor`eme 22. (Inegalites maximales de Doob)
Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et (M
t
)
t0
une mar-
tingale continue par rapport `a la ltration (F
t
)
t0
.
(1) Soient p 1 et T > 0. Si E(| M
T
|
p
) < +, alors pour tout > 0,
P
sup
0tT
| M
t
|
E(| M
T
|
p
)
p
.
(2) Soient p > 1 et T > 0. Si E(| M
T
|
p
) < + alors,
E
sup
0tT
| M
t
|
p
p 1
p
E(| M
T
|
p
).
Preuve.
(1) Soient p 1 et T > 0. Si E(| M
T
|
p
) < +), alors le processus (| M
t
|
p
)
0tT
est
une sous-martingale (veriez le !). Soit > 0. On consid`ere le temps darret presque
s urement borne
= inf{s 0 tel que | M
s
| } T,
avec la convention que inf = +. On a alors
E(| M
|
p
) E(| M
T
|
p
).
Mais par denition de ,
| M
|
p
1
sup
0tT
|M
t
|
p
+ 1
sup
0tT
|M
t
|<
| M
T
|
p
.
Par consequent,
P
sup
0tT
| M
t
|
| M
T
|
p
1
sup
0tT
|M
t
|
p
E(| M
T
|
p
)
p
.
34
(2) Soient p 1 et T > 0. Supposons dans un premier temps que
E
sup
0tT
| M
t
|
< +.
La demonstration precedente nous a montre que pour > 0,
P
sup
0tT
| M
t
|
| M
T
| 1
sup
0tT
|M
t
|
.
Par consequent,
+
0
p1
P
sup
0tT
| M
t
|
+
0
p2
E
| M
T
| 1
sup
0tT
|M
t
|
d.
Mais par le theor`eme de Fubini,
+
0
p1
P
sup
0tT
| M
t
|
d =
sup
0tT
|M
t
|()
0
p1
d
dP()
=
1
p
E
sup
0tT
| M
t
|
.
De la meme mani`ere,
+
0
p2
E
| M
T
| 1
sup
0tT
|M
t
|
d =
1
p 1
E
sup
0tT
| M
t
|
p1
| M
T
|
.
Ainsi,
E
sup
0tT
| M
t
|
p
p 1
E
sup
0tT
| M
t
|
p1
| M
T
|
.
Mais par linegalite de Holder,
E
sup
0tT
| M
t
|
p1
| M
T
|
E(| M
T
|
p
)
1
p
E
sup
0tT
| M
t
|
p1
p
,
do` u
E
sup
0tT
| M
t
|
p
p 1
E(| M
T
|
p
)
1
p
E
sup
0tT
| M
t
|
p1
p
.
Ainsi, si E
sup
0tT
| M
t
|
sup
0tT
| M
t
|
p
p 1
p
E(| M
T
|
p
).
Autrement, pour N N, soit
N
= inf{t 0, | M
t
| N} T. En appliquant ce qui
precede `a la martingale (M
t
N
)
t0
, on obtient
E
sup
0tT
| M
t
N
|
p
p 1
p
E(| M
T
|
p
),
35
et le theor`eme sen suit par convergence dominee.
Remarque 23. Les deux inegalites precedentes restent vraies dans le cas o` u la martingale est
seulement supposee continue `a droite avec des limites `a gauche. (A votre avis, la demonstration
precedente est elle susante pour couvrir ce cas?)
4. Quelques applications des th eor` emes de Doob
4.1. Regularisation des processus de Feller-Dynkin. Grace au theor`eme de regularisation
de Doob, il est possible de preciser considerablement la proposition 18 du chapitre 1 sur lexis-
tence de processus de Markov (voir section 4.1). Tout dabord nous elargissons la denition de
processus de Markov.
Denition 24. Soient (,(F
t
)
t0
,F,P) un espace de probabilite ltre et (X
t
)
t0
un processus
adapte `a la ltration (F
t
)
t0
. On dit que (X
t
)
t0
est un processus de Markov de fonction de
transition {P
t
,t 0} relativement `a la ltration (F
t
)
t0
si pour toute fonction borelienne bornee
f : R R,
E(f(X
s+t
) | F
s
) = (P
t
f)(X
s
),s,t > 0.
Remarque 25. Un processus de Markov relativement `a une ltration (F
t
)
t0
est un processus
de Markov relativement `a sa ltration naturelle.
Notre but est maintenant de sinteresser `a lexistence de bonnes versions pour un processus
de Markov de fonction de transition donnee. Pour cela, on introduit la notion de fonction de
transition de Feller-Dynkin. On note C
0
(R
+
,R) lensemble des applications continues f : R R
telles que lim
f = lim
+
f = 0.
Denition 26. Soit {P
t
,t 0} une fonction de transition. On dit que {P
t
,t 0} est de Feller-
Dynkin si les hypoth`eses suivantes sont satisfaites:
(1) P
t
: C
0
(R
+
,R) C
0
(R
+
,R);
(2) P
0
= Id;
(3) f C
0
(R
+
,R),x R, lim
t0
(P
t
f)(x) = f(x).
On a alors le theor`eme suivant que lon admettra mais qui est une consequence du theor`eme 18
du chapitre 1 ainsi que du theor`eme de regularisation de Doob:
Theor`eme 27. Soit {P
t
,t 0} une fonction de transition de Feller-Dynkin. Alors on peut
trouver un espace de probabilite ltre (,(F
t
)
t0
,F,P) ainsi quun processus (X
t
)
t0
deni sur
cet espace tels que:
(1) Les trajectoires de (X
t
)
t0
sont continues `a droite avec des limites `a gauche;
(2) (X
t
)
t0
est un processus de Markov de fonction de transition {P
t
,t 0} relativement `a
la ltration (F
t
)
t0
.
4.2. Martingales et densites. Commencons tout dabord par quelques rappels sur la notion
de probabilites absolument continues lune par rapport `a lautre. Soit (,F) un espace muni
dune tribu F.
Denition 28. Soient P et Q deux mesures de probabilite sur (,F). On dit que P est absolument
continue par rapport `a P, si pour tout A F, Q(A) = 0 implique Q(A) = 0. On notera alors
P Q. Si P Q et Q P, on dit que les probabilites P et Q sont equivalentes, ce que nous
noterons P Q.
36
Le theor`eme suivant d u `a Radon et Nikodym caracterise labsolue continuite des mesures.
Theor`eme 29. (Radon-Nikodym) Soient P et Q deux mesures de probabilite sur (,F). Alors
P Q si et seulement il existe une variable aleatoire D, F-mesurable telle que pour tout A F,
P(A) =
A
DdQ.
D sappelle alors la densite de P par rapport `a Q et on notera
D =
dP
dQ
.
Dautre part sous les memes hypoth`eses P Q si et seulement si D est strictement positive P
presque s urement et dans ce cas:
dQ
dP
=
1
D
.
Soit maintenant (,(F
t
)
t0
,F,P) un espace de probabilite ltre. On suppose que la ltration
(F
t
)
t0
est continue `a droite et on note:
F
= (F
t
,t 0) .
Pour t 0, on note P
/F
t
la restriction de P `a F
t
.
Soit maintenant Q une probabilite sur F
P
/F
;
(2) La martingale (D
t
)
t0
est uniformement integrable;
(3) (D
t
)
t0
converge dans L
1
;
(4) (D
t
)
t0
converge presque s urement vers une variable aleatoire D integrable et F
-
mesurable telle que
D
t
= E(D | F
t
),t 0.
Preuve.
Exercice.
i=1
X
i
S
n
sinterprete egalement comme la position dun marcheur (fou !) ayant eectue n pas sur un
axe soit en avant, soit en arri`ere avec la probabilite
1
2
.
Nous noterons pour n 0, B
n
la tribu engendree par les variables S
0
,...,S
n
.
Proposition 2. (S
n
)
n0
et (S
n
)
n0
sont des marches aleatoires au sens de la denition 1.
Preuve. Montrons tout dabord que
(X
1
,...,X
n
) =
loi
(X
m+1
,...,X
m+n
)
Pour cela, il sut de verier que pour tout n-uplet (f
i
)
1in
de fonctions {1,1} R nous
avons
E(f
1
(X
1
) ...f
n
(X
n
)) = E(f
1
(X
m+1
) ...f
n
(X
m+n
))
Comme par independance des X
i
nous avons
E(f
1
(X
1
) ...f
n
(X
n
)) = E(f
1
(X
1
)) ...E(f
n
(X
n
))
et
E(f
1
(X
m+1
) ...f
n
(X
m+n
)) = E(f
1
(X
m+1
)) ...E(f
n
(X
m+n
))
nous concluons du fait que
E(f
i
(X
i
)) = E(f
i
(X
m+i
))
puisque
X
i
=
loi
X
m+i
42
Nous avons ainsi
S
n+m
S
m
=
n+m
k=m+1
X
k
=
loi
n
k=1
X
k
= S
n
et lindependance se montre de meme, etant donne que pour tout m+n-uplet (f
i
)
1im+n
de
fonctions {1,1} R nous avons
E(f
1
(X
1
) ...f
m+n
(X
m+n
)) = E(f
1
(X
1
) ...f
m
(X
m
)) E(f
m+1
(X
m+1
) ...f
m+n
(X
m+n
))
ce qui implique que la tribu (X
m+1
,...,X
m+n
) est independante de la tribu B
m
.
La demonstration est identique pour (S
n
)
n0
.
(S
n
)
n0
est appelee la marche aleatoire symetrique standard sur Z.
Proposition 3. Pour n N, k Z:
(1) Si n et k ont la meme parite:
P(S
n
= k) =
1
2
n
n
n+k
2
,
o` u
n
p
=
n!
p!(np)!
.
(2) Si n et k ont des parites dierentes
P(S
n
= k) = 0.
.
Preuve. On remarque que
n+Sn
2
est une somme de n variables aleatoires de Bernoulli independantes.
Ainsi
n+Sn
2
suit une loi binomiale de param`etres (0,n).
S
2
n
n
n0
(3) exp (S
n
nln(cosh())) ,n 1, > 0.
Preuve.
(1) Pour n m
E(S
n
| B
m
) = E(S
n
S
m
| B
m
) +E(S
m
| B
m
)
= E(S
n
S
m
) +S
m
= S
m
(2) Tout dabord remarquons que
E
S
2
n
= E
i
X
i
)
2
= E
i,j
X
i
X
j
n
i=1
E
X
2
i
i=j
E(X
i
) E(X
j
)
= n
43
Maintenant, pour n m, nous avons
E
(S
n
S
m
)
2
| B
m
= E
(S
n
S
m
)
2
= E
S
2
nm
= n m
Mais, dun autre cote
E
(S
n
S
m
)
2
| B
m
= E
S
2
n
| B
m
2E(S
n
S
m
| B
m
) +E
S
2
m
| B
m
= E
S
2
n
| B
m
2S
2
m
+S
2
m
= E
S
2
n
| B
m
S
2
m
Ce qui nous permet de conclure
E
S
2
n
n | B
m
= S
2
m
m
(3) Pour n m
E
e
(SnSm)
| B
m
= E
e
(SnSm)
= E
e
S
nm
= E
e
X
1
nm
= (cosh )
nm
ce qui am`ene `a la conclusion souhaitee.
Proposition 6. (Propriete de Markov simple) Pour m n, k Z,
P(S
n
= k | B
m
) = P(S
n
= k | S
m
) .
Preuve. On a pour > 0,
E
e
Sn
| B
m
= (cosh )
nm
e
Sm
.
Ainsi
E
e
Sn
| B
m
= E
e
Sn
| S
m
Ainsi (S
n
)
n0
a la propriete de Markov.
Nous rappelons quune variable aleatoire T `a valeurs dans N est appelee un temps darret pour
(S
n
)
n0
si pour tout m lev`enement {T m} est dans B
m
. Lensemble
B
T
= {A B, m N
, A {T m} B
m
}
est alors une sous tribu de B (demontrez le !).
Proposition 7. Si T est un temps darret pour (S
n
)
n0
tel que P(T < +) = 1 alors la suite
(S
n+T
S
T
)
n0
est une marche aleatoire symetrique sur Z independante de B
T
.
Preuve. Notons
S
n
= S
n+T
S
T
et considerons alors le temps darret
T
m
= T +m
En appliquant le theor`eme darret de Doob `a la martingale
(cos )
n
e
iSn
n0
associee au temps darret T
m
N avec N N
, nous obtenons, n N
E
(cos )
n
e
i(S
n+TmN
S
TmN
)
| B
TmN
= 1
44
A la limite N +, nous obtenons donc par le theor`eme de convergence dominee, n N
(1) E
(cos )
n
e
i(
e
S
n+m
e
Sn)
| B
T+m
= 1
ce qui implique donc lindependance et la stationnarite des accroissements.
Ainsi
S
n
n0
est une marche aleatoire sur Z independante de B
T
.
Pour conclure, montrons que cette marche est symetrique. La variable
S
n+1
S
n
est `a valeurs
dans {1,1} et verie dautre part,
E
e
i(
e
S
n+1
e
Sn)
= cos
ce qui donne evidemment
P
S
n+1
S
n
= 1
= P
S
n+1
S
n
= 1
=
1
2
.
e
S
T+1
| B
T
= (cosh ) e
S
T
.
Ainsi
E
e
S
T+1
| B
T
= E
e
S
T+1
| S
T
Ainsi (S
n
)
n0
a la propriete de Markov forte.
Dans la proposition suivante, nous montrons que la marche aleatoire symetrique est recurrente,
cest-` a-dire visite chaque point de Z avec une probabilite egale `a 1.
Proposition 9. (Recurrence de la marche)
k Z, m N, P( n m, S
n
= k) = 1
Preuve.
Montrons tout dabord
P( k [1,2n] , S
k
= 0) = P(S
2n
= 0) .
On a
P( k [1,2n] , S
k
= 0)
= 2P( k [1,2n] , S
k
> 0)
= 2
n
j=1
P( k [1,2n] , S
k
> 0 | S
2n
= 2j) P(S
2n
= 2j)
= 2
n
j=1
j
n
P(S
2n
= 2j)
= 2
n
j=1
j
n
1
2
2n
2n
n +j
j=1
j
2n
n +j
=
n
2
2n
n
45
qui assure bien
P( k [1,2n] , S
k
= 0) = P(S
2n
= 0) .
Comme
P(S
2n
= 0) =
(2n)!
(n!)
2
1
2
2n
n+
0
nous deduisons que
P( n > 1, S
n
= 0) = 1
Notons Z
1
le premier zero non nul de (S
n
)
nN
. Soit maintenant
T
1
= inf{n 0, S
n
= 1}
et
T
1
= inf{n 0, S
n
= 1}
Il est clair que T
1
et T
1
sont des temps darret.
Mmontrons que
P(T
1
< +) = 1
Dapr`es la propriete de Markov, pour n 1
P(Z
1
n)
= P(Z
1
n | S
1
= 1) P(S
1
= 1) +P(Z
1
n | S
1
= 1) P(S
1
= 1)
=
1
2
P(Z
1
n | S
1
= 1) +
1
2
P(Z
1
n | S
1
= 1)
=
1
2
P(T
1
n 1) +
1
2
P(T
1
n 1)
Comme
(S
n
)
n0
= (S
n
)
n0
il est clair que P(T
1
< +) = 1 si et seulement si P(T
1
< +) = 1 et dans ce cas
T
1
=
loi
T
1
Ainsi, puisque
P(Z
1
< +) = 1
nous avons bien
P(T
1
< +) = 1
En appliquant le resultat precedent `a la marche aleatoire (S
n+T
1
1)
n0
, on en deduit que
P( n > 1, S
n
= 2) = 1.
Par recurrence nous deduisons donc que
k N,P( n > 1, S
n
= k) = 1.
Puis, par symetrie
k N,P( n > 1, S
n
= k) = 1.
En appliquant cela `a la marche aleatoire (S
n+m
S
m
)
n0
, on en deduit que
k Z, m N, P( n m, S
n
= k) = 1.
n=0
x
n
P(T
k
= n) =
1 x
2
x
k
.
Preuve. Soit > 0. En appliquant le theor`eme darret `a la martingale
(cosh )
n
e
Sn
n0
avec le temps darret T
k
N , N N
, nous obtenons
E
e
S
NT
k
(T
k
N) ln cosh
= 1.
On utilise maintenant le theor`eme de convergence dominee pour en deduire:
E
e
kT
k
ln cosh
= 1.
Do` u,
E
e
(ln cosh )T
k
= e
k
.
En posant
x = e
ln cosh
on obtient
E
x
T
k
1 x
2
x
k
.
On en deduit:
Corollaire 12. Pour k N, n N,
P(T
k
= n) =
1
2
n
I
1
2i
1
1
...
1
2i
k
1
2i
1
1
i
1
...
2i
k
1
i
k
,
avec
I =
(i
1
,...,i
k
) N
k
,i
1
+... +i
k
=
n k
2
.
En particulier, pour n N,
P(T
1
= 2n) = 0
P(T
1
= 2n + 1) =
1
2n 1
2n 1
n
1
2
2n+1
.
47
Preuve. Il sut de developper en serie enti`ere la fonction
x
1 x
2
x
S
m
m0
denie par
S
m
= S
m+T
k
k
Cette suite est une marche aleatoire symetrique pour laquelle n T
k
n est un temps darret.
Maintenant,
S
nT
k
n
=
loi
S
nT
k
n
Nous pouvons donc ecrire
P
T
k
n,
S
nT
k
< 0
= P
T
k
n,
S
nT
k
> 0
Autrement dit
P(T
k
n,S
n
< k) = P(T
k
n,S
n
> k)
Cela nous permet de conclure
2P(T
k
n,S
n
< k) +P(S
n
= k) = P(T
k
n)
l
0
2n
= k
= P
l
0
2n+1
= k
= P(S
2n+1k
= k 1)
48
(2) En deduire que quand n +
l
0
n
n
loi
|N (0,1)|
Exercice 17. Maintenant, au lieu de supposer que le marcheur eectue un pas de longueur
unite pendant lunite de temps, on supposera quil eectue pendant chaque intervalle de temps
, un pas de longueur . En designant par p(t,x) la densite de probabilite de la variable aleatoire
X
t
representant la position du marcheur ` a linstant t, etablir une relation de recurrence entre
p(t + ,x),p(t,x ) et p(t,x + ). Montrer que si et tendent vers 0 dune mani`ere que lon
precisera alors p devient solution dune equation aux derivees partielles. Reconnaissez-vous cette
equation et pouvez-vous la resoudre?
2. Processus de Levy
Dans ce qui suit, nous nous pla cons sur un espace de probabilite ltre (,(F
t
)
t0
,F,P). La bonne
generalisation de la notion de marche aleatoire en temps continu est celle de processus de Levy.
Denition 18. Soit (X
t
)
t0
un processus stochastique. On dit que (X
t
)
t0
est un processus de
Levy deni sur lespace (,(F
t
)
t0
,F,P) si les conditions suivantes sont satisfaites:
(1) Presque s urement X
0
= 0;
(2) Presque s urement, les trajectoires de (X
t
)
t0
sont continues ` a droite avec des limites ` a
gauche;
(3) (X
t
)
t0
est adapte ` a la ltration (F
t
)
t0
;
(4) Pour tout T 0, le processus (X
t+T
X
T
)
t0
est independant de la tribu F
T
;
(5) Pour tout t,T 0, X
t+T
X
T
=
loi
X
t
.
Exercice 19. Montrer que si (X
t
)
t0
est un processus de Levy deni sur lespace (,(F
t
)
t0
,F,P),
alors cest aussi un processus de Levy sur lespace (,(F
X
t
)
t0
,F,P), o` u (F
X
t
)
t0
est la ltration
naturelle de (X
t
)
t0
.
Exercice 20. Montrer que si (X
t
)
t0
est un processus de Levy deni sur lespace (,(F
t
)
t0
,F,P),
alors cest aussi un processus de Levy sur lespace (,(G
t
)
t0
,G,P), o` u
(,(G
t
)
t0
,G,P)
est la completion usuelle de
(,(F
t
)
t0
,F,P).
Exercice 21. (Processus de Poisson) Soit (T
n
)
nN
une suite de variables aleatoires exponen-
tielles independantes,
P(T
n
dt) = e
t
dt,t 0,n N,
denies sur un espace de probabilite (,F,P). On note
S
n
=
n
i=1
T
i
,n 1,
et S
0
= 0. Pour t 0, soit
N
t
= max{n 0,S
n
t}.
(1) Montrer que le processus (N
t
)
t0
est un processus de Levy sur lespace de probabilite
(,(F
N
t
)
t0
,F,P), o` u (F
N
t
)
t0
est la ltration naturelle de (N
t
)
t0
.
49
(2) Montrer que pour t 0, N
t
est une variable aleatoire de Poisson de param`etre t, i.e.:
P(N
t
= n) = e
t
(t)
n
n!
,n N.
Le processus (N
t
)
t0
sappelle le processus de Poisson dintensite > 0.
(3) Soit maintenant (Y
n
)
n0
une suite de variables aleatoires independantes de meme loi .
On note alors pour t 0,
X
t
= 1
Nt1
Nt
i=1
Y
i
.
Montrer que le processus (X
t
)
t0
est un processus de Levy sur lespace de probabilite
(,(F
X
t
)
t0
,F,P), o` u (F
X
t
)
t0
est la ltration naturelle de (X
t
)
t0
. Montrer, de plus,
que pour R et t 0:
E(e
iXt
) = e
t
R
R
(e
ix
1)(dx)
.
Le processus (X
t
)
t0
sappelle un processus de Poisson compose.
On a un theor`eme tr`es important concernant la structure des processus de Levy continus:
Theor`eme 22. (Levy)
Soit (X
t
)
t0
un processus de Levy continu deni sur lespace de probabilite ltre (,(F
t
)
t0
,F,P).
Alors on peut trouver R
+
et R tels que (X
t
)
t0
est un processus gaussien de fonction
moyenne:
E(X
t
) = t;
et de fonction de covariance:
E((X
t
t)(X
s
s)) =
2
(s t).
Reciproquement, soit (X
t
)
t0
un processus gaussien continu et adapte ` a la ltration (F
t
)
t0
de
fonction moyenne:
E(X
t
) = t;
et de fonction de covariance:
E((X
t
t)(X
s
s)) =
2
(s t).
Alors (X
t
)
t0
est un processus de Levy sur lespace de probabilite ltre (,(F
t
)
t0
,F,P)
Preuve.
Soit (X
t
)
t0
est un processus de Levy continu deni sur lespace de probabilite ltre (,(F
t
)
t0
,F,P).
Tout dabord remarquons que la loi de X
1
est inniment divisible (voir le chapitre 0 pour la
denition dune loi inniment divisible). En eet, pour tout n N, on a
X
1
=
n
k=1
(Xk
n
Xk1
n
),
et les accroissements Xk
n
Xk1
n
sont independants et identiquement distribues. Par consequent,
dapr`es le theor`eme de Levy-Khinchin (voir le chapitre 0), on peut trouver R
+
, R et
une mesure borelienne sur R\{0} tels que:
R
(| x |
2
1)(dx) < +
et
E(e
iX
1
) = e
()
, R,
50
avec
() = i
1
2
2
+
R
(e
ix
1 ix1
|x|1
)(dx).
Soit maintenant R xe. On consid`ere lapplication
f(t) = E(e
iXt
),t 0.
Comme (X
t
)
t0
est un processus de Levy, on a, pour s,t 0,
f(t +s) = E(e
iX
t+s
)
= E(e
i(X
t+s
Xt)+Xt
)
= E(e
i(X
t+s
Xt)
)E(e
iXt
)
= E(e
iXs
)E(e
iXt
)
= f(t)f(s).
Dautre part, comme (X
t
)
t0
est `a trajectoires continues, il est aussi continu en loi, ce qui veut
dire que lapplication f est continue. Comme f(1) = e
()
, on en deduit donc que pour tout
t 0,
f(t) = e
t()
,t 0.
Ainsi pour R et t 0,
E(e
iXt
) = e
t()
.
Nous allons maintenant montrer que la mesure qui apparait dans lexpression de est en fait
egale `a 0.
Soit (0,1). On a
=
,
o` u
() = i
1
2
2
+
|x|
(e
ix
1 ix)(dx),
et
() =
|x|>
(e
ix
1 ix1
|x|1
)(dx).
Cette decomposition de va en fait correspondre `a une decomposition trajectorielle de X.
Pour t 0, soit
t
la loi de probabilite sur R de fonction caracteristique:
R
e
ix
t
(dx) = e
t()
, R.
(une telle loi existe dapr`es le theor`eme de Levy-Khinchin). On a alors pour s,t 0
t
s
=
t+s
.
Par consequent si on denit pour f fonction borelienne bornee
(P
t
f)(x) =
R
f(x +y)
t
(dy),
alors la famille {P
t
,t 0} est une fonction de transition. Dautre part, il est facile de voir
(veriez le !) que cette fonction de transition est de Feller-Dynkin. Ainsi, dapr`es le theor`eme
27 du chapitre 2, on peut trouver un espace de probabilite ltre (
,(
F
t
)
t0
,
F,
P) ainsi quun
processus (Y
t
)
t0
deni sur cet espace tels que:
(1) Les trajectoires de (Y
t
)
t0
sont continues `a droite avec des limites `a gauche;
51
(2) (Y
t
)
t0
est un processus de Markov de fonction de transition {P
t
,t 0} relativement `a
la ltration (
F
t
)
t0
.
Le processus (Y
t
)
t0
est alors un processus de Levy puisque
E(e
iY
t+s
| F
s
) =
R
e
i(Ys+y)
t
(dy),
ce qui implique
E(e
i(Y
t+s
Ys)
| F
s
) = e
t()
,
et donc lindependance et la stationnarite des accroissements.
De meme, on va pouvoir, quitte `a grossir lespace (
,(
F
t
)
t0
,
F,
P) , construire un processus de
Levy (Z
t
)
t0
qui est independant du processus (Y
t
)
t0
et tel que:
E(e
iZt
) = e
t()
.
On a
() =
|x|>
(e
ix
1 ix1
|x|1
)(dx)
=
|x|>
(e
ix
1)(dx) i
|x|>
x1
|x|1
(dx),
et
({x, | x |> }) < +.
Ainsi, dapr`es lexercice 4, on a en fait
Z
t
= L
t
t
|x|>
x1
|x|1
(dx),
o` u (L
t
)
t0
est un processus de Poisson compose. En particulier, les trajectoires du processus
(Z
t
)
t0
ne peuvent donc quavoir un nombre ni de sauts sur tout intervalle de temps borne,
chaque saut eventuel etant de taille superieure `a .
Comme les deux processus (Y
t
)
t0
et (Z
t
)
t0
sont independants, il est alors facile de voir que le
processus
X
t
= Y
t
+Z
t
est un processus de Levy qui a meme loi que le processus (X
t
)
t0
.
Egalement par independance,
presque s urement les sauts de (Y
t
)
t0
et les sauts de (Z
t
)
t0
ne sintersectent pas. Donc chaque
saut eventuel de (Y
t
)
t0
induit un saut sur (
X
t
)
t0
. Comme (X
t
)
t0
est continu, (Y
t
)
t0
ne peut
donc pas avoir de saut, ce qui implique
({x, | x |> }) = 0.
Mais etait arbitraire, donc en fait = 0. On en conclut que
E(e
iXt
) = e
t(i
1
2
2
)
.
Ainsi pour t > 0, X
t
=
loi
N(t,
2
t). Enn, pour verier que le processus est bien gaussien, on
utilise lindependance et la stationnarite des accroissements qui impliquent pour
1
,...,
n
R,
52
0 < t
1
< ... < t
n
:
E
e
i
P
n
k=1
k
(Xt
k+1
Xt
k
)
=
n
k=1
E
e
i
k
(Xt
k+1
Xt
k
)
=
n
k=1
E
e
i
k
X
t
k+1
t
k
= e
P
n
k=1
(t
k+1
t
k
)(i
k
1
2
2
k
)
.
Cela conclut la demonstration de la premi`ere partie du theor`eme de structure de Levy.
Reciproquement, soit maintenant (X
t
)
t0
un processus gaussien continu et adapte `a la ltration
(F
t
)
t0
de fonction moyenne:
E(X
t
) = t;
et de fonction de covariance:
E((X
t
t)(X
s
s)) =
2
(s t).
On veut dabord demontrer que tout T 0, le processus (X
t+T
X
T
)
t0
est independant de la
tribu F
T
.
Soient t
1
,...,t
n
T, s
1
,...,s
m
T,
1
,...,
n
R,
1
,...,
m
R.
On a
E
i=1
i
(X
t
i
+T
X
T
)
i=1
i
X
s
i
i,j
E
j
(X
t
i
+T
X
T
)X
s
j
= 0.
Ainsi, le processus (X
t+T
X
T
)
t0
est bien independant de la tribu F
T
. De meme, il est facile
de montrer que pour tout t,T 0, X
t+T
X
T
=
loi
X
t
.
= (B
u
,u 0) et N les sous-ensembles de F
B
R
f(y)
e
(xy)
2
2t
2t
dy,t > 0,x R,
53
f : R R etant une fonction borelienne bornee. De plus la fonction de transition {P
t
,t 0} est
de Feller-Dynkin.
Preuve.
Soit (B
t
)
t0
un processus de Markov relativement `a la ltration (F
t
)
t0
de fonction de transition
donnee par:
P
0
= Id, (P
t
f)(x) =
R
f(y)
e
(xy)
2
2t
2t
dy,t > 0,x R.
On a pour s,t 0, R,
E(e
iB
t+s
| F
s
) =
R
e
i(Bs+y)
e
y
2
2t
2t
dy,
ce qui implique
E(e
i(B
t+s
Bs)
| F
s
) =
R
e
iy
e
y
2
2t
2t
dy = e
1
2
2
t
et donc lindependance et la stationnarite des accroissements. Pour verier que le processus est
bien gaussien, avec la bonne structure de moyenne et de covariance, on utilise lindependance et
la stationnarite des accroissements qui impliquent pour
1
,...,
n
R, 0 < t
1
< ... < t
n
:
E
e
i
P
n
k=1
k
(Bt
k+1
Bt
k
)
=
n
k=1
E
e
i
k
(Bt
k+1
Bt
k
)
=
n
k=1
E
e
i
k
B
t
k+1
t
k
= e
1
2
P
n
k=1
(t
k+1
t
k
)
2
k
.
Ce qui permet de conclure que (B
t
)
t0
est bien un mouvement brownien.
Reciproquement, soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Soient maintenant
f : R R une fonction borelienne bornee et s,t 0. On a:
E(f(B
t+s
) | F
s
) = E(f(B
t+s
B
s
+B
s
) | F
s
).
Comme B
t+s
B
s
est independant de F
s
, on en deduit tout dabord que
E(f(B
t+s
) | F
s
) = E(f(B
t+s
) | B
s
).
Pour x R,
E(f(B
t+s
) | B
s
= x) = E(f(B
t+s
B
s
+B
s
) | B
s
= x) = E(f(X
t
+x)),
o` u X
t
est une variable aleatoire independante de B
s
telle que X
t
=
loi
N(0,t). Par consequent,
E(f(B
t+s
) | B
s
= x) =
R
f(x +y)
e
y
2
2t
2t
dy
et
E(f(B
t+s
) | F
s
) =
R
f(B
s
+y)
e
y
2
2t
2t
dy.
Pour montrer que la fonction de transition {P
t
,t 0} est de Feller-Dynkin, il faut verier:
(1) P
t
: C
0
(R
+
,R) C
0
(R
+
,R);
(2) P
0
= Id;
(3) f C
0
(R
+
,R),x R, lim
t0
(P
t
f)(x) = f(x).
54
Ce que nous laissons en exercice. (On rappelle que C
0
(R
+
,R) est lensemble des applications
continues f : R R telles que lim
f = lim
+
f = 0).
Bien entendu, le mouvement brownien nest interessant `a etudier que sil existe !
Theor`eme 27. On peut trouver un espace de probabilite ltre (
,(
F
t
)
t0
,
F,
P) ainsi quun
mouvement brownien (B
t
)
t0
deni sur cet espace. Dautre part deux mouvements browniens
eventuellement denis sur des espaces de probabilite ltres dierents ont necessairement la meme
loi: Cette loi sappelle la mesure de Wiener.
Preuve.
Dapr`es la proposition 20 du chapitre 1, on peut trouver un espace de probabilite (
,
F,
P) ainsi
quun processus gaussien (X
t
)
t0
deni sur cet espace de fonction moyenne nulle et de fonction
de covariance
E(X
s
X
t
) = s t.
On a pour tout n 0 et 0 s t:
E
(X
t
X
s
)
2n
=
(2n)!
2
n
n!
(t s)
n
.
Par consequent, en utilisant le theor`eme 26 du chapitre 1 (crit`ere de continuite de Kolmogo-
rov), on va pouvoir trouver une modication continue (B
t
)
t0
du processus (X
t
)
t0
dont les
trajectoires sont localement -Holderiennes pour tout [0,
n1
2n
).
Comme modication de (X
t
)
t0
, le processus (B
t
)
t0
a la meme loi que (X
t
)
t0
cest donc un
processus gaussien de fonction moyenne nulle et de fonction de covariance s t.
On en deduit que (B
t
)
t0
est un mouvement brownien sur lespace de probabilite ltre (
,(
F
t
)
t0
,
F,
P)
o` u (
F
t
)
t0
est la ltration naturelle de (B
t
)
t0
.
Quant `a lunicite de la loi du mouvement brownien, elle vient du fait que la loi dun processus
gaussien est enti`erement caracterisee par sa fonction moyenne et sa fonction de covariance.
Maintenant quon sait que le mouvement brownien existe, on va en exhiber quelques premi`eres
proprietes.
Proposition 28. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Alors, presque
toutes les trajectoires de (B
t
)
t0
sont localement -H olderiennes pour tout [0,
1
2
).
Preuve.
Soit T > 0. On a pour tout n 0 et 0 s t:
E
(B
t
B
s
)
2n
=
(2n)!
2
n
n!
(t s)
n
.
Par consequent, en utilisant le theor`eme 26 du chapitre 1 (crit`ere de continuite de Kolmogorov),
on va pouvoir trouver une modication continue (
B
t
)
0tT
du processus (B
t
)
0tT
dont les tra-
jectoires sont localement -Holderiennes pour tout [0,
n1
2n
). Comme (B
t
)
0tT
et (
B
t
)
0tT
sont tous les deux continus, on a en fait
P
t [0,T],B
t
=
B
t
= 1,
ce qui implique que presque toutes les trajectoires de (B
t
)
0tT
sont -Holderiennes pour tout
[0,
n1
2n
). Lentier n pouvant etre pris aussi grand quon veut, on en deduit le resultat souhaite.
1
0
B
s
ds est gaussienne et calculer sa loi.
55
Proposition 30. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Alors, pour tout
> 0, presque s urement,
lim
t+
B
t
t
1
2
+
= 0.
Preuve.
La convergence L
2
est claire, et comme B
t
est une variable aleatoire gaussienne, on a egalement
la convergence presque s ure.
c
B
ct
t0
, c > 0. Cest la propriete dautosimilarite du mouvement brownien.
(3) (B
T+t
B
T
)
t0
, T 0. Cest la propriete dinvariance par translation du mouvement
brownien.
(4) (tB
1/t
)
t0
. Cest la propriete dinvariance par inversion du temps du mouvement brow-
nien.
Preuve.
Exercice !
t
0
Bs
s
ds existe presque s urement.
(2) Montrer que le processus
B
t
t
0
Bs
s
ds
t0
est un mouvement brownien.
Proposition 33. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Alors
P
inf
t0
B
t
= , sup
t0
B
t
= +
= 1.
Preuve.
Comme le processus (B
t
)
t0
est egalement un mouvement brownien, pour demontrer que
P
inf
t0
B
t
= , sup
t0
B
t
= +
= 1,
il sut en fait de verier que
P
sup
t0
B
t
= +
= 1.
Soit N N. On a par la propriete dautosimilarite,
P
c sup
t0
B
t
N
= P
sup
t0
B
t
N
,c > 0.
Par consequent,
P
sup
t0
B
t
N
= P
sup
t0
B
t
= 0
.
Mais
P
sup
t0
B
t
= 0
P(B
1
0, sup
t1
B
t
= 0) = P(B
1
0, sup
t0
(B
t+1
B
1
) = B
1
).
56
Comme le processus (B
t+1
B
1
)
t0
est un mouvement brownien independant de B
1
, on a pour
tout c > 0,
P(B
1
0, sup
t0
(B
t+1
B
1
) = B
1
) = P(B
1
0,c sup
t0
(B
t+1
B
1
) = B
1
).
Do` u,
P(B
1
0, sup
t0
(B
t+1
B
1
) = B
1
) = P(B
1
0, sup
t0
(B
t+1
B
1
) = 0)
= P(B
1
0)P(sup
t0
(B
t+1
B
1
) = 0)
=
1
2
P
sup
t0
B
t
= 0
.
Ainsi,
P
sup
t0
B
t
= 0
1
2
P
sup
t0
B
t
= 0
.
On en conclut
P
sup
t0
B
t
= 0
= 0,
et
P
sup
t0
B
t
N
= 0.
Comme cela est vrai pour tout N, cela implique
P
sup
t0
B
t
= +
= 1.
e
Bt
2
2
t
t0
, C.
Preuve.
(1) Tout dabord pour t 0, E(| B
t
|) < + car B
t
est une variable gaussienne. Ensuite,
pour t s, E(B
t
B
s
| F
s
) = E(B
t
B
s
) = 0, do` u E(B
t
| F
s
) = B
s
.
(2) Pour t 0, E(B
2
t
) = t < + et pour t s, E((B
t
B
s
)
2
| F
s
) = E((B
t
B
s
)
2
) = t s,
do` u E(B
2
t
t | F
s
) = B
2
s
s.
57
(3) Pour t 0, E
e
Bt
2
2
t
< +car B
t
est une variable gaussienne. Ensuite, pour t s,
E(e
(BtBs)
| F
s
) = E(e
(BtBs)
) = e
2
2
(ts)
, do` u E
e
Bt
2
2
t
| F
s
= e
Bs
2
2
s
.
la
loi du processus (B
t
+t)
t0
. Montrer que pour tout t 0,
P
/Ft
P
/Ft
,
et que
dP
/Ft
dP
/Ft
= e
t
2
2
t
.
A ton
P
/F
P
/F
?
Les martingales precedentes sont souvent utiles pour calculer des lois en utilisant le theor`eme
darret de Doob.
Proposition 37. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Pour a > 0, on
note
T
a
= inf{t 0, B
t
= a}.
On a alors pour tout > 0,
E
e
Ta
= e
a
2
,
et
P(T
a
dt) =
a
(2t)
3/2
e
a
2
2t
dt, t > 0.
Preuve.
Soit > 0. Pour N 1, on note T
N
le temps darret presque s urement borne:
T
N
= T
a
N.
En appliquant le theor`eme darret de Doob `a la martingale,
e
Bt
2
2
t
t0
,
on obtient:
E
e
B
TaN
2
2
(TaN)
= 1.
Mais pour tout N 1,
e
B
TaN
2
2
(TaN)
e
a
.
Par consequent, dapr`es le theor`eme de convergence domine, on obtient quand n +,
E
e
B
Ta
2
2
Ta
= 1.
Par continuite des trajectoires on a presque s urement,
B
Ta
= a,
58
do` u,
E
2
2
Ta
= e
a
.
Ainsi, pour tout > 0,
E
e
Ta
= e
a
2
.
La densite de T
a
sobtient alors en inversant la transformee de Laplace precedente.
La proposition 36 peut en fait etre considerablement generalisee.
Theor`eme 38. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Soit maintenant
f : R
+
R C une application telle que:
(1) f est continument dierentiable en sa premi`ere variable et deux fois continument dierentiable
en sa seconde variable (On ecrira f C
1,2
(R
+
R,C)).
(2) Pour tout t 0, on peut trouver des constantes K > 0 et > 0 telles que
sup
0st
| f(s,x) | Ke
x
.
Alors le processus (f(t,B
t
))
t0
est une martingale si et seulement si f verie lequation aux
derivees partielles:
f
t
+
1
2
2
f
x
2
= 0.
Preuve.
Soit t > 0. Dapr`es la propriete de Markov, on a pour s < t,
E(f(t,B
t
) | F
s
) =
R
f(t,y)
e
(yBs)
2
2(ts)
2(t s)
dy
Par consequent, le processus (f(t,B
t
))
t0
est une martingale si et seulement si pour tout 0 < s < t
et x R,
R
f(t,y)
e
(yx)
2
2(ts)
2(t s)
dy = f(s,x).
Supposons dabord que pour tout 0 < s < t et x R,
R
f(t,y)
e
(yx)
2
2(ts)
2(t s)
dy = f(s,x).
On xe alors t > 0 et on observe alors que la fonction
g : (s,x)
R
f(t,y)
e
(yx)
2
2(ts)
2(t s)
dy
denie sur [0,t) R verie lequation
g
s
+
1
2
2
g
x
2
= 0.
Ce qui implique que f verie cette meme equation.
Reciproquement, supposons que f verie lequation aux derivees partielles:
f
t
+
1
2
2
f
x
2
= 0.
59
Soit t > 0. Alors, en considerant toujours
g : (s,x)
R
f(t,y)
e
(yx)
2
2(ts)
2(t s)
dy,
on saper coit que h = f g verie lequation
h
s
+
1
2
2
h
x
2
= 0
sur [0,t) R avec de plus la condition `a la limite:
x R, lim
st
h(s,x) = 0.
La theorie des equations aux derivees partielles paraboliques implique alors h = 0.
2
f
x
2
= 0,
est connue sous le nom dequation de la chaleur retrograde.
Exercice 40. Soit {P
t
,t 0} la fonction de transition du mouvement brownien. Soit f : R R
une fonction borelienne telle quil existe , > 0 veriant:
x R, | f(x) | e
|x|
.
Montrer que la fonction:
g : (0, +) R R, (t,x) (P
t
f)(x),
est solution du probl`eme parabolique suivant:
g
t
=
1
2
2
g
x
2
, x R, lim
t0
g(t,x) = f(x).
Lequation precedente est appelee lequation de la chaleur. Il est possible de montrer que g est
en fait lunique solution du probl`eme precedent.
4. Le principe dinvariance de Donsker
`
A la fois dun point de vue intuitif et theorique, il est interessant de bien comprendre que le
mouvement brownien est une limite de marches aleatoires.
Soit (S
n
)
nN
une marche aleatoire symetrique sur Z. On denit alors une suite de processus
continus ((S
n
t
)
t[0,1]
)
nN
de la fa con suivante:
S
n
t
=
t
k
n
S
k+1
+
k + 1
n
t
S
k
,
k
n
t
k + 1
n
.
Theor`eme 41. (Principe dinvariance de Donsker) La suite de processus ((S
n
t
)
t[0,1]
)
nN
converge
en loi vers (B
t
)
t[0,1]
o` u (B
t
)
t[0,1]
est un mouvement brownien
Preuve.
Il nous sut de verier deux choses:
(1) Pour tout t
1
,...,t
k
[0,1],
S
n
t
1
,...,S
n
t
k
loi
n+
(B
t
1
,...,B
t
k
).
(2) La famille ((S
n
t
)
t[0,1]
)
nN
est relativement compacte dans la topologie de la convergence
etroite.
60
Nous laissons le premier point (1) en exercice. Notons neanmoins que pour faciliter les calculs,
il sera plus aise de demontrer que pour tout t
1
,...,t
k
[0,1],
S
n
t
1
,S
n
t
2
S
n
t
1
,...,S
n
t
k
S
n
t
k1
loi
n+
(B
t
1
,B
t
2
B
t
1
...,B
t
k
B
t
k1
).
Demontrons que la famille ((S
n
t
)
t[0,1]
)
nN
est relativement compacte dans la topologie de la
convergence etroite.
Soit > 0. Le processus (S
4
n
)
nN
est une sous-martingale, par consequent dapr`es linegalite
maximale de Doob, pour tout n 1,
P
max
kn
| S
k
|>
E(S
4
n
)
4
n
2
=
3n
2
2n
4
n
2
3
4
.
Par stationnarite des accroissements de (S
n
)
nN
, on en deduit nalement que pour tout k,n 1,
> 0,
P
max
in
| S
i+k
S
k
|>
4
.
Soient maintenant , (0,1). De linegalite qui precede, il est facile de voir quon peut trouver
> 0 tel que pour tout k,n 1
P
max
i[n]
| S
i+k
S
k
|
.
Soient N,, > 0. Par denition de S
n
on en deduit quon peut trouver (0,1) tel que pour
tout n 1 et t N,
P
sup
tst+
| S
n
s
S
n
t
|
.
Pour 0 i <
N
et n 1, soit
A
n
i
=
, sup
is(i+1)N
| S
n
i
S
n
s
|
.
Il est facile de voir que
c
i
A
n
i
{sup{| S
n
t
S
n
s
| , | t s | , s,t N} < 3} .
Par consequent, pour tout n 1,
P(sup{| S
n
t
S
n
s
| , | t s | , s,t N} 3) P
i
A
n
i
1 + [N
1
]
< (N + 1).
Ce qui implique, par la proposition 30 du chapitre 1 que ((S
n
t
)
t[0,1]
)
nN
est relativement com-
pacte dans la topologie de la convergence etroite.
Le principe dinvariance de Donsker peut saverer utile pour calculer des lois de fonctionnelles
browniennes. Comme illustration nous allons montrer comment deriver la loi du temps passe
dans R
+
par un mouvement brownien.
Theor`eme 42. (Loi de larcsinus de Levy) Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P).
Pour t 0, on note
A
t
=
t
0
1
R
+
(B
s
)ds.
61
On a alors pour x t:
P(A
t
x) =
2
arcsin
x
t
Preuve.
Soit (S
n
)
nN
une marche aleatoire symetrique sur Z. On note T
1
son temps datteinte de 1 et
Z
1
son premier zero non nul. Rappelons, comme nous lavons vu dans un exercice de la section
1 que
Z
1
=
loi
T
1
+ 1.
On note
A
n
= Card{1 i n, max (S
i1
,S
i
) > 0},
qui correspond au temps passe dans R
+
avant linstant n par (S
n
)
nN
.
On va montrer par recurrence sur n que pour 0 k n,
P(A
2n
= 2k) = P(S
2k
= 0) P(S
2n2k
= 0)
Tout dabord,
P(A
2n
= 0) = P(T
1
2n + 1) = P(Z
1
2n + 2) = P(S
1
= 0,...,S
2n
= 0) .
Mais comme nous lavons vu dans la demonstration de la Proposition 9:
P(S
1
= 0,...,S
2n
= 0) = P(S
2n
= 0) .
Par consequent,
P(A
2n
= 0) = P(S
2n
= 0) .
On montre de meme que
P(A
2n
= 2n) = P(S
2n
= 0) .
Ce qui initialise la recurrence.
Pour 1 k n 1,
{A
2n
= 2k} {Z
1
2k}
ainsi:
P(A
2n
= 2k) =
k
i=1
P(A
2n
= 2k | Z
1
= 2i) P(Z
1
= 2i)
=
1
2
k
i=1
P(Z
1
= 2i) (P(A
2n2i
= 2k) +P(A
2n2i
= 2k 2i)) ,
cela nous donne, gr ace `a lhypoth`ese de recurrence,
P(A
2n
= 2k)
=
1
2
k
i=1
P(Z
1
= 2i) (P(S
2k
= 0) P(S
2n2k2i
= 0) +P(S
2k2i
= 0) P(S
2n2k
= 0))
mais maintenant, gr ace `a la propriete de Markov
k
i=1
P(Z
1
= 2i) P(S
2k2i
= 0) =
k
i=1
P(Z
1
= 2i) P(S
2k
= 0 | Z
1
= 2i)
= P(S
2k
= 0)
De meme,
k
i=1
P(Z
1
= 2i) P(S
2n2k2i
= 0) = P(S
2n2k
= 0) .
62
Ainsi
P(A
2n
= 2k) = P(S
2k
= 0) P(S
2n2k
= 0)
ce qui ach`eve la recurrence.
Par consequent pour 0 k n,
P(A
2n
= 2k) = P(S
2k
= 0) P(S
2n2k
= 0) =
1
2
n
(2n 2k)!
(n k)!
2
(2k)!
(k)!
2
Avec laide de la formule de Stirling on peut alors en deduire (faites la justication !) que pour
x [0,1]:
P
A
2n
2n
x
n+
1
[nx]
k=0
1
k (n k)
Etant donne que
x
0
du
u(1 u)
=
2
arcsin
x
nous avons donc pour tout x [0,1]:
lim
n+
P
A
2n
2n
x
=
2
arcsin
x.
Considerons maintenant la suite de Donsker:
S
n
t
=
t
k
n
S
k+1
+
k + 1
n
t
S
k
,
k
n
t
k + 1
n
.
Il est facile de voir que
1
0
1
R
+
(S
n
t
)dt =
A
2n
2n
.
Le theor`eme de Donsker implique la convergence en loi de
1
0
1
R
+
(S
n
t
)dt vers
1
0
1
R
+
(B
s
)ds. Par
consequent
P(A
1
x) =
2
arcsin
x.
Et la loi de A
t
est deduite de celle de A
1
par la propriete dautosimilarite du mouvement
brownien.
Exercice 43.
(1) Soit (S
n
)
nN
une marche aleatoire symetrique sur Z. On note toujours
A
n
= Card{1 i n, max (S
i1
,S
i
) > 0}
(a) Montrer que pour 0 < x,y < 1
+
n=0
n
k=0
P(A
2n
= 2k,S
2n
= 0) x
2k
y
2n
=
2
1 y
2
+
1 x
2
y
2
(b) En deduire que, conditionnellement ` a S
2n
= 0, A
2n
est uniformement distribuee sur
lensemble 0,2,4,...,2n.
63
(2) Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). En utilisant le theor`eme de
Donsker, montrer que conditionnellement ` a B
1
= 0, la variable aleatoire
1
0
1
R
+
(B
s
)ds,
est uniformement distribuee sur lintervalle [0,1].
Exercice 44. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Le but de lexercice
est de calculer la loi de
g
1
= sup{t [0,1],B
t
= 0}.
(1) Soit (S
n
)
nN
une marche aleatoire symetrique sur Z. Pour n N, on note
d
n
= max{1 k n,S
k
= 0}.
Montrer que pour 0 k n
P(d
2n
= 2k) = P(S
2k
= 0) P(S
2n2k
= 0)
(2) En deduire que pour x [0,1]
lim
n+
P
d
n
n
x
=
2
arcsin
x.
(3) Gr ace au principe de Donsker, en deduire la loi de g
1
.
5. Loi du logarithme itere
Nous avons vu que les trajectoires dun mouvement brownien sont presque s urement localement
-Holder pour tout
0,
1
2
lim inf
t0
B
t+s
B
s
2t ln ln
1
t
= 1 , limsup
t0
B
t+s
B
s
2t ln ln
1
t
= 1
= 1.
Preuve.
Gr ace aux proprietes de symetrie et dinvariance par translation du mouvement brownien, il
sut en fait de demontrer que:
P
limsup
t0
B
t
2t ln ln
1
t
= 1
= 1.
Dans un premier temps, montrons que
P
limsup
t0
B
t
2t ln ln
1
t
1
= 1.
Pour simplier les notations, on note
h(t) =
2t ln ln
1
t
.
64
Soit , > 0, dapr`es linegalite maximale de Doob appliquee `a la martingale
e
Bt
2
2
t
t0
,
on a pour tout t 0:
P
sup
0st
B
s
2
s
>
= P
sup
0st
e
Bs
2
2
s
> e
.
Soit maintenant , (0,1). En appliquant linegalite precedente pour tout n N avec
t =
n
, =
(1 +)h(
n
)
n
, =
1
2
h(
n
),
on obtient, quand n +,
P
sup
0s
n
B
s
(1 +)h(
n
)
2
n
s
>
1
2
h(
n
)
= O
1
n
1+
.
Par consequent, dapr`es le lemme de Borel-Cantelli, pour presque tout , on peut trouver
N() N tel que pour tout n N(),
sup
0s
n
B
s
()
(1 +)h(
n
)
2
n
s
1
2
h(
n
).
Mais
sup
0s
n
B
s
()
(1 +)h(
n
)
2
n
s
1
2
h(
n
)
implique que pour
n+1
< t
n
,
B
t
() sup
0s
n
B
s
()
1
2
(2 +)h(
n
)
(2 +)h(t)
2
.
On en deduit ainsi
P
limsup
t0
B
t
2t ln ln
1
t
2 +
2
= 1.
En faisant 1 et 0, on obtient bien
P
limsup
t0
B
t
2t ln ln
1
t
1
= 1.
Montrons maintenant que
P
limsup
t0
B
t
2t ln ln
1
t
1
= 1.
Soit (0,1). Pour n N, on note
A
n
=
,B
n() B
n+1() (1
)h(
n
)
.
On va montrer que
P(A
n
) = +.
Pour cela, on utilise linegalite elementaire (justiez la !):
+
a
e
u
2
2
du
a
1 +a
2
e
a
2
2
, a > 0.
65
On a ainsi:
P(A
n
) =
1
+
an
e
u
2
2
du
a
n
1 +a
2
n
e
a
2
n
2
,
avec
a
n
=
(1
)h(
n
)
n/2
1
.
Au voisinage de +,
a
n
1 +a
2
n
e
a
2
n
2
= O
1
n
1+2
.
Par consequent,
P(A
n
) = +.
Dapr`es le lemme de Borel-Cantelli, avec probabilite 1,
B
n B
n+1 (1
)h(
n
)
se produit pour une innite de n. Mais dapr`es la premi`ere partie de la demonstration, pour
presque tout , on peut trouver N() tel que pour n N()
B
h(
n
).
Par consequent, avec probabilite 1,
B
n > h(
n
)(1 5
)
se produit pour une innite de n. Cela implique
P
limsup
t0
B
t
2t ln ln
1
t
1 5
= 1.
On obtient alors
P
limsup
t0
B
t
2t ln ln
1
t
1
= 1.
en faisant 0.
Par la propriete dinvariance par inversion du temps du mouvement brownien, on a:
Corollaire 46. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P).
P
lim inf
t+
B
t
2t ln ln t
= 1 , lim sup
t+
B
t
2t ln ln t
= 1
= 1.
6. Propriete de Markov forte
Dans ce paragraphe, nous allons donner quelques applications de la propriete de Markov dite
forte du mouvement brownien. Un processus est dit Markov fort, sil verie la propriete de
Markov egalement par rapport `a des temps darret, plus precisement:
Denition 47. Soient (,(F
t
)
t0
,F,P) un espace de probabilite ltre et (X
t
)
t0
un processus
adapte ` a la ltration (F
t
)
t0
. On dit que (X
t
)
t0
est un processus de Markov fort de fonction de
transition {P
t
,t 0} relativement ` a la ltration (F
t
)
t0
si pour toute fonction borelienne bornee
f : R R, et pour tout temps darret ni S de la ltration (F
t
)
t0
:
E(f(X
S+t
) | F
S
) = (P
t
f)(X
S
), t > 0.
66
Un processus de Markov fort est evidemment un processus de Markov. Comme nous allons le
montrer, un exemple de processus de Markov fort est le mouvement brownien.
Proposition 48. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Soit maintenant
T un temps darret ni de la ltration (F
t
)
t0
. Alors le processus,
(B
T+t
B
T
)
t0
est un mouvement brownien independant de la tribu F
T
.
Preuve.
Soit T un temps darret ni de la ltration (F
t
)
t0
. Pour t 0, on note
B
t
= B
T+t
B
T
Soient R, 0 s t et N 1. En appliquant le theor`eme darret de Doob `a la martingale
e
iBt+
2
2
t
t0
,
avec les temps sarret t +T N et s +T N, on obtient:
E
e
iB
TN+t
+
2
2
(TN+t)
| F
TN+s
= e
iB
TN+s
+
2
2
(TN+s)
,
do` u
E
e
i(B
TN+t
B
TN+s
)
| F
TN+s
= e
2
2
(ts)
.
Par le theor`eme de convergence dominee, quand N +, on obtient:
E
e
i(
Bt
Bs)
| F
T+s
= e
2
2
(ts)
.
Le processus (
B
t
)
t0
est par consequent `a accroissements independants et stationnaires. Il est
dautre part evidemment continu. Donc (
B
t
)
t0
est un processus de Levy continu. La relation
E
e
i(
Bt
Bs)
= e
2
2
(ts)
,
implique que cest un mouvement brownien.
R
f(x +y)
e
y
2
2t
2t
dy
et
E(f(B
t+S
) | F
S
) =
R
f(B
S
+y)
e
y
2
2t
2t
dy.
B
t
= B
t
, t < T
a
= 2a B
t
, t T
a
,
est un mouvement brownien.
Preuve.
Exercice.
2t
3
e
(2ax)
2
2t
dadx.
Preuve.
Exercice.
Proposition 52. On a
(S
t
B
t
)
t0
=
loi
(| B
t
|)
t0
.
Dautre part, (| B
t
|)
t0
est un processus de Markov fort de fonction de transition:
(P
t
f)(x) =
2
2t
+
0
e
x
2
+y
2
2t
cosh
xy
t
f(y)dy, t > 0.
Preuve.
Exercice.
68
7. Diffusions
Letude des martingales browniennes nous a montre que le mouvement brownien etait, dans un
certain sens, relie `a lequation de la chaleur:
f
t
=
1
2
2
f
x
2
.
Dans ce paragraphe, nous allons preciser un plus ce lien, en introduisant la notion de diusion.
Exercice 53. Soit {P
t
,t 0} une fonction de transition de Feller-Dynkin. Montrer que si
f : R R est une fonction C
= 0.
Exercice 54. Soit {P
t
,t 0} la fonction de transition du mouvement brownien.
(1) Soit f : R R une fonction C
(x).
(2) Soit f : R R une fonction C
P
t
f f
t
1
2
f
= 0.
(3) Montrer que si f : R R est une fonction polynomiale alors pour tout x R
(P
t
f)(x) =
+
k=0
1
2
k
k!
t
k
f
(2k)
(x).
Dans la suite on notera C
c
(R,R), lespace des fonctions R R, C
`a support compact et
on rappelle que C
0
(R,R) denote lensemble des applications continues f : R R telles que
lim
f = lim
+
f = 0.
On rappelle egalement que C(R
+
,R) est lespace des fonctions continues R
+
R. Le processus
des coordonnees sur cet espace est note comme dhabitude (
t
)
t0
et on note enn:
G
t
= (
s
,0 s t), t 0,
G
= (
s
,s 0).
Denition 55. Soit {P
t
,t 0} une fonction de transition. On dit que {P
t
,t 0} est une
fonction de transition de diusion si:
(1) La fonction de transition {P
t
,t 0} est de Feller-Dynkin;
(2) Pour tout f C
c
(R,R), il existe g C
0
(R,R) telle que:
lim
t0
P
t
f f
t
g
.
(3) Pour toute mesure de probabilite sur R, on peut trouver une probabilite P
sur G
telle
que :
(a) Sous P
,
0
=
loi
;
(b) Sur lespace de probabilite ltre (C(R
+
,R),(G
t
)
t0
,G
,P
), (
t
)
t0
est un processus
de Markov de fonction de transition {P
t
,t 0} relativement ` a la ltration (G
t
)
t0
.
Dans (2) le g qui est associe au f est unique et on notera g = Lf. Loperateur L : C
c
(R,R)
C
0
(R,R) sappelle le generateur innitesimal de la fonction de transition {P
t
,t 0}.
69
Denition 56. Soit (X
t
)
t0
un processus continu deni sur un espace de probabilite ltre
(,(F
t
)
t0
,F,P). On dit que (X
t
)
t0
est un processus de diusion par rapport ` a la ltration
(F
t
)
t0
si cest un processus de Markov dont la fonction de transition est une fonction de tran-
sition de diusion. Le generateur innitesimal de cette fonction de transition est encore appele
le generateur innitesimal de la diusion.
Exercice 57. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Pour R, montrer
que le processus (B
t
+t)
t0
est un processus de diusion de generateur innitesimal:
L =
d
dx
+
1
2
d
2
dx
2
.
Exercice 58. (Processus dOrnstein-Uhlenbeck)
Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Soit R\{0}. On consid`ere le
processus
X
t
= e
t
B
1e
2t
2
.
(1) Montrer que (X
t
)
t0
est un processus gaussien dont on calculera la fonction moyenne et
la fonction de covariance.
(2) Montrer que (X
t
)
t0
est un processus de Markov de fonction de transition donnee par:
(P
t
f)(x) =
R
f
e
t
x +
e
2t
1
2
y
y
2
2
2
dy.
(3) Montrer que (X
t
)
t0
est une diusion de generateur innitesimal
L = x
d
dx
+
1
2
d
2
dx
2
.
Exercice 59. Soit (X
t
)
t0
un processus de diusion de fonction de transition {P
t
,t 0} et de
generateur innitesimal L. Montrer que si f C
c
(R,R) est une fonction telle que
Lf = f, R,
alors pour tout x R
(P
t
f)(x) =
+
k=0
1
2
k
k!
t
k
(L
k
f)(x) = e
1
2
t
f(x).
On peut construire toute une famille de martingales associees `a un processus de diusion:
Proposition 60. Soit (X
t
)
t0
un processus de diusion deni sur un espace de probabilite
ltre (,(F
t
)
t0
,F,P) de fonction de transition {P
t
,t 0} et de generateur innitesimal L. Soit
f C
c
(R,R). Alors, le processus
f(X
t
)
t
0
(Lf)(X
s
)ds
t0
est une martingale relativement ` a la ltration (F
t
)
t0
.
Preuve.
Remarquons tout dabord, dapr`es lexercice 53, que pour f C
c
(R,R) et t 0,
lim
0
P
t+
f P
t
f
= P
t
lim
0
P
f f
= P
t
Lf.
70
Il sen suit que pour f C
c
(R,R) et t 0,
P
t
f = f +
t
0
P
u
Lfdu.
Soient maintenant f C
c
(R,R) et t s 0, on a:
E(f(X
t
) | F
s
) = (P
ts
f)(X
s
)
= f(X
s
) +
ts
0
(P
u
Lf)(X
s
)du
= f(X
s
) +
t
s
(P
us
Lf)(X
s
)du
= f(X
s
) +
t
s
E((Lf)(X
u
) | F
s
)
= f(X
s
) +E
t
s
(Lf)(X
u
)du | F
s
.
Ce qui conclut la demonstration.
Le joli theor`eme suivant d u `a Dynkin nous dit quun generateur innitesimal de diusion est
necessairement un operateur dierentiel elliptique du second ordre:
Theor`eme 61. (Dynkin) Soit (X
t
)
t0
un processus de diusion de generateur innitesimal L
deni sur un espace de probabilite ltre (,(F
t
)
t0
,F,P). On peut trouver des fonctions continues
b : R R et : R [0, +) telles que:
L = b(x)
d
dx
+
1
2
(x)
2
d
2
dx
2
.
Preuve.
Soit (X
t
)
t0
un processus de diusion de fonction de transition {P
t
,t 0} et de generateur
innitesimal L deni sur un espace de probabilite ltre (,(F
t
)
t0
,F,P). Montrons tout dabord
que L verie les proprietes suivantes:
(1) L : C
c
(R,R) C
0
(R
+
,R) est un operateur lineaire;
(2) L est un operateur local, i.e. si f,g C
c
(R,R) coincident sur un voisinage de x R,
alors (Lf)(x) = (Lg)(x);
(3) L verie le principe du maximum: Si f C
c
(R,R) atteint son maximum en x R avec
f(x) 0, alors (Lf)(x) 0.
La propriete (1) est claire et decoule de la linearite de P
t
.
Soient maintenant f,g C
c
(R,R) qui coincident sur un voisinage de x R. On a
(P
t
f)(x) = E
x
(f(
t
)),
o` u E
x
designe lesperance sous la probabilite P
x
telle que:
Sous P
x
,
0
=
loi
x
(distribution de Dirac en x);
Sur lespace de probabilite ltre (C(R
+
,R),(G
t
)
t0
,G
,P
), (
t
)
t0
est un processus de
Markov de fonction de transition {P
t
,t 0} relativement `a la ltration (G
t
)
t0
.
De meme,
(P
t
g)(x) = E
x
(g(
t
)).
Comme (
t
)
t0
est continu, on en deduit lexistence dun temps darret T tel que T > 0, P
x
p.s.
et
f(
t
) = g(
t
), t < T.
71
Ce qui implique
lim
t0
E
x
(f(
t
)) E
x
(g(
t
))
t
= lim
t0
E
x
(f(1
t<T
t
)) E
x
(g(1
t<T
t
))
t
= 0.
Comme dun autre cote, on a
lim
t0
E
x
(f(
t
)) E
x
(g(
t
))
t
= (Lf)(x) (Lg)(x),
on en deduit que
(Lf)(x) = (Lg)(x).
La propriete (2) est donc bien satisfaite.
Montrons que la propriete (3) lest egalement. Soit f C
c
(R,R) qui atteint son maximum en
x R avec f(x) 0.
Soit encore P
x
la probabilite sur G
telle que:
Sous P
x
,
0
=
loi
x
(distribution de Dirac en x);
Sur lespace de probabilite ltre (C(R
+
,R),(G
t
)
t0
,G
,P
), (
t
)
t0
est un processus de
Markov de fonction de transition {P
t
,t 0} relativement `a la ltration (G
t
)
t0
.
Dapr`es la proposition precedente, sous cette probabilite P
x
, le processus
f(
t
)
t
0
(Lf)(
s
)ds
t0
est une martingale relativement `a la ltration (G
t
)
t0
. Par consequent, pour tout t 0,
E
x
(f(
t
)) = f(x) +
t
0
E
x
((Lf)(
u
))du.
Comme pour tout t 0,
E
x
(f(
t
)) f(x),
on en deduit que pour t 0
1
t
t
0
E
x
((Lf)(
u
))du 0.
A la limite t 0, on recup`ere:
(Lf)(x) 0.
En conclusion, les proprietes (1), (2) et (3) sont bien satisfaites.
On veut maintenant demontrer que L est un operateur dierentiel elliptique du second ordre.
Soit x R.
Soit
0
une fonction C
1
(y) = y x.
On pose alors
b(x) = (L
1
)(x).
La fonction
2
1
atteint un minimum local en x, par consequent
(L
2
1
)(x) 0,
72
et on pose alors
2
(x) = (L
2
1
)(x).
Les fonctions b et sont bien denies et continues (justiez le !).
Montrons maintenant que pour tout f C
c
(R,R),
(Lf)(x) = b(x)f
(x) +
1
2
(x)
2
f
(x).
Soit donc f C
c
(R,R). Dapr`es la formule de Taylor, au voisinage de x, on peut ecrire
f(y) = f(x)
0
(y) +f
(x)
1
(y) +
1
2
f
(x)
2
1
(y) +R(y)
3
1
(y)
o` u R est continue.
On en deduit donc
(Lf)(x) = f(x)(L
0
)(x) +f
(x)(L
1
)(x) +
1
2
f
(x)(L
2
1
)(x) + (LR
3
1
)(x).
Pour conclure notre demonstration, il reste donc `a verier que
(LR
3
1
)(x) = 0.
Pour > 0 assez petit,
y R(y)
3
1
(y) (y x)
2
a un maximum local en x, do` u
(LR
3
1
)(x)
2
(x).
On en deduit
(LR
3
1
)(x) 0.
De meme, en considerant
y R(y)
3
1
(y) +(y x)
2
,
on montre que
(LR
3
1
)(x) 0.
Ce qui montre bien
(LR
3
1
)(x) = 0.
Les processus de diusion permettent de resoudre des equations aux derivees partielles:
Proposition 62. Soit (X
t
)
t0
un processus de diusion de fonction de transition {P
t
,t 0} et
de generateur innitesimal
L = b(x)
d
dx
+
1
2
(x)
2
d
2
dx
2
.
Soit f C
c
(R,R). Alors, la fonction:
g : (0, +) R R, (t,x) (P
t
f)(x),
est solution du probl`eme parabolique suivant:
g
t
= b(x)
g
x
+
1
2
2
(x)
2
g
x
2
, x R, lim
t0
g(t,x) = f(x).
73
Preuve.
Exercice.
.
Ainsi, si on a en tete des applications en theorie des equations aux derivees partielles, il est
important de savoir comment construire des processus de diusion. Le calcul dIto presente au
chapitre suivant sav`erera un outil tr`es puissant facile `a etendre en dimension plus grande que 1.
En attendant, on a le theor`eme remarquable suivant, que demontrerons plus tard et qui r`egle le
probl`eme de lexistence des diusions en dimension 1, sous des hypoth`eses relativement faibles:
Theor`eme 63. Soient b : R R et : R (0, +) deux fonctions continues.
Soit
s(x) =
x
0
exp
y
0
| b(z) |
(z)
2
dz
dy, x R.
Soit maintenant (B
t
)
t0
un mouvement brownien.
Pour u 0, on note
A
u
=
u
0
ds
s
(B
s
)
2
(B
s
)
=
u
0
exp
Bs
0
|b(z)|
(z)
2
dz
2
(B
s
)
ds,
Alors le processus
s
1
B
inf{u,Au>t}
t0
est une diusion de generateur innitesimal
L = b(x)
d
dx
+
1
2
(x)
2
d
2
dx
2
.
Ce quil y a de remarquable dans ce theor`eme, cest quainsi toutes les diusions unidimension-
nelles peuvent etre construite `a partir du seul mouvement brownien.
8. Un invite de marque: Paul Levy
Born: 15 Sept 1886 in Paris, France
Died: 15 Dec 1971 in Paris, France
Paul Levy was born into a family containing several mathematicians. His grandfather was a
professor of mathematics while Pauls father, Lucien Levy, was an examiner with the
Ecole
Polytechnique and wrote papers on geometry. Paul attended the Lycee Saint Louis in Paris
and he achieved outstanding success winning prizes not only in mathematics but also in Greek,
chemistry and physics. He was placed rst for entry to the
Ecole Normale Superieur and second
for entry to the
Ecole Polytechnique in the Concours dentree for the two institutions.
He chose to attend the
Ecole Polytechnique and he while still an undergraduate there published
his rst paper on semiconvergent series in 1905. After graduating in rst place, L vy took a year
doing military service before entering the
Ecole des Mines in 1907. While he studied at the
Ecole des Mines he also attended courses at the Sorbonne given by Darboux and Emile Picard.
In addition he attended lectures at the Coll`ege de France by Georges Humbert and Hadamard.
It was Hadamard who was the major inuence in determining the topics on which Levy would
undertake research. Finishing his studies at the
Ecole des Mines in 1910 he began research
in functional analysis. His thesis on this topic was examined by Emile Picard, Poincare and
Hadamard in 1911 and he received his Docteur `es Sciences in 1912.
Levy became professor
Ecole des Mines in Paris in 1913, then professor of analysis at the
Ecole Polytechnique in Paris in 1920 where he remained until he retired in 1959. During World
War I Levy served in the artillery and was involved in using his mathematical skills in solving
74
problems concerning defence against attacks from the air. A young mathematician R Gateaux
was killed near the beginning of the war and Hadamard asked Levy to prepare Gateauxs work
for publication. He did this but he did not stop at writing up Gateauxs results, rather he took
Gateauxs ideas and developed them further publishing the material after the war had ended in
1919.
As we indicated above Levy rst worked on functional analysis:
... done in the spirit of Volterra. This involved extending the calculus of functions of a real
variable to spaces where the points are curves, surfaces, sequences or functions.
In 1919 Levy was asked to give three lectures at the
Ecole Polytechnique on:
... notions of calculus of probabilities and the role of Gaussian law in the theory of errors.
Taylor writes:
At that time there was no mathematical theory of probability - only a collection of small com-
putational problems. Now it is a fully-edged branch of mathematics using techniques from all
branches of modern analysis and making its own contribution of ideas, problems, results and use-
ful machinery to be applied elsewhere. If there is one person who has inuenced the establishment
and growth of probability theory more than any other, that person must be Paul Levy.
Lo`eve, one of his students, gives a very colorful description of Levys contributions:
Paul Levy was a painter in the probabilistic world. Like the very great painting geniuses, his
palette was his own and his paintings transmuted forever our vision of reality. ... His three main,
somewhat overlapping, periods were: the limit laws period, the great period of additive processes
and of martingales painted in pathtime colors, and the Brownian pathnder period.
Not only did Levy contribute to probability and functional analysis but he also worked on partial
dierential equations and series. In 1926 he extended Laplace transforms to broader function
classes. He undertook a large-scale work on generalized dierential equations in functional deri-
vatives. He also studied geometry.
His main books are Le cons danalyse fonctionnelle (1922), Calcul des probabilites (1925), Theorie
de laddition des variables aleatoires (1937-54), and Processus stochastiques et mouvement brow-
nien (1948).
Lo`eve sums up in these words:
He was a very modest man while believing fully in the power of rational thought. ... whenever
I pass by the Luxembourg gardens, I still see us there strolling, sitting in the sun on a bench; I
still hear him speaking carefully his thoughts. I have known a great man.
Article by: J J OConnor and E F Robertson,
75
O
1. Int egrale dIt o
1.1. Variation des trajectoires browniennes. Pour developper une theorie de lintegration
par rapport au mouvement brownien, la premi`ere idee est dessayer une approche trajectorielle,
cest-`a-dire dessayer de denir une integrale
u
s
dB
s
comme une limite presque s ure de sommes
de Riemann. La theorie classique de lintegration de Riemann-Stieljes nous dit quune telle
approche nest possible que si les trajectoires sont localement `a variation bornee
1
. On va tout
de suite montrer que cette approche trajectorielle nest pas possible.
Si
n
[0,t] = 0 = t
n
0
t
n
1
... t
n
n
= t
est une subdivision de lintervalle de temps [0,t], on note
[
n
[0,t] [= max[ t
n
k+1
t
n
k
[ ,k = 0,...,n 1,
le pas de cette subdivision.
Proposition 1. Soit (B
t
)
t0
un mouvement brownien deni sur un espace de probabilite ltre
(,(T
t
)
t0
,T,P). Soit t 0. Pour toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a au sens L
2
(et donc en probabilite):
lim
n+
n
k=1
B
t
n
k
B
t
n
k1
2
= t.
1. En fait il existe une theorie de lintegration due `a Young qui permet dintegrer contre des fonctions de
p-variation nie avec p < 2.
1
76
CHAPITRE 5: CALCUL DIT
En particulier les trajectoires browniennes sont presque s urement de variation innie sur tout
intervalle [0,t].
Preuve.
On note
V
n
=
n
k=1
B
t
n
k
B
t
n
k1
2
.
On a alors, par independance et stationnarite des accroissements browniens:
E
(V
n
t)
2
= E
V
2
n
2tE(V
n
) +t
2
=
n
j,k=1
E
B
t
n
j
B
t
n
j1
B
t
n
k
B
t
n
k1
t
2
=
n
k=1
E
B
t
n
j
B
t
n
j1
+ 2
n
1j<kn
E
B
t
n
j
B
t
n
j1
B
t
n
k
B
t
n
k1
t
2
=
n
k=1
(t
n
k
t
n
k1
)
2
E
B
4
1
+ 2
n
1j<kn
(t
n
j
t
n
j1
)(t
n
k
t
n
k1
) t
2
= 3
n
k=1
(t
n
j
t
n
j1
)
2
+ 2
n
1j<kn
(t
n
j
t
n
j1
)(t
n
k
t
n
k1
) t
2
= 2
n
k=1
(t
n
k
t
n
k1
)
2
2t [
n
[0,t] [
n+
0.
Montrons maintenant que cette convergence implique que les trajectoires de (B
t
)
t0
sont presque
s urement de variation innie sur lintervalle [0,t], cest-`a-dire, quon peut trouver une suite de
subdivisions
n
[0,t] telle que presque s urement
lim
n+
n
k=1
[ B
t
n
k
B
t
n
k1
[= +.
Raisonnons par labsurde en supposant que le sup sur toutes les subdivisions de [0,t] des sommes
lim
n+
n
k=1
[ B
t
n
k
B
t
n
k1
[
peut etre majore par un certain M > 0. Dapr`es ce qui prec`ede, on peut trouver une suite de
subdivisions
n
[0,t] dont le pas tend vers 0 et telle que, presque s urement,
lim
n+
n
k=1
B
t
n
k
B
t
n
k1
2
= t,
car de toute suite qui converge en probabilite, on peut extraire une sous-suite convergente. Mais
on a alors
n
k=1
B
t
n
k
B
t
n
k1
2
M sup
1kn
[ B
t
n
k
B
t
n
k1
[
n+
0,
ce qui est absurde.
77
Exercice 2. Soit (B
t
)
t0
un mouvement brownien deni sur un espace de probabilite ltre
(,(T
t
)
t0
,T,P).
(1) Montrer que pour tout t 0, presque s urement
lim
n+
2
n
k=1
Bkt
2
n
B(k1)t
2
n
2
= t.
(2)
Soit une suite de subdivisions
n
[0,t] dont le pas tend vers 0 et telle que
n+1
[0,t]
n
[0,t], montrer que presque s urement
lim
n+
n
k=1
B
t
n
k
B
t
n
k1
2
= t.
(3)
Montrer quil existe une suite de subdivisions
n
[0,t] telle que presque s urement
lim
n+
n
k=1
B
t
n
k
B
t
n
k1
2
= +.
Ainsi, dapr`es ce qui prec`ede on ne peut pas denir trajectoriellement une integrale contre le
mouvement brownien. Neanmoins, lexistence dune variation quadratique, encourage `a tenter
une approche L
2
qui va sav`erer fructueuse.
1.2. Integration contre le mouvement brownien. Dans ce qui suit nous considerons un
mouvement brownien (B
t
)
t0
deni sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) qui sa-
tisfait les conditions usuelles. Cette hypoth`ese de condition usuelle sur la ltration implique
notamment:
(1) Toute limite (presque s ure, au sens L
1
, etc...) de processus adaptes reste adaptee;
(2) Toute modication dun processus progressivement mesurable reste progressivement me-
surable;
(3) Toute sur-martingale est regularisable au sens de Doob.
On note L
2
(,(T
t
)
t0
,P) lensemble des processus (u
t
)
t0
progressivement mesurables par rap-
port `a la ltration (T
t
)
t0
et tels que
E
+
0
u
2
s
ds
< +.
Exercice 3. Montrer que L
2
(,(T
t
)
t0
,P) muni de la norme
|u|
2
= E
+
0
u
2
s
ds
i=0
F
i
1
(t
i
,t
i+1
]
(t),
avec 0 t
0
... t
n
et F
i
est une variable aleatoire T
t
i
mesurable telle que E(F
2
i
) < +.
Lensemble c sappelle lensemble des processus simples previsibles. Il est clair que
c L
2
(,(T
t
)
t0
,P).
78
Theor`eme 4. (Integrale dIto)
Il existe une unique application lineaire
1 : L
2
(,(T
t
)
t0
,P) L
2
(,T,P)
telle que:
(1) Pour u =
n1
i=0
F
i
1
(t
i
,t
i+1
]
c,
1(u) =
n1
i=0
F
i
(B
t
i+1
B
t
i
);
(2) Pour u L
2
(,(T
t
)
t0
,P),
E
1(u)
2
= E
+
0
u
2
s
ds
.
Lapplication 1 sappelle lintegrale dIto contre le mouvement brownien et on note pour u
L
2
(,(T
t
)
t0
,P),
1(u) =
+
0
u
s
dB
s
.
Preuve.
Par le theor`eme de prolongement des isometries dans les espaces de Hilbert, il nous sut de
demontrer deux choses:
(1) Pour u =
n1
i=0
F
i
1
(t
i
,t
i+1
]
c,
E
n1
i=0
F
i
(B
t
i+1
B
t
i
)
= E
+
0
u
2
s
ds
;
(2) c est dense dans L
2
(,(T
t
)
t0
,P) pour la norme:
|u|
2
= E
+
0
u
2
s
ds
.
Soit u =
n1
i=0
F
i
1
(t
i
,t
i+1
]
c. On a, par independance des accroissements du mouvement
brownien:
E
n1
i=0
F
i
(B
t
i+1
B
t
i
)
=E
n1
i,j=0
F
i
F
j
(B
t
i+1
B
t
i
)(B
t
j+1
B
t
j
)
=E
n1
i=0
F
2
i
(B
t
i+1
B
t
i
)
2
+ 2E
0i<jn1
F
i
F
j
(B
t
i+1
B
t
i
)(B
t
j+1
B
t
j
)
=E
n1
i=0
F
2
i
(t
i+1
t
i
)
=E
+
0
u
2
s
ds
.
79
Montrons maintenant que c est dense dans L
2
(,(T
t
)
t0
,P).
Nous procedons en plusieurs etapes.
Dans un premier temps, on remarque que le sous-ensemble des processus progressivement me-
surables et bornes est dense dans L
2
(,(T
t
)
t0
,P). En eet, si u L
2
(,(T
t
)
t0
,P), alors u peut
etre approxime par la suite de processus (u
t
1
[0,n]
([ u
t
[))
t0
.
Dans un deuxi`eme temps, on remarque que si u L
2
(,(T
t
)
t0
,P) est un processus borne, alors
u peut etre approxime par un processus de L
2
(,(T
t
)
t0
,P) borne et dont presque toutes les
trajectoires sont `a support inclus dans un meme compact (il sut maintenant de considerer la
suite de processus (u
t
1
[0,n]
(t)
t0
et de conclure par convergence dominee).
Dans un troisi`eme temps, on remarque que si u L
2
(,(T
t
)
t0
,P) est un processus borne dont
presque toutes les trajectoires sont `a support inclus dans un meme compact, alors u peut etre
approxime par un processus de L
2
(,(T
t
)
t0
,P) continu, borne et dont presque toutes les trajec-
toires sont aussi `a support inclus dans un meme compact. En eet la suite
1
n
t
t
1
n
u
s
ds1
[
1
n
,+)
(t)
t0
fait tout `a fait laaire (veriez-le !) .
Il sut donc nalement de demontrer que si u L
2
(,(T
t
)
t0
,P) est un processus borne, continu,
dont presque toutes les trajectoires sont `a support inclus dans un meme compact alors u peut
etre approche par un element de c. Pour demontrer cela, il sut de considerer la suite delements
de c:
u
n
t
=
+
i=0
u i
n
1
(
i
n
,
i+1
n
]
(t).
+
0
u
s
dB
s
= 0
et
E
+
0
u
s
dB
s
+
0
v
s
dB
s
= E
+
0
u
s
v
s
ds
.
Le theor`eme precedent permet de construire un processus integrale dIto:
Proposition 6. Soit u L
2
(,(T
t
)
t0
,P) . Le processus
t
0
u
s
dB
s
t0
=
+
0
u
s
1
[0,t]
(s)dB
s
t0
est une martingale relativement `a la ltration (T
t
)
t0
qui admet une modication continue.
Preuve.
Demontrons tout dabord la propriete de martingale. Si
u
t
=
n1
i=0
F
i
1
(t
i
,t
i+1
]
(t)
80
est un element de c alors pour t s,
E
t
0
u
v
dB
v
[ T
s
= E
n1
i=0
F
i
(B
t
i+1
t
B
t
i
t
) [ T
s
=
n1
i=0
F
i
(B
t
i+1
s
B
t
i
s
)
=
s
0
u
v
dB
v
.
Ainsi si u c, le processus
t
0
u
s
dB
s
t0
=
+
0
u
s
1
[0,t]
(s)dB
s
t0
est une martingale relativement `a la ltration (T
t
)
t0
. Comme c est dense dans L
2
(,(T
t
)
t0
,P)
pour la norme:
|u|
2
= E
+
0
u
2
s
ds
,
et que lesperance conditionnelle est continue dans L
2
, nous en deduisons le resultat souhaite.
Demontrons maintenant lexistence dune version continue pour lintegrale stochastique. Si u
c, le resultat decoule facilement de la continuite des trajectoires browniennes. Soit maintenant
u L
2
(,(T
t
)
t0
,P). Considerons une suite u
n
de c qui converge vers u pour notre norme
habituelle. Dapr`es linegalite de Doob, pour m,n 0 et > 0,
P
sup
t0
[
t
0
(u
n
s
u
m
s
)dB
s
[
+
0
(u
n
s
u
m
s
)dB
s
[
2
2
=
E
+
0
(u
n
s
u
m
s
)
2
ds
2
.
Par consequent, il est possible de trouver une suite n
k
telle que
P
sup
t0
[
t
0
(u
n
k+1
s
u
n
k
s
)dB
s
[
1
2
k
1
2
k
.
Dapr`es le lemme de Borel-Cantelli, la suite de processus continu
t
0
u
n
k
s
dB
s
t0
converge alors
presque s urement uniformement vers le processus
t
0
u
s
dB
s
t0
. Do` u le resultat souhaite.
sup
t0
[
t
0
u
s
dB
s
[
+
0
u
2
s
ds
2
;
(2)
E
sup
t0
[
t
0
u
s
dB
s
[
4E
+
0
u
2
s
ds
.
81
Nous insistons sur le fait que lintegrale dIto nest pas trajectorielle, i.e. pour u L
2
(,(T
t
)
t0
,P),
les sommes de Riemann
n1
k=0
ukt
n
(B(k+1)t
n
Bkt
n
,
ne convergent en general pas presque s urement vers
t
0
u
s
dB
s
. Sous des hypoth`eses faibles, on a
neanmoins une convergence en probabilite:
Proposition 8. Soit u L
2
(,(T
t
)
t0
,P) un processus continu `a gauche. Soit t 0. Pour toute
suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n1
k=0
u
t
n
k
B
t
n
k+1
B
t
n
k
t
0
u
s
dB
s
.
Preuve.
Exercice. On demontrera tout dabord, `a laide des inegalites de Doob precedentes que si u
n
est une suite de processus de L
2
(,(T
t
)
t0
,P) qui converge presque s urement vers 0 et telle que
u
n
u o` u u est un processus localement borne, alors
t
0
u
n
s
dB
s
converge vers 0 en probabilite.
Exercice 9.
(1) Montrer que pour t 0,
t
0
B
s
dB
s
=
1
2
B
2
t
t
.
Quest-ce qui vous surprend dans cette formule?
(2) Calculer la limite en probabilite quand n + de
n1
k=0
B(k+1)t
n
B(k+1)t
n
Bkt
n
.
1.3. Martingales de carre integrable et variations quadratiques. Soit un espace de pro-
babilite ltre (,(T
t
)
t0
,T,P) qui satisfait les conditions usuelles. Sur cet espace, une martingale
est dite de carre integrable si pour tout t 0, E
M
2
t
t
0
u
2
s
ds
< + alors
M
t
=
t
0
u
s
dB
s
, t 0,
est une martingale de carre integrable.
Concernant les martingales de carre integrable, le theor`eme suivant est fondamental.
Theor`eme 10. Soit (M
t
)
t0
une martingale continue de carre integrable sur lespace de pro-
babilite (,(T
t
)
t0
,T,P) telle que M
0
= 0. Il existe un unique processus continu et croissant (et
donc `a variation bornee) note ('M`
t
)
t0
qui verie:
(1) 'M`
0
= 0;
(2) Le processus (M
2
t
'M`
t
)
t0
est une martingale.
82
Dautre part pour t 0 et pour toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n
k=1
M
t
n
k
M
t
n
k1
2
= 'M`
t
.
Le processus ('M`
t
)
t0
est appele le processus variation quadratique de (M
t
)
t0
.
Preuve.
Quitte `a considerer la suite de martingales (M
tT
n
)
t0
avec T
n
= inft 0, [ M
t
[> n, nous
supposerons que la martingale (M
t
)
t0
est bornee.
Nous allons tout dabord demontrer que si
n
[0,t] est une suite de subdivisions de [0,t] telle que
lim
n+
[
n
[0,t] [= 0,
alors la limite
lim
n+
n
k=1
M
t
n
k
M
t
n
k1
2
existe au sens L
2
et donc en probabilite.
Pour cela, introduisons quelques notations. Si [0,T] est une subdivision de lintervalle de temps
[0,T] et si (X
t
)
t0
est un processus, alors on note
S
[0,T]
t
(X) =
k1
i=0
X
t
i+1
X
t
i
+ (X
t
X
t
k
)
2
,
o` u k est tel que t
k
t < t
k+1
. Par un calcul elementaire desperances conditionnelles, il est facile
de voir que si (X
t
)
t0
est une martingale, alors le processus
X
2
t
S
[0,T]
t
(X), t T
est egalement une martingale. Enn, si [0,T] et
[0,T].
Soit
n
[0,T] une suite de subdivisions de [0,T] telle que
lim
n+
[
n
[0,T] [= 0.
Montrons que la suite S
n
[0,T]
T
(M) est de Cauchy dans L
2
. Comme le processus S
n
[0,T]
(M)
S
p
[0,T]
(M) est une martingale (en tant que dierence de deux martingales), nous en deduisons
E
n
[0,T]
T
(M) S
p
[0,T]
T
(M)
=E
p
[0,T]
T
(S
n
[0,T]
(M) S
p
[0,T]
(M))
p
[0,T]
T
(S
n
[0,T]
(M))
+E
p
[0,T]
T
(S
p
[0,T]
(M))
.
Maintenant notons s
k
les points de la subdivision
n
p
[0,T] et pour s
k
xe, t
l
le point de
n
[0,T] le plus proche de s
k
tel que t
l
s
k
t
l+1
. On a
S
n
[0,T]
s
k+1
(M) S
n
[0,T]
s
k
(M) = (M
s
k+1
M
t
l
)
2
(M
s
k
M
t
l
)
2
= (M
s
k+1
M
s
k
)(M
s
k+1
+M
s
k
2M
t
l
).
83
Par consequent, en vertu de linegalite de Cauchy-Schwarz
E
p
[0,T]
T
(S
n
[0,T]
(M))
sup
k
(M
s
k+1
+M
s
k
2M
t
l
)
4
1/2
E
p
[0,T]
T
(M)
1/2
.
Comme M est continue, quand n,p +,
E
sup
k
(M
s
k+1
+M
s
k
2M
t
l
)
4
0.
Pour conclure il sut donc de demontrer que le terme E
p
[0,T]
T
(M)
est borne, ce
qui se verie sans trop de dicultes en utilisant le fait que M est supposee bornee.
Ainsi, la limite
'M`
t
= lim
n+
n
k=1
M
t
n
k
M
t
n
k1
2
existe au sens L
2
et donc en probabilite.
Voir que le processus (M
2
t
'M`
t
)
t0
est une martingale est aise puisque pour chaque n et
T 0, le processus
M
2
t
S
n
[0,T]
t
(M), t T
lest.
Montrons maintenant que 'M` est continu. Pour cela, remarquons que dapr`es linegalite de
Doob, pour n,p 0 et > 0,
P
sup
0tT
n
[0,T]
t
(M) S
p
[0,T]
t
(M)
>
n
[0,T]
T
(M) S
p
[0,T]
T
(M)
2
.
En utilisant le lemme de Borel-Cantelli il est donc possible de trouver une suite n
k
telle que la
suite de processus continus
n
k
[0,T]
t
(M)
0tT
converge presque s urement uniformement vers
le processus ('M`
t
)
0tT
, ce qui donne lexistence dune version continue.
Enn, pour montrer que 'M` est croissant, il sut de considerer une suite croissante de subdi-
visions dont le pas tend vers 0.
Verions maintenant lunicite de 'M`. Soient donc A et A
t
)
t0
sont des martingales. Le processus
(N
t
)
t0
= (A
t
A
t
)
t0
est alors une martingale `a variation bornee nulle en 0. Cela implique que
(N
t
)
t0
est identiquement nulle (Exercice !).
i=0
X
t
i+1
X
t
i
+ (X
t
X
t
k
)
2
,
o` u k est tel que t
k
t < t
k+1
. Soit
n
[0,T] une suite de subdivisions de [0,T] telle que
lim
n+
[
n
[0,T] [= 0.
84
Montrer quen probabilite,
lim
n+
sup
0tT
[ S
[0,T]
t
(M) 'M`
t
[= 0.
Ainsi, dans le theor`eme precedent, la convergence a en fait lieu uniformement sur tout intervalle
de temps compact.
Proposition 12. Si (B
t
)
t0
est un mouvement brownien sur (,(T
t
)
t0
,T,P) et si (u
t
)
t0
est
un processus progressivement mesurable par rapport `a la ltration (T
t
)
t0
tel que pour tout t 0,
E
t
0
u
2
s
ds
0
u
s
dB
s
t
=
t
0
u
2
s
ds.
Preuve.
Comme le processus
t
0
u
2
s
ds
t0
est continu, croissant et nul en 0, il sut donc de verier que
t
0
u
s
dB
s
t
0
u
2
s
ds
est une martingale. Pour u c, processus simple, et t s, il est facile de voir que:
E
t
0
u
v
dB
v
2
[ T
s
= E
s
0
u
v
dB
v
+
t
s
u
v
dB
v
2
[ T
s
= E
s
0
u
v
dB
v
2
[ T
s
+E
t
s
u
v
dB
v
2
[ T
s
= E
s
0
u
v
dB
v
2
[ T
s
+E
t
s
u
2
v
dv
,
et on conclut par densite.
Par polarisation, on obtient tout de suite:
Corollaire 13. Soient (M
t
)
t0
et (N
t
)
t0
deux martingales continues nulles en 0 de carre
integrable sur lespace de probabilite (,(T
t
)
t0
,T,P). Il existe un unique processus continu `a
variation bornee, note ('M,N`
t
)
t0
qui verie:
(1) 'M,N`
0
= 0;
(2) Le processus (M
t
N
t
'M,N`
t
)
t0
est une martingale.
Dautre part pour t 0 et pour toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n
k=1
M
t
n
k
M
t
n
k1
N
t
n
k
N
t
n
k1
= 'M,N`
t
.
Le processus ('M,N`
t
)
t0
est appele le processus de covariation quadratique de (M
t
)
t0
et (N
t
)
t0
.
85
1.4. Probl`eme :Integration contre les martingales de carre integrable. De la meme
facon quon a construit une integrale contre le mouvement brownien, nous pouvons construire
une integrale contre des martingales de carre integrable:
Probl`eme 14. (
`
A faire absolument !)
Soit (M
t
)
t0
une martingale continue de carre integrable sur lespace de probabilite (,(T
t
)
t0
,T,P)
telle que sup
t0
E
M
2
t
< + et M
0
= 0. On note L
2
M
(,(T
t
)
t0
,P) lensemble des processus
(u
t
)
t0
progressivement mesurables par rapport `a la ltration (T
t
)
t0
et tels que
E
+
0
u
2
s
d'M`
s
< +.
On note toujours c lensemble des processus simples previsibles.
(1) On denit la relation { sur L
2
M
(,(T
t
)
t0
,P) de la facon suivante:
u{v E
+
0
(u
s
v
s
)
2
d'M`
s
= 0.
Montrer que { est une relation dequivalence.
(2) On note
L
2
M
(,(T
t
)
t0
,P) = L
2
M
(,(T
t
)
t0
,P)/{.
Montrer que L
2
M
(,(T
t
)
t0
,P) muni de la norme
|u|
2
= E
+
0
u
2
s
d'M`
s
,
est un espace de Hilbert.
(3) Montrer quil existe une unique application lineaire
1
M
: L
2
M
(,(T
t
)
t0
,P) L
2
(,T,P)
telle que:
Pour u =
n1
i=0
F
i
1
(t
i
,t
i+1
]
c,
1(u) =
n1
i=0
F
i
(M
t
i+1
M
t
i
);
Pour u L
2
M
(,(T
t
)
t0
,P),
E
1
M
(u)
2
= E
+
0
u
2
s
d'M`
s
.
Lapplication 1
M
sappelle lintegrale dIto contre la martingale (M
t
)
t0
et on note pour
u L
2
M
(,(T
t
)
t0
,P),
1
M
(u) =
+
0
u
s
dM
s
.
(4) Soit (u
t
)
t0
un processus progressivement mesurable par rapport `a la ltration (T
t
)
t0
tel que pour tout t 0, E
t
0
u
2
s
d'M`
s
t
0
u
s
dM
s
t0
=
+
0
u
s
1
[0,t]
(s)dM
s
t0
est une martingale de care integrable relativement `a la ltration (T
t
)
t0
qui admet une
modication continue.
86
(5) Soit (u
t
)
t0
un processus progressivement mesurable par rapport `a la ltration (T
t
)
t0
tel que pour tout t 0, E
t
0
u
2
s
d'M`
s
0
u
s
dM
s
t
=
t
0
u
2
s
d'M`
s
.
(6) Soit u L
2
M
(,(T
t
)
t0
,P) un processus continu `a gauche. Soit t 0. Montrer que pour
toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n1
k=0
u
t
n
k
M
t
n
k+1
M
t
n
k
t
0
u
s
dM
s
.
(7) On suppose maintenant que M
t
=
t
0
s
dB
s
o` u (B
t
)
t0
est un mouvement brownien sur
(,(T
t
)
t0
,T,P) et L
2
(,(T
t
)
t0
,P). Montrer alors que pour u L
2
M
(,(T
t
)
t0
,P),
t
0
u
s
dM
s
=
t
0
u
s
s
dB
s
.
(8) Soient (M
t
)
t0
et (N
t
)
t0
deux martingales de carre integrable telles que pour tout t 0,
E
t
0
M
2
s
d'N`
s
< +, E
t
0
N
2
s
d'M`
s
< +.
Montrer que pour t 0,
M
t
N
t
= M
0
N
0
+
t
0
M
s
dN
s
+
t
0
N
s
dM
s
+'M,N`
t
.
1.5. Martingales locales, Semi-martingales et integrateurs. Dans ce paragraphe, nous
allons tout dabord etendre la classe des processus qui peuvent etre integres par rapport `a un
mouvement brownien. Lidee est dutiliser le procede fertile de localisation. Nous essayerons
ensuite de voir quelle est la classe la plus generale de processus continus par rapport auxquels
il est possible de denir une integrale stochastique naturelle. Cela nous conduira `a la notion de
semi-martingale.
Soit un mouvement brownien (B
t
)
t0
deni sur un espace de probabilite ltre (,(T
t
)
t0
,T,P)
qui satisfait les conditions usuelles.
Denition 15. On note L
2
loc
(,(T
t
)
t0
,P), lensemble des processus progressivement mesurables
par rapport `a la ltration (T
t
)
t0
et tels que pour tout t 0
P
t
0
u
2
s
ds < +
= 1.
On a le lemme suivant:
Lemme 16. Soit u L
2
loc
(,(T
t
)
t0
,P). Il existe une suite croissante de temps darret (T
n
)
n0
de la ltration (T
t
)
t0
telle que:
(1) Presque s urement,
lim
n+
T
n
= +;
(2)
E
T
n
0
u
2
s
ds
< +.
87
Preuve.
Exercice.
T
n
0
u
2
s
ds
< +.
Comme
E
T
n
0
u
2
s
ds
< +,
lintegrale stochastique
T
n
0
u
s
dB
s
=
+
0
u
s
1
[0,T
n
]
(s)dB
s
existe. Cela permet donc de denir (de facon unique), un processus
t
0
u
s
dB
s
t0
tel que:
(1)
t
0
u
s
dB
s
t0
est un processus continu adapte `a la ltration (T
t
)
t0
;
(2) Le processus
tT
n
0
u
s
dB
s
t0
est une martingale uniformement integrable (car bornee dans L
2
) par rapport `a la l-
tration (T
t
)
t0
.
Cela nous conduit `a la denition suivante
Denition 17. Un processus (M
t
)
t0
est appele une martingale locale (par rapport `a la ltration
(T
t
)
t0
) sil existe une suite de temps darret (T
n
)
n0
telle que:
(1) La suite (T
n
)
n0
est croissante et lim
n+
T
n
= + p.s.;
(2) Pour tout n 1, the process (M
tT
n
)
t0
est une martingale uniformement integrable
relativement `a la ltration (T
t
)
t0
.
Ainsi, si u L
2
loc
(,(T
t
)
t0
,P) alors le processus
t
0
u
s
dB
s
t0
est une martingale locale conti-
nue nulle en 0.
88
Evidemment une martingale est toujours une martingale locale, mais attention la reciproque
est loin detre vraie, neamoins:
Exercice 18. Soit (M
t
)
t0
une martingale locale telle que pour tout t 0,
E
sup
st
[ M
s
[
< +.
Montrer que (M
t
)
t0
est une martingale. En particulier, les martingales locales bornees sont des
martingales.
Le lemme suivant permet detendre facilement les resultats que nous avons vus pour les martin-
gales de carre integrables.
Lemme 19. Soit (M
t
)
t0
une martingale locale continue sur lespace de probabilite (,(T
t
)
t0
,T,P)
telle que M
0
= 0. Alors pour tout n N, le processus (M
tT
n
)
t0
est une martingale bornee (et
donc de carre integrable !).
Preuve.
Soit (S
n
)
n0
une suite de temps darret telle que:
(1) La suite (S
n
)
n0
est croissante et lim
n+
S
n
= + p.s.;
(2) Pour tout n 1, the process (M
ts
n
)
t0
est une martingale uniformement integrable
relativement `a la ltration (T
t
)
t0
.
Pour t s et k,n 0, on a:
E(M
tS
k
T
n
[ T
s
) = M
sS
k
T
n
.
En passant `a la limite quand k +, on en deduit le resultat souhaite par continuite L
1
de
lesperance conditionnelle.
k=1
M
t
n
k
M
t
n
k1
2
= 'M`
t
.
De plus si u est un processus progressivement mesurable tel que pour tout t 0,
P
t
0
u
2
s
d'M`
s
< +
= 1,
alors on peut denir un processus integrale dIto
t
0
u
s
dM
s
t0
qui est tel que
t
0
u
s
dM
s
t0
est une martingale locale continue.
Remarque 21. Par polarisation, on denit de facon immediate le processus de covariation
quadratique de deux martingales locales continues.
89
Nous en sommes maintenant presquau bout de la route de la theorie de lintegration stochas-
tique ! On remarque tout dabord que cela ne co ute rien dajouter un processus `a variation bornee
`a une martingale locale, cest `a dire que si un processus (X
t
)
t0
peut etre ecrit:
X
t
= X
0
+A
t
+M
t
o` u (A
t
)
t0
est un processus `a variation bornee et (M
t
)
t0
est une martingale locale continue sur
lespace de probabilite (,(T
t
)
t0
,T,P) telle que M
0
= 0, alors si u est un processus progressi-
vement mesurable tel que pour tout t 0,
P
t
0
u
2
s
d'M`
s
< +
= 1,
on peut denir un processus integrale dIto
t
0
u
s
dX
s
t0
=
t
0
u
s
dA
s
+
t
0
u
s
dM
s
t0
o` u
t
0
u
s
dA
s
est tout simplement une integrale de Riemann-Stieltjes.
Cela nous conduit `a la denition suivante:
Denition 22. Soit (X
t
)
t0
un processus adapte et continu sur lespace de probabilite ltre
(,(T
t
)
t0
,T,P). On dit que (X
t
)
t0
est une semi-martingale relativement `a la ltration (T
t
)
t0
si (X
t
)
t0
peut etre ecrit:
X
t
= X
0
+A
t
+M
t
o` u (A
t
)
t0
est un processus `a variation bornee et (M
t
)
t0
est une martingale locale continue nulle
en 0. Dans ce cas, la decomposition precedente est alors unique (Demandez-vous pourquoi !) et
on note ('X`
t
)
t0
la variation quadratique de la martingale locale (M
t
)
t0
.
Comme un processus `a variation bornee est de variation quadratique nulle, il est facile de
demontrer le theor`eme suivant:
Proposition 23. Soit
X
t
= X
0
+A
t
+M
t
une semi-martingale continue et adaptee. Pour t 0 et pour toute suite de subdivisions
n
[0,t]
telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n
k=1
X
t
n
k
X
t
n
k1
2
= 'M`
t
.
On note alors 'X` = 'M`.
Exercice 24. Soit (X
t
)
t0
une semi-martingale continue sur lespace de probabilite (,(T
t
)
t0
,T,P).
Si [0,T] est une subdivision de lintervalle de temps [0,T] alors on note
S
[0,T]
t
(X) =
k1
i=0
X
t
i+1
X
t
i
+ (X
t
X
t
k
)
2
,
o` u k est tel que t
k
t < t
k+1
. Soit
n
[0,T] une suite de subdivisions de [0,T] telle que
lim
n+
[
n
[0,T] [= 0.
Montrer quen probabilite,
lim
n+
sup
0tT
[ S
[0,T]
t
(X) 'X`
t
[= 0.
90
Exercice 25. Soit (X
t
)
t0
une semi-martingale continue sur lespace de probabilite (,(T
t
)
t0
,T,P).
Soit maintenant u
n
une suite de processus localement bornes adaptes convergeant simplement
vers 0 et telle que u
n
u o` u est un processus localement borne Montrer quen probabilite, pour
T 0,
lim
n+
sup
0tT
[
t
0
u
n
s
dX
s
[= 0.
Lintegrale stochastique par rapport `a une semi-martingale continue est egalement une limite en
probabilite de sommes de Riemann.
Proposition 26. Soit u un processus continu et adapte et (X
t
)
t0
une semi-martingale continue
adaptee. Soit t 0. Pour toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n1
k=0
u
t
n
k
X
t
n
k+1
X
t
n
k
t
0
u
s
dX
s
.
Comme le montre le puissant theor`eme structurel suivant, la classe des semi-martingales `a la-
quelle nous sommes nalement arrive apparat comme la classe la plus generale des processus
contre lesquels on a une integrale stochastique naturelle dun point de vue probabiliste.
Notons c
b
lensemble des processus (u
t
)
t0
qui peuvent etre ecrits sous la forme:
u
t
=
N
i=1
F
i
1
(S
i
,T
i
]
(t),
avec 0 S
1
T
1
... S
N
T
N
temps darret bornes et F
i
, variable aleatoire T
S
i
mesurable
et bornee. Si (X
t
)
t0
est un processus adapte et continu, alors on denit naturellement
t
0
u
s
dX
s
=
N
i=1
F
i
(X
T
i
t
X
S
i
t
).
Theor`eme 27. Soit (X
t
)
t0
un processus adapte et continu. Alors (X
t
)
t0
est une semi-
martingale si et seulement si pour toute suite u
n
de c
b
qui converge presque s urement uni-
formement vers 0, on a pour tout t 0 et > 0,
lim
n+
P
t
0
u
n
s
dX
s
[>
= 0.
2. Formule dIt o
La formule dIto est tr`es certainement la formule la plus importante et la plus utile du calcul
stochastique. Cest une formule tr`es simple dont la specicite par rapport au calcul dierentiel
ordinaire est lapparition dun terme de variation quadratique. Essayons tout dabord de com-
prendre dun point de vue intuitif quelle est la nature exacte de ce terme correctif et do` u il
provient. Pour cela, prenons une fonction f : R R susamment reguli`ere disons C
et
x : R R une fonction de classe C
1
. On a alors le petit calcul `a la physicienne suivant:
f(x
t+dt
) = f(x
t
+ (x
t+dt
x
t
))
= f(x
t
) +f
(x
t
)(x
t+dt
x
t
)
= f(x
t
) +f
(x
t
)dx
t
,
91
qui conduit `a une formule mathematique correcte:
f(x
t
) = f(x
0
) +
t
0
f
(x
s
)dx
s
.
Supposons maintenant quon veuille prendre pour x un mouvement brownien (B
t
)
t0
. Alors, la
premi`ere diculte `a laquelle on se heurte est la non-derivabilite des trajectoires browniennes:
Quel sens donner `a dB
t
? Eh bien en fait, il faut se rendre compte que tout le travail fait
precedemment pour la construction dune integrale par rapport au mouvement brownien revient
`a cela !! Du coup, reprenons le calcul `a la physicienne precedent `a partir de
f(B
t+dt
) = f(B
t
+ (B
t+dt
B
t
))
Mais maintenant dans le developpement limite de f il va falloir tenir compte du terme dordre
deux qui fait intervenir (dB
t
)
2
: ce terme ne plus etre neglige. En eet, puisque le mouvement
brownien a une variation quadratique egale `a t, on a envie decrire (dB
t
)
2
= dt ce qui donne le
calcul suivant:
f(B
t+dt
) = f(B
t
+ (B
t+dt
B
t
))
= f(B
t
) +f
(B
t
)(B
t+dt
B
t
) +
1
2
f
(B
t
)((B
t+dt
B
t
))
2
= f(B
t
) +f
(B
t
)dB
t
+
1
2
f
(B
t
)dt.
En notation integrale, on obtient par consequent
f(B
t
) = f(0) +
t
0
f
(B
s
)dB
s
+
1
2
t
0
f
(B
s
)ds,
formule qui nous le verrons est mathematiquement tout `a fait correcte.
Dans ce qui suit, nous nous placons sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) qui
satisfait les conditions usuelles. Notre point de depart pour etablir la formule dIto est la formule
dintegration par parties suivante:
Theor`eme 28. (Formule dintegration par parties) Soient (X
t
)
t0
et (Y
t
)
t0
deux semi-martingales
continues et adaptees, alors le processus (X
t
Y
t
)
t0
est une semi-martingale continue et on a:
X
t
Y
t
= X
0
Y
0
+
t
0
X
s
dY
s
+
t
0
Y
s
dX
s
+'X,Y `
t
.
Preuve.
Par polarisation, on peut se restreindre au cas o` u X = Y . Quitte `a considerer X X
0
, on
supposera egalement X
0
= 0.
Soit t 0. Pour toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a
n
k=1
X
t
n
k
X
t
n
k1
2
= X
2
t
2
n
k=1
X
t
n
k1
X
t
n
k
X
t
n
k1
.
En passant `a la limite en probabilite, on obtient donc
X
2
t
= 2
t
0
X
s
dX
s
+'X`
t
.
Ce qui est le resultat souhaite.
92
Nous en arrivons `a la formule dIto.
Theor`eme 29. (Formule dIto I) Soit (X
t
)
t0
une semi-martingale continue et adaptee et
f : R R une application de classe C
2
. On a:
(1) f(X
t
) = f(X
0
) +
t
0
f
(X
s
)dX
s
+
1
2
t
0
f
(X
s
)d'X`
s
.
Preuve.
Quitte `a localiser par les temps darret T
n
= inft 0,X
t
> n nous supposerons que X est
bornee.
Notons / lensemble des applications f de classe C
2
pour lesquelles la formule (1) est satisfaite.
Par linearite de la formule, il est clair que / est un espace vectoriel reel.
Montrons que cest egalement une alg`ebre, i.e. que / est stable par multiplication. Soient donc
f,g /. En utilisant la formule dintegration par parties pour f(X) et g(X), on obtient:
f(X
t
)g(X
t
) = f(X
0
)g(X
0
) +
t
0
f(X
s
)dg(X
s
) +
t
0
g(X
s
)df(X
s
) +'f(X),g(X)`
t
.
Calculons maintenant les dierents termes de la somme precedente. Comme f,g /, on a
facilement (veriez le proprement !):
t
0
f(X
s
)dg(X
s
) =
t
0
f(X
s
)g
(X
s
)dX
s
+
1
2
t
0
f(X
s
)g
(X
s
)d'X`
s
t
0
g(X
s
)df(X
s
) =
t
0
g(X
s
)f
(X
s
)dX
s
+
1
2
t
0
g(X
s
)f
(X
s
)d'X`
s
'f(X),g(X)`
t
=
t
0
f
(X
s
)g
(X
s
)d'X`
s
.
Par consequent,
f(X
t
)g(X
t
) =f(X
0
)g(X
0
) +
t
0
f(X
s
)g
(X
s
)dX
s
+
t
0
g(X
s
)f
(X
s
)dX
s
+
1
2
t
0
f(X
s
)g
(X
s
)d'X`
s
+
t
0
f
(X
s
)g
(X
s
)d'X`
s
+
1
2
t
0
g(X
s
)f
(X
s
)d'X`
s
=f(X
0
)g(X
0
) +
t
0
(fg)
(X
s
)dX
s
+
1
2
t
0
(fg)
(X
s
)d'X`
s
.
On en deduit que fg /. Par consequent / est bien une alg`ebre. Comme / contient la fonction
x x, on en deduit que / contient egalement toutes les fonctions polynomiales. Comme X
est supposee bornee, elle prend ses valeurs dans un compact. Mais maintenant, on sait tr`es
bien, quetant donnee une fonction de classe C
2
sur un compact, il est possible de trouver une
suite de fonctions polynomiales P
n
telle que P
n
converge uniformement vers f, P
n
converge
uniformement vers f
et P
n
converge uniformement vers f
Ainsi en appliquant cette premi`ere formule dIto avec X un mouvement brownien B, on en arrive
`a la formule annoncee en preambule: Si f : R R est une application de classe C
2
,
f(B
t
) = f(0) +
t
0
f
(B
s
)dB
s
+
1
2
t
0
f
(B
s
)ds.
93
De la meme fa con, il est facile de deriver quelques generalisations de la formule precedente:
Theor`eme 30. (Formule dIto II) Soit (X
t
)
t0
une semi-martingale continue et adaptee, (A
t
)
t0
un processus adapte `a variation bornee et f : RR R une application de classe C
1,2
, i.e. une
fois continument dierentiable en la premi`ere variable t et deux fois continument dierentiable
en la seconde variable x. On a:
f(A
t
,X
t
) = f(A
0
,X
0
) +
t
0
f
t
(A
s
,X
s
)dA
s
+
t
0
f
x
(A
s
,X
s
)dX
s
+
1
2
t
0
2
f
x
2
(A
s
,X
s
)d'X`
s
.
Theor`eme 31. (Formule dIto II) Soient (X
1
t
)
t0
,...,(X
n
t
)
t0
n semi-martingales continues et
adaptees et f : R
n
R une application de classe C
2
. On a:
f(X
1
t
,...,X
n
t
) = f(X
1
0
,...,X
n
0
)+
n
i=1
t
0
f
x
i
(X
1
s
,...,X
n
s
)dX
i
s
+
1
2
n
i,j=1
t
0
2
f
x
i
x
j
(X
1
s
,...,X
n
s
)d'X
i
,X
j
`
s
.
Exercice 32. Soit f : R
+
R C une fonction de classe C
1,2
telle que
1
2
2
f
x
2
+
f
t
= 0.
Montrer que si (M
t
)
t0
est une martingale locale continue, alors (f('M`
t
,M
t
))
t0
en est egalement
une. En deduire que pour C, le processus exp(M
t
1
2
2
'M`
t
) est une martingale locale.
Exercice 33. Soit f : R
n
R
+
R une fonction de classe C
2
et (B
t
)
t0
= (B
1
t
,...,B
n
t
)
t0
un
mouvement brownien n-dimensionnel, i.e. B
1
t
,...,B
n
t
sont des mouvements browniens independants.
Montrer que
X
t
= f(t,B
t
)
t
0
1
2
f(s,B
s
) +
f
t
(s,B
s
)ds
x
2
2
.
(1) Calculer H
0
,H
1
,H
2
,H
3
.
(2) Montrer que si (B
t
)
t0
est un mouvement brownien alors
t
n/2
H
n
(
B
t
t
)
t0
est une mar-
tingale.
(3) Montrer que
t
n/2
H
n
(
B
t
t
) = n!
t
0
t
1
0
...
t
n1
0
dB
s
1
...dB
s
n
.
Exercice 35. (Un theor`eme de P. Levy) Soit (M
t
)
t0
une martingale locale continue nulle en
0 et telle que pour tout t 0, 'M`
t
= t. Montrer que (M
t
)
t0
est un mouvement brownien.
3. Le th eor` eme de repr esentation dIt o
Dans ce qui suit, nous nous placons sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) et on
suppose que (T
t
)
t0
est la ltration naturelle usuellement completee dun mouvement brownien
(B
t
)
t0
(une telle ltration est appelee une ltration brownienne).
94
On a alors le theor`eme suivant:
Theor`eme 36. (Theor`eme de representation dIto). Soit F L
2
(T
0
u
2
s
ds
< + et
F = E(F) +
+
0
u
s
dB
s
.
Preuve.
Soit T lensemble des fonctions etagees `a support compact R
+
R, i.e.
f =
n
i=1
a
i
1
[t
i1
,t
i
]
.
Pour f T, on note
c
t
(f) = exp
t
0
f(s)dB
s
1
2
t
0
f(s)
2
ds
.
`
A laide de la formule dIto, il est facile de verier que (c
t
(f))
t0
est une martingale.
Nous pretendons maintenant que la famille
c
(f),f T
est totale dans L
2
(T
,P) telle
que pour tout f T,
E(Xc
(f)) = 0.
Il est alors facile de voir que pour tout
1
,...,
n
R, t
1
,...,t
n
R
+
,
E
Xe
n
i=1
i
B
t
i
= 0.
Par prolongement analytique, on a alors en fait plus generalement,
E
Xe
n
i=1
i
B
t
i
= 0,
pour tout
1
,...,
n
C, t
1
,...,t
n
R, et donc en particulier,
E
Xe
i
n
j=1
j
B
t
j
= 0,
pour tout
1
,...,
n
R, t
1
,...,t
n
R. Nos connaissances en analyse de Fourier sont alors su-
santes pour conclure que pour toute fonction borelienne bornee f : R
n
R,
E(Xf(B
t
1
,...,B
t
n
)) = 0,
cest-`a-dire que
E(X [ (B
t
1
,...,B
t
n
)) = 0.
Comme T
est engendree par les cylindres precedents (`a completion pr`es), nous en deduisons
alors que X = 0.
Ainsi la famille
c
(f),f T
est dense dans L
2
(T
,P).
Notons maintenant B le sous-ensemble de L
2
(T
0
u
2
s
ds
<
+ et
F = E(F) +
+
0
u
s
dB
s
.
95
Par continuite de lintegrale dIto (cest une isometrie !), B est ferme.
Etant donne que pour
f T,
c
(f) = 1 +
+
0
f(s)c
s
(f)dB
s
,
nous avons
c
(f),f T B.
Par densite nous concluons
B = L
2
(T
,P).
Lunicite de u est une consequence immediate de la propriete disometrie de lintegrale dIto.
T
0
u
2
s
ds
< + et
F = E(F) +
T
0
u
s
dB
s
.
Le theor`eme precedent admet le remarquable corollaire suivant:
Corollaire 38. Soit (M
t
)
t0
une martingale par rapport `a la ltration (T
t
)
t0
de carre integrable,
alors il existe un unique processus (u
t
)
t0
progressivement mesurable tel que E
t
0
u
2
s
ds
< +,
t 0 et
M
t
= E(M
0
) +
t
0
u
s
dB
s
, t 0.
Ce quil y a de remarquable dans ce resultat cest quainsi toutes les martingales de carre
integrable dans une ltration brownienne sont necessairement continues ! Nous en protons ici
pour insister sur lhypoth`ese de ltration brownienne dans tout ce qui prec`ede.
Le corollaire prec
t
0
u
2
s
ds < +
= 1,
t 0 et
M
t
= E(M
0
) +
t
0
u
s
dB
s
, t 0.
4. Probl` eme: Th eor` eme de Girsanov
Le but de ce probl`eme est detudier limpact dun changement de probabilite equivalent sur le
calcul stochastique. Nous encourageons vivement le lecteur `a relire la section 4.2. du Chapitre
2.
Probl`eme 40.
Partie I
Soit (B
t
)
t0
un mouvement brownien. On note P la mesure de Wiener, (
t
)
t0
le processus des
coordonnees et (T
t
)
t0
sa ltration naturelle.
(1) Soit R et P
la loi du processus (B
t
+t)
t0
. Montrer que pour tout t 0,
P
/F
t
<P
/F
t
,
96
et que
dP
/F
t
dP
/F
t
= e
2
2
t
.
(2) A ton
P
/F
<P
/F
?
(3) Pour a R
+
, on note
T
a
= inft 0,B
t
+t = a.
Calculer la loi de T
a
`a laide de la question (1).
(4) Plus generalement, soit f : R
+
R une fonction telle que pour tout t 0,
t
0
f
2
(s)ds <
+. On note P
f
la loi du processus (B
t
+
t
0
f(s)ds)
t0
. Montrer que pour tout t 0,
P
f
/F
t
<P
/F
t
,
et que
dP
f
/F
t
dP
/F
t
= e
t
0
f(s)d
s
1
2
t
0
f
2
(s)ds
.
(5) Pour quelles fonctions f, a-ton
P
f
/F
<P
/F
?
Partie II
Dans cette partie, nous nous placons sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) et on
suppose que (T
t
)
t0
est la ltration naturelle usuellement completee dun mouvement brownien
(B
t
)
t0
. Soit Q une probabilite sur T
t
0
2
s
ds < +
= 1
et
E(D [ T
t
) = exp
t
0
s
dB
s
1
2
t
0
2
s
ds
.
(2) Montrer que sous la probabilite Q, le processus
B
t
t
0
s
ds
est un mouvement brownien.
(3) En deduire que toute semimartingale sur lespace (,(T
t
)
t0
,T,P) est egalement une
semi-martingale sur lespace (,(T
t
)
t0
,T,Q).
Partie III
Dans cette partie, nous nous placons sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) qui
satisfait les conditions usuelles. Soit (B
t
)
t0
un mouvement brownien sur cet espace de probabilite
ltre. Soit maintenant (
t
)
t0
un processus progressivement mesurable tel que pour tout t 0,
P
t
0
2
s
ds < +
= 1. On note
Z
t
= exp
t
0
s
dX
s
1
2
t
0
|
s
|
2
ds
, t 0.
(1) Montrer que (Z
t
)
t0
est une martingale locale.
97
(2) Montrer que si pour tout t 0,
E(Z
t
) = 1,
alors (Z
t
)
t0
est une martingale uniformement integrable.
(3) On suppose desormais lhypoth`ese de la question precedente satisfaite. Montrer que sur
lespace de probabilite ltre T
t
0
s
ds
est un mouvement brownien.
5. Equations diff erentielles stochastiques et diffusions
Dans ce paragraphe, nous revenons au probl`eme de la construction de diusions evoque `a la
section 7 du chapitre 3 et nous allons voir comment le calcul dIto sav`ere un outil extremement
puissant.
Comme dhabitude nous nous placons sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) qui
satisfait les conditions usuelles et sur lequel est deni un mouvement brownien (B
t
)
t0
.
Lidee va etre de construire `a partir de (B
t
)
t0
et du calcul dIto un processus de generateur
L = b(x)
d
dx
+
1
2
(x)
2
d
2
dx
2
.
o` u b et sont deux fonctions donnees.
Theor`eme 41. Soient b : R R et : R [0, +) deux fonctions continues telles que pour
un certain K > 0,
(1) [ b(x) b(y) [ + [ (x) (y) [ K [ x y [, x,y R;
(2) [ b(x) [ + [ (x) [ K(1+ [ x [), x R.
Alors pour tout x
0
R, il existe un unique processus continu (X
x
0
t
)
t0
tel que pour t 0
(2) X
x
0
t
= x
0
+
t
0
b(X
x
0
s
)ds +
t
0
(X
x
0
s
)dB
s
.
De plus (X
x
0
t
)
t0
est un processus de diusion de generateur
L = b(x)
d
dx
+
1
2
(x)
2
d
2
dx
2
.
6. Un invit e de marque: K. It o
Born: 7 Sept 1915 in Hokusei-cho, Mie Prefecture, Japan
Dead: Still alive !
Kiyosi Ito studied mathematics in the Faculty of Science of the Imperial University of Tokyo. It
was during his student years that he became attracted to probability theory. In [3] he explains
how this came about:
Ever since I was a student, I have been attracted to the fact that statistical laws reside in see-
mingly random phenomena. Although I knew that probability theory was a means of describing
such phenomena, I was not satised with contemporary papers or works on probability theory,
98
since they did not clearly dene the random variable, the basic element of probability theory.
At that time, few mathematicians regarded probability theory as an authentic mathematical
eld, in the same strict sense that they regarded dierential and integral calculus. With clear
denition of real numbers formulated at the end of the19th century, dierential and integral
calculus had developed into an authentic mathematical system. When I was a student, there
were few researchers in probability; among the few were Kolmogorov of Russia, and Paul Levy
of France.
In 1938 Ito graduated from the University of Tokyo and in the following year he was appointed
to the Cabinet Statistics Bureau. He worked there until 1943 and it was during this period that
he made his most outstanding contributions:-
During those ve years I had much free time, thanks to the special consideration given me
by the then Director Kawashima ... Accordingly, I was able to continue studying probability
theory, by reading Kolmogorovs Basic Concept of Probability Theory and Levys Theory of
Sum of Independent Random Variables. At that time, it was commonly believed that Levys
works were extremely dicult, since Levy, a pioneer in the new mathematical eld, explained
probability theory based on his intuition. I attempted to describe Levys ideas, using precise
logic that Kolmogorov might use. Introducing the concept of regularisation, developed by Doob
of the United States, I nally devised stochastic dierential equations, after painstaking solitary
endeavours. My rst paper was thus developed; today, it is common practice for mathematicians
to use my method to describe Levys theory.
In 1940 he published On the probability distribution on a compact group on which he col-
laborated with Yukiyosi Kawada. The background to Itos famous 1942 paper On stochastic
processes (Innitely divisible laws of probability) which he published in the Japanese Journal of
Mathematics is given in [2]:-
Brown, a botanist, discovered the motion of pollen particles in water. At the beginning of the
twentieth century, Brownian motion was studied by Einstein, Perrin and other physicists. In
1923, against this scientic background, Wiener dened probability measures in path spaces,
and used the concept of Lebesgue integrals to lay the mathematical foundations of stochastic
analysis. In 1942, Dr. Ito began to reconstruct from scratch the concept of stochastic integrals,
and its associated theory of analysis. He created the theory of stochastic dierential equations,
which describe motion due to random events.
Although today we see this paper as a fundamental one, it was not seen as such by mathema-
ticians at the time it was published. Ito, who still did not have a doctorate at this time, would
have to wait several years before the importance of his ideas would be fully appreciated and
mathematicians would begin to contribute to developing the theory. In 1943 Ito was appointed
as Assistant Professor in the Faculty of Science of Nagoya Imperial University. This was a period
of high activity for Ito, and when one considers that this occurred during the years of extreme
diculty in Japan caused by World War II, one has to nd this all the more remarkable. Volume
20 of the Proceedings of the Imperial Academy of Tokyo contains six papers by Ito: (1) On the
ergodicity of a certain stationary process; (2) A kinematic theory of turbulence; (3) On the nor-
mal stationary process with no hysteresis; (4) A screw line in Hilbert space and its application
to the probability theory; (5) Stochastic integral; and (6) On Students test.
In 1945 Ito was awarded his doctorate. He continued to develop his ideas on stochastic analysis
with many important papers on the topic. Among them were On a stochastic integral equation
(1946), On the stochastic integral (1948), Stochastic dierential equations in a dierentiable ma-
nifold (1950), Brownian motions in a Lie group (1950), and On stochastic dierential equations
(1951).
99
In 1952 Ito was appointed to a Professorship at Kyoto University. In the following year he
published his famous text Probability theory. In this book, Ito develops the theory on a pro-
bability space using terms and tools from measure theory. The years 1954-56 Ito spent at the
Institute for Advanced Study at Princeton University. An important publication by Ito in 1957
was Stochastic processes. This book contained ve chapters, the rst providing an introduction,
then the remaining ones studying processes with independent increments, stationary processes,
Markov processes, and the theory of diusion processes. In 1960 Ito visited the Tata Institute
in Bombay, India, where he gave a series of lectures surveying his own work and that of other
on Markov processes, Levy processes, Brownian motion and linear diusion.
Although Ito remained as a professor at Kyoto University until he retired in 1979, he also held
positions as professor at Aarhus University from 1966 to 1969 and professor at Cornell University
from 1969 to 1975. During his last three years at Kyoto before he retired, Ito was Director of
the Research Institute for Mathematical Sciences there. After retiring from Kyoto University in
1979 he did not retire from mathematics but continued to write research papers. He was also
appointed at Professor at Gakushuin University.
Ito gives a wonderful description mathematical beauty in [3] which he then relates to the way
in which he and other mathematicians have developed his fundamental ideas:-
In precisely built mathematical structures, mathematicians nd the same sort of beauty others
nd in enchanting pieces of music, or in magnicent architecture. There is, however, one great
dierence between the beauty of mathematical structures and that of great art. Music by Mozart,
for instance, impresses greatly even those who do not know musical theory; the cathedral in
Cologne overwhelms spectators even if they know nothing about Christianity. The beauty in
mathematical structures, however, cannot be appreciated without understanding of a group of
numerical formulae that express laws of logic. Only mathematicians can read musical scores
containing many numerical formulae, and play that music in their hearts. Accordingly, I
once believed that without numerical formulae, I could never communicate the sweet melody
played in my heart. Stochastic dierential equations, called Ito Formula, are currently in
wide use for describing phenomena of random uctuations over time. When I rst set forth
stochastic dierential equations, however, my paper did not attract attention. It was over ten
years after my paper that other mathematicians began reading my musical scores and playing
my music with their instruments. By developing my original musical scores into more
elaborate music, these researchers have contributed greatly to developing Ito Formula.
Ito received many honours for his outstanding mathematical contributions. He was awarded the
Asahi Prize in 1978, and in the same year he received the Imperial Prize and also the Japan
Academy Prize. In 1985 he received the Fujiwara Prize and in 1998 the Kyoto Prize in Basic
Sciences from the Inamori Foundation. These prizes were all from Japan, and a further Japanese
honour was his election to the Japan Academy. However, he also received many honours from
other countries. He was elected to the National Academy of Science of the United States and
to the Acadmie des Sciences of France. He received the Wolf Prize from Israel and honorary
doctorates from the universities of Warwick, England and ETH, Zurich, Switzerland.
In [2] this tribute is paid to Ito:
Nowadays, Dr. Itos theory is used in various elds, in addition to mathematics, for analysing
phenomena due to random events. Calculation using the Ito calculus is common not only to
scientists in physics, population genetics, stochastic control theory, and other natural sciences,
but also to mathematical nance in economics. In fact, experts in nancial aairs refer to Ito
calculus as Itos formula. Dr. Ito is the father of the modern stochastic analysis that has been
systematically developing during the twentieth century. This ceaseless development has been
led by many, including Dr. Ito, whose work in this regard is remarkable for its mathematical
100
depth and strong interaction with a wide range of areas. His work deserves special mention as
involving one of the basic theories prominent in mathematical sciences during this century.
A recent monograph entitled Itos Stochastic Calculus and Probability Theory (1996), dedi-
cated to Ito on the occasion of his eightieth birthday, contains papers which deal with recent
developments of Itos ideas:-
Professor Kiyosi Ito is well known as the creator of the modern theory of stochastic analysis.
Although Ito rst proposed his theory, now known as Itos stochastic analysis or Itos stochastic
calculus, about fty years ago, its value in both pure and applied mathematics is becoming
greater and greater. For almost all modern theories at the forefront of probability and related
elds, Itos analysis is indispensable as an essential instrument, and it will remain so in the
future. For example, a basic formula, called the Ito formula, is well known and widely used in
elds as diverse as physics and economics.
Article by: J J OConnor and E F Robertson
101
Bi bl i ogr a phi e
102
[1] J. Bertoin. Levy processes. Cambridge University Press, Cambridge, 1996.
[2] T. Bj ork. Arbitrage theory in continuous time. Oxford University Press, Oxford, 1998.
[3] R.A. Dana et M. Jeanblanc. Marches nanciers en temps continu Economica, Paris, 1998. Traduction Springer
2002.
[4] C. Dellacherie et P.-A. Meyer. Probabilites et Potentiel. Volumes 1 `a 5. Hermann, Paris, 1975-1992.
[5] R. J. Elliott. Stochastic Calculus and Applications. Springer, Berlin, 1982.
[6] H. F ollmer et A. Schied Stochastic Finance : an introduction in discrete time. Walter de Gruyter, Berlin, 2003.
[7] G. Grimmett et D. Stirzaker. Probability and Random Processes. Oxford University Press, New-York, 1982.
[8] G. Grimmett et D. Stirzaker. One Thousand Exercises in Probability. Oxford University Press, New-York, 2001.
[9] J. Jacod et P. Protter. Probability Essentials. Springer, Berlin, 1997.
[10] J. Jacod et A. N. Shiryaev. Limit Theorems for Stochastic Processes. Springer, Berlin, 1987.
[11] I. Karatzas et S. E. Shreve. Brownian Motion and Stochastic Calculus. Springer, Berlin, 1991.
[12] D. Lamberton et B. Lapeyre. Introduction au calcul stochastique applique `a la nance. Ellipses, Paris, 1991.
[13] P. Malliavin. Stochastic Analysis. Springer, Berlin, 1997.
[14] J. Neveu. Bases mathematiques du calcul des probabilites. Masson, Paris, 1964.
[15] B. Oksendal. Stochastic Dierential Equations. Springer, Berlin, 6th edition, 2002.
[16] P. Protter. Stochastic Integration and Dierential Equations. Springer, Berlin, 2nd edition, version 2.1. 2005.
[17] D. Revuz et M. Yor. Continuous Martingales and Brownian Motion. Springer, Berlin, 3th edition 1999.
[18] L. C. G. Rogers et D. Williams. Diusions, Markov Processes, and Martingales. Volume 1 : Foundations. Wiley,
Chichester, 1994.
[19] L. C. G. Rogers et D. Williams. Diusions, Markov Processes, and Martingales. Volume 2 : Ito Calculus. Wiley,
Chichester, 1987.
[20] G. Samorodnitsky et M. S. Taqqu. Stable Non-Gaussian Random Processes. Chapman & Hall, New York, 1994.
[21] K.-I. Sato. Levy Processes and Their Innitely Divisible Distributions. Cambridge University Press, Cambridge,
1999.
[22] D. Stirzaker. Elementary Probability. Cambridge University Press, Cambridge, 1994.
[23] A.N. Shiryaev . Essentials of stochastic Finance.
D. Williams. Probability with Martingales. Cambridge University Press, Cambridge, 1991.
[24] A.N.Shiryaev. probability. Springer, Graduate texts in mathematics, 95.
[25]