Talia Memoire
Talia Memoire
Talia Memoire
Master Académique
Daoudi Talia 1
Sous la direction de
Dr. L. Bousmaha
1. e-mail : [email protected]
Remerciement
En Préambule de ce travail, je remercie le bon dieu qu’il m’a donné la santé, le courage
et la volonté pour réaliser ce travail
Je voudrais également remercier tous les membres de jury, Dr. Mokhtar Kadi de m’avoir
honorée en acceptant de présider le jury, Dr. Soumia Idrissi et Dr. Nadia Ait Ouali d’avoir
accepté d’examiner ce modeste travail, merci pour toutes leurs remarques et critiques.
Merci à tous
2
Dédicaces
Je dédie ce travail :
À celui ou celle qui m’a donné son affection et ses conseils durant toutes mes années
d’études , en particuliers
A ma très chère mère
A la grande dame qui a tant sacrifié pour nous, ma grand mère. Ta prière et ta bé-
nédiction m’ont été d’un grand secours pour mener à bien mes études.
Un spéciale dédicace a la grande dame qui a tant sacrifié pour moi, ma grand soeur
Zahra. Aucune dédicace ne saurait être assez éloquente pour exprimer ce que tu mérites.
A deux personnes qui m’ont donné leur confiance et leur soutien tout au long de mes
études, mon pére et mon frère Mokhtar.
A mes très chers frères et mes très chères soeurs qui m’ont encouragé sur le long de
mon parcour universitaire.
A tous les membres de ma famille , petits et grands, veuillez trouvez dans ce modeste
travail l’expression de mon affection.
A tous mes collègues de Master 2 ASSPA. Et enfin, à tous ceux qui me sont chers.
3
Table des matières
Remerciement 2
Dédicace 3
Introduction 7
4
TABLE DES MATIÈRES 5
Conclusion 70
Annexe 71
B L’intégrale de Bochner 76
B.1 Définition de l’intégrale de Bochner . . . . . . . . . . . . . . . . . . . . . . . . . 76
B.2 Propriétés de l’intégrale de Bochner . . . . . . . . . . . . . . . . . . . . . . . . . 78
TABLE DES MATIÈRES 6
Bibliographie 88
Introduction
Dans ce mémoire, nous avons choisi de mettre l’accent sur les aspects liés à la théorie
de calcul stochastiques dans des espaces de dimension infinie. Pour cela, j’ai partagé mon
manuscrit en trois chapitres. Le premier chapitre, est consacrée à un bref rappel sur la théorie
de calcul stochastique en dimension finie. Nous avons voulu faire un tour d’horizon des concepts
et définitions. Le deuxième chapitre, est consacré au calcul stochastique dans des espaces de
dimension infinie, plus préçisement Hilbert, les concepts de base et les résultats concernant
7
Introduction 8
les processus stochastiques dans des espaces de Hilbert sont établis. Nous nous intéressons
à deux processus, le processus Q-Wiener et le processus de Wiener généralisés, Puis, nous
définissons l’intégrale stochastique par rapport a ces deux processus. Nous établissons également
les propriétés de base de l’intégrale stochastique, y compris la formule d’Itô et le théorème
stochastique de Fubini, en se basant sur [6]. Le dernier chapitre est dédié à l’étude des équations
différentielles stochastiques (équations linéaires avec bruit additif), commençons par définir les
différents concepts de solutions. Puis, on a démontré l’existence et l’unicité de solution faible
et solution forte.
Chapitre 1
Définition 1.1.2. Un processus X = (Xt )t≥0 est mesurable si l’application (t, ω) 7−→ Xt (ω) de
R × Ω dans Rd est mesurable par rapport aux tribus B(Rd ) ⊗ F et B(Rd ).
9
calcul stochastique en dimension finie 10
Ètant donnés deux processus stochastiques X et Y définis sur un méme espace de probabilité
(Ω, F, P). Quand peut on dire X = Y ?
Au sens le plus fort ceci se passe si pour tous (t, ω) ∈ T × Ω on a Xt (ω) = Yt (ω).
Lorsque l’on travaille avec un espace de probabilité on peut avoir une définition moins restrictive
en faisant rentrer P en action :
Autrement dit, les trajectoires de X et Y coincident partout presque sûrement. Cela reste encore
une définition trés forte. On peut affaiblir cette notion en
Définition 1.1.1.2. On dira que X est une modification (ou une version) de Y si et seulement
si pour tout t ∈ T
P(Xt = Yt ) = 1.
Autrement dit, pour tout t ∈ T les v.a. Xt est Yt sont presque sûrement égales.
Si X et Y sont indistinguables alors l’un est une modification de l’autre.
Proposition 1.1.1.1. Soient T un intervalle de R, X = (Xt )t∈T et Y = (Yt )t∈T deux processus
stochastiques continus alors :
1.1.2 Filtration
Définition 1.1.2.1. Une filtration (Ft )t≥0 est une suite croissante de sous tribus de F.
Si (Ft )t≥0 est une filtration de (Ω, F, P) alors (Ω, F, (Ft )t≥0 , P) est appelée un espace de proba-
bilite filtre.
Définition 1.1.2.2. 1. Si (Ft )t≥0 est une filtration alors on définit la filtration suivante
\
Ft+ = Fs .
s>t
calcul stochastique en dimension finie 11
∀t ≥ 0, Ft = Ft+
4. On dit qu’une filtration (Ft )t≥0 satisfait les conditions habituelles si elle est a la fois
continue a droite et complète.
Définition 1.1.2.3. Un processus X = (Xt )t≥0 est adapté par rapport à la filtration (Ft )t≥0
si, pour tout t, Xt est Ft -mesurable.
Il est inutile de dire qu’un processus est toujours adapté par rapport à sa filtration naturelle.
Remarque 1.1.2.1. Si N ∈ F0 , et si X = (Xt )t≥0 est adapté par rapport à (Ft )t≥0 alors toute
modification de X est encore adaptée.
Définition 1.1.2.4. Un processus X = (Xt )t≥0 est progressivement mesurable par rapport
à (Ft )t≥0 si l’application (s, ω 7→ Xs (ω)) de [0, t] × Ω dans Rd est mesurable par rapport à
B([0, t]) ⊗ Ft et B(Rd ).
Définition 1.1.3.1. Soit (Ft )t≥0 une filtration sur un espace de probabilité (Ω, F, P). Soit
maintenant T une variable aléatoire F-mesurable à valeurs dans R+ ∪ {+∞}. On dit que T est
un temps d’arrêt de la filtration (Ft )t≥0 si pour tout t ≥ 0,
{T ≤ t} ∈ Ft .
Définition 1.1.3.2. (Temps d’atteinte) Soit (Xt )t≥0 un processus continu adapté à une fil-
tration (Ft )t≥0 .
Soit
T = inf {t ≥ 0, Xt ∈ F },
où F est un sous-ensemble fermé de R. Alors T est un temps d’arrêt pour la filtration (Ft )t≥0 .
calcul stochastique en dimension finie 12
Définition 1.1.3.3. Soit T un temps d’arrêt d’une filtration (Ft )t≥0 . On note
FT = {A ∈ F, ∀t ≥ 0, A ∩ T ≤ t ∈ Ft }.
Remarque 1.1.3.1. On vérifie facilement que FT est une tribu et que, si T est constant et
égal à t alors T est un temps d’arrêt et FT = Ft .
Si T est un temps d’arrêt d’une filtration pour laquelle un certain processus est adapté,
alors il est possible d’arrêter ce processus au temps T :
Proposition 1.1.3.1. Soient (Ft )t≥0 une filtration sur un espace de probabilité (Ω, F, P) et
T un temps d’arrêt de la filtration (Ft )t≥0 fini presque sûrement. Soit (Xt )t≥0 un processus
adapté à la filtration (Ft )t≥0 et progressivement mesurable. Alors le processus (Xt∧T )t≥0 est
progressivement mesurable par rapport à la filtration (Ft∧T )t≥0
1.2.1 Historique
Définition 1.2.1.1. Un processus X = (Xt )t∈T est un processus gaussien si toutes ses lois
de dimension fnie sont gaussiennes i.e.
∀n ≥ 1, ∀t1 < t2 < ...., tn ∈ T (Xt1 , ..., Xtn ) est un vecteur gaussien.
calcul stochastique en dimension finie 13
Définition 1.2.1.2. On dit que le processus X = (Xt )t≥0 est a accroissements indepen-
dants si :
∀n ≥ 1, ∀t1 < t2 < ...., tn ∈ T Xt1 , Xt2 − Xt1 ..., Xtn − Xtn−1 sont indépendantes.
Définition 1.2.2.1. Le processus B = (Bt )t∈T est un mouvement Brownien sur (Ω, F, P) si et
seulement si
3. B est à accroissement indépendants, c’est-à-dire que pour tous 0 = t0 < t1 < ... < tn , la
famille de variables aléatoires (Btn − Btn−1 , ..., Bt1 − Bt0 ) est indépendante,
Un processus gaussien (centré) est un processus tel que toutes les marginales fini-dimensionnelles
soient des vecteurs gaussiens (centrés), autrement dit tel que toute combinaison linéaire finie
de ses marginales fini-dimensionnelles soit gaussienne (centrée). La loi d’un processus gaussien
centré est caractérisée par sa fonction de covariance.
Soit B = (Bt )t≥0 un mouvement Brownien defini sur un espace de probabilite (Ω, F, P) alors
1. Symétrie.
Le processus (−B) = (−Bt )t≥0 est encore un mouvement Brownien
4. inversion temporel
Soit (−B) = (−Bt )t≥0 est un mouvement Brownien. On pose t ≥ 0, Zt = tB 1 , alors (Zt )
t
1.3 Martingales
Définition 1.3.1.1. Soit X variable aléatoire de l’espace L1 (Ω, A, P) 1 et B une sous tribu de
A. EP (X/B) est l’unique variable aléatoire de L1 (B) telle que
Z Z
∀B ∈ B, XdP = EP (X/B)dP
B B
Définition 1.3.2.1. Soit X = (Xt )t≥0 un processus adaptè et intègrable, on dit que X est
1. Une martingale si
∀ 0 ≤ s ≤ t, E Xt /Fs = Xs .
2. Une surmartingale si
∀ 0 ≤ s ≤ t, E Xt /Fs ≤ Xs .
3. Une sousmartingale si
∀ 0 ≤ s ≤ t, E Xt /Fs ≥ Xs .
Un processus X est une F-surmartingale (resp. une F-sousmartingale) s’il vérifie les pro-
priétés (i) et (ii) et E[Xt /Fs ] ≤ Xs (resp. E[Xt /Fs ] ≥ Xs ) pour tout s, t ∈ [0, T ] tels que
s ≤ t.
Remarque 1.3.2.1. Si (Xt )t∈T est une martingale alors E(Xt ) = E(X0 ) pour tout t ∈ T.
Théorème 1.3.2.1. Soit X un processus et ϕ une fonction convexe telle que E|ϕ(Xt )| < ∞,
pour tous t.
2. si X est une sousmartingale et ϕ est croissante (au sens large) alors ϕ(Xt ) est une sous
martingale.
Théorème 1.3.2.2. (Inégalité de Doob) Si X = (Xt )t≥0 une martingale continue a droite,
alors
p p p
∀p > 1, E[| sup Xs | ] ≤ sup E[|Xs | ] .
0≤s≤t p − 1 0≤s≤t
Soit (Mt ) une martingale (par rapport à une filtration (Ft )) continue, de carré intégrable et telle
que M0 = 0 p.s. Alors
E(|Mt |)
(a) P( sup |Ms | ≥ λ) ≤ , ∀ t > 0, λ > 0.
0≤s≤t λ
(b) E( sup |Ms |2 ) ≤ 4E(|Mt |2 ), ∀ t > 0.
0≤s≤t
1.3.3 Exemples
Le Brownien
Proposition 1.3.3.1. Le Mouvement Brownien Standard (Bt ) est une (Ft )t∈T -martingale (à
trajectoire) continue
Preuve
= Bt + E(Bt+s − Bt )
= Bt
Proposition 1.3.3.2. Soit (Bt ) un M.B.S. les processus suivants sont des (Ft )t∈T -martingales :
1. Xt = Bt2 − t
pour un processus (Ht ) vérifiant certaines propriétés. Pour cela, on procède en plusieurs
étapes.
Premiére étape
Définition 1.4.1.1. Un processus simple prévisible (par rapport à une filtration (Ft )) est un
processus (Ht )t∈[0,T ] tel que
n
X
Ht = Xi 1]ti−1 ,ti [ ,
i=1
calcul stochastique en dimension finie 17
où 0 = t0 < t1 < .. < tn = T forme une partition de [0,T] et Xi est une v.a. Fti−1 -mesurable et
bornée, ∀i ∈ {1, ...., n}.
On voit donc que sur l’intervalle ]ti−1 , ti ], la valeur du procesus (Ht ) est déterminée par
l’information Fti−1 d’où le nom de "prévisible" (l’appellation "simple" vient quant à elle du fait
que le processus ne prend qu’un nombre fini de valeurs (aléatoires !)). On pose
Z T Xn
(H · B)T = Hs dBs = Xi (Bti − Bti−1 ).
0 i=1
Cette définition de l’intégrale stochastique pour des processus simples prévisibles est univoque
(mais ça demande un petit travail de vérification) et l’intégrale est linéaire en H, i.e.
Remarque 1.4.1.1. Pour être tout à fait exact, l’isométrie d’Itô dit encore que si H et K sont
deux processus simples prévisibles, alors
Z T
E (H · B)T (K · B)T = E Hs Ks ds
0
Deuxiéme étape
Soit (Ht )t∈[0,T ] un processus simple prévisible comme défini ci-dessus et t ∈ [0, T ]. On pose
Z t X n
(H · B)t ≡ Hs dBs = (H1[0,t] · B)T = (Bti ∧t − Bti−1 ∧t ).
0 i=1
et Z T Z T
2 2
E (H · B)t = ((H1[0,t] · B)T ) = E Hs2 1[0,t] (s)ds =E Hs2 ds .
0 0
De plus, en utilisant la remarque 1.4.1.1, on peut encore calculer
Z t∧s
Cov((H · B)t , (K · B)s ) = E((H · B)t (K · B)s ) = E Hr Kr dr .
0
calcul stochastique en dimension finie 18
Proposition 1.4.1.2. Le processus ((H · B)t )t∈[0,T ] est une martingale continue de carré
intégrable.
Preuve
Par la remarque ci-dessus et la continuité de (Bt ), le processus (H · B)t est clairement continu
à l’intérieur des intervalles ]tk−1 , tk [. Aux points limites, il est aisé de vérifier que le processus
reste continu également. D’autre part, l’isométrie montrée plus haut dit que (H · B)t est un
processus de carré intégrable, donc par l’inégalité de Cauchy-Schwarz,
q
E(|(H · B)t |) ≤ E((H · B)2t ) < ∞.
i=k+1
X
+ E(Xi (Bti − Bti−1 /Ft ))
i=1
k−1
X
= Xi (Bti − Bti−1 ) + Xk E(Bt − Btk−1 /Ft )
i=1
i=k+1
X
+ E(Xi E(Bti − Bti−1 /Fti−1 )/Ft
i=1
k−1
X
= Xi (Bti − Bti−1 ) + Xk (Bt − Btk−1 ) + 0 = (H · B)t
i=1
par la remarque ci-dessus. Le processus (H · B)t est donc une martingale car pour t ≥ s, on a
E((H · B)t /Fs ) = E(E((H · B)T /Ft )/Fs ) = E((H · B)T /Fs ) = (H · B)s .
2
calcul stochastique en dimension finie 19
Z T
2 2
E sup (H · B)t ≤ 4E (H · B)T = 4E Hs2 ds
t∈[0,T ] 0
Troisième étape
On étend maintenant l’intégrale (H · B) par continuité à l’ensemble
HT = (Ht )t∈[0,T ] : H est adapté, continu à gauche, limité à droite et tel que
Z T
E Hs2 ds <∞ .
0
Cet ensemble est un espace vectoriel normé et complet (ou espace de Banach), muni de la
norme k · kT,1 définie par
Z T
kHk2T,1 =E Hs2 ds .
0
Lemme 1.4.1. ∀H ∈ HT , il existe une suite (H (n) ) de processus simples prévisibles tels que
Z T
(n) 2
E (Hs − Hs ) ds −→ 0.
0 n→∞
Conséquence : Du fait que la suite (H (n) ) converge, c’est également une suite de Cauchy :
Z T
(n) m 2
E (Hs − Hs ) ds −→ 0
0 n,m→∞
Et donc, on a
(n) (m) 2 (n) (m) 2
E supt∈[0,T ] ((H · B)t − (H · B)t ) = E supt∈[0,T ] ((H − H ) · B)t )
RT (n) (m) 2
≤ 4E 0 ((Hs − Hs ) ds −→ 0.
n,m→∞
La suite de processus ((H (n) · B)) est donc une suite de Cauchy dans l’espace de Banach
MT défini par
MT = (Mt )t∈[0,T ] martingale continue de carré intégrable telle que M0 = 0
kM k2T,2 2
= E sup Mt .
t∈[0,T ]
calcul stochastique en dimension finie 20
et on vérifie que
Z t
2 2
E (H · M )t = 0, E (H · M )t = E Hs dhM is .
0
Remarquons que le terme ds apparaissant dans l’isométrie pour (H ·B)t a logiquement été
remplacé par dhM is pour tenir compte de la variation quadratique hM is de la martingale
qui n’est pas forcément égale à s.
D’autre part, on vérifie que le processus ((H · M )t )t∈[0,T ] est également une martingale
continue de carré intégrable.
Z t
2 2
E (H · M )t = 0, E (H · M )t = E Hs dhM is
0
Z t
cov(H · M )t (K · N )t = E Hs Ks dhM, N is .
0
Z t
h(H · M )t i = E Hs dhM is .
0
Z t
h(H · M )t , (K · N )t i = Hs Ks dhM, N is .
0
Rt
"Régle" utile à retenir : si Xt = 0 Hs dMs (i.e dXt = Ht dMs „ alors dhXit = Ht2 dhM iT .
Rt
Noter que si Mt = 0 Ks dBs , alors
Z t Z t
Xt = Hs Ks dBs et hXit = Hs2 Ks2 ds
0 0
calcul stochastique en dimension finie 21
De même, vu que la proriété de martingale (continue de carré intégrable) est préservée, on peut
Rt
encore définir (L · X)t ≡ 0 Ls dXs ...etc.
1. On dit que (Xt ) est un Ft -processus d’Itô à valeurs dans R si pour tout t ≥ 0 il peut
s’écrire
Z t d Z
X t
Xt = X0 + Ls ds + Hsj dBsj . (1.1)
0 j=1 0
où X0 est une v.a. F0 -mesurable, Lt et Ht = (Ht1 , ..., Htd ) sont prévisibles et tels que
∀t ≥ 0, i = 1, .., d Z t Z t
|Ls |ds < ∞, (Hsi )2 ds < ∞.
0 0
calcul stochastique en dimension finie 22
Notation différentielle :
d
X
dXt = Ls ds + Hsj dBsj .
j=0
2. Un processus d’Itô de dimension n est un processus vectoriel X(t) = (Xt1 , ..., Xtn ) où
chaque composante est un processus d’Itô réel.
Exemples
Les processus suivants sont des processus d’Itô
1. Xt = h(t), h dérivable Z t Z t
0
Xt = h(0) + h (s)ds + 0dBs .
0 0
2. Xt = Bt , Brownien Z t Z t
Bt = 0 + 0ds + 1dBs .
0 0
Propriété 1.6.1. Soit Xt un processus d’Itô à valeurs réelles de représentation 1.1. Alors
Rt
1. Si Yt est un processus d’Itô à valeurs réelles de représentation Yt = Y0 + 0 Js ds +
Xd0
(K j , B j )t alors
j=1
d∧d 0
X
hX, Y it = (K j , B j )t .
i=1
où W (·) est un processus de Wiener sur un espace de Hilbert U et Φ est un processus avec
valeur qui sont des opérateurs linéaires mais pas nécessairement bornés de U dans un espace
de Hilbert H.
alors il existe une version de X avec P-presque toutes les trajectoires étant des fonctions conti-
ε
nues de Hölder avec un exposant arbitraire inférieur à . En particulier X a une version
δ
continue.
23
L’intégrale stochastique 24
(3) Les estimations ci-dessus restent vraies si l’ensemble I est indénombrable et la martingale
M est continue.
Fixons un nombre T > 0 et désignons par M2T (E) l’espace de toutes les martingales M conti-
nues, carrées intégrables à valeurs dans E, telles que M (0) = 0. puisque kM (t)k2 , t ∈ [0, T ], est
une sous-martingale nous avons
Proposition 2.1.1. Soit E un espace de Banach séparable. Supposons que {ξi }i∈N est une
suite de variables aléatoires indépendantes de valeur dans E avec des distributions symétriques.
Supposons qu’il existe une variable aléatoire S telle que, pour un arbitraire r > 0
lim P(kS − SN k ≥ r) = 0,
N →∞
où Sk = ξ1 , ...., ξk , k ∈ N. Puis
∞
X
lim SN = S = ξk , P − P.s.
N →∞
k=1
Proposition 2.1.3. Supposons que K est un π-système et soit G la plus petite famille de sous-
ensembles de Ω tel que
L’intégrale stochastique 25
(1) K ⊂ G,
(2) si A ∈ G alors Ac ∈ G,
S∞
(3) si Ai ∈ G pour tout i ∈ N et An ∩ Am pour n 6= m, alors n=1 An ∈ G Alors G = σ(K).
Lemme 2.1.1. Soit E un espace métrique séparable avec métrique ρ et soit X une variable
aléatoire à valeurs dans E. Alors il existe une suite {Xm } de variables aléatoires simples à
valeur dans E telle que, pour un arbitraire ω ∈ Ω, la suite {ρ(X(ω), Xm (ω))} est décroissante
de façon monotone à 0.
alors Z Z
A X(ω)P(dω) = AX(ω)P(dω). (2.5)
Ω Ω
ψ(x
b 1 , ω) = ψ(x
b 1 ) = E(ψ(x1 , ξ2 )), x 1 ∈ E1 . (2.7)
1. Si A est fermé, la norme de graphe sur D(A) est définie comme : pour tout x ∈ D(A), kxkD(A) :=
kxkE + kAxkF . Alors (D(A), k · kD(A) ) est un espace de Banach.
L’intégrale stochastique 26
Proposition 2.1.6. Soit X(t), t ∈ [0, T ] un processus stochastique continu et adapté avec
des valeurs dans un espace de Banach séparable. Alors X a une modification progressivement
mesurable.
La σ-algèbre P∞ des sous-ensembles de [0, +∞) × Ω jouera un rôle important dans la suite.
P∞ est la σ-algèbre généré par des ensembles de la forme,
Cette σ-algèbre est appelée la σ-algèbre prévisible et ses éléments sont des ensembles prévisibles.
La restriction σ-algèbre P∞ sur [0, T ] sera notée par PT .
Une application mesurable arbitraire de ([0, +∞)×, Ω, F∞ ) ou ([0, T )×Ω, FT ) dans (E, B(E))
est appelé un processus prévisible. Un processus prévisible est nécessairement un processus
adapté.
Soit H est un espace de Hilbert séparable, une mesure de probabilité µ sur (H, B(H)) est
appelé Gaussienne si pour un arbitraire h ∈ H il existe m ∈ R1 , q ≥ 0 tel que,
sont bien définis. Nous montrons maintenant qu’ils sont continus. Nous avons besoin d’un lemme
sur les mesures de probabilité générales.
L’intégrale stochastique 27
Lemme 2.2.1. Soit ν une mesure de probabilité sur (H, B(H)). Supposons que pour k ∈ N
Z k
hz, xi ν(dx) < +∞ ∀z ∈ H,
H
Z
hh1 , xi...hhk , xiν(dx) ≤ c|h1 |...|hk |, h1 ...hk ∈ H
H
Le vecteur m est appelé la moyenne et Q est appelé l’opérateur de covariance de µ. Il est clair
que l’opérateur Q est symétrique. De plus, puisque
Z
hQh, hi = hh, x − mi2 µ(dx) ≥ 0, h ∈ H,
H
c’est aussi non négatif. Il résulte de (2.12) - (2.13) qu’une mesure gaussienne µ sur H avec la
moyenne m et la covariance Q a la caractéristique fonctionnelle suivante
Z
1
µb(λ) = eihλ,xi µ(dx) = eihλ,mi− 2 hQλ,λi , λ ∈ H.
H
elle est donc uniquement déterminé par m et Q. Elle est noté par N (m, Q).
Il s’avère que l’opérateur de covariance doit être nucléaire (voir l’annexe A pour la définition
et propriétés de base).
Proposition 2.2.1. Soit µ une mesure de probabilité gaussienne avec une moyenne 0 et cova-
riance Q. Alors Q a une trace finie.
Dans les considérations suivantes on note {ek } une base orthonormale complète de H qui
diagonalise Q, et par {λk } l’ensemble correspondant de valeurs propres de Q. De plus, pour tout
L’intégrale stochastique 28
Maintenant, nous allons commencer par rassembler des informations de base sur les pro-
cessus de Wiener dans un espace de Hilbert y compris les processus de Wiener cylindriques.
Donc, nous définissons l’intégrale stochastique par étapes commençant à partir des processus
élémentaires et aboutissant à la plus générale. Nous établissons également les propriétés de base
de l’intégrale stochastique, y compris la formule d’Itô et le théorème stochastique de Fubini.
De manière équivalente, voir par exemple [13], un processus stochastique (W (t))t≥0 à valeur
réelle, avec des trajectoires continues est appelé un processus de Wiener s’il est gaussien et il
existe σ ≥ 0 tel que,
L’avantage de la définition 2.3.1 est qu’elle peut être généralisée naturellement aux processus
prendre des valeurs dans des espaces linéaires généraux E. Soit E un espace topologique linéaire
et soit B(E) le σ-algèbre généré par tous les sous-ensembles ouverts de E.
L’intégrale stochastique 29
Donc, un processus stochastique (W (t))t≥0 de valeur dans E, satisfaisant (1)-(3) est appelé
un processus de Wiener dans E.
Les cas les plus importants sont quand E est un espace de Hilbert ou un espace de Banach
de fonctions ou de distributions définies sur un sous-ensemble ∂ ⊂ R. Examinons quelques-unes
des classe avec quelques détails.
Supposons que E est un espace de Hilbert séparable U, avec le produit scalaire h·, ·i et W
est un processus Wiener de valeur dans U. Donc, pour chaque u ∈ U , le processus
est un processus de Wiener de valeurs réels. Ceci implique en particulier que L (W (t)) est une
mesure gaussienne avec le vecteur moyen 0. Notons aussi que pour u, v ∈ U, t, s ≥ 0,
et
E[hW (t), uihW (s), vi] = t ∧ s E[hW (1), uihW (1), vi] = t ∧ shQu, vi,
1. W (0) = 0,
2. W a trajectoires continues,
3. W a acroissement indépendants,
On note qu’il existe un système orthonormal complet {ek } dans U et une suite bornée de
nombres réels non négatifs {λk } tels que
∞
X
Qek = λk ek , k ∈ N et T rQ = λi < ∞.
i=1
L’intégrale stochastique 30
Proposition 2.3.1. Supposons que W = (W (t))t≥0 est un processus Q-Wiener. Donc, Les
affirmations suivantes sont satisfaites.
où
1
βj (t) = p hW (t), ej i, j ∈ N, (2.16)
λj
sont des mouvements Brownien de valeurs réelles mutuellement indépendant sur (Ω, F, P) et la
série de (2.15) sont convergentes dans L2 (Ω, F, P).
Preuve
Soit 0 < t1 < t2 < ... < tn et soit u1 , ..., un ∈ U . Considérons la variable aléatoire Z définie par
n
X n
X n
X
Z= hW (tj ), uj i = hW (t1 ), uk i + hW (t2 ) − W (t1 ), uk i + ... + hW (tn ) − W (tn−1 ), un i.
j=1 k=1 k=2
Nous prouvons maintenant (2). Soit t > s > 0, puis par (2.16) il s’ensuit que
= √1 hE(hW (t) − W (s), ei ihW (s), ej i) + E(hW (s), ei ihW (s), ej i)i
λi λj
= √1 s(Qei , ej ) = sδij
λi λj
∞
X
et rappelons que λj < ∞. 2
j=1
Proposition 2.3.2. Pour tout opérateur Q positif symétrique a trace sur un espace de Hilbert
séparable U, il existe un processus Q-Wiener (W (t))t≥0 .
Preuve La preuve de l’existence d’un processus W satisfaisant les conditions (1), (3) et
(4) de la définition 2.3.2 est une conséquence directe de l’extension de théorème de Kolmogo-
rov. Pour trouver une version qui satisfait également à la condition (2) il suffit d’utiliser le test de
Kolmogorov, Théorème 2.1.1. 2
Si cela ne méne pas à une confusion, nous dirons simplement le processus de Wiener au lieu
du processus de Q-Wiener. Nous allons maintenant considérablement renforcer la partie (2) de
la proposition 2.3.1 et montré le théorème suivant.
Théorème 2.3.1. Soit W un processus Q-Wiener tel que (2.14) est vérifié. Alors la série
(2.15) est convergente uniformément P − p.s. sur [0, T ] pour un arbitraire T > 0.
Preuve
Pour prouver la convergence de (2.15), considérons les variables aléatoires ξj , j ∈ N de valeurs
dans C = C([0, T ]; U ) définies par
p
ξj (t) = λj βj (t)ej , t ∈ [0, T ].
m
1 2 T X
≤ 2 E(k ξn (T ) + ....... + ξm (T ) k ) ≤ 2 λj .
r r j=n
N
X
Donc, la suite SN = ξj , N ∈ N de variables aléatoires à valeurs dans C([0, T ], U )
j=1
converge en probabilité à sa somme S qui peut être facilement identifié avec le processus de
Wiener W. La Proposition 2.1.1 implique finalement que SN → W dans C([0, T ], U ) P − p.s.2
On note que la variation quadratique d’un processus Q-Wiener dans U , avec T rQ < +∞,
est donnée par la formule hhW (t)ii = tQ, t ≥ 0. Nous avons en fait la généralisation directe
suivante du résultat unidimensionnel de Lévy, voir la Proposition 2.1.2.
L’intégrale stochastique 32
Théorème 2.3.2. Une martingale M ∈ M2T (U ), M (0) = 0, est un processus Q-Wiener sur
[0, T ] adapté à la filtration Ft , t ≥ 0, et avec des accroissements M (t)−M (s), t ≥ s indépendant
de Fs , s ≥ 0 si et seulement si hhM (t)ii = tQ , t ≥ 0.
Preuve
Nous devons seulement montrer que si hhM (t)ii = tQ, t ≥ 0, alors M est un processus Q-
Wiener. On note que pour un arbitraire j ∈ N le processus Mj (.) = hM (.), ej i appartient à
M2T (R1 ) et de plus
hhMj (t)ii = λj t, t≥0
Donc, d’après la Proposition 2.1.2, Mj est un processus λj -Wiener avec Mj (t)−Mj (s), t > s
des accroissements indépendants de Fs . Par le même argument, les processus de dimension
finie (M1 (.), ..., MN (.)) sont des processus de Wiener avec le processus de variation quadratique
diagonale diag (λ1 , ........, λN ). par conséquent
∞
X p
M (t) = λj βj (t)ej , t≥0
j=1
L’application a → Wa est linéaire de U à l’espace des processus stochastiques. De plus, elle est
continue dans le sens suivant :
Toute application linéaire a → Wa dont les valeurs sont des processus de Wiener de valeurs
réelles sur [0, +∞) satisfaisant (2.19) est appelé un processus de Wiener généralisé.
De cette définition il résulte qu’il existe une forme bilinéaire K(a, b), a, b ∈ U , tel que
La condition (2.19) implique facilement que K est une forme bilinéaire continue dans U et donc
il existe Q ∈ L(U ) tel que
puisque
∞
1 1
X
| hQ 2 ej , ai|2 =| Q 2 a |2 < +∞,
j=1
pour chaque a ∈ U il existe une version de Wa qui est un processus de Wiener. puisque
∞
1 1
X
E[Wa (t)Wb (s)] = (t ∧ s) hQ 2 ej , aihQ 2 ej , bi = (t ∧ s)hQa, bi,
j=1
le résultat suit.
1
Proposition 2.3.3. Soit U1 un espace de Hilbert tel que U0 = Q 2 (U ) est intégré dans U1 avec
une inclusion de Hillbert-Schmidt J. Donc, la formule
∞
1
X
W (t) = Q 2 ej βj (t), t ≥ 0, (2.23)
j=1
définit un processus Wiener de valeur dans U1 . De plus, si Q1 est la covariance de W alors les
1 1
espaces Q12 (U1 ) et Q 2 (U ) sont identiques.
Preuve
1
On note que les éléments gj = Q 2 ej , j ∈ N forme une base orthonormale et complète dans U0
et donc
∞
X
|Jgj |2U1 < +∞.
j=1
L’intégrale stochastique 34
Par conséquent, la série dans (2.23) définit un processus de Wiener dans U1 . Pour a, b ∈ U1
nous avons
∞
X
= ha, Jgj iU1 hb, Jgj iU1
j=1
∞
X
= hJ ∗ a, gj iU0 hJ ∗ b, gj iU0
j=1
Ainsi, avec un abus de langage, nous pouvons dire qu’un processus de Wiener généralisé
arbitraire sur U est un processus de Wiener classique dans un espace de Hilbert plus large que
U1 . Les noyaux reproduire liés à toutes ces extensions sont les mêmes.
Pour compléter l’image, nous montrerons qu’un processus de Wiener W généralisé arbitraire
est de la forme (2.23). Pour ce faire, soit {aj } une suite d’éléments linéairement indépendants,
linéairement denses dans U . Définir
1
V = Q 2 (lin{aj }).
1
Sans perte de généralité, nous supposons que Q 2 (U ) est dense dans U . Alors V est aussi
1
dense dans U . Par l’orthogonalisation de Hilbert-Schmidt de {Q 2 aj } nous créons une base
orthonormale complète {ei } dans U. On note que lin{ei } = V et
1
U = lin{Q 2 aj }. (2.24)
Preuve
On vérifié facilement que le membre droit de (2.25), noté par W
fa (t), définit un processus de
−1
Wiener généralisé avec covariance Q. Maintenant, fixez a = Q 2 ek , pour un arbitraire k ∈ N.
Puis
∞
1 −1
X
W
f −1 (t) = hQ 2 ej , Q 2 ek iW −1 e (t) = W −1 e (t), t ≥ 0.
Q 2 ek Q 2 j Q 2 k
j=1
Si un processus Q-Wiener W vérifie (1) et (2) on dit que W est un processus Q-Wiener
par rapport à {Ft }t≥0 . Cependant, pour réduire la formulation nous évitons habituellemnet de
stresser la dépendance sur la filtration.
Fixons T < ∞. Un processus Φ(t), t ∈ [0, T ] à valeur dans L = L(U, H) 2 , prenant seulement
un nombre fini de valeurs est dit élémentaire s’il existe une suite 0 = t0 < t1 < ... < tk = T et
une suite Φ0 , Φ1 , ..., Φk−1 des variables aléatoires à valeurs dans L prenant seulement un nombre
fini des valeurs telles que Φm sont Ftm -mesurable et
1
Il est utile, à ce moment, d’introduire le sous-espace U0 = Q 2 (U ) de U qui, doté du produit
scalaire
∞
X 1 −1 −1
hu, vi0 = hu, ek ihv, ek i = hQ 2 u, Q 2 vi, u, v ∈ U0 ,
k=1
λk
est un espace de Hilbert.
Dans la construction de l’intégrale stochastique pour des processus plus généraux, l’espace
de tous les opérateurs Hilbert-Schmidt L02 = L2 (U0 , H) joue un rôle important de U0 dans H.
L’espace L02 est aussi un espace de Hilbert séparable, muni de la norme
∞
X ∞
X
kΨk2L0 = |hΨgh , fk i|2 = λh |hΨeh , fk i|2
2
h,k=1 h,k=1
1 1 1
= kΨQ 2 k2L2 (U,H) = T r[(ΨQ 2 )(ΨQ 2 )∗ ]
p
où {gj }, avec gj = λj ej , {ej } et {fj }, j ∈ N, sont des bases orthonormées complètes dans
U0 , U et H respectivement. Clairement, L ⊂ L02 , mais pas tous les opérateurs de L02 peuvent
être considérés comme des restrictions d’opérateurs de L. L’espace L02 contient des opérateurs
vraiment non bornés sur U .
Soit Φ(t), t ∈ [0, T ], un processus mesurable de valeur dans L02 , nous définissons les normes
Z t 21
k| Φ k|t = E k Φ(s) k2L0 ds
2
0
Z t 21
1 1
∗
= E T r[(Φ(s)Q 2 )(Φ(s)Q 2 ) ]ds , t ∈ [0, T ].
0
Preuve
La preuve est simple. Nous vérifierons par exemple que (2.26) vérifié pour t = tm ≤ T .
Définir ξj = W (tj+1 ) − W (tj ), j = 1, ..., m − 1. alors
m−1 2
X
E|Φ · W (tm )|2 = E Φ(tj )ξj
j=0
m−1
X n
X
= E |Φ(tj )ξj |2 + 2E hΦ(ti )ξi , Φ(tj )ξj i.
j=0 i<j=1
Pour ce but, on note que la variable aléatoire Φ∗ (tj )fl est Ftj -mesurable et ξj est une variable
aléatoire indépendante de Ftj . Par conséquent (voir la Proposition 2.1.5)
∞
X
2
E|Φ(tj )ξj | = E(|hΦ(tj )ξj , fl i|2 )
l=1
∞
X
= E(E[hξj , Φ∗ (tj )fl i]2 |Ftj )
l=1
∞
X
= (tj+1 − tj ) E(hQΦ∗ (tj )fl , Φ∗ (tj )fl i)
l=1
∞
1
X
= (tj+1 − tj ) |Q 2 Φ∗ (tj )fl |2 ,
l=1
et la conclusion suit. 2
Remarque 2.4.1. Notons que l’intégrale stochastique est une application linéaire de l’espace de
tous les processus élémentaires muni de la norme k| . k|T dans l’espace M2T (H) des martingales
à valeur dans H.
Pour étendre la définition de l’intégrale stochastique à des processus plus généraux, il est
convient de regarder les intégrands comme des variables aléatoires définies sur l’espace produit
Ω∞ = [0, +∞)×Ω (respectivement ΩT = [0, T ]×Ω), muni du produit σ-algèbre : B([0, +∞))×F
(respectivement B([0, T ])×F). Le produit de la mesure de Lebesgue sur [0, +∞) (respectivement
sur [0, T ]) et la mesure de probabilité P est notée P∞ (respectivement PT ).
La σ-algèbre qui vient d’être introduit ne prend pas en compte l’adaptation du processus
considéré et donc n’est pas appropriè pour notre objectif. Le bon choix naturel est fourni par
la σ-algèbre généré par les processus simples et adaptés. Il est facile de voir que ce sont exac-
tement les σ-algèbre prévisibles P∞ (respectivement PT ). Il se trouve que la classe appropriée
des intégrands sont des processus prévisibles avec des valeurs dans L02 , plus précisement, des
applications mesurables de (Ω∞ , P∞ ) (respectivement (ΩT , PT )), dans (L02 , B(L02 )).
L’intégrale stochastique 38
(1) Si une application Φ de ΩT , dans L est L-prévisible donc Φ est aussi L02 -prévisible. En
particulier, les processus élémentaires sont L02 -prévisibles.
(2) Si Φ est un processus L02 -prévisible tel que |kΦk|T < ∞ donc il existe une suite {Φn } de
processus élémentaires tels que |||Φ − Φn |||T → 0 comme n → ∞.
Lemme 2.4.1. Supposons que K est un espace de Hilbert séparable et K1 est un sous-ensemble
linéaire dense de K. Si X est une application de Ω dans K tel que pour un arbitraire k ∈
K1 , hk, Xi est F-mesurable alors X est une variable aléatoire de (Ω, F) dans (K, B(K)).
fk ⊗ ej · u = fk hej , ui, u ∈ U, k, j ∈ N
hfk ⊗ ej , T iL02 = λj hT ej , fk iH ,
Prouvons (2). Puisque l’espace L est densement intégré dans L02 , par le lemme (2.1.1) il
existe une suite {Φn } de processus prévisibles à valeur dans L sur [0, T ] prenant seulement un
nombre fini de valeur telle que
pour tout (t, ω) ∈ ΩT . Par conséquent |||Φ − Φn |||T ↓ 0. Il suffit donc de prouver que pour
un arbitraire A ∈ PT et un arbitraire ε > 0 il existe une somme finie Γ d’ensembles disjoints
de la forme (2.8) avec s, t ≤ T tels que
Pour montrer cela, notons K la famille de toutes les sommes finies des ensembles de la forme
(2.8) avec s ≤ t ≤ T . K est un π-système (voir [6]).
Soit G la famille de tout A ∈ PT qui peut être approchée dans le sens ci-dessus par des
éléments de K. On peut facilement vérifiée que K ⊂ G et que les conditions de la proposition
L’intégrale stochastique 39
Tous ces processus sont appelés stochastiquement intégrables sur [0, T ]. Ils forment un espace
linéaire noté NW (0, T, L02 ), plus simplement NW (0, T ) ou même NW . L’extension peut être
accomplie par la procédure dite de localisation. Pour ce faire, nous avons besoin de ce qui suit.
2
Lemme 2.4.2. Supposons que Φ ∈ NW (0, T, L02 ) et que τ est un Fτ -temps d’arrêt tel que
P(τ ≤ T ) = 1. alors
Z t
I[0,τ ] (s)Φ(s)dW (s) = Φ · W (τ ∧ t), t ∈ (0, T ], P − p.s. (2.29)
0
Preuve
On suppose que Φ est élémentaire et que τ est un temps d’arrêt simple (voir [6]), alors (2.29)
est retenu par recherche. Si Φ est élémentaire et τ général, alors il existe une suite de temps
d’arrêt simples {τn } tels que τn ↓ τ , et Φ · W (τn ∧ t) → Φ · W (τ ∧ t), P − P.s. D’autre part,
Z t
2
|||I[0,τ ] Φ − I[0,τn ] Φ|||T = E I[0,τn ] (s)kΦ(s)k2L0 ds ↓ 0
2
0
avec la convention que la borne inférieure d’un ensemble vide est T. Alors {τn } est une suite
telle que Z t
E kI[0,τn ] (s)Φ(s)k2L0 ds < ∞. (2.30)
2
0
Par conséquent, les intégrales stochastiques I[0,τn ] Φ · W (t), t ∈ [0, T ] sont bien définies pour tout
n ∈ N. De plus si n < m alors P − p.s.
Par conséquent, on peut supposer que (2.30) est vérifier pour tous ω ∈ Ω, t ∈ [0, T ], n < m.
Pour un arbitraire t ∈ [0, T ] définir
où n est un nombre naturel arbitraire tel que τn ≥ t. On note que si aussi τm ≥ t et m > n
alors
(I[0,τm ] Φ) · W (t) = (I[0,τm ] Φ) · W (τn ∧ t) = I[0,τn ] Φ · W (t)
et donc la définition (2.31) est cohérente. Par un raisonnement analogue si {τn0 } ↑ τ est une autre
suite vérifiant (2.30) alors la définition (2.31) conduit à un processus stochastique identique
P − p.s. pour tout t ∈ [0, T ]. On note que pour arbitrairement n ∈ N, ω ∈ Ω, t ∈ [0, T ] ,
où Mn est une martingale continue et carée intégrable à valeur dans H. Cette propriété sera
appelée la propriété de martingale locale de l’intégrale stochastique.
Remarque 2.4.2. Il résulte de la construction ci-dessus que le lemme 2.4.2 est vérifiée pour
tous les Φ ∈ NW (0, T, L02 ). 2
cela de plusieurs manières équivalentes. La proposition simple suivante joue un rôle important
1
dans ces extensions. Comme précédemment nous notons U0 = Q 2 (U ) (avec la norme induite
1
kuk0 = kQ 2 (u)k, u ∈ U0 ) le noyau reproducteur de W . Nous utiliserons à nouveau la notation,
Proposition 2.4.3. Supposons que Z est une variable aléatoire à valeur dans U avec une
moyenne 0 et covariance Q et que R est un opérateur de Hilbert-Schmidt de U0 dans H. Si
{Rn } ⊂ L2 (U0 , H) est tel que
lim kR − Rn kL2 (U0 ,H) = 0,
n→∞
Preuve
La preuve est une conséquence directe de l’identité
1
E|SZ|2 = kSQ 2 k2L2 (U0 ,H) ,
Si {Rn0 } est une autre suite avec toutes les propriétés satisfaites, alors
E|Zn − Zn0 |2 = EkRn Z − Rn0 Zk2L2 (U0 ,H) = kRn − Rn0 k2L2 (U0 ,H) → 0 comme n → ∞,
De plus la formule
∞
1
X
W (t) = Q 2 ej βj (t), t ≥ 0.
j=1
L’intégrale stochastique 42
peut être fait comme dans le cas où T rQ < +∞. Il suffit de prendre en compte que les variables
aléatoires de la forme
Φtj (Wtj+1 − Wtj ),
sont définis d’une manière unique à condition Φtj ∈ L02 . La formule de base
Z t 2 Z t
E Φ(s)dW (s) =E kΦ(s)k2L0 ds , t ≥ 0, (2.33)
2
0 0
reste la même.
Nous décrivons maintenant un moyen d’approximation des intégrales stochastiques qui pour-
raient également servir comme une manière différente de définir l’intégrale stochastique par
rapport à un processus Q-Wiener de dimension infinie (T rQ ≤ +∞). Soit
N
X p
WN (t) = λj βj (t)ej , t ∈ [0, T ],
j=1
où {λj , ej } est une suite propre définie par Q, et soit Φ stochastiquement intégrable sur
[0, T ], par rapport à un processus Q-Wiener W . On note que WN et W N = W − WN sont des
L’intégrale stochastique 43
N
X ∞
X
N (t)
processus de Wiener respectivement, QN = λj ej ⊗ ej et Q = λj ej ⊗ ej . Il est facile
j=1 j=N +1
de voir que Φ · W = Φ · WN + Φ · W N . Ainsi
Z T
1
2
EkΦ · W (T ) − Φ · WN (T )k = E kQ(s)(QN ) 2 k2L0 ds.
2
0
Z T
1
E kQ(s)(QN ) 2 k2L0 ds → 0 comme N → ∞.
2
0
+∞. Le cas général de Φ ∈ NW (0, T, L02 ) peut être obtenu par localisation.
2
Théorème 2.5.1. Supposons que Φ ∈ NW (0, T, L02 ), alors l’intégrale stochastique Φ · W est
une martingale continue de carrée intégrable et sa variation quadratique est de forme
Z t
hhΦ · W (t)ii = QΦ (s)ds,
0
où
1 1
QΦ (s) = (Φ(s)Q 2 )(Φ(s)Q 2 )∗ , s, t ∈ [0, T ].
2
Proposition 2.5.1. Supposons que Φ1 , Φ2 ∈ NW (0, T, L02 ). alors
Preuve
1 1
On note que Φ2 (r)Q 2 et (Φ1 (r)Q 2 )∗ , r ∈ [0, T ] sont des processus à valeurs dans L2 (U, H) et
L2 (H, U ) respectivement. Par conséquent, le processus
1 1
Φ2 (r)Q 2 (Φ1 (r)Q 2 )∗ , r ∈ [0, T ],
1 1 1 1
k(Φ2 (r)Q 2 )(Φ1 (r)Q 2 )∗ k1 ≤ k(Φ2 (r)Q 2 )kL2 (U,H) k(Φ1 (r)Q 2 )kL2 (U,H) , r ∈ [0, T ].
Par conséquent
Z T Z T
1 1 1 1
∗
E k(Φ2 (r)Q )(Φ1 (r)Q ) k1 dr ≤ E
2 2 k(Φ2 (r)Q 2 )kL2 (U,H) k(Φ1 (r)Q 2 )kL2 (U,H) dr
0 0
Z T 12 Z T 12
1 1
≤ E kΦ1 (r)Q 2 )k2L2 (U,H) dr kΦ2 (r)Q 2 )k2L2 (U,H) dr
0 0
et donc l’intégrale (2.34) existe comme un intégrale de Bochner à valeur dans L1 (H, H).
L’opérateur V (t, s) est défini par
On peut facilement voir que si, en plus, Φ1 et Φ2 sont des processus simples alors
Donc, le résultat est vrai pour des processus simples. L’estimation (2.35) et la proposition
d’approximation 2.4.2 impliquent que le résultat est vérifié en général. 2
Nous remarquons que si les processus Φ1 et Φ2 sont à valeurs dans L = L(U, H), nous
pouvons écrire la formule (2.36) de manière plus petite
Z t∧s
EhΦ1 · W (t), Φ2 · W (s)i = E T r[Φ2 (r)QΦ1 (r)∗ ]dr.
0
Plusieurs résultats sont vérifier pour l’intégrale de Bochner ont leurs contre parties pour les
intégrales stochastiques. En particulier, presque la même Proposition 2.1.4 est vérifiée. Sup-
posons que (Φ(t))t∈[0,T ] , est un processus prévisible à valeur dans L02 (H) = L02 (U0 , H) et soit
A : D(A) ⊂ H → E un opérateur fermé avec le domaine D(A) un sous-ensemble de Borel de
H.
RT
alors P( 0 Φ(s)dW (s) ∈ D(A)) = 1 et
Z T Z T
A Φ(s)dW (s) = AΦ(s)dW (s), P − P.s.
0 0
Preuve
On peut vérifié tout de suite que le résultat est vrai pour les processus élémentaires. Le cas
général peut être obtenu de manière similaire à la preuve de la Proposition 2.1.4 en utili-
sant la proposition 2.4.2(2) et le faite que : Si D(A) est muni de sa norme de graphe et
S est un opérateur linéaire de U0 dans D(A) alors S ∈ L02 (U0 , D(A)) si et seulement si
S ∈ L02 (U0 , H), AS ∈ L02 (U0 , H). de plus
Nous terminerons cette section avec une estimation utile vérifie pour un intégrand général
Φ.
Proposition 2.5.3. Supposons que Φ ∈ NW (0, T ; L02 ). Alors pour arbitrairement a > 0, b > 0
! Z T
b 2
P sup | Φ · W (t) |> a ≤ 2 + P kΦ(t)kL0 dt > b .
t∈[0,T ] a 0
2
Preuve
Définir Z T
τb = t ∈ [0, T ] : kΦ(t)k2L0 dt >b .
2
0
Alors !
P sup | Φ · W (t) |> a = I1 + I2 ,
t∈[0,T ]
où !
Z T
I1 = P sup | Φ · W (t) |> a et kΦ(s)k2L0 ds > b
2
t∈[0,T ] 0
!
Z T
I2 = P sup | Φ · W (t) |> a et kΦ(s)k2L0 ds ≤ b .
2
t∈[0,T ] 0
Mais Z t
I2 ≤ P sup I[0,τb ] (s)Φ(s)dW (s) > a
t∈[0,T ] 0
Z t Z t
X(t) = X(0) + ϕ(s)ds + Φ(s)dW (s), t ∈ [0, T ],
0 0
est bien défini. Supposons qu’une fonction F : [0, T ] × H → R1 et ses dérivées partielles
Ft , Fx , Fxx , sont uniformément continues sur des sous-ensembles bornés de [0, T ] × H.
L’intégrale stochastique 47
Théorème 2.6.1. Sous les conditions ci-dessus, Pour tout t ∈ [0, T ] P − P.s.,
Z t
F (t, X(t)) = F (0, X(0)) + hFx (s, X(s)), Φ(s)dW (s)i
0
Z t
+ Ft (s, X(s)) + hFx (s, X(s)), ϕ(s)i
0
1 1 1
∗
+ T r[Fxx (s, X(s))(Φ(s)Q 2 )(Φ(s)Q 2 ) ] ds. (2.37)
2
Preuve
Nous allons d’abord retrouver comment on peut réduire la preuve au cas des processus constants
ϕ(s) = ϕ0 et Φ(s) = Φ0 , s ∈ [0, T ], et donc au cas où
RT
Nous pouvons supposer que le processus (X(t))t∈[0,T ] et les intégrales 0 |ϕ(s)|ds
RT
et 0 kΦ(s)k2L0 ds sont bornés. Cela peut être montré par localisation. A savoir pour une
2
Z t Z t
2
τC = inf t ∈ [0, T ] :| X(t) |≥ C ou |ϕ(s)|ds ≥ C ou kΦ(s)kL0 ds ≥ C
2
0 0
avec la convention que la borne inférieure de l’ensemble vide est T . Si l’on définit
Comparé au lemme 2.4.2. De plus, les processus ϕC , ΦC et XC sont les propriétés requises. Si
la formule (2.37) est vraie pour ϕC , ΦC , et XC pour C > 0 arbitraire, en utilisant à nouveau
le lemme 2.4.2, la formule (2.37) est vraie dans le cas général. Ainsi, en particulier, on peut
supposer que
Z T Z T
E |ϕ(s)|ds < +∞, E kΦ(s)k2L0 ds < +∞.
2
0 0
processus ϕ(·) et Φ(·) constants sur les intervalles, ce qui montre finalement que la réduction
désirée est possible.
Soit les points t0 = 0 < t1 < ... < tk < t définissent une partition d’un intervalle de temps
fixe [0, t] ⊂ [0, T ]. alors
k−1
X
F (t, X(t)) − F (0, X(0)) = F (tj+1 , X(tj+1 )) − F (tj , X(tj+1 ))
j=0
k−1
X
+ F (tj , X(tj+1 )) − F (tj , X(tj )) .
j=0
En appliquant la formule de Taylor on obtient pour certains (aléatoire) Θ00 , Θ01 , . . . , Θ0(k−1) ,
Θ10 , Θ11 , . . . , Θ1(k−1) ∈ [0, 1],
k−1
X k−1
X
F (t, X(t)) − F (0, X(0)) = Ft (tj+1 , X(tj+1 ))∆tj + hFt (tj , X(tj )), ∆Xj i
j=0 j=0
k−1
1X
+ hFxx (tj , X(tj )) · ∆Xj , ∆Xj i
2 j=0
k−1
X
+ tj , Xj+1 ) − Ft (tj+1 , X(tj+1 ))]∆tj
[Ft (e
j=0
k−1
1X
+ h[Fxx (tj , Xj ) − Fxx (tj , X(tj )) · ∆Xj , ∆Xj i
e
2 j=0
= I1 + I2 + I3 + I4 + I5
où
tj+1 − tj = ∆tj , X(tj+1 ) − X(tj ) = ∆Xj
tj + Θ0j (tj+1 − tj ) = e
tj , X(tj ) + Θ1j (X(tj+1 − X(tj )) = X
ej .
Prenant en considération (2.38) et en supposant que la partition t0 = 0 < t1 < ... < tk < t
devient de plus en plus fine, on voit que
Z t
I1 → Ft (s, X(s))ds, P − P.s.
0
Z t Z t
I2 → hFx (s, X(s)), ϕ(s)ids + hFx (s, X(s)), Φ(s)dW (s)i, P − P.s.
0 0
L’intégrale stochastique 49
k−1
1X
+ hFxx (tj , X(tj ))ϕ0 , ϕ0 i(∆tj )2
2 j=0
k−1
X
+ hFxx (tj , X(tj ))Φ0 ∆Wj , ϕ0 i∆tj
j=0
k−1
X 2
− T r[Φ∗0 Fxx (tj , X(tj ))Φ0 Q∆tj ]
j=0
" k−1 #
X
= E E(hξj ∆Wj , ∆Wj i2 |Fj ) − (T r[ξj Q])2 (∆tj )2 .
j=0
Ceci résulte du fait élémentaire que si η0 , ..., ηk−1 sont des variables aléatoires avec des seconds
moments finis et G0 , ...., Gk−1 une suite croissante de σ-algèbre tels que ηj sont mesurables par
rapport à Gj , 0 ≤ j ≤ k − 1, alors
k−1 k−1
!2 k−1
X X X
2 2
E ηj − E(ηj |Gj ) = E(ηj ) − E(E(ηj |Gj ) ) .
j=0 j=0 j=0
et nous voir que J → 0. Par conséquent, en prenant une sous-suite on obtient (2.39). d’après la
continuité de trajectoire du processus de Wiener et la bornitude de Fxx (s, X(s)), s ∈ [0, T ], on
L’intégrale stochastique 50
déduit que I3,2 → 0 et I3,3 → 0. Il reste à montrer qu’il existe des sous-suites de I4 et I5 , conver-
geant vers 0 P − P.s.. La convergence de I4 vers 0 est une conséquence de la continuité uniforme
k−1
X
de Ft . Par la continuité uniforme de Fxx et en tenant compte du fait que la suite |X(tj+1 ) −
j=0
2
X(tj )| contient une sous-suites bornée, une sous-suites de I5 tend vers 0 P − P.s. La preuve est
complète. 2
Z t Z t
= 2 hX(s), Φ(s)idW (s) + kΦ(s)k2L0 ds.
2
0 0
Φ : (t, ω, x) → Φ(t, ω, x)
une application mesurable de (ΩT × E, PT × B(E)) dans (L02 , B(L02 )). On suppose en outre que
Z
|||Φ(·, ·, x)|||T µ(dx) < +∞ (2.40)
E
alors P − P.s.
Z Z T Z T Z
Φ(t, x)dW (t) µ(dx) = Φ(t, x)µ(dx) dW (t). (2.41)
E 0 0 E
Preuve
Il résulte de (2.40) que pour µ-presque tout x ∈ E le processus prévisible Φ(·, ·, x) est stochas-
tiquement intégrable. Nous devons montrer qu’il existe une version FT × B(E)-mesurable de
l’intégrale
Z T
ξ(ω, x) = Φ(t, ω, x)dW (t, ω), (ω, x) ∈ Ω × E
0
Proposition 2.7.1. On suppose que (E, E) est un espace mesurable et soit Φ : (t, ω, x) →
ϕ(t, ω, x) une application mesurable de (ΩT × E, PT × B(E)) dans (L02 , B(L02 )). Supposons en
outre que (2.40) est vérifier. Donc, il existe une suite {Φn } d’applications mesurables de (ΩT ×
E, PT × B(E)) dans (L02 , B(L02 )) de la forme
Jn X
X Kn X
Ln
n
Φn (t, ω, x) = αk,l Hj ϕnj,k (x)1(snk,l ,tnk,l ] 1Fk,l
n (2.42)
j=1 k=1 l=1
n
où αk,l sont des constantes, des opérateur Hilbert-Schmidt Hj de U dans H, ϕnj,k sont des
fonction B(E)-mesurable à valeur réelle bornée, (snk,l , tnk,l ] sous-intervalle de [0, T ] et Fk,l
n
∈ Fsnk,l
tels que
Z Z 21
lim kΦ(t, ω, x) − Φn (t, ω, x)k2L0 PT (dt, dω) µ(dx) = 0. (2.43)
n→∞ E ΩT
2
L’intégrale stochastique 52
Preuve
Comme il existe une suite {Φn } des applications uniformément bornées pour les quelles (2.43)
est vraie, on peut supposer, sans perte de généralité, que Φ(·, ·, ·) est une application bornée.
Soit {Hj } un système orthonormé complet sur L02 et {εk (·, ·)} un système orthonormé complet
sur L2T = L2 (ΩT , PT , PT ) composé des processus bornés. Prenant en compte les expansions par
rapport les bases {εn } et {Hj }, nous définissons des processus d’approximation
J
X
Φ1J (t, ω, x) = Hj ϕj (t, ω, x)
j=1
où
et
ϕj,k (x) = hϕj (·, ·, x), εk (·, ·)iLT2 .
Le troisième processus d’approximation remplace les processus prévisibles εk par des processus
simples "K #
J
X X L
X
Φ3J,K,L (t, ω, x) = Hj ϕj,k (x) αk,l 1]sk,l ,tk,l ] (t)1Fk,l
n ,
j=1 k=1 l=1
pour (t, ω, x) ∈ ΩT ×E. Notons l’intégrale de (2.40) par ||||Φ||||. Par le théorème de convergence
monotone de Lebesque nous avons
Enfin, en procédant comme dans la preuve de la Proposition 2.4.2 (2), pour J et K fixe on peut
trouver une suite d’approximations du troisième type telles que
Il résulte de la limite de Φ et de la construction des approximations que ϕj,k (·) sont des fonctions
bornées et que les approximations sont des processus prévisibles. En prenant en compte (2.44)
et (2.45) on arrive à (2.43).
Preuve de Théorème 2.7.1
Il est satisfait que le théorème est vrai pour les processus d’approximation Φn , n ∈ N,
Z Z T Z T Z
Φn (t, x)dW (t) µ(dx) = Φn (t, x)µ(dx) dW (t).
E 0 0 E
L’intégrale stochastique 53
est prévisible. Nous montrons maintenant qu’il existe une version de ξ(·, ·) qui est FT × B(E)-
mesurable. Les processus
Z T
ξn (ω, x) = Φn (t, ω, x)dW (t, ω), ω ∈ Ω, x ∈ E
0
1
kkΦ(·, ·, x) − Φnm (·, ·, x)kk ≤ .
2m
alors ξ(·, ·) est une variable aléatoire FT ×B(E)-mesurable et, par les propriétés élémentaires
de l’intégrale stochastique, Z T
ξ(ω, x) = Φ(t, ω, x)dW (t, ω)
0
Z Z T Z Z T
E Φ(t, x)dW (t) µ(dx) − Φnm (t, x)dW (t) µ(dx)
E 0 E 0
Z Z T
≤ E (Φ(t, x) − Φnm (t, x))dW (t) µ(dx)
E 0
Z
≤ kkΦ(t, x) − Φnm (t, x)kkµ(dx) → 0 comme m → ∞. (2.46)
E
De plus
Z T Z Z Z T 2
E Φ(t, x)µ(dx) dW (t) − Φnm (t, x)dW (t) µ(dx)
0 E E 0
Z T Z Z T Z 2
=E Φ(t, x)µ(dx) dW (t) − Φnm (t, x)µ(dx) dW (t)
0 E 0 E
L’intégrale stochastique 54
Z T Z 2
=E Φ(t, x) − Φnm (t, x)µ(dx) dW (t) .
0 E
Donc Z T Z Z Z T 2
E Φ(t, x)µ(dx) dW (t) − Φnm (t, x)dW (t) µ(dx)
0 E E 0
Z
≤ kk (Φ(t, x) − Φnm (t, x))µ(dx)kk2
E
Z 2
≤ kkΦ(t, x) − Φnm (t, x)kkµ(dx) → 0 comme m → ∞. (2.47)
E
L’estimation finale suit en considérant Φ(·, ·, ·) − Φnm (·, ·, ·) comme une application mesurable
de (E, E, µ) dans L2 (ΩT , PT , H) (muni de la norme |||| · ||||)Zet en appliquant l’inégalité
Z suivante
(en fait c’est aussi l’inégalité de Minkowski généralisée) X(ω)P(dω) ≤ kX(ω)kP(dω).
B B
D’après les estimations (2.46) -(2.47), le résultat suit. 2
Remarque 2.7.1. La condition (2.40), écrite dans une version étendue, a la forme
Z Z Z T 21
kΦ(t, ω, x)k2L0 )dt)P(dω) µ(dx) < ∞.
2
E Ω 0
On note que Z T
hhΨ · M (t)ii = Ψ(s)QΦ (s)Ψ∗ (s)ds, t ∈ [0, T ], (2.49)
0
L’intégrale stochastique 55
où
1 1
QΦ (s) = (Φ(s)Q 2 )(Φ(s)Q 2 )∗ ,
Enfin (2.50) peut être étendu à des martingales générales et les intégrands généraux.
Chapitre 3
2. Si en plus H0 est un espace de Hilbert continuellement intégré dans E et tel que L (ϕ) =
N (0, |ϕ|20 ) pour un arbitraire ϕ ∈ M , alors H0 est le noyau reproducteur de µ.
Proposition 3.1.2. Soit S(·) un C0 -semigroupe dans E et soit A son générateur infinitésimal.
Alors A est fermé et le domaine D(A) est dense dans E. De plus, si x ∈ D(A), alors
\
S(·)x ∈ C 1 ([0, +∞], E) C([0, +∞], D(A))
et
d
S(t)x = AS(t)x = S(t)Ax, t ≥ 0.
ds
Preuve. voir [6].
56
Équations linéaires avec bruit additif 57
Z t
u(t) = S(t)x + S(t − s)f (s)ds, t ∈ [0, T ]. (3.2)
0
La fonction u(·) définie par (3.2) est appelée la solution mild du problème (3.1).
Avant de prouver une condition suffisante pour l’existence de solutions strictes, il est commode
d’introduire le problème d’approximation
u0 (t) = An un (t) + f (t), t ∈ [0, T ],
n
(3.3)
u (0) = x ∈ X,
n
1. Lp (0, T ; E) : Espace de Banach des fonctions mesurables de Borel H sur [0, T ], intégrable de Bochner dans
la puissance p
2. W 1,p ([0, T ], E) : Espace de Sobolev de fonctions f ∈ Lp ([0, T ], E), avec Dα f ∈ Lp ([0, T ], E), |α ≤ 1|
3. C([0, T ], E) : Espace de Banach des fonctions continues à valeur de E sur [0, T ]
Équations linéaires avec bruit additif 58
2. Si x ∈ D(A) et f ∈ Lp ([0, T ], D(A)), alors le problème (3.1) a une solution stricte unique
dans Lp ([0, T ], E), donnée par la formule (3.2) et de plus u ∈ W 1,p ([0, T ], E) C([0, T ], D(A)).
T
avec A0 étant un opérateur linéaire, généralement non borné, défini dans un sous-espace linéaire
dense D(A0 ) de E, est bien défini si :
2. si {xn } ∈ D(A0 ) et lim xn = 0, alors pour tout t ∈ [0, +∞) nous avons
n→∞
Si la limite dans (3.6) est uniforme dans t sur des sous-ensembles compacts de [0, +∞], nous
dit que le problème de Cauchy (3.5) est uniformément bien défini.
où a(·) est une mesure finie à matrice N × N sur [−r, 0], f : [0, +∞) −→ RN est une fonction
localement intégrable, h0 ∈ RN , h1 ∈ L2 ([−r, 0], RN ) et r est un nombre positif égal au retard
Équations linéaires avec bruit additif 59
maximal. Ce problème a une solution continue absolue unique z définie dans [−r, +∞).
Supposons pour l’instant f ≡ 0 et considérons l’espace de Hilbert H = RN ⊕ L2 ([−r, 0], RN ).
Il se trouve que la formule suivante
h0 z(t) h0
S(t) = , ∀ ∈ H, (3.8)
h1 zt h1
où z est la solution de (3.7), avec f ≡ 0 et zt (θ) = z(t + θ), θ ∈ [−r, 0], définit un C0 -semigroupe
sur H. Le résultat suivant est bien connu, voir par exemple ([8]).
Proposition 3.2.1. S(·) est un C0 -semigroupe dans H qu’il est de plus différentiable pour tout
t ≥ r. Le générateur infinitésimal A de S(·) est donné par :
h0
N 1,2 N
D(A) = ∈ H : h0 ∈ R , h1 ∈ W (−r, 0, R ), h1 (0) = h0
h1
Z 0 (3.9)
−r a(dθ)h1 (θ)
Ah =
dh1
dθ
et nous avons Z 0
λθ
σ(A) = λ ∈ C : det λ − e a(dθ) =0 .
−r
Nous considérons maintenant le problème général (3.7). Nous avons la formule suivante
Z t
(z(t), zt ) = S(t)(h0 , h1 ) + S(t − s)(f (s), 0)ds.
0
u0 = Au + Bf, u(0) ∈ H
I
où A est donné par (3.9) et B = .
0
Équations linéaires avec bruit additif 60
On nous donne un espace de probabilité (Ω, F, P) avec une filtration normale (Ft )t≥0 . Nous
considérons deux espaces de Hilbert H et U , et un processus de Q-Wiener W (t) sur (Ω, F, P),
avec l’opérateur de covariance Q ∈ L(U ). Si T r Q < ∞, alors W est un processus de Wiener
réel, alors si Q = I, W est un processus cylindrique et dans ce cas il a des trajectoires continus
dans un autre espace de Hilbert U1 plus grand que U , voir Chapitre 2. Nous supposons qu’il
existe un système orthonormal complet {ek } dans U , une suite bornée λk de nombres réels non
négatifs tels que
Qek = λk ek , k ∈ N,
est uniformément bien défini (voir Définition 3.1.1) et que B est borné, c’est-à-dire que nous
avons le suivant :
Hypothèse 3.3.2. 1. f est un processus prévisible avec des trajectoires intégrables au sens
de Bochner sur l’intervalle arbitrairement fini [0, T ].
2. ξ est F0 -mesurable.
Un processus prévisible (X(t))t∈[0.T ] à valeur dans H, est dit une solution forte de (3.10) si
X(t) prend des valeurs dans D(A), P − P.s.,
Z T
|AX(s)|ds < ∞, P − P.s.
0
et pour t ∈ [0, T ]
Z t
X(t) = ξ + [AX(s) + f (s)]ds + BW (t), P − P.s.
0
Cette définition n’a de sens que si W est un processus à valeur dans U et donc demandé
que T r [Q] < +∞. On note qu’une solution forte devrait nécessairement avoir une modification
continue. Un processus prévisible (X(t))t∈[0.T ] à valeur dans H, est dit une solution faible de
(3.10) si les trajectoires de X(·) sont intégrables au sens de Bochner P-P.s. et si pour tout
z ∈ D(A∗ ) et tout t ∈ [0, T ] nous avons
Z t
hX(t), zi = hξ, zi + [hX(s), A∗ zi + hf (s), zi]ds + hBW (t), zi, P − P.s. (3.11)
0
Cette définition est importante pour un processus de Wiener cylindrique parce que les processus
scalaires hBW (t), zi, t ∈ [0, T ] sont des processus aléatoires bien définis (voir la section 2.4.1).
Il est clair qu’une solution forte est également faible.
Il est d’une grande importance dans notre étude des équations linéaire d’établir d’abord les
propriétés de base du processus
Z t
WA (t) = S(t − s)BdW (s), t ≥ 0,
0
qu’on appelle convolution stochastique. Les propriétés sont recueillies dans le théorème suivant.
Équations linéaires avec bruit additif 62
Alors
(1) le processus WA (·) est gaussien, continu en moyenne carré et a une version prévisible,
(3) les trajectoires de WA (·) sont carrée intégrale P − P.s. et la loi L (WA (·)) est une mesure
gaussienne symétrique sur H = L2 (0, T, H) avec les opérateurs de covariance
Z T
Qϕ(t) = G(t, s)ϕ(s)ds, t ∈ [0, T ], (3.14)
0
où Z t∧s
G(t, s) = S(t − r)BQB ∗ S ∗ (s − r)dr, t, s ∈ [0, T ] (3.15)
0
et t ∧ s = min{t, s}.
Preuve
Pour prouver (1) fixer 0 ≤ s ≤ t ≤ T , alors
Z t Z s
WA (t) − WA (s) = S(t − r)BdW (r) + [S(t − r) − S(s − r)]BdW (r).
s 0
∞
X Z s
+ λk |(S(t − s + r) − S(r))Bek |2 dr.
k=1 0
donc la partie initiale de (3) est vrai et de plus WA (·) peut être considérée comme une variable
aléatoire à valeurs dans H (voir[6]). Pour montrer que L (WA (·)) est symétrique et gaussienne
sur H = L2 (0, T, H), nous appliquons la proposition 3.1.1 et considérons la famille M suivante
de toutes les fonctionnelles (h ⊗ a) ∈ H ∗ = H , a ∈ H
Z T
(h ⊗ a)(ϕ) = h(t)ha, ϕ(t)idt, ϕ∈H.
0
Lemme 3.3.2.1. Si ξ(·) est un processus gaussien à valeur réelle, continu en moyenne carré
RT
alors pour un arbitraire h ∈ L2 (0, T, R1 ), 0 h(s)ξ(s)ds est une variable aléatoire gaussienne
N0,|h|2 .
Puisque
Z T
(h ⊗ a)(WA ) = h(t)ha, WA (t)idt, WA ∈ H
0
et ha, WA (·)i est un processus gaussien réel, continu en moyenne carré , avec moyenne 0, par la
proposition 3.1.1 L (WA (·)) est une distribution gaussienne symétrique sur H . Si ψ, ϕ ∈ H
alors Z T Z T
hQϕ, ψiH = E hϕ(s), WA (s)ids hψ(r), WA (r)idr
0 0
Z T Z T
= E(hϕ(s), WA (s)ihψ(r), WA (r)i)dsdr.
0 0
Puisque pour s > r
E(hϕ(s), WA (s)ihψ(r), WA (r)i)
Z T Z T Z s Z r
= E hϕ(s), S(s − σ)BdW (σ)i hψ(r), S(r − ρ)BdW (ρ)idsdr
0 0 0 0
Z T Z T Z s∧r
= hQB ∗ S ∗ (s − σ)ϕ(s), B ∗ S ∗ (r − σ)ψ(r)idσdsdr
0 0 0
Z T Z T
= hG(s, r)ϕ(s), ψ(r)idsdr,
0 0
Théorème 3.4.1. Supposons les hypothèses 3.3.1, 3.3.1, et (3.12). Alors l’équation (3.10) a
éxactement une solution faible qui est donnée par la formule
Z t Z t
X(t) = S(t)ξ + S(t − s)f (s)ds + S(t − s)BdW (s), t ∈ [0, T ] (3.16)
0 0
On peut donc supposer, sans perte de généralité, que ξ = 0 et f ≡ 0. Pour prouver l’existence,
nous montrons que l’équation (3.10) avec ξ = 0 et f ≡ 0 est satisfaite par le processus WA (·).
On fixe t ∈ [0, T ] et soit ζ ∈ D(A∗ ). On note que
Z t Z t Z t
∗ ∗
hA ζ, WA (s)ids = A ζ, 1[0,s] (r)S(s − r)BdW (r) ds
0 0 0
et par conséquent,
Z t Z tZ t
∗ ∗ ∗ ∗
hA ζ, WA (s)ids = 1[0,s] (r)B S (s − r)A ζds, dW (r)
0 0
Z t Z t
0
∗ ∗ ∗
= B S (s − r)A ζds, dW (r)
Z0 t Zr t
d ∗ ∗
= B S (s − r)ζ ds, dW (r)
Z0 t r ds Z t
∗ ∗
= hB S (t − r)ζ), dW (r)i − hB ∗ ζ, dW (r)i
0 0
= hζ, WA (t)i − hζ, BW (t)i.
Donc WA (·) est une solution faible.
Lemme 3.4.1. Soit X une solution faible du problème (3.10) avec ξ = 0, f ≡ 0. Donc, pour
une fonction arbitrairement ζ(·) ∈ C 1 ([0, T ], D(A∗ )) et t ∈ [0, T ], nous avons
Z t Z t
0 ∗
hX(t), ζ(t)i = [hX(s), ζ (s) + A ζ(s)i]ds + hζ(s), BdW (s)i.
0 0
Preuve
Considérons tout d’abord les fonctions de la forme ζ = ζ0 ϕ(s), s ∈ [0, T ], où ϕ ∈ C 1 ([0, T ]) et
ζ0 ∈ D(A∗ ). Soit Z t
Fζ0 (t) = hX(s), A∗ ζ0 ids + hBW (t), ζ0 i.
0
En particulier
Z t Z t
Fζ0 (t)ϕ(t) = hζ(s), BdW (s)i + [ϕ(s)hX(s), A∗ ζ0 i + ϕ0 (s)hX(s), ζ0 i]ds.
0 0
Puisque Fζ0 (·) = hX(·), ζ0 i, P − P.s le lemme est prouvé pour la fonction spéciale ζ(t) = ζ0 ϕ(t).
Puisque ces fonctions sont linéairement denses dans C 1 ([0, T ], D(A∗ )) le lemme est vrai en géné-
ral. 2
Soit X une solution faible et soit ζ0 ∈ D(A∗ ). En appliquant le lemme 3.4.1 à la fonction
ζ(s) = S ∗ (t − s)ζ0 , s ∈ [0, t], nous avons
Z t
hX(t), ζ0 i = hS(t − s)BdW (s), ζ0 i
0
et, puisque D(A∗ ) est dense dans H, nous trouvons que X = WA . La preuve est complète. 2
où a(·) est une mesure finie à matrice N × N sur [−r, 0], f : [0, +∞) −→ RN est une fonction
localement intégrable, h0 ∈ RN , h1 ∈ L2 (−r, 0, RN ) et r est un nombre positif représentant le
retard. De la même manière que dans le cas déterministe (voir section 3.2), on peut associer à
l’équation (3.17) une équation linéaire stochastique :
dX = AXdt + Bf (t)dt + BdW (t)
(3.18)
h
0
X(0) =
h 1
I
sur l’espace H = RN ⊕ L2 (−r, 0, RN ) où le générateur A est donné par (3.9) et B = .
0
N
Dans la situation actuelle, U est égal à R . Evidemment (3.12) est rempli dans ce cas et
donc l’équation (3.18) comme une solution faible unique. Il a été montré par plusieurs auteurs
[voir([5],[7],[31]] sous différents ensembles d’hypothèses que X(t) = (z(t), zt ), t > 0, où z et zt
sont les solutions de l’équation (3.17) et son segment, respectivement. Ce fait est important
dans l’application des systèmes de retard pour contrôler les problèmes et la stabilité.
En tenant compte du fait que les trajectoires de la partie de convolution stochastique dans (3.19)
ne sont jamais absolument continues, nous pouvons voir que dans ce cas la solution faible de
(3.19) n’est jamais forte. 2
Équations linéaires avec bruit additif 67
Nous sommes maintenant préoccupés par l’existence de solutions fortes à (3.10). Puisque
(BW (t))t≥0 , devrait être un processus à valeur dans H, nous supposerons que B = I et que W
est un processus de Wiener à valeur dans H avec l’opérateur de covariance Q avec T r Q < +∞.
Nous sommes donc concernés par l’équation
Z t
X(t) = x + (AX(s) + f (s))ds + W (t), t ∈ [0, T ]. (3.20)
0
Comme les solutions fortes sont aussi des solutions faibles, nous savons qu’elles devraient être
de la forme
Z t Z t
X(t) = S(t)x + S(t − s)f (s)ds + S(t − s)dW (s), t ∈ [0, T ]. (3.21)
0 0
Preuve
Le résultat est vrai si f = 0, W = 0, par la proposition 3.1.2. Supposons maintenant que
x = 0, W = 0. Pour tout t ∈ [0, T ] on a
Z t Z t
|AS(t − σ)f (σ)|dσ ≤ kS(t − σ)k |Af (σ)|dσ < +∞,
0 0
Rt
et donc, par Proposition 3.1.4 X(t) ∈ 0 S(t − σ)f (σ)dσ ∈ D(A) et
Z t
AX(t) = AS(t − σ)f (σ)dσ, t ∈ [0, T ].
0
De plus Z t Z tZ s
AX(s)ds = AS(s − σ)f (σ)dσ ds
0 0 0
Z tZ t−σ
d
= S(s)f (σ)ds dσ
0 0 ds
Z t Z t
= S(t − σ)f (σ)dσ − f (σ)dσ
0 0
Z t
= X(t) − f (σ)dσ, t ∈ [0, T ].
0
Équations linéaires avec bruit additif 68
Z t
1
≤ kAQ k 2
2
kS(s)k2L2 ds < +∞.
0
Puisque WA (·) est une solution faible de (3.10), pour t ∈ [0, T ] et ζ ∈ D(A∗ ), P − P.s.
Z t
hWA (t), ζi = hWA (s), A∗ ζids + hW (t), ζi
0
Z t
= hAWA (s), ζids + hW (t), ζi
0
Z t
= hA WA (s), ζi + hW (t), ζi.
0
Par conséquent Z t
WA (t) = AWA (s)ds + W (t), P − P.s.
0
Théorème 3.4.3. Supposons que A génère un semigroupe analytique de type négatif. Soit en
plus
Équations linéaires avec bruit additif 69
1 1
1. pour certains β ∈ ( 21 , 1), Q 2 (H) ⊂ D((−A)β ) et (−A)β Q 2 est un opérateur de Hilbert
Schmidt,
es concepts de base sur lesquels s’appuie la théorie des équations différentielles stochas-
L tiques, du moins celles gouvernées par des bruits gaussiens, sont celui du processus de
Wiener à valeurs dans un espace de Hilbert et celui de l’intégrale stochastique associée. Le
premier joue le rôle de mouvement brownien à valeurs dans un espace de dimension infinie.
Le second va permettre de donner un sens, du point de vue de l’analyse, au produit entre des
fonctions dont la régularité en temps est très différente.
Dans ce mémoire, j’ai réalisée une étude sur deux processus récemment définis : le processus
Q-Wiener et le Processus de Wiener généralisés. En premier lieu, on a définit ces deux proces-
sus et étudié leurs propriétés sur les espaces de Hilbert. Par ailleurs, on a rappelé les notions
des bases. Ensuite,on a définit l’intégrale stochastique par rapport aux processus Q-Wiener
et le processus de Wiener généralisés, puis on a étudié leurs approximations et propriétés des
intégrales stochastiques. Certains théorèmes connus ont été établis comme celui de Fubini, la
formule d’Itô.
Enfin, on a éffectué une étude sur les équations linéaires avec bruit additif. Nous avons
établi l’existence et l’unicité des solutions des équations différentielles stochastiques dans des
espaces de dimension infinie, des différentes notions de solutions sont établies (solutions faibles
et fortes).
70
Annexe
71
Annexe A
et T a la représentation
∞
X
Tx = aj ϕj (x), x ∈ E.
j=1
est un espace de Banach (voir[9]), et sera noté par L1 (E, G). Soit K un autre espace de Banach,
il est clair que si T ∈ L1 (E, G) et S ∈ L(G, K) alors T S ∈ L1 (E, K) et kT Sk1 ≤ kT kkSk1 .
Soit H un espace de Hilbert séparable et soit {ek } un système orthonormal complet dans H. Si
T ∈ L1 (H, H) alors nous définissons
∞
X
Tr T = hT ej , ej i.
j=1
72
Conclusion 73
Proposition A.1.1. Si T ∈ L1 (H) alors T r T est un nombre bien défini indépendant du choix
de base orthonormale {ek }.
de plus
∞
X ∞ X
X ∞
|hT ek , ek i| ≤ |hek , aj ihek , bj i|
k=1 j=1 k=1
∞ X
X ∞ 21 X
∞ 12
2 2
≤ |hek , aj i| |hek , bj i|
j=1 k=1 k=1
∞
X
≤ |aj ||bj | < +∞
j=1
Puisque
∞
X ∞ X
X ∞ ∞
X
hT ek , ek i = hek , aj ihek , bj i = haj , bj i,
k=1 j=1 k=1 j=1
T r T S = T r ST ≤ kT k1 kSk (A.3)
Proposition A.1.2. Un opérateur non négatif T ∈ L(H) est a trace si et seulement si pour
une base orthonormale {ek } sur H.
∞
X
hT ej , ej i < ∞.
j=1
Conclusion 74
∞ ∞
1
X X
2
≤ |x| |T ej | ≤ |x|
2 hT ek , ek i, x ∈ H.
k=N +1 k=N +1
1
Donc l’opérateur T 2 est une limite, dans la norme d’opérateur, des opérateurs de rang fini.
1 1 1
Donc T 2 est compact et T = T 2 T 2 est aussi un opérateur non négatif compact. Soit {fj } une
suite de tous les vecteurs propres de T et soit {λj } la suite correspondante des valeurs propres.
Alors
∞
X
Tx = λk hx, fk ifk , x ∈ H. (A.4)
k=1
Puisque
∞
X
hT ej , ej i = λk |hfj , ek i|2 ,
k=1
on a
∞
X ∞ X
X ∞ ∞
X
hT ej , ej i = λk |hfj , ek i|2 = λk < +∞.
j=1 j=1 k=1 k=1
∞
X
De ceci et des accroissements (A.4) on a que T a trace et T r T = λk . De (A.2) et (A.4) ,
k=1
l’identité T r T = kT k1 suit. 2
Soient E et F deux espaces de Hilbert séparables avec des bases orthonormées complets
{ek } ⊂ H, {f }j ⊂ F , respectivement. Un opérateur linéaire bornée T : H → E est dit Hilbert-
Schmidt si
∞
X
|T ek |2 < ∞.
k=1
Puisque
∞
X ∞ X
X ∞ ∞
X
2
|T ek | = |hT ek , fj i| = 2
|T ∗ fj |2 ,
k=1 k=1 j=1 k=1
∞
X 21
2
la définition de l’opérateur Hilbert-Schmidt, et le nombre kT k2 = |T ek | , est indépen-
k=1
dant du choix de la base {ek }. De plus kT k2 = kT ∗ k2 .
On peut facilement vérifier que l’ensemble L2 (E, F ) de tous les opérateurs de Hilbert-
Schmidt de E dans F , muni de la norme,
∞
X 21
2
kT k2 = |T ek | ,
k=1
La double suite des opérateurs {fj ⊗ ej }j,k∈N est une base orthonormale complète dans
L2 (E, F ) 1 .
kST k1 ≤ kSk2 kT k2 .
Preuve
On note que
∞
X
ST x = hT x, fj iSfj , x ∈ E.
k=1
∞
X 21 X
∞ 12
∗ 2 2
≤ |T fj | |Sfj | .
j=1 j=1
1. Pour arbitrairement b ∈ E, a ∈ F on note par b⊗a l’opérateur linéaire défini par (b⊗a)·h = ha, hib, h ∈ F.
75
Annexe B
L’intégrale de Bochner
n
X
ε := {f : Ω → X|f = xk 1Ak , xk ∈ X, Ak ∈ F, 1 ≤ k ≤ n, n ∈ N}
k=1
Z
kf kε := kf kdµ, f ∈ ε.
Pour obtenir que (ε, k kε ) est un espace vectoriel normé, nous considérons les classes d’équiva-
lence par rapport à k kε . Pour la simplicité, nous ne changerons pas les notations.
76
Conclusion 77
R R
qui est linéaire et uniformément continue puisque k f dµk ≤ kf kdµ pour tous f ∈ ε.
Par conséquent, nous pouvons étendre l’application int à Complet abstrait de ε par rapport
à k kε que nous donnons par ε.
Définition B.1.1. Une fonction f : Ω → X est appelée fortement mesurable si elle est mesu-
rable de Borel et si f (Ω) ⊂ X est séparable.
Définition
B.1.2. Soit 1 ≤ p < ∞. donc, nous définissons Lp (Ω, F, µ, X) := Lp (µ, X) :=
R
f : Ω → X|f est fortement mesurable par rapport à F et kf kp dµ < ∞ et la semi-norme
Z p1
kf kLp := p
kf k dµ , f ∈ Lp (Ω, F, µ, X). L’espace de toutes les classes d’équivalence dans
Lp (Ω, F, µ, X) par rapport à k kLp est noté Lp (Ω, F, µ, X) := Lp (µ, X).
Proposition B.1.1. Soit (Ω, F) un espace mesurable et soit un X espace Banach. alors
(1) l’ensemble des fonctions mesurables de Borel de Ω à X est fermé sous le développement
de limites ponctuelles, et
(2) l’ensemble des fonctions fortement mesurables de Ω à X est fermé sous le développement
de limites ponctuelles.
Etape 2 : ε est un sous-ensemble dense de L1 (Ω, F, µ, X) par rapport à kkL1 . Cela peut être
montré à l’aide du lemme suivant
Lemme B.1.1. Soit E un espace métrique avec métrique d et que f : Ω → E soit fortement
mesurable. Alors il existe une suite fn , n ∈ N, de fonctions simples d’une valeur de E (i.e fn est
F/B(E)-mesurable et ne prend qu’un nombre fini de valeurs) tel que pour un arbitraire ω ∈ Ω
la suite d(fn (ω), f (ω)), n ∈ N est décroissante monotone vers zéro
Conclusion 78
fm (ω := ekm (ω)
De plus, par la densité de {ek , k ∈ N}, la suite dm (ω), m ∈ N, est décroissante monotone vers
zéro pour un arbitraire ω ∈ Ω. Puisque d(fm (ω), f (ω) = dm (ω) l’assertion verifiée. 2
Soit maintenant f ∈ L1 (µ, X). Par le lemme B.1.1 ci-dessus nous obtenons l’existence d’une
suite de fonctions simples fn , n ∈ N, telles que
2
Conclusion 79
Proposition B.2.3. (Théorème fondamental). Soit −∞ < a < b < ∞ et f ∈ C 1 ([a, b], X).
Alors R
1[s,t] (u)f 0 (u)du si s ≤ t
t
Z
f (t) − f (s) = f 0 (u)du :=
s
− R 1 (u)f 0 (u)du,
si non.
[t,s]
Preuve
Rt
Prétendre 1 :Si nous posons F (t) = s
f 0 (u)du, t ∈ [a, b], nous obtenons ce F 0 (t) = f 0 (t) pour
tout t ∈ [a, b].
Pour cela, nous devons prouver que.
1
k (F (t + h) − F (t)) − f 0 (t)kE −→ 0
h −→∞
A cette fin nous fixons t ∈ [a, b] et prenons un arbitraire ε > 0. Puisque f 0 est continu sur [a, b],
il existe δ > 0 tel que kf 0 (u) − f 0 (t)kE < ε pour tout u ∈ [a, b] avec |u − t| < δ. Donc, nous
obtenons que
Z t+h
1 1
k (F (t + h) − F (t)) − f 0 (t)kE = k f 0 (u) − f 0 (t)dukE
h h t
Z t+h
1
≤ kf 0 (u) − f 0 (t)kE du < ε
h t
Définition C.1.2. On appelle C0 -semigroupe d’opérateurs linéaires bornés sur E une famille
(S(t))t≥0 ⊂ B(E) vérifiants les propriétés suivantes :
a) S(0) = I,
Soit S(t) ⊂ B(E) un C0 -semigroupe sur un espace de Banach E. Donc, il existe des
constantes ω ≥ 0 et M ≥ 1 telles que
80
Conclusion 81
• Si pour tout x ∈ X, application t → S(t)x est différentiable pour t > 0, alors S(t) est appelé
un semigroupe différentiable.
• Un semigroupe d’opérateurs linéaires {S(t)}t≥0 est appelé compact si les opérateurs (S(t))t>0
sont compacts.
par :
S(t)x − x
Ax = lim+ , ∀ x ∈ D(A).
t→0 t
Remarque C.1.1. Le générateur infinitésimal d’un C0 -semigroupe est un opérateur linéaire.
Théorème C.1.1. Soit A un générateur infinitésimal d’un C0 -semigroupe S(t) sur un espace
de Banach E : Alors
1) Pour x ∈ E, Z t+h
1
lim S(t)xds = S(t)x.
h→0 h t
d
S(t)x = AS(t)x = S(t)Ax
dt
Rt
3) Pour x ∈ E, 0
S(s)xds ∈ D(A), et
Z t
A S(s)xds = S(t)x − x.
0
4) Pour x ∈ D(A), Z t Z t
S(t)x − S(s)x = S(u)Axdu = AS(u)xdu
s s
7) Soit E un espace de Banach réflexive. Alors le semigroupe adjoint S(t)∗ de S(t) est un
C0 -semigroupe dont le générateur infinitésimal est A∗ , l’adjoint de A.
S(t)Ax = AS(t)x, ∀t ≥ 0.
S(h)S(t)x − S(t)x
= lim+
t→0 h
Donc S(t)x ∈ D(A) et on a S(t)Ax = AS(t)x, ∀t ≥ 0.
S(t)D(A) ⊆ D(A), ∀t ≥ 0.
(1) A est le générateur infinitésimal d’un C0 -semigroupe S(·) tel que kS(t)k ≤ M eωt , t ≥ 0.
(2) D(A) est dense dans E, l’ensemble résolvant σ(A) contient l’intervalle (ω, +∞) et les
estimations suivantes
Finalement
S(t)x = lim etAn , ∀x ∈ E,
n−→∞
Les opérateurs An = AJn où Jn = nR(n, A), n > ω, sont appelés les approximations Yosida
de A.
Annexe D
Z
1
S(t) = eλt R(λ, A)dλ, t > 0. (D.2)
2πi γξ,θ
Pour étudier les propriétés de régularité de solutions aux problèmes de Cauchy, il est com-
mode d’introduire plusieurs domaines de sous-espaces de E. Pour simplifier la notation, nous
supposons, en plus de l’hypothèse D.0.1, que le semigroupe S(·) est de type négatif, ce qui
signifie que ω < 0. Pour tout α ∈ (0, 1), nous définissons
Z
−α 1
(−A) x = (−λ)α R(λ, A)xdλ, t ≥ 0, x ∈ E
2πi γε,θ
83
Conclusion 84
Les opérateurs (−A)α sont appelés puissances fractionnaires de −A. Le premier domaine
des sous-espaces de E est pourvu par
Par (D.2) nous obtenons une formule de représentation pour (−A)α S(·) qui sera souvent utilisée.
Proposition D.0.2. Soit A un opérateur linéaire satisfaisant l’hypothèse D.0.1 avec ω < 0.
Alors pour tout α ∈ (0, 1) et t > 0 on a S(t)x ∈ D((−A)α ), ∀x ∈ E et
Z
α 1
(−A) S(t)x = eλt (−λ)α R(λ, A)xdλ. (D.3)
2πi γε,θ
Nous aurons besoin de deux autres domaine d’espaces liés à la théorie dite d’interpolation.
Pour toute α ∈ (0, 1) nous définissons
et on note par DA (α, ∞) l’espace de Banach de tous les x ∈ E tel que kxkα,∞ < +∞, muni de
la norme k · k + k kα,∞ . nous définissons
Enfin nous définissons les espaces DA (α, 2), pour tout α ∈ (0, 21 ]
Z ∞
2 1−2α 2
DA (α, 2) = x ∈ E : |x|α = ξ |AS(ξ)x| dξ < ∞ . (D.5)
0
Pour α ∈ ( 12 , 1)
Z ∞
2 3−2α 2 2
DA (α, 2) = x ∈ E : |x|α = ξ |A S(ξ)x| dξ < ∞ . (D.6)
0
Conclusion 85
Il résulte des définitions (D.5), (D.6) que la restriction de S(·) à DA (α, 2) est un semigroupe de
contractions dans DA (α, 2) pour tout α ∈ (0, 1). En fait, si α ∈ (0, 12 ), nous avons
Z ∞
2
|S(t)x|α = (η − t)1−2θ |AS(η)x|2 dη ≤ |x|2α ,
t
Proposition D.0.3. Soit A un opérateur linéaire qui verifié l’hypothèse D.0.1 avec ω < 0, et
soit θ ∈ (0, 1). Donc, les inclusions suivantes sont satisfaites :
Preuve. Soit x ∈ D((−A)θ ), alors par (D.4) il existe C > 0 tel que
Supposons, à l’inverse, que x ∈ DA (θ, ∞). Donc, en rappelant (C.2), il n’est pas difficile de
montrer qu’il existe une constante C1 (x) telle que
Maintenant, soit ε ∈ (0, θ), alors il est facile de montrer que x ∈ D((−A)θ−ε ) et
Z
θ−ε 1
(−A) x = λθ−ε−1 AR(λ, A)xdλ.
2Πi γε,θ
Remarque D.0.3. Nous aurons besoin du résultat d’inclusion suivant, voir [[29], Lemme 1.1] :
\
C 1,α ([0, T ], E) C α ([0, T ], D(A)) ⊂ C 1+α−β ([0, T ], DA (β, ∞)),
Proposition D.0.4. Soit H est un espace de Hilbert et soit A le générateur infinitésimal d’un
C0 -semigroupe analytique S(·) de type négatif. Alors pour tout θ ∈ (0, 1) et tout ε ∈ (0, θ)
l’inclusion suivante est vérifié
D((−A)θ ) ⊂ DA (θ − ε, 2).
Preuve. Nous remarquons d’abord que (D.4) il existe deux constantes C > 0 et α > 0
telles que
k(−A)1−θ S(t)k ≤ Ctθ−1 e−αt , t ≥ 0.
Proposition D.0.5. Supposons qu’il existe γ ∈ (0, 1) tel que D((−A)θ ) soit isomorphe à
D((−A∗ )θ ), ∀θ ∈ (0, γ), où A∗ désigne l’adjoint de A. Alors DA (θ, 2) est isomorphe à D((−A)θ )
pour tout θ ∈ (0, 1).
Remarque D.0.5. L’hypothèse de la proposition D.0.5 est vérifié si S(·) est un semigroupe de
contraction (voir [22]), et en particulier si A est auto-adjoint négatif
−1
≤ |(−A) 2 x|2DA ( 1 ,2) ,
2
1
et la conclusion suit puisque D((−A) 2 ) est isomorphe à DA ( 21 , 2). 2
Bibliographie
[7] M. C. Delfour. The Largest Class of Hereditary Systems Defining a C0 -Semigroup on The
Product Space, Can. J. Math.,32, no. 4,969-978. (1980).
[8] M. C. Delfour, and S. K. Mitter, Hereditary differential systems with constant delays. I.
General case. J. Differential Equations 12 (1972), 213-235 ; erratum, ibid. 14 (1973), 397.
[9] Y. Dunfordn, J. T. Schwartz. Linear Operators. Part II : Spectral Theory. Self Adjoint
Operators in Hilbert Space (with the assistance of G. William Bade and G.Robert Bartle),
Interscience Publishers John Wiley y Sons, (1963).
88
Conclusion 89
[12] I. I. Gikhman. A method of constructing random processes, Dokl.Acad. Nauk, SSSR, 58,
961-964. (1946).
[16] K. Itô. Differential Equations Determining Markov processes. Zenkoku Shijo Sugaku Dan-
wakai, 244, 1352-1400 (1942).
[17] K. Itô. Stochastic Integral. Proc. Imp. Acad. Tokyo,20, 519-524 (1944).
[18] K. Itô. Stochastic Differential Equations. Memoirs of the Amer. Math. Soc. 4(1951).
[21] J. P. Kahane. Le mouvement Brownien, Un essai sur les origines de la théorie mathéma-
tique Société Mathématique de France 1998, p.123-155 .
[23] I. Kanratzas and S. E. Shreve : Brownian Motion and Stochastic Calculus, Springer-Verlag,
New York, 1988.
[26] O. Lévêque, EPFL, Cours de Probabilites et Stochastic Calculus, Semestre d’hiver 2004-
2005.
[29] A. Lunardi On the evolution operator for abstract parabolic equations, Isr. J. Math., 60,
no. 3, 281-314,(1987).
[32] A. Pazy, Semigroups of Linear Operators and Applications to Partial Differential Equa-
tions, Springer-Verlag, (1983).
[35] A. Yagi. Coincidence entre des espaces d’interpolation et des domaines de puissances frac-
tionnaires d’pérateurs, C. R. Acad. Sci. Paris, Sér. I, 299, no. 6. 173-176 ; (1984).