Talia Memoire

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 90

République Algérienne Démocratique et Populaire

Ministère de l’enseignement supérieure et de la recherche scientifique


N˚ Attribué par la bibliothèque

Année univ.: 2017/2018

Calcul Stochastique en Dimension Infinie


Mémoire présenté en vue de l’obtention du diplôme de

Master Académique

Université de Saida - Dr Moulay Tahar


Discipline : MATHEMATIQUES
Spécialité : Analyse Stochastiques, Statistique des Processus et
Applications
par

Daoudi Talia 1
Sous la direction de

Dr. L. Bousmaha

Soutenu le 21/06/2018 devant le jury composé de

Dr. M. kadi Université Dr Tahar Moulay - Saïda Président


Dr. L. Bousmaha Université Dr Tahar Moulay - Saïda Encadreur
Dr. S. Idrissi Université Dr Tahar Moulay - Saïda Examinatrice
Dr. N. Ait Ouali Université Dr Tahar Moulay - Saïda Examinatrice

1. e-mail : [email protected]
Remerciement

En Préambule de ce travail, je remercie le bon dieu qu’il m’a donné la santé, le courage
et la volonté pour réaliser ce travail

Je tiens à remercier tout particulièrement mon encadreure, Dr. Lamia Bousmaha,


pour ses conseils, sa grande disponibilité et sa générosité. La pertinence de ses questions et de
ses remarques ont toujours su me motiver et me diriger.

Qu’elle trouve ici le témoignage de ma profonde gratitude.

Je voudrais également remercier tous les membres de jury, Dr. Mokhtar Kadi de m’avoir
honorée en acceptant de présider le jury, Dr. Soumia Idrissi et Dr. Nadia Ait Ouali d’avoir
accepté d’examiner ce modeste travail, merci pour toutes leurs remarques et critiques.

J’exprime mes remerciements à tous mes enseignants du département de Mathématiques


qui m’ont initié aux valeurs authentiques, en signe d’un profond respect et d’un profond amour,
ainsi que le personnel de l’administration.
Je remercie tous les membres de laboratoire des Modéles Stochastique, Statistique et Applica-
tion pour leur accueil et leur sympathie.

Je remercie chaleureusement toute ma famille, qui m’a soutenu, encouragé et poussé


durant toutes mes années d’étude. Je voudrais exprimer mes sincères remerciements à mes
amis permanents, Ayhar Chafiaà et Abdelli wafaa, qui m’ont toujours entouré et m’ont motivé
à continuer à meilleure.
Tous ceux qui m’ont aidé ou soutenu de toute manière que ce soit.

Merci à tous

2
Dédicaces

Je dédie ce travail :
À celui ou celle qui m’a donné son affection et ses conseils durant toutes mes années
d’études , en particuliers
A ma très chère mère

Tu représente pour moi le symbole de la bonté par excellence, la source de tendresse et


l’exemple du dévouement qui n’a pas cessé de m’encourager et de prier pour moi.

A la grande dame qui a tant sacrifié pour nous, ma grand mère. Ta prière et ta bé-
nédiction m’ont été d’un grand secours pour mener à bien mes études.

Un spéciale dédicace a la grande dame qui a tant sacrifié pour moi, ma grand soeur
Zahra. Aucune dédicace ne saurait être assez éloquente pour exprimer ce que tu mérites.

Je dédie ce travail à Abdelli wafaa et Ayhar Chafiaà en témoignage de mon profond


amour.

A deux personnes qui m’ont donné leur confiance et leur soutien tout au long de mes
études, mon pére et mon frère Mokhtar.

A mes très chers frères et mes très chères soeurs qui m’ont encouragé sur le long de
mon parcour universitaire.

A tous les membres de ma famille , petits et grands, veuillez trouvez dans ce modeste
travail l’expression de mon affection.
A tous mes collègues de Master 2 ASSPA. Et enfin, à tous ceux qui me sont chers.

3
Table des matières

Remerciement 2

Dédicace 3

Introduction 7

1 Calcul stochastique en dimension finie 9


1.1 Quelques notions sur les processus stochastiques . . . . . . . . . . . . . . . . . . 9
1.1.1 Comparaisons de processus . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.2 Filtration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.3 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Le mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.2 Définition du mouvement Brownien . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Quelques propriétés du mouvement Brownien . . . . . . . . . . . . . . . 13
1.3 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.1 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Martingales à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Intégration stochastique (Intégrale d’Itô) . . . . . . . . . . . . . . . . . . . . . . 16
1.4.1 Intégrale stochastique par rapport à un mouvement Brownien . . . . . . 16
1.4.2 Intégrale stochastique par rapport à une martingale . . . . . . . . . . . . 20
1.5 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5.1 Formule d’Itô multidimensionnelle . . . . . . . . . . . . . . . . . . . . . . 21
1.5.2 Formule d’Itô unidimensionnelle . . . . . . . . . . . . . . . . . . . . . . . 21
1.6 Processus d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

4
TABLE DES MATIÈRES 5

2 Calcul stochastique en dimension infinie 23


2.1 Rappels et Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Mesure gaussienne sur un espace de Hilbert . . . . . . . . . . . . . . . . . . . . 26
2.3 Le processus de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.1 Processus de Wiener à valeurs dans un espace de Hilbert . . . . . . . . . 29
2.3.2 Processus de Wiener généralisés sur un espace de Hilbert . . . . . . . . . 32
2.4 Définition de l’intégrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.1 Intégrale stochastique pour les processus de Wiener généralisés . . . . . . 40
2.4.2 Approximations des intégrales stochastiques . . . . . . . . . . . . . . . . 42
2.5 Propriétés de l’intégrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . 43
2.6 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.7 Théorème stochastique de Fubini . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.8 Remarques sur la généralisation de l’intégrale . . . . . . . . . . . . . . . . . . . 54

3 Application aux EDS (Équations linéaires avec bruit additif ) 56


3.1 Rappels et Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2 Systèmes de retard (Exemple pour un système déterministe) . . . . . . . . . . . 58
3.3 Concepts de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3.1 Concept de solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3.2 Convolution stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.4 Existence et Unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4.1 Solutions faibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4.2 Solutions fortes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

Conclusion 70

Annexe 71

A Opérateurs nucléaires et Opérateurs Hilbert-Schmidt 72


A.1 Définition des opérateurs nucléaires et Hilbert-Schmidt . . . . . . . . . . . . . . 72

B L’intégrale de Bochner 76
B.1 Définition de l’intégrale de Bochner . . . . . . . . . . . . . . . . . . . . . . . . . 76
B.2 Propriétés de l’intégrale de Bochner . . . . . . . . . . . . . . . . . . . . . . . . . 78
TABLE DES MATIÈRES 6

C Théorie des C0 -semigroupes 80


C.1 Semigroupes de classe C0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

D puissances fractionnaires et espaces d’interpolation 83

Bibliographie 88
Introduction

e calcul stochastique est une branche à la croisée de probabilités et de l’analyse mathé-


L matiques qui s’occupe des phénomènes aléatoires dépendant du temps.
Le coeur des outils probabilistes réside dans le calcul stochastique, qui n’est rien autre qu’un
calcul différentiel, mais adapté aux trajectoires des processus stochastiques qui ne sont pas diffé-
rentiables. Le calcul différentiel présente une théorie de l’intégration d’un processus stochastique
(intégrant) par rapport à un autre (intégrateur), afin de résoudre des équations différentielles
stochastiques qui servent de modèle mathématique à des systèmes faisant intervenir deux types
de forces, l’une déterministe et l’autre aléatoire. Le processus le plus connu et largement utilisé
qui effectue ce calcul est le mouvement Brownien, il est utilisé en mathématiques financières, en
économie (par exemple en évolution des prix des actions et des taux d’intérêt obligatoires), en
mécanique quantique, en traitement du signal, en chimie, en météorologie, et même en musique.

La théorie de l’intégration des équations différentielles stochastiques a été développée par :


N. Wiener ([34]), en 1923, K. Iô ([16, 17, 18]), en 1942 ; 1944 ; 1951, P. Lévy ([27]), en 1948,
A. N. Kolmogorov ([24]), en 1931, W. Feller ([10]), en 1936,. . . La liste des articles et livres
connexes est très longue et nous ne le mentionnons pas ici en entier. La théorie la plus connue
du calcul stochastique est celle de K. Itô, le père de la théorie de l’intégration stochastique.

Dans ce mémoire, nous avons choisi de mettre l’accent sur les aspects liés à la théorie
de calcul stochastiques dans des espaces de dimension infinie. Pour cela, j’ai partagé mon
manuscrit en trois chapitres. Le premier chapitre, est consacrée à un bref rappel sur la théorie
de calcul stochastique en dimension finie. Nous avons voulu faire un tour d’horizon des concepts
et définitions. Le deuxième chapitre, est consacré au calcul stochastique dans des espaces de
dimension infinie, plus préçisement Hilbert, les concepts de base et les résultats concernant

7
Introduction 8

les processus stochastiques dans des espaces de Hilbert sont établis. Nous nous intéressons
à deux processus, le processus Q-Wiener et le processus de Wiener généralisés, Puis, nous
définissons l’intégrale stochastique par rapport a ces deux processus. Nous établissons également
les propriétés de base de l’intégrale stochastique, y compris la formule d’Itô et le théorème
stochastique de Fubini, en se basant sur [6]. Le dernier chapitre est dédié à l’étude des équations
différentielles stochastiques (équations linéaires avec bruit additif), commençons par définir les
différents concepts de solutions. Puis, on a démontré l’existence et l’unicité de solution faible
et solution forte.
Chapitre 1

Calcul stochastique en dimension finie

Ici (Ω, F, P) est un espace de probabilité complet.

1.1 Quelques notions sur les processus stochastiques


Définition 1.1.1. (Processus stochastique) Un processus stochastique X = (Xt )t∈T est une
famille de variables aléatoires Xt indexée par un ensemble T.
En général, T = R ou R+ et on considére que le processus est indexé par le temps t.
Si T est un ensemble fini, le processus est un vecteur aléatoire. Si T = N alors le processus est
une suite de variables aléatoires. Plus généralement quand T ⊂ Z, le processus est dit discret.
Pour T ⊂ Rd , on parle de champ aléatoire (drap quand d = 2).
Un processus dépend de deux paramétres : Xt (ω) dépend de t (en général le temps) et de l’aléa-
toire ω ∈ Ω.
– Pout t ∈ T fixé, ω ∈ Ω 7→ Xt (ω) est une variable aléatoire sur l’espace de probabilité
(Ω, F, P).
– Pour ω ∈ Ω fixé, t ∈ T 7→ Xt (ω) est une fonction à valeurs réelles, appelée trajectoire du
processus. C’est un enjeu que de savoir si un processus admet des trajectoires mesurables,
continues, dérivables ou encore plus réguliéres.

Définition 1.1.2. Un processus X = (Xt )t≥0 est mesurable si l’application (t, ω) 7−→ Xt (ω) de
R × Ω dans Rd est mesurable par rapport aux tribus B(Rd ) ⊗ F et B(Rd ).

9
calcul stochastique en dimension finie 10

1.1.1 Comparaisons de processus

Ètant donnés deux processus stochastiques X et Y définis sur un méme espace de probabilité
(Ω, F, P). Quand peut on dire X = Y ?
Au sens le plus fort ceci se passe si pour tous (t, ω) ∈ T × Ω on a Xt (ω) = Yt (ω).
Lorsque l’on travaille avec un espace de probabilité on peut avoir une définition moins restrictive
en faisant rentrer P en action :

Définition 1.1.1.1. On dira que deux processus X et Y sont indistinguables si et seulement


si
P(Xt = Yt , pour tout t ∈ T) = 1.

Autrement dit, les trajectoires de X et Y coincident partout presque sûrement. Cela reste encore
une définition trés forte. On peut affaiblir cette notion en

Définition 1.1.1.2. On dira que X est une modification (ou une version) de Y si et seulement
si pour tout t ∈ T
P(Xt = Yt ) = 1.

Autrement dit, pour tout t ∈ T les v.a. Xt est Yt sont presque sûrement égales.
Si X et Y sont indistinguables alors l’un est une modification de l’autre.

Proposition 1.1.1.1. Soient T un intervalle de R, X = (Xt )t∈T et Y = (Yt )t∈T deux processus
stochastiques continus alors :

X et Y sont indistinguables ⇐⇒ X est une modification de Y.

Preuve. voir [15].

1.1.2 Filtration

Définition 1.1.2.1. Une filtration (Ft )t≥0 est une suite croissante de sous tribus de F.
Si (Ft )t≥0 est une filtration de (Ω, F, P) alors (Ω, F, (Ft )t≥0 , P) est appelée un espace de proba-
bilite filtre.

Définition 1.1.2.2. 1. Si (Ft )t≥0 est une filtration alors on définit la filtration suivante
\ 
Ft+ = Fs .
s>t
calcul stochastique en dimension finie 11

2. On dit qu’une filtration est continue à droite si

∀t ≥ 0, Ft = Ft+

3. Soit N la classe des ensembles de F qui sont P-nègligeables. Si N ∈ F0 , on dit que la


filtration (Ft )t≥0 est complète.

4. On dit qu’une filtration (Ft )t≥0 satisfait les conditions habituelles si elle est a la fois
continue a droite et complète.

Définition 1.1.2.3. Un processus X = (Xt )t≥0 est adapté par rapport à la filtration (Ft )t≥0
si, pour tout t, Xt est Ft -mesurable.
Il est inutile de dire qu’un processus est toujours adapté par rapport à sa filtration naturelle.

Remarque 1.1.2.1. Si N ∈ F0 , et si X = (Xt )t≥0 est adapté par rapport à (Ft )t≥0 alors toute
modification de X est encore adaptée.

Définition 1.1.2.4. Un processus X = (Xt )t≥0 est progressivement mesurable par rapport
à (Ft )t≥0 si l’application (s, ω 7→ Xs (ω)) de [0, t] × Ω dans Rd est mesurable par rapport à
B([0, t]) ⊗ Ft et B(Rd ).

Un processus progressivement mesurable est mesurable et adapté. On peut également noter


que si X = (Xt )t≥0 est un processus mesurable et adapté alors il posséde une modification
progressivement mesurable.

1.1.3 Temps d’arrêt

Définition 1.1.3.1. Soit (Ft )t≥0 une filtration sur un espace de probabilité (Ω, F, P). Soit
maintenant T une variable aléatoire F-mesurable à valeurs dans R+ ∪ {+∞}. On dit que T est
un temps d’arrêt de la filtration (Ft )t≥0 si pour tout t ≥ 0,

{T ≤ t} ∈ Ft .

Définition 1.1.3.2. (Temps d’atteinte) Soit (Xt )t≥0 un processus continu adapté à une fil-
tration (Ft )t≥0 .
Soit
T = inf {t ≥ 0, Xt ∈ F },

où F est un sous-ensemble fermé de R. Alors T est un temps d’arrêt pour la filtration (Ft )t≥0 .
calcul stochastique en dimension finie 12

Définition 1.1.3.3. Soit T un temps d’arrêt d’une filtration (Ft )t≥0 . On note

FT = {A ∈ F, ∀t ≥ 0, A ∩ T ≤ t ∈ Ft }.

Alors FT est une tribu, appelée tribu des événements antérieurs à T .

Remarque 1.1.3.1. On vérifie facilement que FT est une tribu et que, si T est constant et
égal à t alors T est un temps d’arrêt et FT = Ft .

Si T est un temps d’arrêt d’une filtration pour laquelle un certain processus est adapté,
alors il est possible d’arrêter ce processus au temps T :

Proposition 1.1.3.1. Soient (Ft )t≥0 une filtration sur un espace de probabilité (Ω, F, P) et
T un temps d’arrêt de la filtration (Ft )t≥0 fini presque sûrement. Soit (Xt )t≥0 un processus
adapté à la filtration (Ft )t≥0 et progressivement mesurable. Alors le processus (Xt∧T )t≥0 est
progressivement mesurable par rapport à la filtration (Ft∧T )t≥0

Preuve. voir [1].

1.2 Le mouvement brownien

1.2.1 Historique

– 1828 : Robert Brown, botaniste, observe le mouvement du pollen en suspension dans


l’eau.
– 1877 : Delsaux explique que ce mouvement irrégulier est du aux chocs du pollen avec les
molécules d’eau (changements incessants de direction).
– 1900 : Louis Bachelier dans sa thèse "Théorie de la spéculation" modélise les cours de la
bourse comme des processus à accroissements indépendants et gaussiens (problème : le
cours de l’actif, processus gaussien, peut être négatif).
– 1905 : Einstein détermine la densité du MB et le lié aux EDPs. Schmolushowski le décrit
comme limite de promenade aléatoire.
– 1923 : Etude rigoureuse du MB par Wiener, entre autre démonstration de l’existence.
Un mouvement brownien généralement noté B pour Brown ou W pour Wiener.

Définition 1.2.1.1. Un processus X = (Xt )t∈T est un processus gaussien si toutes ses lois
de dimension fnie sont gaussiennes i.e.

∀n ≥ 1, ∀t1 < t2 < ...., tn ∈ T (Xt1 , ..., Xtn ) est un vecteur gaussien.
calcul stochastique en dimension finie 13

Définition 1.2.1.2. On dit que le processus X = (Xt )t≥0 est a accroissements indepen-
dants si :

∀n ≥ 1, ∀t1 < t2 < ...., tn ∈ T Xt1 , Xt2 − Xt1 ..., Xtn − Xtn−1 sont indépendantes.

1.2.2 Définition du mouvement Brownien

Définition 1.2.2.1. Le processus B = (Bt )t∈T est un mouvement Brownien sur (Ω, F, P) si et
seulement si

1. B est issu de 0, c’est-à-dire que, B0 = 0 P-presque sûrement,

2. B est à trajectoires continues,

3. B est à accroissement indépendants, c’est-à-dire que pour tous 0 = t0 < t1 < ... < tn , la
famille de variables aléatoires (Btn − Btn−1 , ..., Bt1 − Bt0 ) est indépendante,

4. pour tous 0 ≤ s < t ≤ T , Bt − Bs suit une loi gaussienne centrée de variance t − s.

Un processus gaussien (centré) est un processus tel que toutes les marginales fini-dimensionnelles
soient des vecteurs gaussiens (centrés), autrement dit tel que toute combinaison linéaire finie
de ses marginales fini-dimensionnelles soit gaussienne (centrée). La loi d’un processus gaussien
centré est caractérisée par sa fonction de covariance.

Proposition 1.2.2.1. B est un mouvement Brownien si et seulement si B est un processus


gaussien centré à trajectoires continues de fonction de covariance Cov(Bs , Bt ) = min(s, t).

Preuve. voir [25].

1.2.3 Quelques propriétés du mouvement Brownien

Soit B = (Bt )t≥0 un mouvement Brownien defini sur un espace de probabilite (Ω, F, P) alors

1. Symétrie.
Le processus (−B) = (−Bt )t≥0 est encore un mouvement Brownien

2. Changement d’échelle (scaling).


Soit C > 0. Le processus B C = (BtC )t≥0 avec BtC = ( C1 )(BC 2 t ) est encore un mouvement
Brownien.

3. Propriété de Markov simple.


(s)
Pour s ≥ 0, posons Fs := σ(Bu , u ≤ s) et Bt = Bt+s − Bs .
alors B (s) = (Bts )t≥0 est un mouvement Brownien independant de Fs .
calcul stochastique en dimension finie 14

4. inversion temporel
Soit (−B) = (−Bt )t≥0 est un mouvement Brownien. On pose t ≥ 0, Zt = tB 1 , alors (Zt )
t

est un mouvement Brownien.

1.3 Martingales

1.3.1 Espérance conditionnelle

Définition 1.3.1.1. Soit X variable aléatoire de l’espace L1 (Ω, A, P) 1 et B une sous tribu de
A. EP (X/B) est l’unique variable aléatoire de L1 (B) telle que
Z Z
∀B ∈ B, XdP = EP (X/B)dP
B B

Corollaire 1.3.1.1. Si X ∈ L2 (A), kXk22 = kEP (X/B)k22 + kX − EP (X/Bk22

1.3.2 Martingales à temps continu

Soit (Ω, F, (Ft )t≥0 , P) est un espace de probabilite filtré.

Définition 1.3.2.1. Soit X = (Xt )t≥0 un processus adaptè et intègrable, on dit que X est

1. Une martingale si  
∀ 0 ≤ s ≤ t, E Xt /Fs = Xs .

2. Une surmartingale si  
∀ 0 ≤ s ≤ t, E Xt /Fs ≤ Xs .

3. Une sousmartingale si
 
∀ 0 ≤ s ≤ t, E Xt /Fs ≥ Xs .

Définition 1.3.2.2. Un processus aléatoire X = (Xt )t≥0 est une F-martingale si

(i) X est F-adapté,

1. On note L1 (Ω, A, P ) l’ensemble des v.a. intégrables. on définit


 Z 
1
L (Ω, A, P) = X v.a.r / |x|dPX (x) < +∞
R
calcul stochastique en dimension finie 15

(ii) E[|Xt |] < ∞, pour tout t ∈ [0, T ],

(iii) E[Xt /Fs ] = Xs pour tout s, t ∈ [0, T ] tels que s ≤ t

Un processus X est une F-surmartingale (resp. une F-sousmartingale) s’il vérifie les pro-
priétés (i) et (ii) et E[Xt /Fs ] ≤ Xs (resp. E[Xt /Fs ] ≥ Xs ) pour tout s, t ∈ [0, T ] tels que
s ≤ t.

Remarque 1.3.2.1. Si (Xt )t∈T est une martingale alors E(Xt ) = E(X0 ) pour tout t ∈ T.

Théorème 1.3.2.1. Soit X un processus et ϕ une fonction convexe telle que E|ϕ(Xt )| < ∞,
pour tous t.

1. Si X une martingale alors ϕ(Xt ) est une sous martingale,

2. si X est une sousmartingale et ϕ est croissante (au sens large) alors ϕ(Xt ) est une sous
martingale.

Preuve. voir [20].

Définition 1.3.2.3. Soit X = (Xt )t≥0 un processus stochastique

1. On dit que X = (Xt )t≥0 est uniformement integrable si :


Z
lim sup |Xt |dP = 0.
α→+∞ t≥0 (|Xt |>α)

2. Si p ≥ 1, on dit que X = (Xt )t≥0 est bornè dans Lp si :

lim E[|Xt |p ] < ∞.


t≥0

Théorème 1.3.2.2. (Inégalité de Doob) Si X = (Xt )t≥0 une martingale continue a droite,
alors    
p p p
∀p > 1, E[| sup Xs | ] ≤ sup E[|Xs | ] .
0≤s≤t p − 1 0≤s≤t
Soit (Mt ) une martingale (par rapport à une filtration (Ft )) continue, de carré intégrable et telle
que M0 = 0 p.s. Alors
E(|Mt |)
(a) P( sup |Ms | ≥ λ) ≤ , ∀ t > 0, λ > 0.
0≤s≤t λ
(b) E( sup |Ms |2 ) ≤ 4E(|Mt |2 ), ∀ t > 0.
0≤s≤t

Preuve. voir [26].


calcul stochastique en dimension finie 16

1.3.3 Exemples

Le Brownien

Proposition 1.3.3.1. Le Mouvement Brownien Standard (Bt ) est une (Ft )t∈T -martingale (à
trajectoire) continue

Preuve

E(Bt+s /Ft ) = E(Bt /Ft ) + E(Bt+s − Bt /Ft )

= Bt + E(Bt+s − Bt )

= Bt

Proposition 1.3.3.2. Soit (Bt ) un M.B.S. les processus suivants sont des (Ft )t∈T -martingales :

1. Xt = Bt2 − t

2. Pour θ fixé Nt = Nt (θ) := exp(θBt − θ2 t/2).

Preuve. voir [20].

1.4 Intégration stochastique (Intégrale d’Itô)

1.4.1 Intégrale stochastique par rapport à un mouvement Brownien

Soit (Bt , t ∈ R+ ) un mouvement Brownien standard par rapport à (Ft , t ∈ R+ ).


Soit T > 0 fixé (6= temps d’arrêt). Notre but est de construire l’intégrale stochastique
Z t 
Hs dBs , t ∈ [0, T ] ,
0

pour un processus (Ht ) vérifiant certaines propriétés. Pour cela, on procède en plusieurs
étapes.

Premiére étape

Définition 1.4.1.1. Un processus simple prévisible (par rapport à une filtration (Ft )) est un
processus (Ht )t∈[0,T ] tel que
n
X
Ht = Xi 1]ti−1 ,ti [ ,
i=1
calcul stochastique en dimension finie 17

où 0 = t0 < t1 < .. < tn = T forme une partition de [0,T] et Xi est une v.a. Fti−1 -mesurable et
bornée, ∀i ∈ {1, ...., n}.

On voit donc que sur l’intervalle ]ti−1 , ti ], la valeur du procesus (Ht ) est déterminée par
l’information Fti−1 d’où le nom de "prévisible" (l’appellation "simple" vient quant à elle du fait
que le processus ne prend qu’un nombre fini de valeurs (aléatoires !)). On pose
Z T Xn
(H · B)T = Hs dBs = Xi (Bti − Bti−1 ).
0 i=1

Cette définition de l’intégrale stochastique pour des processus simples prévisibles est univoque
(mais ça demande un petit travail de vérification) et l’intégrale est linéaire en H, i.e.

((cH + K) · B)T = c(H · B)T + (K · B)T .

Proposition 1.4.1.1. On a les égalités suivantes :


    Z T 
2
E (H · B)T = 0 et E (H · B)T = E Hs2 ds .
0

Preuve. voir [26].


La seconde égalité ci-dessus est appelée l’isométrie d’Itô.
Remarquer que si H(t) ≡ 1, alors on retrouve l’égalité E(BT2 ) = T.

Remarque 1.4.1.1. Pour être tout à fait exact, l’isométrie d’Itô dit encore que si H et K sont
deux processus simples prévisibles, alors
  Z T 
E (H · B)T (K · B)T = E Hs Ks ds
0

Deuxiéme étape
Soit (Ht )t∈[0,T ] un processus simple prévisible comme défini ci-dessus et t ∈ [0, T ]. On pose
Z t   X n
(H · B)t ≡ Hs dBs = (H1[0,t] · B)T = (Bti ∧t − Bti−1 ∧t ).
0 i=1

A nouveau, cette intégrale est linéaire en H et on a par la proposition précédente :


 
E (H · B)T = 0

et     Z T  Z T 
2 2
E (H · B)t = ((H1[0,t] · B)T ) = E Hs2 1[0,t] (s)ds =E Hs2 ds .
0 0
De plus, en utilisant la remarque 1.4.1.1, on peut encore calculer
Z t∧s 
Cov((H · B)t , (K · B)s ) = E((H · B)t (K · B)s ) = E Hr Kr dr .
0
calcul stochastique en dimension finie 18

Remarque 1.4.1.2. Si t ∈]tk−1 , tk [, alors


k−1
X
(H · B)t = Xi (Bti − Bti−1 ) + Xk (Bt − Btk−1 ).
i=1

Proposition 1.4.1.2. Le processus ((H · B)t )t∈[0,T ] est une martingale continue de carré
intégrable.

Preuve
Par la remarque ci-dessus et la continuité de (Bt ), le processus (H · B)t est clairement continu
à l’intérieur des intervalles ]tk−1 , tk [. Aux points limites, il est aisé de vérifier que le processus
reste continu également. D’autre part, l’isométrie montrée plus haut dit que (H · B)t est un
processus de carré intégrable, donc par l’inégalité de Cauchy-Schwarz,

q
E(|(H · B)t |) ≤ E((H · B)2t ) < ∞.

De plus, si on suppose que t ∈]tk−1 , tk [, alors


k−1
X
E((H · B)T /Ft ) = E(Xi (Bti − Bti−1 /Ft )) + E(Xk (Btk − Btk−1 )/Ft )
i=1

i=k+1
X
+ E(Xi (Bti − Bti−1 /Ft ))
i=1

k−1
X
= Xi (Bti − Bti−1 ) + Xk E(Bt − Btk−1 /Ft )
i=1

i=k+1
X
+ E(Xi E(Bti − Bti−1 /Fti−1 )/Ft
i=1

k−1
X
= Xi (Bti − Bti−1 ) + Xk (Bt − Btk−1 ) + 0 = (H · B)t
i=1

par la remarque ci-dessus. Le processus (H · B)t est donc une martingale car pour t ≥ s, on a

E((H · B)t /Fs ) = E(E((H · B)T /Ft )/Fs ) = E((H · B)T /Fs ) = (H · B)s .

2
calcul stochastique en dimension finie 19

D’aprés l’inégalité de Doob 1.3.2.2 (b), on a donc :

    Z T 
2 2
E sup (H · B)t ≤ 4E (H · B)T = 4E Hs2 ds
t∈[0,T ] 0

Troisième étape
On étend maintenant l’intégrale (H · B) par continuité à l’ensemble


HT = (Ht )t∈[0,T ] : H est adapté, continu à gauche, limité à droite et tel que
Z T  
E Hs2 ds <∞ .
0
Cet ensemble est un espace vectoriel normé et complet (ou espace de Banach), muni de la
norme k · kT,1 définie par
Z T 
kHk2T,1 =E Hs2 ds .
0

Lemme 1.4.1. ∀H ∈ HT , il existe une suite (H (n) ) de processus simples prévisibles tels que
Z T 
(n) 2
E (Hs − Hs ) ds −→ 0.
0 n→∞

Conséquence : Du fait que la suite (H (n) ) converge, c’est également une suite de Cauchy :
Z T 
(n) m 2
E (Hs − Hs ) ds −→ 0
0 n,m→∞

Et donc, on a

   
(n) (m) 2 (n) (m) 2
E supt∈[0,T ] ((H · B)t − (H · B)t ) = E supt∈[0,T ] ((H − H ) · B)t )

 
RT (n) (m) 2
≤ 4E 0 ((Hs − Hs ) ds −→ 0.
n,m→∞

La suite de processus ((H (n) · B)) est donc une suite de Cauchy dans l’espace de Banach
MT défini par
 
MT = (Mt )t∈[0,T ] martingale continue de carré intégrable telle que M0 = 0

et muni de la norme k · kT,2 definie par

 
kM k2T,2 2
= E sup Mt .
t∈[0,T ]
calcul stochastique en dimension finie 20

1.4.2 Intégrale stochastique par rapport à une martingale


Rt Rt
On peut définir 0
Hs dMs de la même manière que 0
Hs dBs si on suppose que M est une
martingale continue de carré intégrable.
n
X
1. Pour (Ht ) un processus simple donné par Ht = Xi 1]ti−1 ,ti [ (t), on pose
i=1
Z t n
X
(H · M )t ≡ Hs dMs = Xi (Mti ∧t − Mti−1 ∧t )
0 i=1

et on vérifie que
    Z t 
2 2
E (H · M )t = 0, E (H · M )t = E Hs dhM is .
0

Remarquons que le terme ds apparaissant dans l’isométrie pour (H ·B)t a logiquement été
remplacé par dhM is pour tenir compte de la variation quadratique hM is de la martingale
qui n’est pas forcément égale à s.

D’autre part, on vérifie que le processus ((H · M )t )t∈[0,T ] est également une martingale
continue de carré intégrable.

2. L’extension de l’intégrale à un processus (Ht ) adapté, continu à gauche, limité à droite et


tel que Z t 
2
E Hs dhM is < ∞.
0
Rt
est identique à celle efectuée pour 0
Hs dBs .

Linéarité :((cH + K) · M )t = c(H · M )t + (K · M )t et (H · (M + N ))t = (H · M )t + (K · N )t .

    Z t 
2 2
E (H · M )t = 0, E (H · M )t = E Hs dhM is
0
Z t 
cov(H · M )t (K · N )t = E Hs Ks dhM, N is .
0
Z t 
h(H · M )t i = E Hs dhM is .
0
Z t 
h(H · M )t , (K · N )t i = Hs Ks dhM, N is .
0
Rt
"Régle" utile à retenir : si Xt = 0 Hs dMs (i.e dXt = Ht dMs „ alors dhXit = Ht2 dhM iT .
Rt
Noter que si Mt = 0 Ks dBs , alors
Z t Z t
Xt = Hs Ks dBs et hXit = Hs2 Ks2 ds
0 0
calcul stochastique en dimension finie 21

De même, vu que la proriété de martingale (continue de carré intégrable) est préservée, on peut
Rt
encore définir (L · X)t ≡ 0 Ls dXs ...etc.

1.5 Formule d’Itô


La formule d’Itô est l’un des principaux résultats de la théorie du calcul stochastique. Cette
formule offre un moyen de manipuler le mouvement Brownien ou les solutions d’équations
différentielles stochastiques (EDS).
(1) (n)
Soit n ≥ 1 un entier. Un processus (Bt = (Bt , ..., Bt ), t ≥ 0) issu de 0 est un (Ft )-mouvement
Brownien à valeurs dans Rd si B (1) , . . . , B (n) sont des (Ft )-mouvements Brownien indépendants.

1.5.1 Formule d’Itô multidimensionnelle

Pour n quelconque, soit f : Rn −→ R de classe C 2 ,


Z t d Z t Z t
X 1
f (t, Bt ) = f (0, 0) + ∂r f (r, Br )dr + ∂Xj f (r, Br )dBr + ∆f (r, Br )dr.
0 j=1 0 2 0

1.5.2 Formule d’Itô unidimensionnelle

Lorsque n = 1, soit f : R −→ R de classe C 2 ,


Z t Z t
1 t 00
Z
0
f (t, Bt ) = f (0, 0) + ∂r f (r, Br )dr + f (r, Br )dBr + f (r, Br )dr.
0 0 2 0

1.6 Processus d’Itô


Définition 1.6.1. Soit Bt = (Bt1 , ..., Btd ) un Ft -mouvement Brownien de dimension d ∈ N∗ .

1. On dit que (Xt ) est un Ft -processus d’Itô à valeurs dans R si pour tout t ≥ 0 il peut
s’écrire
Z t d Z
X t
Xt = X0 + Ls ds + Hsj dBsj . (1.1)
0 j=1 0

où X0 est une v.a. F0 -mesurable, Lt et Ht = (Ht1 , ..., Htd ) sont prévisibles et tels que
∀t ≥ 0, i = 1, .., d Z t Z t
|Ls |ds < ∞, (Hsi )2 ds < ∞.
0 0
calcul stochastique en dimension finie 22

Notation différentielle :
d
X
dXt = Ls ds + Hsj dBsj .
j=0

2. Un processus d’Itô de dimension n est un processus vectoriel X(t) = (Xt1 , ..., Xtn ) où
chaque composante est un processus d’Itô réel.

Exemples
Les processus suivants sont des processus d’Itô

1. Xt = h(t), h dérivable Z t Z t
0
Xt = h(0) + h (s)ds + 0dBs .
0 0

2. Xt = Bt , Brownien Z t Z t
Bt = 0 + 0ds + 1dBs .
0 0

3. La variation quadratique d’un processus d’Itô est un processus d’Itô


d
Z tX Z t
hXit = 0 + Hsj ds + 0dBs .
0 i=1 0

Propriété 1.6.1. Soit Xt un processus d’Itô à valeurs réelles de représentation 1.1. Alors
Rt
1. Si Yt est un processus d’Itô à valeurs réelles de représentation Yt = Y0 + 0 Js ds +
Xd0
(K j , B j )t alors
j=1
d∧d 0
X
hX, Y it = (K j , B j )t .
i=1

2. Formule d’Itô : soit f de classe C 2 on a


 d  d Z t
0 1 00 X
00
X
f (Xt ) = f (x0 ) + f (Xs )Ls + f (Xs ) (Hs ) ds + f (Xs Hsj dBsj ).
2 i=1 j=1 0
Chapitre 2

Calcul stochastique en dimension infinie

Soient H et U deux espaces de Hilbert séparables. Ce chapitre est consacré à la construction


de l’intégrale stochastique d’Itô
Z t
Φ(s)dW (s), t ∈ [0, T ],
0

où W (·) est un processus de Wiener sur un espace de Hilbert U et Φ est un processus avec
valeur qui sont des opérateurs linéaires mais pas nécessairement bornés de U dans un espace
de Hilbert H.

2.1 Rappels et Compléments


Un résultat important sur l’existence de modifications régulières est-il prévu par le théorème
suivant de Kolmogorov.

Théorème 2.1.1. Théorème de Kolmogorov


Soit X(t), t ∈ [0, T ], un processus stochastique avec des valeurs dans un espace métrique complet
(E, ρ) tel que pour certaines constantes C > 0, ε > 0, δ > 1, et toutes t, s ∈ [0, T ],

E (ρ(X(t), X(s)))δ ≤ C|t − s|1+ε



(2.1)

alors il existe une version de X avec P-presque toutes les trajectoires étant des fonctions conti-
ε
nues de Hölder avec un exposant arbitraire inférieur à . En particulier X a une version
δ
continue.

Preuve. voir [6].

23
L’intégrale stochastique 24

Théorème 2.1.2. Les arssertions suivantes sont satisfaites.

(1) Si (M (t))t∈I est une martingale à valeur dans E, I un ensemble dénombrable et p ≥ 1,


alors pour un arbitraire λ > 0,
 
P sup kM (t)k ≥ λ ≤ λ−p sup E(kM (t)kp ). (2.2)
t∈I t∈I

(2) Si en plus p > 1 alors,


   p
p p
E sup kM (t)k ≤ E sup(kM (t)kp ). (2.3)
t∈I (p − 1) t∈I

(3) Les estimations ci-dessus restent vraies si l’ensemble I est indénombrable et la martingale
M est continue.

Fixons un nombre T > 0 et désignons par M2T (E) l’espace de toutes les martingales M conti-
nues, carrées intégrables à valeurs dans E, telles que M (0) = 0. puisque kM (t)k2 , t ∈ [0, T ], est
une sous-martingale nous avons

EkM (t)k2 ≤ EkM (T )k2 t ∈ [0, T ].

Pour la preuve, voir, Da Prato and Zabczyk [6].

Proposition 2.1.1. Soit E un espace de Banach séparable. Supposons que {ξi }i∈N est une
suite de variables aléatoires indépendantes de valeur dans E avec des distributions symétriques.
Supposons qu’il existe une variable aléatoire S telle que, pour un arbitraire r > 0

lim P(kS − SN k ≥ r) = 0,
N →∞

où Sk = ξ1 , ...., ξk , k ∈ N. Puis

X
lim SN = S = ξk , P − P.s.
N →∞
k=1

Pour la preuve, voir, Da Prato and Zabczyk [6].

Proposition 2.1.2. (Théorème de Lévy)


Si M ∈ M2T (R), M (0) = 0 et hhM (t)ii = t, t ∈ [0, T ], alors M (·) est un processus de Wiener
standard adapté à Ft et avec M (s)−M (t), s > t, des acroissement indépendant de Ft , t ∈ [0, T ].

Pour la preuve, voir, Da Prato and Zabczyk [6]

Proposition 2.1.3. Supposons que K est un π-système et soit G la plus petite famille de sous-
ensembles de Ω tel que
L’intégrale stochastique 25

(1) K ⊂ G,

(2) si A ∈ G alors Ac ∈ G,
S∞
(3) si Ai ∈ G pour tout i ∈ N et An ∩ Am pour n 6= m, alors n=1 An ∈ G Alors G = σ(K).

Preuve. voir [6].

Lemme 2.1.1. Soit E un espace métrique séparable avec métrique ρ et soit X une variable
aléatoire à valeurs dans E. Alors il existe une suite {Xm } de variables aléatoires simples à
valeur dans E telle que, pour un arbitraire ω ∈ Ω, la suite {ρ(X(ω), Xm (ω))} est décroissante
de façon monotone à 0.

Preuve. voir [6].

Proposition 2.1.4. Supposons que E et F sont des espaces de Banach séparables et A :


D(A) ⊂ E → F est un opérateur fermé avec le domaine D(A) un sous-ensemble de Borel de
E. Si X : Ω → E est une variable aléatoire telle que X(ω) ∈ D(A), P-presque sûrement (P.s.),
alors AX est une variable aléatoire à valeur dans F , et X est une variable aléatoire à valeur
dans D(A), où D(A) est muni de la norme de graphe de A. 1 Si de plus
Z
kAX(ω)kP(dω) < +∞, (2.4)

alors Z Z
A X(ω)P(dω) = AX(ω)P(dω). (2.5)
Ω Ω

Preuve. voir [6].

Proposition 2.1.5. Soient (E1 , E1 ) et (E2 , E2 ) deux espaces mesurables et ψ : E1 × E2 → R1


une fonction mesurable bornée. Soient ξ1 , ξ2 deux variables aléatoires dans (Ω, F, P) avec des
valeurs dans (E1 , E1 ) et (E2 , E2 ) respectivement, et soit G ⊂ F la σ-algèbre fixé.

On suppose que ξ1 est G-mesurable alors il existe une fonction ψ(x


b 1 , ω), x1 ∈ E1 , ω ∈ Ω

bornée E1 × G-mesurable, telle que

E(ψ(ξ1 , ξ2 )|G)(ω) = ψ(ξ


b 1 (ω), ω), ω ∈ Ω. (2.6)

Si en plus ξ2 est indépendant de G, alors

ψ(x
b 1 , ω) = ψ(x
b 1 ) = E(ψ(x1 , ξ2 )), x 1 ∈ E1 . (2.7)
1. Si A est fermé, la norme de graphe sur D(A) est définie comme : pour tout x ∈ D(A), kxkD(A) :=
kxkE + kAxkF . Alors (D(A), k · kD(A) ) est un espace de Banach.
L’intégrale stochastique 26

Preuve. voir [6].

Proposition 2.1.6. Soit X(t), t ∈ [0, T ] un processus stochastique continu et adapté avec
des valeurs dans un espace de Banach séparable. Alors X a une modification progressivement
mesurable.
La σ-algèbre P∞ des sous-ensembles de [0, +∞) × Ω jouera un rôle important dans la suite.
P∞ est la σ-algèbre généré par des ensembles de la forme,

{(s, t] × F, 0 ≤ s < t < ∞, F ∈ Fs et {0} × F, F ∈ F0 }. (2.8)

Cette σ-algèbre est appelée la σ-algèbre prévisible et ses éléments sont des ensembles prévisibles.
La restriction σ-algèbre P∞ sur [0, T ] sera notée par PT .

Une application mesurable arbitraire de ([0, +∞)×, Ω, F∞ ) ou ([0, T )×Ω, FT ) dans (E, B(E))
est appelé un processus prévisible. Un processus prévisible est nécessairement un processus
adapté.

Pour la preuve, voir, Da Prato and Zabczyk [6].

2.2 Mesure gaussienne sur un espace de Hilbert


Dans cette section, nous montrons que pour les mesures gaussiennes sur les espaces de Hil-
bert, des informations plus précises peuvent être données.

Soit H est un espace de Hilbert séparable, une mesure de probabilité µ sur (H, B(H)) est
appelé Gaussienne si pour un arbitraire h ∈ H il existe m ∈ R1 , q ≥ 0 tel que,

µ({x ∈ H, hh, xi ∈ A}) = N (m, q)(A), ∀A ∈ B(R1 ) (2.9)

En particulier, si µ est gaussienne, les fonctionnelles suivantes,


Z
1
H→R , h→ hh, xiµ(dx), (2.10)
H
Z
1
H ×H →R , (h1 , h2 ) → hh1 , xihh2 , xiµ(dx), (2.11)
H

sont bien définis. Nous montrons maintenant qu’ils sont continus. Nous avons besoin d’un lemme
sur les mesures de probabilité générales.
L’intégrale stochastique 27

Lemme 2.2.1. Soit ν une mesure de probabilité sur (H, B(H)). Supposons que pour k ∈ N
Z k
hz, xi ν(dx) < +∞ ∀z ∈ H,
H

alors il existe une constante c > 0 telle que

Z
hh1 , xi...hhk , xiν(dx) ≤ c|h1 |...|hk |, h1 ...hk ∈ H
H

Pour la preuve, voir, Da Prato and Zabczyk [6].


Il résulte du lemme que si µ est gaussienne, alors il existe un élément m ∈ H et un opérateur
linéaire Q, tel que Z
hh, xiµ(dx) = hm, hi, ∀h ∈ H, (2.12)
H
Z
hh1 , x − mihh2 , x − miµ(dx) = hQh1 , h2 i, ∀h1 , h2 ∈ H. (2.13)
H

Le vecteur m est appelé la moyenne et Q est appelé l’opérateur de covariance de µ. Il est clair
que l’opérateur Q est symétrique. De plus, puisque
Z
hQh, hi = hh, x − mi2 µ(dx) ≥ 0, h ∈ H,
H

c’est aussi non négatif. Il résulte de (2.12) - (2.13) qu’une mesure gaussienne µ sur H avec la
moyenne m et la covariance Q a la caractéristique fonctionnelle suivante
Z
1
µb(λ) = eihλ,xi µ(dx) = eihλ,mi− 2 hQλ,λi , λ ∈ H.
H

elle est donc uniquement déterminé par m et Q. Elle est noté par N (m, Q).
Il s’avère que l’opérateur de covariance doit être nucléaire (voir l’annexe A pour la définition
et propriétés de base).

Proposition 2.2.1. Soit µ une mesure de probabilité gaussienne avec une moyenne 0 et cova-
riance Q. Alors Q a une trace finie.

Pour la preuve, voir, Da Prato and Zabczyk [6].


Il résulte de la preuve que T r(Q) = E|X|2 < +∞. Ainsi, la définition de l’opérateur de cova-
riance donnée ci-dessus est un cas particulier de la définition générale donnée à ([6]).

Dans les considérations suivantes on note {ek } une base orthonormale complète de H qui
diagonalise Q, et par {λk } l’ensemble correspondant de valeurs propres de Q. De plus, pour tout
L’intégrale stochastique 28

x ∈ H nous définissons xk = hx, ek i, k ∈ N. On note que les variables aléatoires x1 , x2 , ..., xn


sont indépendantes, parce que la matrice de covariance de la variable aléatoire (x1 , x2 , ..., xn ) à
valeur dans Rn est précisément (λi δij ).

Proposition 2.2.2. Soit Q un opérateur a trace positif et symétrique dans H et soit m ∈ H.


Alors il existe une mesure gaussienne dans H avec une moyenne m et covariance Q.

Pour la preuve, voir, Da Prato and Zabczyk [6].

Maintenant, nous allons commencer par rassembler des informations de base sur les pro-
cessus de Wiener dans un espace de Hilbert y compris les processus de Wiener cylindriques.
Donc, nous définissons l’intégrale stochastique par étapes commençant à partir des processus
élémentaires et aboutissant à la plus générale. Nous établissons également les propriétés de base
de l’intégrale stochastique, y compris la formule d’Itô et le théorème stochastique de Fubini.

2.3 Le processus de Wiener


Définition 2.3.1. Un processus stochastique W = (W (t))t≥0 à valeur réelle, est appelé un
processus de Wiener si

(1) W a trajectoires continues et W (0) = 0,

(2) W a accroissements indépendants et

L (W (t) − W (s)) = L (W (t − s)), t ≥ s ≥ 0,

(3) L (W (t)) = L (−W (t)), t ≥ 0,

De manière équivalente, voir par exemple [13], un processus stochastique (W (t))t≥0 à valeur
réelle, avec des trajectoires continues est appelé un processus de Wiener s’il est gaussien et il
existe σ ≥ 0 tel que,

E(W (t)) = 0, E(W (t)W (s)) = σ t ∧ s.

L’avantage de la définition 2.3.1 est qu’elle peut être généralisée naturellement aux processus
prendre des valeurs dans des espaces linéaires généraux E. Soit E un espace topologique linéaire
et soit B(E) le σ-algèbre généré par tous les sous-ensembles ouverts de E.
L’intégrale stochastique 29

Donc, un processus stochastique (W (t))t≥0 de valeur dans E, satisfaisant (1)-(3) est appelé
un processus de Wiener dans E.

Les cas les plus importants sont quand E est un espace de Hilbert ou un espace de Banach
de fonctions ou de distributions définies sur un sous-ensemble ∂ ⊂ R. Examinons quelques-unes
des classe avec quelques détails.

2.3.1 Processus de Wiener à valeurs dans un espace de Hilbert

Supposons que E est un espace de Hilbert séparable U, avec le produit scalaire h·, ·i et W
est un processus Wiener de valeur dans U. Donc, pour chaque u ∈ U , le processus

hW (t), ui, t≥0

est un processus de Wiener de valeurs réels. Ceci implique en particulier que L (W (t)) est une
mesure gaussienne avec le vecteur moyen 0. Notons aussi que pour u, v ∈ U, t, s ≥ 0,

E[hW (t), uihW (s), ui] = t ∧ s E[hW (1), ui2 ]

et
E[hW (t), uihW (s), vi] = t ∧ s E[hW (1), uihW (1), vi] = t ∧ shQu, vi,

où Q est l’opérateur de covariance de la mesure gaussienne L (W (1)). L’opérateur Q est a trace


et il caractérise complètement la distribution de W.
Soit Q un opérateur non négatif a trace sur un espace de Hilbert U.

Définition 2.3.2. Un processus stochastique W = (W (t))t≥0 , à valeur dans U, est appelé un


processus Q-Wiener si

1. W (0) = 0,

2. W a trajectoires continues,

3. W a acroissement indépendants,

4. L (W (t) − W (s)) = N (0, (t − s)Q), t ≥ s ≥ 0.

On note qu’il existe un système orthonormal complet {ek } dans U et une suite bornée de
nombres réels non négatifs {λk } tels que

X
Qek = λk ek , k ∈ N et T rQ = λi < ∞.
i=1
L’intégrale stochastique 30

Proposition 2.3.1. Supposons que W = (W (t))t≥0 est un processus Q-Wiener. Donc, Les
affirmations suivantes sont satisfaites.

1. W est un processus gaussien sur U et

E(W (t)) = 0, Cov(W (t)) = tQ, t ≥ 0. (2.14)

2. Pour arbitrairement t ≥ 0, W a accroissement



X p
W (t) = λj βj (t)ej (2.15)
j=1


1
βj (t) = p hW (t), ej i, j ∈ N, (2.16)
λj
sont des mouvements Brownien de valeurs réelles mutuellement indépendant sur (Ω, F, P) et la
série de (2.15) sont convergentes dans L2 (Ω, F, P).

Preuve
Soit 0 < t1 < t2 < ... < tn et soit u1 , ..., un ∈ U . Considérons la variable aléatoire Z définie par
n
X n
X n
X
Z= hW (tj ), uj i = hW (t1 ), uk i + hW (t2 ) − W (t1 ), uk i + ... + hW (tn ) − W (tn−1 ), un i.
j=1 k=1 k=2

Puisque W a accroissement indépendants, Z est gaussienne pour tout choix de u1 , ..., un et


(1) suit.

Nous prouvons maintenant (2). Soit t > s > 0, puis par (2.16) il s’ensuit que

E(βi (t)βj (s)) = √ 1 E(hW (t), ei ihW (s), ej i)


λi λj

 
= √1 hE(hW (t) − W (s), ei ihW (s), ej i) + E(hW (s), ei ihW (s), ej i)i
λi λj

= √1 s(Qei , ej ) = sδij
λi λj

alors l’indépendance de βi , i ∈ N suit. Pour prouver la représentation (2.15), il suffit de


remarquer que, pour m ≥ n ≥ 1,
m 2 m
X p X
E λj βj (t)ej =t λj , (2.17)
j=n j=n
L’intégrale stochastique 31


X
et rappelons que λj < ∞. 2
j=1

Proposition 2.3.2. Pour tout opérateur Q positif symétrique a trace sur un espace de Hilbert
séparable U, il existe un processus Q-Wiener (W (t))t≥0 .

Preuve La preuve de l’existence d’un processus W satisfaisant les conditions (1), (3) et
(4) de la définition 2.3.2 est une conséquence directe de l’extension de théorème de Kolmogo-
rov. Pour trouver une version qui satisfait également à la condition (2) il suffit d’utiliser le test de
Kolmogorov, Théorème 2.1.1. 2

Si cela ne méne pas à une confusion, nous dirons simplement le processus de Wiener au lieu
du processus de Q-Wiener. Nous allons maintenant considérablement renforcer la partie (2) de
la proposition 2.3.1 et montré le théorème suivant.

Théorème 2.3.1. Soit W un processus Q-Wiener tel que (2.14) est vérifié. Alors la série
(2.15) est convergente uniformément P − p.s. sur [0, T ] pour un arbitraire T > 0.

Preuve
Pour prouver la convergence de (2.15), considérons les variables aléatoires ξj , j ∈ N de valeurs
dans C = C([0, T ]; U ) définies par
p
ξj (t) = λj βj (t)ej , t ∈ [0, T ].

Par (2.17) et Théorème 2.1.2 (2)


 
P sup k ξn (t) + ....... + ξm (t) k> r
t∈[0,T ]

m
1 2 T X
≤ 2 E(k ξn (T ) + ....... + ξm (T ) k ) ≤ 2 λj .
r r j=n
N
X
Donc, la suite SN = ξj , N ∈ N de variables aléatoires à valeurs dans C([0, T ], U )
j=1
converge en probabilité à sa somme S qui peut être facilement identifié avec le processus de
Wiener W. La Proposition 2.1.1 implique finalement que SN → W dans C([0, T ], U ) P − p.s.2

On note que la variation quadratique d’un processus Q-Wiener dans U , avec T rQ < +∞,
est donnée par la formule hhW (t)ii = tQ, t ≥ 0. Nous avons en fait la généralisation directe
suivante du résultat unidimensionnel de Lévy, voir la Proposition 2.1.2.
L’intégrale stochastique 32

Théorème 2.3.2. Une martingale M ∈ M2T (U ), M (0) = 0, est un processus Q-Wiener sur
[0, T ] adapté à la filtration Ft , t ≥ 0, et avec des accroissements M (t)−M (s), t ≥ s indépendant
de Fs , s ≥ 0 si et seulement si hhM (t)ii = tQ , t ≥ 0.

Preuve
Nous devons seulement montrer que si hhM (t)ii = tQ, t ≥ 0, alors M est un processus Q-
Wiener. On note que pour un arbitraire j ∈ N le processus Mj (.) = hM (.), ej i appartient à
M2T (R1 ) et de plus
hhMj (t)ii = λj t, t≥0

Donc, d’après la Proposition 2.1.2, Mj est un processus λj -Wiener avec Mj (t)−Mj (s), t > s
des accroissements indépendants de Fs . Par le même argument, les processus de dimension
finie (M1 (.), ..., MN (.)) sont des processus de Wiener avec le processus de variation quadratique
diagonale diag (λ1 , ........, λN ). par conséquent

X p
M (t) = λj βj (t)ej , t≥0
j=1

où les processus βj (.),


Mj (t)
βj (t) = p , t ≥ 0, j ∈ N
λj
sont des processus de Wiener indépendants normalisés. 2

2.3.2 Processus de Wiener généralisés sur un espace de Hilbert

Soit W = (W (t))t≥0 un processus de Wiener sur un espace de Hilbert U et soit Q son


opérateur de covariance. Pour chaque a ∈ U , on définit un processus de Wiener à valeur réelle
(Wa (t))t≥0 par la formule
Wa (t) = ha, W (t)i, t≥0 (2.18)

L’application a → Wa est linéaire de U à l’espace des processus stochastiques. De plus, elle est
continue dans le sens suivant :

t ≥ 0, {an } ⊂ U, lim an = a ⇒ lim E|Wa (t) − Wan (t)|2 = 0. (2.19)


n→∞ n→∞

Toute application linéaire a → Wa dont les valeurs sont des processus de Wiener de valeurs
réelles sur [0, +∞) satisfaisant (2.19) est appelé un processus de Wiener généralisé.
De cette définition il résulte qu’il existe une forme bilinéaire K(a, b), a, b ∈ U , tel que

E[Wa (t)Wb (s)] = t ∧ s K(a, b) t, s ≥ 0, a, b ∈ U (2.20)


L’intégrale stochastique 33

La condition (2.19) implique facilement que K est une forme bilinéaire continue dans U et donc
il existe Q ∈ L(U ) tel que

E[Wa (t)Wb (s)] = t ∧ s hQa, bi, t, s ≥ 0, a, b ∈ U (2.21)

L’opérateur Q est auto-adjoint et défini positif ; nous l’appelons la covariance du processus de


Wiener généralisé a → Wa . Si la covariance Q est l’opérateur identité I alors le processus de
Wiener généralisé est appelé un processus de Wiener cylindrique dans U .
1 1
Notons par U0 l’image Q 2 (U ) avec la norme induite. Nous appelons Q 2 (U ) le noyau repro-
ducteur du processus de Wiener généralisé a → Wa .
Il est facile de construire, pour un opérateur arbitraire Q auto-adjoint et défini positif, un
processus de Wiener généralisé a → Wa satisfait (2.21). Soit en effet {ej } une base orthonor-
male et complète dans U et {βj } une suite de processus de Wiener standards de valeur réels
indépendants. Définir

1
X
Wa (t) = hQ 2 ej , aiβj (t), t ≥ 0, a ∈ U. (2.22)
j=1

puisque

1 1
X
| hQ 2 ej , ai|2 =| Q 2 a |2 < +∞,
j=1

pour chaque a ∈ U il existe une version de Wa qui est un processus de Wiener. puisque

1 1
X
E[Wa (t)Wb (s)] = (t ∧ s) hQ 2 ej , aihQ 2 ej , bi = (t ∧ s)hQa, bi,
j=1

le résultat suit.
1
Proposition 2.3.3. Soit U1 un espace de Hilbert tel que U0 = Q 2 (U ) est intégré dans U1 avec
une inclusion de Hillbert-Schmidt J. Donc, la formule

1
X
W (t) = Q 2 ej βj (t), t ≥ 0, (2.23)
j=1

définit un processus Wiener de valeur dans U1 . De plus, si Q1 est la covariance de W alors les
1 1
espaces Q12 (U1 ) et Q 2 (U ) sont identiques.

Preuve
1
On note que les éléments gj = Q 2 ej , j ∈ N forme une base orthonormale et complète dans U0
et donc

X
|Jgj |2U1 < +∞.
j=1
L’intégrale stochastique 34

Par conséquent, la série dans (2.23) définit un processus de Wiener dans U1 . Pour a, b ∈ U1
nous avons

hQa, biU1 = E[ha, W (1)iU1 hb, W (1)iU1 ]


X
= ha, Jgj iU1 hb, Jgj iU1
j=1


X
= hJ ∗ a, gj iU0 hJ ∗ b, gj iU0
j=1

= hJ ∗ a, J ∗ biU0 = hJJ ∗ a, biU1 .


Par conséquent JJ ∗ = Q1 . En particulier
1
| Q12 a |2U1 = hJ ∗ a, J ∗ aiU1 =| J ∗ a |2U0 , a ∈ U1 .
1
Ainsi par la Proposition B.1 voir[6] appliquée aux opérateurs Q 2 : U1 −→ U1 et J : U0 −→
1
−1
U1 on a Q12 (U1 ) = J(U0 ) = U0 et | Q1 2 u |U1 =| u |U0 , ce qui fallait démontré. 2

Ainsi, avec un abus de langage, nous pouvons dire qu’un processus de Wiener généralisé
arbitraire sur U est un processus de Wiener classique dans un espace de Hilbert plus large que
U1 . Les noyaux reproduire liés à toutes ces extensions sont les mêmes.
Pour compléter l’image, nous montrerons qu’un processus de Wiener W généralisé arbitraire
est de la forme (2.23). Pour ce faire, soit {aj } une suite d’éléments linéairement indépendants,
linéairement denses dans U . Définir
1
V = Q 2 (lin{aj }).
1
Sans perte de généralité, nous supposons que Q 2 (U ) est dense dans U . Alors V est aussi
1
dense dans U . Par l’orthogonalisation de Hilbert-Schmidt de {Q 2 aj } nous créons une base
orthonormale complète {ei } dans U. On note que lin{ei } = V et
1
U = lin{Q 2 aj }. (2.24)

Proposition 2.3.4. Pour chaque a ∈ U nous avons



1
X
Wa (t) = hQ 2 ej , aiW 1 (t), t ≥ 0. (2.25)
Q − 2 ej
j=1
L’intégrale stochastique 35

Preuve
On vérifié facilement que le membre droit de (2.25), noté par W
fa (t), définit un processus de
−1
Wiener généralisé avec covariance Q. Maintenant, fixez a = Q 2 ek , pour un arbitraire k ∈ N.
Puis

1 −1
X
W
f −1 (t) = hQ 2 ej , Q 2 ek iW −1 e (t) = W −1 e (t), t ≥ 0.
Q 2 ek Q 2 j Q 2 k
j=1

fa (t) = Wa (t). Cependant, l’ensemble de tous les éléments a = Q −1


Ainsi W 2 e est dense dans U ,
j

donc l’identité est vérifié pour tout a ∈ U . 2

2.4 Définition de l’intégrale stochastique


On nous donne ici un processus Q-Wiener dans (Ω, F, P) ayant des valeurs dans U . Par la
Proposition 2.3.1, W (t) est donné par (2.15). Pour simplifier la notation, nous nécessitons que
λk > 0 pour tout k ∈ N. On nous donne aussi une filtration normale {Ft }t≥0 en F et nous
supposons que

(1) W (t) est un Ft -mesurable,

(2) W (t + h) − W (t) est indépendant de Ft , ∀h ≥ 0, t ≥ 0.

Si un processus Q-Wiener W vérifie (1) et (2) on dit que W est un processus Q-Wiener
par rapport à {Ft }t≥0 . Cependant, pour réduire la formulation nous évitons habituellemnet de
stresser la dépendance sur la filtration.
Fixons T < ∞. Un processus Φ(t), t ∈ [0, T ] à valeur dans L = L(U, H) 2 , prenant seulement
un nombre fini de valeurs est dit élémentaire s’il existe une suite 0 = t0 < t1 < ... < tk = T et
une suite Φ0 , Φ1 , ..., Φk−1 des variables aléatoires à valeurs dans L prenant seulement un nombre
fini des valeurs telles que Φm sont Ftm -mesurable et

Φ(t) = Φm , pour t ∈ (tm , tm+1 ], m = 0, 1, ..., k − 1.

Pour les processus élémentaires Φ on définit l’intégrale stochastique par la formule


Z t k−1
X
Φ(s)dW (s) = Φm (Wtm+1 ∧t − Wtm ∧t )
0 m=0

et l’indiquent par Φ · W (t), t ∈ [0, T ].


2. Soit U et H deux espaces de Hilbert séparables et notons L = L(U, H) l’ensemble de tous les opérateurs
linéaires bornés de U dans H. L’ensemble L est un espace linéaire et, muni de la norme d’opérateur, devient un
espace de Banach.
L’intégrale stochastique 36

1
Il est utile, à ce moment, d’introduire le sous-espace U0 = Q 2 (U ) de U qui, doté du produit
scalaire

X 1 −1 −1
hu, vi0 = hu, ek ihv, ek i = hQ 2 u, Q 2 vi, u, v ∈ U0 ,
k=1
λk
est un espace de Hilbert.
Dans la construction de l’intégrale stochastique pour des processus plus généraux, l’espace
de tous les opérateurs Hilbert-Schmidt L02 = L2 (U0 , H) joue un rôle important de U0 dans H.
L’espace L02 est aussi un espace de Hilbert séparable, muni de la norme

X ∞
X
kΨk2L0 = |hΨgh , fk i|2 = λh |hΨeh , fk i|2
2
h,k=1 h,k=1
1 1 1
= kΨQ 2 k2L2 (U,H) = T r[(ΨQ 2 )(ΨQ 2 )∗ ]
p
où {gj }, avec gj = λj ej , {ej } et {fj }, j ∈ N, sont des bases orthonormées complètes dans
U0 , U et H respectivement. Clairement, L ⊂ L02 , mais pas tous les opérateurs de L02 peuvent
être considérés comme des restrictions d’opérateurs de L. L’espace L02 contient des opérateurs
vraiment non bornés sur U .
Soit Φ(t), t ∈ [0, T ], un processus mesurable de valeur dans L02 , nous définissons les normes
 Z t  21
k| Φ k|t = E k Φ(s) k2L0 ds
2
0
 Z t  21
1 1

= E T r[(Φ(s)Q 2 )(Φ(s)Q 2 ) ]ds , t ∈ [0, T ].
0

Proposition 2.4.1. Si un processus Φ est élémentaire et k|Φk|T < ∞ alors le processus Φ · W


est une martingale continue et carrée intégrable à valeur dans H sur [0, T ] et

E|Φ · W (t)|2 = k|Φk|2t , 0 ≤ t ≤ T. (2.26)

Preuve
La preuve est simple. Nous vérifierons par exemple que (2.26) vérifié pour t = tm ≤ T .
Définir ξj = W (tj+1 ) − W (tj ), j = 1, ..., m − 1. alors
m−1 2
X
E|Φ · W (tm )|2 = E Φ(tj )ξj
j=0
m−1
X n
X
= E |Φ(tj )ξj |2 + 2E hΦ(ti )ξi , Φ(tj )ξj i.
j=0 i<j=1

Nous montrerons d’abord que


m−1
X m−1
X
2
E |Φ(tj )ξj | = (tj+1 − tj )EkΦ(tj )k2L0 , j = 0, 1, ..., m − 1. (2.27)
2
j=0 j=0
L’intégrale stochastique 37

Pour ce but, on note que la variable aléatoire Φ∗ (tj )fl est Ftj -mesurable et ξj est une variable
aléatoire indépendante de Ftj . Par conséquent (voir la Proposition 2.1.5)

X
2
E|Φ(tj )ξj | = E(|hΦ(tj )ξj , fl i|2 )
l=1


X
= E(E[hξj , Φ∗ (tj )fl i]2 |Ftj )
l=1


X
= (tj+1 − tj ) E(hQΦ∗ (tj )fl , Φ∗ (tj )fl i)
l=1


1
X
= (tj+1 − tj ) |Q 2 Φ∗ (tj )fl |2 ,
l=1

= (tj+1 − tj )EkΦ(tj )k2L0 ,


2

Cela montre (2.27). De même, on a

EhΦ(ti )ξi , Φ(tj )ξj i = 0, si i 6= j

et la conclusion suit. 2

Remarque 2.4.1. Notons que l’intégrale stochastique est une application linéaire de l’espace de
tous les processus élémentaires muni de la norme k| . k|T dans l’espace M2T (H) des martingales
à valeur dans H.

Pour étendre la définition de l’intégrale stochastique à des processus plus généraux, il est
convient de regarder les intégrands comme des variables aléatoires définies sur l’espace produit
Ω∞ = [0, +∞)×Ω (respectivement ΩT = [0, T ]×Ω), muni du produit σ-algèbre : B([0, +∞))×F
(respectivement B([0, T ])×F). Le produit de la mesure de Lebesgue sur [0, +∞) (respectivement
sur [0, T ]) et la mesure de probabilité P est notée P∞ (respectivement PT ).
La σ-algèbre qui vient d’être introduit ne prend pas en compte l’adaptation du processus
considéré et donc n’est pas appropriè pour notre objectif. Le bon choix naturel est fourni par
la σ-algèbre généré par les processus simples et adaptés. Il est facile de voir que ce sont exac-
tement les σ-algèbre prévisibles P∞ (respectivement PT ). Il se trouve que la classe appropriée
des intégrands sont des processus prévisibles avec des valeurs dans L02 , plus précisement, des
applications mesurables de (Ω∞ , P∞ ) (respectivement (ΩT , PT )), dans (L02 , B(L02 )).
L’intégrale stochastique 38

Proposition 2.4.2. Les affirmations suivantes sont vérifiées.

(1) Si une application Φ de ΩT , dans L est L-prévisible donc Φ est aussi L02 -prévisible. En
particulier, les processus élémentaires sont L02 -prévisibles.

(2) Si Φ est un processus L02 -prévisible tel que |kΦk|T < ∞ donc il existe une suite {Φn } de
processus élémentaires tels que |||Φ − Φn |||T → 0 comme n → ∞.

Lemme 2.4.1. Supposons que K est un espace de Hilbert séparable et K1 est un sous-ensemble
linéaire dense de K. Si X est une application de Ω dans K tel que pour un arbitraire k ∈
K1 , hk, Xi est F-mesurable alors X est une variable aléatoire de (Ω, F) dans (K, B(K)).

Preuve de Proposition 2.4.2


Puisque les opérateurs

fk ⊗ ej · u = fk hej , ui, u ∈ U, k, j ∈ N

sont linéairement dense dans L02 et pour un arbitraire T ∈ L02

hfk ⊗ ej , T iL02 = λj hT ej , fk iH ,

la partie (1) suit.

Prouvons (2). Puisque l’espace L est densement intégré dans L02 , par le lemme (2.1.1) il
existe une suite {Φn } de processus prévisibles à valeur dans L sur [0, T ] prenant seulement un
nombre fini de valeur telle que

kΦ(t, ω) − Φn (t, ω)kL02 ↓ 0

pour tout (t, ω) ∈ ΩT . Par conséquent |||Φ − Φn |||T ↓ 0. Il suffit donc de prouver que pour
un arbitraire A ∈ PT et un arbitraire ε > 0 il existe une somme finie Γ d’ensembles disjoints
de la forme (2.8) avec s, t ≤ T tels que

PT {(A \ Γ) ∪ (Γ \ A)} < ε

Pour montrer cela, notons K la famille de toutes les sommes finies des ensembles de la forme
(2.8) avec s ≤ t ≤ T . K est un π-système (voir [6]).
Soit G la famille de tout A ∈ PT qui peut être approchée dans le sens ci-dessus par des
éléments de K. On peut facilement vérifiée que K ⊂ G et que les conditions de la proposition
L’intégrale stochastique 39

2.1.3 sont satisfaites. Donc σ(K) = PT = G est verifié. 2

Nous sommes maintenant capables d’étendre la définition de l’intégrale stochastique à tous


les processus prévisibles Φ à valeurs dans L02 tels que |||Φ|||T < ∞. On note qu’ils forment un
2
espace de Hilbert noté NW 2
(0, T, L02 ), plus simplement NW 2
(0, T ) ou NW , et, par la proposition
2
précédente, les processus élémentaires forment un ensemble dense dans NW (0, T ). Par la Pro-
position 2.4.1, l’intégrale stochastique Φ · W est une application isométrique de cet ensemble
dense dans M2T (H), donc la définition de l’intégrale peut être immédiatement étendue à tous
2
les éléments de NW (0, T ). De plus (2.26) tient et Φ · W est une martingale de carré intégrable
continue.
En dernière étape, nous étendons la définition de l’intégrale stochastique à des processus
prévisible à valeur dans L02 satisfaisant la condition faible suivante.
Z T 
2
P kΦ(s)kL0 ds < ∞ = 1 (2.28)
2
0

Tous ces processus sont appelés stochastiquement intégrables sur [0, T ]. Ils forment un espace
linéaire noté NW (0, T, L02 ), plus simplement NW (0, T ) ou même NW . L’extension peut être
accomplie par la procédure dite de localisation. Pour ce faire, nous avons besoin de ce qui suit.

2
Lemme 2.4.2. Supposons que Φ ∈ NW (0, T, L02 ) et que τ est un Fτ -temps d’arrêt tel que
P(τ ≤ T ) = 1. alors
Z t
I[0,τ ] (s)Φ(s)dW (s) = Φ · W (τ ∧ t), t ∈ (0, T ], P − p.s. (2.29)
0

Preuve
On suppose que Φ est élémentaire et que τ est un temps d’arrêt simple (voir [6]), alors (2.29)
est retenu par recherche. Si Φ est élémentaire et τ général, alors il existe une suite de temps
d’arrêt simples {τn } tels que τn ↓ τ , et Φ · W (τn ∧ t) → Φ · W (τ ∧ t), P − P.s. D’autre part,
Z t
2
|||I[0,τ ] Φ − I[0,τn ] Φ|||T = E I[0,τn ] (s)kΦ(s)k2L0 ds ↓ 0
2
0

et donc, pour une sous-suite, encore noté {τn },

I[0,τn ] Φ · W → I[0,τ ] Φ · W, P − p.s et uniformément dans [0, T ].

Si Φ est général et |||Φ − Φm |||T → 0 pour une suite de processus élémentaires, on a


Φm · W → Φ · W et, pour une sous-suite appropriée, I[0,τ ] Φmk · W → I[0,τ ] Φ · W. 2
L’intégrale stochastique 40

Supposons que la condition (2.29 ) verifiée et définir


 Z t 
2
τn = inf t ∈ [0, T ] : kΦ(s)kL0 ds ≥ n
2
0

avec la convention que la borne inférieure d’un ensemble vide est T. Alors {τn } est une suite
telle que Z t
E kI[0,τn ] (s)Φ(s)k2L0 ds < ∞. (2.30)
2
0

Par conséquent, les intégrales stochastiques I[0,τn ] Φ · W (t), t ∈ [0, T ] sont bien définies pour tout
n ∈ N. De plus si n < m alors P − p.s.

I[0,τn ] Φ · W (t) = (I[0,τn ] (I[0,τm ] Φ) · W (t)) = (I[0,τm ] Φ) · (τn ∧ t), t ∈ [0, T ].

Par conséquent, on peut supposer que (2.30) est vérifier pour tous ω ∈ Ω, t ∈ [0, T ], n < m.
Pour un arbitraire t ∈ [0, T ] définir

Φ · W (t) = I[0,τn ] Φ · W (t) (2.31)

où n est un nombre naturel arbitraire tel que τn ≥ t. On note que si aussi τm ≥ t et m > n
alors
(I[0,τm ] Φ) · W (t) = (I[0,τm ] Φ) · W (τn ∧ t) = I[0,τn ] Φ · W (t)

et donc la définition (2.31) est cohérente. Par un raisonnement analogue si {τn0 } ↑ τ est une autre
suite vérifiant (2.30) alors la définition (2.31) conduit à un processus stochastique identique
P − p.s. pour tout t ∈ [0, T ]. On note que pour arbitrairement n ∈ N, ω ∈ Ω, t ∈ [0, T ] ,

Φ · W (τn ∧ t) = I[0,τn ] Φ · W (τn ∧ t) = Mn (τn ∧ t), t ∈ [0, T ],

où Mn est une martingale continue et carée intégrable à valeur dans H. Cette propriété sera
appelée la propriété de martingale locale de l’intégrale stochastique.

Remarque 2.4.2. Il résulte de la construction ci-dessus que le lemme 2.4.2 est vérifiée pour
tous les Φ ∈ NW (0, T, L02 ). 2

2.4.1 Intégrale stochastique pour les processus de Wiener généralisés

La construction de l’intégrale stochastique a nécessité l’hypothèse que Q était un opéra-


teur nucléaire ; alors seulement le processus Q-Wiener a des valeurs dans U . Nous pouvons
cependant étendre facilement la définition de l’intégrale au cas des processus de Wiener gé-
néralisés avec un opérateur de covariance Q pas nécessairement a trace. On peut effectuer
L’intégrale stochastique 41

cela de plusieurs manières équivalentes. La proposition simple suivante joue un rôle important
1
dans ces extensions. Comme précédemment nous notons U0 = Q 2 (U ) (avec la norme induite
1
kuk0 = kQ 2 (u)k, u ∈ U0 ) le noyau reproducteur de W . Nous utiliserons à nouveau la notation,

L02 = L2 (U0 , H).

Proposition 2.4.3. Supposons que Z est une variable aléatoire à valeur dans U avec une
moyenne 0 et covariance Q et que R est un opérateur de Hilbert-Schmidt de U0 dans H. Si
{Rn } ⊂ L2 (U0 , H) est tel que
lim kR − Rn kL2 (U0 ,H) = 0,
n→∞

il existe une variable aléatoire RZ telle que

lim EkRZ − Rn Zk2L2 (U0 ,H) = 0.


n→∞

RZ est indépendante de la suite {Rn }.

Preuve
La preuve est une conséquence directe de l’identité
1
E|SZ|2 = kSQ 2 k2L2 (U0 ,H) ,

utilisable pour les opérateurs bornés linéaires arbitraires S : U → H. On note que

E|Zn − Zm |2 = kRn − Rm k2L2 (U0 ,H) → 0 comme n, m → ∞.

Si {Rn0 } est une autre suite avec toutes les propriétés satisfaites, alors

E|Zn − Zn0 |2 = EkRn Z − Rn0 Zk2L2 (U0 ,H) = kRn − Rn0 k2L2 (U0 ,H) → 0 comme n → ∞,

donc le résultat suit. 2

Si maintenant Wa , a ∈ U est un processus de Wiener généralisé avec covariance Q, alors,


par la proposition 2.3.3, il existe une suite {βj } de processus de Wiener indépendante et une
base orthonormale {ej } dans U telle que

X 1
Wa (t) = ha, Q ej iβj (t), a ∈ U, t ≥ 0.
j=1
2

De plus la formule

1
X
W (t) = Q 2 ej βj (t), t ≥ 0.
j=1
L’intégrale stochastique 42

définie un processus de Wiener sur un espace de Hilbert U1 ⊃ U0 avec l’intégration de Hilbert-


Schmidt. Si Φ ∈ L02 alors les variables aléatoires ΦW (t), t ≥ 0, décrites dans la proposition
2.4.3, sont données par la formule

1
X
ΦW (t) = ΦQ 2 ej βj (t), t≥0 (2.32)
j=1

et en particulier nous avons


Wa (t) = ha, W (t)i, t ≥ 0.

Ainsi la construction de l’intégrale stochastique


Z t
Φ(s)dW (s), t ≥ 0,
0

peut être fait comme dans le cas où T rQ < +∞. Il suffit de prendre en compte que les variables
aléatoires de la forme
Φtj (Wtj+1 − Wtj ),

sont définis d’une manière unique à condition Φtj ∈ L02 . La formule de base

Z t 2 Z t 
E Φ(s)dW (s) =E kΦ(s)k2L0 ds , t ≥ 0, (2.33)
2
0 0

reste la même.

De manière équivalente on peut répéter la définition de l’intégrale stochastique pour un


processus de Wiener W à valeur dans U1 déterminée par (Wa )a∈U . Encore une fois, l’espace des
intégrands et la formule (2.33) restent les mêmes.

2.4.2 Approximations des intégrales stochastiques

Nous décrivons maintenant un moyen d’approximation des intégrales stochastiques qui pour-
raient également servir comme une manière différente de définir l’intégrale stochastique par
rapport à un processus Q-Wiener de dimension infinie (T rQ ≤ +∞). Soit
N
X p
WN (t) = λj βj (t)ej , t ∈ [0, T ],
j=1

où {λj , ej } est une suite propre définie par Q, et soit Φ stochastiquement intégrable sur
[0, T ], par rapport à un processus Q-Wiener W . On note que WN et W N = W − WN sont des
L’intégrale stochastique 43

N
X ∞
X
N (t)
processus de Wiener respectivement, QN = λj ej ⊗ ej et Q = λj ej ⊗ ej . Il est facile
j=1 j=N +1
de voir que Φ · W = Φ · WN + Φ · W N . Ainsi
Z T
1
2
EkΦ · W (T ) − Φ · WN (T )k = E kQ(s)(QN ) 2 k2L0 ds.
2
0

Si |||Φ|||T < ∞ alors

Z T
1
E kQ(s)(QN ) 2 k2L0 ds → 0 comme N → ∞.
2
0

Puis par la propriété martingale de l’intégrale stochastique


 
2
E sup kΦ · W (t) − Φ · WN (t)k → 0 comme N → ∞
0≤t≤T

et par conséquent on peut considérer une sous-suite {Φ · WNk } convergeante P − p.s. et


uniformément dans [0, T ]. Ainsi l’intégrale stochastique par rapport à un processus de Wiener
de dimension infinie, également cylindrique, peut être obtenue, dans le sens ci-dessus, comme
une limite d’intégrales stochastiques par rapport aux processus de Wiener de dimension finie.
La suite Φ · WN (·) contient une sous-suite convergente uniformément P − P.s. par rapport à
t ∈ [0, T ]. La limite est indépendante de la sous-suite choisie et donne peut-être une définition
RT
plus intuitive de l’intégrale stochastique d’un processus prévisible Φ tel que E 0 kΦ(s)k2L0 ds <
2

+∞. Le cas général de Φ ∈ NW (0, T, L02 ) peut être obtenu par localisation.

2.5 Propriétés de l’intégrale stochastique


Le théorème suivant résume les résultats des sections 2.3 et 2.4.

2
Théorème 2.5.1. Supposons que Φ ∈ NW (0, T, L02 ), alors l’intégrale stochastique Φ · W est
une martingale continue de carrée intégrable et sa variation quadratique est de forme
Z t
hhΦ · W (t)ii = QΦ (s)ds,
0


1 1
QΦ (s) = (Φ(s)Q 2 )(Φ(s)Q 2 )∗ , s, t ∈ [0, T ].

Si Φ ∈ NW (0, T, L02 ), alors Φ · W est une martingale locale.


Dans les calculs, nous utiliserons fréquemment ce qui suit.
L’intégrale stochastique 44

2
Proposition 2.5.1. Supposons que Φ1 , Φ2 ∈ NW (0, T, L02 ). alors

E(Φi · W (t)) = 0, E(kΦi · W (t)k2 ) < ∞, t ∈ [0, T ], i = 1, 2.

De plus, les opérateurs de corrélation

V (t, s) = Cor(Φ1 · W (t), Φ2 · W (s)), t, s ∈ [0, T ].

sont donnés par les formules


Z t∧s
1 1
V (t, s) = E (Φ2 (r)Q 2 )(Φ1 (r)Q 2 )∗ dr. (2.34)
0

Preuve
1 1
On note que Φ2 (r)Q 2 et (Φ1 (r)Q 2 )∗ , r ∈ [0, T ] sont des processus à valeurs dans L2 (U, H) et
L2 (H, U ) respectivement. Par conséquent, le processus
1 1
Φ2 (r)Q 2 (Φ1 (r)Q 2 )∗ , r ∈ [0, T ],

est un processus à valeur dans L1 (H, H) et

1 1 1 1
k(Φ2 (r)Q 2 )(Φ1 (r)Q 2 )∗ k1 ≤ k(Φ2 (r)Q 2 )kL2 (U,H) k(Φ1 (r)Q 2 )kL2 (U,H) , r ∈ [0, T ].

Par conséquent
Z T Z T
1 1 1 1

E k(Φ2 (r)Q )(Φ1 (r)Q ) k1 dr ≤ E
2 2 k(Φ2 (r)Q 2 )kL2 (U,H) k(Φ1 (r)Q 2 )kL2 (U,H) dr
0 0

Z T  12  Z T  12
1 1
≤ E kΦ1 (r)Q 2 )k2L2 (U,H) dr kΦ2 (r)Q 2 )k2L2 (U,H) dr
0 0

≤ |||Φ1 |||T · |||Φ2 |||T < ∞, (2.35)

et donc l’intégrale (2.34) existe comme un intégrale de Bochner à valeur dans L1 (H, H).
L’opérateur V (t, s) est défini par

EhΦ1 · W (t), aihΦ2 · W (s), bi = hV (t, s)a, bi, a, b ∈ H.

On peut facilement voir que si, en plus, Φ1 et Φ2 sont des processus simples alors

EhΦ1 · W (t), aihΦ2 · W (s), bi


Z t∧s Z t∧s
= E hΦ1 (r)dW (r), aiE hΦ2 (r)dW (r), bi
0 0
Z t∧s
1 1
= E hQ 2 Φ∗1 (r)a, Q 2 Φ∗2 (r)bidr.
0
L’intégrale stochastique 45

Donc, le résultat est vrai pour des processus simples. L’estimation (2.35) et la proposition
d’approximation 2.4.2 impliquent que le résultat est vérifié en général. 2

De la définition de l’opérateur de corrélation, nous avons ce qui suit

Corollaire 2.5.1. Sous l’hypothèse de la Proposition 2.5.1, on a


Z t∧s
1 1
EhΦ1 · W (t), Φ2 · W (s)i = E T r[(Φ2 (r)Q 2 )(Φ1 (r)Q 2 )∗ ]dr. (2.36)
0

Nous remarquons que si les processus Φ1 et Φ2 sont à valeurs dans L = L(U, H), nous
pouvons écrire la formule (2.36) de manière plus petite
Z t∧s
EhΦ1 · W (t), Φ2 · W (s)i = E T r[Φ2 (r)QΦ1 (r)∗ ]dr.
0

Plusieurs résultats sont vérifier pour l’intégrale de Bochner ont leurs contre parties pour les
intégrales stochastiques. En particulier, presque la même Proposition 2.1.4 est vérifiée. Sup-
posons que (Φ(t))t∈[0,T ] , est un processus prévisible à valeur dans L02 (H) = L02 (U0 , H) et soit
A : D(A) ⊂ H → E un opérateur fermé avec le domaine D(A) un sous-ensemble de Borel de
H.

Proposition 2.5.2. Si Φ(t)(L02 (H)) ⊂ D(A), P − P.s. pour tout t ∈ [0, T ] et


Z T 
2
P kΦ(s)kL0 (D(A)) ds < ∞ = 1
2
0
Z T 
2
P kAΦ(s)kL0 (D(A)) ds < ∞ = 1
2
0

RT
alors P( 0 Φ(s)dW (s) ∈ D(A)) = 1 et
Z T Z T
A Φ(s)dW (s) = AΦ(s)dW (s), P − P.s.
0 0

Preuve
On peut vérifié tout de suite que le résultat est vrai pour les processus élémentaires. Le cas
général peut être obtenu de manière similaire à la preuve de la Proposition 2.1.4 en utili-
sant la proposition 2.4.2(2) et le faite que : Si D(A) est muni de sa norme de graphe et
S est un opérateur linéaire de U0 dans D(A) alors S ∈ L02 (U0 , D(A)) si et seulement si
S ∈ L02 (U0 , H), AS ∈ L02 (U0 , H). de plus

kSk2L0 (H) + kASk2L0 (H) = kSk2L2 (U0 ,D(A)) .


2 2
L’intégrale stochastique 46

Nous terminerons cette section avec une estimation utile vérifie pour un intégrand général
Φ.

Proposition 2.5.3. Supposons que Φ ∈ NW (0, T ; L02 ). Alors pour arbitrairement a > 0, b > 0
! Z T 
b 2
P sup | Φ · W (t) |> a ≤ 2 + P kΦ(t)kL0 dt > b .
t∈[0,T ] a 0
2

Preuve
Définir  Z T 
τb = t ∈ [0, T ] : kΦ(t)k2L0 dt >b .
2
0

Alors !
P sup | Φ · W (t) |> a = I1 + I2 ,
t∈[0,T ]

où !
Z T
I1 = P sup | Φ · W (t) |> a et kΦ(s)k2L0 ds > b
2
t∈[0,T ] 0
!
Z T
I2 = P sup | Φ · W (t) |> a et kΦ(s)k2L0 ds ≤ b .
2
t∈[0,T ] 0

Mais  Z t 
I2 ≤ P sup I[0,τb ] (s)Φ(s)dW (s) > a
t∈[0,T ] 0

et à partir du théorème et la définition de τb


Z t
1 b
I2 ≤ 2 E kI[0,τb ] (s)Φ(s)k2L0 ds ≤ 2 .
a 0
2 a
RT
puisque I1 ≤ P( 0 kΦ(t)k2L0 |ds > b) donc le résultat suit. 2
2

2.6 Formule d’Itô


Supposons que Φ est un processus à valeurs dans L02 stochastiquement intégrable dans [0,T],
ϕ un processus prévisible à valeur dans H Bochner intégrable sur [0, T ], P − P.s., et X(0) une
variable aléatoire F0 -mesurable à valeurs dans H. Donc, le processus suivant

Z t Z t
X(t) = X(0) + ϕ(s)ds + Φ(s)dW (s), t ∈ [0, T ],
0 0

est bien défini. Supposons qu’une fonction F : [0, T ] × H → R1 et ses dérivées partielles
Ft , Fx , Fxx , sont uniformément continues sur des sous-ensembles bornés de [0, T ] × H.
L’intégrale stochastique 47

Théorème 2.6.1. Sous les conditions ci-dessus, Pour tout t ∈ [0, T ] P − P.s.,

Z t
F (t, X(t)) = F (0, X(0)) + hFx (s, X(s)), Φ(s)dW (s)i
0

Z t
+ Ft (s, X(s)) + hFx (s, X(s)), ϕ(s)i
0

1 1 1

+ T r[Fxx (s, X(s))(Φ(s)Q 2 )(Φ(s)Q 2 ) ] ds. (2.37)
2
Preuve
Nous allons d’abord retrouver comment on peut réduire la preuve au cas des processus constants
ϕ(s) = ϕ0 et Φ(s) = Φ0 , s ∈ [0, T ], et donc au cas où

X(t) = X(0) + tϕ0 + Φ0 W (t), t ∈ [0, T ]. (2.38)

RT
Nous pouvons supposer que le processus (X(t))t∈[0,T ] et les intégrales 0 |ϕ(s)|ds
RT
et 0 kΦ(s)k2L0 ds sont bornés. Cela peut être montré par localisation. A savoir pour une
2

constante arbitraire C > 0 définir un temps d’arrêt τC :

 Z t Z t 
2
τC = inf t ∈ [0, T ] :| X(t) |≥ C ou |ϕ(s)|ds ≥ C ou kΦ(s)kL0 ds ≥ C
2
0 0

avec la convention que la borne inférieure de l’ensemble vide est T . Si l’on définit

ϕC (t) = I[0,τC ] (t)ϕ(t), ΦC (t) = I[0,τC ] (t)Φ(t), t ∈ [0, T ]

et XC (t) = X(t ∧ τC ), alors


Z t Z t
XC (t) = XC (0) + ϕC (s)ds + ΦC (s)dW (s), t ∈ [0, T ],
0 0

Comparé au lemme 2.4.2. De plus, les processus ϕC , ΦC et XC sont les propriétés requises. Si
la formule (2.37) est vraie pour ϕC , ΦC , et XC pour C > 0 arbitraire, en utilisant à nouveau
le lemme 2.4.2, la formule (2.37) est vraie dans le cas général. Ainsi, en particulier, on peut
supposer que

Z T Z T
E |ϕ(s)|ds < +∞, E kΦ(s)k2L0 ds < +∞.
2
0 0

Par conséquent, en utilisant le lemme 2.1.1 et la Proposition d’approximation de base 2.4.2, on


peut limiter les considérations aux processus élémentaires ϕ(·) et Φ(·) et par conséquent aux
L’intégrale stochastique 48

processus ϕ(·) et Φ(·) constants sur les intervalles, ce qui montre finalement que la réduction
désirée est possible.
Soit les points t0 = 0 < t1 < ... < tk < t définissent une partition d’un intervalle de temps
fixe [0, t] ⊂ [0, T ]. alors
k−1 
X 
F (t, X(t)) − F (0, X(0)) = F (tj+1 , X(tj+1 )) − F (tj , X(tj+1 ))
j=0

k−1 
X 
+ F (tj , X(tj+1 )) − F (tj , X(tj )) .
j=0

En appliquant la formule de Taylor on obtient pour certains (aléatoire) Θ00 , Θ01 , . . . , Θ0(k−1) ,
Θ10 , Θ11 , . . . , Θ1(k−1) ∈ [0, 1],
k−1 
X k−1
X
F (t, X(t)) − F (0, X(0)) = Ft (tj+1 , X(tj+1 ))∆tj + hFt (tj , X(tj )), ∆Xj i
j=0 j=0

k−1
1X
+ hFxx (tj , X(tj )) · ∆Xj , ∆Xj i
2 j=0

k−1
X
+ tj , Xj+1 ) − Ft (tj+1 , X(tj+1 ))]∆tj
[Ft (e
j=0

k−1 
1X
+ h[Fxx (tj , Xj ) − Fxx (tj , X(tj )) · ∆Xj , ∆Xj i
e
2 j=0

= I1 + I2 + I3 + I4 + I5


tj+1 − tj = ∆tj , X(tj+1 ) − X(tj ) = ∆Xj

tj + Θ0j (tj+1 − tj ) = e
tj , X(tj ) + Θ1j (X(tj+1 − X(tj )) = X
ej .

Prenant en considération (2.38) et en supposant que la partition t0 = 0 < t1 < ... < tk < t
devient de plus en plus fine, on voit que
Z t
I1 → Ft (s, X(s))ds, P − P.s.
0
Z t Z t
I2 → hFx (s, X(s)), ϕ(s)ids + hFx (s, X(s)), Φ(s)dW (s)i, P − P.s.
0 0
L’intégrale stochastique 49

Pour trouver la limite de I3 nous remarquons que


k−1
1X ∗
I3 = hΦ Fxx (tj , X(tj ))Φ0 ∆Wj , ∆Wj i
2 j=0 0

k−1
1X
+ hFxx (tj , X(tj ))ϕ0 , ϕ0 i(∆tj )2
2 j=0

k−1
X
+ hFxx (tj , X(tj ))Φ0 ∆Wj , ϕ0 i∆tj
j=0

= I3,1 + I3,2 + I3,3

où W (tj+1 ) − X(tj ) = ∆Wj .


Nous montrerons d’abord que pour une sous-suite
1 t
Z
I3,1 → T r[Φ∗0 Fxx (s, X(s))Φ0 Q]ds. (2.39)
2 0
Notons ξj = Φ∗0 Fxx (tj , X(tj ))Φ0 , alors
k−1
X
J = E hΦ∗0 Fxx (tj , X(tj ))Φ0 ∆Wj , ∆Wj i
j=0

k−1
X 2
− T r[Φ∗0 Fxx (tj , X(tj ))Φ0 Q∆tj ]
j=0

" k−1 #
X
= E E(hξj ∆Wj , ∆Wj i2 |Fj ) − (T r[ξj Q])2 (∆tj )2 .
j=0

Ceci résulte du fait élémentaire que si η0 , ..., ηk−1 sont des variables aléatoires avec des seconds
moments finis et G0 , ...., Gk−1 une suite croissante de σ-algèbre tels que ηj sont mesurables par
rapport à Gj , 0 ≤ j ≤ k − 1, alors
k−1 k−1
!2 k−1  
X X X
2 2
E ηj − E(ηj |Gj ) = E(ηj ) − E(E(ηj |Gj ) ) .
j=0 j=0 j=0

Soit M une constante telle que |ξj | ≤ M, j = 0, 1, . . . , k − 1. alors


k−1
!
X
J ≤ M2 E|W (tj+1 ) − W (tj )|4 + T r(Q)(tj+1 − tj )2
j=0

et nous voir que J → 0. Par conséquent, en prenant une sous-suite on obtient (2.39). d’après la
continuité de trajectoire du processus de Wiener et la bornitude de Fxx (s, X(s)), s ∈ [0, T ], on
L’intégrale stochastique 50

déduit que I3,2 → 0 et I3,3 → 0. Il reste à montrer qu’il existe des sous-suites de I4 et I5 , conver-
geant vers 0 P − P.s.. La convergence de I4 vers 0 est une conséquence de la continuité uniforme
k−1
X
de Ft . Par la continuité uniforme de Fxx et en tenant compte du fait que la suite |X(tj+1 ) −
j=0
2
X(tj )| contient une sous-suites bornée, une sous-suites de I5 tend vers 0 P − P.s. La preuve est
complète. 2

Appliquons la formule Itô à


Z t
X(t) = Φ(s)dW (s), t≥0
0

et F (x) = |x|2 , x ∈ H, alors


Z t Z t
1 1
2
|X(t)| = 2 hX(s), Φ(s)idW (s) + T r[(Φ(s)Q 2 ) (Φ(s)Q 2 )∗ ]ds
0 0

Z t Z t
= 2 hX(s), Φ(s)idW (s) + kΦ(s)k2L0 ds.
2
0 0

Par conséquent, le processus


Z t
2
|X(t)| − kΦ(s)k2L0 ds, t ≥ 0,
2
0

est une martingale locale. Nous utiliserons souvent la notation


Z t
hXit = kΦ(s)k2L0 ds, t ≥ 0,
2
0

dans l’analogie avec les martingales à valeurs réelles.

2.7 Théorème stochastique de Fubini


Soit (E, E) est un espace mesurable et soit Φ(t, ω, x) → ϕ(t, ω, x) une application mesurable
de (ΩT ×E, PT ×B(E)) dans (L02 , B(L02 )). Ainsi, en particulier, pour un arbitraire x ∈ E, Φ(·, ·, x)
est un processus prévisible à valeur dans L02 . Soit en plus µ une mesure positive finie sur (E, E).

La version stochastique suivante du théorème de Fubini sera fréquemment utilisée. Il gé-


néralise un résultat similaire dû à [4], voir [30] pour le cas de dimension finie. (Parfois, pour
simplifier la notation, nous n’indiquerons pas la dépendance de Φ Sur ω.)
L’intégrale stochastique 51

Théorème 2.7.1. Supposons que (E, E) est un espace mesurable et soit

Φ : (t, ω, x) → Φ(t, ω, x)

une application mesurable de (ΩT × E, PT × B(E)) dans (L02 , B(L02 )). On suppose en outre que
Z
|||Φ(·, ·, x)|||T µ(dx) < +∞ (2.40)
E

alors P − P.s.
Z Z T  Z T Z 
Φ(t, x)dW (t) µ(dx) = Φ(t, x)µ(dx) dW (t). (2.41)
E 0 0 E

Preuve
Il résulte de (2.40) que pour µ-presque tout x ∈ E le processus prévisible Φ(·, ·, x) est stochas-
tiquement intégrable. Nous devons montrer qu’il existe une version FT × B(E)-mesurable de
l’intégrale

Z T
ξ(ω, x) = Φ(t, ω, x)dW (t, ω), (ω, x) ∈ Ω × E
0

qui est µ Bochner intégrable pour P-presque tout ω ∈ Ω tel que


Z Z T
ξ(ω, x)µ(dx) = η(t, ω)dW (t, ω), pour P − p.s. ω ∈ Ω,
E 0

où η(·, ·) est une version prévisible de l’intégrale forte de Bochner


Z
η(t, ω) = Φ(t, ω, x)µ(dx), (t, ω) ∈ ΩT .
E

Nous généralisons d’abord le résultat de l’approximation de base de la Proposition 2.4.2.

Proposition 2.7.1. On suppose que (E, E) est un espace mesurable et soit Φ : (t, ω, x) →
ϕ(t, ω, x) une application mesurable de (ΩT × E, PT × B(E)) dans (L02 , B(L02 )). Supposons en
outre que (2.40) est vérifier. Donc, il existe une suite {Φn } d’applications mesurables de (ΩT ×
E, PT × B(E)) dans (L02 , B(L02 )) de la forme
Jn X
X Kn X
Ln
n
Φn (t, ω, x) = αk,l Hj ϕnj,k (x)1(snk,l ,tnk,l ] 1Fk,l
n (2.42)
j=1 k=1 l=1

n
où αk,l sont des constantes, des opérateur Hilbert-Schmidt Hj de U dans H, ϕnj,k sont des
fonction B(E)-mesurable à valeur réelle bornée, (snk,l , tnk,l ] sous-intervalle de [0, T ] et Fk,l
n
∈ Fsnk,l
tels que
Z Z  21
lim kΦ(t, ω, x) − Φn (t, ω, x)k2L0 PT (dt, dω) µ(dx) = 0. (2.43)
n→∞ E ΩT
2
L’intégrale stochastique 52

Preuve
Comme il existe une suite {Φn } des applications uniformément bornées pour les quelles (2.43)
est vraie, on peut supposer, sans perte de généralité, que Φ(·, ·, ·) est une application bornée.
Soit {Hj } un système orthonormé complet sur L02 et {εk (·, ·)} un système orthonormé complet
sur L2T = L2 (ΩT , PT , PT ) composé des processus bornés. Prenant en compte les expansions par
rapport les bases {εn } et {Hj }, nous définissons des processus d’approximation
J
X
Φ1J (t, ω, x) = Hj ϕj (t, ω, x)
j=1

ϕj (t, ω, x) = hΦ(t, ω, x), Hj iL02 ,


J K
!
X X
Φ2J,K (t, ω, x) = Hj εk (t, ω)ϕj,k (x)
j=1 k=1

et
ϕj,k (x) = hϕj (·, ·, x), εk (·, ·)iLT2 .

Le troisième processus d’approximation remplace les processus prévisibles εk par des processus
simples "K #
J
X X L
X
Φ3J,K,L (t, ω, x) = Hj ϕj,k (x) αk,l 1]sk,l ,tk,l ] (t)1Fk,l
n ,
j=1 k=1 l=1

pour (t, ω, x) ∈ ΩT ×E. Notons l’intégrale de (2.40) par ||||Φ||||. Par le théorème de convergence
monotone de Lebesque nous avons

lim kkΦ − Φ1J kk = 0, lim kkΦ1J − Φ2J,K kk = 0. (2.44)


J→∞ K→∞

Enfin, en procédant comme dans la preuve de la Proposition 2.4.2 (2), pour J et K fixe on peut
trouver une suite d’approximations du troisième type telles que

lim kkΦ2J,K − Φ3J,K,L kk = 0. (2.45)


L→∞

Il résulte de la limite de Φ et de la construction des approximations que ϕj,k (·) sont des fonctions
bornées et que les approximations sont des processus prévisibles. En prenant en compte (2.44)
et (2.45) on arrive à (2.43).
Preuve de Théorème 2.7.1
Il est satisfait que le théorème est vrai pour les processus d’approximation Φn , n ∈ N,
Z Z T  Z T Z 
Φn (t, x)dW (t) µ(dx) = Φn (t, x)µ(dx) dW (t).
E 0 0 E
L’intégrale stochastique 53

De plus, par le théorème de Fubini (voir[6])et la discussion précédente, le processus


Z
η(t, ω) = Φ(t, ω, x)µ(dx), (t, ω) ∈ ΩT ,
E

est prévisible. Nous montrons maintenant qu’il existe une version de ξ(·, ·) qui est FT × B(E)-
mesurable. Les processus
Z T
ξn (ω, x) = Φn (t, ω, x)dW (t, ω), ω ∈ Ω, x ∈ E
0

sont FT ×B(E)-mesurables et, par l’utilisation standard de l’inégalité de Chebyshev et du lemme


de Borel-Cantelli, nous obtenons de (2.43) qu’il existe un ensemble E0 ∈ B(E), µ(E \ E0 ) = 0,
et une sous-suite {Φnm } telle que pour tout x ∈ E0 et m ≥ m(x)

1
kkΦ(·, ·, x) − Φnm (·, ·, x)kk ≤ .
2m

Par conséquent, si nous définissons


 Z T
lim Φnm (t, ω, x)dW (t, ω) si la limite existe,



 m→∞ 0

ξ(ω, x) =




 0, sinon.

alors ξ(·, ·) est une variable aléatoire FT ×B(E)-mesurable et, par les propriétés élémentaires
de l’intégrale stochastique, Z T
ξ(ω, x) = Φ(t, ω, x)dW (t, ω)
0

pour tout x ∈ E0 et ω ∈ Ω, P − P.s. On note que

Z Z T  Z Z T 
E Φ(t, x)dW (t) µ(dx) − Φnm (t, x)dW (t) µ(dx)
E 0 E 0

Z  Z T 
≤ E (Φ(t, x) − Φnm (t, x))dW (t) µ(dx)
E 0

Z
≤ kkΦ(t, x) − Φnm (t, x)kkµ(dx) → 0 comme m → ∞. (2.46)
E

De plus
Z T Z  Z Z T  2
E Φ(t, x)µ(dx) dW (t) − Φnm (t, x)dW (t) µ(dx)
0 E E 0

Z T Z  Z T Z  2
=E Φ(t, x)µ(dx) dW (t) − Φnm (t, x)µ(dx) dW (t)
0 E 0 E
L’intégrale stochastique 54

Z T Z  2
=E Φ(t, x) − Φnm (t, x)µ(dx) dW (t) .
0 E

Donc Z T Z  Z Z T  2
E Φ(t, x)µ(dx) dW (t) − Φnm (t, x)dW (t) µ(dx)
0 E E 0
Z
≤ kk (Φ(t, x) − Φnm (t, x))µ(dx)kk2
E
Z 2
≤ kkΦ(t, x) − Φnm (t, x)kkµ(dx) → 0 comme m → ∞. (2.47)
E

L’estimation finale suit en considérant Φ(·, ·, ·) − Φnm (·, ·, ·) comme une application mesurable
de (E, E, µ) dans L2 (ΩT , PT , H) (muni de la norme |||| · ||||)Zet en appliquant l’inégalité
Z suivante
(en fait c’est aussi l’inégalité de Minkowski généralisée) X(ω)P(dω) ≤ kX(ω)kP(dω).
B B
D’après les estimations (2.46) -(2.47), le résultat suit. 2

Remarque 2.7.1. La condition (2.40), écrite dans une version étendue, a la forme
Z Z Z T  21
kΦ(t, ω, x)k2L0 )dt)P(dω) µ(dx) < ∞.
2
E Ω 0

Dans le cas où Φ est une application non stochastiques, on a simplement


Z Z T  21
kΦ(t, x)k2L0 )dt µ(dx) < ∞.
2
E 0

2.8 Remarques sur la généralisation de l’intégrale


La théorie de l’intégration stochastique par rapport les martingales M ∈ M2T (H), complète-
ment de même ordre par rapport à un processus de Wiener décrit dans les sections précédentes,
peut être développée, voir [30]. Le rôle du processus tQ est joué par la variation quadratique
hhM (t)ii, t ∈ [0, T ]. Nous aurons besoin de cette extension dans le cas où la martingale M est
2
elle-même une intégrale stochastique, dire M = Φ · W avec Φ ∈ NW (0, T ; L02 ). Donc, l’extension
est simple, puisque nous pouvons définir l’intégrale stochastique Φ · M simplement par
Z t Z t
Ψ · M (t) = Ψ(s)dM (s) = Ψ(s)Φ(s)dW (s), t ∈ [0, T ]. (2.48)
0 0

On note que Z T
hhΨ · M (t)ii = Ψ(s)QΦ (s)Ψ∗ (s)ds, t ∈ [0, T ], (2.49)
0
L’intégrale stochastique 55


1 1
QΦ (s) = (Φ(s)Q 2 )(Φ(s)Q 2 )∗ ,

Puisque dans le cas présent


Z t
hhM (t)ii = QΦ (s)ds, s ∈ [0, T ],
0

donc (2.49) peut être écrite intrinsèquement comme


Z t
d
hhΨ · M (t)ii = Ψ(s) hhM (s)iiΨ∗ (s)ds, t ∈ [0, T ]. (2.50)
0 ds

Enfin (2.50) peut être étendu à des martingales générales et les intégrands généraux.
Chapitre 3

Application aux EDS (Équations linéaires


avec bruit additif)

3.1 Rappels et Compléments


Proposition 3.1.1. Soit µ une mesure dans un espace de Banach séparable E et M un sous-
espace linéaire de E ∗ générant la σ-algèbre de Borel B(E).

1. Si un arbitraire ϕ ∈ M a une loi gaussienne symétrique alors µ est gaussiene symétrique

2. Si en plus H0 est un espace de Hilbert continuellement intégré dans E et tel que L (ϕ) =
N (0, |ϕ|20 ) pour un arbitraire ϕ ∈ M , alors H0 est le noyau reproducteur de µ.

Preuve. voir [6].

Proposition 3.1.2. Soit S(·) un C0 -semigroupe dans E et soit A son générateur infinitésimal.
Alors A est fermé et le domaine D(A) est dense dans E. De plus, si x ∈ D(A), alors
\
S(·)x ∈ C 1 ([0, +∞], E) C([0, +∞], D(A))

et
d
S(t)x = AS(t)x = S(t)Ax, t ≥ 0.
ds
Preuve. voir [6].

Proposition 3.1.3. Soit A le générateur infinitésimal d’un C0 -semigroupe S(·) dans E et

56
Équations linéaires avec bruit additif 57

f ∈ L1 (0, T, E). Alors il existe une unique solution faible u de l’équation





 u0 (t) = Au(t) + f (t), t ∈ [0, T ],

(3.1)


 u(0) = x ∈ E,

où A est le générateur infinitésimal d’un C0 -semigroupe S(·) dans E et f ∈ Lp (0, T ; E), p ≥ 1 1 .


L’unique solution est donnée par la formule de variation de constante

Z t
u(t) = S(t)x + S(t − s)f (s)ds, t ∈ [0, T ]. (3.2)
0

Pour la preuve, voir, Da Prato and Zabczyk [6].

La fonction u(·) définie par (3.2) est appelée la solution mild du problème (3.1).
Avant de prouver une condition suffisante pour l’existence de solutions strictes, il est commode
d’introduire le problème d’approximation

 u0 (t) = An un (t) + f (t), t ∈ [0, T ],
 n


(3.3)


 u (0) = x ∈ X,

n

où An sont les approximations de Yosida de A. Le problème (3.3) a une solution unique un ∈


W 1,1 (0, T, E), donnée par la formule de variation de constante
Z t
un (t) = Sn (t)x + Sn (t − s)f (s)ds, t ∈ [0, T ], (3.4)
0

où Sn (t) = etAn , t > 0, et de plus

lim un = u ∈ C([0, T ], E).


n→∞

Proposition 3.1.4. Soit A le générateur infinitésimal d’un C0 -semigroupe S(·) dans E.

1. Si x ∈ D(A) et f ∈ W 1,p ([0, T ], E) 2 avec p ≥ 1 alors le problème (3.1) a une solution


stricte unique u dans C([0, T ], E) 3 , étant donné par la formule (3.4) et de plus u ∈
C 1 ([0, T ], E) C([0, T ], D(A)).
T

1. Lp (0, T ; E) : Espace de Banach des fonctions mesurables de Borel H sur [0, T ], intégrable de Bochner dans
la puissance p
2. W 1,p ([0, T ], E) : Espace de Sobolev de fonctions f ∈ Lp ([0, T ], E), avec Dα f ∈ Lp ([0, T ], E), |α ≤ 1|
3. C([0, T ], E) : Espace de Banach des fonctions continues à valeur de E sur [0, T ]
Équations linéaires avec bruit additif 58

2. Si x ∈ D(A) et f ∈ Lp ([0, T ], D(A)), alors le problème (3.1) a une solution stricte unique
dans Lp ([0, T ], E), donnée par la formule (3.2) et de plus u ∈ W 1,p ([0, T ], E) C([0, T ], D(A)).
T

Pour la preuve, voir, Da Prato and Zabczyk [6].

Définition 3.1.1. Nous dit que le problème de Cauchy suivant





 u0 (t) = A0 u(t), t ≥ 0,

(3.5)


 u(0) = x ∈ E

avec A0 étant un opérateur linéaire, généralement non borné, défini dans un sous-espace linéaire
dense D(A0 ) de E, est bien défini si :

1. pour un arbitraire x ∈ D(A0 ) il existe exactement une fonction strictement différentiable


u(t, x), t ∈ [0, +∞), satisfaisant (3.5) pour tout t ∈ [0, +∞),

2. si {xn } ∈ D(A0 ) et lim xn = 0, alors pour tout t ∈ [0, +∞) nous avons
n→∞

lim u(t, xn ) = 0. (3.6)


n→∞

Si la limite dans (3.6) est uniforme dans t sur des sous-ensembles compacts de [0, +∞], nous
dit que le problème de Cauchy (3.5) est uniformément bien défini.

3.2 Systèmes de retard (Exemple pour un système déter-


ministe)
Nous sommes préoccupés ici par le problème :
 Z 0
0
z (t) = a(dθ)z(t + θ) + f (t), t ≥ 0,





 −r





z(0) = h0 , (3.7)










 z(θ) = h (θ),
1 θ ∈ [−r, 0], P − P.s.

où a(·) est une mesure finie à matrice N × N sur [−r, 0], f : [0, +∞) −→ RN est une fonction
localement intégrable, h0 ∈ RN , h1 ∈ L2 ([−r, 0], RN ) et r est un nombre positif égal au retard
Équations linéaires avec bruit additif 59

maximal. Ce problème a une solution continue absolue unique z définie dans [−r, +∞).
Supposons pour l’instant f ≡ 0 et considérons l’espace de Hilbert H = RN ⊕ L2 ([−r, 0], RN ).
Il se trouve que la formule suivante
     
h0 z(t) h0
S(t)   =  , ∀   ∈ H, (3.8)
h1 zt h1

où z est la solution de (3.7), avec f ≡ 0 et zt (θ) = z(t + θ), θ ∈ [−r, 0], définit un C0 -semigroupe
sur H. Le résultat suivant est bien connu, voir par exemple ([8]).

Proposition 3.2.1. S(·) est un C0 -semigroupe dans H qu’il est de plus différentiable pour tout
t ≥ r. Le générateur infinitésimal A de S(·) est donné par :
  
h0
  
N 1,2 N
D(A) =   ∈ H : h0 ∈ R , h1 ∈ W (−r, 0, R ), h1 (0) = h0







 h1


Z 0  (3.9)


 −r a(dθ)h1 (θ)



Ah =


dh1

  



et nous avons   Z 0  
λθ
σ(A) = λ ∈ C : det λ − e a(dθ) =0 .
−r

Nous considérons maintenant le problème général (3.7). Nous avons la formule suivante
Z t
(z(t), zt ) = S(t)(h0 , h1 ) + S(t − s)(f (s), 0)ds.
0

Donc le problème (3.7) est équivalent au problème de Cauchy

u0 = Au + Bf, u(0) ∈ H
 
I
où A est donné par (3.9) et B =  .
0
Équations linéaires avec bruit additif 60

Nous introduisons maintenant divers concepts de solutions et discutons leurs propriétés


élémentaires.

3.3 Concepts de base

3.3.1 Concept de solutions

On nous donne un espace de probabilité (Ω, F, P) avec une filtration normale (Ft )t≥0 . Nous
considérons deux espaces de Hilbert H et U , et un processus de Q-Wiener W (t) sur (Ω, F, P),
avec l’opérateur de covariance Q ∈ L(U ). Si T r Q < ∞, alors W est un processus de Wiener
réel, alors si Q = I, W est un processus cylindrique et dans ce cas il a des trajectoires continus
dans un autre espace de Hilbert U1 plus grand que U , voir Chapitre 2. Nous supposons qu’il
existe un système orthonormal complet {ek } dans U , une suite bornée λk de nombres réels non
négatifs tels que
Qek = λk ek , k ∈ N,

et une suite {βk } de mouvements Brownien indépendants réels tels que


∞ p
X
hW (t), ui = λk hu, ek iβk (t), u ∈ U, t ≥ 0.
k=1

Nous considérerons l’équation linéaire affine suivante





 dX(t) = (AX(t) + f (t))dt + BdW (t)

(3.10)



 X(0) = ξ

où A : D(A) ⊂ H → H et B : U → H sont des opérateurs linéaires et f est un processus


stochastique à valeur dans H. Nous supposerons que le problème déterministe de Cauchy



 u0 (t) = Au(t),



 u(0) = x ∈ H,

est uniformément bien défini (voir Définition 3.1.1) et que B est borné, c’est-à-dire que nous
avons le suivant :

Hypothèse 3.3.1. A génère un C0 -semigroupe S(·) dans H et B ∈ L(U, H).


Équations linéaires avec bruit additif 61

Hypothèse 3.3.2. 1. f est un processus prévisible avec des trajectoires intégrables au sens
de Bochner sur l’intervalle arbitrairement fini [0, T ].

2. ξ est F0 -mesurable.

Remarque 3.3.1.1. Si W est un processus Q-Wiener dans U , alors W1 = BW est un processus


BQB ∗ -Wiener dans H. Nous pourrions donc supposer, sans aucune restriction, que U = H. Ce-
pendant, dans certaines applications, par exemple des équations d’onde ou de retard, il est pra-
tique d’avoir B différent de l’identité. 2

Un processus prévisible (X(t))t∈[0.T ] à valeur dans H, est dit une solution forte de (3.10) si
X(t) prend des valeurs dans D(A), P − P.s.,
Z T
|AX(s)|ds < ∞, P − P.s.
0

et pour t ∈ [0, T ]
Z t
X(t) = ξ + [AX(s) + f (s)]ds + BW (t), P − P.s.
0

Cette définition n’a de sens que si W est un processus à valeur dans U et donc demandé
que T r [Q] < +∞. On note qu’une solution forte devrait nécessairement avoir une modification
continue. Un processus prévisible (X(t))t∈[0.T ] à valeur dans H, est dit une solution faible de
(3.10) si les trajectoires de X(·) sont intégrables au sens de Bochner P-P.s. et si pour tout
z ∈ D(A∗ ) et tout t ∈ [0, T ] nous avons
Z t
hX(t), zi = hξ, zi + [hX(s), A∗ zi + hf (s), zi]ds + hBW (t), zi, P − P.s. (3.11)
0

Cette définition est importante pour un processus de Wiener cylindrique parce que les processus
scalaires hBW (t), zi, t ∈ [0, T ] sont des processus aléatoires bien définis (voir la section 2.4.1).
Il est clair qu’une solution forte est également faible.

3.3.2 Convolution stochastique

Il est d’une grande importance dans notre étude des équations linéaire d’établir d’abord les
propriétés de base du processus
Z t
WA (t) = S(t − s)BdW (s), t ≥ 0,
0

qu’on appelle convolution stochastique. Les propriétés sont recueillies dans le théorème suivant.
Équations linéaires avec bruit additif 62

Théorème 3.3.2.1. On suppose que l’hypothèse 3.3.1 est verifiée et


Z T Z T
2
kS(r)BkL0 dr = T r[S(r)BQB ∗ S ∗ (r)]dr < +∞. (3.12)
2
0 0

Alors

(1) le processus WA (·) est gaussien, continu en moyenne carré et a une version prévisible,

(2) nous avons Z t


Cov(WA (t)) = S(r)BQB ∗ S ∗ (r)dr, t ∈ [0, T ], (3.13)
0

(3) les trajectoires de WA (·) sont carrée intégrale P − P.s. et la loi L (WA (·)) est une mesure
gaussienne symétrique sur H = L2 (0, T, H) avec les opérateurs de covariance
Z T
Qϕ(t) = G(t, s)ϕ(s)ds, t ∈ [0, T ], (3.14)
0

où Z t∧s
G(t, s) = S(t − r)BQB ∗ S ∗ (s − r)dr, t, s ∈ [0, T ] (3.15)
0

et t ∧ s = min{t, s}.

Preuve
Pour prouver (1) fixer 0 ≤ s ≤ t ≤ T , alors
Z t Z s
WA (t) − WA (s) = S(t − r)BdW (r) + [S(t − r) − S(s − r)]BdW (r).
s 0

Puisque les intégrales sont indépendantes, il s’ensuit que



X Z t−s
E|WA (t) − WA (s)| 2
= λk |S(r)Bek |2 dr
k=1 0


X Z s
+ λk |(S(t − s + r) − S(r))Bek |2 dr.
k=1 0

Par (3.12) et le théorème de la convergence dominé de Lebesgue, la continuité en moyenne


quadratique suit. Que le processus est Gaussien suit facilement de la définition de l’intégrale
stochastique. L’existence d’une version prévisible est une conséquence de la proposition 2.1.6,
et (3.13) résulte de la proposition 2.5.1. Il reste à prouver (3). Pour une version mesurable de
WA (·) nous avons, par le théorème de Fubini
Z T Z T Z T Z s
2 2
E |WA (s)| ds = E|WA (s)| ds = kS(r)Bk2L0 drds < +∞,
2
0 0 0 0
Équations linéaires avec bruit additif 63

donc la partie initiale de (3) est vrai et de plus WA (·) peut être considérée comme une variable
aléatoire à valeurs dans H (voir[6]). Pour montrer que L (WA (·)) est symétrique et gaussienne
sur H = L2 (0, T, H), nous appliquons la proposition 3.1.1 et considérons la famille M suivante
de toutes les fonctionnelles (h ⊗ a) ∈ H ∗ = H , a ∈ H
Z T
(h ⊗ a)(ϕ) = h(t)ha, ϕ(t)idt, ϕ∈H.
0

Pour compléter la démonstration, on a besoin du lemme suivant

Lemme 3.3.2.1. Si ξ(·) est un processus gaussien à valeur réelle, continu en moyenne carré
RT
alors pour un arbitraire h ∈ L2 (0, T, R1 ), 0 h(s)ξ(s)ds est une variable aléatoire gaussienne
N0,|h|2 .

Puisque

Z T
(h ⊗ a)(WA ) = h(t)ha, WA (t)idt, WA ∈ H
0

et ha, WA (·)i est un processus gaussien réel, continu en moyenne carré , avec moyenne 0, par la
proposition 3.1.1 L (WA (·)) est une distribution gaussienne symétrique sur H . Si ψ, ϕ ∈ H
alors Z T Z T 
hQϕ, ψiH = E hϕ(s), WA (s)ids hψ(r), WA (r)idr
0 0

Z T Z T
= E(hϕ(s), WA (s)ihψ(r), WA (r)i)dsdr.
0 0
Puisque pour s > r
E(hϕ(s), WA (s)ihψ(r), WA (r)i)
Z T Z T Z s Z r
= E hϕ(s), S(s − σ)BdW (σ)i hψ(r), S(r − ρ)BdW (ρ)idsdr
0 0 0 0

Z T Z T Z s∧r
= hQB ∗ S ∗ (s − σ)ϕ(s), B ∗ S ∗ (r − σ)ψ(r)idσdsdr
0 0 0

Z T Z T
= hG(s, r)ϕ(s), ψ(r)idsdr,
0 0

où G(s, r) est donné par (3.15). Alors (3.14) est vrai. 2


Équations linéaires avec bruit additif 64

3.4 Existence et Unicité


Maintenant, nous démontrons l’existence de solutions faibles ainsi que les solutions fortes.

3.4.1 Solutions faibles

Le résultat principal de cette section est le suivant.

Théorème 3.4.1. Supposons les hypothèses 3.3.1, 3.3.1, et (3.12). Alors l’équation (3.10) a
éxactement une solution faible qui est donnée par la formule
Z t Z t
X(t) = S(t)ξ + S(t − s)f (s)ds + S(t − s)BdW (s), t ∈ [0, T ] (3.16)
0 0

La formule (3.16) est une généralisation stochastique de la formule classique de la variation


des constantes, voir la formule (3.2).
Preuve Il suit de la proposition 3.1.3 qu’un processus X est une solution faible à (3.10) si et
seulement si le processus X
e donné par la formule
 Z t 
e = X(t) − S(t)ξ +
X(t) S(t − s)f (s)ds , t ∈ [0, T ],
0

est une solution faible à


dX
e = AXdt
e + BdW, X(0)
e = 0.

On peut donc supposer, sans perte de généralité, que ξ = 0 et f ≡ 0. Pour prouver l’existence,
nous montrons que l’équation (3.10) avec ξ = 0 et f ≡ 0 est satisfaite par le processus WA (·).
On fixe t ∈ [0, T ] et soit ζ ∈ D(A∗ ). On note que
Z t Z t Z t 
∗ ∗
hA ζ, WA (s)ids = A ζ, 1[0,s] (r)S(s − r)BdW (r) ds
0 0 0

et par conséquent,
Z t Z tZ t 
∗ ∗ ∗ ∗
hA ζ, WA (s)ids = 1[0,s] (r)B S (s − r)A ζds, dW (r)
0 0
Z t Z t
 0 
∗ ∗ ∗
= B S (s − r)A ζds, dW (r)
Z0 t  Zr t   
d ∗ ∗
= B S (s − r)ζ ds, dW (r)
Z0 t r ds Z t
∗ ∗
= hB S (t − r)ζ), dW (r)i − hB ∗ ζ, dW (r)i
0 0
= hζ, WA (t)i − hζ, BW (t)i.
Donc WA (·) est une solution faible.

Pour prouver l’unicité, nous avons besoin du lemme suivant.


Équations linéaires avec bruit additif 65

Lemme 3.4.1. Soit X une solution faible du problème (3.10) avec ξ = 0, f ≡ 0. Donc, pour
une fonction arbitrairement ζ(·) ∈ C 1 ([0, T ], D(A∗ )) et t ∈ [0, T ], nous avons
Z t Z t
0 ∗
hX(t), ζ(t)i = [hX(s), ζ (s) + A ζ(s)i]ds + hζ(s), BdW (s)i.
0 0

Preuve
Considérons tout d’abord les fonctions de la forme ζ = ζ0 ϕ(s), s ∈ [0, T ], où ϕ ∈ C 1 ([0, T ]) et
ζ0 ∈ D(A∗ ). Soit Z t
Fζ0 (t) = hX(s), A∗ ζ0 ids + hBW (t), ζ0 i.
0

En appliquant la formule d’Ito au processus Fζ0 (s)ϕ(s) on obtient

d[Fζ0 (s)ϕ(s)] = ϕ(s)dFζ0 (s) + ϕ0 (s)Fζ0 (s)ds.

En particulier
Z t Z t
Fζ0 (t)ϕ(t) = hζ(s), BdW (s)i + [ϕ(s)hX(s), A∗ ζ0 i + ϕ0 (s)hX(s), ζ0 i]ds.
0 0

Puisque Fζ0 (·) = hX(·), ζ0 i, P − P.s le lemme est prouvé pour la fonction spéciale ζ(t) = ζ0 ϕ(t).
Puisque ces fonctions sont linéairement denses dans C 1 ([0, T ], D(A∗ )) le lemme est vrai en géné-
ral. 2

Soit X une solution faible et soit ζ0 ∈ D(A∗ ). En appliquant le lemme 3.4.1 à la fonction
ζ(s) = S ∗ (t − s)ζ0 , s ∈ [0, t], nous avons
Z t
hX(t), ζ0 i = hS(t − s)BdW (s), ζ0 i
0

et, puisque D(A∗ ) est dense dans H, nous trouvons que X = WA . La preuve est complète. 2

Exemple Équations de retard


Dans cet exemple, nous utilisons les notations de la section 3.2. Nous sommes préoccupés par
le problème  Z 0
dz(t) = a(dθ)z(t + θ)dt + f (t)dt + dW (t), t ≥ 0,





 −r





z(o) = h0 , (3.17)










 z(θ) = h1 (θ), θ ∈ [−r, 0], P − P.s.;
Équations linéaires avec bruit additif 66

où a(·) est une mesure finie à matrice N × N sur [−r, 0], f : [0, +∞) −→ RN est une fonction
localement intégrable, h0 ∈ RN , h1 ∈ L2 (−r, 0, RN ) et r est un nombre positif représentant le
retard. De la même manière que dans le cas déterministe (voir section 3.2), on peut associer à
l’équation (3.17) une équation linéaire stochastique :



 dX = AXdt + Bf (t)dt + BdW (t)




  (3.18)
 h
 0

X(0) =




 h 1

 
I
sur l’espace H = RN ⊕ L2 (−r, 0, RN ) où le générateur A est donné par (3.9) et B =  .
0
N
Dans la situation actuelle, U est égal à R . Evidemment (3.12) est rempli dans ce cas et
donc l’équation (3.18) comme une solution faible unique. Il a été montré par plusieurs auteurs
[voir([5],[7],[31]] sous différents ensembles d’hypothèses que X(t) = (z(t), zt ), t > 0, où z et zt
sont les solutions de l’équation (3.17) et son segment, respectivement. Ce fait est important
dans l’application des systèmes de retard pour contrôler les problèmes et la stabilité.

Considérons le cas particulier où

a(·) = a0 δ0 (·) + a1 δ−r (·)

où a0 , a1 sont des matrices N × N . L’équation (3.18) avec f = 0 peut maintenant être


résolue par étapes successives. En particulier, pour t ∈ [0, r]
Z t Z t
ta0 (t−s)a1
z(t) = e h0 + e h1 (s − r)ds + e(t−s)a0 dW (s). (3.19)
0 0

En tenant compte du fait que les trajectoires de la partie de convolution stochastique dans (3.19)
ne sont jamais absolument continues, nous pouvons voir que dans ce cas la solution faible de
(3.19) n’est jamais forte. 2
Équations linéaires avec bruit additif 67

3.4.2 Solutions fortes

Nous sommes maintenant préoccupés par l’existence de solutions fortes à (3.10). Puisque
(BW (t))t≥0 , devrait être un processus à valeur dans H, nous supposerons que B = I et que W
est un processus de Wiener à valeur dans H avec l’opérateur de covariance Q avec T r Q < +∞.
Nous sommes donc concernés par l’équation
Z t
X(t) = x + (AX(s) + f (s))ds + W (t), t ∈ [0, T ]. (3.20)
0

Comme les solutions fortes sont aussi des solutions faibles, nous savons qu’elles devraient être
de la forme
Z t Z t
X(t) = S(t)x + S(t − s)f (s)ds + S(t − s)dW (s), t ∈ [0, T ]. (3.21)
0 0

Théorème 3.4.2. Suppose que


1 1
1. Q 2 (H) ⊂ D(A) et AQ 2 est un opérateur de Hilbert-Schmidt,

2. x ∈ D(A) et f ∈ C 1 ([0, T ], H) C([0, T ], D(A)).


T

Alors le problème (3.10) a une solution forte

Preuve
Le résultat est vrai si f = 0, W = 0, par la proposition 3.1.2. Supposons maintenant que
x = 0, W = 0. Pour tout t ∈ [0, T ] on a
Z t Z t
|AS(t − σ)f (σ)|dσ ≤ kS(t − σ)k |Af (σ)|dσ < +∞,
0 0
Rt
et donc, par Proposition 3.1.4 X(t) ∈ 0 S(t − σ)f (σ)dσ ∈ D(A) et
Z t
AX(t) = AS(t − σ)f (σ)dσ, t ∈ [0, T ].
0

De plus Z t Z tZ s 
AX(s)ds = AS(s − σ)f (σ)dσ ds
0 0 0

Z tZ t−σ 
d
= S(s)f (σ)ds dσ
0 0 ds

Z t Z t
= S(t − σ)f (σ)dσ − f (σ)dσ
0 0

Z t
= X(t) − f (σ)dσ, t ∈ [0, T ].
0
Équations linéaires avec bruit additif 68

Supposons enfin que x = 0, f = 0. On note que


Z t Z t
1 1
2
kAS(s)Q 2 kL2 ds = kS(s)AQ 2 k2L2 ds
0 0

Z t
1
≤ kAQ k 2
2
kS(s)k2L2 ds < +∞.
0

Par conséquent, d’après la proposition 2.5.2


Z t
WA (t) = S(t − σ)dW (σ) ∈ D(A), P − P.s
0

et pour t ∈ [0, T ], P − P.s Z t


AWA (t) = AS(t − σ)dW (σ).
0

Puisque WA (·) est une solution faible de (3.10), pour t ∈ [0, T ] et ζ ∈ D(A∗ ), P − P.s.

Z t
hWA (t), ζi = hWA (s), A∗ ζids + hW (t), ζi
0

Z t
= hAWA (s), ζids + hW (t), ζi
0

Z t
= hA WA (s), ζi + hW (t), ζi.
0
Par conséquent Z t
WA (t) = AWA (s)ds + W (t), P − P.s.
0

Cela termine la preuve. 2


Exemple
Supposons que W est un processus de Wiener de dimension finie, dire
m
X
W (t) = ak βk (t), t ≥ 0, (3.22)
k=1

où β1 , . . . , βm sont des processus de Wiener indépendantset et les vecteurs a1 , . . . , am ∈ H sont


linéairement indépendants. Alors le théorème 3.4.2 dit que si a1 , . . . , am ∈ D(A) alors WA est
une solution forte de (3.21) avec x = 0, f = 0. Sous des conditions supplémentaires sur l’opé-
rateur A l’élément a1 , . . . , am peut être moins régulière. C’est le sujet du prochain théorème.2

Théorème 3.4.3. Supposons que A génère un semigroupe analytique de type négatif. Soit en
plus
Équations linéaires avec bruit additif 69

1 1
1. pour certains β ∈ ( 21 , 1), Q 2 (H) ⊂ D((−A)β ) et (−A)β Q 2 est un opérateur de Hilbert
Schmidt,

2. x ∈ D(A) et pour certains α ∈ (0, 1), f ∈ C α ([0, T ], H)


S
C([0, T ], DA (α, ∞)).

Alors le problème (3.10) a une solution forte.

Preuve. voir [6].


Exemple
Si W est donné par (3.22) et A génère un semigroupe analytique de type négatif, alors une solu-
tion faible est la solution forte à condition que a1 , . . . , am ∈ D((−A)β ) pour certains β ∈ ( 12 , 1).
Ceci est bien sûr une exigence plus faible que a1 , . . . , am ∈ D(A). 2
Conclusion

es concepts de base sur lesquels s’appuie la théorie des équations différentielles stochas-
L tiques, du moins celles gouvernées par des bruits gaussiens, sont celui du processus de
Wiener à valeurs dans un espace de Hilbert et celui de l’intégrale stochastique associée. Le
premier joue le rôle de mouvement brownien à valeurs dans un espace de dimension infinie.
Le second va permettre de donner un sens, du point de vue de l’analyse, au produit entre des
fonctions dont la régularité en temps est très différente.

Dans ce mémoire, j’ai réalisée une étude sur deux processus récemment définis : le processus
Q-Wiener et le Processus de Wiener généralisés. En premier lieu, on a définit ces deux proces-
sus et étudié leurs propriétés sur les espaces de Hilbert. Par ailleurs, on a rappelé les notions
des bases. Ensuite,on a définit l’intégrale stochastique par rapport aux processus Q-Wiener
et le processus de Wiener généralisés, puis on a étudié leurs approximations et propriétés des
intégrales stochastiques. Certains théorèmes connus ont été établis comme celui de Fubini, la
formule d’Itô.

Enfin, on a éffectué une étude sur les équations linéaires avec bruit additif. Nous avons
établi l’existence et l’unicité des solutions des équations différentielles stochastiques dans des
espaces de dimension infinie, des différentes notions de solutions sont établies (solutions faibles
et fortes).

70
Annexe

71
Annexe A

Opérateurs nucléaires et Opérateurs


Hilbert-Schmidt

A.1 Définition des opérateurs nucléaires et Hilbert-Schmidt


Soient E et G deux espaces de Banach et soit L(E, G) l’espace de Banach de tous les
opérateurs linéaires bornés de E dans G muni de la norme supremum usuelle. Nous écrivons
L1 (E) au lieu de L1 (E, G). On note par E ? et G? les espaces dual de E et G, respectivement.
On dit qu’un élément T ∈ L(E, G) est un opérateur a trace ou nucléaire s’il existe deux suites
{aj } ⊂ G, {ϕj } ⊂ E ? telles que

X
kaj kkϕj k < +∞ (A.1)
j=1

et T a la représentation

X
Tx = aj ϕj (x), x ∈ E.
j=1

L’espace de tous les opérateurs nucléaires de E dans G, muni de la norme


X∞ ∞
X 
kT k1 = inf kaj kkϕj k : T x = aj ϕj (x)
j=1 j=1

est un espace de Banach (voir[9]), et sera noté par L1 (E, G). Soit K un autre espace de Banach,
il est clair que si T ∈ L1 (E, G) et S ∈ L(G, K) alors T S ∈ L1 (E, K) et kT Sk1 ≤ kT kkSk1 .
Soit H un espace de Hilbert séparable et soit {ek } un système orthonormal complet dans H. Si
T ∈ L1 (H, H) alors nous définissons

X
Tr T = hT ej , ej i.
j=1

72
Conclusion 73

Proposition A.1.1. Si T ∈ L1 (H) alors T r T est un nombre bien défini indépendant du choix
de base orthonormale {ek }.

Preuve Soit {aj } ⊂ H et {ϕj } ⊂ H ? deux suites telles que



X
Th = aj ϕj (h), h∈H
j=1

et (A.1) satisfaite. Soit bj ∈ H tel que ϕj (h) = hh, bj i. Alors



X
hT ek , ek i = hek , aj ihek , bj i.
j=1

de plus

X ∞ X
X ∞
|hT ek , ek i| ≤ |hek , aj ihek , bj i|
k=1 j=1 k=1

∞ X
X ∞  21  X
∞  12
2 2
≤ |hek , aj i| |hek , bj i|
j=1 k=1 k=1


X
≤ |aj ||bj | < +∞
j=1

Puisque

X ∞ X
X ∞ ∞
X
hT ek , ek i = hek , aj ihek , bj i = haj , bj i,
k=1 j=1 k=1 j=1

la définition de T r T est indépendante de la base {ek }. 2


On note aussi que
|T r T | ≤ kT k1 , ∀T ∈ L1 (H). (A.2)

Corollaire A.1.1. Si T ∈ L1 (H) et S ∈ L(H), alors T S ∈ L1 (H) et

T r T S = T r ST ≤ kT k1 kSk (A.3)

Proposition A.1.2. Un opérateur non négatif T ∈ L(H) est a trace si et seulement si pour
une base orthonormale {ek } sur H.


X
hT ej , ej i < ∞.
j=1
Conclusion 74

De plus dans ce cas T r T = kT k1 .


1
Preuve Nous montrerons d’abord que T est compact. Soit T 2 la racine carrée non négative de

1
1
X
T . Alors T 2 x = hT 2 x, ej iej , et
j=1
N ∞
1 1
1
X X
|T x −
2 hT 2 x, ej iej |2 = |hT 2 x, ej i|2
j=1 k=N +1

∞ ∞
1
X X
2
≤ |x| |T ej | ≤ |x|
2 hT ek , ek i, x ∈ H.
k=N +1 k=N +1
1
Donc l’opérateur T 2 est une limite, dans la norme d’opérateur, des opérateurs de rang fini.
1 1 1
Donc T 2 est compact et T = T 2 T 2 est aussi un opérateur non négatif compact. Soit {fj } une
suite de tous les vecteurs propres de T et soit {λj } la suite correspondante des valeurs propres.
Alors

X
Tx = λk hx, fk ifk , x ∈ H. (A.4)
k=1

Puisque

X
hT ej , ej i = λk |hfj , ek i|2 ,
k=1
on a

X ∞ X
X ∞ ∞
X
hT ej , ej i = λk |hfj , ek i|2 = λk < +∞.
j=1 j=1 k=1 k=1

X
De ceci et des accroissements (A.4) on a que T a trace et T r T = λk . De (A.2) et (A.4) ,
k=1
l’identité T r T = kT k1 suit. 2
Soient E et F deux espaces de Hilbert séparables avec des bases orthonormées complets
{ek } ⊂ H, {f }j ⊂ F , respectivement. Un opérateur linéaire bornée T : H → E est dit Hilbert-
Schmidt si

X
|T ek |2 < ∞.
k=1

Puisque

X ∞ X
X ∞ ∞
X
2
|T ek | = |hT ek , fj i| = 2
|T ∗ fj |2 ,
k=1 k=1 j=1 k=1


X  21
2
la définition de l’opérateur Hilbert-Schmidt, et le nombre kT k2 = |T ek | , est indépen-
k=1
dant du choix de la base {ek }. De plus kT k2 = kT ∗ k2 .
On peut facilement vérifier que l’ensemble L2 (E, F ) de tous les opérateurs de Hilbert-
Schmidt de E dans F , muni de la norme,

X  21
2
kT k2 = |T ek | ,
k=1

est un espace de Hilbert séparable, avec le produit scalaire



X
hS, T i2 = hSek , T ek i.
k=1

La double suite des opérateurs {fj ⊗ ej }j,k∈N est une base orthonormale complète dans
L2 (E, F ) 1 .

Proposition A.1.3. Soit E, F, G des espaces de Hilbert séparables. Si T ∈ L2 (E, F ) et


S ∈ L2 (F, G) alors ST ∈ L1 (E, G) et

kST k1 ≤ kSk2 kT k2 .

Preuve
On note que

X
ST x = hT x, fj iSfj , x ∈ E.
k=1

Il s’ensuit, à partir de la définition de l’opérateur a trace, que



X
kST k1 ≤ |T ∗ fj ||Sfj |
j=1


X  21  X
∞  12
∗ 2 2
≤ |T fj | |Sfj | .
j=1 j=1

1. Pour arbitrairement b ∈ E, a ∈ F on note par b⊗a l’opérateur linéaire défini par (b⊗a)·h = ha, hib, h ∈ F.

75
Annexe B

L’intégrale de Bochner

Soit (X, k k) un espace de Banach, B(X) le σ-algèbre de Borel de X et (Ω, F, µ) un espace


de mesure à mesure finie

B.1 Définition de l’intégrale de Bochner


Etape 1 : Comme première étape, nous voulons définir l’intégrale pour les fonctions simples
qui sont définies comme suit. Définir

n
X
ε := {f : Ω → X|f = xk 1Ak , xk ∈ X, Ak ∈ F, 1 ≤ k ≤ n, n ∈ N}
k=1

et définir une semi-norme k kε sur l’espace vectoriel ε par

Z
kf kε := kf kdµ, f ∈ ε.

Pour obtenir que (ε, k kε ) est un espace vectoriel normé, nous considérons les classes d’équiva-
lence par rapport à k kε . Pour la simplicité, nous ne changerons pas les notations.

Pour f ∈ ε, nous définissons maintenant l’intégrale de Bochner à


Z Xn
f dµ := xk µ(Ak )
k=1

De cette façon, obtenir une application

int : (ε, k kε ) → (X, k k)


Z
f → f dµ

76
Conclusion 77

R R
qui est linéaire et uniformément continue puisque k f dµk ≤ kf kdµ pour tous f ∈ ε.

Par conséquent, nous pouvons étendre l’application int à Complet abstrait de ε par rapport
à k kε que nous donnons par ε.

Etape 2 : Nous donnons une représentation explicite de ε.

Définition B.1.1. Une fonction f : Ω → X est appelée fortement mesurable si elle est mesu-
rable de Borel et si f (Ω) ⊂ X est séparable.

Définition
 B.1.2. Soit 1 ≤ p < ∞. donc, nous définissons Lp (Ω, F, µ,  X) := Lp (µ, X) :=
R
f : Ω → X|f est fortement mesurable par rapport à F et kf kp dµ < ∞ et la semi-norme
Z  p1
kf kLp := p
kf k dµ , f ∈ Lp (Ω, F, µ, X). L’espace de toutes les classes d’équivalence dans
Lp (Ω, F, µ, X) par rapport à k kLp est noté Lp (Ω, F, µ, X) := Lp (µ, X).

On pose :L1 (Ω, F, µ, X) = ε.


Etape 1 :(L1 (Ω, F, µ, X), kkL1 ) est complet.
La preuve est seulement une modification du théorème de Fischer-Riesz à l’aide de la proposition
suivante

Proposition B.1.1. Soit (Ω, F) un espace mesurable et soit un X espace Banach. alors

(1) l’ensemble des fonctions mesurables de Borel de Ω à X est fermé sous le développement
de limites ponctuelles, et

(2) l’ensemble des fonctions fortement mesurables de Ω à X est fermé sous le développement
de limites ponctuelles.

Pour la preuve, voir, [CO 80,proposition E.1.,p.350]. 2

Etape 2 : ε est un sous-ensemble dense de L1 (Ω, F, µ, X) par rapport à kkL1 . Cela peut être
montré à l’aide du lemme suivant

Lemme B.1.1. Soit E un espace métrique avec métrique d et que f : Ω → E soit fortement
mesurable. Alors il existe une suite fn , n ∈ N, de fonctions simples d’une valeur de E (i.e fn est
F/B(E)-mesurable et ne prend qu’un nombre fini de valeurs) tel que pour un arbitraire ω ∈ Ω
la suite d(fn (ω), f (ω)), n ∈ N est décroissante monotone vers zéro
Conclusion 78

Preuve [Da Pr Za 92, Lemma 1.1, p.16]


Soit {ek , k ∈ N} un sous-ensemble dense de f (Ω). Pour m ∈ N définir

dm (ω) := min{d(f (ω), ek )|k ≤ m}

km (ω) := min{k ≤ m|dm (ω) = d(f (ω), ek )}

fm (ω := ekm (ω)

De toute évidence fm , m ∈ N, sont des fonction simple puisque

fm (Ω) ⊂ {e1 , e2 , ....., em }

De plus, par la densité de {ek , k ∈ N}, la suite dm (ω), m ∈ N, est décroissante monotone vers
zéro pour un arbitraire ω ∈ Ω. Puisque d(fm (ω), f (ω) = dm (ω) l’assertion verifiée. 2

Soit maintenant f ∈ L1 (µ, X). Par le lemme B.1.1 ci-dessus nous obtenons l’existence d’une
suite de fonctions simples fn , n ∈ N, telles que

kfn (ω) − f (ω)k ↓ 0 pour tout ω ∈ Ω comme, n → ∞

Donc fn −→ f dans kkL1 par le théorème de convergence dominé par Lebesgue.


n−→∞

B.2 Propriétés de l’intégrale de Bochner


Proposition B.2.1. (Inégalité de Bochner). Soit f ∈ L1 (Ω, F, µ, X). alors
Z Z
k f dµk ≤ kf kdµ.

Preuve Si f ∈ ε l’assertion est évidente.

Si non, il existe une suite de fonctions simples fn , n ∈ N, telles quekfn − f kL1 −→ 0.


n−→∞

Puisque int : L1 (µ, X) → X et k kL1 : L1 (µ, X) → R sont continus, nous obtenons


Z Z Z Z
k f dµk = lim k fn dµk ≤ lim kfn kdµ = kf kdµ.
n−→∞ n−→∞

2
Conclusion 79

Proposition B.2.2. Soit f ∈ L1 (Ω, F, µ, X). Alors


Z Z 
ϕ ◦ f dµ = ϕ f dµ

retenir pour tout ϕ ∈ X ∗ = L(X, R).

Preuve [Co 80,Proposition E.11,p.356]

Proposition B.2.3. (Théorème fondamental). Soit −∞ < a < b < ∞ et f ∈ C 1 ([a, b], X).
Alors  R

 1[s,t] (u)f 0 (u)du si s ≤ t
t
Z 

f (t) − f (s) = f 0 (u)du :=
s 

 − R 1 (u)f 0 (u)du,

si non.
[t,s]

pour tout s, t ∈ [a, b] où dénote la mesure lebesgue sur B(R).

Preuve
Rt
Prétendre 1 :Si nous posons F (t) = s
f 0 (u)du, t ∈ [a, b], nous obtenons ce F 0 (t) = f 0 (t) pour
tout t ∈ [a, b].
Pour cela, nous devons prouver que.

1
k (F (t + h) − F (t)) − f 0 (t)kE −→ 0
h −→∞

A cette fin nous fixons t ∈ [a, b] et prenons un arbitraire ε > 0. Puisque f 0 est continu sur [a, b],
il existe δ > 0 tel que kf 0 (u) − f 0 (t)kE < ε pour tout u ∈ [a, b] avec |u − t| < δ. Donc, nous
obtenons que
Z t+h
1 1
k (F (t + h) − F (t)) − f 0 (t)kE = k f 0 (u) − f 0 (t)dukE
h h t

Z t+h
1
≤ kf 0 (u) − f 0 (t)kE du < ε
h t

si t + h ∈ [a, b] et |h| < δ


f0 = F 0 = f 0 alors il existe une
Prétendre 2 : Si Fe ∈ C1 ([a, b], E) est une autre fonction avec F
constante c telle que F − Fe = c.
Pour tout L ∈ E ∗ = L(E, R), nous définissons gL := L(F − Fe). Alors gL0 = 0 et donc gL est
constante. Comme E ∗ sépare les points de E par le théorème de Hahn-Banach ce qui implique
que F − Fe est elle-même constante. 2
Annexe C

Théorie des C0-semigroupes

C.1 Semigroupes de classe C0


Définition C.1.1. Soit E un espace de Banach sur le corps des nombres complexes C. on note
par B(E) l’algébre de Banach des opérateurs linéaires bornés dans E et par I l’unité de B(E).
Pour un opérateur linéaire A : D(A) ⊂ E −→ E on note par

σ(A) = {λ ∈ C|λI − A est inversible dans B(E)}

l’ensemble résolvant de A ∈ B(E) et par

R(·, A) : σ(A) −→ B(E)

R(λ, A) = (λI − A)−1

la résolvante de l’opérateur linéaire A.

Définition C.1.2. On appelle C0 -semigroupe d’opérateurs linéaires bornés sur E une famille
(S(t))t≥0 ⊂ B(E) vérifiants les propriétés suivantes :

a) S(0) = I,

b) (Propriété Semigroupe) S(t + s) = S(t)S(s) ∀ t, s ≥ 0,

c) (Propriété de continuité forte) lim+ S(t)x = x, ∀ x ∈ E.


t→0

Soit S(t) ⊂ B(E) un C0 -semigroupe sur un espace de Banach E. Donc, il existe des
constantes ω ≥ 0 et M ≥ 1 telles que

kS(t)k ≤ M eωt , t ≥ 0 (C.1)

80
Conclusion 81

• Si M = 1, alors S(t) est appelé un semigroupe de pseudo-contraction.

• Si ω = 0, alors S(t) est appelé uniformément borné, et si ω = 0 et M = 1 (i.e, kS(t)k ≤ 1),


alors S(t) est appelé un semigroupe de contractions.

• Si pour tout x ∈ X, application t → S(t)x est différentiable pour t > 0, alors S(t) est appelé
un semigroupe différentiable.

• Un semigroupe d’opérateurs linéaires {S(t)}t≥0 est appelé compact si les opérateurs (S(t))t>0
sont compacts.

Définition C.1.3. On appelle générateur infinitésimal d’un C0 -semigroupe , (S(t))t≥0 , un opé-


rateur A défini sur l’ensemble :
 
S(t)x − x
D(A) = x ∈ X : lim+ exists
t→0 t

par :
S(t)x − x
Ax = lim+ , ∀ x ∈ D(A).
t→0 t
Remarque C.1.1. Le générateur infinitésimal d’un C0 -semigroupe est un opérateur linéaire.

Théorème C.1.1. Soit A un générateur infinitésimal d’un C0 -semigroupe S(t) sur un espace
de Banach E : Alors

1) Pour x ∈ E, Z t+h
1
lim S(t)xds = S(t)x.
h→0 h t

2) Pour x ∈ D(A), S(t)x ∈ D(A) et

d
S(t)x = AS(t)x = S(t)Ax
dt
Rt
3) Pour x ∈ E, 0
S(s)xds ∈ D(A), et
Z t 
A S(s)xds = S(t)x − x.
0

4) Pour x ∈ D(A), Z t Z t
S(t)x − S(s)x = S(u)Axdu = AS(u)xdu
s s

5) D(A) est dense en E, et A est un opérateur linéaire fermé.



\
6) L’intersection D(An ) est dense dans E :
n=1
Conclusion 82

7) Soit E un espace de Banach réflexive. Alors le semigroupe adjoint S(t)∗ de S(t) est un
C0 -semigroupe dont le générateur infinitésimal est A∗ , l’adjoint de A.

Proposition C.1.1. Soient (S(t))t≥0 ⊂ B(E) et A son générateur infinitésimal. Si x ∈ D(A),


alors S(t)x ∈ D(A) et on a l’égalité

S(t)Ax = AS(t)x, ∀t ≥ 0.

preuve. Soit x ∈ D(A). Alors pour tout t ≥ 0, on a :


S(h)x − x
S(t)Ax = S(t) lim+
t→0 h

S(h)S(t)x − S(t)x
= lim+
t→0 h
Donc S(t)x ∈ D(A) et on a S(t)Ax = AS(t)x, ∀t ≥ 0.

Remarque C.1.2. On voit que :

S(t)D(A) ⊆ D(A), ∀t ≥ 0.

Théorème C.1.2. (Hille-Yosida) Soit A : D(A) ⊂ E → E un opérateur fermé linéaire sur E.


Alors l’assertion suivante est équivalente :

(1) A est le générateur infinitésimal d’un C0 -semigroupe S(·) tel que kS(t)k ≤ M eωt , t ≥ 0.

(2) D(A) est dense dans E, l’ensemble résolvant σ(A) contient l’intervalle (ω, +∞) et les
estimations suivantes

(Rk (λ, A)) ≤ M (λ − ω)−k , ∀k ∈ N.

De plus, si (1) ou (2) verifiée donc


Z ∞
R(λ, A)x = e−λt S(t)xdt, x ∈ E, λ > ω. (C.2)
0

Finalement
S(t)x = lim etAn , ∀x ∈ E,
n−→∞

où An = nAR(n, A) et l’estimation suivante


ωnt
ketAn k ≤ M e n−ω , ∀t ≥ 0, n > ω

Les opérateurs An = AJn où Jn = nR(n, A), n > ω, sont appelés les approximations Yosida
de A.
Annexe D

puissances fractionnaires et espaces


d’interpolation

Hypothèse D.0.1. (a) Il existe ω ∈ R1 et θ0 ∈ ( π2 , π) tels que σ(A) ⊃ Sω,θ0 avec

Sω,θ0 = {λ ∈ C\{ω} : | arg(λ − ω)| ≤ θ0 }.

(b) Il existe M > 0 tel que


M
kR(λ − A)k ≤ , ∀λ ∈ Sω,θ0 . (D.1)
|λ − ω|
Ensuite, nous pouvons définir un semigroupe S(·) des opérateurs linéaires bornés dans E
en fixant S(0) = I et :

Z
1
S(t) = eλt R(λ, A)dλ, t > 0. (D.2)
2πi γξ,θ

Pour étudier les propriétés de régularité de solutions aux problèmes de Cauchy, il est com-
mode d’introduire plusieurs domaines de sous-espaces de E. Pour simplifier la notation, nous
supposons, en plus de l’hypothèse D.0.1, que le semigroupe S(·) est de type négatif, ce qui
signifie que ω < 0. Pour tout α ∈ (0, 1), nous définissons
Z
−α 1
(−A) x = (−λ)α R(λ, A)xdλ, t ≥ 0, x ∈ E
2πi γε,θ

où nous avons utilisé les symboles de la section A.4.1(voir [6]).


Comme cela est facile à vérifier, (−A)−α est un-à-un. On notera (−A)α l’inverse de (−A)−α et
par D((−A)α ) son domaine. Il n’est pas difficile de prouver (voir [32]) que

(−A)α (−A)β = (−A)α+β , ∀α, β ∈ (0, 1), α + β ≤ 1.

83
Conclusion 84

Les opérateurs (−A)α sont appelés puissances fractionnaires de −A. Le premier domaine
des sous-espaces de E est pourvu par

D((−A)α ), α ∈ (0, 1).

Par (D.2) nous obtenons une formule de représentation pour (−A)α S(·) qui sera souvent utilisée.

Proposition D.0.2. Soit A un opérateur linéaire satisfaisant l’hypothèse D.0.1 avec ω < 0.
Alors pour tout α ∈ (0, 1) et t > 0 on a S(t)x ∈ D((−A)α ), ∀x ∈ E et
Z
α 1
(−A) S(t)x = eλt (−λ)α R(λ, A)xdλ. (D.3)
2πi γε,θ

De plus pour tout ε > 0, il existe Nα,ε > 0 tels que

k(−A)α S(t)k ≤ Nα,ε t−α e(w+ε)t , t > 0. (D.4)

Nous aurons besoin de deux autres domaine d’espaces liés à la théorie dite d’interpolation.
Pour toute α ∈ (0, 1) nous définissons

kxkα,∞ = sup t−α kS(t)x − xk, x ∈ E,


t>0

et on note par DA (α, ∞) l’espace de Banach de tous les x ∈ E tel que kxkα,∞ < +∞, muni de
la norme k · k + k kα,∞ . nous définissons

DA (α + 1, ∞) = {x ∈ D(A) : Ax ∈ DA (α, ∞)}.

De plus DA (α, ∞) est un sous-espace invariant de (S(t))t>0 , et la restriction de S(t) à DA (α, ∞)


génère un C0 -semigroupe dans DA (α, ∞) . Puisque S(·) est un semigroupe analytique, alors
une norme équivalente est la suivante, voir [3], k k + k b
kα,∞ , où

kα,∞ = sup t1−α kAS(t)xk,


kxb x ∈ E.
t>0

Enfin nous définissons les espaces DA (α, 2), pour tout α ∈ (0, 21 ]
 Z ∞ 
2 1−2α 2
DA (α, 2) = x ∈ E : |x|α = ξ |AS(ξ)x| dξ < ∞ . (D.5)
0

Pour α ∈ ( 12 , 1)
 Z ∞ 
2 3−2α 2 2
DA (α, 2) = x ∈ E : |x|α = ξ |A S(ξ)x| dξ < ∞ . (D.6)
0
Conclusion 85

Il résulte des définitions (D.5), (D.6) que la restriction de S(·) à DA (α, 2) est un semigroupe de
contractions dans DA (α, 2) pour tout α ∈ (0, 1). En fait, si α ∈ (0, 12 ), nous avons
Z ∞
2
|S(t)x|α = (η − t)1−2θ |AS(η)x|2 dη ≤ |x|2α ,
t

alors que si α ∈ ( 12 , 1), nous avons


Z ∞
|S(t)x|2α = (η − t)3−2θ |A2 S(η)x|2 dη ≤ |x|2α .
t

Nous avons la relation suivante entre certains des espaces introduits.

Proposition D.0.3. Soit A un opérateur linéaire qui verifié l’hypothèse D.0.1 avec ω < 0, et
soit θ ∈ (0, 1). Donc, les inclusions suivantes sont satisfaites :

1. D((−A)θ ) ⊂ DA (θ, ∞).

2. DA (θ, ∞) ⊂ D((−A)θ−ε ), pour 0 < ε < θ.

Preuve. Soit x ∈ D((−A)θ ), alors par (D.4) il existe C > 0 tel que

kAS(t)xk = k(−A)1−θ S(t)(−A)−θ xk ≤ Ctθ−1 k(−A)θ xk.

Donc kt1−θ AS(t)xk est bornée et x ∈ DA (θ, ∞).

Supposons, à l’inverse, que x ∈ DA (θ, ∞). Donc, en rappelant (C.2), il n’est pas difficile de
montrer qu’il existe une constante C1 (x) telle que

kλθ AR(λ, A)xk ≤ C1 (x), λ > 0.

Maintenant, soit ε ∈ (0, θ), alors il est facile de montrer que x ∈ D((−A)θ−ε ) et
Z
θ−ε 1
(−A) x = λθ−ε−1 AR(λ, A)xdλ.
2Πi γε,θ

Remarque D.0.3. Nous aurons besoin du résultat d’inclusion suivant, voir [[29], Lemme 1.1] :
\
C 1,α ([0, T ], E) C α ([0, T ], D(A)) ⊂ C 1+α−β ([0, T ], DA (β, ∞)),

pour tous α ∈ (0, 1), β ∈ (0, α]. 2


Conclusion 86

Proposition D.0.4. Soit H est un espace de Hilbert et soit A le générateur infinitésimal d’un
C0 -semigroupe analytique S(·) de type négatif. Alors pour tout θ ∈ (0, 1) et tout ε ∈ (0, θ)
l’inclusion suivante est vérifié

D((−A)θ ) ⊂ DA (θ − ε, 2).

Preuve. Nous remarquons d’abord que (D.4) il existe deux constantes C > 0 et α > 0
telles que
k(−A)1−θ S(t)k ≤ Ctθ−1 e−αt , t ≥ 0.

Maintenant, soit x ∈ D((−A)θ ), alors nous avons

kAS(t)xk = k(−A)1−θ S(t)(−A)θ xk ≤ Ctθ−1 e−αt k(−A)θ xk.

Mais cela implique la conclusion puisque


Z ∞ Z ∞
ξ 1−2θ−2ε 2 2 θ
kAS(ξ)Xk dξ ≤ C k(−A) xk 2
ξ 2ε−1 e−αξ dξ < ∞.
0 0

Remarque D.0.4. Dans [28], l’inclusion suivante est prouvée


\ 1
W 1,2 (0, T, H) L2 (0, T, D(A)) ⊂ C([0, T ], DA ( , 2)).
2
2

Le résultat suivant est dû à [35].

Proposition D.0.5. Supposons qu’il existe γ ∈ (0, 1) tel que D((−A)θ ) soit isomorphe à
D((−A∗ )θ ), ∀θ ∈ (0, γ), où A∗ désigne l’adjoint de A. Alors DA (θ, 2) est isomorphe à D((−A)θ )
pour tout θ ∈ (0, 1).

Remarque D.0.5. L’hypothèse de la proposition D.0.5 est vérifié si S(·) est un semigroupe de
contraction (voir [22]), et en particulier si A est auto-adjoint négatif

Le résultat suivant est dû à [11].

Proposition D.0.6. Soit H un espace de Hilbert et soit A le générateur infinitésimal d’un


1
semigroupe analytique S(·) dans H de type négatif. Supposons que D((−A) 2 ) est isomorphe à
DA ( 12 , 2). Alors il existe une constante C > 0 telle que
Z t
1
|(−A) 2 S(s)x|2 ds ≤ C|x|2 , ∀x ∈ D(A).
0
Conclusion 87

Preuve. Si x ∈ D(A) nous avons


Z t Z t
1 −1
2
|(−A) S(s)x| ds =
2 |AS(s)(−A) 2 x|2 ds
0 0

−1
≤ |(−A) 2 x|2DA ( 1 ,2) ,
2

1
et la conclusion suit puisque D((−A) 2 ) est isomorphe à DA ( 21 , 2). 2
Bibliographie

[1] F. Baudoin. MR2, module B1 : Cours de calcul stochastique.

[2] J. C. Breton. Processus Stochastiques, M2 Mathématiques, Université de Rennes 1,


Septembr-Octobre 2017.

[3] P. L. BUTZER, H. BERENS. Semigroups of Operators and Approximations, Springer-


Verlag, (1967).

[4] A. Chojnowska-Michalik. Stochastic Differential Equations in Hilbert Spaces and Some of


Their Applications, Thesis, Institute of Mathematics, Polish Academy of Sciences (1977).

[5] A. Chojnowska-Michalik. Representation Theorem for General Stochastic Delay Equations,


Bull. Acad. Pol. Sci. Ser. Sci.Math., 26, 7, 634-641.(1978).

[6] G. Da Prato (Scuola Normale Superiore, Pisa)and J. Zabczyk (Polish Academy of


Sciences). Stochastic Equations in Infinite Dimensions. Encyclopedia of Mathematics and
its Applications 152. Second Edition.

[7] M. C. Delfour. The Largest Class of Hereditary Systems Defining a C0 -Semigroup on The
Product Space, Can. J. Math.,32, no. 4,969-978. (1980).

[8] M. C. Delfour, and S. K. Mitter, Hereditary differential systems with constant delays. I.
General case. J. Differential Equations 12 (1972), 213-235 ; erratum, ibid. 14 (1973), 397.

[9] Y. Dunfordn, J. T. Schwartz. Linear Operators. Part II : Spectral Theory. Self Adjoint
Operators in Hilbert Space (with the assistance of G. William Bade and G.Robert Bartle),
Interscience Publishers John Wiley y Sons, (1963).

[10] W. Feller. Zur Theorie der Stochastischen Prozesse (Existenzund Eindeutigkeitssatze).


Math. Ann.,113, 113-160 (1936).

[11] F. Flanandoli. The Semigroup Approach to Stochastic Evolution Equations, Stochastic


Anal. Appl., 10, no. 2, 181-203, (1992).

88
Conclusion 89

[12] I. I. Gikhman. A method of constructing random processes, Dokl.Acad. Nauk, SSSR, 58,
961-964. (1946).

[13] I. I. Gikhaman, A.V. Skorokhod. Equations différentielles stochastiques. Springer-


Verlag.(1972).

[14] F. Godet. Intégrale Stochastique, présentation, 20 novembre 2006.

[15] H. Guiol, Calcul Stochastique Avancé, TIMB/TIMC - IMAG 2006.

[16] K. Itô. Differential Equations Determining Markov processes. Zenkoku Shijo Sugaku Dan-
wakai, 244, 1352-1400 (1942).

[17] K. Itô. Stochastic Integral. Proc. Imp. Acad. Tokyo,20, 519-524 (1944).

[18] K. Itô. Stochastic Differential Equations. Memoirs of the Amer. Math. Soc. 4(1951).

[19] J. Jacod. Calcul Stochastique et Probléme de Martingales, Lecture Notes in Mathematics,


no.714, Springer-Verlag.(1979).

[20] B. Jourdain, B. Lapeyre, Mouvement brownien, Espérance Conditionnelle, Martingale,


Intégrale Stochastique, 30 mai 2006.

[21] J. P. Kahane. Le mouvement Brownien, Un essai sur les origines de la théorie mathéma-
tique Société Mathématique de France 1998, p.123-155 .

[22] T. Kato. Strong Lp-solutions of the Navier-Stokes equation in Rm with applications to


weak solutions, Math. Z., 187, no. 4, 471-480,(1984).

[23] I. Kanratzas and S. E. Shreve : Brownian Motion and Stochastic Calculus, Springer-Verlag,
New York, 1988.

[24] A. N. Kolmogoroff. Ûber Die Analytischen Methodenin der Wahrscheinlichkeitsrechnung.


Math. Annalen,104, 415-458(1931).

[25] J. F. Le Gall. Mouvement Brownien et Calcul Stochastique, Notes de cours de Master 2,


Université Paris-Sud, Master Probabilités et Statistiques, Octobre 2008, 2009.

[26] O. Lévêque, EPFL, Cours de Probabilites et Stochastic Calculus, Semestre d’hiver 2004-
2005.

[27] P. Lévy. Processus Stochastiques et Mouvement Brownien. Gauthier-Villars, Paris (1948)


Second edition (1965).

[28] J. L. Lions, E. Magenes. Problèmes aux Limites Nonhomogènes et Applications, Dunod,


(1968).
Conclusion 90

[29] A. Lunardi On the evolution operator for abstract parabolic equations, Isr. J. Math., 60,
no. 3, 281-314,(1987).

[30] M. Metivier, J. Pellaumail. Stochastic Integration, Academic Press, (1980).

[31] R. B. Vinter. A Representation of Solution to Stochastic Delay Equations, Imperial College


Department, Computing and Control, Report. (1975).

[32] A. Pazy, Semigroups of Linear Operators and Applications to Partial Differential Equa-
tions, Springer-Verlag, (1983).

[33] J. B. Walsh. An Introduction to Stochastic Partial Differential Equations. In Eécole d’Ete


de Probabilite de Saint Flour XIV 1984, P.L. Hennequin (ed.), Lecture Notes in Mathema-
tics, no.1180, 265-439.

[34] N. Wiener. Differential Space. J. Math. Phys. 2, 131-134 (1923).

[35] A. Yagi. Coincidence entre des espaces d’interpolation et des domaines de puissances frac-
tionnaires d’pérateurs, C. R. Acad. Sci. Paris, Sér. I, 299, no. 6. 173-176 ; (1984).

[36] Y. Zemel, Calcul Stochastique, January 18, 2011

Vous aimerez peut-être aussi