These Doctora
These Doctora
These Doctora
matricielles
El Mostafa Sadek
THÈSE DE DOCTORAT
Rapporteurs :
Examinateur :
Directeurs de Thèse :
Encadrants :
- Abdeslem Hafid BENTBIB, Professeur de l’enseignement supérieur
- Laboratoire : LAMAI, Laboratoire de Mathématiques Appliquées et Informatique.
- Rapporteurs de thèse :
Abouir Jilali Professeur, FST Université Hassan II, Mohammedia, Maroc
El Hajji Said Professeur, Université Mohamed V, Rabat, Maroc
Guedda Mohammed Professeur, Université de Picardie Jules Verne, Amiens, France.
2
3
* S. Agoujil, Abdeslem Hafid Bentbib, Khalide Jbilou and EL Mostafa Sadek. A Mi-
nimal residal norm method for large-scale Sylvester matrix equations. Electronic Tran-
sactions on Numerical Analysis. Volume 43, pp. 45–59, 2014.
* Abdeslem Hafid Bentbib, Khalide Jbilou and EL Mostafa Sadek. On some Krylov
subspace based methods for large-scale nonsymmetric algebraic Riccati problems, soumis.
* Abdeslem Hafid Bentbib, Khalide Jbilou and EL Mostafa Sadek. A minimal residual
method for large scale Riccati matrix equations, en préparation.
* A minimal residual method for large scale Sylvester matrix equations, au congrès inter-
national : Numerical Analysis and Scientific Computition with Applications (NASCA13),
organisé à Calais France en 2013.
* A new projection method for solving large-scale nonsymmetric algebric Riccati equa-
tions , au congrès international JANO à EST ESSAOUIRA en 2013.
* A Minimal residal norm method for large-scale Sylvester matrix equations, au congrès
international : Modélisation et Calcul Scientifique pour L’Ingénierie Mathématiques MO-
CASIMà Marrakech en 2014.
Notations 9
Introduction Générale 10
4
TABLE DES MATIÈRES 5
2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Bibliographie 112
Résumé 120
Abstract 122
5.1 Résultats pour les exemples de NAREs dans la théorie de transport avec
c = 0.5 et α = 0.5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.2 Résultats pour les exemples de NAREs dans la théorie de transport avec
c = 0.9999 et α = 10−8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.3 Résultats pour les exemples 4, comparaisons avec la méthode SDA. . . . . 110
7
Table des figures
8
Table des notations
9
Introduction Générale
En analyse numérique, pour résoudre les équations algébriques matricielles, il existe plu-
sieurs méthodes possibles : certaines sont directes et d’autres itératives. Les méthodes
directes sont très efficaces : elles donnent la solution exacte (aux erreurs d’arrondi près)
du système linéaire considéré (ou d’une équation matricielle). Pour des problèmes de
très grande taille, cependant ces méthodes directes peuvent devenir très chères, elles
ont l’inconvénient de nécessiter une assez grande place mémoire car elles nécessitent le
stockage de toute la matrice en mémoire vive. Les méthodes itératives de type Kry-
lov, employées depuis une trentaine d’années, sont généralement plus efficaces dans les
problèmes de grande taille. La plupart des méthodes itératives manipulent le système
linéaire au travers de produits "matrice-vecteur", ce qui réduit la place mémoire.
La résolution d’équations matricielles telles que l’équation de Sylvester [13, 18, 21, 39,
56, 57, 74], Lyapunov [15, 60, 61, 68, 98, 102] ou celle de Riccati [20, 55, 64, 65] a connu
un développement considérable ces vingt dernières années. Ceci est du à leurs applica-
tions dans de nombreux domaines : le contrôle optimal, le traitement de signal et la
10
TABLE DES FIGURES 11
Pour des matrices creuses et de grandes tailles, peu de méthodes efficaces existent. Les
méthodes itératives de type de projection sur des sous-espaces de Krylov sont généra-
lement plus efficaces et rapides. Nous proposons dans ce travail de thèse d’étudier de
nouvelles méthodes itératives de type de projection sur des sous espaces de Krylov étendu
(extended Krylov subspace) [36] pour résoudre les équations matricielles suivantes : Lya-
punov, Sylvester, Stein, Riccati symétrique et Riccati non symétrique.
Le premier Chapitre sera consacré aux rappels de plusieurs définitions, théorèmes et des
rappels des sous-espaces de type Krylov qui seront utilisés tout au long de cette thèse.
Le dernier chapitre de cette thèse, concerne le cas de l’équation de Riccati non symé-
trique NARE (Nonsymmetric Algebraic Riccati Equation) XCX − XD − AX + B = 0.
Nous proposons deux nouvelles méthodes itératives pour résoudre NARE. La première
est une méthode de type Newton-Krylov, basée sur la méthode de Newton et des sous-
espaces de Krylov par blocs : à chaque itération de la méthode de Newton, on résout
une équation de Sylvester de grande taille par l’utilisation de l’algorithme d’Arnoldi
par blocs. La deuxième méthode est une méthode itérative de projection sur des sous
espaces de Krylov étendus par blocs avec la condition d’orthogonalité de Galerkin. Nous
allons également présenter des résultats théoriques de la majoration de l’erreur. La per-
formance des approches proposées au regard d’autres méthodes est confirmée par des
tests comparatifs.
Outils de développement
théoriques
1.1 Introduction
Dans ce chapitre, nous introduisons les notations et les définitions qui seront utilisées
tout au long de cette thèse. Nous donnons quelques définitions importantes par la suite :
matrices particulières, la décomposition en valeurs singulières d’une matrice , puis l’in-
verse généralisée d’une matrice. Nous rappelons ensuite le produit de Kronecker et le
-produit [12, 30]. Enfin, nous donnons un rappel sur des sous espaces de type Krylov
[36, 64, 65, 100, 101] et des algorithmes pour construire une base orthonormée des sous
espaces de Krylov, voir [55, 56, 101, 102] pour plus de détails.
13
1.3 Norme de Frobenius 14
(B −1 u)v T
(B + uv T )−1 = (I − )B −1 (1.1)
1 + v T B −1 u
Remarque 1.5.2. Pour les matrices dont les composantes sont des nombres complèxes
au lieu des nombres réels, AT sera remplacée par A∗ , où A∗ désigne l’adjointe de la
matrice A. La pseudo-inverse appelée aussi inverse au sens de Moore-Penrose existe et
unique pour toute matrice réelles ou complexe.
Théorème 1.6.1 (Golub et Van Loan, 1990). Soit A une matrice réelle de dimension
m × n. Il existe deux matrices orthogonales U et V respectivement de dimension m × m
et n × n tel que
A = U ΣV T , (1.2)
Théorème 1.6.3 ([43]). Soit A ∈ Rm×n une matrice de rang r, et soit sa décomposition
en valeurs singulières A = U ΣV T , où Σ = diag[σ1 , σ2 , ..., σr , 0, ..., 0] ∈ Rm×n . Alors le
EL MOSTAFA SADEK Thèse de Doctorat
1.7 Approximation de rang inférieur 16
A+ = V Σ+ U T ,
Soit A ∈ Rm×n une matrice. Déterminer une matrice X de même taille que A mais de
rang inférieur k de telle sorte que kA − XkF soit minimale, est un problème classique.
La solution de ce problème est donnée par le théorème d’Eckart-Young suivent
Théorème 1.7.1 (Eckart et Young). Soit A une matrice de rang r, et soit sa décom-
position en valeurs singulières
A = U ΣV T ,
où !
Σk 0
Ak = U V T.
0 0
Le produit de Kronecker est un outil important dans l’algèbre linéaire et les équations
matricielles. Il permet de transformer une équation matricielle en un système linéaire,
pour plus de détails voir par exemple le livre [96]. Le -produit est défini dans [12, 30],
c’est un outil important pour résoudre les équations matricielles par les méthodes de
type Krylov global, voir [12, 30].
a1,1 B ··· ··· a1,n B
..
a2,1 B . a2,n B
A⊗B =
.. .. ..
. . .
am,1 B am,2 B · · · am,n B
Pour Y = [yi,j ] ∈ Rn×s ; on note par vec(Y ) le vecteur de Rns défini par vec(Y ) =
[y(., 1)T , (y., 2)T , ..., y(., s)T ] où y(., j), j = 1, ..., s est la jème colonne de Y .
On rappelle le produit diamond noté par et qui est défini de la façon suivante :
Définition 1.8.3 ([12, 30]). Soient A = [A1 , ..., Ap ] et B = [B1 , ..., Bl ] deux matrices
de taille n × ps et n × ls, respectivement, où Ai et Bj (i = 1, ..., p; j = 1, ..., l) sont des
matrices de Rn×s . Alors la matrice AT B ∈ Rp×l est définie par :
hA1 , B1 iF hA1 , B2 iF · · · hA1 , Bl iF
..
hA2 , B1 iF .
T
A B =
.. ..
. .
hAp , B1 iF ··· · · · hAp , Bl iF
Remarque 1.8.4.
1. Si s = 1 alors AT B = AT B.
2. Si s = 1, p = 1 et l = 1, alors on pose A = u ∈ Rn et B = v ∈ Rn , on aura
AT B = uT v ∈ R.
3. La matrice A = [A1 , ..., Ap ] est F −orthonormale si et seulement si AT A = Ip .
4. Si X ∈ Rn×s , alors X T X =k X k2F .
Les méthodes de projection sur les sous-espace de Krylov sont très utilisé dans dans des
problèmes de grande dimension. Ces méthodes se basent sur des techniques de projection
sur un sous-espace, appelé sous-espace de Krylov. Les méthodes itératives de type Krylov
a connu un développement considérable dans les dernières années, pour résoudre les
équations matricielles de grande taille.
Le sous espace de Krylov par blocs associé à la paire (A, V ) est défini par
L’algorithme d’Arnoldi par blocs ci-dessus consiste à construire une base orthonormale
de l’espace Km (A, V ).
Vm = [V1 , . . . , Vm ]
et H̃m la matrice réelle de taille (m + 1)r × mr de type Hessenberg supérieure par blocs,
dont les blocs non nuls Hi,j de taille r × r sont produits par l’algorithme précédent. On
vérifie les identités suivantes
T
A Vm = Vm Hm + Vm+1 Hm+1,m Em
= Vm+1 H̃m ,
Pour la résolution des systèmes linéaires, il existe plusieurs méthodes possibles ; cer-
taines sont directes et d’autres itératives. Dans des problèmes de très grande taille, ces
méthodes peuvent devenir très chères, et sont limitées par la taille du problème et bien
que les dernières versions de Matlab prennent en charge des problèmes de taille allant
jusqu’à O(104 ), le temps CPU ( Central Processing Unit) ainsi que la taille mémoire
peuvent poser problème. Les méthodes efficaces sont les méthodes de sous-espace Kry-
lov et consistent à construire une suite de sous espaces emboîtés de taille croissante qui
vont contenir à la limite la solution recherchée. Elles sont basées sur une technique de
projection sur un sous espace de Krylov, de dimension m (m ≤ n) plus petite que la
taille n du problème. Parmi les nombreux ouvrages de référence traitant des méthodes
de Krylov, on pourra citer le livre de Yousef Saad [100]. Ces méthodes diffèrent l’une de
l’autre par le type de projection qui est appliquée et le choix des sous-espaces de Krylov.
e
Km (A, V ) = Image{V, A−1 V, AV, A−2 V, A2 V, · · · , Am−1 V, A−m+1 V }
= Km (A, V ) + Km (A−1 , A−1 V ).
nous avons,
e (A, V ) ⊂ Ke
Km e e
m+1 (A, V ) et Km (A, V ) ⊂ AKm (A, V ).
Les méthodes de projection sont basées sur des algorithme qui permettent de construire
une base orthonormée de l’espace de Krylov. parmi ces algorithmes, le plus connu est
l’algorithme d’Arnoldi qui est basée sur d’orthonormalisation de Gram-Schmidt.
e (A, V ) en ap-
Pour construire une base orthonormée de l’espace de Krylov étendu Km
plique l’algorithme d’Arnoldi étendu par blocs ci-dessous ([55, 102] ).
Vm = [V1 , V2 , . . . , Vm ] où Vi ∈ Rn×2r ,
H1,1 · · · ··· ··· H1,m
. ..
H2,1 . .
.
.. .. ..
0 . . .
Hm =
.. .. .. .. ..
. . . . .
..
.. ..
. . . Hm,m
0 ··· ··· 0 Hm+1,m
et
H1,1 · · · · · · ··· H1,m
. ..
H2,1 . . .
.. .. ..
Hm = . .
0 .
.. .. .. .. ..
. . . . .
0 0 Hm,m−1 Hm,m
La matrice Hm de taille 2mr × 2mr est obtenue en supprimant la dernière ligne par
blocs de Hm . Par construction, la matrice Vm est orthonormale, ce qui signifie que les
matrices V1 , V2 , · · · , Vm constituent une base orthonormale de l’espace de Krylov étendu
e (A, V ). Soit T ∈ R2mr×2mr la restriction de la matrice A sur le sous-espace de Krylov
Km m
e (A, V ), c’est-à-dire T
étendu Km T
m = Vm A Vm . Dans [102], Simoncini a démontré que
la matrice Tm est également matrice de Hessenberg supérieure par blocs, et on peut
calculer la matrice Tm à partir Hm .
On établit les identités suivantes de manière immédiate
Proposition 1.9.1. [55] Soit T̄m = VTm+1 AVm , alors nous avons
Le sous-espace de Krylov étendu global associé à (A, V ) est donne par [36, 56, 102]
g
Km (A, V ) = vect{V, A−1 V, AV, A−2 V, A2 V, · · · , Am−1 V, A−m+1 V }
= Kgm (A, V ) + Kgm (A−1 , A−1 V ).
g (A, V ),
Pour construire une base une base orthonormale {V1 , V2 , ..., Vm } de l’espace Km
on a besoin de définir La factorisation QR global.
La factorisation QR global
Soit Z = [Z1 , ..., Zk ] ∈ Rn×ks ( avec Zi ∈ Rn×s , i = 1, ..., k). La décomposition glo-
bale de QR de Z est basée sur la procédure de Gram-Schmidt globale, elle permet
de calculer une matrice F -orthonormale Q = [Q1 , ..., Qk ] de taille n × ks telle que
vect{Q1 , ..., Qk } = vect{Z1 , ..., Zk } avec hQi , Qi iF = 1 et hQi , Qj iF = 0 si i 6= j.
Proposition 1.9.2. [55] Soit Z = [Z1 , ..., Zk ] une matrice de taille n × ks avec Zi ∈
Rn×s , pour i = 1, ..., k. Donc en utilisant l’algorithme 3, la matrice Z peut être factorisée
sous la forme suivante
Z = Q(R ⊗ Is ),
V
v1 = , et ω2,2 v2 = A−1 V − ω1,2 v1 , (1.3)
ω1,1
où les paramètres ω1,1 et ω2,2 sont tels que la matrice [v1 , v2 ] de dimension n × 2s est
F -orthonormale. Donc ω1,1 =k V kF , ω1,2 = tr(V1T (A−1 V )) et ω2,2 =k U kF , avec
U = A−1 V − ω1,2 v1 .
Pour calculer les blocs v2j+1 et v2j+2 , pour j = 1, ..., m − 1, on utilise les formules
suivantes : ( P2j
h2j+1,2j−1 v2j+1 = Av2j−1 − i=1 hi,2j−1 vi ,
P2j+1 (1.4)
h2j+2,2j v2j+2 = A−1 v2j − i=1 hi,2j vi .
En utilisant les conditions d’orthogonalités v2j+1 ⊥F v1 , ..., v2j et v2j+2 ⊥F v1 , ..., v2j+1 , on
obtient :
j j
hi,2j−1 = tr(viT Av2j−1 ) = tr(viT Ui,1 ) et hi,2j = tr(viT A−1 v2j ) = tr(viT Ui,2 ),
où
i−1 i−1
j j
A−1 v2j −
X X
Ui,1 = Av2j−1 − hk,2j−1 vk et Ui,2 hk,2j vk .
k=1 k=1
j j
h2j+1,2j−1 =k U2j+1,1 kF et h2j+2,2j =k U2j+1,2 kF .
Maintenant, afin de décrire une nouvelle méthode pour calculer les vecteurs colonnes de
la matrice Vm = [vi ]i=1,...,2m de dimension n×2ms et les entrées non nulles de la matrice
EL MOSTAFA SADEK Thèse de Doctorat
1.9 Méthodes de Krylov 24
!
(1) (2) h2i−1,2j−1 h2i−1,2j
Vi = [v2i−1 , v2i ] = [Vi , Vi ], et Hi,j = , (1.5)
h2i,2j−1 h2i,2j
j
(1) (2)
Vj+1 (Hj+1,j ⊗ Is ) = [AVj , A−1 Vj ] −
X
Vi (Hi,j ⊗ Is ).
i=1
Comme les blocs V1 , ..., Vm sont orthogonaux par rapport au −produit (i.e., ViT Vj = 02
pour i 6= j), alors en utilisant les propriétés du −produit, on trouve
(1) (2)
Hi,j = ViT [AVj , A−1 Vj ] = ViT Uij , i = 1, ..., j,
où Uij =
Pi−1
k=1 Vk (Hk,j ⊗ Is ). Pour les blocs triangulaires supérieurs Hj+1,j , on rappel
que les deux matrices Hj+1,j et Vj+1 sont calculées telles que Vj+1 Vj+1 = I2 . Donc on
j
obtient Vj+1 et Hj+1,j en calculant la factorisation QR globale de Uj+1 .
Soit Ω = [ωi,j ] une matrice triangulaire supérieure de dimension 2×2 telle que ses entrées
non nulles sont définies en (1.3), et on peut vérifier facilement que Ω, et V1 le premier
bloc de la matrice Vm peuvent être obtenus facilement par la décomposition QR globale
de [V, A−1 V ].
Finalement, on peut résumer les résultats précédents dans l’algorithme suivant :
Si les matrices triangulaires supérieures Hj+1,j ne sont pas de rang maximal, l’algorithme
1.3 calcule une matrice F −orthonormale Vm avec Vm = [V1 , ..., Vm ] et Vi ∈ Rn×2s , (i =
1, ..., m) et Hm une matrice bloc de Hessenberg supérieure de dimension 2(m + 1) × 2m
avec Hm = [Hi,j ] et Hi,j ∈ R2×2 .
On introduit une matrice de dimension 2m × 2m donnée par Tm = VTm (AVm ) = [Ti,j ],
où Ti,j = ViT (AVj ) ∈ R2×2 , pour i, j = 1, ..., m.
Soit Tm = VTm+1 (AVm ) et Em
T = [0
2×2(m−1) , I2 ] une matrice qui correspond aux
deux dernières colonnes de la matrice identité 2m × 2m, en utilisant le même argument
utilisé dans le cas d’Arnoldi extended par bloc, on peut montrer qu’après m itérations
de l’algorithme 3, on aura :
T
AVm = Vm+1 (Tm ⊗ Is ) = Vm (Tm ⊗ Is ) + Vm+1 (Tm+1,m Em ⊗ Is ).
Proposition 1.9.3. ([55]) Soit Tm = [t:,1 , ..., t:,2m ] et Hm = [h:,1 , ..., h:,2m ] où t:,i , h:,i ∈
R2(m+1) sont les ièmes colonnes de deux matrices blocs de Hessenberg supérieures Tm et
Hm de dimension 2(m + 1) × 2m. Donc les colonnes impaires sont telles que
1 2(m+1)
t:,2 = (ω1,1 e1 − ω1,2 h:,1 ),
ω2,2
1 2(m+1)
t:,2j+2 = (e − t:,1:2j+1 h1:2j+1,2j ) pour j = 1, ..., m − 1,
h2j+2,2j 2j
(k)
où ei est la ième colonne de la matrice identité Ik et ω1,1 , ω1,2 sont déjà définis en
(1.3).
Dans cette partie, nous rappelons les résultats relatifs à la contrôlabilité et à l’observa-
bilité de la paire (A, B) et de la paire (C, A) définies par un système dynamique linéaire
à coefficients constants du type :
(
ẋ = Ax + Bu,
(1.6)
y = Cx,
EL MOSTAFA SADEK Thèse de Doctorat
1.10 Contrôlabilité et l’observabilité 26
Ces notions sont largement développées dans [111]. Nous rappelons la notion de matrices
stables dans la définition suivante :
Sp(A) ⊂ C− .
Définition 1.10.2. La paire (A, B) est dite stabilisable s’il existe une matrice F telle
que A + BF est stable.
Définition 1.10.4. La paire (C, A) est dite détectable si (AT , C T ) est stabilisable.
Méthodes de type
globale-minimisation pour les
équations de Lyapunov de grandes
dimensions
2.1 Introduction
( dx̂(t)
dt = Âx̂(t) + B̂u(t)
Σ̂ :=
ŷ(t) = Ĉ x̂(t),
Parmi les méthodes de réduction des modèles de grande dimension, la plus connue est
la troncation équilibrée. Cette méthode est basée sur le calcul des grammiens de com-
mandabilité et d’observabilité. Les grammiens de commandabilité Wc et d’observabilité
27
2.1 Introduction 28
AWc + Wc AT + BB T = 0,
AT Wo + Wo A + C T C = 0.
k Σ − Σ̂ k∞ ≤ 2(σk+1 + ... + σn )
AX + XAT + BB T = 0, (2.2)
Pour les équations matricielles de lyapunov de petite taille, il existe plusieurs méthodes
dans la littérature, comme par exemple, l’algorithme de Bartels-Stewart [11], Hessenberg-
Schur [45].
La deuxième catégorie est constituée des méthodes itératives pour les problèmes de
grande taille. La plupart de ces méthodes sont les méthodes itératives de projections
sur des sous-espaces de type Krylov, basées sur les algorithmes de type Arnoldi [36,
55, 68, 100, 102] pour construire une base orthonormée de l’espace de Krylov. Une
caractéristique commune de toutes ces méthodes de projection est que les approximations
Xm de la solution exacte de l’équation de Lyapunov sont données sous forme factorisée,
T avec Z une matrice rang inférieur. De plus il y a la possibilité d’obtenir
Xm = Zm Zm
une bonne approximation Xm de rang inférieur (low rank approximate solution), il est
soutenu par des résultats théoriques récents montrant la décroissance rapide des valeurs
propres vers zéro de la solution exacte X, voir [61, 68, 82, 98, 102]. Cette approche est
très importante lorsqu’il s’agit des problèmes de grande taille, puisque stocker la matrice
Xm complète en général nécessiterait une quantité significative de l’espace mémoire.
Nous proposons dans cette partie une nouvelle méthode pour résoudre l’équation de
Lyapunov de grande taille déterminer l’approximation de la solution de l’équation de
Dans cette section, nous allons donner l’expression exacte de la solution X de l’équation
de Lyapunov. Supposons que l’équation de Lyapnuov admette une solution unique X.
Il a été montré dans [54, 105] que l’expression de la solution est la suivante
p X
X p
X= γi,j Ai−1 BB T (AT )j−1 ,
j=1 i=1
Jbilou et Riquet ont proposé, dans [68], une méthode permettant de calculer les coeffi-
cients γi,j à partir d’une base F -orthonormée de l’espace de Krylov
construit par l’algorithme d’Arnoldi global. Ils ont aussi montré que la solution X est
de la forme
X = Vp (T ⊗ Is )VpT , (2.4)
T
X = Vm (T ⊗ Is )Vm . (2.5)
Dans cette section, nous présentons une méthode de projection pour résoudre l’équation
de Lyapunov de grande taille. En utilisant des projections dans des sous espaces de
Krylov étendus (extended) globale avec la condition d’orthogonalité de Galerkin.
T
Tm = Vm (AVm ).
La solution de l’équation projeté au-dessus peut être obtenu par une méthode directe
comme la méthode Hessenberg-Schur [45].
Pour réduire le calcul dans le test d’arrêter les itérations de la méthode proposée, nous
donnons une borne supérieure (approximation supérieure) de la norme de Frobenius du
résidu R(Xm ).
où α =k Tm+1,m Ym kF
GA T GA T T
R(Xm ) = AVm (Ym ⊗ Is )Vm + Vm (Ym ⊗ Is )Vm A + BB T
GA T GA TT
= Vm+1 (Tm ⊗ Is )(Ym ⊗ Is )Vm + Vm (Ym ⊗ Is )(Tm ⊗ Is )Vm+1 + k B k2F V1 V1T .
En utilisant la relation
(2m+2)
V1 = Vm+1 [e1 ⊗ Is ],
et le fait que
Nous obtenons,
T
h
GA GA
R(Xm ) = Vm+1 (Tm Ym ⊗ Is )(I m ⊗ Is ) + (I m ⊗ Is )(Ym Tm ⊗ Is )
i
(2m+2) (2m+2) T T
+(k B k2F e1 (e1 ) ⊗ Is ) Vm+1 .
T (2m+2) (2m+2)T
hh i i
GA GA T
= Vm+1 Tm Ym I m + I m Ym Tm + k B k2F e1 e1 ⊗ Is Vm+1 .
" # " #T " # " #T
Tm GA I2m I2m GA Tm
= Vm+1 Ym + Ym
Tm+1,m 02×2m 02×2m Tm+1,m
" (2m) #" (2m) #T
e1 e1 ⊗ Is V T
+kB k2F m+1 .
02×1 02×1
(2m) (2m)T
T Y + Ym TTm + k B k2F e1 e1 T
Ym Tm+1,m
= Vm+1 m m ⊗ Is V T .
m+1
Tm+1,m Ym 0
(2m) (2m)T
Comme Y solution de l’équation Tm Ym + Ym TTm + k B k2F e1 e1 = 0,
" ! #
0 T
Ym Tm+1,m T
Rm (Xm ) = Vm+1 ⊗ Is Vm+1 .
Tm+1,m Ym 0
Par conséquent
" ! #
0 T
Ym Em Tm+1,m
T
kRm (Xm )kF ≤ Vm+1 × Vm+1 TY
⊗ Is
F Tm+1,m Em m 0 F
Comme {V1 , V2 , ..., Vm+1 } est une base F -orthonormée de l’espace de Krylov étendu
√
Km+1 (A, B) et Vm+1 = [V1 , V2 , ..., Vm+1 ], nous avons kVm+1 kF = m + 1. D’autre part
" ! # !
0 Ym em T
1 Tm+1,m 0 T
Ym Em Tm+1,m
Vm+1 ⊗ Is =
Tm+1,m eTm Ym 0 F
Tm+1,m (e2m T
1 ) Ym 0 F
√ T
= 2 Tm+1,m Em Ym
F
Par conséquent q
kRm (Xm )kF ≤ 2(m + 1)α,
TY
où α = Tm+1,m Em .
m
F
Pour économiser de la mémoire il est possible d’écrire Xm sous forme factorisée. Soit la
décomposition en valeurs singulières de la matrice Ym = P ΣP T , où Σ = diag(σ1 , σ2 , ..., σ2m )
et σ1 ≥ σ2 ≥ ... ≥ σ2m . Nous fixons dtol et définissons Pl la matrice constituée des k
premières colonnes de l correspondant aux l valeurs singulières supérieures ou égales à
dtol.
1/2
En posant Σl = diag(σ1 , σ2 , ..., σl ) et Zm = Vm Pl (Σl ⊗ Is ), nous obtenons l’approxi-
mation Xm = T
Zm Zm (qui est la meilleure approximation de rang l de la matrice Xm ,
on pourra se référer à [44, 56] pour un exposé complet sur ce sujet).
GA en utilisant (2.8).
5. Calculer la norme de Frobenius de rm
– Si kRm k < , Aller à 8
– Sinon m = m + 1
– Fin si
6. Fin pour m
7. Calculer la décomposition en valeurs singulières (SVD) de la matrice YmGA , c’est à
dire YmGA = VΣVT , où Σ = diag(σ1 , σ2 , ..., σ2mr ) et σ1 ≥ σ2 ≥ ... ≥ σ2mr ;
trouver l telle que σl+1 ≤ toltrn < σl et soit Σl = diag(σ1 , σ2 , ..., σl ) ;
1/2
Zm = Vm Vl (Σl ⊗ Is ).
T.
8. La solution approchée Xm est donnée par Xm = Zm Zm
Dans ce paragraphe, nous proposons une nouvelle méthode de projection pour résoudre
l’équation de Lyapunov de grande taille. En utilisant des projections sur des sous espaces
de Krylov étendus (extended) globale avec la condition de minimisation de la norme de
Frobenius du résidu associé à l’équation de Lyapunov.
MR
Xm = arg min kAXm + Xm AT + BB T k (2.15)
Xm =Vm (Ym ⊗Is )VT
m
min AXm + Xm AT + BB T
Xm =Vm (Ym ⊗Is )VT
m
F
T
= min AVm (Ym ⊗ Is ) Vm A + kBk2F V1 V1T
T T
+ Vm (Ym ⊗ Is ) Vm
Ym F
" #T " # !
I2m I2m T
= min Vm+1 Tm Ym ⊗ Is ⊗ Is + ⊗ Is Ym Tm ⊗ Is
Ym 02×2m 02×2m
(2m+2)T
i
(2m+2)
+ kBk2F e1 e1 T
⊗ Is Vm+1 .
F
" #T " # " (2m) #" (2m) #T
I2m I2m T e1 e1
= min Vm+1 Tm Ym + Ym Tm + kBk2F ⊗ Is V
Ym 02×2m 02×2m 02×1 02×1
Dans cette section, nous proposons une méthode itérative de type LSQR global (GL-
LSQR) pour résoudre le problème de minimisation projeté (2.16). La méthode LSQR
classique proposée par Paige et Saunders (1982) est une méthode itérative pour résoudre
les systèmes linéaires ou les problèmes aux moindres carrés. Pour plus de précision voir
[95]. L’algorithme LSQR est basé sur l’algorithme de Golub-Kahan [43], en utilisant
la procédure de bidiagonalisation de Lanczos dans [95]. La version globale de cette
méthode est donnée dans [106], il y a aussi la version bloc voir [75]. Dans ce qui suit,
nous allons proposer une méthode globale-LSQR (GLSQR) pour résoudre les problèmes
de minimisation de type minY kLm (Y ) − CkF , où Lm est un opérateur linéaire. Comme
notre objectif est de résoudre le problème de minimisation suivant :
" #T " #
(2m) (2m)T
MR I2m I2m T kBk2F e1 e1 0
Ym = arg min Tm Ym + Ym Tm + ,
Ym 02×2m 02×2m 0 0
F
où !
I
Lm (Y) = T̄m Y I 0 + Y T̄Tm (2.18)
0
et
(2m) (2m)T
kBk2F e1 e1 0
C = − .
0 0
L’opérateur adjoint de Lm par rapport au produit scalaire de Frobenius est donné par
!
T I
Lm (Y ) = T̄Tm Y + I 0 Y T̄B
m. (2.19)
0
e1 = C
β1 U β1 = kCkF
T
α1 V1 = Lm U
e1 α1 = Lm T Ue1 .
F
ei+1 = Lm (Vei ) − αi U
βi+1 U ei
αi+1 Vei+1 = Lm T U
ei − βi Vei
e := [U
U e1 , U
e2 , ..., U
ek ];
k
et
α1
β α2
2
..
T̄k :=
β3 . .
..
. αk
βk+1
k
X
Yk = z (i) Vei .
i=1
k
!
X
k
Lm (Y ) = Lm z (i) Vei
i=1
k
X
= z (i) Lm (Vei )
i=1
= [Lm (Ve1 ), ..., Lm (Vek )] (zk ⊗ Is ) , où zk = (z (1) , z (2) , · · · , z (k) )T
= U k+1 (T̄k ⊗ Is )(zk ⊗ Is )
e
= U k+1 (T̄k zk ⊗ Is ).
e
et
C − Lm (Y k ) = e1 − U
β1 U e
k+1 (T̄k zk ⊗ Is )
F F
= U k+1 (β1 e1 ⊗ Is ) − Uk+1 (T̄k zk ⊗ Is )
e e
F
h i
= Uk+1 (β1 e1 ⊗ Is ) − (T̄k zk ⊗ Is )
F
= (β1 e1 − T̄k zk ) ⊗ Is = kβ1 e1 − Tk zk kF .
1. Initialisation : X0 = 0
β1 = kN kF , U
e1 = N/β1 ,
α1 = (Lm )T (U
e1 ) ,
F
Ve1 = (Lm )T (Ue1 )/α1 ,
Wf1 = Ve1 , Φ1 = β1 , ρ1 = α1 .
U
ei+1 = W
fi /βi+1 ,
Li = (Lm )T (U
ei+1 ) − βi+1 Vei ,
αi+1 = kLi kF ,
Vei+1 q
= Li /αi+1 ,
ρi = 2 )
(ρ1 2 + βi+1
ci = ρ1 /ρ1
si = βi+1 /ρ1
θi+1 = si αi+1
ρi+1 = ci αi+1
Φi = ci Φi
Φi+1 = si Φi
Y i = Y i−1 + (Φi /ρi )W
fi
Wi+1 = Vi+1 − (θi+1 /ρi )W
fi .
Si Φi+1 est petit alors on s’arrête.
3. Fin pour.
MR MR MR T
kR(Xm )kF = kAXm + Xm A + BB T kF , où Xm
MR MR
= Vm (Ym ⊗ Is )VTm
h i
MR
= Vm+1 Lm (Ym ) − C ⊗ Is VTm+1
h i F
MR
≤ kVm+1 kF × − C ⊗ Is VTm+1
Lm (Ym )
F
√ MR
≤ m + 1 Lm (Ym )−C
F
√
≤ m + 1 min kLm (Y) − CkF
Y
√
≤ m + 1Φ.
En conséquence,
T T
Tm Tm Y + Y Tm Tm + TTm Y TTm + Tm Y Tm − C1 = 0, (2.23)
T
Tm = U Σ U , (2.24)
EL MOSTAFA SADEK Thèse de Doctorat
2.5 Méthodes itératives pour résoudre le problème réduit 39
T
Tm Tm = QDQT , (2.25)
T
où Q = U , et D = Σ Σ.
e m Ye T
DYe + Ye D + T e T Ye T
em + T e T − Ce = 0, (2.26)
m m
M(Ye ) = DA Ye + Ye DB . (2.27)
(e) Si kR
e j+1 kF < tol. Arrêt
Sinon
(f) Sj+1 = Le∗m (R
e j+1 )
Pour économiser la place de la mémoire, il est possible d’écrire Xm sous forme fac-
torisée. Soit Ym = P ΣP T , la décomposition en valeurs singulières de la matrice Ym ,
où Σ ∈ R2m×2m désigne la matrice des valeurs singulières de Ym rangées dans l’ordre
décroissant, P est une matrice unitaire. Nous fixons un seuil dtol et définissons Pk la
matrice constituée des k premières colonnes de P correspondant aux k valeurs singu-
lières supérieures ou égales à dtol. Nous obtenons la décomposition en valeur singulière
tronquée
Ym ≈ Pk Σk PkT
EL MOSTAFA SADEK Thèse de Doctorat
2.6 Exemples numériques 41
1/2
où Σk = diag[σ1 , . . . , σk ]. Soit Zm = Vm Pk (Σk ⊗ Is ), nous obtenons alors l’approxi-
mation de Xm sous la forme d’une expression factorisée
T
Xm ≈ Zm Zm . (2.30)
Cette factorisation est très importante pour les problèmes de grande dimension, quand
on n’a pas besoin de calculer l’approximation de la solution Xm , mais on a besoin de la
stocker à chaque itération.
MR
Ym = arg min kLm (Ym ) + CkF .
Ym
Dans cette section, nous présentons quelques exemples numériques de l’équation algé-
brique de Lyapunov de grande taille. Nous allons comparer l’approche de Galerkin (GA)
avec notre approche de minimisation de résidu (MR). En utilisant : la méthode LSQR
globale (Gl-LSQR) et la méthode du gradient conjugué globale préconditionné (PGCG)
pour résoudre le problème de minimisation réduit. Les algorithmes ont été codés avec
Matlab 2009. A chaque itération m de l’algorithme d’Arnoldi étendu global, l’équation
matricielle de Lyapunov projetée de taille 2m × 2m a été résolue par la méthode directe
de Bartels-Stewart [11]. Pour résoudre le problème de minimisation réduit, on s’arrête
si la norme de Frobenius du résidu est inférieure à tolp = 10−10 ou quand le nombre
maximum d’itérations kmax = 500 est atteint. Pour l’algorithme minimisation de résidu
(MR) et l’algorithme de Galerkin on s’arrête lorsque la norme de Frobenius du résidu est
inférieure à une certaine tolérance tol = 10− 12 ou bien le nombre maximum d’itérations
EL MOSTAFA SADEK Thèse de Doctorat
2.6 Exemples numériques 42
itermax = 50. Dans tous les tests, les coefficients de la matrice B ont été générés par
des valeurs aléatoires uniformément distribuées dans l’intervalle [0, 1]. La matrice A est
obtenue par la discrétisation par différences finies de l’opérateur suivant
∂u ∂u
Lu = ∆u − f1 (x, y) + f2 (x, y) + g(x, y), (2.31)
∂x ∂y
dans le domaine [0, 1] × [0, 1] avec les condition de Dirichlet homogène. La taille de la
matrice construite est n = n20 , où n0 est le nombre de points de la grille dans chaque
direction. La discrétisation de l’opérateur Lu donne des matrices qu’on pourra trouver
dans la bibliothèque Lyapack [89] et désignés par
A = fdm2d_matrix(n0,’f_1(x,y)’,’f_2(x,y)’,’g(x,y)’).
Les figures qui apparaissent dans la suite, nous donnent les courbes représentant la
norme de Frobenius du résidu dans une échelle logarithmique en fonction du nombre
d’itérations m.
2.6.1 Exemple 1
4
GA
2 MR
0
Log10 of resid. norms
−2
−4
−6
−8
−10
−12
−14
0 10 20 30 40 50
Iterations
4
GA
2 MR
−4
−6
−8
−10
−12
−14
0 10 20 30 40 50
Iterations
2.6.2 Exemple 2
4
GA
2 MR
0
Log10 of resid. norms
−2
−4
−6
−8
−10
−12
−14
0 10 20 30 40 50
Iterations
4
GA
2 MR
−4
−6
−8
−10
−12
−14
0 10 20 30 40 50
Iterations
2.7 Conclusion
Dans ce chapitre, nous avons proposé deux méthodes itératives pour résoudre les équa-
tions matricielles de Lyapunov de grande taille. Ces méthodes sont basées sur la projec-
tion sur des sous espaces de Krylov étendus global. La première est basée sur la condition
d’orthogonalité de Galerkin et la deuxième est basée sur la condition de minimisation
de résidu MR. Le problème de minimisation réduit de la deuxième méthode MR est
résolu par : la méthode LSQR global ou bien la méthode PCGG. Nous avons donné des
exemples numériques pour montrer l’efficacité des deux méthodes proposées.
L’Extended-Bloc Arnoldi
algorithme avec minimisation de
résidu pour les équations de
Sylvester creuse et de grandes
taille
Dans ce chapitre, nous présentons une nouvelle méthode pour résoudre des équations
matricielles de Sylvester de grande taille. La méthode proposée est une méthode itérative
basée sur la projection dans des sous-espaces de Krylov étendu (extended) par blocs et
la minimisation de résidu (MR minimal residual). nous résolvons le problème réduit
soit par des méthodes directes (méthode de Hu et Reichel [57]) ou bien des méthodes
itératives (globale LSQR, PGCG).
3.1 Introduction
AX + XB + EF T = 0 (3.1)
45
3.1 Introduction 46
Les dernières années, plusieurs méthodes de projection basées sur les sous-espaces de
Krylov ont été proposées, citons par exemple les références suivantes [36, 39, 56, 60, 62,
68, 82, 98, 102]. L’idée principale de ces méthodes est d’utiliser des sous-espaces de Kry-
lov [57, 98] ou Krylov étendu par blocs ou global [55, 56, 64] ou sous-espace de Krylov
rationnel [82] puis appliquer un algorithme de type Arnoldi pour construire une base
orthonormale de l’espace de projection. L’équation matricielle de Sylvester de grande
taille est alors projetée sur ces sous-espaces de Krylov. La solution de l’équation matri-
cielle peut s’exprimer en fonction de la solution de l’équation projetée et des matrices
orthogonales construites à partir les sous-espaces de Krylov. On peut citer aussi la mé-
thode ADI (Alternating Directional Implicit) [21, 23, 78]. La méthode ADI (ou Lr-ADI)
permet d’obtenir une convergence plus rapide sous certaines conditions de A et B.
Cette écriture qui ramène l’équation de Sylvester à la résolution d’un système linéaire de
taille ns × ns, ne présente en réalité que peu d’avantage en terme de résolution, qu’elle
soit directe ou itérative. Cette formulation permet d’établir le résultat suivant :
σ(A) ∩ σ(−B) = ∅.
Définition 3.1.2. Une matrice carrée est dite stable si toutes ses valeurs propres ap-
partiennent au sous ensemble R∗− + iR de C.
Proposition 3.1.3. Si les matrices A et B sont stables, alors l’équation (3.2) possède
une unique solution X, de plus
Z +∞
X= etA EF T etB dt.
0
La suite de ce chapitre est organisé de la façon suivante : dans un premier temps, nous
allons rappeler la méthode de projection de Petrov-Galerkin sur le sous-espace de Krylov
étendu (extended). Le paragraphe suivant est consacré à notre méthode : la méthode
de la minimisation de résidu MR. Puis, nous exposons des méthodes itératives ou di-
rectes pour résoudre le problème de minimisation réduit. La Section 5 est consacrée à la
forme factorisée de l’approximation de la solution approchée (low rank approximate so-
lutions). Dans les Sections 6 et 7, nous donnons les algorithmes pour résoudre l’équation
matricielle de Sylvester par l’approche de Galerkin et la méthode de la minimisation de
résidu MR. Dans l’avant dernier paragraphe, nous appliquons notre approche MR, et la
méthode de Galerkin à l’équation matricielle de Stein non Symétrique.
Dans cette section nous allons rappeler l’approche de Galerkin pour résoudre l’équation
de Sylvester de grande taille (Pour plus de détails voir [56]). Cette approche est basée
sur les sous-espaces de Krylov étendus (extended) par blocs et la condition de Galerkin.
AX + XB + EF T = 0, (3.3)
GA
Xm = Vm YmGA WTm , (3.4)
GA GA
Rm := AXm + Xm B − EF T ⊥ Lm (A, B),
où Lm (A, B) est le sous espace de R2mr×2mr constitué des matrices de la forme Vm Y WTm .
Donc, nous avons
VTm Rm Wm = 0.
Théorème 3.2.1. [56] Soit YmGA la solution exacte de l’équation projetée (3.5). Alors
la norme de Frobenius du résidu Rm est donnée par
q
k Rm kF = A
k Ym Em (Tm+1,m B
)T k2F + k Tm+1,m ETm Ym k2F (3.6)
Dans les dernières années, plusieurs méthodes de projection sur les sous-espaces de Kry-
lov ont été proposées pour trouver les approximations Xm de la solution exacte X de
l’équation Lyapunov, Riccati ou Sylvester ; voir par exemple, [39, 60, 62, 68, 98, 102]. La
plupart de ces méthodes de projection utilisent la condition de Galerkin pour trouver la
solution approchée Xm .
Dans cette section, nous nous intéressons à la résolution de l’équation de Sylvester par
la méthode de projection sur les sous-espaces de Krylov étendus avec la condition de
minimisation du résidu MR (minimal residual). Donc nous allons chercher à construire
M R de la solution X sous la forme
des approximations Xm
MR
Xm = Vm YmM R WTm , (3.7)
M R minimise le résidu R (X ), où X
de telle sorte que Xm T
m m m = Vm Ym Wm . Pour cela,
nous nous intéressons à la résolution du problème de minimisation suivant :
MR
Xm = arg min AX + XB + EF T , (3.8)
X=Vm Ym WT
m
F
et
B T Wm = Wm+1 T̄B
m. (3.10)
min AX + XB + EF T
X=Vm Ym WT
m
F
" ! !#
I RE RFT 0
rm := T̄A MR
m Ym I 0 + YmM R T̄BT
m + . (3.12)
0 0 0 F
" ! !#
I I
min ⊗ T̄A
m + T̄B
m ⊗ y+c , (3.13)
y 0 0 F
!
RE RFT 0
où c = vec et y = vec(Y ). Ce problème aux moindres-carrés est alors
0 0
résolu par des méthodes directes ou itératives. Par exemple :
posons " ! !#
I I
H= ⊗ T̄A
m + T̄B
m ⊗ .
0 0
Si H est de rang maximal, nous avons y = −(H T H)−1 H T c = −H † c est la solution aux
moindres carrés, où H † désigne le pseudo-inverse de la matrice H, et le résidu est donner
par rm = Hy + c = (I − H(H T H)−1 H T )c.
Pour un petit nombre d’itérations m, cette méthode donne une bonne approximation.
Toutefois, lorsque m augmente, la méthode est très lente. Dans les prochaines sous-
sections, nous exposons d’autre méthodes efficaces pour résoudre le problème de mini-
misation (3.11).
Nous exposons dans cette partie la méthode de Hu et Reichel (voir [57]) pour résoudre le
problème réduit (3.11). Plus précisément, nous appliquons l’approche donnée dans [74]
et la stratégie donnée dans [102].
" #
I ⊗ hA U
où R = I ⊗ TA + TB ⊗ I, S = , y = V ect(Ye ) et d = V ect(U T RE RFT V ).
hB V ⊗ I
L’équation normale associée est
Posons que ! !
Z1 (I ⊗ hA U )(I ⊗ TA + TB ⊗ I)−1
=
Z2 (hB V ⊗ I)(I ⊗ TA + TB ⊗ I)−1
Alors
Donc
(I ⊗ TA + TB ⊗ I)T Z1T = (I ⊗ (hA U )T ).
avec z = V ect(Z), pour i = 1, ..., 2r, j = 1, ..., 2mr, avec l = i + 2r(j − 1). Donc pour
calculer Z1T il suffit de résoudre les 2mr2 équations de Sylvester suivantes :
De la même manière, pour le deuxième bloc de Z2 . Donc pour calculer Z2T il suffit de
résoudre les 2mr2 équations de Sylvester suivantes :
On peut également résoudre le problème réduit (3.14) par la méthode LSQR globale ou
la méthode du gradient conjugué globale préconditionné.
Dans les deux sections suivantes, nous exposons des méthodes itératives pour résoudre
le problème de minimisation réduit.
EL MOSTAFA SADEK Thèse de Doctorat
3.4 Méthodes pour résoudre le problème de minimisation réduit 54
où !
I
Lm (Y ) = T̄A
mY I 0 + Y T̄BT
m (3.18)
0
et !
RE RFT 0
C=− .
0 0
Alors,
MR √
kRm (Xm )kF = mΦ
MR MR MR
kRm (Xm )kF = kAXm + Xm B + EF T kF où Xm
MR
= Vm YmM R WTm
" # " #
h i I RE RFT 0
= T̄A MR
m Ym I 0 + YmM R T̄BT
m +
0 0 0 F
= k(β1 e1 − T̄k zk ) ⊗ Im kF
√
= mk(β1 e1 − T̄k zk )k2
√
= mΦ.
Le Théorème 3.4.2 joue un rôle très important dans la pratique ; il permet de calculer
la norme du résidu sans calculer la solution approchée pour tester la convergence. Des
hypothèses plus fortes nous permettent de donner une écriture de la solution de l’équa-
tion de Sylvester et une majoration en norme de l’erreur X − Xm .
Si les matrices A et B sont stables (Re(λi (A)) < 0 et Re(λi (B)) < 0), alors l’ équation
de Sylvester (1.1) a une solution unique donnée par la représentation intégrale suivante
(voir [80]) Z ∞
X= etA EF T etB dt.
0
La norme logarithmique "2-norme" de la matrice stable A est définies par
1
µ2 (A) = λmax (A + AT ) < 0.
2
Dans le théorème suivant et avec les mêmes notations que dans le théorème précédent,
nous donnons une majoration en norme de l’erreur X − Xm
MR =
Théorème 3.4.3. Supposons que A et B soient des matrices stables et soit Xm
Vm YmM R WTm la solution approchée de l’équation de Sylvester obtenu après m itérations
de l’algorithme d’Arnoldi étendu par blocs. Alors nous avons
MR −rm
k X − Xm k2 ≤ , (3.22)
µ2 (A) + µ2 (B)
M R ) correspond au résidu
Démonstration. Rappelons que R(Xm
MR MR
AXm + Xm B + EF T = R(Xm
MR
)
AX + XB + EF T = 0
MR MR MR
A(Xm − X) + (Xm − X)B = R(Xm ). (3.23)
MR −rm
k X − Xm k2 ≤ ,
µ2 (A) + µ2 (B)
La convergence de l’algorithme LSQR globale (Gl-LSQR) peut être lente. Ensuite nous
devons utiliser cette méthode avec un préconditionneur. Pour cela, il existe plusieurs
stratégies que nous pouvons utiliser, on pourrait adapter par exemple les techniques
utilisées dans [7].
Dans cette section, nous considérons la méthode du gradient conjugué globale précondi-
tionnés (PGCG) pour résoudre le problème de minimisation réduit (3.11). La méthode
du gradient conjugué préconditionné (PCG) classique appliquée à l’équation normale.
L’équation normale associé à (3.11) est donnée par
A B
Soient les matrices Tm et Tm sous la forme
! !
A TA
m TB
m
Tm = et TB = ,
hA
m hB
m
A B
où hA et hB représentent les 2r dernières lignes de la matrice Tm et Tm , respectivement.
Par conséquent, l’équation normale (3.24) peut s’écrire comme suit
AT A BT B T T
Tm Tm Y + Y Tm Tm + TA B A B
m Y Tm + Tm Y Tm − C1 = 0, (3.25)
A
où C1 = LTm (C). Considérons la décomposition en valeurs singulières (SVD) de Tm et
B
Tm :
A T B T
Tm = U A ΣA V A ; Tm = U B ΣB V B , (3.26)
AT A BT B
Tm Tm = QA DA QTA , Tm Tm = QB DB QTB , (3.27)
T
où QA = V A , QB = V B et DA = ΣA ΣA .
Soient Ye = QTA Y QB et Ce = QTA C1 QB , donc l’équation normale (3.25) peut aussi s’écrire
e A Ye T
DA Ye + Ye DB + T e B + (T
e A )T Ye T
e B )T − Ce = 0, (3.28)
m m m m
e A = QT TA QA , T
où T e B = QT TB QB et Ye = QT Y QB . Cette expression propose que
m A m m B m A
l’on peut utiliser l’opérateur matriciel suivant comme un préconditionneur
P(Ye ) = DA Ye + Ye DB . (3.29)
A B
où TemA = Tm QA et TemB = Tm QB . Par conséquent, l’algorithme du gradient conjugué
préconditionné globale est obtenu en appliquant le préconditionneur (3.29) à l’équation
normale associée à l’opérateur matriciel défini par (3.30). Ceci est résumé dans l’algo-
rithme suivant :
(e) Si kR
e j+1 kF < tol. Arrêt
Sinon
(f) Sj+1 = Le∗m (R
e j+1 )
où Σ est la matrice diagonale des valeurs singulières de Ym rangées dans l’ordre décrois-
sant, U1 et U2 étant deux matrices unitaires. Nous fixons une certaine tolérance dtol et
définissons U1,l et U2,l les matrices constituées des l premières colonnes de U1 et de U2
correspondants aux l valeurs singulières supérieures ou égales à dtol. Nous obtenons la
décomposition en valeur singulière tronquée
Ym ≈ U1,l Σl U2,l T
1/2 1/2
où Σl = diag[σ1 , . . . , σl ]. Soit Z1,m = Vm U1,l Σl , et Z2,m = Wm U2,l Σl , nous obte-
nons alors l’approximation de Xm sous la forme d’une expression factorisée
T
Xm ≈ Z1,m Z2,m . (3.31)
Cette factorisation est très importante pour les problèmes de grande dimension, quand
on n’a pas besoin de calculer l’approximation de la solution Xm , mais on a besoin de la
stocker à chaque itération.
Dans cette section, nous présentons l’algorithme pour résoudre l’équation de Sylvester de
grande taille (GA-LRSE) par la méthode de projection de Galerkin sur les sous-espaces
de Krylov étendus (extended) par blocs.
TA GA GA B T e eT
m Ym + Ym (Tm ) + E F = 0
Dans cette section, nous présentons l’algorithme pour résoudre l’équation de Sylvester
de grande taille (MR-Lr-SE) par la méthode de minimisation du résidu sur les sous-
espaces de Krylov étendus (extended) par blocs.
AXB − X + EF T = 0, (3.32)
Les méthodes directes pour résoudre l’équation matricielle de Stein non symétrique sont
proposés dans [8, 11, 45, 98]. Ces méthodes sont intéressantes lorsque les matrices A
et B sont de petite taille. L’équation matricielle (3.32) peut être formulée comme un
système linéaire de taille ns × ns :
On peut utiliser les méthodes de type Krylov pour résoudre le système linéaire (3.33),
par exemple l’algorithme de GMRES [99]. Lorsque les matrices A et B sont de grande
taille et creuses, cette approche ne peuvent être appliquées directement. Dans ce cas, il
existe des méthodes pour résoudre l’équation matricielle de Stein non symétrique, par
exemple la méthode low-rank Stein block-Arnoldi. Cette méthode basée sur la projection
de l’équation (3.32) dans les sous-espaces de Krylov par blocs [63, 66].
Nous nous référons à [80] pour les démonstrations de ces résultats. Nous supposons que
la conditions d’existence et d’unicité sont vérifiées pour chacune des équations de Stein
rencontrées dans la suite de cette section. La méthode proposée par Jbilou (low-rank
Stein block-Arnoldi) permet de construire des approximations Xm de petit rang de la
forme
T
Xm = Vm Ym Wm
T E et F
où Ee = Vm e = W T F.
m
Dans cette section, nous exposons ensuite : la même méthode de Jbilou mais dans les
sous-espaces de Krylov étendus (extended) par blocs, et la méthode de la minimisation
du résidu (MR) pour résoudre l’équation de Stein non symétrique.
Dans cette section nous allons rappeler l’approche de Galerkin pour résoudre l’équation
de Stein non symétrique de grande taille. Cette approche a été introduite par Jbilou
dans [63]. On considère l’équation de Stein non symétrique (3.32). Nous supposons que
les matrices E et F sont de rang maximal, nous allons chercher à construire une suite
GA )
des approximations de petit rang (Xm m∈N∗ de la solution X sous la forme
GA
Xm = Vm YmGA WTm , (3.35)
où Lm (A, B) est le sous espace des matrices de la forme Vm Ym WTm . La condition d’or-
thogonalité ci-dessus permet de donner l’équation suivante :
VTm RGA
m Wm = 0.
Comme les matrices Vm et Wm sont orthogonales, donc il est plus facile de monter que
YmGA ∈ R2mr×2mr est la solution de l’équation de Stein de taille réduite
TA YmGA TB − YmGA + E
e Fe T = 0, (3.36)
e = VT E et Fe = WT F .
où E m m
En supposant que λi (TA ).λj (TB ) 6= 1 pour toutes i = 1, 2, ..., 2mr et j = 1, 2, ..., 2ms,
pour assurer l’existence et l’unicité de la solution YmGA . La résolution de l’équation de
Stein de taille réduite (3.36) peut être obtenue par une méthode directe, par exemple la
méthode Hessenberg-Schur [33]. Pour tester la convergence, Il est nécessaire de calculer
la norme de Frobenius du résidu RGA
m , pour cela le résultat suivant donne une expression
du résidu RGA
m en fonction des matrices de petite taille.
Théorème 3.8.1. [63] Soient YmGA la solution exacte de l’équation de Stein réduite
GA = V Y GA WT la solution approchée de l’équation (3.32). Alors la norme
(3.36) et Xm m m m
de Frobenius du résidu Rm est donnée par
q
kRG GA
m (Xm )kF =
2 + β2 + γ2 ,
αm m m (3.37)
αm = TA B
m Ym Em (Tm+1,m )
T A
, βm = Tm+1,m ETm (TB
m)
T
,
F F
et
A
γm = Tm+1,m ETm Ym Em (Tm+1,m
B
)T .
F
RGA
m = AVm Ym WTm B − Vm Ym WTm + EF T
F
= Vm+1 T̄A BT T T T T
m Ym T̄m Wm+1 − Vm Ym Wm + V1 RE RF W1
F
!
I
= Vm+1 T̄A BT T
m Ym T̄m Wm+1 − Vm+1 Ym I 0 WTm+1 + V1 RE RFT W1T
0 F
" ! !#
I RE RFT 0
= Vm+1 T̄A BT
m Ym T̄m − Ym I 0 + WTm+1
0 0 0 F
Puisque YmGA la solution exacte de l’équation de Stein (3.36) donc nous avons
!
0 TA B
m Ym Em (Tm+1,m )
T
RGA
m = A
.
Tm+1,m ETm (TB
m)
T A
Tm+1,m ETm Ym Em (Tm+1,m
B )T F
Par conséquent
2 2 2 2
RGA
m = TA B
m Ym Em (Tm+1,m )
T A
+ Tm+1,m ETm (TB
m)
T A
+ Tm+1,m ETm Ym Em (Tm+1,m
B
)T .
F F F F
h i
Nous avons finalement le résultat (3.37) et nous rappelons que ETm = 02r×2(m−1)r I2r .
Ce résultat est très important puisqu’il nous permet de calculer la norme de Frobenius
GA ) sans avoir a effectuer le produit des matrices de grande taille.
du résidu Rm (Xm
La méthode ainsi obtenue sera notée GA-N-Stein, et algorithme correspondant peut être
formulé comme suit :
TA GA B T GA e eT
m Ym (Tm ) − Ym + E F = 0
où
αm = TA B
m Ym Em (Tm+1,m )
T A
, βm = Tm+1,m ETm (TB
m)
T
,
F F
et
A
γm = Tm+1,m ETm Ym Em (Tm+1,m
B
)T .
F
et
B T Wm = Wm+1 T̄B
m. (3.40)
MR
Xm = arg min AXm B − Xm + EF T
Xm =Vm Ym WT
m
F
min AXB − X + EF T
X=Vm Ym WT
m
F
Le problème de minimisation réduit (3.41) est résolu par les méthodes directes ou itéra-
tives comme le cas du problème de minimisation associé à l’équation de Sylvester.
Dans cette section, nous présentons quelques exemples numériques de l’équation matri-
cielle de Sylvester et l’équation matricielle de Stein non Symétrique. Nous allons com-
parer l’approche de Galerkin (GA) avec notre approche : minimisation de résidu (MR),
pour des problèmes de grande taille. En utilisant : la méthode LSQR globale (Gl-LSQR),
la méthode du gradient conjugué globale préconditionné (PGCG), direct (le produit de
Kronecker), et la méthode Hu et Reichel (HR), pour la résolution le problème de mi-
nimisation réduit. Les algorithmes ont été codés avec Matlab 2009. A chaque itération
m de l’algorithme d’Arnoldi étendu par blocs, équation matricielle de Sylvester projetée
de taille 2mr × 2mr a été résolue par la méthode Bartels-Stewart [11] pour l’approche
de Galerkin (GA). Le problème de minimisation réduit est résolue par LSQR global
(Gl-LSQR) et la méthode du gradient conjugué globale préconditionné (PGCG). On
s’arrête si la norme de Frobenius du résidu est inférieure à toll = 10−12 ou quand le
nombre maximum d’itérations kmax = 1000 est atteint. Pour l’algorithme minimisation
de résidu (MR) et l’algorithme de Galerkin s’arrête lorsque la norme de Frobenius du
résidu est inférieure à une certaine tolérance tol (qui sera précisée pour chaque figure) ou
bien le nombre maximum d’itérations itermax = 50. Dans tous les tests, les coefficients
des matrices E et F ont été générés par des valeurs aléatoires uniformément distribuées
dans l’intervalle [0, 1]. Les matrices A et B sont obtenues par à partir de la discrétisation
par différences finies de l’opérateur suivant
∂u ∂u
Lu = ∆u − f1 (x, y) + f2 (x, y) + g(x, y), (3.42)
∂x ∂y
dans le domaine [0, 1] × [0, 1] avec les condition de Dirichlet homogène. La taille de la
matrice construite est n = n20 , où n0 est le nombre de points de la grille dans chaque
direction. La discrétisation de l’opérateur Lu donne des matrices dans la bibliothèque
Lyapack [89] et désignés par
A = fdm2d_matrix(n0,’f_1(x,y)’,’f_2(x,y)’,’g(x,y)’).
Les figures qui apparaissent dans la suite, nous donnons les courbes représentant la
norme de Frobenius du résidu dans une échelle logarithmique en fonction du nombre
d’itérations m. La courbe de la méthode de minimisation de résidu (MR) est représentée
par ligne pointillée (verte) et celle de Galerkin (GA) par linge continue (en bleu). On
donne également des tableaux pour comparer les méthodes proposées. Pour cela, on a
fixé la tolérance à tol = 10−7 pour les deux méthodes, et nous donnons : la norme de
Frobenius du résidu, le nombre d’itérations ainsi que le temps CPU en secondes.
Exemple 1.1 Dans ce premier exemple, les matrices A et B sont obtenus à partir de la
discrétisation de l’opérateur Lu et LB respectivement
∂u ∂u
LA = ∆u − exy − sin(xy) − (y 2 − x2 ) u,
∂x ∂y
∂u ∂u q 2
LB = ∆u − 100 ex − 10 xy − x + y 2 u,
∂x ∂y
sur le carré unité [0, 1] × [0, 1] avec des conditions aux bord de Dirichlet homogènes. Les
matrices A et B sont de taille n = n20 et s = s20 respectivement, où n0 et s0 sont les
nombres de points de la grille intérieure dans la direction x et y respectivement.
Pour ce exemple, nous avons choisi n = 4900, s = 3600 et r = 2. on obtient la figure 1.1
ci-dessus.
8
GA
MR
6
−2
−4
−6
−8
0 10 20 30 40 50 60
Iterations
Exemple 1.2 Dans cet exemple, nous avons utilisé les matrices A = pde2961 et B =
thermal de la collection Harwell-Boeing (http ://math.nist.gov/MatrixMarket). Les ma-
trices A et B sont de taille n = 2961 et s = 3456 respectivement. Pour ce test, nous
avons choisi r = 2 et le problème de minimisation réduit a été résolu par la méthode
direct des moindres carrés basé sur le produit de Kronecker (dans la section 3.4.1).
8
GA
MR
6
2
Log10 of resid. norms
−2
−4
−6
−8
−10
0 5 10 15 20 25 30 35 40
Iterations
Exemple 1.3 Dans cet exemple, nous avons utilisé les matrices A et B sont obtenus à
partir de la discrétisation de l’opérateur Lu. avec des dimensions n = 8100 et s = 3456
respectivement. Dans la figure 3.3, nous utilisons les matrices
6
GA
4 MR
2
Log10 of resid. norms
−2
−4
−6
−8
−10
−12
0 5 10 15 20 25 30 35
Iterations
Exemple 1.4 Dans La figure 3.4. les matrices A et B sont obtenus à partir de la
discrétisation de l’opérateur Lu et LB respectivement, avec des dimensions n = 4900
et s = 3600, respectivement. Dans la figure 3.4, nous utilisons les matrices A = add32 ;
n = 4960 et B =fdm2d_matrix(p0 ,0 x + y 0 ,0 x × y 0 ,0 1000 ); r = 4 et tol = 10−10 . Le
problème de minimisation projeté résolu par la méthode Gl-LSQR.
4
GA
MR
2
0
Log10 of resid. norms
−2
−4
−6
−8
−10
−12
0 5 10 15 20 25 30
Iterations
Exemple 1.5. Dans cet exemple, nous considérons l’équation particulier de Sylvester
suivante :
AX + XA = EF T (3.43)
Cette équation intervienne dans le calcul du grammien croisé d’un système dynamique
linéaire invariant par rapport au temps. Pour plus de détails sur cette équation et la
connexion avec les problèmes de réduction de modèle [5]. On choisi n = s = 6400, r = 3
et tol = 10−9 . Le problème de minimisation projeté résolu par la méthode PGCG.
8
GA
6 MR
4
Log10 of resid. norms
−2
−4
−6
−8
−10
0 10 20 30 40 50
Iterations
Exemple 1.6. Dans cet exemple, nous avons comparé les performances de la méthode
de minimisation du résidu MR et l’approche Galerkin. Le problème de minimisation
réduit a été résolu par la méthode des moindres carrés direct, par LSQR globale (Gl-
LSQR), par le gradient conjugué globale préconditionné (GPCG) ou par la méthode de
Hu-Reichel (HR). Dans le tableau 3.1 suivant, nous donnons les résultats obtenus par
différentes méthodes de MR et la méthode de Galerkin.
Les matrices A et B sont issues de la collection Matrix-Market collection et aussi la
matrice ’flow_meter’ de la collection Oberwolfach (imtek.de/simulation/benchmark),
ou bien provenant de la discrétisation de l’opérateur Lu (3.42). Pour ce test aussi, nous
avons choisi r = 2.
D’après les résultats du tableau 3.1 que les méthode MR(GPCG) et MR(direct) sont
plus rapides que les autre méthodes, et on observe aussi que la méthode MR(GPCG)
donne les meilleurs résultats en terme de temps de calcul.
2
A = f dm(cos(xy), ey x , 100) MR(PGCG) 45s 15 1.9 × 10−8
B = add32 MR (direct) 56s 15 2.3 × 10−8
n = 90000, s = 4960 MR (Gl-LSQR) 49s 17 1.1 × 10−8
MR(HR) 88s 15 3.1 × 10−8
GA 83s 21 8.6 × 10−5
Exemple 1.7
Dans cet exemple, nous comparons notre méthode MR(GPCG) avec deux autres mé-
thodes qui font référence dans la littérature : l’approche de GA et la méthode de rang
inférieur ADI (Lr_ADI)[21, 23]. Pour cette expérience, les matrices A et B sont les
mêmes que celles données dans [Exemple 1, [23]]. Elles sont obtenues à partir la dis-
crétisation de l’opérateur Lu (donnée par la relation (3.42)) à 5 points sur un maillage
régulier. Les matrices A et B sont de taille n = 6400 et s = 3600 respectivement. Pour
cette expérience, nous avons choisi r = 4 et la tolérance est tol = 10−11 .
6
GA
MR
4
2
Log10 of resid. norms
−2
−4
−6
−8
−10
0 5 10 15 20 25 30 35 40
Iterations
Exemple 2.2 On prend dans cet exemple, A = f low et B = thermal, donc les matrices
A et B sont de taille n = 9669 et s = 3456 respectivement. On prend aussi r = 3 et
tol = 10−9 , et on obtient, pour la méthode MR(PGCG) et l’approche de Galrkin (GA),
les courbes suivantes :
8
GA
MR
6
4
Log10 of resid. norms
−2
−4
−6
−8
0 10 20 30 40 50
Iterations
Exemple 2.3 Dans cet exemple, on augmente la taille de l’équation de Stein non Sy-
métrique n = 10000 et s = 8100. Nous considérons A = fdm2d_matrix(100,’cos(x +
y)’,’sin(y 2 )’,’100’), B = fdm2d_matrix(90,’x + y’,’xy’,’200’). Pour r = 4 et tol = 10−7 ,
nous obtenons les courbes suivantes :
4
GA
MR
2
Log10 of resid. norms
−2
−4
−6
−8
0 5 10 15 20 25 30 35 40 45
Iterations
Exemple 2.4. Dans cet exemple, on compare les méthodes trois méthodes MR(PGCG),
MR(direct) et GA pour différentes matrices A et B. Pour les tests dans le tableau (3.3),
nous avons choisi tol = 10−7 et r = 2. Dans le tableau (5.3), nous donnons les résultats
obtenus par les trois méthodes.
Nous remarquons que la méthode MR(PGCG) permet de donner une bonne approxima-
tion, avec de meilleurs temps de calcul.
3.10 Conclusion
Dans ce chapitre, nous avons présenté une nouvelle méthode itérative pour résoudre
l’équation de Sylvester ou Stein non symétrique de grande taille. La méthode proposée
est basée sur la projection dans des sous-espaces de Krylov étendu (extended) par blocs
avec la condition de minimisation du résidu, elle se ramène à la résolution d’un problème
de minimisation réduit. Ce problème de minimisation réduit est résolu par des méthodes
itératives ou directes. Pour accélérer la convergence de la résolution du problème de
minimisation d’ordre inférieur, nous utilisons un préconditionnement pour la méthode de
gradient conjugué global associé à l’équation normale. les approximations de la solution
exacte sont données sous la forme factorisée : produit de deux matrices de rang inférieur
(low rank approximation), qui permet d’économiser de la mémoire pour les problèmes
de grande dimension. L’avantage de la méthode de minimisation de résidu par rapport
à l’approche de Galerkin est la stabilité numérique et également les meilleurs temps de
calcul. Cela est démontré par les tests numériques effectués.
4.1 Introduction
Z +∞
min y(t)T y(t) + u(t)T u(t) dt (QLQ) (4.1)
0
(
x0 (t) = Ay(t) + Bu(t)
(4.2)
y(t) = Cx(t); x(0) = x0,
76
4.1 Introduction 77
GA
Xm = Vm YmGA VTm .
M R de la solution X de
Notre approche consiste à chercher la solution approchée Xm
l’équation de Riccati (4.4) sous la forme
MR
Xm = Vm YmM R VTm
AT X + XA − XBB T X + C T C = 0
GA )
On cherche à construire une suite d’approximations de petit rang (Xm m∈N∗ de la
solution X sous la forme
GA
Xm = Vm YmGA VTm (4.6)
Rm (Xm ) := AT Xm
GA GA
+ Xm GA
A − Xm BB T Xm
GA
+ C T C ⊥F Lm (AT , C T ).
où Lm (AT , C T ) est le sous espace vectoriel de Rn×n constitués des matrices de la forme
X = Vm Y VTm .
c’est à dire
VTm Rm Vm = 0.
Nous pouvons facilement montrer que YmGA ∈ R2mr×2mr est la solution de l’équation de
Riccati de taille réduite
où TA = VTm AT Vm , Ce = VTm C T et B
e = VT Bm . La solution Y GA de l’équation de
m m
Riccati de taille réduite peut être obtenue par une méthode directe comme celles qui
sont décrites dans [16, 27, 88]. Pour tester la convergence, il est nécessaire de calculer la
norme du résidu Rm , pour cela le résultat suivant donne une expression de la norme de
Frobenius du résidu Rm en fonction des matrices de petite taille.
Théorème 4.2.1. Soit YmGA la solution exacte de l’équation réduite (4.7) obtenue par
l’algorithme d’Arnoldi étendu par blocs. On a alors la norme de Frobenius du résidu
Rm := Rm (Xm ) est donnée par
√ A
k Rm kF = 2 k Tm+1,m ETm YmGA kF (4.8)
L’intérêt pratique de ce résultat sur le résidu est de nous permettre de mettre en place
un test d’arrêt sur l’algorithme sans avoir a calculer le produit Vm YmGA Vm
T à chaque
itération.
GA k, où X est
Nous donnons ci-dessous une majoration de la norme de l’erreur kX − Xm
la solution exacte de l’équation de Riccati (4.4).
Théorème 4.2.2. Soient Ỹm la matrice de taille 2s × 2ms correspondante aux 2s der-
nières lignes de la matrice de YmGA , γm = kTm+1,m Ỹm k, η = kBB T k, Am = A −
BB T Xm
GA et supposons que σ T 2
m = sep(Am , −Am ) > 0. Alors si 4γm η/δm < 1, nous
avons
GA 2γm
kX − Xm k≤ p
2 − 4γ η
. (4.9)
δm + δm m
La plupart des méthodes proposées ces dernières années pour résoudre l’équation de
Riccati continue de grande taille sont des méthodes de projection sur les sous-espaces de
Krylov, par exemple : méthode de projection sur le sous espaces de Krylov par blocs [62]
ou sur sous espaces de Krylov étendu par blocs [55]. Pour d’autres méthodes on peut
citer [14, 22, 60, 64, 66, 98, 99]. Ces méthodes génèrent des approximations de petit rang
de la solution de l’équation (4.4). Ces méthodes qui utilisent la condition de Galerkin,
Xm = Vm Ym VTm , (4.10)
X M R = Vm YmM R VTm ,
MR
Xm = arg min AT X + XA − XBB T X + C T C , (4.11)
X∈Lm (AT ,C T ) F
MR
Xm = arg min AT Xm + Xm A − XBB T X + C T C
Xm =Vm Ym VT
m
F
min AT X + XA − XBB T X + CC T
X=Vm Ym VT
m
F
où B̃ = VT B.
A chaque étape m de l’algorithme d’Arnoldi étendu par blocs, nous déterminons une
approximation de la solution YmM R du problème (4.11) que nous posons sous la forme,
F (Y ) = AY B + B T Y AT + B T Y EY B + F.
Plus précisément
" #
h i T
RC RC 0
A = Tm , E = −B
eBeT , B = I 0 et F = .
0 0
min f (Y ), (4.14)
Y
où
f (Y ) := min kF (Y )k2F =< F (Y ), F (Y ) >F .
Y
f (Y + tH) − f (Y )
dfY (H) = lim , ∀ H ∈ Rn×n . (4.15)
t−→0 t
On a
F (Y ) = AY B + B T Y AT + B T Y EY B + F
Donc
Alors
∀H : 2 < AT F (Y )B T + BF (Y )A + E T Y BF (Y )B T + BF (Y )B T Y E T , H >F = 0.
Ψ(Y ) := AT F (Y )B T + BF (Y )A + E T Y BF (Y )B T + BF (Y )B T Y E T = 0 (4.16)
Nous allons résoudre numériquement l’équation matricielle non linéaire (4.16) par la
méthode de Newton, donc la dérivée de Fréchet de l’application non linéaire Ψ(Y ) en Y
Pour simplifier
A3 = BAY + Y AT B T + Y EY + BF B T .
Remarque 4.4.1. L’opérateur linéaire M défini par (4.17) est symétrique par rapport
au produit scalaire de Frobenius, c’est-à-dire :
Pour résoudre l’équation matricielle linéaire symétrique (4.18), nous proposons la mé-
thode MINRES globale.
Dans cette section, nous proposons la méthode de MINRES globale (Gl-MINRES) pour
résoudre les équations matricielles linéaires symétriques comme :
M(Z) = C (4.19)
Soit V une matrice réelle de taille n × p . Soit k un entier naturel, on définit l’opérateur
Mk par la relation de récurrence suivante
M0 = I et Mk (V ) = M(Mk−1 (V )).
engendré par les matrices V, M(V ), ..., Mk−1 (V ), où k est un entier naturel non nul.
L’ensemble Kk (M, V ) ainsi défini est un sous-espace vectoriel de Rn×n .
L’algorithme de Lanczos global [70], dont les étapes sont données ci-dessous, produit
une base orthonormale {V1 , ..., Vk } de l’espace de Krylov Kk (M, V ) au sens de la norme
de Frobenius, c’est à dire telle que hVi , Vj iF = δi,j , 1 ≤ i, j ≤ k.
On définit la matrice Vk = [V1 , ..., Vk ] ∈ Rn×pk et T̃k , la matrice tridiagonale de taille (k+
1) × k dont les entrées non nulles sont calculées par l’algorithme de Lanczos symétrique
global.
α1 β1 0 ... 0
.. ..
.
β1 α2 β2 .
.. ..
0 β2 . . 0
T̃k = . (4.20)
. .. .. ..
. . . . βk−1
..
.. ..
.
. . αk
... ... 0 βk
où
Ek+1 = hk+1,k [0n×p , ..., 0n×p , Vk+1 ],
et
[M(V1 ), ..., M(Vk )] = Vk+1 (T̃k ⊗ Ip ). (4.22)
La méthode MINRES globale consiste à construire itérativement une suite (Zk )k∈N∗
d’approximations de la solution Z ∗ de l’équation (4.19) de la façon suivante
Le résultat suivant [19] établit que le problème de moindres carrés (4.25) est équivalent
à un problème de dimension réduite
A chaque itération, le résidu Rk doit être calculé, ce qui peut s’avérer coûteux. La
proposition suivante permet de calculer kRk kF sans évaluer M(Zk ).
et
kRk kF = |γk+1 |, (4.28)
À travers les exemples numériques on peut montrer que la solution exacte de l’équation
de Riccati continue est de petite rang par une approximation, comme dans l’exemple
suivant. Dans cet exemple, on considère le système dynamique
(
ẋ(t) = A x(t) + B u(t),
y(t) = C x(t),
∂u ∂u
L(u) = ∆u − exy − sin(xy) − (y 2 − x2 ) u,
∂x ∂y
La taille de la matrice A est donnée par n = n20 , où n0 est le nombre de points de la grille
dans chaque direction. Pour ce test, nous prenons n0 = 30 et r = 4. Les coefficients des
matrices B ∈ Rn×r et C ∈ Rr×r sont des valeurs aléatoires uniformément distribuées
dans l’intervalle [0, 1].
−2
Singular values of the solution
−4
−6
−8
−10
−12
−14
−16
−18
−20
0 100 200 300 400 500 600 700 800 900
La figure 4.1 représente les valeurs singulières de la solution exacte dans le cas où n = 900
et r = 4. On constate que les valeurs singulières décroissent rapidement vers zéro. Cela
implique que le rang numérique de la solution exacte est petit. Dans ce cas particulier,
on a rang(X) ' 25. Donc la solution approchée Xm peut être écrite comme produit de
deux matrices de petit rang.
Ym = U Σ U T
où Σ est la matrice diagonale des valeurs singulières de Ym rangées dans l’ordre décrois-
sant, U est une matrice unitaire. Nous fixons une certaine tolérance dtol et définissons Ul
la matrice constituée des l premières colonnes de U correspondant aux l valeurs singu-
lières supérieures ou égales à dtol. Nous obtenons la décomposition en valeur singulière
tronquée
Ym ≈ Ul Σl Ul T
1/2
où Σl = diag[σ1 , . . . , σl ]. Soit Zm = Vm Ul Σl , nous obtenons alors l’approximation de
Xm sous la forme d’une expression factorisée
T
Xm ≈ Zm Zm . (4.29)
Cette factorisation est très importante pour les problèmes de grande dimension, quand
on n’a pas besoin de calculer l’approximation de la solution Xm , mais on a besoin de la
stocker à chaque itération.
Dans ce paragraphe, nous rappelons l’algorithme d’Arnoldi étendu par blocs en utilisant
l’approche de Galerkin (GA-CARE) pour résoudre l’équation de Riccati continue de
grande taille, donc l’algorithme GA-CARE est comme suit :
où B̃m = Vm B et C̃m = Vm C.
5. Calculer la norme de Frobenius du résidu
√
rm = 2kTm+1,m Ỹm kF ,
Dans cette section, nous présentons quelques exemples numériques de l’équation de Ric-
cati continue de grande taille. Les algorithmes ont été codés en Matlab R2009a. Les
équations de Riccati de taille réduite (4.7) ont été résolues en utilisant la fonction "care"
de Matlab. Le nombre d’itérations de l’algorithme de Newton a été limité à itermax = 40
et le nombre d’itérations de l’algorithme MINRES globale a été limité à max = 1000
avec le nombre d’itérations de redémarrage fixé à kredém = 12. La résolution d’équations
de type Lyapunov généralisée ont été effectuées jusqu’à ce que la norme du résidu soit
inférieure à tolM IN RES = 10−7 . Le critère d’arrêt pour l’algorithme de Newton est défini
par le paramètre
Les résultats suivants donnent une comparaison en résidu entre notre méthode MR-
CAREs et la méthode GA-CARES [55]. Les courbes dans la suite donnent la norme du
4.9.1 Exemple 1
Dans tous les tests effectués dans sous section, la matrice A provenant de la discrétisation
de l’opérateur
∂u ∂u
Lu = ∆u − f1 (x, y) + f2 (x, y) + g(x, y), (4.30)
∂x ∂y
dans le domaine [0, 1] × [0, 1] avec les condition de Dirichlet homogène. La taille de la
matrice construite est n = n20 , où n0 est le nombre de points de la grille dans chaque di-
rection. La discrétisation de l’opérateur Lu construites des matrices dans la bibliothèque
Lyapack [89] et désignés par
A = fdm2d_matrix(n0,’f_1(x,y)’,’f_2(x,y)’,’g(x,y)’).
Exemple 1.1
8
A.G
M.R
6
2
log10(||R(m)|| )
F
−2
−4
−6
−8
0 5 10 15 20 25 30 35 40
les iteration m
Exemple 1.2
8
A.G
M.R
6
2
log10(||R(m)|| )
F
−2
−4
−6
−8
0 5 10 15 20 25 30 35 40
les iteration m
4.9.2 Exemple 2
Nous considérons l’exemple donné par Jbilou [64, 65] tel que la matrice A est donnée
par,
a 1 − d ··· 0 1
..
1+d a . ··· 0
.. .. ..
A = − . . .
0 1+d .
.. ..
0 . . 1−d
1 0 0 1+d a
Pour n = 4000, C = In×s , B = rand(n, 10), et d = 0.2, nous obtenons le résultat suivant,
4.9.3 Exemple 3
4.10 Conclusion
Dans ce chapitre, nous avons proposé une nouvelle méthode pour la résolution numérique
de l’équation de Riccati continue de grande taille. Basée sur la méthode de minimisation
de résidu MR (Minimal Residual) et la méthode de projection dans un sous-espaces de
Krylov étendu par blocs, elle se ramène à chaque itérations à la résolution numérique
d’un problème de minimisation réduit. Ce dernier problème est résolu à l’aide de la
5.1 Introduction
On suppose que M est une M-matrice inversible. Nous rappelons que M est une M-
matrice si elle peut être écrite comme M = aI − N où N matrice avec des éléments
non-négatifs et a ≥ ρ(N ), où ρ(N ) est le rayon spectral de la matrice N . Cela assure
l’existence de la solution non négative minimale X ∗ de l’équation de Riccati non symé-
trique (5.1), pour plus de détails voir [24, 25, 41, 46, 71, 72].
Soit H la matrice définie par
H = JM
95
5.1 Introduction 96
!
In 0
où J = , avec In la matrice identité de taille n. Donc nous avons
0 −Ip
!
D −C
H= . (5.3)
B −A
La solution de l’équation (5.1) est liée au calcul de sous espaces invariants de la matrice
H associée. En effet, si X est une solution de l’équation de Riccati non symétrique (5.1),
alors on a
! !
In In
H = (A − XB)
X X
Le théorème de l’existence et l’unicité des solutions de Riccati non symétrique est liée à
la matrice M voir [24, 41, 46, 71, 72]. De plus, la structure particulière de la matrice M
assure l’existence de la solution minimale non négative X ∗ tel que X ∗ ≥ 0 et X ≥ X ∗
pour toute solution X de l’équation de Riccati non symétrique (5.1), pour plus de détails
voir [24, 41, 46]. Cela est indiqué dans le théorème suivant
Théorème 5.1.1. [46] Supposons que M soit une M-matrice. Alors l’équation NARE
(5.1) admet une unique solution minimale non négative X ∗ . De plus, si M est inversible,
alors A − X ∗ C et D − CX ∗ sont inversibles et M-matrices.
Le reste de ce chapitre est organisé comme suit : Dans la Section 2, nous allons combi-
ner la méthode de Newton-Kleinman avec les méthodes de sous-espaces de Krylov par
bloc ou bien des sous-espaces de Krylov étendus par blocs. La Section 3 est consacrée
à la résolution de l’équation NAREs de grande taille par une méthode de projection
à l’aide du sous espace de Krylov étendu et la condition d’orthogonalité de de Galer-
kin. Les solutions approchées de l’équation NAREs sont données sous la forme factorisée
(low rank approximation). L’application aux équations algébriques de Riccati non symé-
triques dans la théorie de transport sera considérée dans la Section 4. Enfin, la dernière
partie est consacrée à quelques expériences numériques.
Dans ce chapitre, nous utilisons les notations suivantes : Si K et L sont deux matrices
de taille n × m, alors K ≥ L si Li,j ≥ Ki,j pour tout i, j. La matrice K est dite non
négative si Li,j ≥ 0. Enfin, la séparation, par rapport à la norme de Frobenius, entre
deux matrices K et L est donnée par
La méthode de Newton-Kleinman a été introduite par D.L. Kleinman en 1968 [79], pour
résoudre l’équation de Riccati continue, basée sur une linéarisation préliminaire par la
méthode de Newton, qui nous ramène à chaque étape à la résolution d’une équation
matricielle de Lyapunov avec un second membre décomposé (low rank). Nous nous atta-
chons dans ce paragraphe à résoudre l’équation de Riccati non symétrique. La méthode
de Newton nécessite à chaque itération la résolution d’une grande équation de Sylvester.
Cette équation est résolue par la méthode de Galerkin basée sur l’algorithme d’Arnoldi
par blocs. On suppose dans cette partie que
Soit
R(X) = −XC1 C2T X + XD + AX − EF T . (5.5)
R(X) = 0.
En choisissant comme premier terme X0 = 0n×n , on construit la suite (Xk )k∈N des
approximations de la solution de (5.5) définie par la relation de récurrence
On montre facilement que les itérations Xk+1 de Newton peuvent être vues comme
solutions de l’équation matricielle de Sylvester
X0 = 0, et nous avons
∀k ≥ 1, X0 ≤ X1 ≤ Xk ≤ X ∗ , et lim (Xk ) = X ∗ .
k→∞
m T
Xk+1 = Vm,k Zm Wm,k , (5.10)
T m
Vm,k R(Xk+1 ) Wm,k = 0, (5.11)
m ) = A X m + X m D + L M T est le résidu de X m
où R(Xk+1 k k+1 k+1 k k k k+1 correspondant à
l’équation de Sylvester (5.8). Par conséquent, nous obtenons la matrice Zm est la solution
de l’équation de Sylvester de petit taille suivante :
T
T(A) (D)
m Zm + Zm Tm + Lm MTm = 0, (5.12)
EL MOSTAFA SADEK Thèse de Doctorat
5.3 Solution approchée de rang inférieur de NAREs 100
(A) T A V (D) T DT W T T
où Tm = Vm,k k m,k , Tm = Wm,k k m,k , Lm = Vm,k Lk et Mm = Wm,k Mk .
L’équation de Sylvester de taille réduite (5.12) sera résolu par la méthode de Bartels-
m ) k sans avoir calculer la
Stewart [11]. On peut calculer la norme du résidu k R(Xk+1 F
m , voir [56, 62] pour plus de détails. Ici l’approximation X m
solution approchée Xk+1 k+1
peut être exprimée comme un produit de deux matrices de rang inférieur et cela permet
d’économiser de la place mémoire.
Notons que dans le cas de l’utilisation de l’algorithme d’Arnoldi étendu par blocs pour
résoudre l’équation matricielle de Sylvester de grande taille (5.9), nous avons besoin de
calculer produits de la forme Ak−1 Y et Dk−T Y où Ak = A−Xk C1 C2T et Dk = D−C1 C2T Xk
avec Xk sous la forme suivante Xk = Z1 Z2T . Puisque A et D sont creuses, les matrices
Ak et Dk sont pas plus creuses, puis le calcul de les produits A−1 −T
k Y et Dk Y devient
très coûteux. La meilleure méthode pour éviter ce problème est d’utiliser la formule de
Sherman-Morrison-Woodbury donnée par
Dans cette section, nous considérons les équations algébriques de Riccati non symétriques
avec un second membre donné comme produit de deux matrices E et F de petit rang.
Dans ce cas l’équation de Riccati non symétrique est de la forme suivante :
5
10
0
10
−5
10
−10
10
−15
10
−20
10
0 100 200 300 400 500 600 700 800 900
Figure 5.1: Les valeurs singulières de la solution non négative minimale de l’équation
NAREs
Comme le montre cette figure, les valeurs singulières décroisent rapidement vers zéro,
donc le rang numérique de la solution exacte (non négative minimale) est petit, ce qui
donne une solution de rang inférieur "low-rank". Ici on a rang(X ∗ ) = 20. Cette remarque
permet de rechercher des méthodes qui donne des approximations de petit rang "low-
rank" de la solution de l’équation LrNARE.
Dans la suite, nous proposons une méthode itérative de projection sur des sous espaces
de Krylov étendu par blocs pour résoudre l’équation LrNARE, basée sur l’algorithme
d’Arnoldi étendu par blocs et la condition d’orthogonalité de Galerkin. Cette méthode
est décrite ci-dessous comme suit :
Nous appliquons l’algorithme d’Arnoldi étendu par blocs à (A, E) et (DT , F ), nous obte-
nons les matrices orthogonales Vm+1 et Wm+1 et les matrices de Hessenberg supérieure
par blocs HA D
m et Hm . Nous définissons aussi les matrices de Hessenberg supérieures par
blocs suivantes
TA T A T
m = Vm AVm , Tm = Vm+1 A Vm ,
et
TD T T D T T
m = Wm D Wm , Tm = Wm+1 D Wm .
Comme nous avons expliqué précédemment que les matrices Hessenberg par blocs TA
m
et TD A D
m sont obtenus à partir Hm et Hm sans avoir calculer le produit "matrice-vecteur".
Ensuite, nous considérons des solutions approchées de petit rang de la forme
Xm = Vm Ym WTm , (5.15)
Nous utilisons la condition d’orthogonalité de Galerkin (5.16) et le fait que les matrices
Vm et Wm sont orthogonales, nous obtenons une équation projetée de type Riccati non
symétrique
TA D T T e eT
m Ym + Ym (Tm ) − Ym C1,m C2,m Ym − Em Fm = 0, (5.17)
Alors nous avons la relation entre la matrice M associée à l’équation (5.14) et la matrice
Mm :
Mm = QTm M Qm . (5.18)
Nous supposons que l’équation projetée de Riccati non symétrique (5.17) à une solution
non négative minimale unique qui pourrait être obtenue par des méthodes classiques.
Nous avons le résultat suivant qui nous permet de calculer la norme du résidu sans
calculer la solution approchée Xm .
Théorème 5.3.1. Soit Ym la solution exacte de l’équation NARE réduite (5.17), obtenue
à l’itération m de l’algorithme d’Arnoldi étendu par blocs . Alors la norme de Frobenius
du résidu Rm = R(Xm ) est donnée par :
T
k Rm k2F =k Ym Em (TD 2 A T 2
m+1,m ) kF + k Tm+1,m Em Ym kF , (5.19)
où TA D A D
m+1,m et Tm+1,m sont les dernier bloc des matrices Tm et Tm respectivement.
Démonstration. Soit Vm+1 = [Vm , Vm+1 ] et Wm+1 = [Wm , Wm+1 ] les matrices ortho-
normales construites en appliquant simultanément m itérations de l’algorithme EBA
aux paires de matrices (A, E) et (DT , F ) respectivement, donc on a TA T
m = Vm AVm et
TD T T
m = Wm D Wm . Le résidu R(Xm ) peut être formulé comme un produit de matrices
TA D T e eT e eT
m Ym + Ym (Tm ) − Ym C1 C2 Ym − E F = 0,
nous avons
!
0 D
Ym Em (Tm+1,m )T
Rm = R(Xm ) = Vm+1 A
WTm+1 . (5.20)
Tm+1,m ETm Ym 0
BT A
k Rm k2F =k Ym Em Tm+1,m k2F + k Tm+1,m ETm Ym k2F .
Le théorème précédent joue un rôle très important dans la pratique, il permet de calculer
la norme du résidu sans calculer l’approximation de la solution et de minimiser le temps
d’exécution.
e Σ Ve T ,
Ym = U
où Σ est la matrice diagonale des valeurs singulières de Ym rangées dans l’ordre dé-
croissant. Soient U
el et Vel les matrices constituées des l premières colonnes de U
e et
de Ve correspondant aux l valeurs singulières supérieures ou égales certaine tolérance
el Σl Ve T où
dtol. Nous obtenons la décomposition de valeur singulière tronquée Ym ≈ U l
(1) 1/2 (2) 1/2
Σl = diag[σ1 , . . . , σl ]. Soit Zm = Vm U
el Σ , et Zm = Wm Vel Σ , il en résulte que
l l
(1) (2) T
Xm ≈ Zm (Zm ) . (5.21)
Cette factorisation est très importante pour les problèmes de grande dimension, quand
on n’a pas besoin de calculer l’approximation de la solution Xm , mais on a besoin de la
stocker à chaque itération.
A
où Km = Vm+1 Tm+1,m VmT et Jm = Wm (Tm+1,m
D )T Wm+1
T .
et
DT Wm = Wm TD D T
m + Wm+1 Tm+1,m Em .
nous obtenons
A
[AVm − Vm+1 Tm+1,m ETm ]Ym WTm + Vm Ym [DT Wm − Wm+1 Tm+1,m
D
ETm ]T
Comme Vm et Wm sont deux matrices orthonormées, cela nous permet de donner les
relations suivantes
A
Vm+1 Tm+1,m ETm Ym WTm = Vm+1 Tm+1,m
A
ETm VTm Xm
et
D
Vm Ym Em (Tm+1,m )T Wm+1
T D
= Xm Wm Em (Tm+1,m )T Wm+1
T
Vm Em = Vm et Wm Em = Wm .
Par conséquent
(A − Km )Xm + Xm (D − Jm ) − Xm BC T Xm + EF T = 0,
A
où Km = Vm+1 Tm+1,m VmT et Jm = Wm (Tm+1,m
D )T Wm+1
T .
Ensuite, nous donnons un résultat montrant que l’erreur X − Xm est une solution exacte
de l’équation NARE perturbée.
2γm
k X − Xm kF ≤ p
2 − 4γ η
.
δm + δm m
où γm =k Rm kF et η =k C1 C2T kF .
Km Xm + Xm Jm = Rm . (5.27)
Nous remarquons que δm = sepF (Am , −Dm ) est également défini par
δm = inf k T(P ) kF ,
kP k=1
où T(P ) = Am P + P Dm .
Les étapes de la méthode que nous proposons (pour résoudre l’équation de Riccati non
symétrique de grande taille) sont résumées dans l’algorithme suivant
Algorithm 10 [La méthode d’Arnoldi étendu par blocs pour résoudre NAREs]
– Entrées : les matrices A, D, C1 , C2 , E et F . Le nombre maximum d’itérations mmax ,
et les tolérances toler et dtol.
(1) (2)
– Sorties : les matrices Zm et (Zm ) de telle sorte que la solution approchée est donnée
par
(1) (2) T
Xm ≈ Zm (Zm ) .
– Pour m = 1, . . . , mmax
– Appliquer l’algorithme d’Arnoldi étendu par blocs à (A, E) et (DT , F ) pour obtenir
les matrices orthogonales Vm , Wm et les matrices de Hessenberg par blocs TA
m et
TD
m.
– Résoudre l’équation NAREs de taille réduite
TA D T T e eT
m Ym + Ym (Tm ) − Ym C1,m C2,m Ym − Em Fm = 0,
Dans la section suivante, nous allons appliquer les méthodes itératives proposées pour
la résolution d’un particulier de l’équation algébrique de Riccati utilisée dans la théorie
de transport.
A = ∆ − eq T , D = Γ − qeT , C1 = C2 = q, et E = F = e. (5.29)
où
1 1
δi = , et γi = , i = 1, . . . , n. (5.31)
cxi (1 − α) cxi (1 + α)
Les vecteurs e et q sont donnés par
wi
e = (1, . . . , 1)T , q = (q1 , . . . , qn )T avec qi = , i = 1, . . . , n. (5.32)
2xi
Nous appliquons ensuite la méthode d’Arnoldi étendue à l’équation NARE (5.28) pour
obtenir des solutions approximatives bas de classement. Nous remarquons que l’appli-
cation de la méthode ci-dessus, nous utilisons des opérations « matrice-vecteur» de la
forme A−1 v et D−T v. Comme les matrices A et D impliquées dans l’équation algébrique
de Riccati non symétrique (5.28) sont la somme d’une matrice diagonale et d’une ma-
trice de petit rang, nous pouvons utiliser la formule Sherman-Morrison-Woodbury pour
calculer A−1 u et D−1 u, où u ∈ Rn .
Donc nous avons :
−1 ∆−1 e q T ∆−1 u
A−1 u = (∆ − eq T ) u = ∆−1 u + , (5.33)
1 − q T ∆−1 e
et
−1 Γ−1 q eT Γ−1 u
D−1 u = (Γ − qeT )(∆ − eq T ) u = Γ−1 u + . (5.34)
1 − eT Γ−1 q
Cette formule permet de réduire le temps de calcul et permet également de réduire la
place en mémoire.
Dans cette section, nous donnons quelques exemples numériques de l’équation de Riccati
non symétrique NAREs pour montrer l’efficacité des méthodes proposées. Les différentes
expériences numériques ont été réalisées sur un ordinateur Portable d’Intel Core i5 à
1,6 GHz et 4G de RAM. Les algorithmes ont été codés dans Matlab2009. Nous avons
comparé la performance de la méthode d’Arnoldi étendu par blocs et la méthode Newton-
Block-Arnoldi avec la méthode RRE (Reduced Rank Extrapolation) proposée par El-
Moallem et Sadok pour résoudre l’équation de Riccati non symétrique, pour plus de
détails voir [38]. Pour l’algorithme d’Arnoldi étendu par blocs, le critère d’arrêt était
Exemple 1.
Dans ce premier exemple, nous avons choisi c = 0.5 et α = 0.5. Nous avons d’abord
calculé les approximations XN et XE données par le Newton-BA et par l’EBA-NARE
pour le taille n = 2000 et obtenir le suivant norme d’erreur k XN − XE kF = 1.2 · 10−10
cette résultat signifie que la solution approchée XE de la méthode EBA-NARE obtenue
se rapproche de la solution non négative minimale XN obtenue par la méthode de New-
ton.
Nous considérons maintenant des problèmes avec les tailles suivantes n = 4000, n =
10000, n = 20000 et n = 36000. Dans le tableau (5.1), une liste des normes résiduelles re-
latives obtenues pour chaque méthode et le temps de calcul correspondant (en secondes).
EL MOSTAFA SADEK Thèse de Doctorat
5.5 Résultats numériques 109
Pour toutes les expériences, les itérations de la méthode de Newton ne dépassent pas 5
itérations. Le nombre maximum d’itérations intérieures était itermax = 50 et ces itéra-
tions intérieures ont également été arrêtée lorsque le résidu correspondant est inférieure
à tol = 10−10 . Nous remarquons que les approximations Xm produite par l’algorithme
EBA-NARE sont données sous la forme factorisée (5.21). Ces approximations sont nu-
mériquement de petit rang, par exemple, lorsque n = 4000, le rang de l’approximation
obtenue par la méthode EBA-NARE était égale à 22, et que le rang correspondant à
l’approximation obtenue par l’approche de Newton-BA était 23.
Table 5.1: Résultats pour les exemples de NAREs dans la théorie de transport avec
c = 0.5 et α = 0.5.
Exemple 2.
Table 5.2: Résultats pour les exemples de NAREs dans la théorie de transport avec
c = 0.9999 et α = 10−8 .
∂u ∂u
LAu = ∆u − exy + sin(xy) + 100x, (5.35)
∂x ∂y
et
∂u ∂u
LDu = ∆u − x2 y + x cos(xy) + 10, (5.36)
∂x ∂y
respectivement, sur le carré unité [0, 1] × [0, 1] avec des conditions aux bord de Dirichlet
homogènes. Le nombre de points de la grille intérieure dans chaque direction a été n0
pour l’opérateur LAu et p0 pour l’opérateur LDu . La dimension des matrices A et C
sont n = n20 et p = p20 respectivement. Différents choix de valeurs ont été faits pour n0 et
m0 . Les matrices E, F , C1 et C2 sont des matrices aléatoires uniformément distribuées
dans l’intervalle [0, 1] et s = 5. Nous utilisé le même critère d’arrêt comme pour les
exemples premiers.
Le tableau 5.3 donne les résultats obtenus par les trois méthodes EBA-NARE, Newton-
BA et la méthode SDA [24, 50]. Pour les trois méthodes, nous avons reporté la norme
de Frobenius du résidu et le temps CPU (en secondes) de calcul. Comme indiqué sur le
tableau 5.3, les méthodes proposées donne les meilleurs résultats en terme de temps de
calcul.
Table 5.3: Résultats pour les exemples 4, comparaisons avec la méthode SDA.
5.6 Conclusion
Nous avons présenté dans ce chapitre, deux nouvelles méthodes itératives pour calculer la
solution approchée de rang inférieur d’équations algébriques de Riccati non symétriques
de grande taille. La première basée sur des sous-espace de Krylov étendus par blocs et la
condition d’orthogonalité de Galerkin. Dans la deuxième méthode, nous avons présenté
la méthode de Newton-bloc Arnoldi, basée sur la méthode de Newton et des sous-espaces
de Krylov par blocs : à chaque itération de la méthode de Newton, on résout une équation
de Sylvester de grande taille par l’utilisation de l’algorithme d’Arnoldi par blocs. Nous
EL MOSTAFA SADEK Thèse de Doctorat
5.6 Conclusion 111
avons également présenté des résultats de majoration de l’erreur. Nous avons appliqué
ces méthodes itératives à l’équation de Riccati non symétrique bien connue dans la
théorie du transport. Les résultats numériques montrent que les approches proposées
sont efficaces pour les problèmes de grande taille.
[4] A. C. Antoulas, D.C. Sorensen, Projection methods for balanced model reduction,
Technical Report, Rice University, Houston, TX, 2001.
[9] Z-Z. Bai, Y-H. Gao, L-Z. Lu, Fast iterative schemes for nonsymmetric algebraic
Riccati equations arising from transport theory, SIAM J. Sci. Comp., 30(2008), pp.
804–818.
[10] Z-Z. Bai, X-X. Guo, S-F. Xu, Alternately linearized implicit iteration methods for
the minimal nonnegative solutions of the nonsymmetric algebraic Riccati equations,
Num. Lin. Alg. with App, 13(2006), pp. 655–674.
112
BIBLIOGRAPHIE 113
[12] M. Bellalij, K. Jbilou, H. Sadok, New convergence results on the global GMRES
method for diagonalizable matrices, Journal of Computational and Applied Mathe-
matics 219 (2008), pp. 350–358.
[14] P. Benner and R. Byers. An exact line search method for solving generalized conti-
nous algebraic Riccati equations. IEEE Trans. Automat. Control, 43, pp : 101–107,
(1998).
[15] P. Benner, J. Li, and T. Penzl. Numerical solution of large Lyapunov equations,
Riccati equations and linear-quadratic optimal control problems. Numer. Linear
Alg. Appl., 15, pp. 755–777, 2008.
[17] A. Bouhamidi , K. Jbilou, Stien implicit Runge-Kutta methods with high stage order
for large-scale ordinary differential equations. Applid Numerical Mathematics, 61,
pp. 149–159, 2011.
[19] A. Bouhamidi , K. Jbilou, A note on the numerical approximate solutions for ge-
neralized Sylvester matrix equations with applications, Applied Mathematics and
Computation 206 (2008), pp. 687–694.
[21] P. Benner, R.C. Li, N. Truhar, On the ADI method for Sylvester equations, J. of
Comput. Appl. Math., (233)2009, pp. 1035–1045.
[22] P. Benner, H. Mena, and J. Saak, On the parameter selection problem in the
Newton-ADI iteration for large-scale Riccati equations, Electron. Trans. Numer.
Anal., 29 (2008), pp. 136–149.
http ://etna.math.kent.edu/vol.29.2007–2008/pp136–149.dir/
[23] P. Benner and P. Kürschner, Computing real low-rank solutions of Sylvester equa-
tions by the factored ADI method, Comput. Math. Appl., 67 (2014), pp. 1656–1672.
[24] D.A. Bini, B. Iannazzo, B. Meini, Numerical Solution of Algebraic Riccati Equa-
tions, SIAM, Philadelphia, PA, 2012.
[25] D.A. Bini, B. Iannazzo, G. Latouche, B. Meini, On the solution of algebraic Riccati
equations arising in fluid queues, Linear Algebra Appl., 413(2006), pp. 474–494.
[26] D.A. Bini, B. Iannazzo and F. Poloni, A fast Newtons method for a nonsymmetric
algebraic Riccati equation, SIAM J. Matrix Anal. Appl., 30(2008), pp : 276–290.
[27] R. Byers, Solving the algebraic Riccati equation with the matrix sign function.
Linear Algebra and its Applications, 85, pp : 267–279, 1987.
[28] J-P Chehab, M. Raydan, An implicit preconditioning strategy for large-scale ge-
neralized Sylvester equations, Applied Mathematics and Computation, 217(2011),
pp : 8793–8803.
[31] Callier, F.M and Desoer, Linear System Theory, SpringerVerlag (1991).
[32] B. N. Datta, Numerical Methods for Linear Control Systems Design and Analysis,
Elsevier Academic Press, 2003.
[33] B.N. Datta, Numerical Methods for Linear Control Systems, Elsevier Academic
press, 2004.
[34] B.N. Datta, Krylov-subspace methods for large scale matrix problems in control,
Generation of Computer Systems, 19(2003), pp. 125–126.
[35] B.N. Datta, K. Datta, Theoretical and computational aspects of some linear algebra
problems in control theory, in :C.I. Byrnes, A. Lindquist (EDs), Computational and
Combinatorial Methods in Systems Theory, Elsevier, Amsterdam (1986), pp 201–
212.
[39] A. El Guennouni, K. Jbilou, A.J. Riquet, Block Krylov subspace methods for solving
large Sylvester equations, Numer. Alg. 29 (2002), pp.75–96.
[41] C-H. Guo, Nonsymmetric algebraic Riccati equations and Wiener-Hopf factoriza-
tion for M-matrices, SIAM J. Matrix Anal. Appl., 23(1)(2001), pp. 225–242.
[42] K. Glover, D.J. N. Limebeer, J.C. Doyle, E.M. Kasenally and M.G. Safonov, A
characterisation of all solutions to the four block general distance problem, SIAM
J. Control Optim., 29(1991), pp. 283–324.
[43] G.H. Golub, and W. Kahan, Calculating the singular values and pseudoinverse of
a matrix, SIAM J. Numer. Anal. 2 (1965), pp. 205–224.
[44] G.H. Golub and C.F. Van Loan, Matrix Computations, (Johns Hopkins Studies in
Mathematical Sciences)(3rd Edition). The Johns Hopkins University Press,1996.
[45] G.H. Golub, S. Nash, C. Van Loan, A Hessenberg Schur method for the problem
AX + XB = C , IEEE Trans. Automat. Control 24 (1979), pp. 909–913.
[48] C-H. Guo and A. J. Laub, On the iterative solution of a class of nonsymmetric
algebraic Riccati equations, SIAM J. Matrix Anal. Appl., 22(2000), pp. 376–391.
[49] C.H. Guo, B. Iannazzo, and B. Meini, On the doubling algorithm for a (shifted)
nonsymmetric algebraic Riccati equation, SIAM J. Matrix Anal. Appl., 29(4)(2007),
pp : 1083–1100.
[50] X.-X. Guo, W.-W. Lin, and S.-F. Xu, A structure-preserving doubling algorithm for
nonsymmetric algebraic Riccati equation, Numer. Math., 103(2006), pp. 393–412.
[51] Guang-Da Hu and Qiao Zhu, Bounds of modulus of eigenvalues based on Stein
equation. Kybernetika, 46(4), pp. 655–664, 2010.
[52] C. He, B. Meini, NH. Rhee, A shifted cyclic reduction algorithm for quasi- birth-
death problems, SIAM Journal on Matrix Analysis and Applications, 23(3)(2001),
pp. 673–691.
[53] S.J. Hammarling, Numerical solution of the stable, nonnegative definite Lyapunov
equation, IMA J. Numer. Anal. 2 (1982), pp. 303–323.
[54] R.E. Hartwig, Resultants and the solution of AX − XB = −C, SIAM J. Appl.
Math. 23 (1) (1972), pp. 104–117.
[55] M. Heyouni, K. Jbilou, An extended Block Arnoldi algorithm for large-scale solu-
tions of the continuous-time algebraic Riccati equation, ETNA 33 (2009), pp. 53–62.
http ://etna.mcs.kent.edu/vol.33.2008-2009/pp53-62.dir
[56] M. Heyouni, Extended Arnoldi methods for large low-rank Sylvester matrix equa-
tions, Appl. Num. Math., 60(11)(2010), pp. 1171–1182.
[57] D.Y. Hu, L. Reichel, Krylov-subspace methods for the Sylvester equation, Linear
Algebra Appl. 172 (1992), pp. 283–313.
[59] Carl Jagels and Lothar Reichel, Recursion relations for the extended Krylov sub-
space method. Linear Algebra Appl., 434(7)(2011), pp. 1716–1732.
[60] I. M. Jaimoukha and E. M. Kasenally, Krylov subspace methods for solving large
Lyapunov equations, SIAM J. Numer. Anal.,31(1994), pp. 227–251.
[61] K. Jbilou, ADI preconditioned Krylov methods for large Lyapunov matrix equa-
tions, Linear Algebra and its Applications. 432 (2010) pp. 2473–2485.
[62] K. Jbilou, Low-rank approximate solution to large Sylvester matrix equations, App.
Math. Comput., 177(2006), pp. 365–376.
[63] K. Jbilou, Approximate solutions to large Stein matrix equations, World Academy
of Science, Engineering and Technology Vol :70(2012), pp : 19–25.
[64] K. Jbilou, Block Krylov subspace methods for large continuous-time algebraic Ric-
cati equations, Num. Alg., 34(2003), pp : 339–353.
[65] K. Jbilou, An Arnoldi based algorithm for large algebraic Riccati equations, Appl.
Math. Lett., 19 (2006), pp. 437–444.
[66] K. Jbilou and A. Messaoudi, A Computational Method for Symmetric Stein Ma-
trix Equations, Numerical Linear Algebra in Signals, Systems and Control. Volume
80(2011), pp 295–311.
[67] K. Jbilou, A. Messaoudi, H. Sadok, Global FOM and GMRES algorithms for matrix
equations, Appl. Numer. Math. 31(1999), pp. 49–63.
[68] K. Jbilou and A. J. Riquet, Projection methods for large Lyapunov matrix equa-
tions, Lin. Alg. Appl, 415(2006), pp. 344–358.
[69] K. Jbilou and H. Sadok, Vector extrapolation methods. Applications and numerical
comparison, J. Comput. Appl. Math., 122(2000), pp : 149–165.
EL MOSTAFA SADEK Thèse de Doctorat
BIBLIOGRAPHIE 117
[71] Jonq Juang and Wen-Wei Lin, nonsymmetric algebric Riccati equations and
Hamiltonian-Like matrices. SIAM J. MATRIX ANAL. APPL. Vol. 20 (1998), pp.
228–243.
[72] J. Juang, Existence of algebraic matrix Riccati equations arising in transport theory,
Lin. Alg. Appl., 230(1995), pp : 89–100.
[73] J. Juang and D. Chen, Iterative solution for a certain class of algebraic matrix
Riccati equations arising in transport theory, Transp. Theor. Statis. Phys., 22(1),
pp : 65–80.
[74] Z. Jia and Y. Sun, A QR decomposition based solver for the least squares problems
from the minimal residual method for the Sylvester equation, J. Comput. Math.,
25(2007), pp. 531–542.
[75] S. Karimi, B. Zali, The block preconditioned LSQR and GL-LSQR algorithms for
the block partitioned matrices, Applied Mathematics and Computation, 227(2014),
pp. 811–820.
[76] A. Klein and P.J.C. Spreij, On Stein’s equation, Vandermonde matrices and Fisher’s
information matrix of time series processes. Part I : The autoregressive moving
average process. Lin. Alg. Appl., 329(13), pp. 9–47, 2001.
[77] André Klein and Peter Spreij. On the solution of Stein’s equation and Fisher’s
information matrix of an ARMAX process. Linear Algebra and its Applications,
396(2005), pp :1–34.
[78] D. Kressner and C. Tobler, Low-rank tensor Krylov subspace methods for parame-
trized linear systems, SIAM J. Matrix Anal. Appl., 32 (2011), pp. 1288–1316.
[79] D.L. Kleinman, On an iterative technique for Riccati equation computations, IEEC
Trans. Autom. Contr., 13(1968), pp : 114–115.
[80] P. Lancaster, and L. Rodman, Algebraic Riccati Equations, Clarendon Press, Ox-
ford, (1995).
[81] P. Lancaster and M. Tismenetsky, The Theory of Matrices, Academic Press, Or-
lando, 1985.
[82] Y. Lin and V. Simoncini, Minimal residual methods for large scale Lyapunov equa-
tions, App. Num. Math., 72(2013), pp : 52–71.
[83] P. Lancaster, L. Rodman, The Algebraic Riccati Equations, Clarendon Press, Ox-
ford, 1995.
[84] Y. Lin, I. Bao and Y. Wei, A modified Newton method for solving non-symmetric
algebraic Riccati equations arising in transport theory, IMA J. Numer. Anal.,
29(2008), pp : 215–224.
[85] L.-Z. Lu, Newton iterations for a non-symmetric algebraic Riccati equation, Numer.
Lin. Alg. Appl., 12(2005), pp : 191–200.
[86] L.-Z. Lu, Solution form and simple iteration of a nonsymmetric algebraic Riccati
equation arising in transport theory, SIAM J. Matrix Anal. Appl., 26(2005), pp :
679–685.
[88] A. J. Laub, A Schur method for solving algebraic Riccati equations, IEEE Trans.
Automat. Control, 24 (1979), pp. 913–921.
[89] T. Penzl, LYAPACK : A MATLAB toolbox for large Lyapunov and Riccati equa-
tions, model reduction problems, and linear-quadratic optimal control problems,
software available at
https ://www.tu-chemnitz.de/sfb393/lyapack/.
[90] C. Moler and C. Van loan, Ninteen dubious ways to compute the exponential of a
matrix, SIAM Rev., 20(1978), pp. 801–836.
[91] V. Mehrmann. The Autonomous Linear Quadratic Problem, Theory and Numerical
Solution. Lecture Notes in Control and Information Sciences, Vol. 63, Springer,
Heidelberg, (1995).
[92] V. Mehrmann and H. Xu, Explicit solutions for a Riccati equations from transport
theory, SIAM J. Matrix Anal., 30(2008), pp : 1339–1357.
[93] V. Mehrmann, H. Xu, Explicit solutions for a Riccati equation from transport
theory, SIAM J. Matrix Anal. Appl. 30 (4)(2008), pp : 1339–1357.
[95] C.C. Paige, A. Saunders, LSQR : an algorithm for sparse linear equations and sparse
least squares, ACM Trans. Math. Software 8 (1982), pp. 43–71.
[96] Frédéric Rotella, Pierre Borne, Théorie et pratique du calcul matriciel, 1995.
[99] Y. Saad and M. H. Schultz, GMRES : A generalized minimal residual algorithm for
solving nonsymmetric linear systems, SIAM J. Sci. Statis. Comput., 7 (1986), pp.
856–869.
[100] Y. Saad, Iterative Methods for Sparse Linear Systems, Society for Industrial and
Applied Mathematics 2éme edition. SIAM, Philadelpha, PA, 2003.
[101] M. Sadkane, Block Arnoldi and Davidson methods for unsymmetric large eigen-
value problems, Numer. Math., 64(1993), pp. 687–706.
[102] V. Simoncini, A new iterative method for solving large-scale Lyapunov matrix
equations, SIAM J. Sci. Comput, 29(2007), pp. 1268–1288.
[104] G.W. Stewart and J.G. Sun, Matrix Perturbation Theory, Academic Press, New
York, (1990).
[105] R.A. Smith, Matrix calculations for Liapunov quadratic forms, J. Different. Eqs.
2(1966), pp. 208–217.
[106] F. Toutounian and S. Karimi, Global least squares method (Gl-LSQR) for sol-
ving general linear systems with several right-hand sides, Applied Mathematics
and Computation 178 (2006), pp.452–460.
[107] P. Van Dooren, A generalized eigenvalue approach for solving Riccati equations.
SIAM J. Sci. Statist. Comput., 2, pp :121–135, (1981).
[108] P. Van Dooren, Gramian based model reduction of large-scale dynamical systems,
in Numerical Analysis, Chapman and Hall, pp. 231–247, CRC Press London, 2000.
[111] Zhou, K., Doyle, J.C. and Glover, Robust Optimal Control. Prentice Hall, New-
Jersey (1995).
Nous nous intéressons dans cette thèse, à l’étude des méthodes itératives pour la réso-
lution d’équations matricielles de grande taille : Lyapunov, Sylvester, Riccati et Riccati
non symétrique.
L’objectif est de chercher des méthodes itératives plus efficaces et plus rapides pour ré-
soudre les équations matricielles de grande taille. Nous proposons des méthodes itératives
de type projection sur des sous espaces de Krylov par blocs
e
Km (A, V ) = Image{V, A−1 V, AV, A−2 V, A2 V, · · · , Am−1 V, A−m+1 V }
Ces méthodes sont généralement plus efficaces et rapides pour les problèmes de grande
dimension.
Nous avons traité d’abord la résolution numérique des équations matricielles linéaires :
Lyapunov, Sylvester et Stein. Nous avons proposé une nouvelle méthode itérative basée
sur la minimisation de résidu MR et la projection sur des sous espaces de Krylov étendus
e (A, V ). L’algorithme d’Arnoldi étendu par blocs permet de donner un
par blocs Km
problème de minimisation projeté de petit taille. Le problème de minimisation de taille
réduit est résolu par différentes méthodes directes ou itératives. Nous avons présenté
aussi la méthode de minimisation de résidu basée sur l’approche global à la place de
l’approche bloc. Nous projetons sur des sous espaces de Krylov étendus Global
e
Km (A, V ) = sev{V, A−1 V, AV, A−2 V, A2 V, · · · , Am−1 V, A−m+1 V }.
Nous nous sommes intéresses en deuxième lieu à des équations matricielles non linéaires,
et tout particulièrement l’équation matricielle de Riccati dans le cas continu et dans
le cas non symétrique appliquée dans les problèmes de transport. Nous avons utilisé la
méthode de Newton et l’algorithme MINRES pour résoudre le problème de minimisation
projeté. Enfin, nous avons proposé deux nouvelles méthodes itératives pour résoudre les
équation de Riccati non symétriques de grande taille : la première basée sur l’algorithme
d’Arnoldi étendu par bloc et la condition d’orthogonalité de Galerkin, la deuxième est
120
BIBLIOGRAPHIE 121
Mots clés : Sous espaces de Krylov étendu, méthodes blocs et globales, Approximation
de rang inférieur, Lyapunov, Sylvester, Riccati continu, Riccati non symétrique, Méthode
de Newton, Théorie de transport, Condition de Galerkin, Méthode de minimisation de
résidu.
In this thesis, we focus in the studying of some iterative methods for solving large ma-
trix equations such as Lyapunov, Sylvester, Riccati and nonsymmetric algebraic Riccati
equation. We look for the most efficient and faster iterative methods for solving large
matrix equations. We propose iterative methods such as projection on block Krylov
subspaces
Km (A, V ) = Range{V, AV, . . . , Am−1 V },
e
Km (A, V ) = Range{V, A−1 V, AV, A−2 V, A2 V, · · · , Am−1 V, A−m+1 V }.
These methods are generally most efficient and faster for large problems.
We first treat the numerical solution of the following linear matrix equations : Lyapunov,
Sylvester and Stein matrix equations. We have proposed a new iterative method based
e (A, V ).
on Minimal Residual MR and projection on block extended Krylov subspaces Km
The extended block Arnoldi algorithm gives a projected minimization problem of small
size. The reduced size of the minimization problem is solved by direct or iterative me-
thods. We also introduced the Minimal Residual method based on the global approach
instead of the block approach. We projected on the global extended Krylov subspace
e
Km (A, V ) = Span{V, A−1 V, AV, A−2 V, A2 V, · · · , Am−1 V, A−m+1 V }.
Secondly, we focus on nonlinear matrix equations, especially the matrix Riccati equation
in the continuous case and the nonsymmetric case applied in transportation problems.
We used the Newton method and MINRES algorithm to solve the projected minimization
problem. Finally, we proposed two new iterative methods for solving large nonsymme-
tric Riccati equation : the first based on the algorithm of extended block Arnoldi and
Galerkin condition, the second type is Newton-Krylov, based on Newton’s method and
the resolution of the large matrix Sylvester equation by using block Krylov method.
122
BIBLIOGRAPHIE 123
For all these methods, approximations are given in low rank form, wich allow us to save
memory space. We have given numerical examples that show the effectiveness of the
methods proposed in the case of large sizes.