Méthode Numérique de Base
Méthode Numérique de Base
Méthode Numérique de Base
Si de plus f est strictement monotone sur [a,b], la racine est unique dans
[a,b].
Page 1 of 44
14
12
10
ï2
ï4
ï6
ï 1.5 ï1 ï 0.5 0 0.5 1 1.5
Page 2 of 44
multiplicit´es paires). C’est une m´ethode que nous qualifierons de m´ethode
tout-terrain, lente mais quasiment infaillible.
(III.1)
xn+1 = g(xn)
Page 3 of 44
D´ef. 1.1 (Application contractante) : On dit qu’une application d´efinie de
[a,b] dans [a,b] est contractante, ou que c’est une contraction, s’il existe un
nombre 0 ≤ k < 1 tel que, pour tout couple de points distincts (x1,x2) de [a,b], on
ait :
|g(x1) − g(x2)| ≤ k|x1 − x2|
M´ethodes d’ordre un
Si g(s) = 0 , la limite du rapport des ´ecarts est :
L’´ecart au pas n+1 est donc du mˆeme ordre que l’´ecart au pas n. Le facteur
de r´eduction d’erreur est asymptotiquement donn´e par |g(s)|. Plus petite
sera la valeur de |g(s)|, plus vite se fera la convergence.
Page 4 of 44
M´ethodes d’ordre deux
Si g(s) = 0, l’erreur au pas n + 1 est un infiniment petit d’ordre ≥ 2 par rapport
`a l’erreur au pas n. On obtient en effet :
(III.2)
Page 5 of 44
Figure III.3 – Interpr´etation g´eom´etrique de la m´ethode de Newton.
Ce qui donne
(III.3)
Les proc´edures de r´esolution d’´equations de type f(x) = 0 que l’on
trouve dans les outils g´en´eriques d’algorithmique (Matlab par exemple),
combinent en g´en´eral une premi`ere approche de la racine par quelques pas
de dichotomie, suivis, pour la convergence fine, par une m´ethode rapide afin
d’obtenir une grande pr´ecision en peu d’it´erations. L’algorithme propos´e
par Matlab est duˆ a` Dekker (1969). La m´ethode rapide utilis´ee est une
interpolation quadratique inverse, assurant l’ordre deux de convergence
(comme Newton), sans calcul de la d´eriv´ee de f.
1.5 M´ethode de Newton et Quasi-Newton pour les syst`emes
La m´ethode de Newton se g´en´eralise en dimension sup´erieure a` un. On
peut en effet montrer que le choix du n + 1e it´er´e xn+1 est tel que
Page 6 of 44
f(xn+1) = O(|xn+1 − xn|2)
que le choix
Page 7 of 44
1.5.1 Application `a l’optimisation
Dans un contexte d’optimisation, la recherche du minimum d’une
fonctionnelle J peut ˆetre ramen´ee a` la recherche du point qui annule son
gradient ∇J(x), x d´esignant la param´etrisation du probl`eme (voir chapitre
??). On pourra alors utiliser les m´ethodes de type Newton ou Quasi-Newton
(nous renvoyons `a la litt´erature pour les m´ethodes d’optimisation en
dimension un du type de la m´ethode de la section dor´ee qui ne n´ecessite
pas le calcul des d´eriv´ees). Ces m´ethodes demandent le calcul exact ou
approch´e de la matrice des d´eriv´ees partielles secondes ou matrice
Hessienne. La m´ethode BFGS permet de construire directement une
approximation de l’inverse de la
Hessienne H, en d´emarrant de la matrice identit´e (H0 = Id) et en appliquant
l’it´eration suivante :
Hp)T )γp
Hp+1 = Hp +
(III.6)
2 Interpolation
Une collection de valeurs not´ees yi ´etant donn´ees pour un ensemble
d’abscisses xi, pour i = 0 `a n, l’interpolation est le proc´ed´e qui consiste a` d
´eterminer une fonction, d’une famille choisie a priori, prenant les valeurs
donn´ees aux abscisses correspondantes. Le choix de fonctions polynomiales
est le plus classique. Dans ce cas, le polynˆome d’interpolation est le
polynoˆme de degr´e minimal passant par les n + 1 points donn´es. Ce
polynoˆme est unique et il est de degr´e inf´erieur ou ´egal `a n. Si l’on exprime
le polynoˆme recherch´e dans la base canonique sous la forme
Page 8 of 44
on doit r´esoudre un syst`eme lin´eaire de n + 1 ´equations `a n + 1 inconnues.
Sous cette forme le calcul est donc couˆteux. La solution de ce syst`eme est
tr`es sensible aux erreurs d’arrondis.
1
0.8
0.6
0.4
0.2
ï 0.2
ï 0.4
ï 0.6
ï 0.8
ï1
ï5 ï4 ï3 ï2 ï1 0 1 2 3 4 5
(III.8)
Page 9 of 44
Exprim´e dans cette nouvelle base, le polynoˆme d’interpolation s’´ecrit
) (III.9)
La relation ci-dessus, facile a` v´erifier, explique l’int´erˆet de la base de
Lagrange. Les coefficients du polynoˆme d’interpolation cherch´e sont, dans
cette base, tout simplement les valeurs yi donn´ees. Exprim´e autrement, le
changement de base, de la base canonique a` la base de Lagrange, a transform
´e le syst`eme a` r´esoudre en un syst`eme a` matrice identit´e.
Page 10 of 44
2
1.5
0.5
ï 0.5
ï5 ï4 ï3 ï2 ï1 0 1 2 3 4 5
Page 11 of 44
Les splines cubiques d’interpolation sont des fonctions cubiques par mor-
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
ï5 ï4 ï3 ï2 ï1 0 1 2 3 4 5
Page 12 of 44
aux points xi. On suppose la d´eriv´ee seconde de la spline affine par
intervalles. On int`egre deux fois en prenant en compte les conditions de
continuit´e de la d´eriv´ee et les valeurs donn´ees yi aux points xi. On en d
´eduit les expressions suivantes de la spline sur chaque intervalle [xi,xi+1] :
3
pour i = 1,..n − 1, compl´et´e, en g´en´eral, par .
Page 13 of 44
droite repr´esentant “au mieux” un nuage de points au sens des moindres
carr´es se fait de la mani`ere suivante.
(III.11)
composantesyi, dans le
Page 14 of 44
sous-espace de dimension deux engendr´e par les vecteurs toutes ´egales `a 1,
et X, de composantes xi. Comme la norme utilis´ee est la norme euclidienne, le
vecteur le plus proche est le projet´e orthogonal. On obtient ses composantes
a0 et a1 en ´ecrivant les relations d’orthogonalit´e :
N
(Y − a00U − a11X|U) = ii=1=1[yii − (a00+ a11xii)] 1 = 0i
(III.12)
(Y − a U − a X|X) = [y − (a + a x )] x = 00 1
Ni =1 xii a0 i yi
N
iN =
N=1 (III.13)
x x2 a1 xiyi
Page 15 of 44
3.2 G´en´eralisation : polynˆome des moindres carr´es
Il est facile de g´en´eraliser le calcul pr´ec´edent au cas de la recherche du
polynoˆme de degr´eau sens des moindres carr´es des≤ m, avec m << Nyi. Ce
(III.14)
On obtient les relations d’orthogonalit´e :
(III.15)
ou` l’on a not´e Xm le vecteur de composantes xmi . Les valeurs des coefficients
ak du polynˆome des moindres carr´es s’en d´eduisent apr`es r´esolution du
syst`eme lin´eaire d´eduit de (III.15).
Remarque 3.1 : Le syst`eme des moindres carr´es ci-dessus est mal conditionn
´e (il est de plus en plus sensible aux erreurs d’arrondis `a mesure que m
augmente). On se limite habituellement `a des polynˆomes de degr´e peu ´elev´e.
La r´esolution pratique des probl`emes de moindres carr´es se fait par des
algorithmes sp´ecifiques d’´elimination pour des syst`emes rectangulaires surd
´etermin´es. Ces algorithmes utilisent la factorisation QR (technique de
Householder).
On peut envisager, comme dans le cas de l’interpolation, la recherche
d’une meilleure approximation par des splines en d´ecoupant l’ensemble des
points en sous-ensembles plus petits. Cette id´ee de meilleure approximation
au sens des moindres carr´es par des splines est `a la base de nombreuses
techniques d’approximation et de repr´esentation de donn´ees.
4 Int´egration num´erique
La plupart des formules d’int´egration num´erique proviennent de m
´ethodes d’interpolation polynomiales. Le calcul de l’int´egrale d’une fonction
est approch´e par le calcul exact de l’int´egrale d’un polynoˆme interpolant
Page 16 of 44
cette fonction en certains points xk pour k = 1,..p. On obtient ainsi une forme g
´en ´erale pour les quadratures num´eriques
b
p
f(x)dx
= Akf(xk) (III.16)
a
k=1
Les xk sont alors les points d’int´egration et les coefficients Ak les poids de la
formule de quadrature.
Le couˆt d’une formule est mesur´e par le nombre de calculs de f n´ecessaires,
donc par le nombre de points d’int´egration. Le crit`ere d’efficacit´e choisi est
le degr´e maximal de l’espace des polynoˆmes pour lequel la formule est
exacte. La pr´ecision d’une formule d’int´egration num´erique est mesur´ee
par son ordre.
D´ef. 4.1 : On dit qu’une formule est d’ordre k si k est le plus grand entier pour
lequel elle donne l’int´egrale exacte de tout polynˆome de degr´e ≤ k. On montre
que l’erreur d’int´egration est alors, pour toute fonction suffisamment r
´eguli`ere, un infiniment petit d’ordre k du pas d’int´egration h.
) (III.17)
Le couˆt d’une telle formule `a un point est celui d’une ´evaluation de f. Les
choix classiques sont α = a, α = b et le choix donnant la meilleure formule dite
formule du point-milieu (exacte pour les fonctions affines) est .
Page 17 of 44
)] (III.18) Cette formule, `a deux points,
est clairement exacte pour les polynˆomes de degr´e ≤ 1.
)] (III.19)
Cette formule `a trois points n´ecessite donc trois ´evaluations de f par
segment (voir cependant, paragraphe 4.5 dans le cas d’un segment global
subdivis´e en sous-intervalles, les formules composites de calcul d’int´egrales
par les m´ethodes des trap`ezes et de Simpson).
. (III.20)
avec et
Page 18 of 44
4.5 Formules composites, maillages et m´ethodes
adaptatives
Toutes les formules pr´esent´ees ci-dessus sont des formules de base,
utilisables sur de petits ´el´ements en dimension un, deux ou trois. Pour faire
un calcul r´eel, il faut pr´ealablement d´ecouper le domaine d’int´egration
global en un ensemble de petits sous-domaines ´el´ementaires. Voici, pour
fixer les
ou` P = N/2.
Page 19 of 44
Cependant, un d´ecoupage g´eom´etrique uniforme en sous-intervalles ´egaux
n’est pas optimal. L’op´eration de discr´etisation g´eom´etrique ou “maillage”
que l’on retrouvera dans le contexte des m´ethodes de diff´erences, d’´el
´ements ou de volumes finis est d´eterminante pour la pr´ecision du r´esultat.
Il faut mettre plus de points d’int´egration l`a ou` la fonction pr´esente des
variations relatives rapides. Dans les outils g´en´eriques comme Matlab, on
trouve des proc´edures de quadrature adaptatives qui choisissent
automatiquement les points d’int´egration (ou la taille des mailles) selon les
variations de la fonction a` int´egrer. Typiquement, ces m´ethodes utilisent
des indicateurs d’erreurs locaux bas´es sur l’´ecart entre deux calculs effectu
´es avec deux m´ethodes de base diff´erentes, trap`ezes et Simpson par
exemple (voir Fig III.10).
Page 20 of 44
5 R´esolution des ´equations diff´erentielles
Nous limiterons l’expos´e au cas simple d’´equations diff´erentielles
ordinaires de la forme
(III.21)
y(a) = y0
Les probl`emes diff´erentiels de ce type sont appel´es probl`emes de Cauchy
ou probl`emes a` valeurs initiales. Si f est continue et si elle v´erifie une
condition de Lipschitz par rapport a` la deuxi`eme variable (Il existe L > 0 tel
que ∀x ∈ [a,b] et ∀y1, y2 on ait : |f(x,yy pour toute valeur initiale. On dit qu’il1) −
f(x,y2)| ≤ L|y1 − y2| ), alors le
probl`eme admet une solution unique est “bien pos´e”. On a vu, lors du
chapitre pr´ec´edent, que certains probl`emes diff´erentiels bien pos´es du
point de vue th´eorique pouvaient s’av´erer impossibles a` r´esoudre num
´eriquement car instables. Num´eriquement, il faudra en effet consid´erer
l’ensemble des solutions voisines de la solution exacte cherch´ee, solutions
voisines correspondant a` de petites perturbations des conditions initiales. Si
ces solutions ne s’´ecartent pas trop de la solution de r´ef´erence exacte, on
aura un probl`eme stable et on pourra construire des approximations num
´eriques convenables.
En g´en´eralisant l’´ecriture de l’´equation (III.21) au cas d’une fonction
inconnue vectorielle, on pourra traiter des syst`emes diff´erentiels et des
´equations ou syst`emes d’ordre sup´erieur a` un par des extensions
naturelles des techniques que nous pr´esentons ci-dessous dans le cas de la
dimension un par souci de simplicit´e.
Page 21 of 44
5.1 Principe g´en´eral des m´ethodes num´eriques
La solution exacte d’une ´equation diff´erentielle du type (III.21) est une
fonction continue. Les ordinateurs ne peuvent fournir qu’un nombre fini de r
´esultats num´eriques. Tout commence donc par un choix pr´ealable d’un
nombre fini de points xi sur [a,b]. Ceci s’appelle une discr´etisation ou un
maillage du domaine g´eom´etrique (ici le segment [a,b]). On limitera le calcul
au calcul approch´e de la solution en ces points.
Le choix des points xi est ´evidemment crucial pour la qualit´e de la solution
num´erique obtenue. Le maillage doit permettre de repr´esenter de fa¸con pr
´ecise la solution. Comme cette solution est au d´epart inconnue, on proc`ede
par des techniques d’adaptation de maillage a posteriori. On calcule une
premi`ere solution sur un premier maillage. On d´eduit de ce premier calcul
les zones de forte variation de la solution. On raffine le maillage dans ces
zones.
Encore une fois dans un souci de simplicit´e, nous pr´esenterons ici les m
´ethodes num´eriques dans le cas de maillage a` pas uniformes. Le probl`eme
de l’adaptation de maillage sera trait´e dans un cadre g´en´eral chapitre ??.
On peut construire des sch´emas d’int´egration d’´equations diff´erentielles
de diverses mani`eres. Par exemple :
– les sch´emas d’int´egration `a un pas peuvent ˆetre obtenus en
utilisantdes formules d’int´egration num´erique approch´ee. En
introduisant des sous-pas, on obtient les sch´emas de Runge et Kutta
qui sont les plus pratiques et les plus utilis´es;
– les sch´emas multi-pas peuvent ˆetre construits par d´eveloppement
deTaylor.
Deux crit`eres principaux gouvernent le choix d’une m´ethode :
– l’ordre, qui mesure la pr´ecision du sch´ema ou erreur de troncature
faiteen remplac¸ant l’´equation diff´erentielle exacte par son
approximation. L’ordre de la m´ethode donnera, a` convergence, l’ordre
de l’erreur commise en fonction du pas de discr´etisation.
– la stabilit´e, qui concerne le comportement de la solution approch
´eediscr`ete et la propagation des erreurs d’arrondis dans le cas d’un
calcul r´eel pour un pas de discr´etisation fix´e. Le sch´ema est stable si
la solution discr`ete reste born´ee quel que soit le nombre de pas de
discr´etisation.
Page 22 of 44
Remarque 5.1 : Un crit`ere suppl´ementaire et important de choix des sch´emas
concerne la facilit´e de mise en œuvre, notamment lors d’un red´emarrage des
calculs. Imaginons un calcul instationnaire ne pouvant faire l’objet d’un calcul
complet, soit en raison de la mod´elisation (comme en m´et´eorologie par exemple,
ou` de nouvelles conditions initiales et aux limites doivent ˆetre assimil´ees chaque
jour par le mod`ele), soit en raison de l’impl´ementation et de la dur´ee du calcul.
Par exemple, sur un calculateur parall`ele, le temps d’attente est li´e au temps de
calcul et `a la quantit´e de m´emoire requise. Dans le premier cas, comme dans le
second, on aura recours aux approches `a un pas de type Runge et Kutta pour
assurer une pr´ecision ´elev´ee, plutˆot qu’aux sch´emas multi-pas. En effet, quelle
que soit la pr´ecision demand´ee, les m´ethodes de Runge et Kutta ne n´ecessitent
que le stockage d’un seul ´etat pour un red´emarrage des calculs.
5.2 M´ethodes `a un pas
Dans ces m´ethodes la valeur approch´ee yn+1 de la fonction inconnue y
pour l’abscisse xn+1 est calcul´ee en fonction des seules valeurs de l’abscisse pr
´ec´edente xn, de l’approximation yn et du pas de discr´etisation h. Si yn+1
s’obtient par une formule explicite de la forme
yn+1 = yn + Φ(xn,yn,h)
yn+1 = yn + Φ(xn,yn,yn+1,h)
on ne pourra l’obtenir que par la r´esolution d’une ´equation. On dit que la m
´ethode est implicite.
La fonction Φ d´efinit la m´ethode utilis´ee.
Ces sch´emas sont obtenus, par exemple, en int´egrant l’´equation diff
´erentielle et en utilisant des formules d’int´egration num´erique pour le
second membre. L’ordre du sch´ema sera ´egal au degr´e du polynˆome pour
lequel l’int´egration est exacte + 1.
Page 23 of 44
– A l’ordre 1, avec une formule exacte pour les polynoˆmes constants
parmorceaux, on obtient le sch´ema d’Euler explicite :
yn+1 − yn = hf(xn,yn)
yn+1 − yn = hf(xn+1,yn+1)
✒
y0
✲
x x x n +1 x
0 n
Page 24 of 44
5.3 Interpr´etations de la m´ethode d’Euler explicite
La m´ethode d’Euler est le prototype le plus simple des m´ethodes num
´eriques de r ´esolution des ´equations diff´erentielles. Pour l’´equation
y(x) = f(x,y(x))
∀x ∈ [a,b] y(a)
= y0
elle s’´ecrit :
y0 donn
´e
(III.22)
yn+1 = yn + hf(xn,yn)
C’est la plus simple des m´ethodes explicites a` un pas.
1. La m´ethode d’Euler provient du d´eveloppement de Taylor d’ordre
unde y au voisinage de xn. On peut montrer que, lorsque cette m´ethode
converge, l’erreur est un infiniment petit d’ordre un en h.
2. G´eom´etriquement, elle revient a` remplacer localement en chaque
pointxn, la courbe solution par sa tangente. On voit donc qu’au cours du
processus num´erique, on va passer, `a chaque pas d’une courbe
solution a` une courbe voisine correspondant a` une condition initiale l
´eg`erement diff´erente. Si le probl`eme est stable, on pourra obtenir la
convergence. Par contre, les r´esultats peuvent vite devenir
catastrophiques dans un cas instable (exemple ?? du chapitre 1).
3. Enfin, en utilisant l’´equivalence entre un probl`eme diff´erentiel et une
´equation int´egrale, on peut interpr´eter, on l’a vu plus haut, la m
´ethode d’Euler comme le r´esultat de l’application de la formule des
rectangles bas´ee sur le point xn
Page 25 of 44
temps initial jusqu’au temps final et on s’arrˆete. Chaque valeur est donc
calcul´ee une fois pour toutes. Sauf technique plus complexe d’adaptation de
maillages, il n’y a pas de r´eit´eration pour am´eliorer le r´esultat. Il faudra
donc utiliser des m´ethodes suffisamment pr´ecises. Ceci explique le recours
a` des m´ethodes d’ordre ´elev´e. Les m´ethodes de Runge et Kutta sont les g
´en´eralisations de la m´ethode d’Euler `a des ordres sup´erieurs a` un. Elles
s’obtiennent a` partir de formules d’int´egration num´eriques plus pr´ecises
que la formule des rectangles.
Consid´erons tout d’abord l’utilisation de la formule des trap`ezes. Elle
conduit a` la m´ethode
y0 donn´e
h
(III.23)
yn+1 = yn + [f(xn,yn) + f(xn+1,yn+1)] 2
Cette m´ethode est une m´ethode implicite. Le calcul de la nouvelle valeur
yn+1 n´ecessite la r´esolution d’une ´equation. Si l’on veut obtenir une m´ethode
explicite du mˆeme ordre, on peut proc´eder de la mani`ere
suivante : y0 donn´e
hf (III.24)
Page 26 of 44
(III.25)
Pour r´eduire la complexit´e en stockage de ce sch´ema (pas de stockage des
coefficients ki), on peut utiliser le sch´ema de Runge-Kutta sans stockage
suivant : yn+1 = yn + θphf(yn+1),p = 1...q, θp ∈]0,1]
v0 = yn
v1 = v0 + hθ1λv0
v2 = v0 + hθ2λv1 yn+1 = v2
on a donc :
yn+1 = yn + hθ2λyn + h2θ1θ2λ2yn
Or y(x) = λ2y(x) d’ou` par identification : .
Page 27 of 44
5.5 Application aux syst`emes diff´erentiels
300
250
200
150
100
50
0 2 4 6 8 10 12 14 16 18 20
600
500
400
300
200
100
0
0 2 4 6 8 10 12 14 16 18 20
donn´es
Page 28 of 44
)= (x,y(x),z(x)) (III.26)
z (x) = g(x,y(x),z(x)) on obtient l’algorithme suivant pour Runge
et Kutta d’ordre 4 :
Page 29 of 44
(III.28) y (0) = 300 y (0) = 150 a = 2,b = 0.01 (ou b = 0), c =
0.01,α = 1,γ = 0.01
x=0:0.1:20;
h=0.1; a= 2;
b=0.01; c=0.01;
alpha=1;
gamma=0.01;
y(1)=300; z(1)=
100;
for i=1:200
k1=h*(a -b*y(i)-c*z(i))*y(i); l1=h*(-alpha
+gamma*y(i))*z(i); k2=h*(a-b*(y(i)+k1) -c*(z(i)+l1))*(y(i)
+k1); l2=h*(-alpha +gamma*(y(i)+k1))*(z(i)+l1);
y(i+1)=y(i)+(k1+k2)/2; z(i+1)=z(i)+(l1+l2)/2;
end hold on
plot(x,y)
plot(x,z,’--’) hold
off
(
2
θ
t) + αθ(t) + k sin(θ(t)) = 0 sur [0,4π]
Page 30 of 44
dont les conditions initiales sont pr´ecis´ees dans le programme ci-
dessous :
x1=x0=-10.; y1=y0=20.;
z1=z0=-5.;
epsilon=1.e-2 ! perturbation 1 pourcent
sigma=10.*(1.+epsilon) ro=28.*(1.+epsilon)
beta=2.6667*(1.+epsilon)
Page 31 of 44
Figure III.13 – Oscillation du pendule amorti : les angles sont repr´esent´es en
pointill´es, leurs d´eriv´ees en trait continu. En bas le diagramme de phase,
angles / vitesses angulaires
Page 32 of 44
pour aboutir au sch´ema “saute-mouton” (leap-frog en anglais) :
) (III.31)
Un autre sch´ema a` deux pas largement utilis´e est le sch´ema implicite
d’ordre deux de Gear :
) (III.32)
On trouvera dans les ouvrages sp´ecialis´es un grand nombre de formules
multipas d’ordre ´elev´e (voir cependant la remarque 5.1 sur les avantages
pratiques des m´ethodes a` un pas de type Runge-Kutta). Remarquons
toutefois, qu’un sch´ema d’ordre ´elev´e n’a d’int´erˆet que si l’on est assur´e
de la r´egularit´e suffisante de la solution. Pour une solution discontinue ou
peu r´eguli`ere des m´ethodes d’ordre bas sont mieux adapt´ees. D’autre part,
il y a, en g´en´eral, sauf ´evidemment dans le cas de sch´emas implicites,
antagonisme entre ordre
´elev´e et stabilit´e.
5.7 Stabilit´e
Par opposition a` l’ordre de pr´ecision qui utilise la solution du probl`eme
continu, le concept de stabilit´e est bas´e sur la solution discr`ete. Il rend
compte du comportement r´eel de la solution approch´ee pour une valeur
pratique, donc non nulle, du pas h.
Lors d’un calcul r´eel, les erreurs d’arrondis, in´evitables, s’accumulent. Ceci
est particuli`erement ´evident dans le processus de r´esolution d’une
´equation diff´erentielle ou` l’on progresse pas a` pas `a partir d’une valeur
initiale. Il existe diverses conditions de stabilit´e. Tout d’abord la solution
num´erique doit rester born´ee. Cette exigence minimale de stabilit´e peut se
r´ev´eler insuffisante dans la pratique, la borne obtenue ´etant souvent une
exponentielle de la dur´ee qui donc croˆıt infiniment lorsque celle-ci
augmente.
Page 33 of 44
On introduit alors des crit`eres de stabilit´e plus exigeants afin que la solution
num´erique reproduise le comportement physique de la solution exacte. Par
exemple, pour des probl`emes dissipatifs, on imposera des conditions de
stabilit´e permettant d’obtenir une solution de norme d´ecroissante. Le
concept de A-stabilit´e, sous sa forme la plus simple, est bas´e sur l’analyse du
comportement, selon les valeurs du pas h, des solutions num´eriques de
l’´equation mod`ele
Page 34 of 44
Dans ce cas, quel que soit h > 0, la solution num´erique est born´ee, positive et
d´ecroissante au cours du temps. On dit que le sch´ema est
inconditionnellement stable.
Page 35 of 44
– la seule solution de AX = 0 est X = 0
A = LU
Page 36 of 44
A = LDLT
avec D diagonale.
Dans le cas d’une matrice A sym´etrique d´efinie positive, la m´ethode de
Choleski conduit a` une factorisation :
A = LLT
On trouve la matrice L, qui cette fois n’est plus `a diagonale unit´e, par un
algorithme d’identification de coefficients.
De
k=1,i
Page 37 of 44
de 105 inconnues, et donc en particulier pour la r´esolution de probl`emes
industriels en dimension 3 d’espace.
Nous renvoyons `a la litt´erature pour plus de pr´ecisions sur les m´ethodes
directes (voir Lascaux-Th´eodor, Ciarlet, Lucquin-Pironneau).
A=D−E−F
Page 38 of 44
On observe que la m´ethode de Gauss-Seidel correspond a` l’´ecriture ligne
par ligne suivante :
(III.35)
Elle utilise les informations les plus r´ecentes sur les composantes des it´er
´es. La m´ethode de Gauss-Seidel converge en g´en´eral plus vite que la m
´ethode de Jacobi. Par contre, Gauss-Seidel n’est pas adapt´ee a` la
vectorisation.
Les m´ethodes de relaxation sont des extrapolations de la m´ethode de
Gauss-Seidel d´ependant d’un param`etre ω. Ce param`etre est d´etermin´e
pour obtenir une convergence plus rapide. Les m´ethodes de
relaxation s’´ecrivent : donn´e
(III.36)
X = (D − ωE)− (ωF + (1 − ω)D) X + ω(D − ωE)− B
+1) 1 (k) 1
Trouver
X ∈ IRN tel que
(III.37)
AX = B
et
Page 39 of 44
Trouver X ∈ IRN tel que (III.38)
1
J(X) = 2(AX,X) − (B,X) soit minimal
et qui sont donc limit´ees au cas des syst`emes lin´eaires dont la matrice A est
sym´etrique d´efinie positive. Elles se g´en´eralisent, par contre, au cas nonlin
´eaire de la minimisation de fonctionnelles strictement convexes quelconques
(voir chapitre ??).
Les m´ethodes de descente sont bas´ees sur le calcul de la solution comme
limite d’une suite minimisante de la forme quadratique J. Cette suite est
construite comme une suite r´ecurrente :
X
(0)
donn´e
(III.39)
X(k+1) = X(k) − α d (k)
k
avec
On peut montrer que la m´ethode de Gauss-Seidel est la m´ethode de
descente correspondant aux choix des axes de coordonn´ees comme
directions successives de descente. Dans le cas de la m´ethode du gradient,
on choisit comme direction de descente la direction du vecteur gradient de J
Page 40 of 44
au point X(k). Cette direction est la direction de variation maximale de J. On dit
encore direction de plus profonde descente, d’ou` le nom :“steepest descent
method” , employ´e dans certains ouvrages en anglais.
L’it´eration de la m´ethode du gradient s’´ecrit :
X
(0)
donn´e
(III.40)
avec
avec
on obtient :
Page 41 of 44
D´ef. 6.1 : Pour une matrice sym´etrique r´eelle le nombre
rapport des plus grandes et plus petites valeurs propres de A est appel´e
nombre de conditionnement de la matrice A.
k = 0,1...
Page 42 of 44
(III.41)
Nous renvoyons a` la litt´erature pour une ´etude exhaustive de la m´ethode
du gradient conjugu´e. Retenons que la propri´et´e de A-orthogonalit´e
entraˆıne une convergence th´eorique en N it´erations. Ce qui en ferait une m
´ethode directe. Cependant, elle serait alors plus ch`ere que Choleski. De plus,
les erreurs d’arrondis font que les propri´et´es d’orthogonalit´e ne sont pas v
´erifi´ees exactement. Il faut donc consid´erer le gradient conjugu´e comme
une m´ethode it´erative. On montre que sa vitesse de convergence d´epend
´egalement du conditionnement de la matrice A. On est conduit a` pr
´econditionner A pour obtenir des performances int´eressantes. Parmi les pr
´econditionnements classiques, on citera le pr´econditionnement SSOR (O.
Axelsson) et par Choleski incomplet (Meijerink et Van der Vorst).
Dans le cas ou` la matrice du syst`eme n’est pas sym´etrique d´efinie
positive, il est plus difficile d’obtenir des m´ethodes it´eratives performantes.
Mentionnons la m´ethode GMRES (Saad et Schultz), dont il existe ´egalement
une version pour la r´esolution de syst`emes non-lin´eaires.
Page 43 of 44
lequel diverses techniques existent, en particulier les algorithmes de
recherche de type section dor´ee.
Page 44 of 44