Ana Num1
Ana Num1
Ana Num1
MATHÉMATIQUES APPLIQUÉES 1
ANALYSE NUMÉRIQUE 1
T
ii
AF
T
Table des matières
2.3.1 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
-E
iv
∂u
(x, t) − ∆u(x, t) = f
∂t
sa
Ca
NS
-E
ri
Am
El
H.
v
H.
El
Am
ri
vi
-E
NS
Ca
sa
Chapitre 1
d= v(t)dt.
NS
0
-E
Erreurs de lecture, instruments de mesures, Nombre de chiffres significatifs fini (π = 3.14 par exemple)
El
H.
f (x) = 0
Newton
f (x)
g(x) = x −
f 0 (x)
x0 , quelconque xn+1 = g(xn )
f (x) = x2 − 2
On fait ce type d’erreur lorsque :
— On prend un nombre fini de termes dans une série (Taylor par exemple) La suite x0 donné, xn+1 = x2n + x2n
√
converge vers 2. Mais en général on s’arrête après un nombre fini d’itérations. On commet donc une
"petite" erreur :
x0 = 1, x1 = 1.5000, x2 = 1.4167, x3 = 1.4142, x4 = 1.4142
1
— On approche une dérivée par un quotient aux différences finies
u00 (x) + a(x)u0 (x) + b(x)u(x) = f (x), dans [0, 1]
u(0) = α, u(1) = β
•0 x•
i−1 x•i x•
i+1
•1
1
Figure 1.1 – xi = ih, h = N +1
.
u1 , u2 , ....., un
AU = F
sa
1.4 Erreur d’arrondi
Ca
NS
Les nombres ne sont pas stockés de facon exacte sur un ordinateur. Il en est de même pour les opérations qui
-E
introduisent des erreurs supplémentaires. Par exemple, 34 sera stocké sur la machine avec la valeur 1.333333
ri
qui ne comporte que 7 chiffres significatifs corrects alors que la valeur exacte comporte une décimale infinie.
Am
El
2
Chapitre 2
Ax = b
NS
-E
ri
Am
a11 x1 +a12 x2 +... +a1j xj +... +a1N xN = b1 : eq1
a21 x1 +a22 x2 +... +a2j xj +... +a2N xN = b2 : eq2
El
.....
H.
....
(2.1)
ai1 x1 +ai2 x2 +... +aij xj +... +aiN xN = bi : eqi
....
....
aN 1 x 1 +aN 2 x2 +... +aN j xj +... +aN N xN = bN : eqN
Le système dévient
3
a11 x1 +a12 x2 +... +a1j xj +... +a1N xN = b1 : eq1
a122 x2 +... +a12j xj +... +a12N xN = b12 : eq21
a132 x2 +... +a13j xj +... +a13N xN = b13 : eq31
.....
.... (2.3)
a1i2 x2 +... +a1ij xj +... +a1iN xN = b1i : eqi1
....
....
a1N 2 x2 +... +a1N j xj +... +a1N N xN = b1N : eqN
1
où
ai1
a1ij = aij − a1j , i, j = 2, ..., N
a11
et
ai1
b1i = bi − b1 , i = 2, ..., N
a11
a22
a132 x2 +... +a13j xj +... +a13N xN = b13 : eq31
NS
.....
-E
(2.4)
....
ri
Am
....
H.
a1N 2 x2 +... +a1N j xj +... +a1N N xN = b1N : eqN
1
Le système dévient
a11 x1 +a12 x2 + ... +a1j xj +... +a1N xN = b1 : eq1
a122 x2 + ... +a12j xj +... +a12N xN = b12 : eq21
a233 x3 +... +a23j xj +... +a23N xN = b23 : eq32
....
.... (2.5)
a2i3 x2 +... +a2ij xj +... +a2iN xN = b2i : eqi2
....
....
a2N 3 x2 +... +a2N j xj +... +a2N N xN = b2N : eqN
2
où
a1i2
a2ij = a1ij − a1j , i, j = 3, ..., N
a122
et
a1i2 1
b2i = b1i − b , i = 3, ..., N
a122 2
Ainsi de suite, on obtient un système linéaire du type :
4
a11 x1 +a12 x2 + ... +a1j xj +... +a1N xN = b1
1
a x + ... +a12j xj +... +a12N xN = b12
22 2
a233 x3 +... +a23j xj +... +a23N xN = b23
...
ai−1
ii xi
i−1
+... +aiN xN = bi−1
i
....
−2 N −2 N −2
aN
N −1,N −1 xN −1 +aN −1,N xN = bN −1
−1 −1
aN
N N xN = bN
N
ak−1
On pose µkj = ak−1
kj , mik = ik
µkk
, yk = bkk−1
P our i = 1, ..., N
P our k = 1, ..., i − 1
bki = bk−1 − mik yk
sa
i
Ca
P our j = k, ..., N
NS
On part donc d’un système à matrice carrée pleine, et on arrive à un système à matrice triangulaire supérieure.
Am
El
Ux = c
H.
a11 a12 ... a1j ... a1N
. a122 ... a12j ... a12N
. 2 2 2
. a33 ... a 3j ..a
3N
. ... . . .
U =
i−1 i−1
. . . .aii ... aiN
. . . . . ....
−2 N −2
aN
. . . . N −1,N −1 aN −1,N
−1
. . . . . aNNN
On la note
u11 u12 ... u1j ... u1N
. u22 ... u2j ... u2N
. . u33 ... u3j ..u3N
. ... . . .
U =
.
. . .uii ... uiN
. . . . . ....
. . . . uN −1,N −1 uN −1,N
−1
. . . . . uNNN
Théorème 2.1.1. Une matrice triangulaire supérieure U est inversible si et seulement si les éléments de sa
6 ∀i = 1, ..., N.
diagonale sont tous non nuls : uii =
5
Pour une matrice triangulaire supérieure de termes (uij ) la résolution du système linéaire U x = c se fait selon
l’organigramme suivant.
i = N, N − 1, ..., 1 f aire
XN
ci − uij xj
j=i+1
xi =
uii
Le nombre d’opérations dans le processus de la descente est :
3
N −N
additions,
3
3
N −N
multiplications
3
N (N − 1) divisions
2
2
NS
N divisions
-E
ri
3
N
El
additions,
H.
3
3
N
multiplications
3
2
N
divisions
2
Pour N = 10 on a
Gauss 700 opérations
Cramer 400.000.000 opérations
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2
a11 a12
∆ = det
a21 a22
6
b a
∆1 = det 1 12
b2 a22
a b
∆2 = det 11 1
a21 b2
∆1 ∆2
x1 = , x2 =
∆ ∆
10−4 x1 + x2 = 1
eq1
x1 + x2 =2 eq2
1
La solution exacte (1 − 0.0001)x1 = 1, x1 = 0.9999 = 1, 00010
x2 = 2 − 1.00010 = 0.99990
x1 = 1.00010, x2 = 0.99990
10−4 x1 +x2
=1 eq1
NS
Exercice 2.1.2. Écrire le programme (la descente et la montée) pour le cas où la matrice du système linèaire
H.
est tridiagonale ie
a11 a12 ... ...0.... ..0. ... 0
a21 a22 a23 0.... ...0... ... 0
0 a32 a33 a 34 0.. ... 0
. ... . . .
A=
0.. ..0.. ..0.. a i,i−1 a ii a i,i+1 0
. . . . . ....
. . . . aN −1,N −1 aN −1,N
. . . . . aN N
7
2.1.2 Méthodes des différences finies
−u00(x) + a(x)u0(x) + b(x)u(x) = f (x), dans [0, 1]
u(0) = 0, u(1) = 0
•0 x•
i−1 x•i x•
i+1
•1
1
Figure 2.1 – xi = ih, h = N +1
.
h2 00 h3 h4
u(xi+1 ) = u(xi + h) = u(xi ) + hu0 (xi ) + u (xi ) + u000 (xi ) + u0000 (ξi )
2 6 24
h2 00 h3 h4
u(xi−1 ) = u(xi − h) = u(xi ) − hu0 (xi ) + u (xi ) − u000 (xi ) + u0000 (ξi0 )
2 6 24
h4 0000 h4
u(xi+1 ) + u(xi−1 ) = 2u(xi ) + h2 u00 (xi ) + u (ξi ) + u0000 (ξi0 )
24 24
sa
12 2
-E
h4 0000
u(xi+1 ) + u(xi−1 ) − 2u(xi ) = h2 u00 (xi ) + u (ηi )
ri
Am
12
El
h2 12
On suppose pour simplifier que a(x) = b(x) = 0
h2 0000
On néglige le terme en u (ηi ) et le problème devient :
12
u00 (xi ) = f (xi ), i = 1, ...., N
−2u1 + u2
= f (x1 ) = c1
h2
Pour i = 2
u1 − 2u2 + u3
= f (x2 ) = c2
h2
−ui−1 + 2ui − ui+1
= −f (xi ) = Ci , i = 1, ..., N
h2
8
2 −1 0 0 ... 0 0 0 0
−1 2 −1 0 0 .... 0 0 0
1 0 −1 2 −1 .
h2
.
0 . 0 .. 0 .. 0 −1 2
Ax = b1 , Ax = b2 , ....., Ax = bk
2 3
A=
4 5
1 0 1 0
E1 = , E1−1 =
sa
2 1 −2 1
Ca
NS
1 0 2 3 2 3
E1−1 A
-E
= = =U
−2 1 4 5 0 −1
ri
Am
A = E1 U
El
Le passage de la matrice
H.
a11 a12 ... a1j ... a1N
a21 a22 ... a2j ... a2N
.....
....
A=
ai1 ai2
(2.6)
... aij ... aiN
....
....
aN 1 aN 2 ... aN j ... aN N
à la marice
a11 a12 ... a1j ... a1N
a122 ... +a12j ... a12N
a132 ... a13j ... a13N
.....
A1 = .... (2.7)
a1i2 ... a1ij 1
+... +aiN
....
....
a1N 2 ... a1N j 1
... aN N
9
1 0 ... 0 ... 0
l21 1 0 .. . 0
l31 0 1 .. . 0
l41 0 .....
. ....
E1 = (2.8)
li1 0 ... 0 .. . 0
. ....
. .... 1 0
lN 1 0 ... 0 .. . 1
avec
ai1
li1 =
aii
−1
E1−1 E2−1 ....EN A=U
c’est à dire
A = EN ....E1 U = LU
akik
lkk = 1, et lik = , i = k + 1, ..., n
akkk
Ax = b ⇐⇒ LU x = b ⇐⇒ Ly = b, U x = y
sa
On fait la descente et la remontée de Gauss une seule fois et on résout des systèmes linéaires à matrices
Ca
Théorème 2.1.4. Soit A = (aij ) une matrice carrée d’ordre n telle que les sous matrices diagonales
-E
ri
a11 . . a1k
Am
. . . .
∆k =
. . . . , k = 1, ...n
El
H.
ak1 . . akk
soient inversibles.
Alors il existe une matrice triangulaire inférieure L = (lij ) avec lii = 1, 1 ≤ i ≤ n et une matrice triangulaire
supérieure U telles que
A = LU.
De plus une telle factorisation est unique.
Remarque 2.1.5. Si la matrice A est symétrique définie positive, alors les conditions du théorème 2.1.4 sont
vérifiées.
Remarque 2.1.6. Si la condition du théorème 2.1.4 n’est pas satisfaite on peut toujours s’y ramener après
des permutations préalables des lignes de la matrice.
10
1. Calculer le déterminant
2. On suppose que LU = A
1 0 0 u11 u12 u13 2 2 1
l21 1 0 0 u22 u23 = 1 1 1
l31 l32 1 0 0 u33 3 2 1
La première ligne de L fois les trois colonnes de U :
ou encore
2l21 = 1, 2l21 + u22 = 1, l21 + u23 = 1
c’est à dire
1 1
l21 = , u22 = 0, u23 =
2 2
La troisième ligne de L fois les trois colonnes de U :
l31 u11 = 3, l31 u12 + l32 u22 = 2, l31 u13 + l32 u23 + u33 = 1
ou encore
sa
Ca
1
NS
3 4 1 1
ri
2 3 2 2
El
u12 = 2 et u12 =
3
devient
1 0 0 2 2 1 2 2 1
l21 1 0 0 u22 u23 = 3 2 1
l31 l32 1 0 0 u33 1 1 1
Puis
1 0 0 2 2 1 2 2 1
3
2
1 0 0 u22 u23 = 3 2 1
l31 l32 1 0 0 u33 1 1 1
3
3 + u22 = 2, + u23 = 1
2
1
u22 = −1, u23 = −
2
11
1 0 0 2 2 1 2 2 1
3 1 0 0 −1 − 12 = 3 2 1
2
l31 l32 1 0 0 u33 1 1 1
1
2l31 = 1, 2l31 − l32 = 1, l31 − l32 + u33 = 1
2
1 1
l31 = , l32 = 0, u33 =
2 2
1 0 0 2 2 1 2 2 1
32 1 0 0 0 −1 = 3 2 1
1
2
0 1 0 0 21 1 1 1
n
! 21 n
X X
||x||2 = x2i , ||x||1 = |xi | , ||x||∞ = max |xi |
i=1,...,n
i=1 i=1
Soit Mn×n (R) l’espace des matrices carrées d’ordre n. On définit sur Mn×n (R) les trois normes associées aux
trois normes de Rn par :
||Ax||
sa
||A|| = sup
Ca
x6=0 ||x||
NS
Définition 2.2.1. Une norme de Mn×n (R) est dite subordonnée si elle provient d’une norme de Rn .
-E
ri
||I|| = 1
H.
où I est l’identité de Rn : Ix = x, ∀x ∈ Rn .
Remarque 2.2.3. Il existe des normes non subordonnées, par exemple la norme naturelle de Mn×n (R) définie
pour n > 1 par :
n
! 12
X
||A|| = a2ij
i,j=1
√
||I|| = n
2
C’est la norme euclidienne de Rn .
12
Proposition 2.2.5. 1. Soient A ∈ Mn×n (R) et ||.|| une norme quelconque de A ∈ Mn×n (R). Alors
ρ(A) ≤ ||A|| .
2. Pour toute matrice A et tout ε > 0 il existe une norme subordonnée telle que
ρ(A) ≤ ||A|| ≤ ρ(A) + ε.
Démonstration. Soit λ ∈ σ(A), ∃v ∈ Rn , v 6= 0 tel que Av = λv.
Proposition 2.2.6. (Exercice) Soit ||.|| une norme subordonnée. Soit B une matrice telle que
||B|| < 1
alors la matrice I + B est inversible et on a
(I + B)−1 ≤
1
1 − ||B||
sa
Exo :
Ca
1 1
≤
1 − |x|
NS
1+x
-E
(I + B)−1 (I + B) = I
ri
Am
Théorème 2.2.7. Soi B une matrice carrée. Les conditions suivantes sont équivalentes :
El
k→∞
2. lim B k v = 0, ∀v ∈ Rn
k→∞
3. ρ(B) < 1
4. ||B|| < 1 pour une certaine norme matricielle subordonnée ||.|| .
De plus
1
ρ(B) = lim B k k ,
k→∞
n×n
pour n’importe quelle norme de M (R).
0 0 0 ε
1 0 0 0
0 1 0 0
0 1 0 0
A(ε) = . . . ∈ Mn×n (R)
. . .
. . .
0 1 0 0
0 1 0
La matrice A(0) a pour valeur propre 0 de multiplicité n.
Par contre det(A(ε)) = εn
13
2.3 Méthodes itératives
2.3.1 Exemples
a11 a12 x1 b
Ax = 1 = 1 =b
a21 a22 x2 b2
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2
0
0 x1
x = donné :
x02
a11 x11 + a12 x02 = b1
a21 x01 + a22 x12 = b2
a11 x11 = b1 − a12 x02 = b1 + 0x01 − a12 x02
(2.9)
a22 x12 = b2 − a21 x01 = b2 − a21 x01 + 0x02
a11 xi+1
1 = b1 − a12 xi2 = b1 + 0xi1 − a12 xi2
(2.10)
a22 xi+1 = b2 − a21 xi1 = b2 − a21 xi1 + 0xi2
2
Pour i = 0 on aura
sa
Ca
1 1
x1 = (b1 − a12 x02 )
NS
a11
-E
x1 = 1
(b2 − a21 x01 )
ri
2 a22
Am
Et on pose
ei1 = xi+1 − xi1 , ei2 = xi+1 − xi2
El
1 2
H.
xi+1
a11 0 i+1 0 −a12
x =b+ xi
0 a22 −a21 0
Dxi+1 = b + Exi + F xi
On arrête le processus lorsque
max ei1 , ei2 ≤ ε assez petit
(2.10) s’écrit sous forme matricielle
i+1 i
i+1 x1 0 a12 x1
Dx = D i+1 = b −
x2 a21 0 xi2
qu’on peut écrire
Dxi+1 = b + (E + F )xi
où
b a11 0 0 0 0 −a12
b= 1 D= E= , F =
b2 0 a22 −a12 0 0 0
14
=====================================
a11 a12 a13 x1 b1
Ax = a121 a22 a23 x2 = b2 = b
a131 a32 a33 x3 b3
a11 x1 + a12 x2 + a13 x3 = b1
a21 x1 + a22 x2 + a23 x3 = b2
a31 x1 + a32 x2 + a33 x3 = b3
0
x1
0
x = x02 donné : On calcule xi+1 pour i = 0, ...
x03
‘ 0
0 x1
Etape 0 : x = donné :
x02
Etape 1
2x11 + 3x02 = 1
sa
x01 − 3x12 = 2
Ca
NS
x01 − 3x12 = 2
ri
Am
x11 − 3x12 = 2
El
H.
15
2.3.2 Cadre général
On écrit la la matrice A sous la forme A = M − N avec M inversible.
Ax = b ⇐⇒ M x − N x = b ⇐⇒ M x = b + N x ⇐⇒ x = M −1 b + M −1 N x
x = F (x)
C’est à dire que x est un point fixe de l’application F . On lance alors une itération de point fixe. On donne x0
quelconque et on calcule
xk+1 = M −1 b + M −1 N xk = B + Gxk = F (xk )
x0
= donnée quelconque,
k+1 (2.12)
x = B + Gxk , k = 0, 1, ...
avec
B = M −1 b et G = M −1 N
c’est à dire
NS
et encore
xk − x̄ = Gk (x0 − x̄)
El
H.
k
x − x̄ ≤ Gk x0 − x̄
On choisit G (et donc M et N ) de sorte que la suite (xj )j converge vers la solution exacte x̄.
G ≤ ||G||k
k
x − x̄ ≤ ||G||k x0 − x̄
k
16
2.3.3 Méthode de Jacobi
Définition 2.3.2. La méthode de Jacobi correspond à la décomposition
A = D − (E + F ),
c’est dire M = D et N = E + F . où :
−F
A= D =D−E−F
−E
G = J = D−1 (E + F )
x0
= donné quelconque,
k+1 (2.14)
x = B + J xk , k = 0, 1, ...
Définition 2.3.3. Une matrice carrée d’ordre n, A = (aij )ij est dite à diagonale dominante si
X
|aii | > |aij | ∀i = 1, ..., n
j6=i
ou X
|aii | > |aji | ∀i = 1, ..., n
sa
Ca
j6=i
NS
Exemple 2.3.4.
-E
a11 a12 a13
ri
A = a21
a22 a23
Am
a11 0 0 0 0 0 0 −a12 −a13
H.
D= 0 a22 0 , E = −a21
0 0 , F = 0 0 −a23
0 0 a33 −a31 −a32 0 0 0 0
Théorème 2.3.5. Si une matrice est à diagonale dominante alors la méthode de Jacobi converge pour tout
x0 ∈ R n .
17
2.3.4 Méthode de Gauss Seidel
Si on écrit la matrice du système sous la forme A = (D − E) − F = M − N alors on obtient
0
x = donné quelconque,
k+1 (2.16)
x = B + L1 xk , k = 0, 1, ...
avec
B = (D − E)−1 b , L1 = (D − E)−1 F
qui est la méthode de Gauss-Seidel. Elle s’écrit
0
x donné quelconque, k = 0, 1, ...
X X
aij xk+1 aij xkj
bi − j − (2.17)
j<i j>i
xk+1
i = , i = 1, ..., n
aii
B= −E b, Lω = −E F+ D
ω ω ω
NS
-E
0
x = donné quelconque,
k+1 (2.18)
= B + Lω xk , k = 0, 1, ...
ri
x
Am
El
0
x donné quelconque,
k = 0, 1, 2, ...
H.
X X
k+1
k+1 k ω
xi = (1 − ω)xi + aii bi − aij xj − aij xkj , i = 1, ..., n
j<i j>i
(2.19)
Résumé :
Nom de la
méthode A=M −N M −1 N description
Jacobi A = D − (E + F ) J = D−1 (E + F ) Dxk+1 = (E + F )xk + b
Gauss-
Seidel A = (D − E) − F L1 = (D − E)−1 F (D − E)xk+1 = F xk + b
A= D
ω
− E − −1
F + 1−ω D 1−ω D 1−ω
Relaxation ω
D Lω = ω
−E ω
D +F ω
− F xk+1 = ω
D + F xk + b
18
Amusez vous en faisant des mathématiques :
Pour se débarrasser d’un importun qui vient de l’aborder,
une femme le prévient :
Je suis mariée et mère de quatre enfants...
L’homme répondit étrangement :
Quels sont le produit et la somme de leurs âges ?
Interloquée, après un rapide calcul mental, la femme répondit :
126 et la somme est justement le numéro de la maison en face !
L’homme réfléchit un instant avant de répondre :
Je ne trouve pas leurs âges.
La femme, prise au jeu : sa
Le plus petit ne parle pas encore.
Ca
NS
L’homme :
-E
ri
Maintenant, je sais.
Am
El
quatre enfants.
a1 1 1 1 1 1 1 1 1 1 1 2
a2 1 1 1 1 1 1 2 2 3 3 3
a3 1 2 3 6 7 9 3 7 3 6 3
a4 126 63 42 21 18 14 21 9 14 7 7
S 129 67 47 29 27 25 27 19 21 17 15
19
2.3.6 Convergence des méthodes de Jacobi, Gauss-Seidel et SOR
On rappelle le résultat important suivant :
Théorème 2.3.6. Soit A ∈ Mn×n (R) symétrique, et soit A = M − N une décomposition de
A telle que M est inversible.
Si la matrice symétrique M ∗ + N est définie positive, alors
ρ(M −1 N ) < 1.
(M ∗ + N )∗ = ((A + N )∗ + N )∗ = (A∗ + N ∗ + N )∗ = A∗ + N ∗ + N = M ∗ + N
On considère la norme suivante (c’est une norme puisque la matrice A est définie positive,
exercice)
p
||x||A = (x, Ax), ∀x ∈ Rn norme ?
−1 −1
M N = M (M − A) = I − M −1 A = sup (I − M −1 A)x
A
||x||A =1
sa
Ca
et donc
El
et que
ρ(M −1 N ) < 1.
20
(Aei , ei ) = aii > 0.
D
− E − F + 1−ω . A étant symétrique alors E ∗ = F .
A=M −N = ω ω D
∗ D 1−ω 2−ω
M +N = −F + F + D = D.
ω ω ω
— La matrice D est définie positive :
(Aei , ei ) = aii > 0.
— M ∗ + N est définie positive si et seulement si ω ∈ ]0, 2[.
ω ∈ ]0, 2[ =⇒ M ∗ + N Déf-Pos =⇒ ρ(Lω ) < 1 =⇒ la méthode de relaxation converge.
On en déduit que la méthode de Gauss-Seidel converge puisqu’elle correspond au cas ω = 1.
Théorème 2.3.8. ρ(Lω ) ≥ |ω − 1| ω 6= 0.
La méthode de relaxation ne peut converger que pour ω ∈ ]0, 2[.
1
Démonstration. Si B det(AB) = det(A) det(B). Si B est inversible, det(B −1 ) = .
det(B)
−1
D 1−ω
Lω = −E D+F
ω ω
sa
Ca
Alors
NS
det(Lω ) = ω
D
= ω
D
= (1 − ω)n
det ω − E det ω
ri
Am
D’autre part le déterminant d’une matrice est égal au produit des ses valeurs propres :
El
H.
Y
λi (Lω ) = (1 − ω)n .
i=1,n
D’où
|1 − ω|n ≤ ρ (Lω )n
C’est à dire
|1 − ω| ≤ ρ (Lω )
Si, donc |1 − ω| ≥ 1, c’est à dire :
1 − ω ≤ −1 ⇐⇒ 2 ≤ ω
ou
1 − ω ≥ 1 ⇐⇒ ω ≤ 0
ρ (Lω ) ≥ 1 et la méthode sera donc divergence.
SOR converge si et seulement si 0 < ω < 2.
Pour la méthode de Jacobi on sait que
21
Exercice 2.3.9. Soit A une matrice tridiagonale :
a1 c1
b a c
2 2 2
b3 a3 c3
b 4 a4 a4
A= . . . ∈ Mn×n (R)
. . .
. . .
bn−1 an−1 cn−1
bn an
Pour µ 6= 0 on pose
a1 µ−1 c1
µb −1
2 a2 µ c2
−1
µb3 a3 µ c3
−1
µb4 a4 µ c 4
A(µ) = . . .
. . .
sa
Ca
. . .
NS
µbn an
ri
Am
On pose
El
H.
µ
µ2
µ3
µ4
Q(µ) = .
.
.
µn−1
µn
1. Montrer que
A(µ) = Q(µ)A(1) (Q(µ))−1
2. En déduire que
det A(µ) = det A(1), ∀µ 6= 0 (2.20)
3. Les valeurs propres de la matrice de Jacobi J = D−1 (E + F ) sont les zéros du polynôme
22
montrer que ce sont aussi les zéros du polynôme
6. Montrer que
sa
ρ(L1 ) = ρ(J )2
Ca
NS
-E
Théorème 2.3.10. Soit A une matrice tridiagonale telle que toutes les valeurs propres de
la matrice de Jacobi J soient réelles.
Alors la méthode de Jacobi, et la méthode de relaxation convergent ou divergent simultanément ;
lorsqu’elles convergent, la fonction ω ∈ ]0, 2[ −→ ρ(Lω ) a l’allure de la figure 2.2.
Démonstration. Voir Ciarlet [1], pages 106-109.
23
Figure 2.2 – Allure de ρ(Lω ) sa
2.4 Notions sur les éléments finis
Ca
NS
-E
(2.21)
Am
u(0) = u(1) = 0
El
(2.22)
Z 1 Z 1
00
− u (x)v(x)dx = f (x)v(x)dx, ∀v ∈ C 1 (I) (2.23)
0 0
Une intégration par parties en imposant que v(0) = v(1) = 0 :
Trouver une fonction u vérifiant :
Z 1 Z 1
0 0
u (x)v (x)dx = f (x)v(x)dx, ∀v ∈ C 1 (I). (2.24)
0 0
0 = x0 < x1 < ....xi < .... < xn+1 = 1, Ki = [xi , xi+1 ], i = 0, ..., n.
On construit une suite de sous-espace Vh de dimension finies tels que lim Vh = V (Vh1 ⊂ Vh2
h→0
pour h2 ≤ h1 ). On cherche alors uh ∈ Vh telle que
Z 1 Z 1
u0h (x)vh0 (x)dx = f (x)vh (x)dx, ∀vh ∈ Vh . (2.25)
0 0
en espérant que lorsque h tend vers 0, uh ’tend’ vers u. C’est la méthode de Galerkin.
24
2.4.1 Éléments finis P1
1
-E
ri
Am
El
H.
X
uh (x) = ui φi (x)
i=1,n
Z 1 X Z 1
ui φ0i vh0 dx = f vh dx, ∀vh ∈ Vh . (2.26)
0 i=1,n 0
25
X Z 1 Z 1
ui φ0i vh0 dx = f vh dx, ∀vh ∈ Vh . (2.27)
i=1,n 0 0
vh = φj , j = 1, ..., n
X Z 1 Z 1
ui φ0i φ0j dx = f φj dx, ∀j = 1, ..., n. (2.28)
i=1,n 0 0
On pose
Z 1 Z xj
aij = φ0i φ0j dx, bj = f φj dx, pour i, j = 1, ..., n
0 xj−1
X
aij ui = bj , ∀j = 1, ..., n. (2.29)
i=1,n
i = 1, ..., n
x − xi−1
si x ∈ Ki−1
h
sa
φi (x) = −x + xi+1
Ca
si x ∈ Ki
h
NS
0 ailleurs
-E
i = 1, ..., n
ri
Am
1
dans Ki−1
El
h
H.
φ0i (x) = 1
− dans Ki
h
0 ailleurs
donc
2 1
, ai,i+1 = − = ai−1,i , aij = 0 ailleurs
aii =
h h
Et donc le système à résoudre est
2 −1 u1 b1
−1 2 −1 u b
2 2
−1 2 −1 u b
3 3
−1 2 −1 u4 b4
1
. . . .. = ..
h
. . . .. ..
. . . .. ..
−1 2 −1 un−1 bn−1
−1 2 un bn
26
2.5 Méthodes Numériques de résolution des systèmes non linaires
On se donne g ∈ C(Rn , Rn ) et on cherche x ∈ Rn solution de :
x ∈ Rn , g(x) = 0 (2.30)
Lorsque f (x) = Ax−b, avec A ∈ Mn×n (R), le problème revient à résoudre un système linéaire.
Remarquons que si f est une application linéaire de E dans F alors, f est différentiable et
NS
Df = f .
-E
Pour E = R3 , F
= R
2
El
H.
x1 2 3
3 x 1 + x2 + x 3
Pour x = x2 ∈ R on associe f (x) = ∈ R2
3x1 + x2
x3
h1
alors pour h = h2 ∈ R3
h
3
(x1 + h1 )2 + (x2 + h2 ) + (x3 + h3 )3 2x1 h1 + h2 + 3x23 h3
f (x + h) = ' f (x) +
3(x1 + h1 ) + x2 + h2 3h1 + h2
2
h1
2x1 1 3x3
f (x + h) − f (x) ' h2
3 1 0
h3
2x1 1 3x23
Df (x) = Jf (x) = ∈ M2×3 (R)
3 1 0
Matrice à 2 lignes (dim F ) et 3 colonnes (dim E).
Pour E = Rn et F = R
∂f ∂f ∂f
Jf (x) = ∂x 1 ∂x 2
.. .. ∂xn ∈ M1×n (R)
27
On note le gradient de f en un point x ∈ Rn par :
∇f (x) = Jf (x)t
alors
X ∂f (x)
Jf (x)h = ∇f (x).h = hi
i=1,n
∂x i
Si E = F = Rn
x1 f1 (x)
x2 f2 (x)
∈ Rn −→ .. ∈ Rn
f :x= ..
.. ..
xn fn (x)
alors
∂f1 ∂f1 ∂f1
∂x1 ∂x2 .. .. ∂xn
∂f2 ∂f2 ∂f2
∂x1 ∂x2 .. ..
∂xn
Jf (x) = ∈ M(R)n×n .
.. .. .. ..
.. .. .. ..
∂fn ∂fn ∂fn
.. ..
sa
∂x1 ∂x2 ∂xn
Ca
NS
Résoudre g(x) = 0 revient à résoudre x − g(x) = x, c’est à dire que la solution x̄ de l’équation
Am
Théorème 2.5.2. (Point fixe). Soit (E, d) un espace métrique complet, et f : E → E une
fonction strictement contractante, c’est–à–dire :
∃k ∈]0, 1[ , d(f (x), f (y)) ≤ kd(x, y), ∀x, y ∈ E.
Alors il existe un unique point fixe x̄ ∈ E qui vérifie f (x̄) = x̄. De plus si x0 ∈ E, et
xk+1 = f (xk ) , ∀k ≥ 0, alors xk → x̄ quand k → ∞.
Démonstration.
d(xn+1 , xn ) = d(f (xn ), f (xn−1 )) ≤ kd(xn , xn−1 ) ≤ .... ≤ k n d(x1 , x0 )
Pour p ≥ 1 l’inégalité triangulaire donne :
p−1
X p−1
X
d(xn+p, xn) ≤ d(xn+p−i, xn+p−i−1) ≤ k n+p−i−1d(x1, x0)
i=0 i=0
= k n k p−1 + k p−2 + ... + k + 1 d(x1, x0)
p
n1 − k
=k d(x1, x0)
1−k
28
La suite (xn )n est donc de Cauchy. Comme l’espace est complet elle converge. Soit x̄ sa limite.
On a
xn+1 = f (xn ), ∀n ∈ N
Donc à la limite et puisque f est continue on aura
f (x̄) = x̄
d(f (x̄), f (ȳ)) ≤ kd(x̄, ȳ),
Exercice 2.5.3. Soit (E, d) un espace métrique complet, et f : E → E. Montrer que s’il
existe K ∈ N tel que f K = f of of o...of soit contracte alors f admet un point fixe.
| {z }
K f ois
2α
El
Montrer que pour tout ω ∈ 0, 2 , la fonction fω (x) = x − ωg(x) est strictement contrac-
M
H.
tante.
g(x) = Ax − b
|g(x) − g(y)| = |A(x − y)| ≤ ||A|| |x − y|
(Az, z) ≥ α |z|2 ∀z ∈ Rn
Conclure.
Pour résoudre g(x) = 0 on pose f (x) = x − g(x), le procédé s’écrit alors
0
x quelconque
(2.32)
xk+1 = xk − ωg(xk ), k = 0, 1, ....
Qui est équivalent à (exercice) :
0
x quelconque
k+1
y = f (xk ) (2.33)
k+1
x = ωy k+1 + (1 − ω)xk , k = 0, 1, ....
29
2.5.3 Méthode de Newton en dimension 1
g(x) = 0
x0 quelconque
0 g(x1 ) − g(x0 )
0
g (x ) '
x1 − x0
1 g(x1 ) − g(x0 )
0
x −x '
g 0 (x0 )
1 g(x1 ) − g(x0 )
0
x 'x +
g 0 (x0 )
1 g(x0 )
0
x =x − 0 0
g (x )
0 n+1 g(xn )
x qque , x n
= x − 0 n = f (xn )
sa
g (x )
Ca
NS
g(x)
-E
f (x) = x −
g 0 (x)
ri
Am
Convergence :
El
H.
|f 0 (x)| < 1
Dans I
|f (x) − f (y)| = |f 0 (θxy )(x − y)| ≤ k |x − y|
30
2.5.4 Point fixe de monotonie
L’approximation de nombreux problèmes naturels (physique, biologique, économique, bioma-
thématique ...) se ramènent à la résolution de problèmes non linéaires du genre : Ax = R(x)
où A est une matrice carrée d’ordre n inversible, et R ∈ C(Rn , Rn ).
On peut les écrire sous la forme x = A−1 R(x) et appliquer l’algorithme de point fixe sur la
fonction f : x −→ A−1 R(x), ce qui donne comme itération :
Si on pratique un point fixe avec relaxation, dont le paramètre de relaxation ω > 0, alors
l’itération s’écrit : 0
x quelconque
x̃ k+1
= A−1 R(xk ), (2.34)
k+1
x = ωx̃k+1 + (1 − ω)xk .
Si la matrice A possède une propriété dite “de monotonie”, on peut montrer la convergence de
l’algorithme du point fixe :
Théorème 2.5.5. (Point fixe de monotonie). Soient A ∈ Mn (R) et R ∈ C(Rn , Rn ). On
suppose que :
sa
Ca
1. la matrice A est une matrice d’inverse positive, ou IP –matrice voir exercice 8), c.à.d. que
A est inversible et tous les coefficients de A−1 sont positifs ou nuls, ce qui est équivalent
NS
-E
à dire que :
ri
Ax ≥ 0 =⇒ x ≥ 0,
Am
2. R est monotone, c.à.d. que si x ≥ y (composante par composante) alors R(x) ≥ R(y)
(composante par composante).
3. 0 est une sous-solution du problème, c’est-à-dire que 0 ≤ R(0) et il existe x̃ ∈ Rn ; x̃ ≥ 0
tel que x̃ est une sur-solution du problème, c’est-à-dire que Ax̃ ≥ R(x̃).
On pose x0 = 0 et Axk+1 = R(xk ). On a alors :
1. 0 ≤ xk ≤ x̃, ∀k ∈ N,
2. xk+1 ≥ xk , ∀k ∈ N,
3. xk −→ x̃ quand k −→ +∞ et Ax̃ = R(x̃).
31
2.6 Interpolation et Approximation
sa
Ca
NS
-E
ri
Am
El
H.
32
Bibliographie
sa
Ca
NS
-E
ri
Am
El
H.
33