Méthode Des Éléments Finis PDF
Méthode Des Éléments Finis PDF
Méthode Des Éléments Finis PDF
Méthode des
éléments finis
Dans ce (de moins en moins court) document, plutôt à destination d’ingénieurs mécaniciens
connaissant déjà la méthode des éléments finis, nous allons essayer de faire une présentation un
peu plus théorique que ce qui leur est généralement proposé (et qui est quand même souvent de
type « preuve par les mains », ce qui occulte trop de points).
Nous ne ferons appel qu’à des notions mathématiques de bases généralement déjà vues pour la
plupart en taupe (ou en tout début de cycle d’ingénieur)... bien que des compléments que l’on peut
qualifier d’élémentaires nous aient été demandés et aient été inclus.
Nous espérons, grâce à cette présentation théorique montrer toute la souplesse et la puissance
de la méthode, afin de permettre au lecteur d’envisager d’autres simulations que celles qu’il a pu
déjà réaliser par le passé.
Pourquoi un ingénieur pratiquant déjà les éléments finis devrait-il s’intéresser plus en profondeur
aux mathématiques derrière la méthode ?
Tout d’abord parce que c’est beau et intéressant : deux raisons parfaitement licites et suffisantes.
Mais surtout parce que le monde change ! On souhaite des modélisations toujours plus proches
du réel, toujours plus détaillées, toujours plus complexes, toujours plus couplées... Par ailleurs un
constat s’impose : si la physique d’hier était essentiellement celle du continu, celle d’aujourd’hui
est le règne du discontinu. Ainsi, connaître l’intégrale de Riemann et savoir intégrer par parties
étaient autrefois des outils suffisants, alors qu’aujourd’hui il faut en passer par les dérivées au sens
des distributions, les espaces de Sobolev, l’intégrale de Lebesgue...
Rester sur les outils d’hier c’est se condamner à résoudre les problèmes d’hier ! C’est pourquoi
ce document a vu le jour, pour essayer de présenter et d’expliquer « simplement » (nous l’espérons)
les mathématiques derrière la méthode, mais sans demander au lecteur de se transformer en
mathématicien.
But du document
Le but initial était de présenter brièvement la théorie mathématique derrière les éléments finis afin
que les ingénieurs utilisant cette méthode puisse en envisager toutes les applications, ainsi que de
couvrir les aspects qui, selon nous, devraient être connus de tout ingénieur mécanicien impliqué ou
intéressé par le calcul numérique.
Toutefois, il s’envisage comme support de référence à plusieurs cours, cours qui ne portent pas
sur tous les aspects traités dans ce document, et pendant lesquels les aspects pratiques sont plus
développés (avec mise en situation sur machine).
Même si nous avons voulu rester le plus succinct possible, l’introduction de notions de proche
en proche à conduit à un document qui fait aujourd’hui une certaine taille (par exemple, nous avons
besoins des espaces de Sobolev, mais comment les introduire sans parler des espaces de Lebesgue,
mais comment les introduire sans parler...).
Aussi le document a-t-il finalement été découpé en plusieurs parties : un survol des notions
mathématiques, puis le traitement du problème continu constituent l’ossature théorique nécessaire
à assoir la méthode des éléments finis sur un socle solide. La discrétisation par éléments finis
à proprement parler n’est aborder qu’ensuite, et d’ailleurs un seul chapitre suffirait à en faire le
3 But du document
tour... sauf à entrer plus dans le détail concernant « ce qui fâche » : homogénéisation, non linéarité,
dynamique, ce qui est fait dans des chapitres séparés.
Enfin, d’autres méthodes sont abordées car également très employées aujourd’hui. Aussi est-il
indispensable selon nous d’en avoir entendu parlé et d’en connaître les principales notions (BEM,
FEEC...).
En annexes, se trouve un petit fourre-tout comprenant des choses censées être maîtrisées depuis
la taupe (mais qui parfois nous sont demandées) et les compléments qui alourdiraient encore les
propos précédents.
Certaines notions (essentiellement de topologie) ne sont pas présentées dans ce document. Il
nous a semblé que le lecteur devait avoir quelques souvenirs de ce qu’est un ouvert, un fermé,
l’adhérence, la densité... Par ailleurs, leur nom peut être suffisamment évocateur pour se passer
d’une définition formelle dans le contexte de ce document.
Attention, ce document n’est pas un document de mathématiques, il ne contient d’ailleurs
aucune preuve. C’est, dans ces deux premières parties, un document de vulgarisation de notions
mathématiques nécessaires à une bonne compréhension de la méthode des éléments finis.
Nous avons voulu réaliser un survol des notions importantes, mais malgré tout, afin de ne pas
être parfois trop laconique, nous avons un peu débordé.
En fin de document, un petit index des noms propres permettra au lecteur de replacer les divers
développements mentionnés dans l’histoire... Il se peut qu’il subsistent quelques erreurs, notamment
au niveau des nationalités mentionnées, car il n’est pas toujours aisé de déterminer rapidement cette
information (et nous ne connaissons pas toutes les biographies des personnes citées).
Ce document a été réalisé très rapidement, et de manière extrêmement hachée. Il comporte
forcément encore beaucoup de fautes : merci de m’en faire part.
Remerciements :
Nous remercions Mathias Legrand pour ses conseils avisés et sa relecture pertinente.
Notre collaboration a permis une très nette amélioration de la qualité typographique générale du
document, et a conduit à la coexistence de deux versions, issues du même code source : l’une que
nous appelons « version cours » correspond à ce que nous proposons en cours (couleurs, notations) ;
l’autre que nous nommons « version livre », plus classique et sage dans sa forme, est plus proche
d’un ouvrage.
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
But du document 3
Démarche de l’ingénieur numéricien 4
I SURVOL MATHÉMATIQUE
2 Applications et morphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1 Fonction, application, injection, surjection, bijection 28
2.2 Morphismes 29
2.2.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.2 Cas des espaces vectoriels : application et forme linéaires . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.3 Endo, iso, auto -morphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.4 Espace dual d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.5 Noyau et image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3 Opérateur 32
3 Continuité et dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1 Continuité et classe C0 33
3.2 Continuité de Hölder et Lipschitz 35
3.3 Dérivée 35
3.4 Fonctions de classe Ck 37
3.5 Différentielle 37
3.6 Dérivées partielles 37
3.7 Retour sur les classes Ck pour une fonction de plusieurs variables 39
4 Espaces de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1 Présentation des espaces de Lebesgue Lp 48
4.2 Construction de Lp 49
4.3 Espace L0 50
4.4 Espace L1 et dualité avec L1 50
4.5 Espace L2 50
4.6 Compléments et retour sur les fonctions continues et différentiables 51
5 Espaces de Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.1 Distributions 56
5.2 Dérivées au sens des distributions 58
5.3 Espaces Wm;p ./ 59
5.4 Espaces Hm ./, Hm
0 ./ et H
m ./ 60
5.5 Prise en compte du contour du domaine 61
5.5.1 Trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.5.2 Espace trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.6 Espaces H1 ./, H10 ./ et H 1 ./ 63
5.7 Espaces H.div/ et H.rot/ 65
5.8 Inégalités utiles 66
II PROBLÈME CONTINU
14 Le maillage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
14.1 Maillage de Delaunay 198
14.1.1 Maillage simplexial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
14.1.2 Maillage de Delaunay-Voronoï . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
14.1.3 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
14.2 Maillage par avancement de fronts 202
14.3 Maillage par transformation 202
14.4 Remarques sur le maillage quadrangulaire et hexaédrique 204
15 Homogénéisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
15.1 Méthodes d’homogénéisation 206
15.1.1 Méthode de développement régulier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
15.1.2 Méthode de la couche limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
15.1.3 Méthode de développement asymptotique infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
15.1.4 Cas des coefficients discontinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
18 L’acoustique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
18.1 Introduction à l’acoustique physique 240
18.1.1 Émission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
18.1.2 Transmission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
18.1.3 Réception . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
18.2 Calculs acoustiques par éléments finis 252
18.2.1 Modèles simplifiés pour valeurs de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
18.2.2 Constitution d’un modèle éléments finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
18.2.3 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
18.2.4 Vers l’infini... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
18.2.5 ... et au-delà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
18.2.6 Post-Traitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
18.3 Quelques illustrations avec F REE F EM ++ 260
18.3.1 Un exemple en acoustique des salles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
18.3.2 Un silencieux automobile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
18.3.3 Deux mots de statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
18.3.4 Sur les conditions aux limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
18.3.5 Un peu d’amortissement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
18.3.6 Un obstacle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
18.3.7 Transmission entre deux milieux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
IV ANNEXES
15 SURVOL MATHÉMATIQUE I
Chapitre 1
Résumé — Dans les problèmes que nous envisageons de traiter in fine, il n’est finalement
besoin que d’espaces vectoriels normés finis sur le corps des réels. On pourrait rapidement
en donner les principales propriétés qui sont sans doute encore en mémoire des lecteurs
tant elles sont « naturelles ».
Mais en faisant cela, nous ne respecterions pas nos engagements de présenter un peu
plus avant les fondements mathématiques.
Sans toutefois aller trop loin dans les notions topologiques générales, nous allons
essayer dans ce chapitre de passer en revue la liste des espaces depuis les espaces
topologiques jusqu’aux espaces de Hilbert, de manière succincte et didactique (nous
l’espérons) en relevant les points importants essentiellement du point de vue de leur
utilité.
Le mot « topologie » vient de la contraction des noms grecs « topos » (lieu) et « logos » (étude),
c’est donc l’étude du lieu. On a d’ailleurs commencé par l’appeler Analysis Situs, le terme « topolo-
gie » n’étant introduit qu’en 1847, en allemand, par Johann Benedict Listing dans Vorstudien zur
Topologie.
La topologie vise à définir ce qu’est un lieu (i.e. un espace) et quelles peuvent être ses propriétés
(je dirais uniquement en tant que tel, sans autre ajout). Elle s’intéresse plus précisément à ce que
l’on appelle aujourd’hui espaces topologiques et aux applications, dites continues, qui les lient, ainsi
qu’à leurs déformations (“A topologist is one who doesn’t know the difference between a doughnut
and a coffee cup”).
En analyse, elle fournit des informations sur l’espace
considéré permettant d’obtenir un certain nombre de résultats
(existence et/ou unicité de solutions d’équations au dérivées
partielles, notamment). Les espaces métriques ainsi que les
espaces vectoriels normés sont des exemples d’espaces topo-
logiques. L’origine de la topologie est l’étude de la géométrie
dans les cultures antiques. Le travail de Leonhard Euler da- Euler Poincaré Hausdorff
tant de 1736 sur le problème des sept ponts de Königsberg
est considéré comme l’un des premiers résultats de géométrie qui ne dépend d’aucune mesure, i.e.
l’un des premiers résultats topologiques.
Henri Poincaré publia Analysis Situs en 1895, introduisant les concepts d’homotopie et d’homo-
logie. Bien d’autres mathématiciens ont contribué au sujet parmi lesquels nous citerons : Cantor,
Volterra, Arzelà, Hadamard, Ascoli, Fréchet, Hausdorff...
Finalement, une dernière généralisation en 1922, par Kuratowski, donna le concept actuel
d’espace topologique.
Notons bien que rien n’est dit sur les éléments de l’ensemble E. Ce peuvent être des éléments
discrets, des scalaires, des vecteurs, des fonctions...
Unifiant les travaux de ses prédécesseurs sur les espaces de fonctions, c’est en 1906 que Maurice
Fréchet introduit le concept d’espace métrique.
La métrique qui nous est la plus usuelle est évidemment la métrique
euclidienne, qui est celle que nous utilisons en géométrique « classique »
(euclidienne) : la distance entre deux points est égale à la longueur du
segment les reliant. La structure métrique fournit beaucoup plus d’infor-
mation sur la forme géométrique des objets que la structure topologique.
Enfin nous redonnerons le si important critère de Cauchy (qui est va-
lable pour tout espace uniforme, dont notamment les espaces métriques) Fréchet Cauchy
qui permet de définir la toute aussi importante notion de complétude.
E, un ensemble
Une distance ou métrique d est une application de E E ! RC telle que :
— d.x; y/ D d.y; x/ (symétrie) ;
— d.x; y/ > 0 si x ¤ y, et d.x; x/ D 0 (positivité) ;
— d.x; z/ 6 d.x; y/ C d.y; z/ (inégalité triangulaire).
Espace métrique
On peut réexprimer les notions d’ouvert, fermé, adhérence... densité, continuité... avec la
métrique (les "...).
Deux normes sont équivalentes si elles définissent la même topologie.
Deux normes k k1 et k k2 sont équivalentes s’il existe deux constantes strictement positives k 0
et k 00 telles que 8x 2 E, kxk1 6 k 0 kxk1 et kxk2 6 k 00 kxk1 .
Critère de Cauchy :
Soit E un espace métrique et soit x0 , x1 , ..., xn , ... une suite d’éléments de E. Cette suite est
de Cauchy de E si :
8" > 0; 9N 2 N; .8n 2 N; 8m 2 N; n > N; m > N/ W d.xm ; xn / 6 " (1.1)
ou encore : d.xm ; xn / tend vers 0 quand m et n tendent vers l’infini.
Espace métrique complet
Toute suite convergente est de Cauchy.
Réciproque : si x0 , x1 , ..., xn , ... est de Cauchy sur R ou C, alors elle converge.
Cette propriété est fondamentale car elle permet de reconnaître si une suite converge sans
connaître sa limite.
Attention, la notion d’espace complet est une notion métrique et non topologique (elle peut donc
être vraie pour une métrique et fausse pour une autre).
L’importance de la complétude tient à ce que la solution d’un problème passe souvent par une
solution approchée. Si la suite des solutions approchées est de Cauchy d’un espace convenable,
et si cet espace est complet, alors la convergence vers une solution du problème est assurée.
E, un ensemble
Structure d’espace vectoriel :
C’est une structure comportant une loi de composition interne et une loi de composition
externe sur un corps K permettant d’effectuer des combinaisons linéaires (voir cours sur les
structures algébriques).
La loi de composition interne, notée C en fait un groupe abélien, la loi de composition
externe est la multiplication par un scalaire, scalaire pris sur le corps K considéré.
Espace vectoriel (topologique)
Sur un espace vectoriel de dimension finie sur R ou C, deux normes quelconques sont équiva-
lentes.
Une norme sur un espace vectoriel E est une fonction, x 7! kxk possédant les propriétés :
— positivité : kxk > 0 pour x ¤ 0, k0k D 0 ;
— transformation par les homothéties : kxk D jjkxk; 2 K ;
— inégalité de convexité : kx C yk 6 kxk C kyk.
La distance issue de la norme est la distance définie par d.x; y/ D kx yk.
Espace vectoriel normé
Tout espace vectoriel normé est automatiquement un espace métrique (avec la distance issue de
sa norme). De plus :
— la distance est invariante par translation : d.x a; y a/ D d.x; y/.
— une homothétie de rapport multiplie la distance par jj : d.x; y/ D jjd.x; y/.
Tout espace vectoriel normé de dimension finie est localement compact (i.e. tout point possède
au moins un voisinage compact), car toute boule fermée est compacte.
L’intérêt des distances issues d’une norme est qu’elles rendent continues les opérations de
l’espace vectoriel et qu’en particulier les translations sont des homéomorphismes.
Comme un espace vectoriel normé muni de la distance issue de sa norme est un espace mé-
trique, on peut se demander si cet espace métrique vérifie le critère de Cauchy (voir paragraphe
précédent) afin d’en faire un espace complet.
Espace de Banach
C’est donc finalement un espace vectoriel normé sur un sous-corps K de C (en général, K D R
ou C), complet pour la distance issue de sa norme.
Comme la topologie induite par sa distance est compatible avec sa structure d’espace vectoriel,
c’est un espace vectoriel topologique. p
Une norme k k découle d’un produit scalaire ou hermitien h; i si l’on a : kxk D hx; xi.
Espace de Hilbert
C’est donc un espace préhilbertien complet, i.e. un espace de Banach dont la norme découle
d’un produit scalaire ou hermitien unique.
Un espace de Hilbert est la généralisation en dimension quelconque d’un espace euclidien ou
hermitien (Un espace vectoriel euclidien est un espace vectoriel réel de dimension finie muni
d’un produit scalaire).
Théorème 1 Tout sous-espace vectoriel fermé d’un espace de Hilbert est un espace de Hilbert.
où xi désigne le conjugué de xi .
— L’espace des fonctions (dans R ou C) continues et bornées sur un espace topologique X,
muni de la norme kf k D supx2X .jf .x/j/. En particulier, l’espace des fonctions continues
sur un espace X compact, comme un intervalle réel Œa I b.
— Pour tout réel p > 1, l’espace Lp des classes de fonctions mesurables, dans R ou C, sur un
espace mesuré X.
Voici quelques espaces de Hilbert classiques :
— L’espace euclidien Rn muni du produit scalaire usuel est hilbertien,
— L’espace L2 des fonctions de carré intégrable (voir chapitre 4).
— Certains espaces de Sobolev (voir chapitre 5) sont des espaces de Hilbert (ceux qui nous
intéresserons en général, ça tombe bien).
Ce résultat subsiste si l’on suppose seulement que H est un espace préhilbertien et que F est un
sous-espace vectoriel complet de H.
Définition 1 — Algèbre. Une algèbre (de Boole) E sur un ensemble X est un ensemble non
vide de parties de X, stable par passage au complémentaire et par union finie (donc aussi par
intersection finie), i.e. :
1. E 6D ¿
2. 8A 2 E, c A 2 E, où c A désigne le complémentaire de A dans X. (donc X 2 A)
3. si A1 ; : : : ; An 2 E alors A1 [ ::: [ An 2 E
Définition 2 — Tribu. Une tribu A sur un ensemble X est un ensemble non vide de parties de X,
stable par passage au complémentaire et par union dénombrable (donc aussi par intersection
dénombrable), i.e. :
1. A 6D ¿
2. 8A 2 A, c A 2 A S
3. si 8n 2 N, An 2 A alors n2N An 2 A
Ces deux dernières définitions étant placées l’une sous l’autre, leur différence doit apparaître
clairement : dans le cas d’une algèbre, on a à faire à un nombre fini d’intersections ou de réunions,
dans celui d’une tribu, on prend en compte un ensemble dénombrable (donc fini ou non).
Il est donc évident que toute tribu est une algèbre, la réciproque étant fausse.
Définition 3 — Espace mesurable. Le couple .X; A/ est appelé espace mesurable ou espace
probabilisable en fonction du contexte. Sur les espaces mesurables on définit des mesures (voir
ci-après) ; sur les espaces probabilisables, on appelle ces mesures des probabilités.
Les parties de X qui appartiennent à la tribu A sont appelées ensembles mesurables. Dans
un contexte probabiliste, on les appelle événements (il suffit que .X/ D 1 pour que soit une
probabilité).
Une mesure sur un ensemble X est une fonction qui associe à chaque élément d’une tribu
d’un ensemble X un scalaire positif (une longueur, un volume, une probabilité...).
Définition 4 — Mesure. Soit .X; A/, un espace mesurable. Une application définie sur A, à
valeurs dans Œ0; C1 est appelée mesure lorsque les deux propriétés suivantes sont satisfaites :
1. L’ensemble vide a une mesure nulle : .¿/ D 0
2. L’application est -additive : si E1 , E2 , ... est une famille dénombrable de parties de X
appartenant à A et si ces parties sont deux à deux disjointes, alors la mesure .E/ de leur
réunion E est égale à la somme des mesures des parties :
1 1
!
[ X
Ek D .Ek /:1 (1.3)
kD1 kD1
On appelle espace mesuré un triplet .X; A; /, où X est un ensemble, A une tribu sur X et
une mesure sur A.
Complément sur le produit d’espaces mesurables. Soient .X; T/ et .Y; U/ deux espaces mesurables. On
appelle rectangle mesurable du produit D X Y, toute partie de de la forme A B où A et B sont
des éléments respectivement T et U-mesurables.
On appelle produit tensoriel des deux tribus T et U, la tribu engendrée par l’ensemble des rectangles
mesurables. Cette tribu est notée T ˝ U, et est la plus petite tribu de qui contient toutes les parties de la
forme A B, A 2 T, B 2 U.
Le produit des espaces mesurables est .X Y; T ˝ U/ et est un espace mesurable :
Z Z Z
f d. ˝ / D f .x; y/d.x/d.y/ (1.4)
On aura besoin de ces notions (dont la tribu borélienne) pour l’intégrale de Lebesgue et
par extension toute la théorie de l’intégration qui est à la base de l’analyse numérique (et oui,
formulation faible, quand tu nous tiens) ainsi notamment que pour le théorème de représentation de
Riesz fondamental en éléments finis.
Les masses de Dirac sont très importantes, notamment dans la pratique car elles permettent par
exemple de construire des mesures par approximations successives.
Définition 7 — Mesure complète. Soit .X; A; / un espace mesuré, on dit que est une
mesure complète lorsque tout ensemble négligeable pour appartient à la tribu A sur laquelle
est définie, i.e. :
La mesure de Lebesgue a permis de bâtir une théorie de l’intégration palliant les insuffisances
de l’intégrale de Riemann (il suffit de vouloir intégrer 1Q sur Œ0 I 1 avec Riemann pour être dans
l’impasse). Nous détaillerons cela un peu plus au chapitre 4 sur les espaces de Lebesgue.
Parmi les définitions de cette mesure, nous présentons la plus intuitive, celle qui consiste à
généraliser la notion de volume en gardant les mesures sur les pavés de Rn .
Définition 8 — Mesure de Lebesgue. Il existe une plus petite mesure définie sur une tribu de
parties de Rn qui soit complète et coïncide sur les pavés avec leur volume (i.e. avec le produit
des longueurs de leurs côtés).
Cette mesure est appelée la mesure de Lebesgue (notée n ) et sa tribu de définition la
tribu de Lebesgue (notée Ln et que nous ne définissons pas ici, et dont les éléments sont dits
Lebesgue-mesurables).
Cette restriction aux boréliens de la mesure de Lebesgue est parfois dénommée mesure de
Borel-Lebesgue.
Si pour la mesure de Lebesgue sur R, la notion de « presque partout » correspond bien à
l’intuition, ce n’est pas vrai en général. Par exemple, pour D ıa sur la tribu de l’ensemble des
parties de X, une propriété est vraie -pp simplement si elle est vérifiée en a.
Si la mesure est nulle, toute propriété est vérifiée pp (ainsi que sa négation).
Théorème 4 La mesure de Lebesgue est invariante sous toutes les isométries. Elle est en
particulier invariante sous les translations : c’est une mesure de Haar du groupe topologique Rn .
Oui, la mesure de Lebesgue peut être vue comme une mesure de Haar. Mais, historiquement, la
mesure de Haar est définie plus tard (on parle souvent de la mesure de Haar, alors que l’on devrait
parler d’une mesure de Haar). Elle généralise celle de Lebesgue.
Définition 9 — Mesure régulière. Une mesure (positive) définie sur une tribu contenant la
tribu borélienne d’un espace topologique X est dite régulière lorsque elle est à la fois intérieure-
ment régulière et extérieurement régulière :
1. 8A X de la tribu, .A/ D supf.K/ j K compact contenu dans Ag ;
2. 8A X de la tribu, .A/ D inff.O/ j O ouvert contenant Ag.
Théorème 5 La mesure de Lebesgue est finie sur tout compact ; chaque compact, qui est borné,
pouvant être enfermé dans un cube.
Elle est par voie de conséquence régulière, Rn étant métrisable, localement compact et sépa-
rable.
— Rn est métrisable : un espace topologique est un espace métrisable lorsqu’il est homéomorphe
à un espace métrique (un homéomorphisme est une application bijective continue entre deux
espaces topologiques dont la réciproque est continue) ;
— Rn est localement compact : un espace localement compact est un espace séparé qui, sans
être nécessairement compact lui-même, admet des voisinages compacts pour tous ses points
(De plus, on a la propriété : Tout espace localement compact est régulier) ;
— Rn est séparable : un espace séparable est un espace topologique contenant un sous-ensemble
fini ou dénombrable et dense, i.e. contenant un ensemble fini ou dénombrable de points dont
l’adhérence est égale à l’espace topologique tout entier.
Applications et morphismes
Résumé — Au chapitre précédent, des espaces ont été définis, mais on ne s’est pas
intéressé beaucoup aux relations entre eux ou au sein d’eux.
Des distances, normes... ont été introduites, sans utiliser plus que ça le vocable de
fonction. Le terme d’injection a été prononcé à la fin du chapitre précédent comme fil
conducteur pour introduire celui-ci...
Dans ce chapitre, nous ne présenterons pour le coup que des choses extrêmement
« rudimentaires » et toutes vues en taupe ou avant. Il s’agit uniquement d’un aide-mémoire.
L’univers mathématiques du début du XVIIIe siècle est dominé par Leonhard Euler et par ses apports
Histoire
tant sur les fonctions que sur la théorie des nombres, tandis que Joseph-Louis Lagrange éclairera la
seconde moitié de ce siècle.
Euler a introduit et popularisé plusieurs conventions de notation par
le biais de ses nombreux ouvrages largement diffusés. Plus particulière-
ment, il a introduit la notion de fonction (dans L’Introductio in analysin
infinitorum, premier traité dans lequel le concept de fonction est à la
base de la construction mathématique, et dont les premiers chapitres
lui sont consacrés) et a été le premier à écrire f .x/ pour désigner la
fonction f appliquée à l’argument x, en 1734 (bien que le terme de Euler Lagrange
« fonction » apparaisse pour la première fois dans un manuscrit d’août
1673 de Leibniz, resté inédit, et intitulé la Méthode inverse des tangentes ou à propos des fonctions).
Il a également introduit la notation moderne des fonctions trigonométriques, la lettre e pour la
base du logarithme naturel (également connue sous le nom de nombre d’Euler) en 1727, la lettre
grecque † pour désigner une somme en 1755 et la lettre i pour représenter l’unité imaginaire, en
1777. L’utilisation de la lettre grecque pour désigner le rapport de la circonférence d’un cercle à
son diamètre a également été popularisée par Euler, mais celui-ci n’est pas à l’origine de la notation.
Les différentes techniques mises au point (par exemple pour la résolution des équations différen-
tielles, le développement en séries entières ou asymptotiques, applications aux réels négatifs, aux
complexes...) conduisent à s’intéresser à la « fonction » en tant que sujet d’étude.
À la fin du XVIIIe siècle, les mathématiciens croient encore, pour
peu de temps, que la somme infinie de fonctions continues est continue,
et (pour plus longtemps) que toute fonction continue admet une dérivée...
(sur ces notions, voir chapitre suivant).
C’est Cauchy qui met un peu d’ordre dans tout cela en montrant que
la somme d’une série numérique n’est commutativement convergente que
Cauchy Abel
si la série est absolument convergente. Mais Cauchy, qui pourtant n’est
qu’à un doigt de la notion de convergence uniforme, énonce un théorème
faux de continuité d’une série de fonctions continues qu’Abel contredit par un contre-exemple
le 16 janvier 1826 : Cauchy affirme en 1821 que la somme d’une série de fonctions continues
est toujours continue. Cinq ans plus tard, Abel propose un contre-exemple en considérant la suite
.fn /n>1 d’applications continues de R dans R de terme général fn .x/ D . 1/n =n: sin.nx/.
= élément n’ayant pas de relation ; = élément ayant 1 relation ; = élément ayant plus d’une
relation.
Tableau 2.1: Types de fonctions
Une étoile rouge dans E n’a pas de sens, cela voudrait dire qu’un élément de E peut avoir
plusieurs valeurs différentes par la relation considérée...
En fait, on sait donner un sens à cela. C’est ce que l’on appelle une fonction multivaluée
ou fonction multiforme ou fonction multivoque ou multifonction. L’exemple le plus simple d’un
fonction multiforme est la fonction réciproque d’une application non injective (penser simplement
aux fonctions circulaires).
On trouve les fonctions multiformes en analyse complexe : lorsque l’on veut utiliser le théorème
des résidus pour calculer une intégrale réelle, on peut être amené à considérer des restrictions
(déterminations) qui font de ces fonctions multiformes des fonctions (univoques), par exemple en
utilisant la théorie des revêtements qui considère des fonctions sur des surfaces de Riemann.
En restreignant une fonction à son domaine de définition, on en fait une application. En la
restreignant en plus à son ensemble d’arrivée on en fait une surjection (une surjection, c’est un
« truc » défini partout sur E et F).
Quand on a une surjection, on est sûr que tout élément de l’ensemble de départ à une image, et
2.2 Morphismes
Cette section est extraite du cours sur les structures algébriques. Nous l’avons toutefois sérieusement
amputée pour coller à l’objectif de ce document.
2.2.1 Présentation
Histoire
Mort au cours d’un duel à l’âge de vingt ans (ce qui en fait un héros romantique), il laisse un
manuscrit élaboré trois ans plus tôt, dans lequel il établit qu’une équation algébrique est résoluble
par radicaux si et seulement si le groupe de permutation de ses racines a une certaine structure,
qu’Emil Artin appellera justement résoluble.
Son Mémoire sur les conditions de résolubilité des équations par radicaux, publié
par Joseph Liouville quatorze ans après sa mort, a été considéré par ses successeurs,
en particulier Sophus Lie, comme le déclencheur du point de vue structural et
méthodologique des mathématiques modernes.
Toutefois, pour être tout à fait exact, Lagrange, reprenant une idée de d’Alembert
en vue de prouver qu’un polynôme de degré n possède n racines (i.e. que C est
algébriquement clos), utilise des résultats sur les fonctions semblables des racines, Galois
i.e. des fonctions rationnelles des racines qui restent invariantes par les mêmes
permutations. Ce résultat, qu’il a établi dans son fameux mémoire de 1771 Réflexions sur la
résolution algébrique, inspirera Abel et Galois et peut être considéré comme le tout premier de la
théorie des groupes.
Soient deux ensembles G et G0 munis d’un même type de structure (topologique, groupe,
anneau, espace vectoriel, algèbre...). Un morphisme (ou homomorphisme) de G ! G0 est une
application f qui respecte cette structure.
Pour ce faire, cette application doit vérifier certaines conditions, notamment une certaine
« linéarité » vis-à-vis des lois des G et G0 (on pourrait également remplacer le terme linéarité par
« capacité à faire sortir de la fonction »).
Un morphisme entre deux espaces topologiques est tout simplement une application continue
(voir chapitre suivant sur la continuité). C’est d’ailleurs ce dernier terme qui est utilisé en topologie,
pas celui de morphisme (mais cela revient bien au même).
Un morphisme de groupe entre .G; / et .G0 ; ?/ satisfait à l’égalité suivante qui est bien une
« condition de linéarité par rapport à la loi » : 8.x; y/ 2 G; f .x y/ D f .x/ ? f .y/. En particulier,
si e et e 0 sont les éléments neutres de G et G0 , alors : f .e/ D e 0 . Une autre conséquence directe est
que : 8x 2 G; f .x 1 / D Œf .x/ 1 .
Ceci est équivalent à la condition suivante (on parle de « préservation des combinaisons
linéaires ») :
La structure d’un espace et celle de son dual sont très liées. Nous allons détailler quelques
points en nous restreignant aux cas qui nous intéressent (cas réel, dimension finie).
Si l’espace E est de dimension finie n, alors l’espace dual E est isomorphe à E et est donc lui
aussi de dimension n. On a alors le théorème de la base duale (que je ne présente pas, car je n’ai
pas parlé de base... mais peut-être pourrons-nous nous passer de ces rappels dans ce document).
Pour x 2 E, on note h'; xi pour '.x/. Cette notation est appelée crochet de dualité.
Notons que si E est réflexif, i.e. si E00 D E alors la topologie faible et la topologie faible-* coïncident.
Les topologies faibles ne sont en général pas métrisables, et ne peuvent donc se définir par la seule
donnée des notions de convergence de suites. Cependant, c’est bien la notion de convergence faible de
suites qui est utile en pratique.
On place ici des remarques faisant appel aux espaces de Lebesgue définis au chapitre 4.
Soit un ouvert de Rn . Pour 1 < p < 1, les topologies faible et faible-* sur Lp ./ coïncident, et
la notion de convergence associée (convergence contre des fonctions test dans Lp ) est :
Z Z
8g 2 Lp 0 ./; fn g ! fg
Pour p D 1, la topologie faible-* correspond à la convergence contre des fonctions test dans L1 ;
pour p D 1, la topologie faible correspond à la convergence contre des fonctions test dans L1 . On
s’interdira en revanche de considérer la convergence faible-* dans L1 , ou la convergence faible dans L1
(la question de savoir si L1 est le dual de L1 touche à de subtiles questions d’axiomatique, et la réponse
est négative si l’on admet l’axiome du choix...)
Quel est l’intérêt d’appauvrir la topologie ? Une des motivations majeures est que moins il y a
d’ouverts, plus il y a de compacts. Il est beaucoup plus facile d’être compact pour la topologie faible que
pour la topologie forte.
Théorème 7 — Théorème du rang. Il est assez visible que (théorème de factorisation) f induit
un isomorphisme de l’espace vectoriel quotient E= ker.f / sur l’image im.f /. Deux espaces
isomorphes ayant même dimension, il s’en suit la relation, valable pour un espace E de dimension
finie, appelée théorème du rang :
On a également :
— l’image réciproque d’un sous-espace vectoriel de F par f est un sous-espace vectoriel de E ;
— l’image directe d’un sous-espace vectoriel de E par f est un sous-espace vectoriel de F.
2.3 Opérateur
Le terme « opérateur » a été utilisé au paragraphe précédent... regardons d’un peu plus près.
D’une manière générale, un opérateur est une application entre deux espaces vectoriels topolo-
giques.
Un opérateur O W E ! F est linéaire si et seulement si :
Continuité et dérivabilité
Dans le manuscrit de 1673 la Méthode inverse des tangentes ou à propos des fonctions, Leibniz
dit : « J’appelle fonctions toutes les portions des lignes droites qu’on fit en menant des droites
indéfinies qui répondent au point fixe et aux points de la courbe ; comme sont abscisse, ordonnée,
corde, tangente, perpendiculaire, sous-tangente, sous-perpendiculaire... et une infinité d’autres d’une
construction plus composée, qu’on ne peut figurer. » Finalement, au terme d’une correspondance
nourrie entre Leibniz et Jean Bernoulli, celui-ci donne en 1718 la définition suivante : « On appelle
fonction d’une grandeur variable une quantité composée, de quelque manière que ce soit, de cette
grandeur variable et des constantes. ». Il propose la notation x.
La continuité est en quelque sorte contenue, sous-jacente à ces définitions car les fonctions
considérées sont « physiques » et ne présentent au plus qu’un nombre fini de discontinuités.
Dans son Introductio in analysin infinitorum de 1748,
Euler définit une fonction d’une quantité variable comme
« une expression analytique composée d’une manière quel-
conque de cette quantité variable et de nombres ou de
quantités constantes ». Le mot « analytique » n’est pas
davantage précisé. En fait, pour Euler, une fonction est
une combinaison quelconque d’opérations prises dans le Euler Bolzano Heine
stock des opérations et des modes de calcul connus de
son temps, et applicables aux nombres : opérations classiques de l’algèbre, exponentielle, logarithme,
passage d’un arc à ses lignes trigonométriques..., certaines de ces opérations pouvant être itérées un
nombre illimité de fois...
Dans ce même ouvrage, Euler dit qu’une fonction est continue si elle est définie par une seule
expression anlytique (finie ou infinie) et mixte ou discontinue si elle possède plusieurs expression
analytiques suivant ses intervalles de définition.
La définition actuelle est celle due à Bernard Bolzano dans sa théorie des fonctions en 1816 : « La
fonction f .x/ varie suivant la loi de continuité pour la valeur x si la différence jf .x C w/ f .x/j
peut-être rendue plus petite que toute valeur donnée. » Il existe une notion de continuité uniforme
qui est plus forte que la simple continuité et fixée par Heinrich Eduard Heine en 1872.
Cette définition est donnée pour la culture, car nous n’avons pas rappelé la notion de voisinage dans
ce document. Cela n’a pas d’importance dans ce contexte puisque nous travaillerons sur des cas
moins généraux.
Évidemment, une application de E dans F est continue si elle est continue en tout point de E.
Ramenons nous à des choses plus connues et plus en lien avec ce document. Dans le cas des espaces
métriques, la continuité se définit comme suit.
Ainsi f est continue en a si et seulement si la limite de f en a existe (elle vaut alors nécessaire-
ment f .a/).
pas vers 0 lorsque .x; y/ tend vers l’origine. Une telle fonction est dite partiellement continue.
Pour une fonction réelle, on peut définir une fonction continue comme une fonction dont on
peut tracer le graphe sans lever le crayon. Si l’on exclut certains fonctions très particulières (comme
les fractales), alors l’idée générale de la continuité est bien traduite par cette phrase (la fonction ne
présente pas de « saut »).
La classe des fonctions continues est notée C0 . Elle inclut par exemple les fonctions continues
par morceaux ainsi que les constantes (dont la fonction nulle).
Attention à ne pas confondre la classe des fonctions continues C0 avec C0 l’ensemble des
fonctions continues qui s’annulent à l’infini (sous-espace de l’espace des fonctions continues).
La continuité höldérienne d’une fonction dépend donc d’un paramètre réel strictement positif a 2
0 I 1, et prend en compte toutes les variations de la valeur de la fonction sur son ensemble de
définition. Si 0 < a 6 1 est fixé, l’ensemble des fonctions réelles a-höldériennes est un espace
vectoriel, conventionnellement noté C 0;a .E; R/.
Théorème 8 Toute application f qui est a-höldérienne est continue. Mieux, elle est uniformé-
ment continue, dans le sens suivant :
Si " > 0, alors pour D ."=C/1=a ; d .x; y/ < ) d .f .x/; f .y// < " (3.5)
Le réel dépend de " mais est indépendant de la variable x parcourant l’espace de définition de
l’application.
Toute fonction lipschitzienne (en tant que fonction höldérienne) est uniformément continue. Toute
fonction réelle lipschitzienne est (absolument continue donc à variation bornée donc) dérivable
presque partout pour la mesure de Lebesgue et sa dérivée est essentiellement bornée.
3.3 Dérivée
Le nombre dérivé en un point d’une fonction à variable et valeurs réelles est le coefficient directeur
de la tangente au graphe de cette fonction en ce point, ou aussi le coefficient directeur de l’approxi-
mation affine de cette fonction en ce point : ce nombre n’est donc défini que si cette tangente, ou
cette approximation, existe. La dérivée d’une fonction f est une fonction qui, à tout nombre pour
lequel f admet un nombre dérivé, associe ce nombre dérivé.
Définition 22 — Dérivée d’une fonction. Soit f une application d’un ouvert du corps K
(resp. un intervalle de R) dans un espace affine normé F (resp. R), alors on peut donner un sens,
f .a C h/ f .a/
f 0 .a/ D lim 2F (3.6)
h¤0;h!0 h
aCh2
phénomènes physiques et techniques conduit à la création au siècle suivant de l’analyse en tant que
branche des mathématiques abordant les notions de dérivation, intégration et équations différentielles.
Les échanges, les conceptions et la compréhension des infinité-
simaux ont animé le monde scientifique pendant bien longtemps, la
discussion était tout autant philosophique que mathématique, ce qui est
somme toute assez normal compte tenu du sujet... Les fondateurs incon-
testés de l’analyse sont Newton et Leibniz. La portée de leurs travaux est
considérable car ils vont permettre non seulement la compréhension des
courbes (puis le calcul des aires), mais aussi celle du mouvement des Newton Leibniz
corps. C’est véritablement une révolution où l’on passe d’une science de
la statique à une science de la dynamique.
Un débat houleux sur la paternité du calcul différentiel entre mathématiciens britanniques et
allemands fit rage, mais Newton et Leibniz s’en tinrent à l’écart. Toutefois, cette polémique entre les
deux camps ne sera pas sans effet. Celle-ci fera que les anglais resteront à l’écart du développement
général des mathématiques au XVIIIe siècle, la tradition newtonienne dominante ayant abouti à une
certaine stagnation scientifique. Au début du XIXe siècle, avec la diffusion des notations symboliques
leibniziennes du calcul infinitésimal, un petit groupe de mathématicien de Cambridge se mettra à
réfléchir sur le rôle et l’importance de la symbolique.
L’opinion générale est aujourd’hui que Leibniz s’est presque certainement inspiré de certaines
des idées de Newton (dont les travaux sont antérieurs, mais non publiés au moment où Leibniz
publie), mais que sa contribution reste suffisamment importante pour que le mérite de l’invention du
calcul différentiel soit accordé aux deux hommes.
L’approche de Newton est proche de la physique : il parle en termes de mouvement physique et
ses notations ne sont employées que très rarement en dehors de la sphère des physiciens.
L’approche de Leibniz en revanche est plus géométrique et conduit à une présentation plus natu-
relle, encore utilisée aujourd’hui, et qui va rapidement être adoptée en Europe. C’est lui également
qui introduit la notation dy=dx encore utilisée.
Avant Newton et Leibniz, Descartes s’était intéressé au pro-
blème des tangentes à une courbe et Fermat avait introduit une
notion assez proche de la dérivée lors d’une recherche d’extremum.
En remontant encore plus dans l’Histoire, on peut dire que la mé-
thode d’exhaustion, telle qu’elle a été développée et utilisée par
Archimède (i.e. avec toute la rigueur nécessaire, en usant du procédé
Archimède Oresme
d’encadrement évitant le recourt aux ") est réellement la première
utilisation des infinitésimaux. Malgré, ou peut-être à cause de, la
grande originalité de ses travaux, Archimède n’a été que peu suivi dans le monde grec et n’a pas eu
de disciple direct. Les savants arabes commenceront d’ailleurs dès le IXe siècle à s’intéresser aux
procédés infinitésimaux mis en œuvre par le génial Alexandrin.
Notons également que le plus grand progrès théorique réalisé au Moyen-Âge est l’étude quanti-
tative de la variabilité par Nicole Oresme. Éveillé par la diffusion des méthodes infinitésimales des
Anciens, et d’Archimède en particulier, nourri par les spéculations scolastiques sur l’infini, le goût
des mathématiciens pour les considérations infinitésimales se développe peu à peu. Ils s’appliquent
d’abord à imiter le modèle archimédien, puis s’émancipent et essaient de trouver des substituts pour
la méthode d’exhaustion, jugée trop lourde.
En 1748, Euler définit les deux nouvelles opérations que sont la différentiation et l’intégration
dans Introductio in analysin infinitorum ; puis dans Calculi differentialis (1755) et Institutiones
calculi integralis (1770) il essaie de mettre au point les règles d’utilisation des infiniment petits et
développe des méthodes d’intégration et de résolution d’équations différentielles.
Enfin, dans la seconde moitié du XIXe siècle, on s’intéressera aux propriétés des fonctions
La dérivabilité est elle-aussi une notion topologique et non métrique (même si on sait l’écrire
en termes métrique comme ci-dessus), elle ne dépend donc pas de la norme choisie (du moment
que celle-ci est compatible avec la topologie choisie...).
3.5 Différentielle
Il s’agit de généraliser la formule (3.6) à des applications de Rn dans Rp . La variable étant mainte-
nant un vecteur de Rn , il n’est plus question de diviser par h... il faut donc modifier la définition
pour supprimer le dénominateur. Et cela est très facile : il suffit d’approcher l’accroissement de la
fonction par une application linéaire.
Cela signifie qu’au voisinage de a, l’application f se comporte à peu près comme l’application
affine x 7! f .a/ C Df .a/.x a/, pour laquelle on pourra utiliser les outils de l’algèbre linéaire.
Géométriquement, on retrouve l’idée qu’une courbe est, au voisinage d’un point, à peu près
confondues avec sa tangente 1 (droite tangente, plan tangent...). C’est pourquoi l’application
linéaire Df .a/ est également appelée application linéaire tangente à f en a.
Évidemment, dans le cas où E D R et F D R, tout ce qui a été dit coïncide avec ce que nous
avions vu avec la dérivée classique.
@f f .a1 ; : : : ; ai 1 ; ai C h; ai C1 ; : : : ; an / f .a1 ; : : : ; an /
.a/ D lim (3.9)
@xi h!0 h
Remarques. Pour en revenir au cadre général qu’est celui de la différentielle, on parle ici des dérivées
partielles pour désigner les dérivées dans la direction des vecteurs de base, ou plus exactement des dérivées
selon les vecteurs de base.
@f
Nous utiliserons, comme tout le monde, la notation @x , bien qu’elle présente quelques défauts : tout
i
d’abord elle est typographiquement lourde, ensuite elle a les apparences trompeuses d’un quotient, et
enfin la mention de la variable xi peut être source de confusions dans les calculs de dérivées de fonctions
composées. On devrait donc toujours préférer la notation @i f ou fi0 .
La formulation générale de la différentielle donnée au paragraphe 3.5 permet de retrouver tous les
cas :
— le cas « classique » d’une fonction d’une variable réelle à valeur réelle correspond au cas E D R
et F D R ;
— le cas d’une fonction numérique d’une fonction vectorielle correspond au cas E D Rn et F D R
et vient d’être présenté. Dans ce cas, la différentielle Df .a/ est la forme linéaire sur Rn de
composantes T @1 f.a/; :::; @n f.a/ dans la base canonique.
Si Rn est muni d’un produit scalaire, alors il existe un unique vecteur, appelé gradient de f en a et
noté grad f .a/ 2 Rn tel que : Df .a/h D grad f .a/:h. Pour une définition plus opérationnelle du
gradient, on se réfèrera au paragraphe 3.8. Celui-ci a pour composantes les dérivées partielles par
rapport à la base considérée ;
— le cas d’une fonction vectorielle d’une variable réelle correspond au cas E D R et F D Rp . Il est à
nouveau possible de diviser par h. La différentiabilité 2 de f équivaut alors à la dérivabilité de ses
composantes fi .
— le cas d’une fonction vectorielle d’une variable vectorielle correspond au cas le plus général E D Rn
et F D Rp . La différentielle est l’application linéaire définie dans les bases canoniques de Rn
et Rp par la matrice jacobienne. La ligne i de la matrice jacobienne correspond à la différentielle
de la composante fi de f . La colonne j de la matrice jacobienne correspond à la dérivée de f
dans la direction du j e vecteur de la base. Nous y reviendrons de manière plus pragmatique au
paragraphe 12.5.2.
@f @f
Attention : Même si toutes les dérivées partielles @x1
.a/; : : : ; @x n
.a/ existent en un point a, la
fonction peut ne pas être continue en ce point. Si l’on considère à nouveau la fonction f définie
sur R2 par :
8 xy
<
2 2
si .x; y/ ¤ .0; 0/
f .x; y/ D x C y (3.10)
0 si .x; y/ D .0; 0/
:
@f @f
on voit qu’elle vérifie @x
.0; 0/ D @y
.0; 0/ D 0 mais elle n’a pas de limite en .0; 0/ comme nous
l’avons vu avant.
2. On ne confondra pas « différencier » et « différentier »
@2 f @2 f
D (3.11)
@xi @xj @xj @xi
@f @f X @f
df D dx1 C C dxn D dxi (3.12)
@x1 @xn @xi
i
3.7 Retour sur les classes Ck pour une fonction de plusieurs variables
Ce paragraphe met l’accent sur le cas multi-dimensionnel des classes Ck (ce qui est le cas avant,
mais peut-être moins visiblement). Nous en profitons également pour introduire des notations et
notions dont nous nous servirons plus loin.
Compléments sur Ck . Ck ./ est l’espace vectoriel des fonctions f W ! R telles que 8˛, j˛j 6 k,
x 7! @˛ f .x/ existe et appartient à C0 ./.
Pour f et g dans Ck ./, on définit :
sup j@˛ f .x/ g.x/j
X
1
X 1 j˛j6k Ki
d.f; g/ D (3.15)
2i 1 C sup j@˛ f .x/ g.x/j
X
iD1
Ki
j˛j6k
qui est une distance sur Ck ./ qui en fait un espace complet.
L’espace C1 ./ peut se définir par :
C1 ./ D Ck ./
[
(3.16)
k2N
qui est également complet pour la même distance.
Cette définition permet de clairement voir les inclusions successives des espaces Ck .
qui est une norme sur Ckb ./ et en fait un espace de Banach (i.e. normé complet pour cette norme).
Définition 28 On définit, pour k 2 N [ f1g, l’ensemble Ckc ./ par : f 2 Ckc ./ si f 2 Ck ./
et si f est de support compact inclus dans .
La dérivée d’un champ scalaire est un champ vectoriel appelé gradient (voir plus bas).
Nabla, noté r, est un pseudo-vecteur servant à noter un opérateur différentiel :
@
0 1
@
0 1 0
@
1
B @x C B @ C
B 1@r@ C
B C
B @ C
B1 @ C
B C
rDB C DB DB (3.19)
B C B C
B @y C B r @ C
C C
B @' C
@ @ A @ @ A @ 1 @ A
@z cartésiennes @z polaires r sin @' sphériques
grad f rf (3.20)
— La divergence :
div A r A (3.21)
rot A r ^ A (3.22)
f D r 2 f (3.23)
2
A D r A (3.24)
0 @A
z @Ay 1
@y @z
rotationnel : rot A D @ @A
B x @Az C
— @z @x A
@Ay @Ax
@x @y
@2 f 2 2
— Laplacien scalaire : f D @x 2 C @@yf2 C @@zf2
0 1
Ax
— Laplacien vectoriel : A D Ay A
@
Az
De plus :
On appelle normale extérieure une normale qui pointe vers l’extérieur du domaine en tout point.
@u
.x/ D ru.x/ n.x/ (3.31)
@n
Il s’agit d’un produit scalaire car ru est un vecteur, tout comme n.x/.
AD grad U (3.32)
Le même résultat se vérifie dans l’espace entier à condition que, vers l’infini, le champ décroisse
« assez » rapidement.
Le potentiel scalaire n’est pas unique, il est défini à une constante près.
Un champ de vecteurs A régulier et de divergence nulle dérive d’un potentiel vectoriel B :
AD rot B (3.33)
Le même résultat se vérifie dans l’espace entier à condition que, vers l’infini, le champ décroisse
« assez » rapidement.
Le potentiel vecteur n’est pas unique, il est défini à un « gradient » près (i.e. B0 D B C grad f
convient également).
où est la frontière de , ^ est le produit vectoriel et n.x/ est la normale dirigé vers l’extérieur.
Une autre identité remarquable met en relation l’intégrale de surface du rotationnel d’un champ
vectoriel et l’intégrale curviligne (ou circulation) du même champ sur la frontière. Elle découle du
théorème de Green qui, pour une surface S (généralement non fermée) de frontière C, implique :
“ I
rot A ds D A dl (3.36)
S C
Si S est fermée, C est vide (ou réduit à un point) et le membre de droite est nul.
L’orientation de la surface et celle de la courbe frontière sont liées puisque le changement d’une
orientation modifie le signe de l’intégrale correspondante. En fait, la relation est satisfaite lorsque
Il existe une autre façon de noter ce théorème. On se place sur un domaine compact lisse du
plan , de bord @, en notant la forme différentielle !. Alors la dérivée extérieure de ! s’écrit :
@Q @P
d! D dx ^ dy (3.38)
@x @y
(Le cercle sur l’intégrale précise que le bord décrit une courbe fermée).
@u
Z Z Z
.u/v D ru rv C v (3.41)
@n
f r 2 g C rf rg D
f rg n.x/ (3.44)
Ces formules sont exploitées pour obtenir des formulations faibles associées à des problèmes aux
dérivées partielles.
Espaces de Lebesgue
Comme promis au paragraphe 1.3, nous fournissons maintenant quelques compléments sur l’intégra-
tion. Nous avons mentionné la mise en défaut de l’intégrale de Riemann dans le cas de l’indicatrice
des rationnels. Ce contre-exemple a été historiquement fourni par Dirichlet.Regardons toutefois
d’un peu plus près d’où tout cela provient.
Histoire
En termes modernes, on dira que pour qu’une fonction bornée soit Riemann-intégrable, il faut et il
suffit que l’ensemble des points de discontinuité de f soit de mesure nulle.
Le cadre classique le plus simple pour définir une intégrale est celui des fonctions en escalier
sur un intervalle Œa; b, ou sa complétion pour la topologie de la convergence uniforme, l’espace
des fonctions réglées (admettant une limite finie à droite et à gauche). La théorie de Riemann
permet d’atteindre une plus grande généralité. Cependant, Riemann lui-même a conscience que
l’intégrabilité « au sens de Riemann » impose encore des conditions relativement fortes : il démontre
qu’une fonction f W Œa; b ! R est intégrable si et seulement si, pour tout ˛ > 0 donné, on peut
choisir une décomposition de Œa; b en sous-intervalles suffisamment fins pour que la somme des
longueurs des sous-intervalles sur lesquels l’oscillation de la fonction dépasse ˛ soit arbitrairement
petite.
Les conditions énoncées au paragraphe précédent
peuvent sembler faibles, mais, dès la fin de son mémoire
de 1829 Sur la convergence des séries trigonométriques
qui servent à représenter une fonction arbitraire entre des
limites données, Dirichlet donne l’exemple, d’une nature
toute nouvelle, discontinue en tous ces points : la fonc-
tion f .x/ qui vaut une constante c si x est un rationnel Riemann Dirichlet Lebesgue
et qui vaut une autre constante d si x est irrationnel (on
appelle une telle fonction, « fonction de Dirichlet », bien que celui-ci l’ai toujours exhibée comme un
monstre, existant, mais non représentatif de ce que devrait être une fonction. Lorsque c D 1 et d D 0,
on parle alors plutôt de l’indicatrice de Q). On voit alors directement que la Riemann-intégrabilité
est mise à mal. Le travail consistera alors à définir précisément ce que l’on peut négliger, i.e. les
parties de mesure nulle.
Dans la théorie de Lebesgue, on va élargir la classe des fonctions intégrables (par exemple,
toute fonction bornée « raisonnable », disons qui peut être décrite par un énoncé mathématique, est
Lebesgue-intégrable). Pour cela, Lebesgue va commencer par définir un ensemble mesurable : c’est
un ensemble dont la mesure extérieure (i.e. la borne inférieure de la mesure des ouverts le contenant)
est égale à sa mesure intérieure (i.e. la borne supérieure de la mesure des fermés qu’il contient) :
est-il besoin de rappeler la différence entre borne inférieure et minimum et entre borne supérieure
et maximum ? La borne supérieure (ou le supremum) d’une partie d’un ensemble partiellement
ordonné est le plus petit de ses majorants. Une telle borne n’existe pas toujours, mais si elle existe
alors elle est unique. Elle n’appartient pas nécessairement à la partie considérée. Dualement, la borne
inférieure (ou l’infimum) d’une partie est le plus grand de ses minorants...
L’intégrale de Lebesgue peut être définie de manière géométrique : pour une fonction positive f
définie sur Œa I b, elle est égale à la mesure de dimension deux de l’ensemble f.x; y/ 2 R2 =a 6
y 6 f .x/; a 6 x 6 bg quand cette mesure existe. D’une manière analytique, cette définition de
l’intégrale de Lebesgue devient :
I SURVOL MATHÉMATIQUE 46
Définition 34 — Intégrale de Lebesgue. soit f une fonction réelle, bornée, définie sur Œa I b.
Supposons m 6 f .x/ 6 M pour x 2 Œa I b. Pour tous ; tels que 6 , on définit :
V; D fx 2 Œa I b= 6 f .x/ 6 g. Si pour tous , , V; est mesurable, alors f est mesurable.
En considérant la partition m D 1 < 2 < ::: < n < nC1 D M et Vi D fx=i 6 f .x/ 6
iC1 g, on définit les sommes
n
X n
X
i m.Vi / et i C1 m.Vi / (4.3)
iD1 iD1
où m.V/ est la mesure de l’ensemble V. L’intégrale de Lebesgue est la limite commune de ces
deux sommes, dont on peut montrer qu’elle existe lorsque f est mesurable.
Un espace Lp est un espace vectoriel (des classes) de fonctions dont la puissance d’exposant p
est intégrable au sens de Lebesgue, où p est un nombre réel strictement positif. Le passage à la
limite de l’exposant aboutit à la construction des espaces L1 des fonctions bornées.
Théorème 17 Chaque espace Lp est un espace de Banach lorsque son exposant p est > 1.
Théorème 18 Lorsque 0 < p < 1, l’intégrale définit une quasi-norme qui en fait un espace
complet.
Définition 37 — Exposants conjugués. Soient p et q 2 Œ1; C1. On dit que p et q sont des
exposants conjugués si :
1 1
C D1 (4.5)
p q
Théorème 19 Soient p et q des exposants conjugués, alors il existe une dualité entre les espaces
d’exposants p et q.
4.2 Construction de Lp
On considère un ouvert de Rn . Les fonctions f seront considérées de dans R ou C.
p
On appelle Lp D LM .; C/ pour p < 1 l’espace des fonctions f mesurables, de ! C,
telles que .jf jp / < 1 où est une mesure sur .
Comme une fonction s’annulant presque partout est d’intégrale nulle, on peut définir l’es-
pace Lp .X; A; / comme le quotient de l’espace des fonctions p intégrables Lp .X; A; / par le
sous-espace vectoriel des fonctions presque nulles.
Ce quotient identifie donc les fonctions qui sont presque partout égales, autrement dit qui ne
diffèrent que sur un ensemble de mesure nulle.
Théorème 20 Si l’espace X est fini et est muni d’une mesure finie .X/ < 1, alors tous les
espaces Lp (resp. Lp ), pour 1 6 p 6 1 sont les mêmes.
4.3 Espace L0
L’espace L0 est l’ensemble des fonctions mesurables. L0 est l’espace obtenu en quotientant L0 par
les fonctions nulles.
Soit ' une fonction mesurable strictement positive et -intégrable, alors :
kf gk
Z
.f; g/ D 'd (4.10)
1 C kf gk
Rappel : la notion de convergence (de suite) est une propriété topologique et non métrique
(l’écriture avec les " n’est que la traduction métrique de l’écriture topologique avec les boules).
4.5 Espace L2
Par définition, si est un ouvert donné de Rn , L2 ./ est l’espace des fonctions (réelles ou
complexes) qui sont de carré intégrable au sens de l’intégrale de Lebesgue.
La formule des exposants conjugués conduit dans le cas p D 2, à q D 2, i.e. que L2 s’identifie
à son dual.
Si l’on reprend la remarque précédente sur la dualité, cela devient dans L2 (et dans tout espace
de Hilbert H) : en associant à tout v 2 H l’application 'v .u/ D hu; vi, on peut identifier l’espace
de Hilbert H a son dual H0 .
Comme mentionné, l’intérêt d’avoir un espace de Hilbert est de disposer d’un produit scalaire,
donc de pouvoir décomposer un vecteur. Ce que l’on retrouve dans le théorème 3, que nous
réécrivons ci-dessous, et vrai dans L2 en tant qu’espace de Hilbert :
On rappelle que :
1 1 1
C D (4.13)
p q r
Lq Lp (4.15)
Terminons ce cours chapitre en revenant un peu aux fonctions continues et Ck , dont nous avons
déjà parlé au paragraphe 3.7. Nous commençons d’ailleurs par rappeler certaines définitions déjà
données.
Définition 41 Soit un espace topologique. On définit Cb ./ comme l’espace des fonctions
continues bornées de dans R ; C0 ./ comme l’espace des fonctions continues sur , tendant
vers 0 à l’infini ; Cc ./ comme l’espace des fonctions continues à support compact dans . Ces
trois espaces, munis de la norme sup :
kf k1 D sup jf j (4.16)
sont des espaces vectoriels topologiques ; les espaces Cb ./ et C0 ./ sont des espaces de
Banach, alors que Cc ./ ne l’est pas en général.
On note parfois cet espace Ck ./ pour insister sur le fait que l’on prend le supremum
jusqu’au bord. Une notation plus appropriée serait sans doute Ckb ./.
Définition 43 Soit un ouvert de Rn . L’intersection des espaces Cc ./ et Ck ./, pour tout k,
est appelée espace des fonctions C1 à support compact ; on la note C1
c ./ ou D./. Nous en
reparlerons au chapitre suivant...
Puisque Cc ./ n’est déjà pas un espace de Banach, il semble inutile de tenter de normer D./.
On dispose des résultats de densité suivants :
— L’espace C0c ./ des fonctions continues à support compact est dense dans Lp ./ pour 1 6
p < 1 (mais n’est pas dense dans L1 ./)
Dans le cas p D 1, cela se traduit par : 8f 2 L1 ./; 8" > 0; 9g 2 C0c ./; tel que kf
gkL1 ./ 6 "
— L’espace C1 p
c ./ des fonctions infiniment dérivables à support compact est dense dans L ./
pour 1 6 p < 1 (mais n’est pas dense dans L ./)1
— L’espace C1 1
c ./ est dense dans le sous espace de L ./ des fonctions bornées qui tendent
vers 0 en l’infini.
— L’ensemble des fonctions continues à support compact de Lp .Rn / est dense dans Lp .Rn /,
pour p ¤ 1.
Les arguments de densité ont une importance pratique dans certaines démonstrations : si l’on
doit démontrer qu’une propriété est vérifiée sur Lp ./, alors on peut commencer par montrer que
cette propriété est vraie sur C1
c ./, avant de passer à la limite en utilisant l’argument de densité :
1 p
« Cc ./ est dense dans L ./ ».
L’espace C1 c ./ est également noté D./ et appelé espace des fonctions tests. Les distributions
sont définies comme les éléments de D0 ./, dual topologique de D./, muni d’une topologie
I SURVOL MATHÉMATIQUE 4.6 Compléments et retour sur les fonctions continues et différentiables 52
adéquate. Nous allons les aborder dès a présent, au chapitre 5.
Espaces de Sobolev
Résumé — Les espaces de Sobolev sont des espaces fonctionnels. Plus précisément, un
espace de Sobolev est un espace vectoriel de fonctions muni de la norme obtenue par la
combinaison de la norme Lp de la fonction elle-même ainsi que de ses dérivées jusqu’à
un certain ordre. Les dérivées sont comprises dans un sens faible, au sens des distributions
afin de rendre l’espace complet.
Les espaces de Sobolev sont donc des espaces de Banach. Intuitivement, un espace
de Sobolev est un espace de Banach ou un espace de Hilbert de fonctions pouvant être
dérivées suffisamment de fois (pour donner sens par exemple à une équation aux dérivées
partielles) et muni d’une norme qui mesure à la fois la taille et la régularité de la fonction.
Les espaces de Sobolev sont un outil très important et très adapté à l’étude des
équations aux dérivées partielles. En effet, les solutions d’équations aux dérivées partielles,
appartiennent plus naturellement à un espace de Sobolev qu’à un espace de fonctions
continues dont les dérivées sont comprises dans un sens classique (mais rien n’empêche
d’avoir de la chance).
Le XXe siècle avait commencé par la thèse de Lebesgue intégrale, longueur, aire, qui constitue
Histoire
vraiment le début de la théorie de la mesure. La théorie de Lebesgue mène à l’étude des espaces Lp ,
qui permettront, sur les traces de Hilbert, Riesz et Banach, l’étude des opérateurs différentiels.
Cauchy avait publié nombre d’applications
de sa théorie dans des recueils d’exercices, no-
tamment concernant l’évaluation d’intégrales
réelles, qu’il n’hésita pas à généraliser en ce
qu’on appelle aujourd’hui la « valeur principale
de Cauchy », un peu moins d’un siècle avant
que Hadamard en ait besoin dans sa résolution Lebesgue Hadamard Schwartz Sobolev
des équations aux dérivées partielles dans un
problème d’hydrodynamique par les « parties finies » et que Laurent Schwartz n’en vienne aux
distributions.
L’étude des conditions de régularité des solutions des équations aux dérivées partielles permet à
Sergueï Sobolev et ses continuateurs de définir ses espaces de fonctions et les théorèmes de trace en
fonction des propriétés géométriques du domaine.
Quelques mots s’imposent au sujet de la théorie des distributions. Parmi tous les travaux ayant
valus à leur auteur la médaille Fields, la théorie des distributions de Laurent Schwartz est l’une des
très rares à être abordable par les étudiants dès leur premier cycle universitaire. C’est une partie
de l’explication du réel engouement pour les distributions, l’autre partie étant sa puissance, sa
commodité d’usage et surtout sa très grande beauté.
Si cette théorie fournit aux analystes un cadre général et un formalisme agréable pour l’étude
des espaces fonctionnels et des équations aux dérivées partielles dans lesquels ils aiment à se placer,
elle n’est pourtant pas indispensable. D’une part, les spécialistes d’équations aux dérivées partielles
parviennent toujours à trouver des formulations bien adaptées à leurs problèmes, en s’inspirant des
idées sous-jacentes à la théorie des distributions, mais sans y avoir recours explicitement. D’autre
part, on peut étudier la plupart des espaces fonctionnels intéressants sans la notion de distribution :
5.1 Distributions
Une distribution (également appelée fonction généralisée) est un objet qui généralise la notion de
fonction et de mesure. La théorie des distributions étend la notion de dérivée à toutes les fonctions
localement intégrables et au-delà.
Histoire
Définition 45 — Distribution. Une distribution est une forme linéaire continue sur D./.
L’ensemble des distributions est donc le dual topologique de D./ et est par conséquent
noté D0 ./.
Remarque. L’espace des distributions est extrêmement grand, et contient tous les espaces fonctionnels que
nous avons mentionnés jusqu’à présent et leur dual, y compris les espaces à poids et les espaces locaux
(non présentés dans ce document).
Complément topologique. L’espace D n’est pas métrisable. Définir sa topologie n’est pas équivalent à
définir la convergence des suites. Cependant, dans la pratique c’est presque la seule notion de convergence
que l’on utilise.
Soit un ouvert de Rn . On muni D0 ./ de la topologie faible-* induite par D./. Alors :
0
– D ./ est un espace topologique complet (et un espace de Montel) ;
– Le dual topologique de D0 ./ s’identifie à D./, qui est donc réflexif ;
– La topologie de D0 ./ n’est pas métrisable.
Notons que la convergence dans le dual de n’importe quel espace de Sobolev implique la convergence
au sens des distributions.
Toujours aussi classiquement, si T est une distribution et ' une fonction test de D./ alors
on note T.'/ D hT; 'i. (où h; i désigne comme d’habitude le crochet de dualité). Dans D0 .R/,
l’application qui à ' associe '.0/ est une distribution et c’est la distribution de Dirac :
hı; 'i D '.0/ (5.2)
Une propriété fondamentales est que toute fonction localement intégrable f représente aussi une
distribution Tf définie par la forme intégrale suivante :
Z
hTf ; 'i D f .x/'.x/ dx; 8' 2 D./ (5.3)
R
Cette définition étend la notion classique de dérivée : chaque distribution devient indéfiniment
dérivable et l’on peut montrer les propriétés usuelles des dérivées.
Cette notion peut aussi se définir comme la dérivée du produit de dualité hS; 'i. On note 'h W
x ! '.x h/ la translatée de ' par la valeur h 2 R, alors, en utilisant la linéarité et la continuité
par rapport au deuxième terme :
dS hS; 'h i hS; 'i 'h ' d'
h ; 'i D lim D hS; lim iD hS; i (5.6)
dx h!0 h h!0 h dx
Exemples de calculs avec les distributions. Considérons la fonction f .x/ D jxj sur R. Alors f 0 est la
fonction « signe », f 00 D 2ı0 , f 000 vaut 2 fois l’application « évaluation de la dérivée en 0 ». Attention
donc à ne pas confondre ces dérivées au sens des distributions avec les dérivées presque partout, qui sont
nulles à partir du rang 2.
Soit f .x/ D x log jxj x dans R, alors on peut écrire, au sens des distributions, f 0 .x/ D log jxj,
00
f .x/ D v:p:.1=x/ (où v:p: est la valeur principale).
Soit .un / la suite de fonctions définie par un .x/ D .1=n/si n.nx/. Alors la famille .u0n / converge au
sens des distributions vers 0.
où ˛ est un multi-indice tel que 0 6 j˛j 6 m , D˛ u est une dérivée partielle de u au sens faible
(i.e. au sens des distributions) et Lp un espace de Lebesgue.
est une norme équivalente à la précédente. On utilisera donc indifféremment l’une de ces normes,
et on notera la norme employée k kWm;p ou plutôt k km;p .
Si p < 1, alors Wm;p ./ est identique à la fermeture de l’ensemble fu 2 Cm ./I kukm;p <
1g par rapport à la norme kkm;p où Cm ./ désigne l’espace de Hölder des fonctions de classe m
sur .
Remarque. Le théorème de Meyers-Serrin dit « H D W » (qui est le titre de leur article de 1964 [57])
montre l’équivalence de deux définitions des espaces de Sobolev Wm;p ./ D Hm;p ./, i.e. dans notre
cas, donne une définition équivalente, par complétion de l’espace vectoriel normé :
0 11=p
1 ˛ p
X
fu 2 C ./I kukHm;p < 1g avec kukHm;p WD @ kD ukLp A (5.10)
j˛j6m
où D˛ u est une dérivée partielle de u au sens classique (u 2 C1 ./).
Définition 48 — Espace Hm ./. Dans le cas p D 2, on note Hm ./ l’espace Wm;2 ./, défini
par la relation (5.7).
Les espaces de Sobolev Hm ont un intérêt particulier car il s’agit alors d’espaces de Hilbert.
Leur norme est induite par le produit intérieur suivant :
X
D˛ u; D˛ v
.u; v/m D (5.11)
06j˛j6m
où :
Z
.u; v/ D u.x/v.x/ dx (5.12)
est le produit intérieur dans L2 ./ ; produit scalaire dans le cas réel, hermitien dans le cas complexe.
Théorème 29 Si est Lipschitzien, alors l’ensemble C1 ./ des fonctions régulières jusqu’au
bord de est dense dans Hm ./.
Complément. De plus, dans le cas où la transformation de Fourier peut être définie dans L2 ./, l’es-
pace Hk ./ peut être défini de façon naturelle à partir de la transformée de Fourier (voir cours sur le
traitement du signal). Par exemple si D Rn , si b u est la transformée de Fourier de u :
Z
Hm Rn D fu 2 L2 Rn I juO ./ ˛ j2 d < 1
(5.13)
Rn
pour j˛j 6 mg, ou ce qui est équivalent :
Z m
Hm Rn D u 2 L2 Rn I juO ./ j2 1 C 2
d < 1 (5.14)
Rn
et que :
Z m
.u; v/m D O v./
u./ O 1 C 2 d (5.15)
Rn
est un produit hermitien équivalent à celui défini plus haut. Encore, si D 0 I 1Œ, on vérifie que :
C1
( )
m 2 2 4 2m 2
X
H .0 I 1Œ/ D u 2 L .0 I 1Œ/I .1 C n C n C C n /jb un j < 1 (5.16)
nD 1
Définition 49 — Espace Hm m m
0 ./. On définit H0 ./ comme l’adhérence dans H ./ de D./,
ensemble des fonctions de classe C1 et à support compact dans .
m;p
Plus exactement et de manière générale, W0 est l’adhérence de D./ dans l’espace Wm;p . La
définition ci-dessus correspond donc au cas p D 2.
Remarque. Il faut bien comprendre que cela signifie quelque chose de simple : c’est l’ensemble constitué
des fonctions qui sont à la fois D./ et Hm ./. Comme on s’intéresse à la frontière (puisque l’on prend
l’adhérence), et que est un ouvert, la valeur que prennent les fonctions de cet ensemble sur la frontière
est celle que prennent les fonctions de classe C1 et à support compact dans , soit 0 !
muni de la norme :
0 1 12
X
kf kH m D inf @ kf˛ kL22 A (5.20)
j˛j6m
l’infimum étant pris sur toutes les décompositions possibles de f sous la forme intervenant dans
la définition de H m .
Ainsi défini, l’espace H m ./ est un espace de Hilbert isomorphe au dual topologique de Hm
0 ./,
et le crochet de dualité s’écrit :
X Z
˛
hf; uiH m ;H0 D
m . 1/ f˛ @˛ udx; 8f 2 H m ./; 8u 2 Hm 0 ./ (5.21)
j˛6m
C1 ./ est donc l’espace des fonctions C1 sur , prolongeables par continuité sur @ et
dont le gradient est lui-aussi prolongeable par continuité. Il n’y a donc pas de problème pour
définir la trace de telles fonctions.
— On montre que, si est un ouvert borné de frontière @ « assez régulière », alors C1 ./ est
dense dans H1 ./.
— L’application linéaire continue, qui à toute fonction u de C1 ./ associe sa trace sur @, se
prolonge alors en une application linéaire continue de H1 ./ dans L2 .@/, notée
0 , qu’on
appelle application trace. On dit que
0 .u/ est la trace de u sur @.
Pour une fonction u de H1 ./ qui soit en même temps continue sur , on a évidemment
0 .u/ D
uj@ . C’est pourquoi on note souvent par abus simplement uj@ plutôt que
0 .u/.
De manière analogue, on peut définir
1 , l’application trace qui permet de prolonger la définition
usuelle de la dérivée normale sur @. Pour u 2 H2 ./, on a @i u 2 H1 ./, 8i D 1; : : : ; n et on
peut donc définir
0 .@i u/. La frontière @ étant « assez régulière » (par exemple, idéalement, de
classe C1 ), on peut définir la normale n D .n1 ; : : : ; nn /T en tout point de @. On pose alors :
n
X
1 .u/ D
0 .@i u/ni (5.23)
i D1
Cette application continue
1 de H2 ./ dans L2 .@/) permet donc bien de prolonger la définition
usuelle de la dérivée normale. Dans le cas où u est une fonction de H2 ./ qui soit en même temps
dans C1 ./, la dérivée normale au sens usuel de u existe, et
1 .u/ lui est évidemment égale. C’est
pourquoi on note souvent, par abus, @n u plutôt que
1 .u/.
Cas p D 2 et D Rn
Dans ce cas, l’espace de Sobolev Hs .Rn /, s > 0, peut être défini grâce à la transformée de Fourier :
Z
s n 2 n 2 s 2
H .R / D u 2 L .R /W .1 C jj / ju./j
O d < C1 : (5.24)
Rn
Cas p ¤ 2 et D 0 I 1Œ
On définit un opérateur Ds de dérivation d’ordre fractionnaire s par :
1
X
s
D uD .i n/sb
u.n/ei nt (5.27)
nD 1
n’irons guerre au delà de m D 2, et même le plus souvent nous nous contenterons de m D 1. Nous
donnons ici quelques compléments dans ce dernier cas.
En pratique, il est très important de savoir si les fonctions régulières sont denses dans l’espace
de Sobolev H1 ./. Cela justifie en partie la notion d’espace de Sobolev qui apparaît ainsi très
simplement comme l’ensemble des fonctions régulières complétées par les limites des suites de
fonctions régulières dans la norme de l’énergie. Cela permet de démontrer facilement de nombreuses
propriétés en les établissant d’abord sur les fonctions régulières puis en utilisant un argument de
densité.
Par définition de H10 ./, et en prenant en compte une remarque précédente :
On voit que sur cet espace, la condition de Dirichlet est satisfaite automatiquement sur tout le
pourtour D @. La frontière est généralement partitionnée en deux sous-frontière D et N sur
lesquelles on satisfait les conditions de Dirichlet et de Neumann respectivement : D D [ N
Grâce à H 1 ./, on pourrait définir une nouvelle notion de dérivation pour les fonctions de L2 ./,
plus faible encore que la dérivée faible. Devant l’afflux de notions de dérivations, rassurons le
lecteur en disant qu’elles sont toutes des avatars de la dérivation au sens des distributions (c’est
l’intérêt de la théorie des distribution que d’avoir unifié ces divers types de dérivation).
L’exemple le plus simple à retenir, et le plus utile pour la suite, est que tout élément f
de H 1 ./ s’écrit, au sens des distributions, sous la forme :
f D u C div G (5.33)
On se contente ici de donner les résultats concernant l’espace H1 ./ même si des résultats
similaires peuvent êtres démontrés pour les espaces Hm ./ ou les espaces W1;p ./, avec p ¤ 2
(voir théorème 32). Soit un ouvert borné Lipschitzien de Rn .
1
— si n D 1, on a une injection continue de H1 ./ dans l’espace de Hölder C0; 2 ./ ;
— si n D 2, on a une injection continue de H1 ./ dans l’espace Lp ./ pour tout p < 1 (et
donc pas dans L1 ./.
— si n > 3, on a une injection continue de H1 ./ dans l’espace Lp ./ avec p D n2n2 .
De plus les injection non critiques sont compactes.
Comme on va s’intéresser par la suite à la discrétisation de problème aux dérivées partielles, le
cadre de domaines bornés nous suffira.
Définition 51 — Espace H.div; /. L’espace H.div; / est un espace intermédiaire entre L2 ./
et H1 ./, qui est défini par :
En particulier pour p D 2 :
Cette inégalité est assez puissante puisqu’elle contient, dans son membre de gauche, toutes les
dérivées partielles de v, alors que son membre de droite ne fait intervenir que certaines combinaisons
linéaires des dérivées partielles.
L’inégalité inverse de l’inégalité de Korn étant évidente, on en déduit que les deux membres
définissent des normes équivalentes.
Histoire
En mécanique, l’inégalité de Korn dit que l’énergie élastique (qui est proportionnelle à la norme
du tenseur des déformations dans L2 ./) contrôle (i.e. est supérieure à) la norme du déplacement
dans H1 ./ à l’addition près de la norme du déplacement dans L2 ./. Ce dernier point permet
de prendre en compte les « mouvements de corps rigides », i.e. les déplacements u non nuls mais
d’énergie élastique nulle.
n
X
Le produit scalaire défini par hx; yi D xi yi a pour norme induite la norme k k2 .
i D1
Soit E un espace vectoriel et .xn /n une suite de E. .xn /n est une suite de Cauchy ssi 8" >
0; 9N; 8p > N; 8q > N W kxp xq k > ".
Toute suite convergente est de Cauchy. La réciproque est fausse.
Un espace vectoriel est complet si et seulement si toute suite de Cauchy y est convergente.
Un espace de Banach est un espace normé complet.
Un espace de Hilbert est un espace préhilbertien complet.
Un espace euclidien est un espace de Hilbert de dimension finie.
Espaces fonctionnels
Un espace fonctionnel est un espace vectoriel dont les éléments sont des fonctions.
Ces formes sont des normes sur Lp ./ et en font des espaces de Banach (i.e. complets).
Dans le cas particulier p D 2, on ontientq l’espace L2 ./ des fonctions de carré sommable pp.
R
sur . On remarque que le norme kukL2 D 2
u est induite par le produit scalaire .u; v/L2 D
2
R
uv, ce qui fait de l’espace L ./ un espace de Hilbert.
Dérivée généralisée
Les éléments des espaces Lp ne sont pas nécessairement des fonctions très régulières. Leurs
dérivées partielles ne sont donc pas forcément définies partout. C’est pourquoi on va étendre la
notion de dérivation. Le véritable outil à introduire pour cela est la notion de distribution. Une idée
simplifiée en est la notion de dérivée généralisée (certes plus limitée que les distributions, mais
permettant de sentir les aspects nécessaires pour aboutir aux formulations variationnelles).
Fonctions tests
On note D./ l’espace des fonctions de vers R, de classe C1 , et à support compact inclus
dans . D./ est parfois appelé espace des fonctions-tests.
Théorème : D./ D L2 ./
Dérivée généralisée
Soit u 2 C1 ./ et v 2 D./. Par intégration par parties (ou Green) on a l’égalité :
Z Z Z Z
@i u' D u@i ' C u' n D u@i '
@
(car ' est à support compact donc nulle sur @).
Le terme u@i ' a un sens dès que u 2 L2 ./, donc @i u' aussi, sans que u ait besoin
R R
Trace
Dans les problèmes physiques que nous rencontrerons (voir partie 2), nous devrons pouvoir imposer
des conditions aux limites. Ceci est vrai, que l’on s’intéresse aux formulations forte ou faible.
Pour cela, il faut que la valeur d’une fonction sur la frontière soit définie. C’est justement ce
que l’on appelle sa trace. La trace est le prolongement d’une fonction sur le bord de l’ouvert .
De manière analogue, il est possible de prolonger la définition de la dérivée normale sur le
contour de , ce qui permet de prendre en compte des conditions aux limites de type Neumann par
exemple.
Inégalité de Poincaré : Si est borné dans au moins une direction, alors il existe une
constante C./ telle que 8u 2 H10 ./ ; kuk0 6 C./juj1 . On en déduit que j:j1 est une norme
sur H10 ./, équivalente à la norme k k1 .
Corollaire : Le résultat précédent s’étend au cas où l’on a une condition de Dirichlet nulle
seulement sur une partie de @, si est connexe.
On suppose que est un ouvert borné connexe, de frontière C1 par morceaux. Soit V D
fv 2 H1 ./I v D 0 sur 0 g où 0 est une partie de @ de mesure non nulle. Alors il existe une
constante C./ telle que 8u 2 V ; kuk0;V 6 C./juj1;V , où k k0;V et j:j1;V sont les norme
et semi-norme induites sur V. On en déduit que j:j1;V est une norme sur V équivalente à la
norme k k1;V .
73 PROBLÈME CONTINU II
Chapitre 6
6.1 Introduction
Une équation différentielle est une relation entre une ou plusieurs fonctions inconnues et leurs
dérivées. L’ordre d’une équation différentielle correspond au degré maximal de dérivation auquel
l’une des fonctions inconnues a été soumise.
Pour les méthodes explicites de résolution des équations différentielles, on ira voir au chapitre C.
Histoire
Les problèmes posés ou menant à des équations différentielles sont aussi vieux que l’analyse elle-
même (XVIIe-XVIIIe, voir notes précédentes sur les fonctions et sur la continuité et la dérivabilité).
Avant même qu’on ait complètement élucidé la question des infiniment petits l’on se préoccupe déjà
de résoudre des problèmes de tangente, qui mènent invariablement à une équation différentielle. Dès
les débuts de la mécanique classique, dite newtonienne, on est confronté à l’intégration de systèmes
d’équations différentielles du second ordre (voir exemples ci-dessous).
On s’habitue progressivement à ce que l’inconnue d’une équation puisse être une fonction,
même si la fonction a encore à l’époque un statut flou.
On résout les équations différentielles
par la méthode des séries entières sans s’en-
combrer des notions de convergence, bien
que l’on entrevoit parfois certaines diffi-
cultés dues justement à ces problèmes de
convergence... et on en arrive presque aux
séries asymptotiques qui ne seront concep- Riccati Clairaut D’Alembert Euler
tualisées qu’au XIXe siècle.
Un autre problème reste d’écrire, à l’aide de fonctions simples, les solutions des équations
différentielles. La liste des équations différentielles que l’on sait résoudre de cette manière est plutôt
maigre : Leibniz et sa méthode de décomposition en éléments simples, les Bernouilli et les équations
différentielles linéaires du premier ordre, puis Riccati...
La découverte par Clairaut en 1734 de l’existence d’une solution singulière à l’équation y
xy 0 C f .y 0 / D 0 (à la famille de droites y D Cx C f .C/ qui est l’expression générale des courbes
intégrales, il faut adjoindre l’enveloppe de cette famille pour avoir toutes les solutions analytiques de
l’équation) relance la dynamique. D’Alembert, en 1748, trouve un second cas d’intégrale singulière.
Si l’on considère une fonction f , sa dérivée f 0 exprime sa variation : positive f est croissante
(et plus sa value est grande, plus la croissance est rapide), négative f est décroissante...
À partir de là on peut considérer une population de personnes. Le nombre de total de personnes à
un instant t est donné par f .t /. Plus la population est nombreuse, plus elle se reproduit : en d’autres
termes, la vitesse de croissance de la population est proportionnelle à la taille de la population. On
peut donc écrire :
f 0 .t / D k f .t / (6.1)
C’est une équation différentielle très simple, mais qui modélise le problème dit de dynamique de
population.
Un autre problème simple, toujours en dynamique des populations, est celui de deux populations
interdépendantes : les proies g.t / et le prédateurs m.t /. Les proies se reproduisent et sont mangées
par les prédateurs, alors que les prédateurs meurent sauf s’ils peuvent manger des proies.
Cela conduit au système de Lotka-Volterra :
(
g 0 .t / D A g.t / B g.t / m.t /
(6.2)
m0 .t / D C m.t / C D g.t / m.t /
où il est nécessaire de résoudre les équations simultanément (on dit que les équations sont couplées).
Pour revenir à des exemples plus connus des lecteurs, on n’oubliera pas que la relation fonda-
mentale de la dynamique de Newton :
xR D c xP !2x (6.4)
Concernant les équations aux dérivées partielles, elles sont initialement résolues par des méthodes
ad-hoc, le plus souvent géométriques. On n’écrit pas l’équation aux dérivées partielles linéaires. On
ne s’étonnera donc pas que la première équation aux dérivées partielles n’apparaisse qu’assez tard.
La théorie de l’intégration des équa-
tions aux dérivées partielles du premier
ordre ne date que de 1734. L’idée d’Eu-
ler est de ramener ladite intégration à celle
des équations différentielles ordinaires. Eu-
ler montre qu’une famille de fonctions dé-
pendant de deux paramètres vérifie une Cauchy Lipschitz Dirichlet Neumann
équation aux dérivées partielles du premier
ordre en éliminant ces paramètres entre les dérivées partielles. Inversement, une telle équation admet
une solution dépendant d’une fonction arbitraire. Il parvient ainsi à intégrer plusieurs équations de
ce type.
Lagrange, dans un mémoire de 1785, résume les connaissances de l’époque sur ces questions. Il
ne sait intégrer que onze types d’équations aux dérivées partielles du premier ordre.
La solution de l’intégration de ces équations allait venir d’un mathématicien peu connu, mort en
1784, Paul Charpit. Son mémoire, présenté en 1784 à l’académie des sciences n’a jamais été publié
et est resté longtemps une énigme. Une copie de ce mémoire a été trouvée en 1928.
@2 u @2 u @2 u @u @u
˛ 2
C ˇ C
2
Cı C C
u D f (6.6)
@x @x@y @y @x @y
où ˛, ˇ,
, ı, ,
sont des scalaires. Cette équation est dite :
— elliptique si ˇ 2 4˛
> 0 ;
— parabolique si ˇ 2 4˛
D 0 ;
— hyperbolique si ˇ 2 4˛
< 0.
On peut dire que :
— les problèmes elliptiques vont concerner les problèmes stationnaires tels que ceux de la
mécanique, la thermique, l’électrostatique, les membranes élastiques, l’écoulement potentiel ;
— les problèmes paraboliques vont concerner les modèles instationnaires tels que la diffusion
thermique (équation de la chaleur), chimique, neutronique, les fluide visqueux incompres-
sibles (on parlera d’irréversibilité, de décroissance, de principe du maximum, de propagation
à vitesse infinie) ;
— les problèmes hyperboliques vont concerner les modèles instationnaires tels que la propa-
gation des ondes, l’électromagnétisme, l’élastodynamique (on parlera de réversibilité, de
conservation de l’énergie, de propagation à vitesse finie).
Le déplacement des atomes, ions ou molécules dans un milieu, que celui-ci soit solide (cristallin ou
amorphe), liquide ou gazeux, est appelé de manière générale « migration ».
Au sens large la diffusion désigne des transferts obéissant aux lois de
Fick, i.e. dont la résultante macroscopique vérifie l’équation de diffusion.
La turbulence entraine ainsi une forte diffusion dans les fluides. La
diffusion moléculaire est la migration sous l’effet de l’agitation thermique,
à l’exception des autres phénomènes. Elle intervient par exemple dans des
procédés d’amélioration des caractéristiques mécaniques (traitements de
surface comme la nitruration ou cémentation), la résistance à la corrosion Brown Fick
et les procédés d’assemblage par brasage.
En 1827, le botaniste Robert Brown observe le mouvement erratique de petites particules de
pollen immergées dans de l’eau. Il ne s’agit pas d’un phénomène de diffusion, puisque ce qui bouge
est une particule macroscopique, mais cette « marche aléatoire », que l’on appellera « mouvement
brownien », servira de modèle pour la diffusion : Le mouvement brownien, ou processus de Wiener,
est le mouvement aléatoire d’une « grosse » particule immergée dans un fluide et qui n’est soumise à
aucune autre interaction que des chocs avec les « petites » molécules du fluide environnant. Il en
résulte un mouvement très irrégulier de la grosse particule. Ce mouvement, qui permet de décrire
avec succès le comportement thermodynamique des gaz (théorie cinétique des gaz), est aussi très
utilisé dans des modèles de mathématiques financières.
En 1855, Adolph Fick propose des lois phénoménologiques, empiriques, inspirées de la loi
de Fourier pour la chaleur (établie en 1822). C’est Albert Einstein qui démontrera les lois de Fick
en 1905 avec ses travaux sur la loi stochastique. La première loi de Fick énonce que « le flux de
diffusion est proportionnel au gradient de concentration ».
' D 0 (6.7)
Elle est elliptique. Elle apparaît dans de nombreux problèmes physiques : astronomie, électrosta-
tique, mécanique des fluides, propagation de la chaleur, diffusion, mouvement brownien, mécanique
quantique. Les fonctions solutions de l’équation de Laplace sont appelées les fonctions harmoniques.
Toute fonction holomorphe est harmonique.
L’équation de Poisson est l’équation :
' D f (6.8)
où f est une fonction donnée. Elle est elliptique. Par exemple, en électrostatique, on exprime le
potentiel électrique V associé à une distribution connue de charges (dans le vide) par la relation :
V D (6.9)
0
En gravitation universelle, le potentiel gravitationnel ˆ est relié à la masse volumique par la
relation :
ˆ D 4 G (6.10)
En dépit des railleries de Hugo et Stendhal Joseph Fourier laissera son nom à la postérité à plus d’un
titre :
en tant qu’égyptologue, une spécialité qu’il bouleverse à la suite de sa
participation à l’expédition napoléonienne de 1798 (en 1810, il créera
l’Université Royale de Grenoble, dont il deviendra le recteur, et y re-
marquera Jean-François Champollion. Ils sont enterrés au cimetière
du Père-Lachaise à côté l’un de l’autre) ; en tant qu’homme politique
puisqu’il est préfet d’Isère sous Napoléon Bonaparte et sous la Restau-
ration ; en tant qu’administrateur, comme réorganisateur des statistiques Fourier Champollion
françaises ; et enfin en tant que scientifique, la consécration de sa car-
rière étant son élection au poste de secrétaire perpétuel de l’Académie des Sciences. Pour tous les
mathématiciens, il reste le fondateur de l’analyse de Fourier, qu’il crée au début du XIXe siècle pour
étudier mathématiquement la répartition de chaleur dans un corps conducteur.
Quelques repères chronologiques : En 1807, Fourier écrit l’équation de la chaleur. En 1808,
son mémoire est accepté par l’Académie des Sciences en dépit de sérieuses critiques concernant la
rigueur des démonstrations (Fourier a en particulier une controverse avec Poisson). En 1822 a lieu la
publication du Traité analytique de la chaleur, version remaniée et augmentée de son mémoire, qui
s’imposera comme l’un des ouvrages scientifiques majeurs du dix-neuvième siècle.
uP u D f (6.17)
Elle est parabolique.Pour que le problème soit bien posé, il faut spécifier :
— une condition initiale :
— de Neumann :
@T.x; t /
8x 2 @; D n.x/ rT.x; t / D 0 (6.20)
@n
où n.x/ est le vecteur normal unitaire au point x.
L’équation de la chaleur, introduite initialement pour décrire la conduction thermique, permet de
décrire le phénomène de diffusion. La diffusion est un phénomène de transport irréversible qui se
traduit à terme par une homogénéisation de la grandeur considérée (par exemple la température
dans un domaine, la concentration en produits chimiques dans une solution...). D’un point de vue
phénoménologique, et au premier ordre, ce phénomène est régi par une loi de Fick (par exemple
sorption d’eau dans les matériaux composites, diffusion d’actifs au travers de la peau). Dans
l’équation précédente, T représente alors la répartition de la grandeur considérée (eau dans un
composite, concentration d’un constituant chimique...) et le terme source dans est souvent nul
(i.e. f D 0).
Histoire
Des 23 problèmes de Hilbert énoncés en 1900, la moitié est aujourd’hui complètement résolue, l’un
a été démontré indécidable, cinq ne le sont pas du tout, les autres étant partiellement traités.
Des sept problèmes de l’institut Clay
(ou problèmes du prix du millénaire, do-
tés chacun d’un million de dollars améri-
cains) énoncés en 2000, seule la conjecture
de Poincaré a été démontrée en 2003 par
Grigori Perelman (qui a refusé le prix, ainsi
que la médaille Field. D’ailleurs il n’a pas Navier Stokes Perelman Ricci
publié son travail dans un journal, mais l’a
rendu publique et gratuit sur internet...). Notons au passage que Grigori Perelman est analyste, i.e.
un spécialiste des équations aux dérivées partielles, un sujet que beaucoup de topologues avaient
l’habitude de regarder de loin. Ils ont changé d’avis depuis !
u C rp D f (6.23)
On rappelle que si de plus le fluide est incompressible, alors on a également div u D 0 dans .
Contrairement à l’équation de Navier-Stokes, l’équation de Stokes est linéaire. Les écoulements
solutions de cette équation possèdent par conséquent des propriétés bien particulières :
unicité : pour des conditions aux limites données (valeur de la vitesse au niveau des parois et/ou à
l’infini), il existe un et un seul écoulement vérifiant l’équation de Stokes ;
additivité : les solutions de l’équation de Stokes vérifient le principe de superposition : si u1 et u2
sont solutions, alors toute combinaison linéaire 1 u1 C 2 u2 le sera aussi (ceci n’est pas
incompatible avec la propriété d’unicité : seul l’écoulement vérifiant les bonnes conditions
aux limites sera observé) ;
réversibilité : si un champ de vitesse u est solution de l’équation, alors u l’est aussi, à condition
de changer le signe des gradients de pression, ainsi que des vitesses aux parois et à l’infini ;
cette propriété est contraire à l’intuition, fondée sur notre expérience des écoulements
macroscopiques : la réversibilité des écoulements à bas nombre de Reynolds a ainsi poussé
les êtres vivants de très petite taille à développer des moyens de propulsion originaux.
paradoxe de Stokes : il faut prendre garde au fait que les solutions mathématiques de l’équation
de Stokes, dans un cas donné ou dans certaines régions du domaine de solution, peuvent
être physiquement fausses. Ceci est dû au « paradoxe de Stokes » à savoir que les conditions
physiques permettant de ramener l’équation de Navier-Stokes à l’équation de Stokes ne sont
pas nécessairement réalisées dans tout le domaine de solution, à priori. On aboutit alors à
des solutions présentant des comportements potentiellement aberrants dans certaines limites.
C’est le cas par exemple « à l’infini » où souvent le terme inertiel finit par l’emporter sur le
terme visqueux, sans qu’on puisse le préjuger à priori.
uP C rp D f (6.24)
Bien que ces équations correspondent à une simplification de l’équation de Navier-Stokes, elles
n’en sont pas plus stables... bien au contraire.
Si l’on considère le cas scalaire, i.e. celui d’une fonction inconnue u définie sur un domaine
ouvert R2 , une équations aux dérivées partielles elliptique linéaire se met sous la forme :
a.x; y/uxx .x; y/Cb.x; y/uyy .x; y/Cc.x; y/ux .x; y/Cd.x; y/uy .x; y/Ceu.x; y/ D f .x; y/
(6.26)
n
X n
X
Lu D aij .x/uxi xj .x/ C bi .x/uxi .x/ C c.x/u.x/ (6.28)
i D1;j D1 i D1
avec les valeurs propres de la matrice A D aij qui sont toutes non nulles et de même signe. On
rappelle que le matrice A peut toujours être choisie symétrique du fait de la symétrie uxi xj D uxj xi
et donc que les valeurs sont réelles.
D’ailleurs, en dimension finie, le fait que toutes les valeurs propres sont strictement positives
est équivalent au fait que la matrice A est définie positive.
II PROBLÈME CONTINU 6.6 Équations de la mécanique des milieux continus des solides 86
Flux conservatif
Les équations aux dérivées partielles elliptiques conduisent à la notion physique de flux conservatif
donné par un gradient. Considérons le cas scalaire. On associe à la fonction u.x/ un flux q.x/ qui
est nul vers l’extérieur :
Z
q.x/ nx ds D 0; 8 volume ! (6.29)
ı!
R
En utilisant la formule de divergence-flux, il vient : ! divx q.x/dx D 0, et en supposant la
fonction q.x/ suffisamment régulière on en déduit divx q.x/ D 0, 8x 2 .
En supposant que ce flux est une fonction linéaire du gradient ru, et qu’il est orienté dans
la direction opposée (physiquement, les flux se font souvent de façon opposée au gradient d’une
grandeur), on écrit q.x/ D a.x/ru et on obtient une loi de conservation à l’équilibre du type :
div.a.x/ru.x// D 0 (6.30)
Pour a.x/ 1, on retrouve la plus simple des équations elliptiques, l’équation de Laplace :
Le raisonnement précédent peut être mené en considérant les lois de conservations dans les milieux
continus. Les ingrédients principaux qui vont nous conduire à une grande famille d’équations
elliptiques sont les suivants :
— Conservation d’une grandeur ;
— Milieu immobile et régime stationnaire ;
— Loi de comportement linéaire entre le flux de cette grandeur et le gradient.
Les deux premières notions sont souvent associées à l’équilibre d’un système.
@
.u/ C div.uv/ D 'u div jU (6.33)
@t
Cette équation de conservation local peut, en utilisant la conservation de la masse, se mettre sous la
forme :
Du
D 'u div jU (6.34)
Dt
Du @u @u
D C ru.x; t / v.x; t / D (6.35)
Dt @t @t
@u
D 'u div jU (6.36)
@t
@u
Si de plus, on est en régime stationnaire, i.e. D 0, alors :
@t
En reportant cette loi dans l’équation de conservation, il vient div A.x; t /ru.x; t / D 'u, soit :
Cette équation est de type elliptique dès que l’opérateur A.x/ possède de bonnes propriétés de
positivité.
Équilibre général
j D A.x/ru (6.40)
où :
— la fonction scalaire inconnue u W 2 Rn ! R est appelée un potentiel ;
— la fonction vectorielle inconnue j W 2 Rn ! Rn est appelée un flux ;
— la fonction scalaire connue f W 2 Rn ! R correspond au termes sources du potentiel ;
— les fonctions scalaires connues A.x/ et c.x/ sont les données du problème.
Dans le cas vectoriel :
— u devient une fonction vectorielle 2 Rn ! Rn ;
— j un tenseur d’ordre 2 ;
— A.x/ un tenseur d’ordre 4 ;
— et c.x/ une fonction vectorielle.
II PROBLÈME CONTINU 6.6 Équations de la mécanique des milieux continus des solides 88
Retour sur les exemples précédents
Si u ! T est la température, j ! q le flux de chaleur, f la source de chaleur, A.x/ ! .x/
la conductivité du matériaux et c.x/ 0, on retrouve l’équation de la chaleur.
Si u ! V est le potentiel électrostatique, ru ! E le champ électrostatique, j ! D le
déplacement électrique ou flux de densité de courant, f ! la densité de charge, A.x/ ! .x/
le tenseur diélectrique et c.x/ 0, on retrouve la loi de Faraday.
Si u ! V est le potentiel électrique, ru ! E le champ électrique, j ! J la densité de
courant, f 0, A.x/ ! .x/ le tenseur de conductivité et c.x/ 0, on retrouve la loi d’Ohm.
Si u ! C est la concentration, j le flux molaire, f ! le taux d’absorption ou le taux
de réaction, A.x/ ! D.x/ la constante de diffusion et c.x/ la coefficient de réaction, alors on
retrouve le cas de la diffusion moléculaire.
Si u est le déplacement orthogonal, ru ! " la déformation, j ! la contrainte dans le
plan, f la force volumique extérieure, A.x/ ! H.x/ le tenseur des rigidités et c.x/ D 0, on se
retrouve dans le cas de l’élasticité plane (n D 2) linéaire.
limite élastique
composite
polymère
ε
F IGURE 6.1: Quelques lois types de comportement pour différents matériaux.
Dans le cas de matériaux isotropes (i.e. possédant les mêmes propriétés matérielles quelque
soit l’orientation), les relations constitutives s’écrivent à l’aide des coefficients de Lamé et :
II PROBLÈME CONTINU 6.6 Équations de la mécanique des milieux continus des solides 90
Si l’on considère un matériau constitué d’alvéoles (de
type hexagonal), mais dont les pointes sont rentrantes et
non sortantes (figure 6.3), alors le coefficient de Poisson
macroscopique de ce matériau est négatif : quand on le
comprime, il ne gonfle pas mais rétrécit.
On parle alors d’un matériau auxétique.
Matériau conventionnel Matériau auxétique
On voit bien que dans un tel cas, la différence de
comportement n’est due qu’à l’effet structurel, qu’à l’as- F IGURE 6.3: Matériau auxétique
semblage. Le matériau constituant les alvéoles lui, peut
(et est) tout à fait conventionnel : on trouve ce genre de
structures en carton, en aluminium et en acier, qui sont tous des matériaux homogènes isotropes.
Par exemple, la rigidité globale d’un assem-
Fibres
blage de couches de composites renforcés de fibres,
comme montré à la figure 6.4 peut conduire, selon
les orientations des plis, à des valeurs du coeffi-
cient de Poisson très variables, d’autant plus que
celles-ci sont fonctions du repère dans lequel elles
Plis
sont données (repère global, repère des fibres...)
Couche
Un stratifié unidirectionnel T300 fibre de car-
bone/résine époxyde 934 a un coefficient de Pois-
F IGURE 6.4: Matériau composite
son de seulement 12 D 0; 04.
Un stratifié unidirectionnel T300 fibre de car-
bone/résine N5208 a un coefficient de Poisson de 12 D 0; 3 dans le sens des fibres, mais de
12 D 0; 77 à 45˚.
En utilisant du verre (E D 69 GPa, D 0; 25) et de la résine époxyde (E D 3; 5 GPa, D 0; 4),
on peut réaliser un stratifié unidirectionnel verre-époxyde ayant pour propriétés El l D 45 GPa,
E t t D 12 GPa, Glt D 4; 5 GPa, lt D 0; 3 pour une fraction volumique de verre de 60%, et un
stratifié [0/90] ayant pour propriétés Ex D Ey D 20 GPa, Gxy D 2:85 GPa et xy D 0:13 pour
une fraction volumique de verre de 50%.
Notons également que si ¤ 0 et 3 C 2 ¤ 0, alors on peut inverser la relation contrainte/dé-
placement :
1
"ij D ij tr. /ıij (6.48)
2 3 C 2
Nous reviendrons plus tard sur ces aspects non linéaires au chapitre 19.
Une solution u du problème précédent est alors également solution du problème suivant
appelé formulation faible (On appelle v une fonction test) :
Z Z
Trouver une fonction u; définie sur ; vérifiant A.u/v D f v 8v définie sur :
(7.2)
Justification. Tout réside dans le fait de « multiplier par une fonction test et d’intégrer ». Pourquoi peut-on
faire ça ?
Partons de l’équation forte :
A.u/ D f; 8x 2 (7.3)
Nous pouvons multiplier les deux membres de l’équation par une fonction v à condition que cette fonction v
ne soit pas identiquement nulle. Dans ce cas, la solution de
A.u/v D f v; 8x 2 (7.4)
est la même 8v suffisamment sympathique. Comme cette seconde équation est vraie en tout point de ,
alors elle est encore vraie sous forme intégrale, i.e. sous forme faible, à condition que v soit suffisamment
régulière pour pouvoir être intégrée.
On entrevoit alors clairement la suite des opérations
R : si en plus d’être régulière, la fonction v est
différentiable, alors on va pouvoir réaliser sur le terme A.u/v une intégration par parties pour diminuer
les conditions de dérivabilité portant sur u, mais en augmentant celles portant sur v.
Si l’ordre de dérivation de u est paire (disons 2k), alors on pourra faire en sorte par un nombre
suffisant de manipulations que u et v aient à être différentiables à l’ordre k... et on pourra essayer de faire
en sorte que u et v appartiennent au même espace fonctionnel...
Remarque. Petit aparté sur d’autres manières de présenter « la chose » : en mécanique, on parle également
du « principe du travail virtuel » (ou des puissances virtuelles), de « minimisation de l’énergie potentielle »,
ou encore de « méthode des résidus pondérés », Toutes ces méthodes sont « équivalentes » à celle exposée
ici, mais souvent leur démonstration se fait uniquement « par les mains », ce qui peut être frustrant.
Principe des puissances virtuelles Le Principe des travaux virtuels est un principe fondamental
en mécanique, qui postule un équilibre de puissance dans un mouvement virtuel. Il s’agit d’une
formulation duale du principe fondamental de la dynamique. On raisonne comme suit : si un solide
est à l’équilibre (statique du solide), la somme des efforts est nulle. Donc si l’on fait faire un
déplacement fictif (virtuel) à l’objet, la somme des puissances des forces et moments est nulle. Ce
principe constitue la base d’une démarche de modélisation pour les milieux continus (théorie du
premier gradient, théorie du second gradient). On parle parfois du principe des travaux virtuels
qui est sensiblement identique.
Histoire
L’origine de ce principe revient à Jean Bernoulli, qui énonce en 1725 le principe des vitesses
virtuelles, qui consiste à considérer la perturbation de l’équilibre d’un système mécanique par un
mouvement infinitésimal respectant les conditions de liaison du système, un mouvement virtuel, et
d’en déduire une égalité de puissance.
Minimisation de l’énergie potentielle L’énergie potentielle d’un système physique est l’énergie
liée à une interaction, qui a le « potentiel » de se transformer en énergie cinétique.
Cette énergie est une fonction de ce système, dépendant des coordonnées d’espace, et éventuel-
lement du temps, ayant la dimension d’une énergie et qui est associée à une force dite conservative
dont l’expression s’en déduit par dérivation (ce qui veut dire au passage que dans les cas où
toutes les forces ne sont pas conservatives, par exemple s’il y a du frottement, alors la méthode ne
fonctionne pas et doit être « adaptée »). La différence entre les énergies potentielles associées à
deux points de l’espace est égale à l’opposé du travail de la force concernée pour aller d’un point
à l’autre, et ce quel que soit le chemin utilisé.
Méthode des résidus pondérés Si l’on considère l’équation A.u/ D f; 8x 2 sur , on ap-
pelle résidu des équations d’équilibre la quantité R.x/ D A.u/ f . Aux bords, on a les conditions
B.u/ D h; 8x 2 D @, et on appelle résidu des équations de bords la quantité R.x/ D B.u/ h.
En écrivant le problème dans et sur son contour de manière intégrale, on retombe sur une
formulation faible.
La méthode des résidus pondérés consiste à calculer les composantes de la solution approchée
par la projection sur des couples de fonctions de projection, appelées fonctions de pondération.
Selon les fonctions de pondération on retrouve les méthodes de collocation par sous-domaine
(fonctions constante sur chaque sous-domaine), de collocation par point (fonctions non nulles en
un seul point), des fonctions splines (en ajoutant des conditions des raccordements des fonctions et
des dérivées), de Galerkine (mêmes fonctions pour les fonctions de forme et de pondération).
Selon la nature du problème (donc selon la nature de l’opérateur A), la formulation faible (7.2)
peut être transformée (par exemple par intégration par parties), ce qui permet de faire apparaître une
forme symétrique ayant la nature d’un produit scalaire (ou d’un produit hermitien dans le cas de
fonctions complexes). Les deux fonctions u et v appartiennent alors à un même espace fonctionnel.
La formulation variationnelle d’un problème régi par des équations aux dérivées partielles
correspond à une formulation faible de ces équations qui s’exprime en termes d’algèbre linéaire
dans le cadre d’un espace de Hilbert.
Il n’y a donc fondamentalement pas de différence entre formulation faible et formulation
variationnelle, sauf que cette dernière appellation est généralement réservée à des cas « qui vont
bien »... et de manière très pragmatique aux cas où la formulation faible peut être transformée en
un problème de minimisation : on dit alors qu’il existe une fonctionnelle … dont la variation ı…
correspond au problème faible, d’où le terme de formulation variationnelle (d’un point de vue
physique, la fonctionnelle représente l’énergie du système, et le lieu où sa variation est nulle
ı… D 0 l’état recherché).
Par ailleurs, d’autres contraintes sur la frontière de peuvent (doivent) être imposées à u (et
à v). Ce sont les conditions aux limites. Les conditions aux limites types ont été présentées au
paragraphe 6.2.
Définition 56 — Coercitivité d’une forme linéaire. Une forme bilinéaire a est dite coercitive
si elle vérifie :
Autre démonstration. Une autre voie consiste à étudier directement le problème de minimisation de
1
la fonctionnelle définie par J D 2 a.v; v/ f .v/ (ce qui est une façon de montrer le théorème de
Riesz) en considérant une suite minimisante et en montrant qu’elle est de Cauchy par l’identité du
parallélogramme.
Ce théorème est l’un des fondements de la méthode des éléments finis dits « classiques » ou
« en déplacement ». Dans le cas d’éléments finis plus « exotiques » tels que les éléments mixtes,
hybrides, mixtes-hybrides et des multiplicateurs de Lagrange, on a besoin d’un peu plus... c’est ce
que nous allons voir aux paragraphes suivants.
La forme variationnelle du théorème de Lax-Milgram a déjà été abordée dans la seconde
« preuve » proposée du théorème de de Lax-Milgram. Il s’agit, dans les cas où cela est possible,
d’aborder le problème sous l’angle de la minimisation d’une fonctionnelle.
Pour les problèmes issus de la mécanique des solides déformables, la quantité 12 a.v; v/ repré-
sente l’énergie de déformation du solide associé à un « déplacement virtuel » v, et f .v/ l’énergie
potentielle des forces extérieures appliquées au solide pour le même déplacement virtuel v.
Histoire
Nous venons de voir le théorème de Lax-Milgram, fondement de la méthode des éléments finis,
publié dans leur article Parabolic equations de 1954 (Contributions to the theory of partial differential
equations, Annals of Mathematics Studies, no. 33, Princeton University Press, Princeton, N. J., 1954, pp.
167–190).
Plusieurs améliorations ont permis
d’étendre encore la portée de celle-ci. En
1971, dans son article Error-bounds for
finite element method (Numerische Mathematik
16 : 322–333), Babuška a généralisé le
théorème de Lax-Milgram aux problèmes
non nécessairement coercitifs (i.e. la forme Lax Babuška Brezzi Ladyjenskaïa
bilinéaire n’est plus supposée coercitive),
élargissant le champ d’application de la méthode des éléments finis.
Puis, en 1974, dans On the existence, uniqueness and approximation of saddle-point problems
arising from lagrangian multipliers, Brezzi a traité le cas où le problème n’est plus décrit à l’aide
d’une seule variable (u jusqu’à présent), mais à l’aide de plusieurs variables, ouvrant ainsi la porte
aux formulations mixtes. Ce faisant, il a eu besoin d’imposer des conditions, connues sous le nom
de conditions inf-sup, ou conditions BBL pour Babuška-Brezzi-Ladyjenskaïa (voir par exemple : O.
A.Ladyženskaya, On integral estimates, convergence, approximate methods, and solution in functionals for
elliptic operators. (Russian) Vestnik Leningrad. Univ. 13 1958 no. 7, 60–69).
Enfin, Brezzi a remplacé sa condition de V-ellipticité par des conditions de Babuška dans son
théorème généralisé.
Nous allons écrire la démarche de la démonstration car elle est typique de la résolution de ce
genre de problème.
Démonstration. On va se servir de H D V ˚ V? avec V D ker B où évidemment B est l’opérateur définit
de H dans M0 tel que : hBu; iM D b.u; /, 8 2 M. Pour le produit scalaire induit, V et V? sont des
Hilbert.
La solution cherchée est u D u0 C u? .
Les inconnues seront donc u0 , u? et .
On a les équations pour v0 , v? et . Pour v? l’équation est :
< a.u? ; v? / C a.u0 ; v? / C b.v? ; / D hf; v? i 8v? 2 V?
8
Or dans la seconde équation, b.v0 ; / D 0 car v0 2 ker b et dans l’équation 3, b.u0 ; / D 0 car u0 2 V.
On est ramené à 3 sous-problèmes :
— sous-problème 1 : chercher u? 2 V? tel que b.u? ; / D g./, 8 2 M, ce qui est effectivement
le cas d’après le théorème de Babuška ;
— sous-problème 2 : chercher u0 2 V tel que a.u0 ; v0 / D hf; v0 i a.u? ; v0 /, 8v0 2 V. Il suffit de
vérifier que le second membre définit un opérateur tel que l’on a bien les hypothèses du théorème
de Lax-Milgram ;
— sous-problème 3 : chercher 2 M tel que b.v? ; / D hf; v? i a.u; v? /, 8v? 2 V? . Il faut un
peu plus travailler pour vérifier que l’on est dans le cas d’application du théorème de Babuška, mais
ça se fait (une quinzaine de lignes en détail).
On peut remplacer les conditions de V-ellipticité sur a.; / par des conditions de Babuška.
a.u; v/
9˛ > 0 tel que : sup > ˛kukH2 ; 8u 2 V D ker B (7.21)
v2Vnf0g kvk
Pour vérifier la condition LBB, il est souvent plus simple de vérifier le critère suivant : la condition
inf-sup sur b.; / est équivalente à :
1
8 2 M; 9v 2 H (uniquement dans V? ) tel que : b.v; / D kk2 et kvk 6 kk (7.23)
ˇ
et que l’on pose les nouvelles variables U D .u; / et V D .v; /, alors on revient à un problème
de type Lax-Milgram : trouver U 2 H M tel que pour tout V 2 H M, A.V; U/ D L.V/.
Résumé — Nous allons maintenant reprendre les problèmes types exposés sous forme
forte dans le chapitre 6, pour leur appliquer les méthodes du chapitre précédent. Nous
obtiendrons alors les formulations faibles et variationnelles des mêmes problèmes.
Laplacien de Dirichlet
On considère l’équation de Poisson (Laplace si f D 0) avec les conditions aux limites de Dirichlet,
i.e. le problème suivant :
(
u D f dans
(8.1)
uD0 sur D @
Multiplier par une fonction test v et intégrer par parties (ou utiliser la formule de Green) conduit à :
@u
Z Z Z
ru rv vD fv (8.2)
@n
Comme, rappelons le, le but est de faire en sorte que u et v jouent un rôle symétrique, on veut donc
qu’ils aient même régularité et mêmes conditions aux limites. La régularité nécessaire est u et v
sont H1 ./, et la prise en compte des conditions aux limites conduit finalement à chercher u et v
dans H10 ./.
Le problème est donc :
Z Z
Trouver u 2 H10 ./ tel que 8v 2 H10 ./; ru rv D fv (8.3)
dont le second membre n’a de sens que si f 2 L2 ./, ce qui sera supposé. Notons que le problème
est également bien défini dans le cas où f 2 H 1 ./, car v 2 H10 ./.
Avec cette formulation, le théorème de Lax-Milgram permet de conclure à l’existence et à
l’unicité de la solution.
Comme nous l’avons vu au chapitre précédent, l’intérêt des problèmes symétriques, c’est qu’ils
peuvent s’interpréter en terme de minimisation.
La solution du problème initial est également la fonction u qui réalise le minimum de :
1
Z Z
2
min jruj fu (8.5)
u2H10 ./ 2
Laplacien de Neumann
On considère l’équation de Laplace-Poisson avec les conditions aux limites de Neumann, i.e. le
problème suivant :
8
< u D f dans
(8.8)
: @u D g sur D @
@n
On obtient immédiatement la formulation variationnelle suivante :
Z Z Z
Trouver u 2 H1 ./ tel que 8v 2 H1 ./; ru rv D fv C gv (8.9)
sous la forme :
Z Z Z
Trouver u 2 V tel que 8v 2 V; ru rv D fv C gv (8.11)
En utilisant l’inégalité de Poincaré-Wirtinger, on montre que le problème est bien coercitif et
donc qu’il admet une unique solution.
Remarquons que si la condition de compatibilité n’est pas vérifiée, alors la solution de la
dernière formulation résout bien le problème initial avec un f ou un g modifié d’une constante
additive, de manière à vérifier la condition de compatibilité.
Il y aurait lieu à quelques discussions sur l’interprétation des résultats, mais celle-ci serait
beaucoup plus abstraite que dans le cas du Laplacien de Dirichlet. Le lecteur désireux de rentrer
(à raison) dans ce genre de détails trouvera aisément un cours de M2 sur le sujet. Cela dépasse le
cadre que nous nous sommes fixé dans ce document.
On opère comme précédemment. Toutefois, nous faisons jouer à la variable de temps t et la variable
d’espace x des rôles différents : on considère la fonction u.t; x/ comme une fonction du temps,
à valeur dans un espace fonctionnel en x, et on prend comme fonctions tests des fonctions qui
dépendent seulement de la variable x. On obtient alors facilement la formulation variationnelle
suivante :
Z Z Z
1 d
Trouver u tel que 8v 2 H0 ./; uv C ru rv D fv (8.17)
dt
Pour donner un sens à cette formulation variationnelle, une certaine régularité de u est requise :
Pour résoudre le problème, il faut utiliser une méthode numérique. On montre l’existence puis
l’unicité par les estimateurs à priori. Nous détaillerons cela plus loin.
et
b W H10 ./n L2 ./ ! R
(8.23)
Z
.u; q/ 7! b.u; q/ D .div v/q
On introduit également l’espace L20 ./ des fonction L2 ./ à moyenne nulle :
Z
L20 ./ D q 2 L2 ./; qD0 (8.24)
La formulation variationnelle mixte (vitesse/pression) est alors : Trouver .u; p/ 2 H10 ./ L20 ./
tels que :
Notons que dans la seconde équation, la fonction test q pourrait de manière équivalente être
cherchée dans L2 ./ (pas besoin de la moyenne nulle).
Par contre, il est important de chercher p 2 L20 ./. C’est cette condition de pression nulle qui
assure l’unicité de la pression (comme dans le cas précédent du Laplacien de Neumann).
Il est possible de formuler ce problème de manière˚non mixte, i.e. sous une forme compatible
avec le théorème de Lax-Milgram. Considérons V D u 2 H10 ./n = div u D 0 dans . Alors u
ˆ
ˆ b.u.t /; q/ D 0 8q 2 Y (8.31)
:
u.0/ D u0
où c W X X X ! R est la forme trilinéaire définie par :
n Z
@zi
Z X
c.w; z; v/ D Œ.w r/z v D wj vi (8.32)
@x j
i;j D1
Cette forme trilinéaire a certaines propriétés, par exemple lorsque l’on permute des termes où
lorsque l’on considère que certaines variables sont à divergence nulle...
Pour des raisons de stabilité, la forme c est remplacée par le forme cQ définie par :
1
cQ D .c.w; z; v/ c.w; v; z// (8.33)
2
Q
qui est antisymétrique et possède par conséquent la propriété c.w; z; z/ D 0, 8w; x; z 2 X.
Nous ne rentrons pas plus avant dans la méthode, car il faudrait alors parler dès à présent du
schéma numérique associé, ce qui sera fait plus tard.
< @u C .u r/u C rp D f
8
dans RC
@t (8.34)
div u D 0 dans RC
:
On considérera qu’il s’agit d’un cas simplifié de Navier-Stokes, et on le traitera comme tel.
uDu
8
ˆ sur D déplacement imposé
ˆ
ˆ
< n.x/ D g sur N condition sur le bord
N
(8.36)
ˆ
ˆ
ˆ P D 0/ D uP 0
u.t condition initiale en vitesse
:
u.t D 0/ D u0 condition initiale en déplacement
Nous sommes restés très prudents sur l’appartenance des différentes grandeurs à des espaces, car
cela dépend du choix des variables.
Notons que pour prouver la coercitivité de la forme bilinéaire, il faut recourir à l’inégalité de Korn.
Si en plus le matériau est isotrope, cette expression se simplifie en :
Z Z Z
div.u/ div.v/ C 2".u/ ".v/ D fv C gN v; 8v 2 HD1 ./ (8.42)
N
II PROBLÈME CONTINU 8.3 Équations de la mécanique des milieux continus des solides 112
D’une manière générale, toute formulation faible, quelque soit le nombre de champs inconnus,
s’écrit en mécanique sous la forme de minimisation d’une fonctionnelle, dont on sait trouver la
signification physique.
et ne comporte aucune condition (puisqu’elles sont toutes formellement présente dans la formula-
tion).
Il est possible d’obtenir une formulation n’ayant que le champ de contraintes comme inconnue.
Il s’agit de la fonctionnelle duale :
1
Z Z Z
J./ D S .v/S0 C u .v/ n (8.45)
2 D
1
Z Z Z Z
J.u; / D S .div C f /u C u n . n gN /v (8.47)
2 D N
En notant :
Z
a.; / D S (8.48)
Z Z Z
b.; u/ D div u C u n C u n (8.49)
D N
Z Z
L.u/ D fuC gN v (8.50)
N
Sa variation :
Z Z Z
ıJ.u; "/ D S C u .v/ n C v .u/ n gN v (8.54)
N
p C k 2 p D 0 (8.56)
Nous aurons l’occasion de reparler de cela au chapitre 18 qui portera spécifiquement sur l’acous-
tique.
Q D b.w/;
a.p; w/ Q 8w 2 HD0 ./ (8.58)
avec Q la conjugaison complexe, a.p; q/ W HD1 HD1 ! C la forme sesquilinéaire définie par :
Z Z
a.p; q/ D @xi p@xi qQ k 2 p qQ C ickAn qQ (8.59)
R
Et comme on peut vérifier que l’on est dans un cas qui va bien, on définit l’énergie potentielle
totale du domaine par :
1
Wp D a.p; p/
Q Q
b.p/ (8.61)
2
et la résolution du problème devient :
ou de manière équivalente :
Trouver p 2 HD1 ./ tel que ıWp D 0; 8ıp 2 H10 ./ (8.63)
En fonction des conditions aux limites et des conditions initiales du problème, la varia-
tion de pression solution du problème peut être réelle, i.e. être de la forme p 0 .x; y; z; t / D
<.p.x; y; z/e i !t /. Une telle solution est appelée monochromatique. On pourra alors résoudre
le problème en restant dans R au lieu de passer dans C. Cela se produit lorsque l’on résout
l’équation d’Helmholtz (8.56) assortie uniquement de conditions aux limites de Dirichlet.
Résumé — Dans cet exemple, portant sur formulation d’un problème de Neumann, nous
allons essayer de montrer comment la réflexion mathématique se fait et évolue « au fil
de l’eau » pour transformer un problème initial donné et obtenir les bonnes conditions
d’existence et d’unicité de la solution sur les « espaces qui vont bien » (et qui eux, feront
ensuite l’objet d’une discrétisation numérique).
Supposons que nos « investigations » sur un problème nous aient conduit à sa formulation
sous forme d’un problème de Neumann (avec f 2 L2 ./, ce qui n’est pas une condition si forte
finalement, et c’est ce que l’on aimerait avoir) :
8
< u D f dans
(9.1)
: @u D 0 sur D @
@n
Nous allons donc nous poser la question de l’existence et de l’unicité de la solution de ce problème.
qui conduit à :
Z
f D0 (9.3)
i.e. f 2 L20 ./. Donc f 2 L20 ./ est bien une condition nécessaire d’existence.
De même, d’après ce qui précède, on voit que si u est solution, alors u C c est solution, ce qui
prouve qu’il n’y a pas unicité de la solution.
@u
Z Z Z
u v D ru rv v (9.4)
@n
Comme nous voulons la formulation variationnelle dans H1 ./ (i.e. u 2 H1 .//, il vient :
Z Z
ru rv D f v; 8v 2 H1 ./ (9.6)
ce qui implique, pour que ce soit vrai pour tout d que f D 0, et on retrouve bien que f 2 L20 ./
R
sur H1 ./, donc V est un sous-espace fermé de H1 , donc est un Hilbert. Et donc maintenant
que l’on sait que V est un Hilbert, on aimerait bien appliquer Lax-Milgram (voir 7.3), c’est
pourquoi il faut s’intéresser à la forme bilinéaire définissant le problème. C’est ce qui suit.
— Si l’on considère la forme bilinéaire :
Z
a.u0 ; v0 / D ru0 rv0 (9.9)
Cela conduit à :
jv0 j21 1
2 2
> ; 8v 2 V (9.12)
jv0 j1 C jv0 j0 1 C c 2 ./
et la loi de comportement :
Z Z Z
0D .p ru/ q D pqC u div q D hu; q ni (9.15)
On n’a pas d’information sur u. Par contre, on a un terme p n D 0. Et il serait bien de disposer de
son « symétrique », i.e. d’un terme q:n D 0 qui serait imposé par le choix de l’espace dans lequel
vivrait u. Ce que l’on a en tête c’est bien sûr de pouvoir utiliser le théorème de Brezzi.
En correspondance avec les notations du paragraphe 7.5, on choisit alors les espaces : H D
fq 2 H.divI /I q nj D 0g et M D L2 ./. Le problème est donné, dans la formulation de Brezzi,
par les deux formes bilinéaires
Z Z
a.p; q/ D p q et b.v; q/ D v div q (9.16)
Quant aux formes linéaires définissant le problème, la première est nulle et la seconde vaut :
Z
fv (9.17)
Maintenant que nous nous sommes rapprochés du cadre du théorème de Brezzi, il va nous
falloir vérifier si toutes les conditions sont vérifiées. Toutefois, d’après ce qui a été vu dans les
paragraphes précédents, il semble naturel de se demander s’il faudra bien conserver L2 ./, ou s’il
faudra passer à L20 ./, et ce qu’il se passe quand u D u0 C c.
Pour l’instant, on a :
Z Z
v div p D f v; 8v 2 L2 ./ (9.18)
Z Z
pqC u div q D 0; 8q 2 H (9.20)
R
Or q 2 H implique div q D 0, ce qui implique aussi que si u est solution, alors u C c l’est aussi.
1
Z
8v 2 M; 9q 2 HI v div q D jvj20 et kqkH.div/ 6 jvj0 (9.27)
ˇ
@'
q 2 H, div q D v et q D r', q n D 0 donc @n
D 0, et :
8
< ' D v
(9.28)
: @' D 0
@n
Comme au paragraphe sur la formulation variationnelle, 9Š' 2 H1 ./ \ L20 ./ car v 2 L20 ./ :
Z Z
2 2 2
jqj0 D jr'j D j'j1 D v' 6 jvj0 j'j0 6 c./jVj0 j'j1 (9.29)
d’où :
1
ˇDp (9.31)
1 C c 2 ./
En introduction à cette partie, il nous semblait important d’en exposer sa structure, car elle peut
sembler un peu décousue à la simple lecture de la table des matières.
Après les pré-requis exposés dans les deux premières parties, la partie III va s’ouvrir « tout
naturellement » sur une présentation générale de la méthode des éléments finis au chapitre 10.
Immédiatement après, compte tenu du public visé, le chapitre 11 essayera de mettre en avant
les spécificités et surtout la complexité de la mécanique comme champ d’application de la méthode
des éléments finis.
Cette mise en garde, au regard de l’expérience, nous semble importante : on a tendance souvent
à considérer que la mécanique est quelque chose de très bien maîtrisé, et ce n’est pas le cas. Bien
des sujets restent pointus, voire ouverts. Il convient donc de rester prudent, surtout pour ceux ayant
une expérience de calcul importante qui les porte parfois à sous estimer les difficultés.
Le chapitre 12, qui fait suite logiquement en terme de présentation de la méthode des éléments
finis, au chapitre 10, est souvent le mieux maîtrisé par le public d’ingénieurs, au moins concernant
les éléments de Lagrange. Nous l’avons complété de remarques sur les modèles à plusieurs champs
(qui peut faire pour partie écho au chapitre 11). Encore une fois, pour le public visé, c’est surtout le
paragraphe 12.4 sur la validation pratique des éléments finis qui aura sans doute le plus de valeur
ajoutée. Le contenu de ce paragraphe fait souvent partie des choses oubliées.
Comme nous en serons sur des choses un peu oubliées, nous en profiterons au chapitre 13 pour
continuer dans le même sillon et rappeler quelques méthodes d’amélioration de la performance du
calcul. Nous y présentons des choses qui sont utilisées plus ou moins fréquemment par notre public.
Seuls les paragraphes 13.6 et 13.7 (sur les méthodes de réanalyse et aux dérivées d’ordre élevé)
sont généralement moins bien connus. Nous avons voulu les introduire ici plutôt qu’au chapitre 22
car ils sont vraiment en lien avec les préoccupations directes de notre public.
Le chapitre 14 permettra une petite pause en exposant brièvement les stratégies de maillage, et
plus particulièrement la triangulation de Delaunay.
Pour continuer sur les choses pouvant avoir un réel intérêt pratique pour le public d’ingénieurs
mécaniciens (ou acousticiens), nous aborderons au chapitre suivant 15 les méthodes d’homogé-
néisation. Si les méthodes les plus « physiques » sont bien connues, l’approche mathématique
(généralisante) est bien souvent quasi totalement inconnue.
À ce niveau du document, il nous semble que nous aurons parcouru bon nombre des applications
typiques de la méthode des éléments finis, surtout dans le cadre de la mécanique... mais uniquement
sous l’angle statique !
Il sera donc temps d’aborder « le temps », i.e. les problèmes non stationnaires, au chapitre 16.
La propagation des ondes, quant à elle, ne sera traitée qu’au chapitre 17. C’est d’ailleurs dans ce
chapitre que seront abordés également les modes propres, dont nous n’aurons pas parlé jusqu’alors
(à quelques exception près lors de remarques diverses et variées... mais rien de sérieux). Le
chapitre 18 continuera la spécification en se focalisant sur l’acoustique.
Dès lors, on pourra considérer qu’une présentation assez complète de la méthode des éléments
finis a été faite. Toutefois, ce qui était encore de l’ordre de la recherche il y a une décennie fait
aujourd’hui partie des phénomènes que notre public doit prendre en compte de plus en plus souvent.
Ces phénomènes, un peu plus complexes, un peu plus exotiques, sont souvent liés à ce que l’on
Résumé — Une fois le travail précédent accompli, i.e. une fois que l’on dispose d’une
formulation faible, « il n’y a plus qu’à » calculer la solution ! La méthode des éléments
finis est l’un des outils numérique développé pour cela.
La méthode des éléments finis se propose de mettre en place, sur la base de formula-
tions faibles, un algorithme discret (discrétisation) permettant de rechercher une solution
approchée d’un problème aux dérivées partielles sur un domaine compact avec conditions
aux bords et/ou dans l’intérieur du compact.
Il s’agit donc de répondre aux questions d’existence et d’unicité de la solution, de
stabilité et de convergence des méthodes numériques, ainsi que d’apprécier l’erreur entre
la solution exacte et la solution approchée (indicateurs et estimateurs d’erreur, a priori et
a posteriori).
10.1 Introduction
Les chapitres des parties précédentes ont eu pour but de nous permettre de décrire un problème
physique à partir d’équations aux dérivées partielles, mais à aucun moment nous n’avons encore
parlé de la manière de résoudre ces équations (que ce soit la formulation forte ou la faible). Ce sera
le but de ce chapitre, dans lequel la mise en œuvre de la méthode des éléments finis va être exposée.
Nous avons vu dans la partie précédente, comment passer d’une formulation forte à une
formulation faible. Dans de nombreux cas, nous avons montré qu’il y a équivalence (existence et
unicité de la solution) entre l’étude des deux formulations. Il faut toutefois bien garder en tête que
dans certains cas, l’équivalence entre les deux formulations n’est pas évidente.
Une condition qui n’a pas été vraiment évoquée jusque là est le cas où le bord du domaine
n’est pas suffisamment régulier, par exemple s’il possède des points singuliers (par exemple point
d’inflexion ou de rebroussement, ou dans le cas des fissures en MMC).
Cela peut également se produire si l’on ne peut pas assurer que la fonction f (celle agissant
dans tout le domaine) n’est pas suffisamment dérivable. Comme en général on suppose dans les
problèmes physiques que la solution est C1 , on n’est pas confronté à ce genre de problème.
L’idée de la méthode des éléments finis est de décomposer (on dit discrétiser) le domaine
en un certain nombre de sous-domaines (les éléments). Les éléments recouvriront l’intégralité
du domaine (de la frontière pour les éléments de frontière qui est une autre méthode) et sans
chevauchement entre eux (les éléments peuvent se chevaucher dans la méthode des volumes finis).
De plus, on va chercher la fonction solution u comme étant interpolée par des « bouts » de solutions
définis sur chaque élément.
Le problème étant interpolé sur les éléments, on se doute que le nombre d’éléments va jouer
sur la qualité de cette approximation de la solution. On se doute également que, comme on résout
un problème comportant des dérivées, c’est plutôt dans les endroits où la solution va varier vite
qu’il sera nécessaire de « resserrer » le maillage.
C’est l’ingénieur américain Ray William Clough qui, semble-t-il, a utilisé le terme de méthode des
éléments finis le premier dans un article de 1960 intitulé The Finite Element Method in Plane Stress
Analysis. Le mot rigidité (Stiffness) apparaissait dans le titre de son article Stiffness and Deflection
Analysis of Complex Structures datant de 1956 (et coécrit avec M. Turner, H. C. Martin et L. J.
Topp).
Si on veut replacer très brièvement cela dans un contexte
plus global, on peut dire que l’analyse des structures est née
vers 1850.
La RdM, recourant au calcul manuel, était développée
par Maxwell, Castigliano, Mohr.
Le concept d’éléments finis est né vers 1940, avec des
figures comme Newmark, Hrennikoff (1941), Mc Henry, Clough Courant Zienkiewicz
Courant (1942)...
Son réel essor ne commence toutefois que dans les années 60 avec le développement du calcul
numérique sur ordinateur.
La méthode des éléments finis (MEF) prend ses origines dans le besoin de résoudre des pro-
blèmes complexes d’élasticité et d’analyse de structures en ingénierie civile et aéronautique. Son
développement remonte aux travaux d’Alexander Hrennikoff (1941) et de Richard Courant (1942).
Bien qu’utilisant des approches différentes, ces deux pionniers partagent la même caractéristique
essentielle à savoir la discrétisation par maillage du domaine continu en sous-domaines discrets,
que l’on appelle éléments. C’est Olgierd Zienkiewicz de l’Imperial College qui synthétisa ces deux
méthodes en ce que l’on peut appeler la méthode des éléments finis et qui fit la première formalisation
mathématique de la méthode.
Dans ses travaux, Hrennikoff discrétise le domaine
en utilisant une analogie avec les treillis, tandis que l’ap-
proche de Courant divise le domaine en sous-régions finies
triangulaires pour résoudre les équations aux dérivées par-
tielles elliptiques du second ordre issues du problème de
la torsion d’un cylindre. On peut dire que la contribution
Rayleigh Ritz Galerkine
de Courant était une évolution s’appuyant sur un vaste cor-
pus de résultats antérieurs pour les équations aux dérivées
partielles développés par Rayleigh, Ritz et Galerkin.
Le développement de la méthode des éléments finis
a véritablement commencé au milieu de années 1950 pour
l’analyse structurale et aéronautique, et prit de l’ampleur
à l’Université de Stuttgart grâce au travail de John Argyris
et à Berkeley grâce au travail de Ray W. Clough [21].
Ray Clough est également l’un des pionniers du génie
para sismique et s’est vu décerné en 2008, à la World Argyris Strang Fix
Conference of Earthquake Engineering en Chine, le titre
de « légende du génie para sismique » (“Legend of Earthquake Engineering”).
À la fin des années 50, les concepts clés de matrice de rigidité et d’assemblage d’éléments
existaient quasiment sous la forme actuelle. La NASA publia une demande de propositions pour le
développement du logiciel d’éléments finis NASTRAN en 1965.
La base mathématique rigoureuse de la méthode des éléments finis a été consolidée en 1973
avec la publication de Strang et Fix de An Analysis of The Finite Element Method. Elle a depuis
été intégrée comme une branche des mathématiques appliquées à la modélisation numérique des
systèmes physiques dans une large variété de disciplines. Pour une discussion plus approfondie des
apports et contributions relatives des différents pionniers de cette méthode, on pourra se référer à
[33].
Bien que la méthode des éléments finis soit théoriquement généralisable à toutes les dimensions
d’espace et à tous les ordres de dérivation, dans la pratique, l’augmentation de ces paramètres
ρ(K)
En fait, on expose généralement les méthodes à partir de la méthode dite conforme selon le
tableau ci-dessus, alors qu’en pratique on travaille souvent dans le second cas, i.e. approximation
conforme en espace (Vh V) mais non conforme concernant les formes, car au moins les
intégrations sont réalisées numériquement.
Toujours est-il que dans tous les cas, l’espace V est remplacé par un espace Vh , de dimension
finie Nh , dont .e1 ; : : : ; eNh / en est une base. L’approximation uh de u dans cette base s’écrit :
Nh
X
uh D qi ei (10.2)
i D1
Le problème de la méthode des éléments finis devient donc (on écrit ici en utilisant ah , mais on
pourrait utiliser a) :
Nh
X
Trouver q1 ; : : : ; qNh tels que qi ah .ei ; vh / D fh .vh / ; 8vh 2 Vh (10.3)
i D1
III ÉLÉMENTS FINIS 10.3 Principe de la méthode : résolution d’un système matriciel 132
que l’on note (dans la tradition mécanicienne) :
Kq D F ou encore K q D F (10.6)
Telle que formulée, la matrice K semble pleine à priori. L’astuce consiste à choisir des fonctions
de base ei dont le support sera petit, i.e. chaque fonction ei sera nulle partout sauf sur quelques
mailles. Ainsi les termes ah .ei ; ej / seront le plus souvent nuls et la matrice sera creuse. De plus,
on ordonnera les ei de sorte que K soit à structure bande, avec une largeur de bande la plus faible
possible. Il existe un moyen avantageux de stocker une matrice creuse qui s’appelle le stockage en
ligne de ciel ou skyline.
Les difficultés majeures en pratique sont de trouver les ei et de les manipuler pour les calculs
d’intégrales nécessaires à la construction de K. Indiquons d’ores et déjà que la plupart de ces
difficultés seront levées grâce à trois idées principales qui seront détaillées au chapitre sur la
formulation pratique des éléments finis :
Principe d’unisolvance : On s’attachera à trouver des degrés de liberté (ou ddl) tels que la donnée
de ces degrés de liberté détermine de façon univoque toute fonction de Vh . Il pourra s’agir
par exemple des valeurs de la fonction en quelques points. Déterminer une fonction reviendra
alors à déterminer ses valeurs sur ces degrés de liberté.
Définition des ei : On définira les fonctions de base par ei D 1 sur le i ème degré de liberté,
et ei D 0 sur les autres degrés de liberté. La manipulation des ei sera alors simplifiée, et
les ei auront par ailleurs un support réduit à quelques mailles.
Notion de « famille affine d’éléments » : Le maillage sera tel que toutes les mailles soient iden-
tiques à une transformation affine près. De ce fait, tous les calculs d’intégrales pourront
se ramener à des calculs sur une seule maille de référence, par un simple changement de
variable.
Notons que la matrice K est appelée matrice de rigidité par analogie avec la mécanique des solides.
Si la forme bilinéaire a est coercive, alors K est symétrique, définie positive donc inversible.
On obtient donc l’existence et l’unicité de q D K 1 F.
De nombreuses méthodes permettent de résoudre le système matriciel (d’inverser la matrice de
rigidité) : Gauß, mais également toutes sortes de décomposition de la matrice de rigidité comme
LU, LDLT, LLT (Cholesky). Lorsque K est symétrique définie-positive, la méthode de Cholesky
est la meilleure. Elle consiste à décomposer la matrice K en le produit LT L, où la matrice L est une
matrice triangulaire inférieure.
Lemme 1 — Lemme de Céa. La forme bilinéaire a.; / étant continue, de constante de majora-
tion M, et coercitive, de constante de minoration ˛, il est aisé d’obtenir la majoration de l’erreur
appelée lemme de Céa :
M M
ku uh k 6 ku vh k; 8vh 2 Vh c’est-à-dire ku uh k 6 d.u; Vh / (10.7)
˛ ˛
où d est la distance induite par la norme k k.
Cette majoration donnée par le lemme de Céa ramène l’étude de l’erreur d’approximation
ku uh k à celle de l’erreur d’interpolation d.u; Vh /.
Lemme 2 — Lemme 1 de Strang. S’il existe une constante ˛ > 0 indépendante de h telle
que :
Lemme 3 — Lemme 2 de Strang. Si la norme k kh est définie sur Vh C V, et s’il existe deux
constantes indépendantes de h, ˛ > 0 et M > 0 telles que :
III ÉLÉMENTS FINIS 10.6 Convergence de la méthode des éléments finis en approximation conforme interne 136
— ku h ukm 6 C0 hkC1 m juj
kC1 : assemblage des majorations locales.
M
ku uh k 6 ku h uk (10.22)
˛
et le calcul est ramené à un calcul sur chaque élément, pour toutes les semi-normes k kl;K pour
l D 0,. . . , m.
Ce résultat n’est rien d’autre qu’un résultat de changement de variable dans une intégrale.
On a même :
8v 2 Hl .K/; jvj
O l;K 6 C.l; n/kB 1 l
k2 j det Bj1=2 jvjl;KO (10.25)
hK 1 hO
kBk 6 et kB k6 (10.26)
O K
O /;
9C.K; O 8vO 2 HkC1 .K/;
O jvO O vj
O j;KO 6 Cjvj
O kC1;KO (10.27)
ku uh km 6 ChkC1 m
jujkC1 (10.30)
Quelques remarques :
— On rappelle que la formule précédente a été obtenue pour un domaine polygonal. Si ce
n’est pas le cas, elle n’est plus valable. Les éléments linéaires conduisent à une erreur en
O.h/. Utiliser des éléments plus raffinés (de degré 2 au lieu d’éléments linéaires) permet,
même si la géométrie n’est également ici pas décrite de manière exacte, d’obtenir une erreur
asymptotique en O.h2 /. Quelque soit le degré de l’approximation, si le domaine n’est pas
représenté de manière exact, alors cela revient à une modification des conditions aux limites.
— Les calculs, et plus précisément les intégrations, ont été réalisées sans erreur. Si celles-
ci sont faites de manière numérique, il convient d’introduire encore un terme correctif
supplémentaire, appelé erreur de consistance due au remplacement des formes par leur
approximation (a.; / par ah .; /, f ./ par fh ./...). Toutefois, cette erreur supplémentaire
peut être estimée en O.hk / selon la précision du schéma d’intégration utilisé.
— Le résultat de majoration d’erreur est souvent utilisé dans le cas m D 1. Comme l’espace des
polynômes Pk .k/O H1 .K/,O alors si O est bien défini sur HkC1 .K/, O on a :
III ÉLÉMENTS FINIS 10.6 Convergence de la méthode des éléments finis en approximation conforme interne 138
Chapitre 11
La mécanique est sans doute aussi vieille que l’homme. Aussi bien pour des aspects pratiques (faire
des outils pour chasser...), que pour des aspects plus philosophiques et spirituels visant notamment à
expliquer les mouvements des astres...
Archimède, outre ces travaux en mathématiques, pour-
rait sans conteste être considéré comme le saint patron de
la mécanique. Il est tout au moins indubitablement le père
de la mécanique statique.
Il s’intéressa aussi bien aux aspects « théoriques »
portant sur le principe du levier et la recherche de centre
de gravité dans De l’équilibre des figures planes, sur le Aristote Archimède Galilée
principe d’Archimède pour les corps plongés dans un li-
quide dans Des corps flottants ; qu’aux aspects « pratiques » au travers de nombreuses inventions :
machines de traction (où il démontre qu’à l’aide de poulies, de palans et de leviers, l’homme peut
soulever bien plus que son poids), machines de guerre (principe de la meurtrière, catapultes, bras
mécaniques utilisés dans le combat naval), l’odomètre (appareil à mesurer les distances), la vis sans
fin et la vis d’Archimède, le principe de la roue dentée...
Le siège de Syracuse, les miroirs d’Archimède et sa mort ne font qu’ajouter à sa légende.
Bien qu’Aristote posa le premier (avant Archimède) les bases d’une véritable théorie mécanique
(alors encore très imparfaite), les fondements de la mécanique, en tant que science et au sens moderne
du terme, sont posées par Galilée en 1632 dans les Dialogues et en 1638 dans les Discours.
La mécanique n’est alors pas dissociée des arts mécaniques, i.e. des techniques de construction
des machines. La distinction entre la mécanique en tant science et la mécanique en tant que technique
ne se fera qu’au XIXe siècle.
u D Nu q (11.1)
De la même manière, si les déformations " sont choisies comme champ inconnu, elles se-
ront approchées à partir des déformations nodales (sous forme de vecteur avec la convention de
l’ingénieur)
par l’intermédiaire de fonctions de formes rangées dans la matrice N" .
Cela vaut également pour les contraintes qui, si elles sont choisies comme champ inconnu,
seront approchées à partir des contraintes nodales (sous forme de vecteur avec la convention de
l’ingénieur) par l’intermédiaire de fonctions de formes rangées dans la matrice N .
D N (11.3)
Notons que dans la pratique, rien n’empêche de prendre les mêmes fonctions de forme pour les
différents champs. De manière analogue, le vecteur des multiplicateurs de Lagrange sera interpolé
de la façon suivante :
D N L (11.4)
On aura donc :
" D N"
approximation en déformations
D Lu relation déformations déplacements
D LNu q approximation en déplacements (11.5)
D S loi de Hooke inverse
D SN approximation en contraintes
D N approximation en contraintes
D H" loi de Hooke généralisée
D HN"
approximation en déformations (11.6)
D HLu loi de Hooke en élasticité linéaire
D HLNu q approximation en déplacements
où les conditions subsidiaires sur les déplacements sont prises en compte directement par l’espace
dans lequel les déplacements sont recherchés.
La fonctionnelle d’Hellinger-Reissner est sans doute la plus connue des fonctionnelles mixtes.
Elle utilise les champs de déplacements et de contraintes comme variables indépendantes. Son
expression est la suivante, U désignant les déplacement imposés :
Z Z Z
1
…HR D 2 S ij;j u C f u d T T u d UT d (11.10)
u
bien que l’on puisse la trouver sous une autre forme, obtenue par intégration par parties de celle-ci.
Elle n’a à satisfaire à aucune condition subsidiaire. La stationnarité de cette fonctionnelle conduit
aux équations d’équilibre, à la loi de comportement, et aux conditions aux limites en forces et
déplacements.
Cette fonctionnelle conduit à un élément ayant les champs de déplacements et de contraintes
comme inconnues nodales. Il s’en suit que toutes les composantes de ces champs sont continues.
Elle conduit à la résolution d’un système du type mixte (Brezzi) :
A B O
D (11.11)
BT O q F
L’un des moyens pour obtenir une fonctionnelle hybride est d’introduire une condition sur une
partie du contour par l’intermédiaire de multiplicateurs de Lagrange comme présenté un peu plus
loin.
Tout comme la fonctionnelle d’Hellinger-Reissner est associée à la méthode mixte, celle de
Pian et Tong est indissociable de l’adjectif hybride, même si, en toute rigueur, elle est une méthode
mixte (deux champs) hybride (différents domaines d’interpolation) :
Z Z Z
1
…PT D 2 S d C Tu d Tu d (11.13)
Sa variation est :
Z Z Z
ı…PT D S d C ıTu C ıuT d ıuT d (11.14)
Toutefois, le champ de contraintes n’étant défini que dans , il est possible d’effectuer une
condensation statique du champ de contraintes, i.e. de transformer le système (11.11) en écrivant :
1
DA Bq (11.17)
Sur le plan du déroulement du calcul, on commence par résoudre une « forme classique »
mais en utilisant la matrice de rigidité équivalente Keq , puis le calcul des contraintes dans chaque
élément se fait par la relation (11.17).
Les multiplicateurs de Lagrange peuvent être utilisés pour introduire des conditions supplémen-
taires directement à la fonctionnelle. Ces conditions sont généralement imposées sur X , tout ou
partie de D @. Pour ce faire, il suffit d’ajouter à la fonctionnelle … du problème le terme :
Z
T
˙ condition (11.19)
X
La figure 11.1 propose trois modélisations d’un même problème. Il s’agit d’une poutre encastrée
à une extrémité et soumise à une force décentrée à l’autre. Vaut-il mieux modéliser l’intégralité du
volume de la poutre, la traiter comme une plaque, ou peut-on se contenter d’un modèle de poutre ?
L’étude de la contrainte axiale xx est donnée à la figure 11.2. Si les cartographies présentent
bien la même répartition, seul le modèle 3D permet de mettre en évidence la concentration de
contrainte due à la force ponctuelle.
Une comparaison plus fine des trois modélisations concernant cette même contrainte normale
III ÉLÉMENTS FINIS 11.2 Plusieurs modélisations d’un même problème 144
F
F
F
(a) (b)
F IGURE 11.2: Contrainte axiale sur la peau supérieure : (a) modèle 3D, (b) modèle 2D.
le long de trois lignes est reportée à la figure 11.3. Les différences de résultats proviennent des
L3
L1
F
L2
1.80
Plaque 1.80
Plaque 1.80
Plaque
Poutre Poutre Poutre
1.60 Volumique 1.60 Volumique 1.60 Volumique
1.40 1.40 1.40
0.40
L1 0.40
L2 0.40
L3
0.20 0.20 0.20
ABS ABS ABS
0.00 0.00 0.00
0.00 0.20 0.40 0.60 0.80 1.00 0.00 0.20 0.40 0.60 0.80 1.00 0.00 0.20 0.40 0.60 0.80 1.00
hypothèses cinématiques et des composantes accessibles dans les différentes théories utilisées. On y
voit que loin des extrémités, les trois solutions concordent parfaitement, conformément au principe
de Saint-Venant. 1 Les différences proviennent des effets de bord, i.e. des variations locales des
contraintes et déformations au voisinage des conditions aux limites.
Les hypothèses cinématiques sont :
— la théorie des poutres (Figure 11.4a) suppose que chaque section droite suit un mouvement
de solide rigide. Les sections ne peuvent donc pas se déformer, elles peuvent uniquement se
translater et tourner dans l’espace (sans forcément rester perpendiculaires à la ligne moyenne,
car dans ce cas on considère une théorie avec cisaillement transverse) ;
— la théorie des plaques (Figure 11.4b), moins restrictive, suppose que chaque segment per-
pendiculaire au plan moyen de la plaque suit un mouvement de solide rigide (là encore, sans
1. Le principe de Saint-Venant précise que le comportement en un point quelconque de la poutre, pourvu que ce
point soit suffisamment éloigné des zones d’applications des forces et des liaisons, est indépendant de la façon dont
sont appliquées les forces et de la façon dont sont physiquement réalisées les liaisons ; le comportement dépend alors
uniquement du torseur des forces internes en ce point.
F IGURE 11.4: Mouvements d’une section droite : (a) théorie des poutres ; (b) théorie des plaques
ou coques ; (c) théorie volumique
forcément rester perpendiculaire au plan moyen). Elle permet donc de modéliser certaines
formes de déformations des sections, planes (flexion et cisaillement dans le plan de la section,
traction dans le sens de la largeur) ou hors plan (certains types de gauchissement). Cepen-
dant, les segments ne pouvant pas changer de longueur, elle ne permet pas de modéliser
l’écrasement de l’épaisseur ;
— enfin, la théorie 3D (Figure 11.4c) ne comporte aucune de ces restrictions et peut modéliser
n’importe quelle forme de gauchissement ou d’écrasement, à condition que le maillage
employé soit suffisamment fin.
Il est essentiel de noter que toutes les théories ne permettent pas d’accéder à toutes les com-
posantes du champ des contraintes : de manière générale, seuls les efforts qui travaillent dans les
déplacements permis par la théorie sont accessibles (les théories sont ainsi faites afin de pouvoir
respecter le premier principe de la thermodynamique dont l’écriture nécessite de calculer le travail
de tous les efforts permis par la théorie). Ainsi :
— la théorie des poutres ne permet pas de calculer les contraintes dans le plan transversal (yy ,
zz et yz ) du fait de l’indéformabilité des sections droites ;
— la théorie des plaques ne permet pas de calculer la contrainte normale au plan de la plaque
zz , du fait de l’indéformabilité des segments perpendiculaires à ce plan ;
— enfin, la théorie 3D permet de calculer les six composantes du tenseur des contraintes.
À ces limitations théoriques peuvent s’ajouter des limitations techniques propres à chaque
logiciel, susceptibles de rendre d’autres grandeurs physiques inaccessibles. Avant d’effectuer une
modélisation par éléments finis, il est donc indispensable de s’assurer que le logiciel utilisé et son
cadre théorique permettent bien d’accéder au résultat voulu (en plus d’être pertinents vis-à-vis de la
géométrie du produit, de son environnement et du comportement attendu).
De plus, si certains logiciels peuvent avoir des « limitations techniques », ils peuvent également
disposer de méthodes de post-traitement susceptibles d’améliorer ou de permettre d’accéder à
certaines composantes (sous certaines hypothèses). Cela aussi doit être pris en compte.
III ÉLÉMENTS FINIS 11.2 Plusieurs modélisations d’un même problème 146
11.3 Exemple : retour sur le calcul de poutre du paragraphe 11.1
avec C AST 3M
Nous allons reprendre pour partie l’exemple de la poutre encastrée traitée au paragraphe précédent
et présenter le listing C AST 3M correspondant.
11.3.1 Modélisation 2D
Nous commençons par définir les données du problème : longueur, largeur, épaisseur, nombre
d’éléments selon chacune de ces directions, et force appliquée :
1 DONNEES
2 geometrie
3 long1 =22.0;
4 larg1 =8.;
5 ep1 =4;
6 maillage
7 nlong1 =22;
8 nlarg1 =8;
9 effort
10 Forc1 = -41.;
Nous définissons les points ki (dénommés ainsi pour rappel de la syntaxe A NSYS des keypoints
k,i,...), puis les lignes Li , et la surface S1 .
12 k1 = 0. 0. 0.;
13 k2 = long1 0. 0.;
14 k3 = long1 larg1 0.;
15 k4 = 0. larg1 0.;
16
17 L1 = DROI nlong1 k1 k2 ;
18 L2 = DROI nlarg1 k2 k3 ;
19 L3 = DROI nlong1 k3 k4 ;
20 L4 = DROI nlarg1 k4 k1 ;
21
22 S1 = DALLER L1 L2 L3 L4 ;
Le modèle est un modèle de mécanique élastique isotrope utilisant l’élément de coque COQ4 pour
le maillage S1 :
1 Model1 = MODL S1 MECANIQUE ELASTIQUE ISOTROPE COQ4 ;
Enfin on résout le problème après avoir fourni les données matérielles et les conditions aux
limites :
2 Mater1 = MATER Model1 YOUNG 70000.0 NU 0.33 RHO 2700.0;
3 Car1 = CARAC Model1 EPAI ep1 ;
4 Mater1 = Mater1 ET Car1 ;
5 MR1 = RIGID Model1 Mater1 ;
6 CL1 = BLOQ DEPL L4 ;
7 CL2 = BLOQ ROTA L4 ;
8 FOR1 = FORC (0. 0. Forc1 ) k3 ;
9 MTOT1 = MR1 ET CL1 ET CL2 ;
10 Depl1 = RESO MTOT1 FOR1 ;
11.3.2 Modèle 3D
Nous allons maintenant construire le modèle tridimensionnel. Comme nous voulons travailler à
l’économie, nous repartons du fichier précédent que nous adaptons.
1 DONNEES
2 geometrie
3 long1 =22.0;
4 larg1 =8.;
5 ep1 =2;
6 maillage
7 nlong1 =22;
8 nlarg1 =8;
9 nep1 =3;
10 effort
11 Forc1 = -41.;
Cette fois, nous nous servons de l’élément volumique CUB8 au lieu de l’élément surfacique QUA4.
1 OPTION DIME 3 ELEM CUB8 ;
2
3 k1 = 0. 0. 0.;
4 k2 = long1 0. 0.;
5 k3 = long1 larg1 0.;
6 k4 = 0. larg1 0.;
7
8 L1 = DROI nlong1 k1 k2 ;
9 L2 = DROI nlarg1 k2 k3 ;
10 L3 = DROI nlong1 k3 k4 ;
11 L4 = DROI nlarg1 k4 k1 ;
12
13 S1 = DALLER L1 L2 L3 L4 ;
À partir de la surface S1 , qui est la même que précédemment, nous allons créer le volume V1
par translation selon le vecteur Vect1 .
Nous en profitons également pour créer Face1 sur laquelle porterons les conditions aux limites.
Notons par exemple que la ligne L4 appartient bien au maillage V1 , puisque ce dernier est construit
dessus. Par contre, la surface f ace1 n’appartient pas à V1 , il est donc nécessaire de la lier à V1 en
utilisant la commande ELIM.
1 Vec1 =0. 0. ( -1.0* ep1 ) ;
2 V1 = S1 VOLU nep1 TRAN Vec1 ;
3 Face1 = L4 TRAN nep1 Vec1 ;
4 ELIM 0.0000001 V1 Face1 ;
III ÉLÉMENTS FINIS 11.3 Exemple : retour sur le calcul de poutre du paragraphe 11.1 avec C AST 3M 148
Cette fois, le modèle correspond au maillage V1 et utilise l’élément CUB8.
1 Model1 = MODL V1 MECANIQUE ELASTIQUE ISOTROPE CUB8 ;
Ceci est juste une remarque en passant, pour définir le vocabulaire en somme, nous n’en
reparlerons plus dans la suite du document.
Résumé — L’intégralité de la méthode des éléments finis a été présentée au chapitre 10.
Dans ce chapitre et dans les suivants, nous allons détailler certains aspects. Nous
proposons dans ce chapitre d’exposer un peu plus complètement les notions d’interpo-
lation sur un élément, ainsi que le lien entre approximation locale (sur un élément) et
approximation globale (construction de la base de Vh ).
Nous avons dit vouloir interpoler le problème sur chaque élément. Pour ce faire, il faut prendre
une base sur chaque élément. Plusieurs choix sont possibles, mais en général, les fonctions de base
utilisées pour les éléments finis sont dites interpolantes, c’est-à-dire que les valeurs nodales sont les
valeurs des grandeurs inconnues aux nœuds, et que c’est à partir de ces valeurs que l’on effectue
l’interpolation.
La méthode la plus simple consiste à utiliser les polynômes de Lagrange. Dans cette méthode
les fonctions de base valent 1 à un nœud du maillage et 0 à tous les autres. La fonction de base i est
alors la fonction valant 1 au nœud i et 0 sur les autres nœuds et qui est polynomiale sur chaque
élément. Il y a autant de fonctions de base par élément que de nombre de nœuds. On appelle
élément la donnée d’une géométrie (souvent polygonale en deux dimensions, polyédrique en trois
dimensions) et de fonctions de base associées à cette géométrie.
D’autres solutions peuvent exister pour les fonctions de base. Par exemple, les éléments finis
d’Hermite ont la particularité d’avoir deux fonctions de base associées à chaque nœud. La valeur
de la solution est alors ajustée avec la première fonction alors que la deuxième permet d’ajuster
la valeur de la dérivée. Ce type de fonctions de base peut avoir un intérêt pour la résolution de
certaines équations aux dérivées partielles (telle que l’équation des plaques en Mécanique des
Milieux Continus), même si elle nécessite d’avoir deux fois plus de fonctions pour un maillage
donné.
12.1.1 Unisolvance
Définition 58 — Unisolvance. Soit † D fa1 ; : : : ; aN g un ensemble de N points distincts de Rn .
Soit P un espace vectoriel de dimension finie de fonctions de Rn à valeurs dans R. On dit que †
est P-unisolvant si et seulement si pour tous réels ˛1 ,. . . , ˛N , il existe un unique élément p de P
tel que 8i D 1; : : : ; N, p.ai / D ˛i .
Définition 59 — Éléments finis de Lagrange. Un élément fini de Lagrange est un triplet .K; †; P/
tel que :
— K est un élément géométrique de Rn , compact, connexe, et d’intérieur non vide ;
— † D fa1 ; : : : ; aN g est un ensemble de N points distincts de Rn ;
— P est un espace vectoriel de dimension finie de fonctions réelles définies sur K, et tel
que † soit P-unisolvant (donc dim P D N).
Les fonctions de bases locales de l’élément fini de Lagrange .K; †; P/ sont les N fonctions de P
telles que pi .aj / D ıij pour 1 6 i; j 6 N.
Remarque. .p1 ; : : : ; pN / est une base de P.
Théorème 46 k v est l’unique élément de P qui prend les mêmes valeurs que v sur les points
de †.
On notera Pk l’espace vectoriel des polynômes de degré total inférieur ou égal à k.
— sur R, Pk D vectf1; X; : : : ; Xk g et dim Pk D k C 1 ;
— sur R2 , Pk D vectfXi Yj ; 0 6 i C j 6 kg et dim Pk D .kC1/.kC2/
2 ;
3 i j l .kC1/.kC2/.kC3/
— sur R , Pk D vectfX Y Z ; 0 6 i C j C l 6 kg et dim Pk D 6 .
On notera Qk l’espace vectoriel des polynômes de degré inférieur ou égal à k par rapport à chaque
variable.
— sur R, Qk D Pk ;
— sur R2 , Qk D vectfXi Yj ; 0 6 i; j 6 kg et dim Qk D .k C 1/2 ;
— sur R3 , Qk D vectfXi Yj Zl ; 0 6 i; j; l 6 kg et dim Qk D .k C 1/3 .
Remarque. Les fonctions de base pour l’élément P1 sont définies par pi .aj / D ıij . Ce sont les coordon-
nées barycentriques : pi D i .
a2 a2
a4 a3
a12
a23
a1 a1
a13 a1 a2
a3 a3
a3 a8 a7
a3 a6 a5
a5 a6 a4
a34
a13 a23
a4
a3
a4 a4 a3
a2
a14 a24
a2 a2
a1 a1 a12 a1 a2 a1
Élément Q1
K parallélépipède de sommets fa1 ; : : : ; a8 g de côtés parallèles aux axes.
† fai g16i 68
P Q1
Élément Q1
K prisme droit de sommets fa1 ; : : : ; a6 g
† fai g16i 66
P fp.X; Y; Z/ D .a C bX C cY/ C Z.d C eX C f Y/; a; b; c; d; e; f 2 Rg
Définition 61 — Famille affine d’éléments finis. On appelle famille affine d’éléments finis
une famille d’éléments finis tous affine-équivalents à un même élément fini appelé élément de
référence.
D’un point de vue pratique, le fait de travailler avec une famille affine d’éléments finis permet de
ramener tous les calculs d’intégrales à des calculs sur l’élément de référence. Voir figure 12.3 pour
une illustration d’une transformation affine. Les éléments finis de références sont ceux obtenus,
a3
F
(0,1)
K
a1
K
a2
(0,0) (1,0)
F IGURE 12.3: Transformation affine sur un triangle
Revenons à notre problème décrit par une équation aux dérivées partielles sous forme faible dans
un domaine sur lequel on réalise un maillage Th à partir d’une famille affine de Ne éléments
finis .Ki ; †i ; Pi /i D1;:::;Ne .
Par unisolvance, la solution approchée uh sera entièrement définie sur chaque élément fini
par ses valeurs sur les points de †i , nommés nœuds du maillage. Notons .a1 ; : : : ; aNh / les nœuds
du maillage (Nh < Ne cardi ). Le problème approché revient à déterminer les valeurs de uh aux
points ai : ce sont les degrés de liberté du problème approché. On va construire une base de Vh en
associant à chaque degré de liberté ai un vecteur de la base. On définit ainsi les fonctions de base
globales 'i .i D 1; : : : ; Nh / par :
F IGURE 12.4: Base de Vh : exemple de fonction de base globale 'i sur un maillage avec des
éléments triangulaires P1 .
De plus, sur un élément K dont ai est un nœud, 'i vaut 1 en ai et 0 aux autres nœuds de K.
Donc 'i jK est une fonction de base locale de K. On voit donc que la fonction de base globale 'i est
construite comme réunion des fonctions de base locales sur les éléments du maillage dont ai est un
nœud.
Remarque. Ce qui précède est vrai dans le cas d’un maillage conforme, i.e si l’intersection entre deux
éléments est soit vide, soit réduite à un sommet ou une arête en dimension 2, ou à un sommet, une arête ou
une face en dimension 3.
Définition 62 — Élément fini d’Hermite. Un élément fini d’Hermite ou élément fini général
est un triplet .K; †; P/ tel que :
— K est un élément géométrique de Rn , compact, connexe, et d’intérieur non vide ;
— † D f1 ; : : : ; N g un ensemble de N formes linéaires sur l’espace des fonctions définies
sur K, ou sur un sous-espace plus régulier contenant P ;
— P est un espace vectoriel de dimension finie de fonctions réelles définies sur K, et tel
que † soit P-unisolvant.
Théorème 47 k v est l’unique élément de P qui prend les mêmes valeurs que v sur les points
de †.
On remarque immédiatement que si i .p/ D p.ai /; i D 1; : : : ; N, on retrouve les éléments finis
de Lagrange. Cette généralisation permet d’introduire des opérations de dérivation dans †, et donc
d’améliorer la régularité des fonctions de Vh . Les fonctions de base globales 'i , .i D 1; : : : ; Nh /
sont définies par :
Suivant les éléments utilisés, ces fonctions de base pourront être de classe C1 ou même plus, et
il en sera donc de même pour la solution approchée uh .
a4 a3
a12 a13
a123
a2
a3 a1 a2
a3 a23
a2
F IGURE 12.6: Éléments finis d’Hermite triangulaire cubique, élément d’Argyris et élément rectan-
gulaire Q3
Élément
K n triangle de sommets fa1o; a2 ; a3 g
@p
† p.ai /; @x .ai /; i D 1; 2; 3 [ fp.a0 /g
P P3
Régularité C0 , mais pas C1
Élément
K n triangle de sommets fa1 ; a2 ; a3 g o n o
@p 2 2 @2 p
† p.ai /; @x
.ai /; @p
@y
.ai /; @@xp2 .ai /; @@yp2 .ai /; @x@y .ai /; i D 1; 2; 3 [ @p
.a /; 1
@n ij
6i <j 63
P P5
Régularité C1
Élément Q3
K rectangle nde sommets fa1 ; a2 ; a3 ; a4 g de côtés parallèleso aux axes
@p 2
† p.ai /; @x .ai /; @p
@y
@ p
.ai /; @x@y .ai /; i D 1; : : : ; 4
P P3
Régularité C1
Ω1
Continuité :
Ω 1 σi
- des déplacements Ui n
ΓI n
- des contraintes Ti σi
Ω2
(σi désigne le vecteur des contraintes) Ω2
chacun de leur propre loi de comportement, ont une interface commune I . On supposera que
le champ de déplacement est continu le long de I . La continuité de la composante normale du
déplacement à l’interface traduit le fait qu’il n’y a pas décollement entre les deux domaines ; celle
de la composante tangentielle qu’il n’y a pas glissement entre eux. On peut donc dire qu’en tout
point de I , le déplacement est continu, ce que l’on note u1i D u2i .
L’état d’équilibre des forces doit lui-aussi être vérifié le long de l’interface. Cela implique
que les composantes normales des contraintes doivent être également continues le long de cette
interface, i.e. que la trace du tenseur des contraintes doit être continue le long de l’interface. Par
contre, les autres composantes peuvent (et doivent selon les cas) être discontinues.
Plusieurs stratégies sont envisageables :
Post-traitement : Dans cette méthode, on effectue le calcul en déplacements, de manière classique.
On obtient les contraintes de manière toute aussi classique, mais celles-ci n’ont évidemment
pas les continuités et discontinuités souhaitées.
On utilise une méthode de post-traitement qui va modifier le calcul des contraintes sur les
éléments situés de part et d’autre de l’interface, par exemple en imposant la vérification
des équations d’équilibre (voir par exemple la méthode de Reissner locale, qui applique la
fonctionnelle de Reissner uniquement le long de l’interface).
Élément mixte : La fonctionnelle d’Hellinger-Reissner possède les champs de déplacement et de
contrainte comme inconnues. Elle conduit à un système de type mixte donné par l’équation
(11.11), avec une matrice qui n’est plus définie-positive.
Il s’en suit que ces deux champs sont continus, et notamment que toutes les composantes des
contraintes le sont, ce qui ne satisfait pas les conditions d’équilibre.
Si l’on souhaite utiliser ce type d’élément, il faudra par exemple, faire une condensation
statique des composantes devant être discontinues, ou utiliser une méthode de post-traitement.
Élément hybride : La fonctionnelle de Pian et Tong (mixte hybride) présentée précédemment
Cette condition est facile à écrire et facile à implémenter (mais on perd la définie-positivité
de la matrice de rigidité).
De plus, l’interprétation physique de ces multiplicateurs de Lagrange montre que ceux-ci
sont égaux aux composantes normales des contraintes.
Voilà quelques stratégies. D’autres peuvent exister, surtout si en plus on veut passer sur des modèles
poutre ou plaque. Le but était de montrer que non seulement il est possible de développer de
nombreux éléments finis, mais que même à partir d’éléments existants, il est toujours possible de
construire une méthode numérique permettant d’obtenir les résultats souhaités. Les méthodes de
post-traitement, que nous n’aborderons pas dans ce document, sont très riches et permettent de
faire beaucoup de choses. Elles ont en outre l’avantage d’être parfois plus faciles à implémenter
dans des codes industriels que de nouveaux éléments.
Kuin D 0 (12.6)
Un mode rigide quelconque étant une combinaison linéaire des modes uin , on construit un problème
éléments finis dans lequel on impose mr valeurs du vecteur uin et on détermine numériquement
les n mr composantes (non imposées) de uin . Celles-ci doivent être identiques aux valeurs
théoriques associées au mode rigide i . Si ce n’est pas le cas, c’est qu’il existe des modes rigides.
12.4.3 Patch-tests
Le domaine choisi doit posséder au moins un nœud à l’intérieur du domaine. On définit un champ
de déplacement conduisant à un état de déformation désiré (constant ou non), que l’on introduit
comme condition aux limites dans le modèle élément fini. On vérifie qu’au point intérieur, l’état de
déformation obtenu est bien celui désiré.
y
ξ
-1 0 1 x
(a) Élément de référence (b) Segment réel (3D)
ses seules extrémités. Nous avons donc deux nœuds de coordonnées .x1 ; y1 ; z1 / et .x2 ; y2 ; z2 /.
Un point courant de cet élément sera obtenu par interpolation linéaire entre les deux nœuds,
paramétrée par . On Cherche cette interpolation sous la forme x./ D T N./xn , y./ D T N./yn
et z./ D T N./zn , avec T N./ D T .N1 ./; N2 .// et N1 ./ D 21 .1 /, N2 ./ D 12 .1 C /. De
manière plus « compacte », on peut écrire :
1
Ni ./ D .1 C i /; i D 1; 2; i D ˙1 .et 2 Œ 1; 1/ (12.7)
2
Dans cette interpolation (comme dans toute interpolation), on a une relation entre dx et d. No-
tons dx D ad. Alors :
T 1
a D T x; ; y; ; z; D T .x21 ; y21 ; z21 /
(12.8)
2
III ÉLÉMENTS FINIS 12.5 Exemple : quelques variations sur le thème des éléments unidimensionnels 162
Théorème 48 — Théorème d’inversion locale. Soit f une application de U dans F, où U est
un ouvert d’un espace de Banach réel et F un espace de Banach et soit x un point de U.
Si f est de classe Cp , avec p un entier strictement positif et si la différentielle de f au point
x (définie au paragraphe 3.5) est un isomorphisme bicontinu, alors il existe un voisinage ouvert V
de x et un voisinage ouvert W de f .x/ tels que f se restreigne en une bijection de V dans W
dont la réciproque est de classe Cp .
Comme illustré au paragraphe précédent, le jacobien sert surtout pour effectuer des changement de
variables dans le calculs des intégrales.
Si l’on considère un « petit » domaine, le volume de l’image de ce domaine par la fonction f sera
celui du domaine de départ multiplié par la valeur absolue du jacobien.
alors il vient :
... ...
1 i n
n
Y r
Ni ./ D (12.19)
rD1 r
i
r¤i
x
ξ
-1 0 1 x1
(a) Élément de référence (b) Élément réel (infini)
dans ce paragraphe, mais on pourrait étudier le cas de l’élément linéaire unidimensionnel à n nœuds,
ou des éléments bidimensionnels par exemple. Nous allons toujours avoir une interpolation de la
fonction solution sous la forme :
1 1C
uD u1 C u2 (12.21)
2 2
car concrètement u2 est connu (et fini) : c’est le « lieu » où l’on situe l’infini dans le modèle
éléments finis. Par contre, l’interpolation du point courant sera donnée par :
1C
x D x1 C ˛ (12.22)
1
où ˛ est une constante. On aura également :
u2 u1
u;x D .1 /2 (12.23)
4˛
avec les conditions aux limites u.0/ D 0 et v.0/ D 0. Cette forme variationnelle s’écrit pour
l’élément (ou pour chaque élément si on en avait plusieurs) :
W D T v .Ku f/ (12.25)
Nous avons vu que la géométrie, représentée par un élément, est approximée par :
1 1C
xD x1 C x2 ; 2 Œ 1I 1 (12.26)
2 2
III ÉLÉMENTS FINIS 12.5 Exemple : quelques variations sur le thème des éléments unidimensionnels 164
La représentation de la fonction solution, est :
1 1C
uD u1 C u2 ; 2 Œ 1I 1 (12.27)
2 2
Nous obtenons la matrice de rigidité élémentaire :
2EA 1 1
KD (12.28)
L 1 1
et le vecteur des forces nodales élémentaires :
L 1
f D gA (12.29)
4 1
En prenant en compte les conditions aux limites u1 D 0 et v1 D 0, l’expression W D 0 donne :
gL2
u2 D (12.30)
8E
1T
La déformation est donnée par " D u;x D T Bun avec T B D L . 1; 1/. On obtient :
gL
"D (12.31)
8E
Elle est constante sur l’élément. Quant à la contrainte, elle est obtenue par D E", soit :
gL
D (12.32)
8
Elle est également constante sur l’élément.
1 2 3 4
F IGURE 12.13: Discrétisation de la barre en trois éléments
longueur Le ) possède une matrice de rigidité élémentaire ke et un vecteur des forces nodales
élémentaires fe définis par :
2EA 1 1 Le 1
Ke D et fe D gA (12.33)
Le 1 1 4 1
K D K1 C K2 C K3 et F D f1 C f2 C f3 (12.34)
u1 et u,x1 u2 et u,x2
x
ξ
-1 0 1 x1 x2
(a) Élément de référence (b) Segment réel (2 nœuds, 4ddl)
1 1C
xD x1 C x2 ; 2 Œ 1I 1 (12.35)
2 2
Mais cette fois, l’approximation de la fonction solution est voulue sous la forme :
u D T .N1 ; N2 ; N3 ; N4 / un T
un D T u1 ; u;x1 ; u2 ; u;x2
avec les ddl (12.36)
Les fonctions Ni choisies sont des fonctions cubiques de type Hermite assurant une continuité de u
et u;x aux nœuds 1 et 2. On a :
1 L 2 1 L 2
N1 D .1 /2 .2C/I N2 D . 1/.1 /I N3 D .1C/2 .2 /I N2 D . 1/.1C/
4 8 4 8
(12.37)
Le champ u;x , qui est la déformation ", est donné par " D T Bfun g avec :
3 2 1 2 3 1 2
T
BD T
. 1/; .3 2 1/; .1 2 /; .3 C 2 1/ (12.38)
2L 4 2L 4
La contrainte, dans le cas où le coefficient d’élasticité H est constant est donnée par :
x D HT Bun (12.39)
III ÉLÉMENTS FINIS 12.5 Exemple : quelques variations sur le thème des éléments unidimensionnels 166
u1 u2
σ1 x
ξ
-1 0 1 x1 x2
(a) Élément de référence (b) Élément réel
1 1C
xD x1 C x2 ; 2 Œ 1I 1 (12.40)
2 2
avec :
Z L Z L Z C1
A 1 A N1 L L 1
bD I aD dxI fn D A fx d D Afx (12.44)
0 L 1 0 H 1 N2 2 2 1
On pourrait s’arrêter là avec le système précédent à résoudre. Toutefois, 1 est une variable locale
sans couplage avec les autres éléments. On peut donc l’exprimer en fonction des autres degrés de
liberté de l’élément u1 et u2 . La dernière ligne du système donne : 1 D T bun a1 D 0, 81 ,
d’où :
1T
1 D bun (12.45)
a
avec :
1T
KDb b (12.47)
a
Dans le cas où H est constant, la matrice de rigidité obtenue est identique à celle du modèle en
déplacements du paragraphe 12.5.5.
K D K1 C K2 C K3 et F D f1 C f2 C f3 (12.49)
On traitera le cas où les trois éléments ont la même longueurs (L1 D L2 D L3 D L) et où seul le
nœud 4 est soumis à une force. On obtient alors un système de type Kq D F à résoudre, avec la
condition aux limites u1 D 0, qui s’écrit explicitement dans ce cas :
2 30 1 0 1
1 1 0 0 u1 0
6 1 2 1 0 7 Bu2 C B 0 C
7 B C B
6
40 D C (12.50)
1 2 15 @u3 A @ 0 A
0 0 1 1 u4 F0
Ax D b (12.51)
A22 A21 A111 A12 x2 D b2 A21 A111 b1 que l’on note : Sx2 D c (12.54)
Kq D F (12.57)
Ce système est réduit, i.e. possède moins d’inconnues que le problème initial, mais il est nécessaire
de modifier le chargement extérieur.
Son inconvénient est qu’il est nécessaire d’effectuer un tri explicite au sein des degrés de liberté,
ce qui a pour conséquence de « remplir » le terme K12 , et par suite peut générer un surcoût de calcul
lorsque le nombre de degrés de liberté bloqués est grand.
C’est ainsi que procède le code A BAQUS pour imposer les déplacements.
Séparons maintenant les déplacements imposés des autres degrés de liberté, par une matrice
booléenne D : D est une matrice 1 4, et seul le terme D11 D 1 est non nul : q2 D Dq D u1 , et le
déplacement imposé est ud D 0. Le système s’écrit :
K11 K12 q1 f1
D (12.65)
K21 K22 q2 f2
avec :
2 2 3 2 33 0 0 11 0 0 1 1
2 1 0 1 u2 0
6K11 D 4 1 2 15 K12 D 4 0 57 Bq1 D @u3 AC B f1 D @ 0 A C
CDB
0
6 7B C
0 1 1 0 u 4 F
4 5@ A @ A
K21 D 1 0 0 K22 D 1 q2 D u1 f2 D ud D 0
Par la méthode du complément de Schur, on est encore ramené à la résolution du système (12.64).
On pourra s’amuser à calculer K111 , S... Par la méthode des multiplicateurs de Lagrange, on obtient
le système :
2 30 1 0 1 8
1 1 0 0 1 u1 0 ˆ u1 D 0
< u2 D F 0
ˆ
6 1 2 1 0 0 7 Bu2 C B 0 C
7 B C B C ˆ
ˆ
u3 D 2F0
6
60
6 1 2 1 0 7 Bu3 C D B 0 C
7 B C B C d’où : (12.66)
40 0 1 1 0 5 @u4 A @ F A 0 ˆ
u D 3F0
: 4
ˆ
ˆ
ˆ
1 0 0 0 0 ud D 0 D F0
1 2
3 4 5
de la poutre 1 2 et de la poutre 3 4 5, les points 2 et 3 étant astreints à rester collés ensembles.
En ajoutant la relation u2 D u3 par l’intermédiaire d’un multiplicateur de Lagrange, c’est-à-dire en
ajoutant le terme 1 .u2 u3 ), on obtient le système :
2 30 1 0 1
1 1 0 0 0 0 u1 0
6 1 1 0 0 0 17 7 B u2 C B 0 C
B C B C
6
60 0 1 1 0 17 Bu3 C B 0 C
7 B C B
B CDB 0 (12.70)
6 C
60 0 1 2 1 07 7 B u4 C B F C
C
6
40 0 0 1 1 0 5 @ u5 A @ 0 A
0 1 1 0 0 0 1 ud D 0
auquel il faut également ajouter la condition aux limites u1 =0. Si cette condition aux limites est
imposée par un multiplicateur de Lagrange 2 , alors finalement, il faut résoudre :
8
u1 D 0
2 30 1 0 1
1 1 0 0 0 0 1 u1 0 ˆ
0
ˆ
ˆ u2 D F0
6 1 1 0 0 0 1 0 7 B u2 C B 0 C ˆ
ˆ
ˆ
6 7B C B C
60 0 1 1 0 1 07 7 Bu3 C B 00 C < u3 D F
B C B C ˆ
ˆ
u4 D 2F0 (12.71)
6
60
6 0 1 2 1 0 0 u D
7 B 4C B C
7 B C B F C d’où :
60 0 0 1 1 0 07 7 B u5 C B 0 C u5 D 3F0
B C B C ˆ
ˆ
6 ˆ
ˆ
40 1 1 0 0 0 0 5 @1 A @ 0 A D F0
ˆ
: 1
ˆ
ˆ
ˆ
1 0 0 0 0 0 0 2 0 2 D F0
13.2 Post-traitement
Une manière d’améliorer les résultats est de recourir à des méthodes dites de post-traitement, i.e.
des méthodes qui, à partir des données issues de la résolution du système matriciel correspondant
au problème, fournissent des données complémentaires ou améliorent toute ou partie des données
déjà disponibles.
En fonction des problèmes (donc des données disponibles et des données souhaitées) de
nombreuses méthodes existent. Elles sont généralement dédiées à un problème donné.
173 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
Un exemple déjà abordé dans ce document est celui où, à partir des déplacement nodaux obtenus
par un calcul éléments finis d’une structure mécanique composée de deux matériaux différents dans
une discrétisation classique « en déplacements », on souhaite remonter aux contraintes à l’interface
entre lesdits matériaux.
Une méthode déjà mentionnée est la méthode dite de « Reissner local » qui consiste à intégrer les
équations d’équilibre sous la forme mixte de Reissner, mais uniquement sur des paires d’éléments
ayant des propriété matérielles différentes et possédant une face commune.
On obtient alors un champ de contrainte complètement continu dont on ne retient que les
composantes correspondant à la trace des contraintes, les autres étant calculées comme dans la
méthode classique. On montre que l’on améliore grandement la qualité de l’approximation des
contraintes aux interfaces, mêmes avec un maillage grossier.
Un autre exemple serait, disposant d’un point de pression constant par élément, de calculer
la pression en un point quelconque comme interpolation (linéaire ou non) à partir des points
disponibles.
Un troisième exemple serait à partir des données nodales dans un modèle unidimensionnel
(poutre ou barre selon le cas), de remonter à la répartition des contraintes en un points quelconque
de la structure (donc via les hypothèses faites dans le modèle sur la répartition des contraintes dans
une section + via une interpolation lorsque l’on se trouve dans une section ne passant pas par un
nœud)...
III ÉLÉMENTS FINIS 13.3 Exemple d’implémentation d’un post-traitement dans A NSYS 174
— partir des fichiers de résultats binaires pour les retravailler : c’est également théoriquement
faisable, mais il faut décortiquer les formats d’écriture desdits fichiers, les relire, réécrire
dans le même format... et c’est donc beaucoup de travail (purement informatique) ;
— programmer la fonction directement sous A NSYS (A NSYS possède un langage assez riche et
puissant) ;
— ou alors, et c’est la voie que nous allons montrer, utiliser A NSYS en « coopération » avec un
petit programme extérieur.
La structure de la macro A NSYS que nous proposons (et qui peut être également incluse dans les
menus d’A NSYS, mais nous n’entrons pas dans ce niveau de détail d’interfaçage) est très simple :
— on récupère les données dont nous avons besoin et on les stocke dans des fichiers externes
(simples) ;
— on lance un programme externe (dont la structure sera exposée plus bas) ;
— on réintègre les résultats dans A NSYS.
On peut alors se servir de toutes les fonctions de visualisation disponibles dans A NSYS avec les
résultats modifiés...
175 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
96 ! / s y s , ’ rm t e m p . dum ’ 111 *vread , CoordZ (1) , temp , sxy , ,
97 ! / s y s , ’ rm t e m p . t m p ’ 112 ( E13 .7)
98 ! 113 *vput , CoordX (1) , node ,1 ,S , x
99 ! l i r e l e s v a l e u r s dans temp . s i j 114 *vput , CoordY (1) , node ,1 ,S , y
100 ! ces f i c h i e r s c o n t i e n n e n t : sxx , syy , 115 *vput , CoordZ (1) , node ,1 ,S , xy
sxy 116 !
101 ! ce s o n t t o u t e s l e s composantes 117 ! Cleanup
continues . 118 CoordX (1) =
102 ! E l l e s n ’ o n t p a s t o u t e s un s e n s : 119 CoordY (1) =
103 ! Sxx d i s c o n t i n u , mais dans l e r e p e r e 120 CoordZ (1) =
104 ! l o c a l , d o n c on l a l a i s s e p o u r qu ’ 121 Mater (1 ,3) =
ANSYS 122 E1 (1 ,9) =
105 ! p u i s s e f a i r e l a ! r o t a t i o n de r e p e r e 123 Nnoeuds =
106 ! si necessaire . 124 Nmater =
107 *vread , CoordX (1) , temp , sxx , , 125 Nelem =
108 ( E13 .7) 126 !
109 *vread , CoordY (1) , temp , syy , , 127 /gop
110 ( E13 .7)
III ÉLÉMENTS FINIS 13.3 Exemple d’implémentation d’un post-traitement dans A NSYS 176
53 C Average multi computed nodes
54 CALL AVERAGE ( NODMAX , MULTI )
55 C
56 C Last line o f VM2
57 END
La routine READANS permet de lire les données. Celles-ci sont stockées dans les matrices
COORD ( NODMAX ,3), DISP ( NODMAX ,2), XMAT ( MATMAX ,3) et NLT ( NELTMAX ,9).
la routine CHELT détecte les interfaces, i.e. les faces dont les nœuds appartiennent à des éléments
dont les propriétés matérielles sont différentes. Le vecteur NADJ ( NODMAX ,8) contient les numéros
des deux éléments adjacents (positions 1 et 2) ainsi que les numéros des nœuds de l’interface
(positions 3, 4 et 5).
La routine MATER construit, pour chacune des faces de l’interface, la matrice de rigidité (aussi
bien pour le cas isotrope que pour le cas orthotrope).
La routine LOCREISS calcule les contraintes nodales le long de chaque face.
Les contraintes ayant été calculées pour les nœuds de chacune des faces de l’interface, on
moyenne les résultats pour un nœud appartenant à plusieurs faces. C’est ce que fait la routine
AVERAGE . À ce stade, nous disposons donc des contraintes nodales, calculées par la fonctionnelle
mixte d’Hellinger-Reissner, le long de toutes les interfaces présentes dans le modèle. Il ne reste
plus qu’à écrire ces résultats pour qu’ils soient relus par la macros A NSYS.
13.3.2 Poutre en U
R E F
C
A D
177 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
51 l ,4 ,5 , NCORE
1 ! geom : p a r t i e d r o i t e 52 l ,3 ,6 , NCORE
2 long =20 53 larc ,5 ,6 ,13 , Rh1 , NRCUTS
3 H1 =0.2 54 l ,5 ,8 , NSKIN
4 H2 =1.8 55 larc ,8 ,7 ,13 , Rint , NRCUTS
5 H3 =2 56 l ,6 ,7 , NSKIN
6 ! 57 !
7 ! geom c o u d e 58 l ,2 ,9 , NCUTS
8 Rint =10 59 l ,9 ,10 , NSKIN
9 Rh1 = Rint + H1 60 l ,10 ,3 , NCUTS
10 Rh2 = Rint + H2 61 l ,10 ,11 , NCORE
11 Rh3 = Rint + H3 62 l ,11 ,6 , NCUTS
12 ! 63 l ,11 ,12 , NSKIN
13 ! maillage 64 l ,12 ,7 , NCUTS
14 NCUTS =40 65 !
15 NRCUTS =20 66 mat ,1
16 NCORE =16 67 a ,1 ,2 ,3 ,4
17 NSKIN =2 68 a ,5 ,6 ,7 ,8
18 Forc =1 69 a ,2 ,9 ,10 ,3
19 ! 70 a ,6 ,11 ,12 ,7
20 /PREP7 71 mat ,2
21 ! 72 a ,4 ,3 ,6 ,5
22 ET ,1 , PLANE82 73 a ,3 ,10 ,11 ,6
23 ! 74 mat ,1
24 UIMP ,1 , EX , , ,70000 , 75 amesh ,1
25 UIMP ,1 , NUXY , , ,0.3 , 76 amesh ,2
26 UIMP ,1 , EMIS , , ,1 , 77 amesh ,3
27 ! 78 amesh ,4
28 ! 79 mat ,2
29 UIMP ,2 , EX , , ,3400 , 80 amesh ,5
30 UIMP ,2 , NUXY , , ,0.34 , 81 amesh ,6
31 UIMP ,2 , EMIS , , ,1 , 82 !
32 ! 83 DL ,4 , , symm
33 k ,1 ,0 , - Rh3 84 DL ,5 , , symm
34 k ,2 , Rh3 ,0 85 DL ,8 , , symm
35 k ,3 , Rh2 ,0 86 !
36 k ,4 ,0 , - Rh2 87 dk ,8 , uy ,0
37 k ,5 ,0 , - Rh1 88 !
38 k ,6 , Rh1 ,0 89 fk ,9 , fx , Forc
39 k ,7 , Rint ,0 90 !
40 k ,8 ,0 , - Rint 91 FINISH
41 k ,9 , Rh3 , long 92 /SOLU
42 k ,10 , Rh2 , long 93 /STAT , SOLU
43 k ,11 , Rh1 , long 94 SOLVE
44 k ,12 , Rint , long 95 FINISH
45 k ,13 ,0 ,0 96 /POST1
46 ! 97 pldisp ,1
47 larc ,1 ,2 ,13 , Rh3 , NRCUTS 98 *USE , INTERF
48 l ,2 ,3 , NSKIN 99 ...
49 larc ,4 ,3 ,13 , Rh2 , NRCUTS
50 l ,1 ,4 , NSKIN
On utilise la macro en tapant *USE,INTERF, et les contraintes sont directement modifiées dans
A NSYS. On peut alors utiliser les mêmes fonctions qu’habituellement pour visualiser les différentes
composantes des contraintes.
Le listing Cast3M du même problème est le suivant :
III ÉLÉMENTS FINIS 13.3 Exemple d’implémentation d’un post-traitement dans A NSYS 178
27 k2 = Rh3 0.; 69 PEAUINT = SURF1 ET SURF2 ;
28 k3 = Rh2 0.; 70 ELIMINE PEAUINT ;
29 k4 = 0. MRh2 ; 71 PoutU = PEAUEXT ET AME ET PEAUINT ;
30 k5 = 0. MRh1 ; 72
31 k6 = Rh1 0.; 73 Model1 = MODL peauext MECANIQUE
32 k7 = Rint 0.; ELASTIQUE ISOTROPE QUA4 ;
33 k8 = 0. MRint ; 74 Model2 = MODL ame MECANIQUE ELASTIQUE
34 k9 = Rh3 long ; ISOTROPE QUA4 ;
35 k10 = Rh2 long ; 75 Model3 = MODL peauint MECANIQUE
36 k11 = Rh1 long ; ELASTIQUE ISOTROPE QUA4 ;
37 k12 = Rint long ; 76 ModelTot = Model1 ET Model2 ET Model3 ;
38 k13 = 0. 0.; 77
39 78 Mater1 = MATERIAU Model1 YOUNG 70000.0
40 L1 = CERCLE NRCUTS k1 k13 k2 ; NU 0.3 RHO 2700.0;
41 L2 = DROITE k2 k3 NSKIN ; 79 Mater2 = MATERIAU Model2 YOUNG 3400.0 NU
42 L3 = CERCLE NRCUTS k4 k13 k3 ; 0.34 RHO 1000.0;
43 L4 = DROITE k1 k4 NSKIN ; 80 Mater3 = MATERIAU Model3 YOUNG 70000.0
44 L5 = DROITE k4 k5 NCORE ; NU 0.3 RHO 2700.0;
45 L6 = DROITE k3 k6 NCORE ; 81
46 L7 = CERCLE NRCUTS k5 k13 k6 ; 82 MR1 = RIGIDITE Model1 Mater1 ;
47 L8 = DROITE k5 k8 NSKIN ; 83 MR2 = RIGIDITE Model2 Mater2 ;
48 L9 = CERCLE NRCUTS k8 k13 k7 ; 84 MR3 = RIGIDITE Model3 Mater3 ;
49 L10 = DROITE k6 k7 NSKIN ; 85 Mrigid = MR1 ET MR2 ET MR3 ;
50 86
51 L11 = DROITE k2 k9 NCUTS ; 87 CondL2 = BLOQUER UX ( L4 ET L5 ET L8 ) ;
52 L12 = DROITE k9 k10 NSKIN ; 88 CondL1 = BLOQUER UY k8 ;
53 L13 = DROITE k10 k3 NCUTS ; 89 CondLtot = CondL1 ET CondL2 ;
54 L14 = DROITE k10 k11 NCORE ; 90 FOR1 = FORCE ( Forc 0.) k9 ;
55 L15 = DROITE k11 k6 NCUTS ; 91 Mrigid = Mrigid ET CondLtot ;
56 L16 = DROITE k11 k12 NSKIN ; 92
57 L17 = DROITE k12 k7 NCUTS ; 93 Depl1 = RESOUD Mrigid For1 ;
58 94
59 SURF1 = DALLER L1 L2 L3 L4 ; 95 UX1 = EXCO ’ UX ’ depl1 ;
60 SURF2 = DALLER L2 L11 L12 L13 ; 96 UY1 = EXCO ’ UY ’ depl1 ;
61 PEAUEXT = SURF1 ET SURF2 ; 97 TRACE UX1 PoutU ;
62 ELIMINE PEAUEXT ; 98 TRACE UY1 PoutU ;
63 SURF1 = DALLER L3 L6 L7 L5 ; 99
64 SURF2 = DALLER L6 L13 L14 L15 ; 100 def0 = DEFORMEE poutU Depl1 0.0 BLEU ;
65 AME = SURF1 ET SURF2 ; 101 def1 = DEFORMEE poutU Depl1 ROUG ;
66 ELIMINE AME ; 102 TRACE ( def0 ET def1 ) ;
67 SURF1 = DALLER L8 L7 L10 L9 ; 103
68 SURF2 = DALLER L10 L15 L16 L17 ;
Il reste maintenant à avoir les résultats dans les repères locaux élémentaires, et voir ce qui se
passe aux interfaces...
13.3.3 Résultats
Dans les listings ci-dessus, nous n’avons pas exposé comme atteindre les contraintes, car cela sera
fait en TP. Les résultats directement obtenus sont donnés à la figure 13.2 pour la déformée et les
déplacements selon x et y, et à la figure 13.3 pour les déformations.
Néanmoins nous présentons quelques résultats issus de l’analyse des contraintes aux interfaces
avec ou sans utilisation de la méthode de Reissner local. Nous nous concentrerons sur les résultats
numériques et graphiques permettant d’apprécier la précision de la méthode de Reissner local par
rapport aux résultats d’A NSYS aux points A, B, E et F ainsi que d’étudier l’influence de la valeur
du rayon R.
Une première remarque s’impose : plus la valeur du rayon est faible, plus les résultats sont
mauvais, quelle que soit la méthode employée (et vous devez savoir pourquoi à ce niveau du
document).
Au point A, l’influence des conditions aux limites est encore sensible : en plus de la condition
de symétrie de la structure, le blocage du déplacement vertical induit une légère détérioration des
résultats numériques. L’influence de cette condition aux limites n’est plus visible au point B.
En A et B, la composante discontinue est xx , les composantes yy et xy sont continues.
Par contre, aux points E et F, c’est yy la composante discontinue et xx et xy les composantes
179 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
Déplacement Déplacement
UX UY
0.59 −7.26E−04
0.56 −5.75E−03
0.53 −1.08E−02
0.50 −1.58E−02
0.47 −2.08E−02
0.45 −2.58E−02
0.42 −3.09E−02
0.39 −3.59E−02
0.36 −4.09E−02
0.33 −4.59E−02
0.30 −5.09E−02
0.28 −5.60E−02
0.25 −6.10E−02
0.22 −6.60E−02
0.19 −7.10E−02
0.16 −7.60E−02
0.13 −8.11E−02
0.11 −8.61E−02
7.76E02 −9.11E−02
4.93E02 −9.61E−02
2.10E02 −0.10
continues.
D’après les résultats présentés ci-après, il est visible que la méthode de Reissner local permet
d’améliorer les résultats par rapport à A NSYS.
III ÉLÉMENTS FINIS 13.3 Exemple d’implémentation d’un post-traitement dans A NSYS 180
xx xx
Méthode R peau âme yy xy
(mm) (MPa) (MPa) (MPa) (MPa)
Ref 10 72,085 4,0121 1,5883 -0,0023339
Reiss 10 71,957 3,9670 1,5987 -0,0155720
A NSYS 10 71,957 3,9670 1,5116 0,0086231
Ref 8 66,500 3,8400 1,8556 -0,0022273
Reiss 8 66,665 3,7863 1,8888 -0,0118667
A NSYS 8 66,665 3,7863 1,7943 0,0111910
Ref 5 57,289 3,6598 2,6317 -0,0018770
Reiss 5 57,727 3,5771 2,6979 -0,0071024
A NSYS 5 57,727 3,5771 2,6066 0,0128210
Ref 3 49,551 3,6827 3,9304 -0,0014368
Reiss 3 49,454 3,5552 4,0110 -0,0046055
A NSYS 3 49,454 3,5552 3,9621 0,0106410
Ref 2 42,699 3,8289 5,4227 -0,0009727
Reiss 2 42,362 3,6593 5,4785 -0,0037443
A NSYS 2 42,362 3,6593 5,5264 0,0059470
Ref 1 27,171 4,3142 9,2850 -0,0004173
Reiss 1 25,876 4,0707 9,1122 -0,0021565
A NSYS 1 25,876 4,0707 9,6345 0,0005231
8 Ref
Reissner local C
7 A NSYS
6
yy (MPa)
C
5
4 C
3
C
2 C
C
1
1 2 3 4 5 6 7 8 9 10
R
181 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
0:015
0:010
0:005 Ref
Reissner local C
xy (MPa)
0:000 A NSYS
C
C C
0:005
C
0:010
C
0:015 C
0:020
1 2 3 4 5 6 7 8 9 10
R
xx xx
Méthode R peau âme yy xy
(mm) (MPa) (MPa) (MPa) (MPa)
Ref 10 -72,248 -3,0668 1,4080 -0,0023570
Reiss 10 -72,542 -3,1193 1,2573 -0,0138800
A NSYS 10 -72,542 -3,1193 1,5464 -0,0198700
Ref 8 -67,723 -2,7905 1,5799 -0,0026011
Reiss 8 -68,001 -2,8457 1,4570 -0,0107700
A NSYS 8 -68,001 -2,8457 1,7111 -0,0197300
Ref 5 -61,079 -2,3199 2,0320 -0,0024099
Reiss 5 -61,335 -2,3813 1,9460 -0,0067001
A NSYS 5 -61,335 -2,3813 2,1535 -0,0186210
Ref 3 -56,823 -1,9080 2,6611 -0,0022154
Reiss 3 -57,072 -1,9756 2,5888 -0,0045050
A NSYS 3 -57,072 -1,9756 2,7738 -0,0176540
Ref 2 -54,772 -1,6200 3,2396 -0,0021234
Reiss 2 -55,026 -1,6902 3,1612 -0,0036124
A NSYS 2 -55,026 -1,6902 3,3438 -0,0172760
Ref 1 -52,491 -1,1687 4,2871 -0,0020797
Reiss 1 -52,777 -1,2391 4,1625 -0,0031088
A NSYS 1 -52,777 -1,2391 4,3710 -0,0174200
III ÉLÉMENTS FINIS 13.3 Exemple d’implémentation d’un post-traitement dans A NSYS 182
4:5
C
4:0 Ref
Reissner local C
3:5 A NSYS
C
yy (MPa)
3:0
2:5 C
2:0 C
1:5 C
C
1:0
1 2 3 4 5 6 7 8 9 10
R
0:002
C C
0:004 C Ref
Reissner local C
0:006 A NSYS
C
0:008
xy (MPa)
0:010
C
0:012
0:014 C
0:016
0:018
0:020
1 2 3 4 5 6 7 8 9 10
R
183 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
yy yy
Méthode R peau âme xx xy
(mm) (MPa) (MPa) (MPa) (MPa)
ref 10 46,0340 2,410200 0,57548 0,77518
Reiss 10 46,0265 2,397450 0,48986 0,71342
A NSYS 10 46,0265 2,397450 0,62529 0,80572
ref 8 45,8625 2,443000 0,68465 0,83563
Reiss 8 45,8505 2,421450 0,62992 0,76781
A NSYS 8 45,8505 2,421450 0,71910 0,90760
ref 5 45,4490 2,539450 1,00620 1,00390
Reiss 5 45,5025 2,499550 1,00810 0,91559
A NSYS 5 45,5025 2,499550 0,94099 1,19800
ref 3 44,5760 2,694400 1,56820 1,25790
Reiss 3 45,0015 2,644550 1,62260 1,10690
A NSYS 3 45,0015 2,644550 1,30760 1,64980
ref 2 43,1510 2,856600 2,23920 1,50420
Reiss 2 44,1375 2,805000 2,32600 1,25870
A NSYS 2 44,1375 2,805000 1,77080 2,12250
ref 1 37,6330 3,184100 4,02110 1,90380
Reiss 1 40,1735 3,143850 4,04390 1,41220
A NSYS 1 40,1735 3,143850 3,04360 3,15350
4:5
4:0C Ref
Reissner local C
3:5 A NSYS
3:0
yy (MPa)
2:5
C
2:0
C
1:5
1:0 C
C
0:5 C
0:0
1 2 3 4 5 6 7 8 9 10
R
III ÉLÉMENTS FINIS 13.3 Exemple d’implémentation d’un post-traitement dans A NSYS 184
3:5
3:0 Ref
Reissner local C
A NSYS
2:5
xy (MPa)
2:0
1:5C
C
C
1:0 C
C
C
0:5
1 2 3 4 5 6 7 8 9 10
R
yy yy
Méthode R peau âme xx xy
(mm) (MPa) (MPa) (MPa) (MPa)
ref 10 -47,438 -2,1425 0,54431 0,30073
Reiss 10 -47,510 -2,1533 0,39416 0.38936
A NSYS 10 -47,510 -2,1533 0,65814 0,30000
ref 8 -47,4555 -2,11415 0,62480 0,24743
Reiss 8 -47,5605 -2,12825 0,50447 0.33138
A NSYS 8 -47,5605 -2,12825 0,72921 0,21663
ref 5 -47,415 -2,03645 0,83167 0,10558
Reiss 5 -47,5335 -2,05940 0,76054 0,18360
A NSYS 5 -47,5335 -2,05940 0,87666 0,00251
ref 3 -47,223 -1,92305 1,11940 -0,10042
Reiss 3 -47,1885 -1,95170 1,07760 -0,01314
A NSYS 3 -47,1885 -1,95170 1,05090 -0,28747
ref 2 -46,940 -1,81445 1,38480 -0,29901
Reiss 2 -46,6760 -1,84130 1,35230 -0,18934
A NSYS 2 -46,6760 -1,84130 1,21420 -0,55238
ref 1 -46,1935 -1,61030 1,85860 -0,67358
Reiss 1 -45,4620 -1,62185 1,81270 -0,50497
A NSYS 1 -45,4620 -1,62185 1,52280 -1,03400
185 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
2
1:8C Ref
Reissner local C
1:6 A NSYS
1:4 C
yy (MPa)
1:2
C
1
0:8 C
0:6
C
0:4 C
0:2
1 2 3 4 5 6 7 8 9 10
R
0:400 C
C
0:200 C
0:000 C
Ref
Reissner local C
0:200 C
xy (MPa)
A NSYS
0:400
C
0:600
0:800
1:000
1:200
1 2 3 4 5 6 7 8 9 10
R
La simulation est donc décomposée en différents niveaux, chacun représentant une échelle
différente. Pour coordonner ces niveaux entre eux, on utilise généralement une approche dite
descendante : on commence par simuler le comportement global de l’avion, puis les résultats sont
utilisés pour déterminer les conditions aux limites appliquées sur les niveaux inférieurs. Toutefois,
il est parfois également nécessaire de combiner ces approches descendantes à des approches
ascendantes : les résultats des simulations fines sont utilisés pour construire des modèles de
comportements plus grossiers.
De très nombreuses méthodologies multi-échelles existent et reposent toutes sur le fait de
simuler chaque phénomène à l’échelle la plus pertinente. Pour cela, il est nécessaire :
1. de distinguer différentes échelles dans la modélisation et dans la simulation ;
2. de modéliser les relations existant entre ces différentes échelles.
Considérons un problème comportant deux échelles. Le point 1 évoqué ci-dessus se traduit par
le fait de disposer de deux modèles distincts :
— Un modèle macroscopique
Il représente le produit et son environnement extérieur et est constitué d’une géométrie et d’un
modèle de comportement relativement grossiers (puisque n’ayant pas vocation à représenter
les phénomènes microscopiques) ;
— Un modèle microscopique
Il possède une description géométrique et un maillage suffisamment fins ainsi que soit
modélisé le comportement détaillé. Il ne comprend qu’une ou quelques « cellules types » de
petites dimensions.
Il est souvent possible, pour les matériaux notamment, de disposer d’hypothèses simplifica-
trices (telles que l’élasticité linéaire) permettant de se restreindre à une seule cellule type.
Pour le cas des matériaux anisotropes constitués de plusieurs autres matériaux tels que les
matériaux composites et fibreux, on se reportera au chapitre 15.
Toutefois, il peut arriver que l’on ne dispose pas de telles hypothèses et il soit alors nécessaire
de multiplier le nombre de cellules (jusqu’à parfois couvrir tout le modèle macro !)
Le point 2 consiste donc à relier les deux échelles de modélisation.
En effet, les modèles macroscopique et microscopique ne sont pas indépendants puisqu’ils
modélisent la même physique à des échelles différentes. Il est donc nécessaire qu’ils soient cohérents
l’un vis-à-vis de l’autre, en tout point et à chaque instant de la simulation. Pour cette raison, les
modélisations multi-échelles comportent des couplages, i.e. des modèles d’interactions, entre les
187 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
échelles.
Dans le cadre de la mécanique des solides déformables, on procède généralement comme suit :
— Le modèle de comportement macroscopique : qui modélise des phénomènes se produisant
« au cœur du matériau », doit correspondre à la relation contraintes/déformations observée
sur la cellule microscopique ;
— Le modèle de comportement microscopique : qui traduisent la façon dont la cellule est
sollicitée par son environnement extérieur, doivent correspondre à l’état de contraintes ou de
déformations macroscopique.
Le modèle macroscopique ayant une résolution beaucoup plus grossière, la cohérence des
deux modèles ne peut donc pas se traduire par une correspondance exacte, point par point, des
conditions aux limites ou du comportement. Pour cette raison, la plupart des approches multi-
échelles postulent que les quantités macroscopiques doivent correspondre à des « moyennes » des
quantités microscopiques correspondantes, la définition mathématique exacte de cette moyenne
variant fortement d’une approche à l’autre.
On peut donc dire que :
— Le modèle de comportement macroscopique d’un élément de volume est choisi égal au
comportement moyen de la cellule microscopique correspondante, calculé en utilisant une
technique d’homogénéisation ;
— Les conditions aux limites microscopiques sont appliquées en moyenne, car les champs de
contraintes ou de déplacements macroscopiques sont beaucoup trop grossiers.
Le problème est donc d’échanger des données pertinentes entre les différentes échelles, compte
tenu des différentes résolutions des modèles.
Dans le sens microscopique vers macroscopique, on utilisera les techniques d’homogénéisation
dont il sera l’objet au chapitre 15.
Dans le sens macroscopique vers microscopique, il s’agit donc de spécifier des conditions aux
limites à appliquer sur le bord des cellules microscopiques, à partir d’une solution macroscopique.
Les méthodes les plus simples se contentent d’imposer directement le champ de déplacements
(ou de contraintes) macroscopique comme condition aux limites. Le modèle macroscopique ayant
par définition une résolution beaucoup plus grossière que le modèle microscopique, il est incapable
de capturer l’allure microscopique des déplacements ou des contraintes. Ces conditions aux limites
sont donc souvent trop imprécises par rapport aux finalités du modèle microscopique. Cela peut
dégrader fortement la qualité des résultats et donc restreindre le domaine de validité de ces
approches.
Pour palier ce problème, on écrit les conditions aux limites microscopiques de manière plus
subtile en les décomposant en la somme d’un terme moyen et d’un terme de moyenne nulle. Ainsi,
le champ microscopique um sera écrit um D uM C v m où uM est le champ macroscopique (i.e.
la moyenne du champ microscopique), et v m est le reste (à moyenne nulle). Notre problème
devient donc de déterminer le reste v m , et c’est là que les méthodes divergent le plus. On distingue
néanmoins deux grosses familles :
— Condition de périodicité
On postule que l’on connaît l’allure du reste. On peut alors enchaîner un calcul macroscopique
avec un solveur spécifique puis un calcul microscopique avec un solveur classique ;
— Couplage des cellules microscopiques
Lorsqu’il n’est pas si simple de « séparer » les échelles, alors il faut résoudre en même temps
les deux problèmes microscopique et macroscopique avec échange de données.
Ces deux approches vont être un peu plus détaillées maintenant.
189 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
de propager une information fine sur l’ensemble de la pièce et, ainsi, de se passer de l’hypothèse
de séparation des échelles : il n’est plus nécessaire de modéliser séparément les phénomènes
microscopiques et macroscopiques.
Concrètement, les méthodes de décomposition de domaine sont des solveurs qui ont générale-
ment un fonctionnement multi-échelles. Elles partent d’un modèle microscopique du produit décom-
posé en sous-structures, et consistent à coupler les sous-structures en échangeant des contraintes et
des déplacements sur les interfaces. Des versions plus ou moins simples existent. Notons bien qu’il
n’y a pas de modèle macroscopique dans une telle approche.
En résumé :
Dans la décomposition de domaine, la simulation est abordée à l’échelle la plus fine : la
sous-structuration et le problème grossier ne sont utilisés que pour améliorer l’efficacité de la
résolution.
Une simulation par décomposition de domaine conduit toujours à un champ de déplacement
microscopique continu sur toute la structure, et un champ de contraintes microscopique équilibré
(au sens des éléments finis) sur toute la structure.
Actuellement, la simulation multi-échelles est encore relativement peu répandue dans le monde
de l’ingénierie. Elle représente en effet un changement considérable par rapport aux pratiques
usuelles de simulation ; de plus, la plupart des logiciels de calcul multi-échelles sont des outils
développés par des chercheurs, qui n’ont pas encore l’ergonomie et la robustesse des solveurs
utilisés dans l’industrie. Les industriels attendent donc l’apparition d’outils mieux adaptés à leurs
problématiques avant d’envisager une utilisation plus fréquente de ces méthodes.
Cependant, à plus long terme, la simulation multi-échelles suscite un intérêt considérable dans
l’industrie : en rendant accessibles à la simulation des phénomènes qui ne peuvent actuellement être
étudiés qu’expérimentalement, elle constitue un pas important en direction du « virtual testing ».
Pour cette raison, elle fait toujours l’objet de nombreux projets de recherche. Ceux-ci concernent
aussi bien la modélisation, avec notamment la mise au point de « matériaux virtuels » (qui ne sont
rien d’autre que des modèles multi-échelles, notamment pour les matériaux composites), que les
solveurs qui sont en constante évolution.
13.5 Super-éléments
Histoire
Originellement introduit dans l’aéronautique dans les années 60 (d’où le choix de la figure 13.12), le
concept de sous-structuration répondait à trois motivations :
— faciliter la division du travail : des sous-structures avec des fonctions différentes (fuselage,
ailes, train d’atterrissage...) pouvaient être traitées par des groupes d’experts différents.
Chaque groupe pouvait à loisir améliorer, raffiner... sa partie tant que l’interface avec les
autres parties restait inchangée.
— profiter de la répétition : en remarquant qu’une même structure peut contenir plusieurs sous-
structures identiques, il est possible de diminuer le temps d’étude (par exemple symétrie des
ailes...)
— contourner les limitations des ordinateurs : les ordinateurs de l’époque atteignaient vite
leurs limites (par exemple en terme de taille mémoire). Diviser une structure complexe, que
l’on était incapable de calculer en une seule fois, permettait de sauvegarder des résultats
sous-structure par sous-structure puis d’effectuer « l’assemblage » des résultats.
Si les deux premiers points sont toujours d’actualité, le troisième l’est moins, surtout depuis le
recourt aux algorithmes parallèles.
C’est d’ailleurs le développement de procédures pour le calcul parallèle qui a conduit les
mathématiciens appliqués au concept de sous-domaines, alors qu’ils devaient grouper des éléments
pour des raisons de calcul.
Dans ce paragraphe, nous allons parler du concept de super-élément, qui n’est qu’une application
de ce qui a été présenté au paragraphe précédent.
191 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
13.5.2 Remonter aux degrés de liberté internes
Une fois le système condensé résolu, on obtient les valeurs aux nœuds internes en réutilisant la
formule :
1
qi D Kii .fi Kib qb / (13.6)
1T T
MD qKq qF (13.10)
2
Notons que l’on peut écrire les p conditions cinématiques sous la forme : Cq D ı avec C une
matrice p n, et q et ı des vecteurs.
Nous avons également déjà vu que ces conditions peuvent être prises en compte par l’inter-
médiaire de p multiplicateurs de Lagrange dans la fonctionnelle précédente qui devient alors :
1T
M D T T
qKq qF Cq ı (13.11)
2
Le système à résoudre est symétrique, régulier, mais non défini-positif.
Pour pallier la lenteur des algorithmes disponibles pour la résolution numérique d’un tel système
(méthode de Gauß ou de décomposition avec pivotage), il est préférable de régulariser le système.
Pour cela, on s’appuie sur la connaissance de la matrice K : celle-ci est singulière d’ordre r,
où r correspond aux mouvements de corps rigide, ou modes rigides. Cela veut également dire
qu’elle possède .n r/ valeurs propres strictement positives (et r valeurs propres nulles).
Il est évident qu’il faut au moins disposer de p > n conditions aux limites cinématiques pour
que le système puisse admettre une solution. C’est évidemment l’hypothèse que nous ferons (sinon
le problème est mal posé).
Nous considérons la matrice R de dimension n r des r vecteurs propres de K correspondant
à la valeur propre nulle. Quitte à construire ces vecteurs (qui sont orthogonaux), nous les choisirons
normés. On a alors :
(
KR D 0
T
(13.12)
RR D Ir
On introduit la matrice :
K˛ D K C ˛RT R (13.13)
qui, pour ˛ > 0 est régulière car symétrique et définie-positive. Les colonnes de R sont vecteurs
propres de K˛ pour la valeur propre ˛.
Dans le système Kq D F, on remplace K par K˛ RT R, et en introduisant le fait que K˛ RT R D
T
˛R R, on obtient finalement :
RT R q D F
K˛ In (13.14)
K˛ v D F (13.15)
193 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
On peut remarquer que K˛ 1 , que l’on note S˛ , possède les mêmes valeurs propres que K˛ (et
donc les mêmes que K et RT R). On est donc naturellement amené à décomposer S˛ comme :
1 T
S˛ D S C R R (13.17)
˛
avec SR D 0 et T RS D 0.
C’est cette matrice S que l’on appelle quasi-inverse de K, car :
SK D KS D I RT R (13.18)
Elle est de dimension n n, symétrique, semi-définie positive (ses valeurs propres sont de même
signe), admet les mêmes valeurs propres que K et en particulier ceux de la valeur propre nulle
dont R est une base, mais elle ne possède pas de caractère bande.
Voici brossé, en quelques lignes, les idées principales de la méthode. Nous n’irons pas plus loin
dans sa présentation.
On rappelle que l’intérêt de la méthode est qu’une fois une première étape consistant à intégrer
les données relatives à la structure (géométrie, discrétisation, matériaux) réalisée, on peut alors
effectuer autant de fois que nécessaire la seconde étape qui porte sur la prise en compte des
chargements et conditions aux limites.
Notons qu’il est possible de modifier un peu la forme du système secondaire afin de pouvoir
prendre en compte, lors de la seconde étape, des conditions plus complexes, comme des conditions
mixtes par exemple...
Nous considérons la fonction coût J.; u / choisie pour décrire le problème d’optimisation. Cette
fonction dépend donc naturellement du domaine et de la solution du problème sur ce domaine u .
Nous allons donner un sens à la dérivée de la fonction
R coût par rapport aux variations du domaine.
Si l’on considère le cas simple J.; u/ D u, alors il vient :
Z Z
dJ
.; uv ; V/ D u V n C u0Iv (13.21)
d
avec :
uCt V ı .I C tV/.x/ u .x/
uP IV D lim ; 8x 2 (13.24)
t !0 t
On définit alors la dérivée de la fonction coût par rapport aux variations du domaine par :
@J
Z
.; u; V/ D uV n (13.25)
@
La difficulté tient à ce que l’ensemble des domaines ne constitue pas un espace vectoriel. En
effet, les perturbations ne s’ajoutent pas, ou au moins ne sont pas associatives : . C V/ C W ¤
. C W/ C V.
Toutefois, si l’on utilise un paramétrage du domaine, il est alors possible d’utiliser les outils
classiques du calcul différentiel dans les espaces normés. On introduit alors le paramètre F par :
1
J.F; u/ D J.F./; u ı F /; F 2 W1;1 .I Rn / (13.26)
et l’on a alors .F C V/ C W D .F C W/ C V.
195 13. Calcul efficient : qualité des résultats et efforts de calcul ÉLÉMENTS FINIS III
La dérivée partielle de J par rapport au paramètre F est définie sans ambiguïté. Dans notre
exemple, cette dérivée, prise au point F D I est :
@J
Z
.I; u/ V D u div V (13.27)
@F
@J @J
.; u; V/ ¤ .I; u/ V (13.28)
@ @F
ce à quoi nous répondrons que c’est le prix à payer pour se ramener à un espace vectoriel. Cette
démarche peut alors être généralisée aux ordres supérieurs.
Le maillage
Le maillage n’a pas seulement un intérêt en calcul scientifique. Le maillage est un « support » de
représentation tridimensionnel utilisé par exemple dans les jeux vidéo ainsi que dans les animations
3D. Dans ce dernier cas, on s’intéresse à la qualité du maillage en lien avec la qualité de rendu
de l’image générée lorsque l’on applique une texture sur le maillage. On s’intéresse également à
comment « faire bouger » le maillage pour qu’un personnage n’apparaissent pas distordu pendant
une animation...
L’opération de maillage peut se faire à partir de plusieurs données :
— soit à partir de données à utiliser pour la discrétisation : sommets, arêtes...
— soit à partir de données de type CAO décrivant uniquement les entités géométriques.
Nous nous contenterons de présenter quelques outils de maillage relatifs au premier cas, i.e. lorsque
nous disposons de points, arêtes... mais le second cas n’est pas vraiment plus compliqué.
Les méthodes de construction de maillage sont essentiellement :
— Maillage par triangles/tétraèdres :
— Méthodes utilisant le critère de Delaunay : les bases de la méthode seront exposées au
paragraphe 14.1 ;
— Méthodes par avancement de fronts : le principe en sera détaillé au paragraphe 14.2 ;
— Méthodes par décomposition spatiale ;
— Maillage par quadrangles/hexaèdres : quelques remarques seront faites au paragraphe 14.4
— Maillage par avancement de fronts ;
— Maillage par décomposition en domaines.
Parfois, il ne s’agit pas de mailler un domaine, mais de le remailler. Les méthodes d’adaptation
de maillage les plus connues sont :
— Raffinement ;
— Transformation des éléments ;
— Déplacements de nœuds ;
— Simplification de maillage.
L’utilisation de différentes méthodes est illustré à la figure 14.1 issue de [2].
i.e. une arête ai est définie par ses deux sommets .s1i ; s2i / qui sont des points de S, et un sous-
domaine est défini par une arête frontière ai et un sens de parcourt (positif ou négatif).
Définition 65 Les diagrammes de Voronoï sont les polygones convexes Vi , i D 1; :::; Np formés
par l’ensemble des points de R2 plus proches de x i que des autres points x j , soit :
n o
Vi D x 2 R2 =kx x i k 6 kx x j k; 8j 2 f1; :::; Np g (14.4)
Chaque point x i (point générateur) étant considéré comme une île d’où partent des bateaux, la
région de Voronoï du point x i est la région où un bateau issu de l’île x i arrive avant tout bateau issu
d’une autre île. Notons qu’il est possible de jouer avec la métrique pour définir des diagrammes
de Voronoï sur d’autres géométries que la géométrie euclidienne, et qu’il est possible également
d’étendre la définition au cas où « les bateaux ne vont pas tous à la même vitesse ». Dans ce dernier
cas, on parle de diagramme de Voronoï pondéré, que nous n’utiliserons pas dans ce document.
Les diagrammes de Voronoï sont des polygones obtenus comme intersections finies de demi-
espaces et sont donc convexes. De plus, les sommets v k de ces polygones sont à égale distance
k
des points fx ij ; j D 1; :::; nk g de S, où le nombre nk est généralement égal ou supérieur à 3.
À chacun de ces sommets v k , nous pouvons associer le polygone convexe construit avec les
k
points fx ij ; j D 1; :::; nk g en tournant dans le sens trigonométrique. Ce maillage est généralement
formé de triangles, sauf si il y a des points cocycliques.
Le domaine d’un maillage de Delaunay d’un ensemble de points S est l’intérieur du convexi-
fié C.S/ de l’ensemble de points S.
Il existe une propriété qui permet de savoir si un maillage est un maillage de Delaunay. C’est la
propriété de la boule ouverte.
La propriété de la boule ouverte peut être appliquée également au cas d’un quadrilatère convexe,
puisque celui-ci peut être découpé en deux triangles adjacents. Il suffit alors de vérifier la propriété
pour toutes les paires de triangles adjacents formant un quadrilatère convexe.
Si le critère de la boule ouverte n’est pas vérifié pour un quadrilatère convexe, alors on fera un
échange de diagonal pour résoudre le problème.
14.1.3 Remarques
À ce niveau, nous sommes en mesure de générer un maillage... toutefois, celui-ci n’est pas forcément
exempt de problèmes :
— si les seuls points disponibles sont sur la frontière, il va falloir générer des points internes au
maillage. En effet, le maillage généré existe, mais peut présenter des distorsions inadmissibles
en termes de calcul. Le critère le plus naturel pour distribuer les points internes est d’imposer
en tout point x de R2 , le pas de maillage h.x/. En pratique, on ne dispose pas toujours de
cette information et il faut la construire à partir des points disponibles, i.e. des points de la
frontière. D’autre part, dans de nombreuses applications, on préfère donner le nombre de
F IGURE 14.5: a) Points et arêtes, b) maillage de Delaunay ne respectant pas la frontière, c) maillage
respectant la frontière obtenu en échangeant des diagonales
III ÉLÉMENTS FINIS 14.4 Remarques sur le maillage quadrangulaire et hexaédrique 204
Chapitre 15
Homogénéisation
Les théories des milieux effectifs visent à estimer les propriétés effectives (i.e. macroscopiques) d’un
milieu en fonction des propriétés locales de chacun des constituants ainsi que d’un certain nombre
d’informations sur la microstructure.
Les premières théories remontent au XIXe
siècle et sont dues à Mossotti, Maxwell, Pois-
son ou encore Lorentz. Le but de ces modèles
est de fournir soit des bornes pour le com-
portement effectif, soit des approximations
du comportement effectif. Les bornes sont
optimales lorsqu’il existe une microstructure Mossotti Maxwell Poisson Lorentz
particulière qui réalise exactement le modèle
physique. On évalue les « bonnes » propriétés de ces théories en les confrontant à d’autres résultats
théoriques, calculs analytiques et numériques...
Ces théories sont utilisées pour les problèmes de conductivité (milieux diélectriques), en méca-
nique, magnétique, thermique... lorsque l’on a des phases de conductivité, d’élasticité, des coeffi-
cients thermiques... variables. Ces problèmes sont en général très difficiles à résoudre (non-linéaires
et anisotropes) alors qu’en même temps, du point de vue des applications pratiques, il n’est pas
forcément nécessaire de tenir compte de l’ensemble des degrés de liberté de ces systèmes.
L’existence d’un comportement effectif n’est nullement assurée. On montre que, sous certaines
hypothèses (en particulier l’existence d’un volume élémentaire représentatif ), on peut effectivement
remplacer un matériau hétérogène par un milieu homogène équivalent.
Enfin, d’un point de vue purement numérique, ces méthodes peuvent être utilisées pour « simpli-
fier » un système à résoudre, que cela ait un sens physique ou non.
Notons que les techniques d’homogénéisation ne sont pas que des artefacts, des trucs et astuces.
Certaines des grandeurs physiques que nous utilisons tous les jours ne sont que des moyennes.
Le meilleur exemple en est la pression. Bien qu’en un point donné d’un gaz on voit passer des
particules allant en tous sens, on constate également, à une échelle plus macroscopique, un schéma
d’ensemble qui permet de définir par exemple la pression qu’exerce ledit gaz sur une paroi...
pourtant rien de « cohérent » ne se dégage à l’échelle microscopique.
On rappelle également que si est un ouvert connexe borné de Rn , et H10 ./ l’espace de Sobolev
des fonctions qui s’annulent sur , alors la solution u 2 H10 ./ du problème précédent est
également la solution du problème faible :
Z Z
1
8v 2 H0 ./; A.x/ru rv D f .x/v (15.2)
où f 2 L2 ./. Pour que ces deux formulation soient équivalentes, on a supposé que A.x/ est
régulière : i.e. que pour chaque x de , A.x/ est une matrice n n, dont les éléments sont
mesurables et qui est symétrique, définie-positive, bornée, i.e. qu’il existe deux constantes K1
et K2 > 0 telles que :
8v 2 Rn ; K1 v v 6 A.x/v v 6 K2 v v (15.3)
Mentionnons le cas particulier où A.x/ est régulier dans mais pas sur , alors on a deux
conditions d’interface :
Nous savons également que la solution existe et est unique (d’après le théorème de Lax-Milgram,
i.e. d’après le théorème de Riesz-Fréchet en remarquant le produit scalaire qui va bien...)
Intéressons nous maintenant d’un peu plus près à A.x/. Supposons que A.x/ possède une
certaine périodicité ", par exemple, que le matériau constituant le domaine soit constitué de couches
successives de deux matériaux différents, mais avec une périodicité, comme illustré sur la figure 15.1.
Dans un tel cas, nous dirons que les coefficients A dépendent de x=". Cette écriture sous forme
y
0 ε 2ε 3ε x
F IGURE 15.1: Matériau périodique
< d A x
8 du
D f .x/ pour x 2 Œ0; l
dx " dx (15.5)
uD0 pour x D 0 et x D l
:
A est une fonction de R dans R de période 1, et nous la supposerons régulière par morceaux et telle
qu’il existe K1 et K2 > 0 telles que K1 6 A.v/ 6 K2 .
La solution du problème est alors :
Z x Z y
1
u.x/ D A .y="/ f .v/dv C c1 dy C c2 (15.6)
0 0
avec c2 D 0 et
Z l Z y
1
A .y="/ f .v/dvdy
0 0
c1 D Z l
(15.7)
1
a .y="/dy
0
Le nombre d’intervalles pour le calcul approché de c1 est très grand (i.e. très supérieur à l=").
Exprimé autrement, ce résultat devient : le coefficient homogénéisé est 1=h A1 i et non pas hAi
(où hi désigne la moyenne).
où p 2 C.Œ0 I 1/ ; p.x/ > 0; x 2 Œ0 I 1 ; f 2 C.Œ0 I 1/ ; A 2 R, B 2 R et " > 0 le petit paramètre.
En négligeant le terme "2 u00 , nous arrivons à l’équation p.x/ur D f .x/. En d’autres termes,
et comme montré sur la figure 15.2, nous disposons de la courbe correspondant à y D ur D
f .x/=p.x/ (en noir) qui approche la solution du problème donnée par la courbe rouge.
La solution exacte se confond avec ur sur la plus grande partie de l’intervalle Œ0 I 1, mais u
et ur sont fortement différents dans un voisinage des extrémités.
où les uri .x/ sont les termes réguliers, et u0i .x="/ et u1i ..x 1/="/ les termes de couche limite
correspondant aux extrémités x D 0 et x D l.
Pour le calcul on procède donc comme suit :
— on injecte les termes réguliers de l’ansatz dans la formulation du problème ;
— on traite les extrémités pour vérifier les conditions aux limites, ce qui donne les termes de
couche limite ;
— on vérifie que la solution trouvés conviennent bien (i.e. que l’erreur commise est négligeable).
15.2.1 Introduction
D’une manière générale, tous les matériaux, mêmes isotropes, sont hétérogènes en dessous d’une
certaine échelle. Il peut sembler naturel d’utiliser des propriétés homogènes équivalentes correspon-
dant à des propriétés mécaniques effectives. Toutefois, comme nous l’avons déjà vu, ces propriétés
effectives ne s’obtiennent pas par une simple moyenne des propriétés des constituants, mêmes
pondérées par les fractions volumiques.
Les propriétés effectives du milieu homogène équivalent cherché peuvent être obtenues en
résolvant un problème aux limites sur un volume élémentaire d V, à condition que celui-ci soit
suffisamment grand pour être représentatif de la microstructure du matériau hétérogène. Dans le cas
où les constituants présentent une structure périodique, le volume d V peut se réduire à un volume
élémentaire.
Une fois le volume élémentaire déterminé, on le soumet à des sollicitations élémentaires pour
déterminer la réponse résultante. La difficulté réside en fait dans le choix des conditions aux limites
à appliquer au volume élémentaire considéré pour imposer une déformation ou contrainte globale
moyenne donnée. Dans le cas linéaire, on peut prouver l’existence et l’unicité pour les différents
cas de conditions aux limites existants.
Principalement pour les composites stratifiés ou sandwichs, il y a deux niveaux d’homogénéisa-
tion :
— du niveau micromécanique au niveau mésoscopique : Les hétérogénéités de base sont les
fibres et la matrice. On effectue ici une étape d’homogénéisation locale.
— du niveau mésoscopique au niveau macroscopique : Les hétérogénéités de base sont les
différentes couches du stratifié. Ces couches sont considérées comme « homogènes » (étape
précédente). Cette fois, il s’agit d’une homogénéisation dans l’épaisseur du stratifié.
V D Vm C Vf D 1 (15.14)
Elongitudinal D El D Ef Vf C Em Vm (15.15)
C’est la loi des mélanges, qui est bien vérifiée dans la direction des fibres. Il s’agit de la
borne supérieure de Voigt (1887).
— deuxième essai — Il s’effectue dans la direction perpendiculaire aux fibres (compression
transversale)
1 1 Vf Vm
D D C (15.16)
Etransverse Et Ef Em
C’est la loi des mélanges en souplesse. Cette relation n’est pas très bien vérifiée transversale-
ment mais donne une indication sur la borne inférieure, dite de Reuss (1929).
— Module de cisaillement et coefficient de Poisson d’un UD par la loi des mélanges :
1 Vf Vm
lt D f Vf C m Vm et D C (15.17)
Glt Gf Gm
Sur le bord des trous, on peut imposer, soit des conditions de Dirichlet :
uD0 (15.19)
n A.x="/ru D 0 (15.20)
u.2/ D u0 .x; x="/ C "u1 .x; x="/ C "2 u2 .x; x="/ (15.21)
1
r u0 C "0 .r u1 C rx u0 / C ".r u2 C rx u1 / C "2 rx u2 D 0
n A./ " (15.23)
d’où :
8
< n A./r u0
ˆ D0
n A./.r u1 C rx u0 / D0 (15.24)
ˆ
n A./.r u2 C rx u1 / D0
:
On peut prouver que si v0 est solution du problème, alors v0 C cte aussi. Des conditions d’existence
O :
de la solution il vient, tous calculs faits, la matrice des coefficients homogénéisés A
n
@Nj
Z X
O D ŒaO i;j
A avec aO i;j D ai k C aij d (15.25)
QnG0 @k
kD1
où G0 est un trou de la cellule élémentaire Q. Le même type de calcul pourrait être mené avec les
conditions de Dirichlet sur le bord des trous. Cette homogénéisation des milieux poreux est valable
pour l’acoustique comme pour la mécanique.
Résumé — Dans ce chapitre, nous nous intéresserons au cas non stationnaire. Toutefois,
nous n’aborderons pas les éléments finis espace-temps, car il s’agit d’une formulation
gourmande en ressources, d’où sa très faible utilisation (bien que la méthode soit en
elle-même intéressante).
Dans ce chapitre, nous aurons besoin de « dériver numériquement », i.e. de construire
des schémas numériques approchant des dérivées. Le chapitre C en annexe permettra
à certains de se rafraîchir la mémoire en regardant comment on résout les équations
différentielles et aux dérivées partielles... puis numériquement. Nous utiliserons en effet
la méthode de Newmark décrite au paragraphe C.2.5.
R / C Cu.t
Mu.t P / C Ku.t / D F.t / (16.1)
R / C Cq.t
Mq.t P / C Kq.t / D F.t / (16.2)
2t
q t C t D q t C t qP t C .1 2ˇ/qR t C 2ˇ qR t C t
2 (16.3)
qP tC t D q t C t .1
/qR t C
qR tC t
P
que nous avons écrit sous la forme discrétisée, mais qui serait valable pour l’approximation continue
(comme présenté au chapitre au paragraphe C.2.5).
Les différents schémas de Newmark correspondent à des valeurs particulières de ˇ et
.
Kq t C t D R (16.5)
avec :
1 1
KD 2
MC C (16.6)
t 2 t
et :
1 1
R D Ft Kq t C M 2q t qt t C Cq t t (16.7)
2t 2 t
qui ne dépendent bien que de données disponibles. Le calcul se déroule donc comme suit :
— Solution initiale à t D 0 :
— connaissant q0 et qP 0 , on calcule qR 0 en résolvant l’équation « classique » de la dyna-
mique ;
2
— on calcule ensuite q t D q0 t qP 0 C 2t qR 0 .
— On dispose alors de tous les éléments pour, à chaque pas de temps t C t :
— résoudre l’équation modifiée, qui nous fournit q t Ct ;
— puis obtenir qP t et qR t par le schéma de Newmark adopté, ici celui des différences finies
centrées.
On peut faire les remarques suivantes sur ce type de calcul :
— Pour un pas de temps donné, q t ne dépend que des données du temps passé, on a donc une
résolution vectorielle rapide.
— Si les matrices M et C sont diagonales, alors cette méthode est très efficace même pour les
problèmes de grande taille.
— Ce schéma est inconditionnellement stable si t 6 Tmin =, avec Tmin la plus petite période
du système correspondant à l’équation de la dynamique (classique).
— la précision est de l’ordre de 2t .
— L’amortissement numérique est nul.
— Il est possible d’introduire un amortissement numérique pour contrôler les hautes fréquences.
Dans ce cas, il faut considérer le schéma avec ˇ D 0 et
> 1=2. Il n’y a pas automatiquement
stabilité du schéma, celle-ci est à calculer pour chaque schéma.
III ÉLÉMENTS FINIS 16.2 Schéma explicite : différences finies centrées 214
et l’équation de la dynamique discrétisée s’écrit encore sous la forme d’une équation modifiée :
Kq t C t D R (16.9)
qui dépendent également des données au même pas de temps. Le calcul se déroule donc comme
suit :
— Solution initiale à t D 0 :
— connaissant q0 et qP 0 , on calcule qR 0 en résolvant l’équation « classique » de la dyna-
mique ;
— on construit K et, si M, C, K et t sont constants (ce qui est généralement le cas), la
triangulariser.
— À chaque pas de temps t C t :
— calculer R (que l’on appelle le résidu, d’où le choix de la notation) ;
— calculer K et triangulariser si nécessaire ;
— résoudre l’équation modifiée, qui nous fournit q t Ct ;
— puis obtenir qP t et qR t par le schéma de Newmark adopté, ici celui de Newmark implicite.
On peut faire les remarques suivantes sur ce type de calcul :
— Pour un pas de temps donné, q t dépend également des données du même pas de temps, on a
donc une résolution matricielle coûteuse.
— Ce schéma est inconditionnellement stable, et donc comme on peut utiliser de plus grands
pas de temps, on réduit le coût mentionné à la ligne précédente.
— la précision est de l’ordre de 2t , et donc comme on ne peut pas utiliser de trop grands pas de
temps sans réduire la précision...
— L’amortissement numérique est nul.
— Il est possible d’introduire un amortissement numérique pour contrôler les hautes fréquences.
Dans ce cas, il faut considérer le schéma avec
> 1=2 et ˇ D .
C 12 /2 . On obtient encore
un schéma stable.
Endommagement
Explicite
Flambement
Plasticité
Implicite
Elasticité
V
Statique Vibrations Propagation d'ondes Supersonique
1. Lorsque l’on parle de codes éléments finis, on cite les grands noms du domaine... et ils correspondent à des codes
extraordinairement puissants, mais souvent chers.
Or un certain nombre de codes éléments finis professionnels sont disponibles gratuitement (au téléchargement et à
l’utilisation). Les deux plus connus sont C AST 3M (anciennement castem) et C ODE A STER développés et maintenus par
le CEA et par EDF respectivement.
2. Notons que pour ceux qui préfèrent, il existe aussi R HEOLEF, un environnement C++ pour le calcul par éléments
finis, qui reste proche, dans sa philosophie, de ce que propose F REE F EM ++. Nous ne le connaissons pas assez pour
fournir des exemples dans ce document.
III ÉLÉMENTS FINIS 16.5 Exemple : un calcul de propagation avec F REE F EM ++ 216
17 / / p l o t ( Th , w a i t = 1 ) ;
Nous définissons quelques valeurs afin de pouvoir définir le chargement (le chargement défini
par la fonction w1 ne sera pas utilisée dans le calcul effectué). Notons comme il est aisé de définir
des fonctions :
Ensuite, nous définissons l’espace des éléments finis utilisés, et les variables appartenant à ces
espaces. L’analogie avec la « formulation mathématique » saute au yeux... et c’est pourquoi cet
outil nous semble particulièrement intéressant sur le plan pédagogique.
50 / / Espaces elements f i n i s
51 fespace Vh ( Th , P2 ) ;
52 fespace Wh ( Th , P1dc ) ;
53
54 Vh w , wa , wd , wda , wdd , wdda , fi ;
55 Wh sxz , syz ;
56 \ end { Verbatim }
Il s’agit d’un exemple non stationnaire, nous allons donc faire une boucle sur le temps. Dans
F REE F EM ++, nous entrons directement la formulation variationnelle du problème sous forme
« mathématique »... le lien entre pratique des éléments finis et théorie est beaucoup plus clair.
La boucle de temps est basée sur un schéma de Newmark implicite. Le temps « courant » est
le temps t C t et le temps précédent est le temps t pour rester cohérent avec les notations du
chapitre 16.
Il s’agit d’un problème de déplacement hors plan, dont le champ inconnu est traditionnellement
noté w. Ainsi, dans le listing, w représente q t C t , wa q t , wd qP t C t , wda qP t , wdd qR t C t et
wdda qR t . fi ' est la fonction test. La formulation variationnelle, en n’indiçant pas le temps
actuel et en utilisant l’indice a pour le pas de temps précédent (a comme avant), est :
2t
@wP @' @wP @'
ZZ
P '/ D
antiplane.w; P C
w' C
Th 4 Th @x @x @y @y
t t
Z Z
g ' wP a C wR a '
2 Th Th 2
t @wa @' @wa @'
Z
(16.12)
C C
2 Th @x @x @y @y
2
@wP a @' @wP a @'
Z
C t C
4 Th @x @x @y @y
CCondition .wP D 0 sur les lignes 1; 2; 3; 4/
Enfin, pour tester la qualité des résultats, il nous faut quelques indicateurs... Sans entrer dans le
détail, des noms comme enerC, enerP, et enerT doivent vous mettre sur la piste.
82 real [ int ] Ec ( Ntemps ) , Ep ( Ntemps ) , Et ( Ntemps ) , tt ( Ntemps ) ;
83
84 for ( n =0; n < Ntemps ; n ++) {
85 wa = w ; wda = wd ; wdda = wdd ;
86 temps = n * pastemps ;
87
88 enerC =0.5* int2d ( Th ) ( ro * wd ^2) ;
89 enerP =0.5* int2d ( Th ) ( mu *( dx ( w ) * dx ( w ) + dy ( w ) * dy ( w ) ) ) ;
90 enerT = enerC + enerP ;
91 Ec ( n ) = enerC ; Ep ( n ) = enerP ; Et ( n ) = enerT ; tt ( n ) = temps ;
92
93 cout << " iteration n = " << n << " enerP = " << enerP <<
94 " enerC = " << enerC << " enerTotale = " << enerT
95 << endl ;
96
97 temps =( n +1.) * pastemps ;
98
99 // r e s o l u t i o n du p r o b l e m e
100 antiplane ;
101
102 w = wa + dpt *( wda + wd ) ;
103 wdd =( wd - wda ) / dpt - wdda ;
104
105 sxz = mu * dx ( w ) ;
106 syz = mu * dy ( w ) ;
107 plot ( Th , wd , fill = true , value =1 , viso = visoS , nbiso = visoS .n ,
108 ps =n , wait =0) ;
109 }
110
111 / / Energie
112 / / p l o t ( [ t t , Ec ] , [ t t , Ep ] , [ t t , E t ] , p s =" e n e r g i e . e p s " ) ;
113 \ end { Verbatim }
On peut montrer que les modes de vibration de la structure forment une base. Il peut paraître
intéressant de chercher la solution en temps du problème sous forme d’une approximation par
projection sur la base des quelques N premiers modes propres, i.e. de rechercher N fonctions
scalaires du temps.
Lorsque l’on dispose déjà des N premiers modes et lorsque le nombre n de degrés de liberté est
important, cette approche peut s’avérer particulièrement efficace. Par ailleurs, lorsque les modes
sont associés à des mouvements simples de la structure, il peut être facile pour un ingénieur un peu
expérimenté d’imaginer le nombre de modes à utiliser pour représenter le phénomène.
La méthode de la décomposition modale sera exposée au paragraphe 17.3.4, lorsque nous
aurons fait quelques rappels sur les modes propres.
Les ondes
Résumé — Jusqu’ici, nous n’avons quasiment pas parlé de mode propre cela est plus ou
moins évoqué à travers, par exemple, « la plus petite période du système » au chapitre
précédent... mais cela a été fait à dessein.
En effet, nous avons voulu, dans ce chapitre, regrouper les approches modales, car
cela nous a semblé plus en cohérence.
17.1 Introduction
Dans la mesure où se document s’adresse à des ingénieurs en mécanique (ou en acoustique), la
notion de mode propre est une notion relativement maîtrisée.
Un système mécanique atteint un mode propre de vibration lorsque tous les points de ce
système sont à une fréquence donnée appelée fréquence propre du système. Une fréquence propre
est fondamentale si elle n’est pas le multiple d’une autre fréquence propre ; dans le cas contraire,
c’est une harmonique.
On appelle résonance le phénomène selon lequel certains systèmes physiques sont particu-
lièrement sensibles à certaines fréquences. Un système résonant peut accumuler une énergie, si
celle-ci est appliquée sous forme périodique, et proche d’une fréquence propre. Soumis à une telle
excitation, le système est alors le siège d’oscillations de plus en plus importantes, jusqu’à atteindre
un régime d’équilibre qui dépend des éléments dissipatifs du système, ou bien jusqu’à rupture d’un
composant du système.
Si l’on soumet un système résonant à une percussion (pour les systèmes mécaniques) ou à
une impulsion (pour les systèmes électriques), et non plus à une excitation périodique, alors le
système sera le siège d’oscillations amorties sur des fréquences proches de ses fréquences propres
et retournera progressivement à son état stable. Physiquement, c’est le coup de marteau de choc
donné sur une structure pour en déterminer les modes.
Un système susceptible d’entrer en résonance, i.e. susceptible d’être le siège d’oscillations
amorties, est un oscillateur. Un tel système a la particularité de pouvoir emmagasiner temporaire-
ment de l’énergie sous deux formes : potentielle ou cinétique. L’oscillation est le phénomène par
lequel l’énergie du système passe d’une forme à l’autre, de façon périodique.
Si l’on injecte une énergie potentielle au moment où l’énergie potentielle déjà emmagasinée
est maximale, l’énergie ainsi injectée s’ajoute à l’énergie déjà emmagasinée et l’amplitude de
l’oscillation va augmenter, ainsi que l’énergie totale. Idem pour l’énergie cinétique. Ainsi, si l’on
apporte de l’énergie avec une périodicité égale (ou proche) de la périodicité propre du système,
l’énergie totale va augmenter régulièrement et l’amplitude des oscillations du système va ainsi
croître. L’exemple le plus simple est celui d’une balançoire : l’énergie de chaque poussée s’ajoute à
l’énergie totale, à condition de pousser au bon moment...
En mathématiques, le concept de vecteur propre est une notion portant sur une application linéaire
d’un espace dans lui-même. Il correspond à l’étude des axes privilégiés, selon lesquels l’application
se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de
dilatation est appelé valeur propre ; les vecteurs auxquels il s’applique s’appellent vecteurs propres,
réunis en un espace propre.
Histoire
Bien qu’existant sous une forme non formalisée depuis longtemps, il aura fallu attendre l’invention
des structures algébriques nécessaires pour vraiment pouvoir parler des valeurs propres (issues par
exemple de la cloture algébrique de C démontrée par Gauß).
L’exemple immédiat qui vient à l’esprit est le traitement de l’équation de la chaleur par Fourier
qui utilise déjà une base de vecteurs propres, bien que le concept n’ait pas encore été défini. Hamilton
introduira la notion de polynôme caractéristique, ce qui permet de déterminer ce que l’on appelle
maintenant les valeurs propres associées à l’endomorphisme d’une équation différentielle linéaire.
Plusieurs aller-retour permettront de définir
les notions d’espace vectoriel (Cayley, Grass-
mann, Cauchy), de matrice (Sylvester, Cayley)
et de valeurs propres (Sylvester, Jordan). Hil-
bert finalement fera prendre conscience de la
profondeur de la notion de valeur propre. L’ana-
lyse fonctionnelle naît dans la foulée, et elle est Cayley Grassmann Sylvester Jordan
l’objet de la première partie de ce document.
qui peut être vue comme l’équation de la statique Kq D F à laquelle on ajoute des forces extérieures
d’inertie MqR et des forces extérieures visqueuses Cq. P D’un point de vue pratique, on distingue
trois types de problèmes :
— détermination d’une réponse libre : dans ce cas, la sollicitation est nulle F D 0 ;
— détermination d’une réponse périodique : dans ce cas, la sollicitation F est périodique ;
— détermination d’une réponse transitoire : dans ce cas, la sollicitation F est quelconque.
Dans les deux premiers cas, les conditions initiales du système n’ont aucune importance. On
cherche à déterminer une solution générale. On pourrait considérer que le chapitre 16 répond à ces
trois types de problèmes, ce qui n’est pas fondamentalement faux. Toutefois, il est plus judicieux
de considérer que seul le cas de la dynamique transitoire y a été explicité, et encore uniquement
pour l’aspect non modal (qui sera développé dans ce chapitre un peu plus loin).
En effet, dans les cas des vibrations libres (amorties ou non) ou périodique forcées, il est
possible d’utiliser la notion de mode, qui n’avait pas été abordée dans les chapitres précédents.
MqR C Kq D 0 (17.4)
q D qei !t (17.5)
CqP C Kq D 0 (17.15)
.K !C/ q D 0 (17.17)
Les matrices C et K sont généralement définies positives, donc ! est réelle positive. La solution
présente un terme de décroissance exponentielle qui ne correspond pas réellement à un état de
régime permanent.
˛ 2 M C ˛C C K q D 0
(17.20)
où q 2 C.
La partie réelle de la solution représente une vibration amortie. Ce problème est plus délicat à
résoudre que les précédents si bien que la résolution explicite est peu courante.
La solution s’écrit :
!0 t
u D ŒA sin.!D t / C B cos.!D t / e (17.22)
On remarquera que !D n’est définie que pour < 1, i.e. dans le cas des systèmes sous-critiques ou
sous-amortis.
Les constantes d’intégration sont déterminées à l’aide des conditions aux limites sur le dépla-
cement u0 et la vitesse uP 0 . Il vient :
uP 0 C u0 !0
AD et B D u0 (17.24)
!0
!0 t
u D .u0 C !0 u0 t C uP 0 t /e (17.27)
F D Fe˛t (17.28)
avec ˛ D ˛1 C i ˛2 2 C.
La solution générale s’écrit :
q D qe˛t (17.29)
˛ 2 M C ˛C C K q D Dq D
F (17.30)
qui n’est pas un problème de valeurs propres, mais ce système peut être résolu comme un problème
statique, i.e. en inversant la matrice D. Attention, la solution appartient à C.
On sépare alors les parties réelle et imaginaire en notant : e˛t D e˛1 t .cos.˛2 t / C i sin.˛2 t /,
F D F1 C i F2 et q D q1 C i q2 .
On obtient alors le système suivant :
.˛12 ˛22 /M C ˛1 C C K
2˛1 ˛2 M ˛2 C q1 F1
D (17.31)
2˛1 ˛2 M C ˛2 C .˛12 ˛22 /M C ˛1 C C K q2 F2
Décomposition modale
La méthode de décomposition modale est sans doute l’une des plus importantes et des plus
employées. Nous partons toujours de notre équation de la dynamique sous la forme :
où ˛i sont les valeurs propres et qi les vecteurs propres. Pour la réponse forcée, l’idée consiste
à chercher la solution sous la forme d’une combinaison linéaire des modes propres, i.e. sous la
forme :
n
X
qD qi yi .t / (17.36)
i D1
mi yRi C ci uP i C ki yi C fi D 0 (17.37)
mi D T qi Mqi
8
ˆ
ˆ
ˆ
< ci D T q Cq
ˆ
i i
T
(17.38)
ˆ ki D qi Kqi
ˆ
ˆ
ˆ
fi D T qi F
:
Les équations scalaires se résolvent ensuite par des méthodes élémentaires indépendamment les
unes des autres. Le vecteur total est ensuite obtenu par superposition. Toutefois, pour effectuer
cette superposition, il n’aura pas échappé au lecteur qu’il faut avoir résolu le problèmes des valeurs
propres. Dans le cas général, le calcul des valeurs et des vecteurs propres complexes est loin d’être
facile. La méthode habituelle consiste à déterminer les valeurs propres réelles du problème vu
précédemment :
! 2 Mq D Kq (17.39)
Or ceci n’est pas vrai en général car les vecteurs propres assurent uniquement l’orthogonalité de M
et K. En revanche, si la matrice d’amortissement C est une combinaison linéaire des matrices M et
K, la propriété d’orthogonalité est alors évidemment satisfaite. C’est l’hypothèse de Basile.
Dans la suite on suppose que la propriété d’orthogonalité de C est satisfaite. L’équation sur !
devient alors :
et par suite :
!i2 mi D ki (17.42)
En supposant que les modes sont normalisés de telle sorte que mi D 1 et en posant ci D 2!i2 ci0
(où ci0 correspond au pourcentage d’amortissement par rapport à sa valeur critique), on montre que
les équations scalaires se mettent sous forme d’une équation différentielle du second ordre :
Une intégration numérique permet de déterminer une réponse, puis la superposition de ces termes
donne la réponse transitoire totale (en principe !). On rappelle que la méthode de décomposition
modale nécessiterait la détermination de l’ensemble des valeurs et modes propres, ce qui représen-
terait des calculs considérables. D’un point de vue pratique, on ne prend en compte qu’un nombre
limité de modes étant donné que les réponses à des fréquences élevées sont souvent très amorties et
prennent par conséquent des valeurs négligeables. Par ailleurs le problème des hautes fréquences
n’est souvent abordé que de manière statistique.
Quotient de Rayleigh
En particulier, une matrice à éléments réels est hermitienne si et seulement si elle est symétrique.
Une matrice hermitienne est orthogonalement diagonalisable et toutes ses valeurs propres sont
réelles. Ses sous-espaces propres sont deux à deux orthogonaux.
Dans le cas où A et x sont à coefficients réels, alors T x se réduit au vecteur transposé, i.e. T x.
Le quotient de Rayleigh atteint un minimum min (qui n’est autre que la plus petite valeur propre
de A) lorsque x est un vecteur propre vmin associé à cette valeur. De plus, quel que soit le vecteur x,
le quotient de Rayleigh R.A; x/ max (où max est la plus grande valeur propre de A de vecteur
propre associé vmax ) et R.A; vmax / D max . Ainsi, le quotient de Rayleigh, combiné au théorème
du minimax de von Neumann, permet de déterminer une à une toutes les valeurs propres d’une
matrice.
On peut également l’employer pour calculer une valeur approchée d’une valeur propre à partir
d’une approximation d’un vecteur propre. Ces idées forment d’ailleurs la base de l’algorithme
d’itération de Rayleigh.
Il ne faut pas négliger ces modèles simplifiés. Ne serait-ce que c’est eux qui ont vu le jour en
premier...
C’est en 1787 à Leipzig que
Chladni met en évidence expérimenta-
lement la formation de lignes nodales
sur une plaque libre avec du sable.
Wheatstone et Rayleigh, respective-
ment en 1833 et 1873, utiliseront des
modes de poutre libre pour essayer de Chladni Wheatstone Ritz Warburton Leissa
comprendre et d’expliquer les figures
de Chladni.
En 1909, Ritz, toujours sur ce problème de la plaque libre, utilisera pour la première fois la
méthode qui porte son nom. Les premiers résultats concernant la plaque encastré ne viendront qu’en
1931, et sont dus à Sezawa.
En 1939, Igushi développe une méthode pour obtenir certains résultats analytiques, mais les
premières synthèses complètes sur les méthodes utilisables pour calculer les fréquences naturelles et
les déformées modales de plaques ne viendront qu’en 1954 par Warburton, et 1969 par Leissa.
La méthodologie est toujours la même et se base sur la technique de séparation des variables
qui permet de dire que les variables d’espace et de temps peuvent être séparées. On écrira donc
un déplacement transversal w.x; y/ comme produit d’une fonction dépendant de l’espace X.x/ et
d’une fonction dépendant du temps T.t / : w.x; t / D X.x/T.t /. Ainsi, il sera « aisé » de résoudre
le problème (en ayant pris en compte les conditions aux limites évidemment).
Généralement, dans un premier temps, lors du développement de ces modèles de cordes, barres,
poutres, membranes et plaques, l’amortissement n’est pas pris en compte. Les solutions obtenues
pour les réponses libres ne présentent donc pas de décroissance de l’amplitude des mouvements
dans le temps. Il est possible d’intégrer cet amortissement de plusieurs façons :
Facteur d’amortissement modal : il s’agit de la manière la plus simple d’introduire l’amortisse-
ment en incluant un terme dissipatif correspondant à un modèle d’amortissement visqueux sur
la fonction dépendant du temps uniquement. Dans ce cas, la fonction de dépendance tempo-
relle T.t /, qui avait pour équation différentielle TR n .t / C !n2 Tn .t / D 0, pour les modes n > 1,
devra désormais répondre à l’équation TR n .t / C 2n !n TP n .t / C !n2 Tn .t / D 0, où n est le
facteur d’amortissement modal ;
Coefficient d’amortissement dans l’équation d’onde : un terme dissipatif est introduit directe-
ment dans l’équation des ondes. Celui-ci peut être proportionnel au milieu externe dans
lequel se produit le phénomène (par exemple proportionnel à la vitesse de déformation hors
plan d’une membrane vibrant dans un fluide, comme l’air), ou proportionnel au milieu interne
considéré (par exemple proportionnel à la vitesse de fluctuation des contraintes dans une
poutre : modèle de Kelvin-Voigt) ;
Dissipation aux limites : l’amortissement peut également être introduit dans la définition des
conditions aux limites, par exemple pour prendre en compte le mode de fixation de la
structure. (Par exemple, dans le cas des ondes longitudinales dans une barre, on introduit un
ressort et un amortisseur à chaque bout de la barre).
17.5 Pour aller plus loin : cas des chocs large bande
On s’intéresse au cas des chocs, car il constituent un cas plus compliqué que de la « dynamique
lente », sans rien enlever en généralité aux méthodes.
En dynamique transitoire, lorsque le contenu fréquentiel de la sollicitation est large, on montre
que les erreurs numériques faites sur chaque longueur d’onde se cumulent, d’où une dégradation
de la qualité attendue du résultat plus rapide que prévue. De plus, une erreur sur la périodicité des
oscillations due à un trop faible nombre de pas de temps et un déphasage des oscillations à cause
de cette accumulation des erreurs numériques au cours des pas de temps peuvent être observées.
Dans de tels cas, il est possible de se placer dans le domaine fréquentiel (à l’aide de la FFT), ce
qui conduit à résoudre un problème de vibrations forcées sur une très large bande de fréquences
incluant à la fois les basses et les moyennes fréquences pour l’étude des chocs. La solution
temporelle est ensuite reconstruite par transformée de Fourier inverse.
Les deux domaines fréquentiels ayant des propriétés différentes, on recourt à des outils de
résolution différents.
Dans le domaine des basses fréquences, les phénomènes vibratoires générés par l’excitation
ont une longueur d’onde grande face à la structure donc uniquement quelques oscillations sont
observables. De plus la structure présente un comportement modal (modes bien distincts les uns
des autres). La modélisation est maîtrisée : éléments finis sur base modale, complété si besoin de
modes statiques.
Pour les hautes fréquences, les longueurs d’ondes sont petites et une centaine d’oscillations
est présente sur une dimension de la structure. Il n’est pas approprié de regarder les grandeurs
locales, mais plutôt les grandeurs moyennées en espace et en fréquence. On utilise généralement
la SEA qui donne un niveau énergétique vibratoire moyen par sous-structure. Cette méthode ne
permet pas d’obtenir une solution prédictive car elle requiert la connaissance a priori de facteurs de
couplages mesurés.
En moyennes fréquences, plusieurs dizaines d’oscillations apparaissent sur une dimension de
la structure, et la déformée est très sensible aux conditions aux limites et aux paramètres matériaux
de la structure. Si un comportement modal est encore visible, les modes sont moins bien séparés
(par exemple plusieurs modes présents par Hertz, ces modes étant couplés par l’amortissement) : la
méthode des éléments finis est mal adaptée à cause du raffinement de maillage nécessaire, et le
calcul de la base modal est également hors de portée. Les méthodes énergétiques quant à elles sont
trop globales et ne permettent pas une description satisfaisante de la solution.
Si la structure est divisible en sous-structures homogènes, on peut utiliser la Théorie Varia-
tionnelle des Rayons Complexes (TVRC) introduite par Ladevèze en 1996 [46] : les conditions de
continuité en déplacements et en efforts aux interfaces entre sous-structures n’ont pas besoin d’être
vérifiées à priori, mais uniquement au sens faible par une formulation variationnelle.
La TVRC permet l’utilisation d’approximations indépendantes par sous-structure. La solution
est supposée bien décrite par la superposition d’un nombre infini de modes locaux, appelés rayons,
issus de la vérification des équations d’équilibre dynamique et des relations de comportement par
sous-structure. Ces rayons sont à deux échelles : une lente et une rapide. L’échelle rapide est traitée
analytiquement (sinon coût numérique élevé), et l’échelle lente numériquement, car elle conduit à
un problème à faible nombre d’inconnues.
On profitera de la rapide dispersion des modes moyennes fréquences dans les milieux dispersifs
amortis ainsi que de la version large bande de la TVRC développée en 2004 et 2005 [19]
Discrétisation temporelle
Les méthodes d’intégration directe sont nombreuses et mieux adaptées que les techniques de bases
réduites pour les chocs relativement rapides qui mettent en jeu des fréquences élevées.
Notons qu’il existe des méthodes qui s’affranchissent de la discrétisation temporelle et s’ap-
puient sur une méthode asymptotique numérique pour déterminer la réponse transitoire de la
structure ; ces méthodes demandent encore à être développées pour les variations temporelles
rapides comme les chocs.
Parmi les méthodes d’intégration directes, on utilise classiquement :
— les schémas de Newmark (voir chapitre précédent) pour une intégration d’ordre 2 : les
schémas précis au second ordre des différences centrées et de l’accélération moyenne sont
privilégiés pour les faibles erreurs d’amplitude et de périodicité qu’ils engendrent.
1. En algèbre linéaire et plus précisément en théorie des matrices, le complément de Schur est défini comme suit.
Soit :
A B
MD (17.47)
C D
une matrice de dimension .p C q/ .p C q/, où les blocs A, B, C, D sont des matrices de dimensions respectives p p,
p q, q p et q q, avec D inversible. Alors, le complément de Schur du bloc D de la matrice M est constitué par la
matrice de dimension p p suivante :
1
A BD C (17.48)
Lorsque B est la transposée de C, la matrice M est symétrique définie-positive si et seulement si D et son complément
de Schur dans M le sont.
III ÉLÉMENTS FINIS 17.5 Pour aller plus loin : cas des chocs large bande 234
Le schéma des différences centrées est explicite et adapté pour les chargements de dynamique
rapide et les problèmes non linéaires (car la matrice dynamique à inverser est diagonale),
mais nécessite de vérifier que le signal ne se propage pas de plus d’un élément pendant un
pas de temps (condition de Courant, ou condition CFL dont nous reparlerons au chapitre
suivant).
Le schéma de l’accélération moyenne est implicite mais inconditionnellement stable, bien
adapté pour les chargement peu rapides.
— la méthode de Galerkine discontinue : Elle autorise les variables du problème déplacement et
vitesse à être discontinues en temps. À l’ordre zéro (champs constants sur chaque intervalle
de temps), elle permet de s’affranchir des oscillations numériques occasionnées lors du
traitement d’un front d’onde. Toutefois, ce schéma dissipe énormément et demande une
discrétisation très fine pour bien représenter les irrégularités.
— la TXFEM (Time eXtended FEM) : Elle utilise une base de fonctions de forme en temps
enrichie formant une partition de l’unité. Le schéma est équivalent à certaines méthodes de
Galerkine discontinues, le nombre de pas de temps inférieur à Newmark, et les oscillations
numériques atténuées. Elle est bien adaptée pour le traitement des discontinuités en temps et
notamment les chocs. Voir le paragraphe 22.4 pour une courte description.
! 2 M C i !C C K q D F
(17.49)
En utilisant l’hypothèse de Basile 2 sur l’amortissement, il est possible de calculer les premiers
modes propres associés aux plus petites fréquences propre du système. La solution approchée est
alors projetée sur les sous-espaces propres associés. On résout alors un système diagonale de petite
taille.
III ÉLÉMENTS FINIS 17.5 Pour aller plus loin : cas des chocs large bande 236
Les méthodes de Trefftz : Elles utilisent des fonctions de base définies sur tout le domaine de la
sous-structure considérée et vérifiant exactement l’équation dynamique et la loi de comportement :
la solution est représentée par la superposition de ces fonctions ; mais il faut encore vérifier
les conditions aux limites et de transmission. Les matrices sont de petite taille mais très mal
conditionnées.
Les T-éléments lient la démarche Trefftz et la méthode des éléments finis : Trefftz au sein de
chaque élément..
Pour les problèmes de vibroacoustique, la WBT (Wave Based Technique) a été développée :
la structure n’est pas discrétisée comme pour les T-éléments mais est décomposée en éléments
de grande taille par rapport à la dimension de la structure. les fonctions de base particulières
utilisées améliorent le conditionnement des matrices, ce qui conduit à des matrices de petite taille
pleines et non symétriques. L’intégration sur les bords coûte cher en moyennes fréquences et le
conditionnement de la matrice en hautes fréquences se dégrade du fait de la discrétisation des
amplitudes (seules certaines directions de propagation sont prises en compte).
Comme dit précédemment, on ne représente pas la solution localement mais on ne s’intéresse qu’à
des grandeurs moyennées.
La SEA (Statistical Energy Analysis) est la méthode de référence pour les hautes fréquences.
La structure est découpée en sous-structures. Ensuite des regroupements de modes sont construits
tels que statistiquement le niveau de chacun des groupes de modes soit semblable : la méthode
repose donc sur l’hypothèse d’une forte densité modale dans la bande de fréquence étudiée. Chaque
groupe de mode est associé à un degré de liberté : le problème à résoudre issu de l’équilibre
énergétique est par conséquent à faible nombre de degrés de liberté. Cet équilibre se traduit par un
bilan de puissance dans lequel la puissance injectée à une sous-structure par des forces extérieures,
aléatoires et stationnaires sur de larges bandes de fréquences, est égale à la somme de la puissance
dissipée dans cette sous-structure par amortissement et la puissance transmise à l’ensemble des sous-
structures voisines avec lesquelles elle est connectée, appelée puissance de couplage. L’hypothèse
forte de la SEA concerne cette puissance de couplage entre deux sous-structures qui est supposée
proportionnelle à la différence de leurs énergies par mode, le facteur de proportionnalité étant le
coefficient de couplage.
La SEA est parfaitement adaptée aux hautes fréquences, mais trop globale et trop imprécise
pour décrire finement le comportement en moyennes fréquences.
De plus les coefficients de couplages ne sont connus explicitement a priori que pour des
géométries très particulières et nécessitent donc en général de recourir à des expériences, ce qui fait
de la SEA une méthode non prédictive.
Des stratégies de calcul de ces coefficients de couplage existent, mais pour certains régimes
d’excitation la notion même de coefficient de couplage n’est plus réaliste.
La méthode de diffusion d’énergie : Elle apporte un effet local à la SEA en décrivant de manière
continue les variables énergétiques. Elle a été appliquée à des cas simples et l’analogie avec la
thermique n’est pas démontrée pour des sollicitations et des géométries quelconques.
L’analyse ondulatoire de l’énergie : Elle généralise la SEA en ce qu’elle considère le champ
d’ondes non plus diffus mais directionnel en introduisant un champ d’ondes aléatoires propagatives
dans les sous-structures et des coefficients de couplages qui varient selon les angles d’incidence
aux interfaces.
Les Méthodes Énergétiques Simplifiées ou MES : Elles se proposent de pallier les insuffisances
de la méthode de diffusion de l’énergie en donnant une représentation locale des phénomènes. Le
bilan de puissance est écrit aussi bien à l’intérieur des sous-structures que de leurs couplages. La
connaissance des coefficients de couplages a priori demeure un problème.
17.5.3 Remarques
Dans l’approche fréquentielle, il faut déterminer les fréquences déterminant la jonction BF/MF et
MF/HF.
La fréquence BF/MF agit sur le coût de calcul : elle doit être la plus grande possible, mais telle
qu’à partir de cette fréquence, les modes de la structure deviennent locaux, tout en conservant la
séparation des modes (en pratique entre 300 et 600 Hz).
Le choix de la fréquence MF/HF joue sur la qualité de la vitesse calculée et donc sur l’énergie
cinétique qui sert pour restaurer la réponse temporelle. Cette fréquence doit être au moins égale
à 1=T où T est la durée du choc d’entrée (si T D 1 ms, alors MF/HF = 2000 Hz mini).
la méthode des éléments finis utilisée en basses fréquences doit utiliser les n premiers modes
pour la base réduite avec n tel que la fréquence de ce mode soit de 2 la fréquence BF/MF. On
utilisera également la règle classique d’au moins 10 éléments linéaires par longueur d’onde pour le
maillage.
La FFT requiert par ailleurs que le chargement soit périodique. Le temps correspondant à cette
période, T0 , doit être choisi judicieusement. Dans le cas d’un choc, on a donc T0 > T, mais il
faut également le choisir tel que la réponse transitoire de la structure s’éteigne avant la fin de
cet intervalle de temps. De plus, ce temps influe sur l’échantillonnage fréquentiel du calcul de
la FRF. Les pulsations pour lesquelles la FRF est calculée doivent être telles que !n D 2 nf0
avec f0 D 1=T0 . Il faut également que le nombre de pas de fréquences N soit une puissance de 2
pour utiliser la FFT et son efficacité, et N soit être tel que N=T0 > 2fmax avec fmax la fréquence
maximale contenue dans le signal.
Le choix judicieux de T0 influe directement sur la reconstruction temporelle de la réponse.
Pour les structures peu amorties ou pour des chargements longs, T0 est grand, et donc la FFT
coûteuse. Dans ces cas, des méthodes ont été développées : les fonctions de Green ; la Implicit
Fourier Transform ; et l’amortissement artificiel.
3. Selon Huygens, Snell découvrit le premier les lois de la réfraction en 1621. Il semble par ailleurs qu’on lui doive
également, avant Neper, l’écriture actuelle des nombres décimaux, en France tout au moins : e; dcm::: distinguant,
séparées par une virgule, les parties entière e et décimale (d = dixièmes, c = centièmes, m = millièmes,... ).
III ÉLÉMENTS FINIS 17.5 Pour aller plus loin : cas des chocs large bande 238
Chapitre 18
L’acoustique
18.1.1 Émission
Face à une problème vibro-acoustique, on est amené à considérer les questions suivantes :
— Localisation : où est-ce que ça fait du bruit ? Il s’agit de trouver, dans un ensemble qui peut
être très complexe (par exemple un véhicule, un compresseur...), où sont les sources.
— Identification/Séparation : là où ça fait du bruit, qu’est-ce qui fait du bruit exactement ? De
manière plus détaillée que la localisation, il peut être nécessaire, pour les sources identifiées,
de déterminer la contribution de certaines de leurs parties ou sous-ensembles : selon la
modélisation souhaitée, on pourra se contenter de dire que la source vibro-acoustique dans
un véhicule est le moteur, où alors souhaiter s’intéresser plus finement aux injecteurs, au
carter, à la boîte de vitesse...
— Enregistrement/Caractérisation : quel bruit est émis par chaque source ? Il s’agit de réaliser
des enregistrements permettant de caractériser la source vibro-acoustique considérée. Par
exemple, un vibromètre laser permet de récupérer les vibrations (accélérations, vitesses), sans
contact. De là, il est possible de re-synthétiser le son d’une seule pièce parmi un ensemble
de pièces en fonctionnement. Les enregistrements permettent de caractériser la source en
terme de spectre, puissance, directivité... et fournissent également des données utiles pour la
restitution de résultats (par exemple données audio binaurales).
La caractérisation des sources peut également déboucher sur des lois phénoménologiques, qui
relient les caractéristiques vibro-acoustiques à certains paramètres tels que par exemple : le rapport
de boîte, le régime moteur, le régime ventilateur [28, 34, 35, 47, 50, 67, 68, 76]...
Notons enfin que lorsque l’on parle d’acoustique, la propagation finale se fait forcément dans
l’air puisque c’est celle qui arrive jusqu’aux oreilles...
18.1.2 Transmission
La figure 18.1 donne la répartition schématique des puissances (ou les différents types d’ondes à
considérer).
Une onde incidente (1) arrivant sur un obstacle se
trouve en partie réfléchie par celui-ci (2), alors qu’une
4 partie est directement transmise (5). Toutefois, cela ne
représente pas la totalité de l’énergie incidente, car il
3
reste encore une fraction qui est absorbée ou dissipée
par l’obstacle (3), et une dernière qui se propage au
sein de l’obstacle (4) et qui peut ressurgir plus loin
2 5 dans la structure considérée.
Pour les matériaux acoustiques, la réflexion et la
transmission seront déduites de mesures en tube d’im-
1 pédance ou en cabine alpha, la capacité d’isolation
sera caractérisée en utilisant la petite cabine, alors que
Modes de propagation
Comme déjà mentionné au paragraphe 6.7, il peut être nécessaire de considérer un ou plusieurs des
modes de propagation suivants :
— solidien/solidien : la source excite mécaniquement la structure, et la vibration se propage
dans la structure ;
— aérien/aérien : la source émet une vibration (un bruit) qui se propage dans l’air (en général).
il s’agit de la propagation d’une onde acoustique de sa source jusqu’au récepteur, dans l’air ;
— solidien/aérien : il s’agit du cas du rayonnement. La source excite mécaniquement une
structure, et celle-ci ré-émet une onde dans l’air.
— aérien/solidien : dans le cas de sources acoustiques très puissantes, l’excitation acoustique se
propageant dans l’air peut arriver à faire vibrer une structure.
Dans les deux premiers cas, on doit résoudre un problème de propagation dans un milieu (structure
ou air). La sollicitation dépend du temps, donc on peut appliquer ce qui a été vu au chapitre 16 ;
mais comme elle est généralement périodique, et que l’on s’intéresse au régime stationnaire, on
peut alors utiliser ce qui a été vu au chapitre 17 sur les ondes.
Dans les deux derniers cas, il s’agit d’un calcul où il faut prendre en compte le couplage fluide-
structure. La source étant périodique, on utilise encore ce qui a été vu au chapitre 17, aussi bien
dans la structure que dans l’air. Évidemment, ce sont les techniques du chapitre 16 qui s’appliquent
si l’on s’intéresse au régime transitoire.
Dans la « réalité », tous ces cas existent bien :
— solidien/solidien : tout moteur, même monté sur des silenblocs qui filtrent l’excitation, génère
dans les supports, puis dans toute la structure porteuse, des vibrations. On est donc bien face
à la propagation de vibrations au sein de solides ;
— aérien/aérien : si l’on n’entre pas dans le détail de son fonctionnement mécanique, un haut-
parleur est une source aérienne qui génère une onde acoustique qui se propage dans un
volume d’air contenu, par exemple, dans une salle. Si l’on s’intéresse au niveau de pression
acoustique en un point de la salle, on a une modélisation où seul le volume intérieur de la
salle est nécessaire (et les bonnes conditions aux limites, mais nous y reviendrons) ;
— solidien/aérien : dans le cas de structures en treillis portant des panneaux, ce qui est le cas
pour la conception de cars et bus, le moteur, situé à l’arrière, excite la structure de manière
solidienne... et des vibrations se propagent dans tout le bus, où elles trouvent régulièrement,
et jusqu’à l’avant, des panneaux qui vont se mettre à rayonner, i.e. à transformer cette
vibration mécanique en bruit se propageant dans l’air jusqu’aux oreilles du conducteur et des
passagers ;
— aérien/solidien : dans le cas de structures légères, par exemple pour des véhicules sans permis,
le moteur excite la structure non seulement de manière solidienne, mais également de manière
aérienne. Le bruit généré par le moteur est tel, au sein du compartiment moteur, que cette
sollicitation aérienne est capable de faire vibrer le tablier de séparation moteur/habitacle, qui
dans ce cas précis est généralement très peu isolant (typiquement en ABS thermoformé avec
une épaisseur avant transformation d’environ 3 mm, donc une épaisseur, dans les endroits les
plus déformés, de l’ordre du millimètre). Il suffit pour le mettre en évidence de remplacer
Tout cela justifie la remarque que nous faisons en introduction : la partie difficile à traiter dans
les problèmes d’acoustique ne concerne que les basses fréquences où il n’existe que très peu de
solutions, surtout simples de mise en œuvre. Les hautes fréquences (supérieures à 2 ou 3000 Hz)
peuvent être facilement traitées (poreux, fibreux). De plus, l’oreille humaine, bien que percevant les
fréquences de 20 à 20000 Hz, est surtout sensible dans la bande de fréquences allant de 1 à 4 kHz.
Dès lors, bien qu’une étude acoustique doive prendre en compte la totalité du spectre (de la source
et audible), du point de vue calculatoire (et du point de vue de la conception des solutions), c’est
au-dessous de 3000 Hz que le travail devra se concentrer. Ainsi donc, un traitement par la méthode
des éléments finis est tout à fait envisageable pour faire face à la majorité des problèmes : nous
entendons par là, avec un « coût » de calcul raisonnable.
Histoire
Ai D ˛i Si (18.3)
L’aire d’absorption équivalente A est calculée par la formule de Sabine datant des années 1898 :
n
X N
X
A D 4mV C Si ˛i D 4mV C Ai (18.4)
i D1 i D1
où m est l’amortissement du milieu (en général l’air) et V le volume de la salle (ou du volume)
considéré. Cette formule n’est valable que pour des valeurs de ˛ sensiblement inférieures à 1.
Pour ˛ > 0; 3 on utilisera la formule d’Eyring précisée dans les années 1920, et valable pour toutes
les valeurs de ˛ :
N
X S t ot ale ˛
A D 4mV Si ln.1 ˛i / D (18.5)
1 ˛
i D1
λ>l
l
λ=l
λ<l
F IGURE 18.5: Phénomène de réflexion
une analogie avec des balles, de ce qui est décrit avec des ondes à la figure 18.5b, i.e. le cas de la
réflexion contre une surface irrégulière.
Si la balle est grosse face à la taille des irrégularités, i.e. si la longueur d’onde est plus
grande que « celle des irrégularités » (ici on a un mur « en accordéon » ayant un motif répétitif de
longueur l), alors le trajet est insensible aux irrégularités de la surface : la normale prise en compte
est celle de la surface sans irrégularités. Si < l, alors on peut encore utiliser les lois de l’optique
géométrique, mais on voit qu’il est alors nécessaire de disposer d’une discrétisation suffisamment
fine pour décrire ces irrégularités. Lorsque la dimension de la balle, i.e. la longueur d’onde de
Le champ acoustique dans de telles situations (et dans d’autres) est non uniforme, i.e. a des
valeurs très différentes d’un point à l’autre. Ces deux aspects sont illustrés à la figure 18.6.
18.1.3 Réception
Histoire
Le bel (B) est utilisé dans les télécommunications, l’électronique et l’acoustique. Vers 1920, les
entreprises de téléphonie utilisaient comme unité pour l’atténuation le msc, valant celle d’un mile
(1,6 km) de câble standard à la fréquence de 800 Hz. Des ingénieurs des Laboratoires Bell définirent
une unité de transmission indépendante du câble et de la fréquence, basée sur dix fois le logarithme
décimal. Cette unité s’appela d’abord TU pour « Transmission Unit » (unité de transmission). Elle
S D k log.I/ (18.6)
alors que la loi de puissance de Stevens modélise cette relation entre ces deux grandeurs par une loi
puissance :
S D kIa (18.7)
où, dans les deux cas, k est une constante. Stevens a donné des valeurs obtenues pour l’exposant a
dans différents domaines dans une publication de 1957 et dans son ouvrage de 1951 Handbook of
Experimental Psychology.
Décibels
La notion de réception sera forcément liée à une échelle de mesure (une métrique). Nous avons
plusieurs fois déjà utilisé le décibel (dB). Toutefois, il convient de distinguer plusieurs échelles :
— Le décibel (dB) est une unité de grandeur adimensionnelle définie comme 10 fois le loga-
rithme décimal du rapport entre deux puissances. Pour l’acoustique, ce rapport des puissances
est défini entre la grandeur mesurée et une valeur de référence fixée par une norme.
Grandeurs acoustiques
À ce niveau, il convient de rappeler quelques définitions :
— La pression acoustique (en N/m2 ) est l’amplitude des variations de la pression en un point
de l’espace, par rapport à la pression atmosphérique, provoquées par le passage d’une onde
sonore en ce point.
— La puissance acoustique (en W) est la quantité (ou le flux) d’énergie acoustique qu’émet une
source par unité de temps.
— L’intensité acoustique (en W/m2 ) est le flux d’énergie acoustique qui est transmis dans une
direction donnée, à travers une unité de surface, pendant une unité de temps. Elle dépend de
la puissance de la source, du milieu de propagation, de la distance à la source.
L’intensité acoustique s’exprime comme :
p2
ID (18.10)
Z
où p est la pression acoustique et Z l’impédance (qui s’exprime en Pa.s/m ou en Ns/m3 ).
Remarque. Dans le cadre de mesures :
— l’intensité acoustique est représentée par la puissance électrique (W) ;
— la pression acoustique est représentée par la tension électrique (V) (la tension électrique fournie par
un microphone est proportionnelle à la pression acoustique p) ;
— l’impédance acoustique est représentée par la résistance électrique.
On peut remplacer I D p 2 =Z par P D V2 =R et en déduire la puissance moyenne :
V21 C ::: C V2n
Pmoy D (18.11)
nR
On définit aussi la tension efficace ou tension RMS (Root Mean Square), qui est la tension continue qui
donnerait une puissance continue égale à la puissance moyenne. On a donc Pmoy D V2eff =R, soit :
s
V21 C ::: C V2n
Veff D (18.12)
n
Notons que l’on « parle » souvent, dans le monde des acousticiens, en termes de bandes de
fréquence, l’analyse en bandes fines n’étant utilisée que pour des analyses plus poussées.
Impédance
La notion d’impédance mérite que nous y passions quelques instants. En effet, elle nous permettra
par la suite de définir des conditions aux limites pour nos modèles numériques.
L’impédance caractéristique d’un milieu (solide, liquide ou gazeux) est définie comme le
rapport de la pression acoustique sur la vitesse de déplacement en milieu ouvert (i.e. en l’absence
d’ondes réfléchies). C’est une propriété du matériau considéré qui est égale, dans le cas d’un espace
illimité, au produit de la masse volumique du matériau par la vitesse du son dans ce même matériau.
L’impédance acoustique dans les solides est définie par :
F
ZD D c (18.13)
v
où F est la force (N), v la vitesse de déplacement (m/s), la densité linéique du milieu (kg/m) et c
la vitesse de propagation (m/s). On remarquera que c et v sont inversement proportionnelles. Dans
les solides, la vitesse de propagation est plus élevée que dans les gaz et l’énergie s’y dissipe moins
rapidement : l’onde peut se propager plus loin.
L’impédance acoustique dans les gaz est définie par :
p
ZD D c (18.14)
v
où cette fois p est la pression acoustique (Pa), les autres grandeurs étant les mêmes qu’auparavant.
Quelques valeurs. L’impédance de l’air vaut Z D 413; 5 (en Pa.s/m ou N.S/m3 ) à 20˚C. Elle varie avec
la température, tout comme la densité et la célérité du son.
La vitesse du son dans l’air vaut c D 331; 5 C 0; 6 m/s, où est la température de l’air en ˚C (elle
varie également en fonction de la pression atmosphérique et de la température).
L’impédance acoustique de l’eau est d’environ 1; 5:106 Pa.s/m.
kV
TR D (18.16)
A
où Lp (en dBA) est le niveau de pression sonore du champ direct, Lw le niveau de puissance de la
source, d la distance à la source et Q le facteur de directivité (Q D 1 source omnidirectionnelle,
Q D 2 source omnidirectionnelle posée sur le sol...).
Dans une salle (suffisamment réverbérante), on constate que le champ est diffus, et alors on a :
Lp D Lw C 6 10 log10 A (18.18)
où Lp (en dBA) est le niveau de pression sonore du champ diffus, Lw le niveau de puissance de
la source et A l’aire équivalente d’absorption. On remarque que Lp est constant quelle que soit la
distance à la source (puisqu’on est en hypothèse de champ diffus) et qu’il ne dépend que de A, i.e.
de la capacité d’absorption disponible dans la salle. On notera que les parois, surtout si elles sont
légères, présentent une certaine transparence et qu’il est bon, pour ajuster le modèle, d’augmenter
l’aire d’absorption de la proportion d’énergie qui quitte la salle par transmission (défaut d’isolation).
En terme de modélisation, cela signifie qu’à proximité d’une source (jusqu’à environ 30cm), on
considérera que l’on est en champ direct. Au-delà, on utilisera la relation correspondant au champ
réverbéré.
Les modes .i; 0; 0/, .0; j; 0/ et .0; 0; k/ sont des modes axiaux dans la directions de L, l et h
respectivement, les modes .i; j; 0/, .0; j; k/ et .i; 0; k/ les modes tangentiels, et les modes .i; j; k/
les modes obliques. La pression acoustique se met sous la forme :
XXX i j k
p.x; y; z/ D pij k cos x cos y cos z (18.20)
L l h
i j k
III ÉLÉMENTS FINIS 18.2 Calculs acoustiques par éléments finis 252
La formule de Maa (1939) donne le nombre N.f / de fréquences propres inférieures ou égales
à une fréquence donnée f :
3 2
4 f f Lt f
N.f / D V C S C V (18.21)
3 c 4 c 8 c
où V D Llh est le volume de la salle, S D 2.Ll C Lh C lh/ est la surface totale des parois de la
salle, et L t D 4.L C l C h/ est la longueur totale des arêtes de la salle.
En dérivant la formule de Maa par rapport à la fréquence, on peut déterminer la densité de
fréquences propres à une fréquence donnée, i.e. le nombre de fréquences propres comprises dans
un intervalle de 1 Hz centré sur f :
4V 2 S Lt
dN.f / D 3
f C f C (18.22)
c 2c 8c
Pour une salle non parallélépipédique, on peut, sauf géométrie vraiment très biscornue, utiliser
les relations précédentes en considérant le parallélépipède le plus proche de la géométrie réelle.
Remarques
On n’oubliera pas de prendre en compte les pertes par transmission dans le calcul des coefficients
d’absorption.
Dans le cas où l’on s’intéresse à la transmission entre plusieurs salles, il faudrait effectivement
ne pas oublier qu’une salle n’a pas que des sources internes, mais également des sources externes
correspondant à ce qui a pu s’échapper des autres salles, ou de ce qui rayonne suite à la propagation
de vibrations.
Nous avons présenté quelques formules dans le cas de l’acoustique des salles, mais d’autres
formules relatives à d’autre problématiques acoustiques typiques existent : par exemple pour
l’encoffrement (ou capotage) de sources acoustiques (machines...).
Méthodes de composition de source. Toutes ces méthodes « simples » permettent néanmoins de réaliser,
à moindre frais, des modèles de calculs (analytiques) pouvant prendre en compte des phénomènes assez
complexes. C’est ce que l’on appelle les méthodes de composition de sources.
Dans ces méthodes, on commence par identifier toutes les sources d’un problème : non seulement
les sources physiques comme un moteur, mais également les sources induites comme le bruit de contact
pneu/chaussée, le bruit aérodynamique, le rayonnement de surfaces... Ces sources sont fonction des données
du problème telles que la vitesse du véhicule, le rapport de boîte, etc. Les sources sont positionnées dans
l’espace, et chacune est prise en compte « indépendamment » des autres. L’introduction de couplages est
possible, mais peut être délicate (notamment pour les phénomènes tels que l’amortissement). Ensuite, on
introduit divers « facteurs de perte » entre les sources et le point d’écoute : matrices de transfert diverses
dues à la distance à la source, l’absorption et l’isolation de divers éléments, l’amortissement et le filtrage...
On voit bien que la mise au point d’un tel modèle peut se révéler particulièrement compliquée, même pour
quelqu’un ayant une grande expérience dans le domaine de l’acoustique.
Toutefois, ces méthodes présentent l’immense intérêt de fournir les résultats instantanément (ou
presque pour des méthodes semi-analytiques), et valables dans toutes les gammes de fréquences (aux
hypothèses faites près, ce qui peut être restrictif). On voit également que, de par leur nature, ces méthodes
sont essentiellement interpolatoires et leur utilisation extrapolatoire est plus que délicate, conduisant
généralement à des résultats complètement faux. Néanmoins, elles restent pertinentes dans de nombreux
cas industriels bien bordés, et si elles sont corrélées à des résultats expérimentaux, conduisent de surcroit à
une interprétation aisée de ceux-ci, permettant de trouver des tendances et des liens intéressants. Nous
insistons malgré tout encore une fois sur la grande expérience (de l’acoustique) nécessaire pour mettre ces
modèles au point.
C’est une lapalissade, mais dans un calcul global, les phénomènes locaux (écrantage...) ne sont
pas pris en compte (ou alors de manière globale)... Si l’on s’intéresse au niveau moyen résultant
dans un local, prendre en compte la totalité des surfaces absorbantes, qu’elles soient situées au
murs, au plafond ou sous formes d’écrans, de fauteuils... fonctionne. Par contre, si l’on a besoin de
descendre dans le détail local de la répartition de la pression acoustique (par exemple répartition
Sources
Si l’on ajoute des termes de sources, alors l’équation des ondes (6.12) devient :
1 @2 p
1
C r: .rp qd / D qm (18.23)
c 2 @t 2
dont l’inconnue est toujours la pression acoustique et où qd et qm représentent les termes de sources
pour un dipôle et un monopôle respectivement. Pour les milieux dispersifs, un terme de dissipation
supplémentaire peut être introduit dans l’équation des ondes qui devient :
1 @2 p
@p 1
d C r: .rp qd / D qm (18.24)
c 2 @t 2 @t
Dans la suite, on restera dans le cas d D 0.
Dans le cas harmonique, l’équation (18.23) devient l’équation d’Helmholtz (8.56) avec termes
sources :
!2p
1
C r: .rp qd / D qm (18.25)
c 2
Remarque. Si l’on souhaite introduire le d’amortissement dans l’équation, alors les quantités c et
peuvent être complexes (au sens appartiennent à C). Par exemple, pour un modèle d’amortissement de
Rayleigh, la célérité c est une combinaison linéaire de la masse et de la raideur.
Dans les codes de calcul, la source est généralement modélisée par un monopôle ou un dipôle.
Un monopôle est une source omnidirectionnelle, alors qu’un dipôle représente une source ayant
deux directions opposées selon lesquelles le champ est plus fort. Un dipôle peut être vu comme
deux monopôles de même puissance séparés par une petite distance et en opposition de phase.
On peut également utiliser des quadripôles si besoin. On trouve également parfois des sources
ponctuelles, linéaires ou ayant d’autres formes prédéfinies.
Rayonnement
En plus de sources définies ci-dessus, le phénomène de rayonnement peut être à l’origine d’une
excitation acoustique. Le rayonnement est par nature un phénomène couplé fluide-structure, puis-
qu’il s’agit du cas où une structure, en vibrant, génère une onde acoustique. C’est un phénomène
complexe, qui fait toujours l’objet de recherches. Nous allons essayer d’en dire deux mots en restant
sur le mode de la vulgarisation.
Compléments sur le rayonnement. Toute structure vibrant ne génère pas de bruit, ou plus exactement, une
structure soumise à un spectre ne rayonne pas l’intégralité du spectre. Certes, l’effet de l’amortissant
structurel est sans aucun doute à prendre en compte, mais il n’ai pas suffisant. En fait, seuls certains modes
de la structure rayonnent, et ce sont ceux qui correspondent à des projections du nombre d’onde de la
vibration à laquelle est soumise la structure. Il appert donc que l’utilisation d’une base modale dans le
calcul numérique peut être à même de prendre en compte cette projection, tout en réduisant la taille des
calculs. On voit également que la notion de vitesse de vibration, et par suite de vitesse des déformations,
est d’importance dans ce phénomène. Elle peut être liée, au moins localement, à des phénomènes de
compensation de pression acoustique qui peut ou non se faire pendant le temps de déformation.
III ÉLÉMENTS FINIS 18.2 Calculs acoustiques par éléments finis 254
Définition 70 — Fonction de Green. On appelle fonction de Green une solution d’une équation
ayant au second membre un terme impulsionnel.
Si l’équation considérée est l’équation des ondes, on appelle fonction de Green en temps
une solution de l’équation des ondes avec au second membre un terme source de type source
ponctuelle en espace et en temps, i.e. source localisée en un point de l’espace x0 et émettant une
impulsion à un instant t0 localisé dans le temps. On a donc pour second membre de la forme :
ı.t t0 /ı.x x0 / (où x est un vecteur). Elle s’écrit sous la forme :
1 kx x0 k
G.x; t; x0 ; t0 / D ı t t0 (18.26)
4kx x0 k c
Dans le cas du rayonnement, on s’intéresse à ce qui se passe au niveau de l’interface entre une
structure vibrant et un fluide, où l’on doit avoir continuité des vitesses acoustiques et mécaniques
normales.
@G.x; x0 / @p.x0 /
Z Z
p.x/ D p.x0 / G.x; x0 / d C qm .x0 /G.x; x0 / d (18.28)
D@ @n0 @n0
Si l’on considère une plaque plane, dans le plan .x; y/, vibrant, alors la condition cinématique
de continuité des vitesses normales à l’interface surface plane/fluide impose la condition suivante
sur la vitesse des particules de fluide en z D 0 :
v.x/:z D v0 .x0 /
Et en projetant l’équation d’Euler linéarisée sur l’axe z, on peut alors relier la dérivée normale de la
pression à la vitesse normale de la surface S :
@p @p
D D i !v0 .x0 / (18.29)
@n @z
En l’absence de toute autre source acoustique, le théorème de Kirchhoff ne comporte plus de terme
volumique. En introduisant la fonction de Green et la valeur de la pression normale, on obtient le
relation suivante, connue sous le nom d’intégrale de Rayleigh, qui permet de calculer le champ
de pression acoustique rayonné par une surface plane S dont on connaît uniquement la vitesse
normale :
i ! e i kkx x0 k
Z
p.x/ D v0 .x0 / dS (18.30)
2 S kx x0 k
ZR D R C i !MR (18.31)
pD0 (18.34)
En général, dans les codes, une telle condition permet de mettre la pression à zéro, ou à
toute autre valeur (condition de Dirichlet relevée) définie par l’utilisateur. Le second membre
n’est alors plus nul mais vaut p. Cela permet de modéliser une source débitant une pression
constante (applicable sur un nœud si besoin).
— La condition de Robin correspond à une condition d’impédance. Elle se situe entre les deux
cas précédents :
1 i !p
n: .rp qd / D en analyse harmonique, ou
Z (18.35)
1 @p
D en analyse temporelle
Z @t
III ÉLÉMENTS FINIS 18.2 Calculs acoustiques par éléments finis 256
Lorsque Z ! 1 on retrouve le cas du mur rigide, et lorsque Z ! 0 celui de l’absorption
parfaite.
Pour les plaques perforées, on utilisera cette condition pour gérer l’absorption. Certains
logiciels calculent l’impédance à notre place en fonction de paramètres physiques tels que :
la viscosité dynamique, l’épaisseur et la porosité (diamètre des trous, distance entre trous, ou
aire des trous et résistance de passage au fluide) et la réactance du panneau.
— L’absorption peut être gérée par l’impédance, mais certains logiciels incluent des modèles
de fluides équivalent (homogénéisation), dont le plus connu est celui de Biot-Allard. Il
concerne les matériaux poreux et nécessite de connaître leur porosité, résistance au passage
de l’air, tortuosité, et longueurs caractéristiques visqueuse et thermique (ces deux derniers
paramètres ayant une influence moins importante que les trois premiers sur l’absorption).
D’autres modèles existent comme le modèle de Johnson-Champoux-Allard, celui de Johnson-
Champoux-Allard-Lafarge...
— Les conditions aux limites en rayonnement permettent de définir les régions par lesquelles les
ondes peuvent quitter le modèle. On trouve généralement des conditions de radiation plane,
cylindrique et sphérique.
— De la même manière on trouve des conditions de rayonnement, plane ou cylindrique, per-
mettant de modéliser une source, i.e. une onde qui arrive (et non plus une onde qui quitte le
modèle).
— Lorsque le couplage faible décrit plus haut n’est pas suffisant, il faut alors intégrer le couplage
fort fluide-structure au calcul : le fluide, défini par ses champs de pression et de vitesse, exerce
des forces de type aérodynamique (de pression) sur la structure. Cette force aérodynamique
se met sous la forme F D 12 v 2 SC, où v est la vitesse, S la « surface de référence » (pour
nous cette surface de référence sera la surface mouillée) 1 et C le coefficient aérodynamique.
En retour, le déplacement et/ou la déformation de la structure affecte, au moins localement,
le champ de l’écoulement fluide et par conséquent la direction et l’intensité des charges
aérodynamiques : ce cycle des interactions entre le fluide et la structure est la caractéristique
du couplage fort entre les deux milieux, i.e. chaque milieu influe significativement sur l’autre.
Basiquement, on retiendra que l’analyse acoustique fournit un chargement (la pression
acoustique) à l’analyse structurelle, et l’analyse structurelle fournit des accélérations à
l’analyse acoustique.
Si l’on ne peut pas découpler les équations de chaque milieu (c’est parfois possible et ça
vaut donc le coût d’essayer), alors on essaye généralement de procéder par la méthode dite
« décalée » : chaque physique est traitée séparément, et l’on essaye ensuite de faire transiter
l’information d’un code à l’autre, ce qui n’est pas toujours simple, engendre des erreurs
numériques supplémentaires, et surtout nécessite de développer des algorithmes de couplage.
Sinon, la méthode dite « monolithique » est théoriquement la plus optimale puisque le fluide
et la structure sont traités par un même code de calcul. Toutefois, lorsque les géométries
ou la physique du problème à traiter deviennent complexes ce type de méthode n’est plus
envisageable puisque chaque milieu (fluide ou solide) nécessite des procédures de calcul
numérique spécifiques. Notons que certains codes de calcul gèrent de manière assez simple
pour l’utilisateur ce couplage entre différentes physiques.
— La continuité de la pression à l’interface entre deux milieux peut être à entrer. Il suffit de
1. Dans le cas d’étude aérodynamiques et pour les corps bien profilés, la surface de référence sera la projection de la
surface dans un plan orthogonal à la direction selon laquelle on veut le résultat.
Toujours dans ce cas, on décompose la force aérodynamique selon trois axes en une force de traînée Fx parallèle à
la direction moyenne de l’écoulement ; une force de dérive Fy perpendiculaire à la direction moyenne de l’écoulement,
dans le plan horizontal ; et une force de portance Fz , perpendiculaire à la direction moyenne de l’écoulement, dans le
plan vertical.
18.2.3 Convergence
La convergence d’un calcul acoustique dépend non seulement de la taille du maillage, mais
également de la taille du pas de temps.
Discrétisation en espace
Le maillage doit être en mesure de prendre en compte les longueurs d’ondes qui nous intéressent
dans le calcul. Les ondes doivent pouvoir « se développer » dans le calcul, et pour cela, on utilisera
la condition simple suivante :
k
hD (18.37)
10
où h est la taille de la maille, et k le degré de l’approximation utilisée dans l’élément. Ainsi
h D =10 pour un élément linéaire, et h D =5 pour un élément quadratique.
Discrétisation en temps
La condition de Courant, Friedrichs et Lewy (condition CFL), énoncée dans leur article de 1928
[24], définit, au travers d’un nombre adimensionnel appelée nombre de Courant C, une condition
de convergence pour résoudre certaines équations aux dérivées partielles, notamment les équations
aux dérivées partielles hyperboliques, utilisant la méthode des différences finies. Pratiquement,
il sert à donner le seuil dimensionnel sous lequel on observe une instabilité de calcul, erreur
d’approximation dans des calculs numériques, grandissant rapidement au fur et à mesure des
calculs. Si la dimension de la grille est inférieure à la distance parcourue dans l’intervalle de pas
de temps par l’onde la plus rapide que permet l’équation, l’erreur grandit et envahit la solution
physique.
Le nombre de courant C, pour un problème de dimension n en espace (et 1 en temps), est défini
par :
n
X uxi
C D t Cmax : (18.38)
xi
i D1
III ÉLÉMENTS FINIS 18.2 Calculs acoustiques par éléments finis 258
condition d’absorption parfaite. Nous avons déjà mentionné la condition de Dirichlet. Toutefois,
elle n’est pas optimale.
Décrite pour la première fois en 1994 par Jean-Pierre Bérenger dans A perfectly matched
layer for the absorption of electromagnetic waves, une zone absorbante parfaitement adaptée (en
anglais Perfectly matched layer ou PML) est une zone absorbante artificielle pour les équations
d’ondes, couramment utilisée pour tronquer les domaines de calcul dans les méthodes numériques
de simulation de problèmes à frontières ouvertes, particulièrement dans les méthodes de différences
finis en temps et d’éléments finis. La propriété essentielle d’une PML qui la distingue d’un matériau
absorbant ordinaire est le fait qu’elle est conçue de telle sorte que les ondes incidentes l’atteignant
depuis un matériau non PML ne se réfléchissent pas à l’interface. Cette propriété permet aux PML
d’absorber fortement toutes les ondes sortant d’un domaine de calcul sans les renvoyer dans ce
domaine.
Cette approche a été modifiée puis généralisée en ce que l’on appelle la stretched-coordinate
PML. Les PML correspondent à une transformation dans laquelle une ou plusieurs coordonnées
sont attachées à des nombres complexes ; plus techniquement, il s’agit en réalité d’une prolongation
analytique de l’équation d’onde dans le domaine complexe, où les ondes propagatives (oscillantes)
sont remplacées par des ondes dont l’amplitude décroît exponentiellement. Ce point de vue permet
aux PML d’être adaptées aux matériaux inhomogènes comme les guides d’ondes, ainsi qu’à d’autre
systèmes de coordonnées et d’équations d’ondes.
La PML amortit une certaine longueur d’onde existant dans le système, déduite de la fréquence
et d’une célérité de référence des ondes. Dans le cas d’un problème uniquement fluide, cette célérité
de référence sera prise égale à la vitesse du son. Dans le cas d’ondes se propageant dans un solide,
on la prendra égale à la vitesse de compression du son. Pour un modèle couplé fluide-structure, on
pourra prendre une valeur moyenne entre les deux précédentes comme estimation initiale. Pour
une onde dont le vecteur d’onde fait un angle avec la direction dans laquelle on veut absorber, il
faudrait prendre une valeur de 1= cos jj.
18.2.6 Post-Traitement
La pression p.x; y; z/ calculée est un pression complexe (i.e. appartenant à C). Toutefois, il est
aisé, à partir de celle-ci, de définir un certain nombre d’autres valeurs d’intérêt :
— p.x; y; z; t / D < p.x; y; z/e i !t ;
1
— prms .x; y; z/ D p jp.x; y; z/j ;
2
prms .x; y; z/
— SPL.x; y; z/ D 20 log10 ;
pref
— d’autres grandeurs liées au modèle. Souvent on définira, à partir des données et des résultats
le facteur de perte. Par exemple, on peut le définir par :
Wi
D t l D 10 log10 (18.39)
Wt
en béton et de deux murs fins en placo. Elle comporte trois fenêtres et une porte. Le sol est en
carrelage, avec au centre un tapis épais. Le plafond non représenté est en béton. Au mur, à côté de
la porte, se trouvent trois panneaux acoustiques.
Pour effectuer la modélisation, on ne contentera de représenter les surfaces internes de la pièce.
Les murs épais (en gris foncé), le sol et le plafond seront considérés comme parfaitement réfléchis-
sants. Pour les murs fins, on entrera une impédance correspondant à la perte par transmission. On
fera de même avec les fenêtres et la porte. Les conditions d’absorption des panneaux acoustiques et
de la moquettes pourront être modélisées en entrant l’impédance associée ou en utilisant un modèle
d’absorption de type Biot-Allard si cela est disponible dans le logiciel.
On maillera le volume d’air intérieur défini par ces surfaces portant les conditions aux limites.
On n’oubliera pas d’ajouter la source : ici un locuteur sera représenté par un monopôle, i.e. une
source ponctuelle omnidirectionnelle. On lancera l’analyse en fréquences et l’on s’intéressera par
exemple à la répartition spatiale de la pression acoustique à différentes fréquences choisies.
On s’intéressera au facteur de perte, tel que défini par la relation (18.39). Les résultats avec et
sans absorbant sont illustrés sur la figure 18.9, pour des fréquences allant de 25 à 1500 Hz par pas
de 25 Hz. L’influence de l’ajout d’un absorbant est très nette sur ce graphique.
F IGURE 18.11: Acoustique au coin de la rue pour des fréquences de 100, 500 et 1000 Hz
Cette fois la réponse est nécessairement différente, puisque les conditions aux limites ne sont pas
les mêmes... les résultats correspondants sont à la figure 18.12.
À quoi correspondent ces résultats ?
! tnemmedivÉ
.ecnadépmi’l tse Z ùo Z/)q(jnoc*k*c*i1 ne q*k*c*i1 regnahc ed tfifus lI
. c D Z ici .e.i ,ueilim ud ellec à elagé tios ecafrus ed ecnadépmi’l euq tuaf li alec ruoP .iuO
.)q(jnoc*k*i1 à dnopserroc alec ,egadoc ed emret nE
Attention, il ne faut pas que le facteur d’amortissement d soit trop grand... sous peine que l’onde
ne se propage pas bien loin. Cela se traduit par la modification du batch F REE F EM ++ :
14 fespace Vh ( Th , P2 ) ;
15 Vh < complex > p , q ;
16 real d =0.05;
17
18 solve helmholtz (p , q ) = int2d ( Th ) ( dx ( p ) * dx ( conj ( q ) ) + dy ( p ) * dy ( conj ( q ) ) - k * k * p *
conj ( q )
19 + amort *1 i * freq * p * conj ( q ) ) - int1d ( Th , a4 ) ( g * q ) ;
20
La différence entre calcul dans R et calcul dans C prend ici tout son sens. Jusqu’à présent, la
partie imaginaire du champ de pression était nulle en tout point, ce qui n’est désormais plus le cas.
La figure 18.17 présente les parties réelle (en haut) et imaginaire (en bas) pour un amortissement
de 0, 1 et 2%. On remarque qu’avec seulement 1% d’amortissement, l’onde arrive péniblement
<.p/
=.p/
jusqu’au coude. Pour 2% d’amortissement, elle « s’évanouit » très vite, dès la partie droite.
18.3.6 Un obstacle
Pour le plaisir, introduisons un obstacle. Nous proposons le listing F REE F EM ++ (abondamment
commenté) suivant :
1 real freq =50.0; / / f r e q u e n c e e n Hz
2 real rho =1.; / / d e n s i t e c o n s t a n t e
3 real c =343.0; / / v i t e s s e du s o n e n m / s
4 func g =1.0; / / on a p=g s u r a4 => CL d u e a G r e e n
5 real k = freq / c ; / / n o m b r e d ’ o n d e
6 real amort =0.02; / / 2% d ’ a m o r t i s s e m e n t
7
8 border a1 ( t =0 ,1) { x = 3* t ; y =0;}
9 border a2 ( t =0 ,1) { x =3; y = 2* t ;}
10 border a3 ( t =0 ,1) { x = 3 -3* t ; y =2 ;}
11 border a4 ( t =0 ,1) { x = 0; y = 2 -2* t ;}
12 border b1 ( t =0 ,1) { x = 1+ t ; y = 0.5;}
13 border b2 ( t =0 ,1) { x = 2 -0.5* t ; y = 0.5+ t ;}
14 border b3 ( t =0 ,1) { x = 1.5; y = 1.5 -0.5* t ;}
15 border b4 ( t =0 ,1) { x = 1.5 -0.5* t ; y = 1 -0.5* t ;}
16 mesh Th = buildmesh ( a1 (60) + a2 (40) + a3 (60) + a4 (40) + b1 ( -5) + b2 ( -5) + b3 ( -5) +
b4 ( -5) ) ;
17
18 fespace Vh ( Th , P1 ) ;
19 Vh < complex > p , q ;
20
21 solve helmholtz (p , q ) = int2d ( Th ) ( - dx ( p ) * dx ( conj ( q ) ) - dy ( p ) * dy ( conj ( q ) ) + k * k * p *
conj ( q ) / / f o r m e b i l i n n o n a m o r t i e
22 - amort *1 i * freq * rho * p * conj ( q ) ) / / t e r m e d ’ a m o r t i s s e m e n t
23 - int1d ( Th , a4 ) ( g * conj ( q ) ) / / CL p a r o i r a y o n n a n t e ( t h d e G r e e n )
Évidemment, des conditions aux limites peuvent (doivent) être introduites sur l’obstacle. On
peut ajouter une condition de Robin d’impédance Zn :
34 - int1d ( Th , b3 ) (1 i * rho * c * k / Zn * conj ( q ) ) - int1d ( Th , b4 ) (1 i * rho * c * k / Zn * conj ( q ) ) / / CL
Robin
F IGURE 18.17: Passage d’une onde de l’air à l’eau avec et sans amortissement
Considérons maintenant le calcul du fluide seul. Le listing ressemble à ce qui a déjà été présenté
précédemment. Deux points sont à considérer :
— le maillage à partir d’une donnée issue du calcul : connaissant la solution du problème
structurel, on dispose des déplacements ux et uy... dont on se sert pour définir le domaine
fluide :
border fl4 ( t =10 ,0) { x = ux (0 , t ) ; y = uy (0 , t ) ;}; / / i n t e r f a c e avec la structure
Si l’on résout en pression uniquement, on peut faire simple, et ajouter la force suivante dans
la formulation variationnelle du problème de structure :
+ int1d ( Th , interface ) ( pR * N . x * w + pR * N . y * s + ( dx ( ux ) + dy ( uy ) ) *( N . y * w + N . x * s )
)
où l’on a écrit pR pour rappeler que l’on considère la partie réelle de la pression, qui peut
être directement p si l’on a une solution monochromatique dans la partie fluide.
Cela conduit au script :
33 / / On m o d e l i s e l e f l u i d e p a r l ’ e q u a t i o n d e H e l m h o l t z
34 //
35 include " VM_StrFluid2 . edp " / / p a r t i e s t r u c t u r e = s t a t i q u e lineaire isotrope
36 //
37 real freq =50.0; / / f r e q u e n c e e n Hz
38 real rho =1.;
39 real c =343.0; / / v i t e s s e du s o n e n m / s
Il ne reste plus qu’à faire boucler le calcul. Ici nous n’avons pas introduit de critère de conver-
gence et avons simplement effectué une boucle de trois itérations :
64 //
65 / / boucle
66 //
67 int i ;
68 for ( i =0; i <3; i ++) / / b o u c l e p l u t o t qu ’ un w h i l e a v e c c o n d i t i o n d e s o r t i e b a s e e s u r
convergence
69 {
70 / / Probleme avec e f f o r t s t r a n s m i s :
71 problem S t a t i q u e I s o t r o p e C o u p l e ( ux , uy ,w ,s , init = i ) =
72 int2d ( Th ) ( lambda * div ( ux , uy ) * div (w , s ) +2.* mu *( epsilon ( ux , uy ) ’ // ’ / / ( p o u r
i m p r e s s i o n LaTeX )
73 * epsilon (w , s ) ) )
74 - int2d ( Th ) ( gravity * s )
75 + on ( st2 , ux =0 , uy =0) / / t e n u e n h a u t
76 + on ( st4 , ux =0 , uy =0) / / t e n u e n b a s
77 - int1d ( Th , interface ) ( p * N . x * w + p * N . y * s + ( dx ( ux ) + dy ( uy ) ) *( N . y * w + N . x * s ) )
78 ;
79 Th1 = movemesh ( Th , [ x + uu , y + vv ]) ;
80 / / p l o t ( Th1 ) ;
81 mesh sh = buildmesh ( fl1 (10* nmaille ) + fl2 (10* nmaille ) + fl3 (10* nmaille ) + fl4 (10*
nmaille ) ) ;
82 / / p l o t ( sh ) ;
83 solve helmholtz (p , q )
84 }
85 plot ( Th1 ) ;
Résumé — Jusqu’à présent, nous avions évité, autant que faire se peut, d’aborder les
problèmes de non linéarité...
Beaucoup de cas de non-linéarité s’imposent par la nature du problème à traiter :
grands déplacements, loi de comportement choisie, contact... Ils sont donc facilement
identifiables, et face à des tels cas, l’utilisateur sera par conséquent précautionneux et ne
se laissera donc pas surprendre.
Toutefois, dans le cas de la dynamique, la non-linéarité existe de manière implicite,
même si tout le reste est « linéaire » par ailleurs. Cela peut constituer un écueil si l’on
n’en est pas conscient.
Plusieurs types de non-linéarités peuvent être considérés. En mécanique des structures, on distin-
guera :
les non-linéarités géométriques qui se manifestent dans les problèmes des grands déplacements,
des grandes rotations et/ou de grandes déformations. La notion de « grands » déplacements
signifie tout simplement que l’hypothèse des petites perturbations n’est plus vérifiable. Or
celle-ci stipule que géométries déformée et initiale doivent rester relativement proches. La
notion de grandes déformations, déjà mentionnée dans ce document, fait que la linéarité des
relations entre déplacements et déformations n’est plus conservée.
les non-linéarités matérielles dues à la loi de comportement du solide (ou plus généralement à la
loi de comportement dans le milieu ). Le plus souvent, cette loi peut s’exprimer sous la
forme d’équations différentielles non-linéaires du premier ordre.
Nous avons déjà évoqué ce phénomènes à plusieurs endroits dans ce document, et le cha-
pitre 15 sur l’homogénéisation est une illustration du cas où l’on peut substituer un milieu
homogénéisé simple à un milieu compliqué. Toutefois, nous irons un peu plus loin dans ce
chapitre et présenterons les principales lois de comportement rencontrées en mécanique.
les non-linéarités liées à l’évolution des conditions aux limites. Ce type de non-linéarité appa-
raît en particulier dans les problèmes de contact et de frottement entre solides. Ces phéno-
mènes sont décrits par des inéquations et des opérations de projection.
les non-linéarités liées aux instabilités du comportement qui se présentent dans l’analyse des
problèmes dynamiques.
Le tenseur des contraintes, ou tenseur de Cauchy, n’est pas forcément introduit par la loi de Hooke
généralisée qui le lie au tenseur des déformations ( D H").
D’ailleurs, lorsque Cauchy l’introduit vers 1822, il le fait pour représenter les efforts intérieurs
mis en jeu entre les portions déformées du milieu, via l’équilibre des efforts pour toute coupure dans
un matériau (i.e. définition sous forme de forces surfaciques).
En tout point M il existe une infinité de facettes d’orientation différentes. Le théorème de
Cauchy permet de définir l’état de contrainte sur une facette d’orientation quelconque à partir de la
connaissance de l’état de contrainte selon trois directions différentes. L’énoncé de ce théorème est le
suivant :
Théorème 54 — Théorème de Cauchy. [un des nombreux -] : Les composantes du
vecteur contrainte en un point M sur une facette de normale n dépendent linéairement des
composantes de cette normale. Les coefficients linéaires sont les composantes du tenseur
des contraintes.
Ce théorème conduit à formuler la contrainte s’exerçant sur une facette d’orientation quelconque
comme :
3
X
T.M; n/ D nj T.M; ej / (19.2)
j D1
et, comme dans ce repère orthonormé .e1 ; e2 ; e3 / chacune des trois contraintes de base a trois
composantes, on a :
3
X
T.M; ej / D ij ei (19.3)
i D1
soit au final :
3
X
T.M; n/ D ij nj ei (19.4)
i;j D1
Les coefficients linéaires ij apparaissent donc comme les éléments d’un tenseur de rang 2 : il
s’agit du tenseur des contraintes de Cauchy.
D’un point de vue pratique, chacun des éléments ij du tenseur des contraintes de Cauchy rend
compte d’une contribution clairement identifiable : le premier indice i est l’indice de projection
(direction selon laquelle s’exerce la contribution) ; le second indice j repère l’orientation de la
surface sur laquelle s’exerce la contribution. Par exemple 12 correspond à la composante suivant e1
de la contrainte qui s’exerce sur la facette de normale e2 .
En exploitant la condition d’équilibre appliquée au moment résultant, il est possible de dé-
montrer que, en statique, le tenseur des contraintes est nécessairement symétrique. D’ailleurs,
en se servant de cette symétrie, on introduit la notation de Voigt ou notation de l’ingénieur. On
pose 1 D 11 ,2 D 22 , 3 D 33 , puis 4 D 23 , 5 D 13 , 6 D 12 , et l’on peut présenter le
tenseur des contraintes sous forme de vecteur : < 1 ; 2 ; 3 ; 4 ; 5 ; 6 >. Cela facilite l’écriture
Ces invariants sont utiles pour définir la contrainte de comparaison, ou contrainte effective e D
f .ij / : cette valeur est ensuite comparée à la limite élastique pour savoir si l’on est dans le
domaine élastique ou plastique. Le second invariant du déviateur des contraintes est la contrainte
de von Mises. On appelle triaxialité des contraintes le rapport entre la contrainte isostatique et la
contrainte équivalente de von Mises :
p i i
D D (19.13)
evm 3evm
Ce paramètre est important dans l’étude de l’endommagement et de la mécanique de la rupture.
Notons qu’il caractérise certains cas simples de sollicitation tels que le cisaillement pur ( D 0), ou
la traction uniaxiale ( D 1=3). Lorsque l’on parle de contraintes, on se réfère toujours au tenseur
de Cauchy. Toutefois, plusieurs autres mesures des contraintes ont été développées :
@uj
P D J FT de coordonnées Pij D Ji k (19.14)
@xk
— Le second tenseur des contraintes de Piola-Kirchhoff S, de manière duale, relie les forces de
la configuration de référence avec le domaine actuel. Avec les mêmes notations qu’au dessus,
on a :
1 T @ui @uj
S D JF F de coordonnées Sij D J km (19.15)
@xk @xm
@xi @ui
Fij .X; t / D D ıij C ou F D I C ru (19.16)
@Xj @Xj
1. la description lagrangienne consiste à suivre dans le temps les particules le long de leurs trajectoires : c’est une
description intuitive de leur mouvement. En représentation lagrangienne, la position d’un point M à l’instant t qui se
trouvait en M0 à l’instant t0 est donnée par une relation du type M D f .M0 ; t/. Cette méthode présente un inconvénient :
le référentiel se déplace avec le fluide. Il est donc difficile de connaître l’état du fluide en un point donné de l’espace et
du temps.
La description eulérienne décrit le champ de vitesses qui associe à chaque point un vecteur vitesse. La photographie
avec un temps de pose assez court d’un écoulement muni de particules colorées permet de visualiser des éléments de ce
champ de vitesses à un instant donné. Au contraire un temps de pose plus long permet de visualiser des trajectoires de la
description lagrangienne. Le champ de vitesses est décrit en donnant à tout instant t le vecteur vitesse V en tout point M
par une relation de type V.M; t/.
(on note souvent
ij au lieu de Gij ). Lorsque l’on parle de tenseur des déformations, on fait souvent
référence au tenseur linéarisé des déformations, obtenu en négligeant les termes d’ordre 2 du tenseur
de Green-Lagrange, ou encore tenseur des déformations dans le cas des petits déplacements :
1 @ui @uj 1
"ij D C que l’on note "ij D .ui;j C uj;i / (19.21)
2 @xj @xi 2
En mécanique des milieux continus, le tenseur des déformations pour les petites déformations (ou
tenseur de Green) est la partie symétrique de la matrice jacobienne du vecteur déplacement de
chaque point du solide. Si l’on décompose le tenseur des déformations en une somme d’une partie
déviatorique (ou déviateur) et d’une partie sphérique :
1
"ij D "I ıij C eij (19.22)
3
avec "I D "kk et ei i D 0 ; on a une signification physique claire de chacun des termes. On vérifie
en effet facilement que "I caractérise la variation de volume :
V
D "I D tr " (19.23)
V
Il suffit, pour s’en convaincre, de partir d’un cube unité (V = 1) dans les axes principaux, et de
calculer le volume du parallélépipède rectangle déformé :
Les directions propres sont appelées directions principales de déformation, et les déformations "I , "II
et "III les déformations principales. Les déformations principales sont les valeurs propres du tenseur,
et les direction propres, ses vecteurs propres. Les valeurs propres vérifient l’équation det." I/ D
0. La trace étant invariante par changement de base, on a "11 C "22 C "33 D "I C "II C "III et et
ainsi en petites déformations, la variation relative de volume vaut :
V
D "I C "II C "III (19.26)
V0
Contrairement aux contraintes principales, la notion de déformation principale est assez peu
utilisée pour le calcul. Elle permet par contre d’exprimer de manière simple l’énergie élastique, et
est utile pour dépouiller les résultats d’extensométrie. Par ailleurs, les directions principales sont
les mêmes pour le tenseur des déformations et pour le tenseur des contraintes.
En vue de prendre en compte les cas les plus généraux, le tenseur des déformations " se
décompose en quatre parties :
— une partie élastique : directement proportionnelle à la variation du tenseur des contraintes
(contraintes actuelles moins tenseur des contraintes initiales, généralement nul, mais pas
forcément) ;
— une partie de dilatation thermique : directement proportionnel à la variation de température
(température actuelle moins température initiale). Cette partie s’écrit à l’aide d’un tenseur ˛,
dépendant éventuellement de la température également, et qui est sphérique dans la cas des
matériaux isotropes ;
— une partie plastique ;
— une partie viscoélastique.
Chaque mécanisme responsable du comportement inélastique est caractérisé par un certain
nombre de variables, appelées variables d’écrouissage, caractéristique de l’état du matériau à un
instant donné ainsi que de l’influence de chargement thermomécanique passé.
Les lois d’écrouissage définissent l’évolution du domaine élastique. Elles complètent le modèle
pour le cas d’un matériau dont la résistance à la déformation évolue avec celle-ci. Sans écrouissage,
le domaine d’élasticité est défini uniquement en fonction de l’état de contrainte.
avec 0 D ı0
Au niveau discret, le système non linéaire nécessite alors de recourir à une technique de
linéarisation, comme la méthode de Newton-Raphson, permettant de manière itérative, d’obtenir
une solution convergée. La méthode de Newton-Raphson est présentée en annexe au chapitre D.
avec :
E E
D et D (19.30)
.1 2/.1 C / 2.1 C /
ou :
.3 C 2/
ED et D (19.31)
C 2. C /
Dans ce paragraphe, nous proposons d’exposer brièvement quelques lois de comportement qui vont
au-delà de la simple élasticité linéaire.
19.3.2 Visoélasticité
Un comportement viscoélastique correspond à la superposition d’un comportement élastique, traduit
par une relation de type D H" (loi de Hooke), et un comportement visqueux, dont le plus simple
est le modèle linéaire dit de Newton, traduit par une relation de type D P" ( étant la viscosité du
matériau).
Un échelon de contrainte appliqué à partir d’un instant t0 produit une déformation instantanée
suivie d’une déformation différée (fluage). Si, au-delà d’un instant t1 , la charge est ramenée à zéro,
il apparaît, après une nouvelle déformation instantanée, le phénomène de recouvrance, qui tend à
ramener la déformation à zéro. Si une déformation est appliquée à partir de l’instant t0 , on obtient
une contrainte instantanée puis une diminution de la contrainte à partir de cette valeur instantanée
(relaxation). Si, au-delà d’un instant t1 , la déformation est ramenée à zéro, il apparaît, après une
nouvelle contrainte instantanée, le phénomène d’effacement, qui tend à ramener la contrainte à
zéro. Le comportement viscoélastique se caractérise par le fait que le phénomène d’effacement est
total, i.e. que la contrainte revient effectivement à zéro.
De manière générale, une loi viscoélastique s’exprime comme une correspondance entre
l’histoire des déformations et des contraintes par une fonction, ce que l’on note :
19.3.3 Visoplasticité
Plusieurs modèles viscoplastiques existent. Nous avons mentionné, le modèle de Maxwell ou
modèle de fluide visqueux, comportant un ressort et un amortisseur linéaire en série, et dont la loi
s’écrit :
P
"P D C (19.34)
E
Nous avons également mentionné le modèle de Voigt ou modèle du solide viscoélastique, comportant
un ressort et un amortisseur en parallèle, et dont la loi s’écrit :
Maxwell Voigt
σ0/E Hε0
σ0/H Eε0
Voigt
t t
a) en fluage b) en relaxation
F IGURE 19.1: Modèles de Maxwell et Voigt
19.3.4 Plasticité
Les modèles présentés jusqu’à présent étaient des modèles unidimensionnels, ou plus exactement
des modèles correspondant à un chargement uniaxial. Pourtant, l’étude de ces modèles uniaxiaux
(simples) met en évidence la détermination de seuils ou de limites correspondant à des modifications
de comportement. Afin de pouvoir aborder l’étude des chargements multiaxiaux, il est nécessaire
de se donner les moyens de définir de telles limites dans le cas tridimensionnel. C’est ce que nous
allons maintenant aborder.
Considérons le cas du chargement uniaxial d’un matériau isotrope. Celui-ci fait apparaître
un domaine d’élasticité au travers de deux valeurs de contrainte, l’une en traction, l’autre en
compression, pour lesquelles se produit l’écoulement plastique. On a donc élasticité dans un
domaine Œ y ; y , puis plasticité au delà, i.e. par exemple pour une contrainte supérieure à y C x,
où x D H"p .
En fait, la limite du domaine de plasticité est défini par une fonction de charge f de sorte que
si f .; x/ < 0 l’état de contrainte est élastique, et si f .; x/ > 0 l’état de contrainte est plastique.
Dans le cas général, l’ensemble des paramètres de départ AI contiendra les contraintes et toutes
les variables d’écrouissage, scalaires ou tensorielles, il faut donc définir f .; AI /. On va dans un
premier temps limiter la présentation à la définition du domaine d’élasticité initial, pour lequel on
supposera que les variables AI sont nulles, si bien qu’on se contentera d’écrire les restrictions des
fonctions f dans l’espace des contraintes.
L’expérience montre que, pour la plupart des matériaux, le domaine d’élasticité initial est
convexe (c’est en particulier vrai pour les métaux qui se déforment par glissement cristallogra-
phique). La fonction de charge doit donc elle-même être convexe en , ce qui implique, pour tout
réel compris entre 0 et 1, et pour un couple .1 ; 2 / quelconque de la frontière :
Un critère de plasticité, ou critère d’écoulement plastique, est un critère permettant de savoir, sous
des sollicitations données, si une pièce se déforme plastiquement ou si elle reste dans le domaine
élastique. De nombreux essais ont montré que l’on pouvait utiliser deux critères principaux : le
critère de von Mises (critère de l’énergie de distorsion élastique) ou le critère de Tresca (critère de la
contrainte de cisaillement maximal). En résistance des matériaux, on désire parfois rester dans le
domaine élastique, on parle alors de critère de résistance.
La contrainte de comparaison n’est pas une contrainte réelle existant à un instant donné à
l’intérieur d’un solide, mais est utilisée en mécanique pour prédire la rupture. Néanmoins, la plupart
des ingénieurs l’utilisent pour déterminer si un champ de contrainte donné dans une pièce est
acceptable ou non. On parle aussi de contrainte équivalente ou de contrainte effective. Elle découle
des critères de plasticité.
Cette contrainte est comparée à la limite d’élasticité ou encore la contrainte de rupture obtenue
par essai de traction.
Le critère dit de von Mises a été formulé initialement
par Maxwell en 1865. En 1904, Huber le développa partiel-
lement dans un article en polonais. Cependant, sa paternité
est généralement attribuée à von Mises (1913). On parle
aussi parfois de la théorie de Maxwell-Huber-Hencky-von
Mises, ou de critère de Prandtl-Reuss, ou encore de critère
de l’énergie de distorsion élastique. Maxwell von Mises Tresca
La renommée de Tresca était si grande à son époque
que Gustave Eiffel mit son nom en troisième position sur la Liste des soixante-douze noms de
savants inscrits sur la tour Eiffel, et plus précisément sur le pilier face au Trocadéro.
Sur ce même pilier (comportant 18 noms), en plus des mathématiciens Lagrange, Laplace,
Legendre et Chasles, se trouve également Navier. Celui-ci n’apparaît pas pour ses contributions aux
mathématiques et à la physique a , mais parce qu’il était considéré lui-aussi comme l’un des plus
grands ingénieurs français et comme personnage public important : de 1830 à sa mort en 1836, il fut
employé par le gouvernement français comme consultant afin de permettre à la France de progresser
grâce aux sciences et aux technologies.
a. Lorsque, en 1822, il modifia les équations d’Euler pour décrire un fluide en incluant la viscosité, son
raisonnement mathématique était erroné, mais par chance, ou grâce à son intuition, il obtint malgré tout
les bonnes équations. Le raisonnement rigoureux fut trouvé quelques années plus tard par le mathématicien
irlandais Stokes
Dans le critère de von Mises, on considère que le seuil de plasticité est lié à l’énergie élastique de
cisaillement. Cela revient à négliger l’influence du troisième invariant. Si y est la limite d’élasticité
en traction, la fonction de charge est définie par :
f . / D J. / y (19.37)
Critère de Tresca
f . / D max.i j / y (19.38)
En d’autres termes, la loi d’écoulement se définit par secteurs dans l’espace des contraintes
principales.
Critère de Drucker-Prager
Critère de Mohr-Coulomb
Ce critère est apparenté à celui de Tresca, car il fait intervenir comme lui le cisaillement maximum,
mais, contrairement à lui, il ajoute en même temps la contrainte « moyenne », représentée par le
centre du cercle de Mohr correspondant au cisaillement maximum, soit :
Ce critère est sous-tendu par la notion de frottement, et suppose que le cisaillement maximal que
peut subir le matériau est d’autant plus grand que la contrainte normale de compression est élevée.
et on appelle :
0
— module dynamique = je j D ;
"0
0
— module de stockage = E D je j cos ı, car il mesure l’énergie emmagasinée puis restituée au
cours d’un cycle ;
— module de perte = E00 D je j sin ı, car il mesure l’énergie dissipée sous forme de chaleur au
cours d’un cycle.
Le module d’Young complexe e ou le module de Coulomb complexe G évoluent de manière
significative avec la température, la fréquence et l’amplitude de l’excitation.
Notons également que l’effet mémoire (expériences de fluage et relaxation) est présent pour ces
matériaux : le niveau des contraintes à un instant dépend non seulement du niveau de sollicitation à
cet instant, mais également des sollicitations auxquelles le matériau a été soumis précédemment.
Grandes déformations
En grandes déformations, il est nécessaire de bien distinguer l’état initial de l’état déformé. On
utilisera alors les tenseurs adaptés (Piola-Kirchhoff), comme exposé au paragraphe 19.2.
Incompressibilité
Aux lois de comportement précédentes, on ajoute la contrainte de variation nulle de volume entre
les configurations.
Pour un matériau incompressible, on a J D 1 (J est le jacobien du gradient de la déformation).
Hyperélasticité
Un matériau est dit élastique si le tenseur des contraintes de Cauchy à l’instant t dépend uniquement
de l’état de déformation à ce même instant : la contrainte ne dépend pas du chemin suivi par la
déformation, alors que le travail fourni par cette contrainte en dépend.
Un matériau élastique est dit hyperélastique si le tenseur des contraintes dérive d’une fonction
d’énergie de ce matériau : cela implique que le travail fourni pour aller d’un état à un autre ne
dépend pas du chemin suivi.
Si on postule l’existence d’une énergie libre ‰, on peut la relier, pour les matériaux hyperélas-
tiques, aux invariants des tenseurs. Cette énergie est également appelée énergie de déformation. De
là on peut déduire les lois de comportement.
Approximation numérique
De nombreuses formes de l’énergie de déformation ont été proposées, s’exprimant à partir :
— des invariants ;
— des fonctions d’élongations principales ;
— des coefficients intervenant sous forme linéaire : Mooney-Rivlin et Rivlin généralisé ;
— des coefficients intervenant sous forme de puissances : Ogden (1972)
— sous forme polynomiale...
Le modèle de Rivlin généralisé, implémenté dans la plupart des codes de calcul, est donné par
le développement polynomial suivant :
N
X M
X
i j
‰D Cij .I1 3/ .I2 3/ C Di .J 1/2i (19.43)
i;j D0 i D1
Composants
Un matériau composite plastique correspond à l’association de deux constituants .
— Le renfort (ou armature, ou squelette) : assure la tenue mécanique (résistance à la traction et
rigidité). Souvent de nature filamentaire (des fibres organiques ou inorganiques).
— La matrice : lie les fibres renforts, répartit les efforts (résistance à la compression ou à
la flexion), assure la protection chimique. Par définition, c’est un polymère ou une résine
organique.
En plus de ces deux constituants de base, il faut ajouter l’interphase, qui est l’interface assurant
la compatibilité renfort-matrice, et qui transmet les contraintes de l’un à l’autre sans déplacement
relatif.
Des produits chimiques entrent aussi dans la composition du composite, l’interphase etc... qui
peuvent jouer sur le comportement mécanique, mais n’interviennent pratiquement jamais dans le
calcul de structure composite.
Approximation numérique
L’ingénieur mécanicien est souvent bien au fait des diverses approximations possibles d’un matériau
composite. Nous serons par conséquent assez brefs sur le sujet.
Par ailleurs le chapitre 15 sur l’homogénéisation permet, dans certains cas, de remplacer un
matériau composite compliqué par un matériau homogénéisé plus simple.
La loi de Hooke, telle qu’elle a été écrite jusqu’à présent D H" ne s’oppose aucunement à
l’anisotropie.
L’isotropie se traduit juste par le fait que plus de coefficients sont nuls, et que ceux qui sont non
nuls ne dépendent que de deux paramètres, comme rappelé en introduction au paragraphe 19.3.
19.4 Le contact
Histoire
Les premiers calculs de Joseph Boussinesq, auteur en 1876 d’un Essai théorique de l’équilibre des
massifs pulvérulents, comparé à celui des massifs solides, sur la poussée des terres sans cohésion,
reprenant des études de Coulomb sur ce sujet, reposent sur un ensemble d’hypothèses très restrictives :
1) les corps en présence sont supposés semi-infinis (cela n’est vrai que si les zones de contact sont
vraiment très petites par rapport aux autres dimensions) ; 2) au voisinage de la future zone de contact,
leurs surfaces peuvent être représentées par des quadriques dont les courbures sont connues (or
la rugosité, qui rend la répartition des pressions de contact très irrégulière, est généralement très
éloignée du modèle théorique) ; 3) ces corps sont parfaitement élastiques, homogènes et isotropes
(ce qui est très restrictif, et souvent réellement faux) ; 4) l’aire de contact est assimilée à un très petit
élément plan qui ne reçoit que des efforts normaux, donc parallèles entre eux (dans beaucoup de
contacts, la zone d’application des pressions est loin d’être plane et surtout, le fait de ne considérer
que des charges normales suppose que l’on fasse abstraction du frottement).
En 1881, Heinrich Hertz, jeune ingénieur et docteur ès sciences de 24 ans, publie dans le célèbre
Journal de Crelle (XVII, p. 156) sous le titre Über die Beruhrung fester elastischer Körper (Sur
le contact des corps solides élastiques), un mémoire qui fera date, puisqu’il s’agit de la première
théorie cohérente des contacts ponctuels.
Le fait de rester dans le domaine des déformations
élastiques permet d’appliquer le principe de superposi-
tion : aux contraintes issues de 1) l’application des efforts
normaux se superposent celles 2) provoquées par les
efforts tangentiels résultant du frottement ou de l’adhé-
rence, puis celles 3) dues aux contraintes résiduelles dont
on favorise l’apparition par des traitements mécaniques Boussinesq Coulomb Hertz
ou thermochimiques appropriés, et enfin celles 4) qui
correspondent aux autres sollicitations des pièces, tension, compression, flexion, torsion... Ces quatre
groupes de contraintes peuvent être définis séparément puis combinés pour aboutir à l’état de charge
complet des zones de contact.
Le calcul des contraintes supplémentaires dues au frottement a été conduit de diverses manières
Depuis que Hertz a introduit une théorie du contact en 1881, de nombreux problèmes d’ingénieur
faisant intervenir le contact ont été résolus. L’outil de calcul basé sur une approche analytique, est
limité à la résolution des problèmes simples de contact : en effet la plupart des solutions analytiques
supposent un contact sans frottement et des zones de contact connues, à priori, et des formes
géométriques simples.
Le développement des techniques numériques de résolution a permis de traiter des problèmes
de contact plus complexes. la méthode des éléments finis, en permettant la discrétisation des solides
de formes quelconques et la prise en compte aisée de conditions aux limites diverses, offre un outil
puissant de calcul pour étudier les problèmes de contact.
Aujourd’hui l’analyse des problèmes de contact avec frottement est très importante pour
beaucoup d’applications industrielles. La modélisation des procédés industriels de mise en forme,
et plus généralement des phénomènes complexes où le contact et le frottement s’ajoutent à des
non-linéarités du matériau et de la géométrie, nécessite des algorithmes supplémentaires dans les
logiciels généraux d’éléments finis.
Malgré la linéarité de la loi élastique, le problème de contact est intrinsèquement non-linéaire.
En effet, la surface de contact et les forces de contact sont, à priori, inconnues et elles changent
progressivement lorsqu’on applique le chargement externe.
Dans la littérature, de nombreuses méthodes ont été développées pour résoudre les problèmes
de contact par des méthodes numériques comme la méthode des éléments finis, parmi lesquels la
méthode de pénalisation, la méthode de flexibilité, la méthode de programmation mathématique, la
méthode des multiplicateurs de Lagrange (voir le paragraphe 7.6 sur les multiplicateurs de Lagrange
et le paragraphe 12.3 sur les diverses manières de traiter une interface, qui est un contact rigide).
Une grande partie de ces articles traitent d’algorithmes numériques. Dans les codes éléments finis
industriels (Ansys, Pamcrash...), les problèmes de contact avec frottement dans le contexte des
grandes déformations sont presque exclusivement traités par des méthodes de pénalisation ou de
régularisation. Ces méthodes présentent des inconvénients en ce qui concerne la stabilité et la
précision numérique, en particulier pour tout ce qui touche à la simulation des phénomènes de
frottement.
Pour pallier ces insuffisances, une méthode du Lagrangien Augmenté a été développée par
Curnier et Alart (1988). Cette méthode consiste à déterminer les inconnues (déplacement et réaction)
simultanément en utilisant un algorithme de Newton généralisé. Simo et Laursen ont également
proposé une méthode similaire (1992). De Saxcé et Feng ont proposé une méthode bipotentielle
fondée sur la théorie du Matériau Standard Implicite, dans laquelle une nouvelle formulation du
lagrangien augmenté est développée.
Pour les problèmes de contact unilatéral avec frottement, la méthode bipotentielle n’utilise
qu’un seul principe variationnel sur le déplacement et une seule inégalité. Ainsi, le contact unilatéral
et le frottement sont couplés. Cette nouvelle approche étend également la notion de loi normale
aux comportements dissipatifs non associés, en tenant compte du frottement. Cette approche varia-
tionnelle est plus simple que l’approche classique qui inclue deux principes variationnels et deux
inégalités respectivement pour le contact unilatéral et le frottement. Dans la méthode bipotentielle,
le problème de contact avec frottement est traité dans un système réduit par un algorithme d’Uzawa
à une seule phase de prédiction-correction sur le cône de frottement. L’extension de cette méthode
dans le contexte de grandes déformations a été réalisé. Pour être capable de traiter des problèmes
industriels qui font intervenir le contact, il est important de disposer d’un éventail d’algorithmes
afin de pouvoir moduler l’utilisation de chaque méthode selon leurs avantages et inconvénients
dans chaque cas concret.
Ω1 P
Xn t2
n
P'
t1
Ω2
où C est un ensemble qui représente l’intervalle Œ rn ; rn dans le cas bidimensionnel, ou le
disque de centre 0 et de rayon R D rn dans le cas tridimensionnel. On rappelle que u t désigne la
composante tangentielle du déplacement relatif, qui est aussi le glissement.
Afin d’éviter des potentiels non différentiables qui apparaissent dans la représentation du contact,
on peut utiliser la méthode du lagrangien augmenté. Cette méthode, appliquée à l’inégalité varia-
tionnelle, conduit à une équation implicite :
— correction :
où les vecteurs R des résidus, Fint des forces internes, Fext des forces extérieures et Freac des
forces de contact et de frottement dans le repère global dépendent tous du vecteur des inconnues
nodales de la structure q.
Pour résoudre ce système d’équations non linéaires, on utilise une méthode itérative de type
Newton-Raphson qui consiste à linéariser le système précédent en :
12 d r o i t e s u r l a q u e l l e l e c a r r e v i e n d r a
1 OPTION ECHO 0 ; buter :
2 OPTION DIME 2 ELEM QUA4 MODE PLAN CONT 13 k1 = ( -1.* long1 ) 0.;
; 14 k2 = long1 0.;
3 15 l1 = DROI ( nlong1 -2) k2 k1 ;
4 Donnees 16
5 long1 =10.; 17 c a r r e :
6 nlong1 =7; 18 k3 = ( -0.5* long1 ) jeu1 ;
7 uy0 = -0.5; 19 k4 = (0.5* long1 ) jeu1 ;
8 haut1 = long1 ; 20 l2 = DROI nlong1 k3 k4 ;
9 nhaut1 = nlong1 ; 21 s1 = l2 TRAN nhaut1 (0. haut1 ) ;
10 jeu1 =0.0;
11
Puis on fait un peu d’affichage des résultats... ce qui est illustré figure 19.4.
On pourra ensuite mettre jeu1 a une valeur différente de zéro et refaire le calcul. On s’apercevra
que cela fonctionne toujours. La visualisation de la déformée permettra de bien comprendre
comment s’effectue le calcul (on rappelle que dans C AST 3M, toutes les conditions aux limites sont
introduites par l’intermédiaire de multiplicateurs de Lagrange : voir paragraphe 12.6.4).
Forces de réaction
III ÉLÉMENTS FINIS 19.5 Exemple : une toute première approche du contact avec C AST 3M 292
On pourrait modéliser la partie inférieure et lui appliquer les forces de réactions qui ont été
calculées précédemment. Nous n’allons évidemment pas procéder ainsi et laisser C AST 3M tout
calculer pour nous...
36 l3 = s1 ’ COTE ’ 3;
1 OPTION ECHO 0 ; 37 CLl3 = BLOQ l3 UY ;
2 OPTION DIME 2 ELEM QUA4 MODE PLAN CONT 38 DCLl3 = DEPI CLl3 UY0 ;
; 39 3) encastrement sous la p a r t i e basse
3 40 l4 = s2 ’ COTE ’ 3;
4 Donnees 41 CLl4 = BLOQ L4 DEPL ;
5 long1 =10.; 42 T o t a l i t e des c o n d i t i o n s aux l i m i t e s
6 nlong1 =7; 43 CL0 = CLk5 ET CLl3 ET CLl4 ;
7 uy0 = -0.5; 44
8 haut1 = long1 ; 45 RESOLUTION
9 nhaut1 = nlong1 ; 46 Depl1 Rigid1 = IMPO l2 l1 ;
10 jeu1 =1.0; 47 MR1 = RIGID ModM1 MatM1 ;
11 48 MR2 = RIGID ModM2 MatM2 ;
12 p a v e s u r l e q u e l l e c a r r e v i e n d r a 49 dep1 = RESO ( MR1 ET MR2 ET CL0 ET
buter : Rigid1 ) DCLl3 ;
13 k1 = ( -1.* long1 ) 0.; 50
14 k2 = long1 0.; 51 Post T r a i t e m e n t
15 l1 = DROI (2* nlong1 -1) k2 k1 ; 52
16 s2 = l1 TRAN nhaut1 (0. ( -1.0* haut1 ) ) ; 53 deformee :
17 54 defo0 = DEFO ( s1 ET s2 ) dep1 0. ’ BLEU ’
18 c a r r e ;
19 k3 = ( -0.5* long1 ) jeu1 ; 55 defo1 = DEFO ( s1 ET s2 ) dep1 1. ’ ROUG ’
20 k4 = (0.5* long1 ) jeu1 ; ;
21 l2 = DROI nlong1 k3 k4 ; 56 TITR ’ Maillages non deforme ( bleu ) et
22 s1 = l2 TRAN nhaut1 (0. haut1 ) ; deforme ( rouge ) ’ ;
23 trac ( s1 et s2 ) ; 57 TRAC ( defo0 ET defo1 ) ;
24 58
25 M o d e l e 59 TITR ’ Champ de deplacements . ’ ;
26 ModM1 = MODEL s1 MECANIQUE ELASTIQUE ; 60 DeplY1 = EXCO Dep1 UY ;
27 MatM1 = MATER ModM1 ’ YOUN ’ 1. E3 ’ NU ’ 61 TRAC DeplY1 ( s1 et s2 ) ;
0.3 ; 62
28 ModM2 = MODEL s2 MECANIQUE ELASTIQUE ; 63 Comparaison d e s champs de
29 MatM2 = MATER ModM2 ’ YOUN ’ 5. E3 ’ NU ’ contraintes :
0.3 ; 64 Sig1 = SIGM ( ModM1 ET ModM2 ) ( MatM1 ET
30 MatM2 ) Dep1 ;
31 CL ( R i g i d i t e s ) 65 TITR ’ Champ de contraintes . ’ ;
32 1 ) i l f a u t u n e c o n d i t i o n s e l o n UX 66 TRAC sig1 ( ModM1 ET ModM2 ) ;
33 k5 = s1 POIN PROC (0. jeu1 ) ; 67
34 CLk5 = BLOQ k5 UX ; 68 fin ;
35 2 ) l i g n e s u r l a q u e l l e on i m p o s e l e
deplacement
Cette fois-ci, nous avons mis jeu1 a une valeur non nulle pour bien comprendre comment se
fait la résolution de ce système numérique.
On obtient les résultats illustrés à la figure 19.5 pour la déformée et les forces de réactions et à
la figure 19.6 pour les déplacements et contraintes.
déplacement imposé Forces de
Maillage réaction
surfaces en contact
III ÉLÉMENTS FINIS 19.5 Exemple : une toute première approche du contact avec C AST 3M 294
42 l4 = s2 ’ COTE ’ 3; 70
43 CLl4 = BLOQ L4 DEPL ; 71 dep1 = TAB2 . ’ DEPLACEMENTS ’ . 1;
44 4 ) l i g n e de c o n t a c t : 72
45 Depl1 Rigid1 = IMPO l2 l1 ; 73 deformee :
46 74 defo0 = DEFO ( s1 ET s2 ) dep1 0. ’ BLEU ’
47 T o t a l i t e des c o n d i t i o n s aux l i m i t e s ;
48 CL0 = CLk5 ET CLl3 ET CLl4 ET Rigid1 ; 75 defo1 = DEFO ( s1 ET s2 ) dep1 1. ’ ROUG ’
49 ;
50 Chargement 76 TITR ’ Maillages non deforme ( bleu ) et
51 Ltemps1 = PROG 0. 1.; deforme ( rouge ) . ’ ;
52 evo1 = EVOL ’ MANU ’ ’ TEMPS ’ Ltemps1 ( 77 TRAC ( defo0 ET defo1 ) ;
PROG 0. 1.) ; 78
53 CharU1 = CHAR DIMP DCLl3 evo1 ; 79 TITR ’ Champ de deplacements . ’ ;
54 Char0 = CharU1 ; 80 DeplY1 = EXCO Dep1 UY ;
55 81 TRAC DeplY1 ( s1 et s2 ) ;
56 RESOLUTION 82
57 83 Comparaison d e s champs de
58 C o n s t r u c t i o n d e l a t a b l e PASAPAS : contraintes :
59 TAB1 = TABL ; 84 sig1 = TAB2 . ’ CONTRAINTES ’ . 1 ;
60 TAB1 . ’ TEMPS_ CALCUL ES ’ = Ltemps1 ; 85 TITR ’ Champ de contraintes . ’ ;
61 TAB1 . ’ MODELE ’ = ( ModM1 ET ModM2 ) 86 TRAC sig1 ( ModM1 ET ModM2 ) ;
; 87
62 TAB1 . ’ C A R A C T E R I S T I Q U E S ’ = ( MatM1 ET 88 V i s u a l i s a t i o n s des r e a c t i o n s :
MatM2 ) ; 89 reac1 = TAB2 . ’ REACTIONS ’ . 1 ;
63 TAB1 . ’ B L O C A G E S _ M E C A N I Q U E S ’ = CL0 ; 90 vr1 = VECT reac1 0.8 E -2 ’ FX ’ ’ FY ’ ’
64 TAB1 . ’ CHARGEMENT ’ = Char0 ; ROUG ’ ;
65 91 TITR ’ Forces de reaction . ’ ;
66 Resolution : 92 TRAC vr1 ( s1 ET s2 ) ;
67 TAB2 = PASAPAS TAB1 ; 93
68 94 fin ;
69 Post T r a i t e m e n t
On obtient les mêmes résultats que ceux déjà présentés (voir figure 19.5 et figure 19.6).
Nous pouvons mentionner également que ce type de calcul permet de calculer la géométrie de
pièces réalisées en thermocompression. Considérons un matelas de matière souple placé entre le
plateau supérieur d’une presse et un outil comportant un logement, comme illustré à la figure 19.7a.
Une fois que le plateau de presse est descendu, on obtient la pièce en forme donnée à la figure 19.7b.
Plateau de presse
Matière pièce produite
Outil
À partir des listings précédents, il est aisé d’obtenir les résultats de la figure 19.7b... et nous
vous invitons à le faire.
Une fois ce premier calcul réalisé (et donc pleins de fierté et de confiance en nous), nous vous
proposons d’utiliser un matelas de matière plus épais, vraiment plus épais. Le but est que lors du
process, lorsque le plateau de la presse descend (situation réelle ou simulée), la matière vienne
suffisamment remplir la cavité du moule pour qu’il y ait contact entre la pièce déformée et le fond
de la cavité.
Nous allons alors constater que le contact n’est pris en compte que dans la partie supérieure du
moule, mais pas sur les côtés de la cavité, ni au fond de celle-ci...
En TP, nous travaillerons à comprendre pourquoi (qu’est-ce que le code de calcul a compris de
ce que nous lui avons proposé comme modélisation ?) et à réaliser un modèle correspondant à ce
que nous souhaitions.
La rupture en mécanique
2a
La contrainte en pointe de fissure (i.e. au point
A) est :
2a
A D 1 C (20.1)
b
La mécanique de la rupture a été inventée pendant la Première Guerre mondiale par l’ingénieur
aéronautique anglais A. A. Griffith pour expliquer la rupture des matériaux fragiles.
Le travail de Griffith a été motivé par deux faits contradictoires :
1. La contrainte nécessaire pour rompre un verre courant est d’environ 100 MPa ;
2. La contrainte théorique nécessaire à la rupture de liaisons atomiques est d’environ 10 000 MPa.
Une théorie était nécessaire pour concilier ces observations contradictoires. En outre,
les expérimentations sur les fibres de verre que Griffith lui-même a mené suggèrent
que la contrainte de rupture augmente d’autant plus que le diamètre des fibres est petit.
Par conséquent il en déduit que le paramètre de résistance uniaxiale à la rupture Rr ,
utilisé jusqu’alors pour prédire les modes de défaillance dans le calcul des structures,
ne pourrait pas être une valeur indépendante des propriétés du matériau.
Griffith suggère que la faiblesse de la résistance à la rupture observée dans ses Griffith
expériences, ainsi que la dépendance de l’intensité de cette résistance, étaient due à la
présence de défauts microscopiques préexistant dans le matériau courant.
Pour vérifier l’hypothèse de défauts préexistants, Griffith a introduit une discontinuité artifi-
cielle dans ses échantillons expérimentaux. La discontinuité artificielle était une forme de fissure
débouchante plus importante que les autres discontinuités supposées préexistantes dans l’échantillon.
Les expériences ont montré que le produit de la racine carrée de la longueur du défaut et de la
contrainte à la rupture était à peu près constant.
a 2
… D …0 2aB (20.3)
E
Ws D 4aV S (20.4)
avec
s l’énergie de progression du défaut par unité de surface. L’équation d’équilibre énergétique
de Griffith conduit à :
d… dWs
D (20.5)
dA dA
et donc :
a 2
D 2
s (20.6)
E
Griffith obtient donc la contrainte globale de rupture f pour les matériaux fragiles (et uniquement
eux) :
r
2E
s
f D (20.7)
a
Ces travaux seront complétés par Irwin afin de prendre en compte le cas de la rupture ductile (pour
les matériaux métalliques). Ce dernier obtient la contrainte globale de rupture :
r
2E.
s C
p /
f D (20.8)
a
où
p est l’énergie plastique de progression de fissure par unité de surface (i.e. en rupture fra-
gile Wf D
s , et en rupture ductile Wf D
s C
p ).
Poursuivant ses travaux, Irwin propose en 1957 une mesure énergétique G pour caractériser la
rupture :
d…
GD (20.9)
dA
En négligeant l’énergie cinétique, la puissance disponible pour ouvrir une fissure de surface A
est égale à la variation d’énergie potentielle totale, résultat de la variation de l’énergie élastique
stockée dans la structure et de la variation d’énergie liée aux forces extérieures. Cette contribution
mécanique est appelée taux de restitution d’énergie.
G est la quantité d’énergie permettant un accroissement de fissure de dA et est aussi appelé
force d’expansion de fissure ou taux de restitution d’énergie.
En revenant au cas traité par Griffith, on obtient en contraintes planes :
a 2
GD (20.10)
E
et ainsi, une fissure va progresser si G atteint une valeur critique Gc :
dWs
Gc D D 2
s (20.11)
dA
où
s est l’énergie de progression du défaut par unité de surface. Gc est la mesure de ténacité à la
rupture du matériau.
y
σyy
τ xy
σxx
τ yx
r
x
fissure
(a) Fissure sollicitée en traction (b) Contraintes au voisinage du fond de fissure
Dans le cas de structures où une fissure se retrouve sollicitée en traction, tel que cela est illustré
à la figure 20.3a, on peut montrer que :
1
k X
ij D p fij . / C Am r m=2 gij . / (20.12)
r mD0
où fij ./ est une fonction adimensionnelle, et .r; / les coordonnées polaires en fond de fissure.
En posant :
p
K D k 2 (20.13)
Irwin montre en 1957 qu’au voisinage du fond de fissure l’état de contraintes décrit à la figure 20.3b
conduit a :
.I/ KI .I/
lim ij D p fij . / (20.14)
r!0 2 r
.II/ KI I .II/
lim ij D p fij . / (20.15)
r!0 2 r
.III/ KI II .III/
lim Dp fij . / (20.16)
r!0 ij 2 r
trois modes de chargements pouvant s’appliquer à une fissure. Ces trois modes sont donnés à
la figure 20.4.
Pour un mode mixte général il vient :
.t ot al/ .I/ .II/ .III/
ij D ij C ij C ij (20.17)
p
— par les déplacements : KI est obtenu par 2=r en fond de fissure (obtenu par extrapo-
lation), étant le coefficient de Poisson. Cette méthode relativement simple nécessite de
raffiner le maillage autour de la fissure et sa précision n’est pas excellente (environ 5%).
Attention : il ne faut pas confondre KI avec K t qui est le facteur de concentration de contrainte,
sans dimension, et qui caractérise le rapport entre la contrainte normale maximale et la contrainte à
l’infini au voisinage d’une entaille.
22max
Kt D (20.18)
1
Si l’on reprend le cas de la plaque plane semi-infinie traitée par Griffith, en exprimant le champ
de contraintes au voisinage du fond de fissure et en faisant tendre vers 0, on obtient des relations
entre G et K :
KI2 KI2
GI D et en déformations plane : GI D .1 2/ (20.19)
E E
K2 KII2
GII D II et en déformations plane : GII D .1 2/ (20.20)
E E
2
KIII
GIII D .1 C / (20.21)
E
20.2.5 Intégrale J
L’intégrale J (intégrale curviligne) représente un moyen de calculer le taux de restitution d’énergie
de déformation ou de travail (énergie) par unité de surface de zone rompue au sein d’un matériau.
Histoire
Le concept théorique de l’intégrale J a été développé, de façon indépendante, en 1967 par Cherepanov
et en 1968 par Rice. Ces travaux mettent en évidence que le contour délimitant la zone plastique aux
abords du front de fissure (appelé J) est indépendant du profil (contour) de la fissure.
Par la suite, des méthodes expérimentales ont été élaborées
pour permettre la mesure des propriétés de rupture de critiques à
partir d’échantillons à l’échelle du laboratoire pour des matériaux
dans lesquels la dimension des prélèvements est insuffisante pour
garantir la validité les hypothèses de la mécanique linéaire élastique
de la rupture, et d’en déduire une valeur critique de l’énergie de
rupture J1c . Cherepanov Rice
La quantité J1c définit le point à partir duquel se forme une zone
plastique dans le matériau au moment de la propagation et pour un mode de chargement.
L’intégrale J est équivalente au taux de restitution de l’énergie de déformation d’une fissure
dans un solide soumis à une charge constante. Cela est vrai, dans des conditions quasi-statiques, tant
pour les matériaux linéairement élastiques que pour les échantillons expérimentés à petite échelle en
passe de céder en front de fissure.
Tk
nk
O2
y
Γ2
Γ1
D
O1
Γ
Γ1
y
Γ2
x
0 x
(a) Solide soumis aux forces Tk (b) Chemin d’intégration
Z
Qj D !nj Tk uk;j d; j; k D 1; 2; 3 (20.23)
peuvent s’écrire :
Z Z
Qj D !nj lk nl uk;j d D !ıj l lk uk;j nl d (20.24)
est indépendante du chemin dans l’espace des déformations. Le même type de calcul permet de
montrer que la densité d’énergie complémentaire :
Z kl
!D "ij dij (20.26)
0
45°
Y étant la limite élastique. Par conséquent, si 0 < r < r1 , 2 D Y et lorsque r > r1 , 2 D pKI .
2 r
Comme 2 D Y est constant pour r < r1 , il y a violation d’équilibre suivant l’axe y. La réduction
de 2 est compensée par 1 d’où une augmentation de r1 . On obtient une zone plastique corrigée
deux fois plus grande :
KI 2
1
cD en contraintes planes (20.30)
Y
2
1 KI
cD en déformations planes (20.31)
3 Y
4 KI2
ıD en contraintes planes (20.32)
E Y
4.1 2 / KI2
ıD en déformations planes (20.33)
3E Y
Il s’agit d’un modèle valable pour les plaques très minces et constituées d’un matériau plastique
parfait avec critère de Tresca, et où la plasticité est concentrée le long de l’axe de la fissure.
Cette approche, introduite en 1961 par Wells et Cottrell, postule qu’il y a initiation de fissures en
présence de plasticité, lorsque ı D ıc .
On peut se servir du modèle d’Irwin ou de celui de Dugdale (Burdekin et Stone)...
D H" (20.34)
2 2
2 /.1 C i / 2 /.1 C i / i i
Ni D .1 C i /.1 C i / .1 .1
4 (20.36)
2 2 2
C .1 /.1 C i /.1 i2 / i C .1 2 /.1 C i /.1 2i / i
2 4
Supposons maintenant que les nœuds 5 et 8 soient déplacés de 1/4 vers le nœud 1 (qui est
l’origine du repère), comme illustré à la figure 20.7. Les fonctions de forme des nœuds 1, 2 et 5,
obtenues pour D 1 sont :
1 1
N1 D .1 / N2 D .1 C / N5 D .1 2/ (20.37)
2 2
et le calcul de x.; / donne :
1 1
xD .1 /x1 C .1 C /x2 C .1 2 /x5 (20.38)
2 2
soit pour x1 D 0, x2 D L et x5 D L=4 :
4 7 3
y
6
8
x
1 5 2
L/4 3L/4
r
1 2 L x
x D .1 C /L C .1 / et par suite : D 1C2 (20.39)
2 4 L
p
Le terme du jacobien est @x @
D L2 .1 C / D xL qui s’annule pour x D 0 conduisant à une
singularité des déformations.
Si l’on calcule la déformation "x le long du côté 1 2, on trouve :
@u 1 3 4 1 1 4 2 4
"x D D p u1 C p C u2 C p u5 (20.40)
@x 2 xL L 2 xL L xL L
p
qui est bien en 1= x.
1T T
…D qKq qF (20.41)
2
Le calcul de G conduit à :
N
!
1 T @K 1 T X @ki
GD q qD q q (20.42)
2 @a 2 @a
i D1
Cette méthode ne fait certes intervenir qu’un seul calcul EF, mais elle nécessite un développe-
ment de code de dérivation des matrices de rigidité.
Si l’on a bien suivi, on a vu que l’intégrale J est un outil bien adapté : ne dépendant pas du
contour, cette intégrale n’est que peu sensible à la qualité du maillage. La plupart des codes actuels
permettent de calculer cette intégrale J sur un chemin défini par l’utilisateur.
nA
DD (20.44)
NA
Avec cette définition, le dommage cumulé est égal à 1 au moment où la pièce se rompt. Il faut
nuancer cette affirmation : des pièces apparemment identiques soumises aux mêmes sollicitations
se rompent en général au bout de nombres de cycles différents. La dispersion des durées de vie
peut être très importante.
On trouve par expérience que les durées de vie peuvent varier d’un facteur 5 ou 10 pour des
pièces issues d’un même lot de production. Il faut donc préciser davantage la formulation de la
règle de Miner : s’il faut en moyenne NA répétitions de l’événement A pour qu’une défaillance
survienne, alors le dommage causé par une occurrence de A est mesuré par 1=NA .
Les principes de Miner permettent de définir le dommage causé par un événement et affirment
que pour cumuler les dommages, il suffit de les additionner. Ils imposent en outre le choix de l’unité
de dommage. Remarquons qu’il est toujours possible de changer d’unité. Par exemple, lorsqu’il
n’y a un seul événement endommageant, il est naturel de choisir comme unité de dommage le
dommage causé par une occurrence de cet événement.
Les principes de Miner permettent d’établir l’égalité des endommagements produits par des
événements de natures différentes. En particulier, ils permettent de préciser quand un petit nombre
d’événements de grande amplitude produit un endommagement égal à un grand nombre d’événe-
ments de faible amplitude. Cela revêt une grande importance lorsqu’il faut définir un essai aussi
court que possible.
da
(20.45)
dN K
da
D C Km (20.46)
dN
où est une contrainte effective dans une direction normale à la fissure et F un facteur de forme.
dr 1
D f y1
(20.48)
dn
a r
où
et f sont des paramètres indépendants des contraintes mais qui peuvent dépendre
de la température, de l’humidité, de la fréquence. Souvent, on suppose une distribution de
Weibull 1 de la résistance des composites. La rupture par fatigue survient lorsque la résistance
résiduelle du composite est atteinte par la contrainte appliquée.
Théories de perte de rigidité : Ce sont des généralisations du cas précédent.
Les plis les plus désorientés par rapport au chargement (éléments sous-critiques) commencent
à s’endommager (ce qui est caractérisé par une perte de rigidité), ce qui cause une redistribu-
tion des contraintes au niveau local. La résistance des éléments critiques (les plis orientés
dans le sens de la charge) est gouvernée par les équations de dégradation de résistance. Ces
deux phénomènes (perte de rigidité des éléments sous-critiques et perte de résistance des
éléments critiques) contribuent à la définition de la résistance résiduelle et donc à la durée de
vie.
Théories d’endommagement cumulatif : Elles sont basées sur une observation expérimentale
soigneuse et sur une simulation de l’accumulation de l’endommagement du sous-lamina. Il
manque toutefois un critère de rupture des laminés sous chargement de fatigue tension-tension
pour ces théories.
Théories d’endommagement continu : L’endommagement est pris en compte par un paramètre D
sous la forme :
D
b (20.49)
1 D
1. En théorie des probabilités, la loi de Weibull, est une loi de probabilité continue. Avec deux paramètres sa densité
de probabilité est :
.x=/k
f .xI k; / D .k=/.x=/.k 1/
e
où k > 0 est le paramètre de forme et > 0 le paramètre d’échelle de la distribution. Sa fonction de répartition est
k
définie par F.xI k; / D 1 e .x=/ , où, ici encore, x > 0. Une version généralisée à trois paramètres existe.
La distribution de Weibull est souvent utilisée dans le domaine de l’analyse de la durée de vie, grâce à sa flexibilité,
car elle permet de représenter au moins approximativement une infinité de lois de probabilité.
Par exemple, si le taux de panne diminue au cours du temps alors, k < 1. Si le taux de panne est constant dans le
temps alors, k D 1. Si le taux de panne augmente avec le temps alors, k > 1. La compréhension du taux de panne peut
fournir une indication au sujet de la cause des pannes :
— un taux de panne décroissant relève d’une « mortalité infantile ». Ainsi, les éléments défectueux tombent en panne
rapidement, et le taux de panne diminue au cours du temps, quand les éléments fragiles sortent de la population ;
— un taux de panne constant suggère que les pannes sont liées à une cause stationnaire ;
— un taux de panne croissant suggère une « usure ou un problème de fiabilité » : les éléments ont de plus en plus de
chances de tomber en panne quand le temps passe.
On dit que la courbe de taux de panne est en forme de baignoire. Les fabricants et distributeurs ont tout intérêt à bien
maîtriser ces informations par type de produits afin d’adapter : 1) les durées de garantie (gratuites ou payantes), et 2) le
planning d’entretien.
Résumé — Certains diront que c’est enfin dans ce chapitre que nous traitons de la réalité
physique... c’est un point de vue. En effet, rien n’est jamais connu de manière parfaite.
L’aléa traduit aussi bien l’impossibilité d’une description déterministe exhaustive que
l’irrégularité de tout phénomène observé. Les modèles déterministes ne sont finalement
que des approximations des problèmes physiques correspondants, tout comme les modèles
linéaires ne sont que des approximations de comportements réels non-linéaires par nature.
Nous nous restreindrons dans le nombre de formulations afin de ne présenter que ce
qui nous semble aujourd’hui le plus pertinent.
21.1 Introduction
Dans la manière traditionnelle, encore appelée approche déterministe, la conception des structures
repose sur des paramètres tels que les dimensions, la résistance des matériaux et le chargement,
tous caractérisés par une valeur constante, i.e. leur moyenne. Sur la base de ces constantes on utilise
un modèle mathématique du comportement pour déterminer si la structure est sûre ou non. Afin
d’améliorer encore la sécurité, les variables structurelles sont alors remplacées par leur pire cas.
Cette philosophie de conception se révèle trop coûteuse d’un point de vue économique car on se
place dans le cas où tous les paramètres sont à leur pire valeur en même temps.
Il est bien connu que, par exemple, la résistance varie d’un élément structurel à l’autre, de sorte
que cette résistance ne peut être décrite par une unique valeur. De plus, il est parfois nécessaire de
prendre en compte des variations temporelles. Ces mêmes variations existent également pour les
dimensions et le chargement. Cela est particulièrement vrai pour les chargements naturels comme
la houle, le vent et les séismes, qu’il est difficile de prendre en compte de manière déterministe. Il
faut en outre garder en tête qu’une certaine incertitude existe également dans le choix des modèles
mathématiques utilisés pour l’analyse de la structure.
Le but d’utiliser une approche probabiliste plutôt qu’une simple approche déterministe est
d’essayer de prendre en compte les incertitudes mentionnées ci-dessus afin de réaliser une analyse
plus réaliste de la sûreté de la structure.
Dans ce chapitre, nous considérerons le problème de formulation classique suivant :
au D f (21.1)
Jusqu’à présent, nous nous sommes contenté du cas où a est un opérateur déterministe, f l’exci-
tation déterministe et u la réponse déterministe. Nous allons dans ce chapitre nous intéresser au
cas où f est une excitation aléatoire et a un opérateur éventuellement aléatoire. Il s’en suit que la
réponse du système u est elle-aussi aléatoire.
La manipulation d’équations stochastiques introduit deux difficultés :
.a C e
a/u D f (21.2)
qui se résout en :
1
uDa f a 1e
au (21.3)
Définition 72 — Moments d’une variables aléatoire. Les moments d’ordre n d’une variable
aléatoire X, s’ils existent, sont définis par :
Z 1
EŒXn D x n fX .x/dx (21.6)
1
Définition 73 L’espace vectoriel des variables aléatoires réelles d’écart-type fini (moment
d’ordre 2), noté L2 .‚; F; P/, est un espace de Hilbert. R
Le produit scalaire sur cet espace de Hilbert est défini commeR : .X; Y/ D xydP où dP
est la mesure de probabilité conjointe, ce qui équivaut à .X; Y/ D xyfX;Y dxdy. Avec ce qui
précède, le produit scalaire est donc finalement défini par :
Théorème 55 Les polynômes d’Hermite sous leur forme probabiliste, Hn , présentés au para-
graphe A.1.5, forment une base de l’espace L2 .‚; F; P/.
On rappelle également qu’une variable aléatoire gaussienne centrée réduite (i.e. de moyenne
nulle, écart-type égal à 1) a une densité de probabilité ' et une fonction de répartition ˆ définies
par :
2 x
e x =2 1
Z
t 2 =2
'.x/ D p et ˆ.x/ D p e dt (21.14)
2 2 1
Dans la suite du chapitre, nous noterons une telle variable aléatoire gaussienne centrée réduite.
Nous présentons quelques propriétés des polynômes d’Hermite, à commencer par la relation
d’orthogonalité :
Z C1
Hn .x/Hm .x/'.x/dx D nŠınm (21.15)
1
dHn .x/
D nHn 1 .x/ (21.16)
dx
iX
Cj
Hi .x/Hj .x/ D Cij k Hk .x/ (21.17)
kDji j j
avec :
i Cj Ck
8
< Cij k D 0
ˆ si 2 62 N
i Šj Š (21.18)
C D sinon
: ij k
i Cj k
Š i Ck2 j
Š j Ck i
ˆ
2 2
Š
C.x; x 0 /
.x; x 0 / D (21.20)
.x/ .x 0 /
1
X
w.x; / D ˛i i . /fi .x/ (21.22)
i D0
où les ˛i sont des constantes à déterminer, les i des variables aléatoires et les fi des fonctions
déterministes orthogonales entre elles. C’est exactement ce que propose le développement de
Karhunen-Loève, obtenu indépendamment par Karhunen en 1947, Loève en 1948, mais également
en 1947 par Kac et son ami Siegert du Radiation Laboratory.
qui est une équation intégrale de Fredholm de deuxième espèce. Le noyau Cww .:; :/ étant une
fonction d’autocovariance, il est borné, symétrique et défini positif (Loève, 1977). l’ensemble
des f'i g forme une base complète orthogonale de l’espace des fonctions L2 ./. Les valeurs
propres sont réelles, positives et en nombre fini.
Chaque réalisation de w peut donc être développée sur cette base sous la forme :
1 p
X
w.x; / D .x/ C i i . /'i .x/ (21.25)
i D1
où les i sont les coordonnées de la réalisation du champ aléatoire par rapport à l’ensemble des
fonctions déterministes 'i .
On montre aisément que EŒm n D ımn et EŒn D 0. La famille fi gi >1 forme un ensemble
orthonormal de variables aléatoires.
Comme il ne peut y avoir de valeurs propres multiples (sauf 0), il est possible de les classer en
une suite décroissante. En tronquant la somme de l’équation (21.25) à l’ordre M (i.e. en ne retenant
que les M plus grands valeurs propres), on obtient l’approximation de Karhunen-Loève du champ
aléatoire :
M p
X
wh .x; / D .x/ C i i . /'i .x/ (21.26)
i D1
1
Z
i . / D p w.x; / .x/ 'i .x/d (21.27)
i
Cette dernière équation nous dit également que lorsque w est un champ gaussien, alors chaque
variable aléatoire i est également gaussienne. Les fi gi >1 forment un ensemble de variables
aléatoires gaussiennes centrées réduites indépendantes.
La théorie des fonctionnelles non-linéaires a été développée par Volterra dès 1913. Il généralisa le
développement des fonctions en série de Taylor au cas des fonctionnelles.
Wiener s’intéressa au problème par ses
contact avec Paul Lévy, élève de Volterra. C’est
lui qui appliqua les idées de Volterra pour la pre-
mière fois à l’analyse stochastique. Il appliqua sa
théorie du mouvement brownien à l’intégration
des fonctionnelles de Volterra et développa ce que
l’on appelle désormais le chaos homogène. Volterra Lévy Wiener Ito
Poursuivant les travaux de Wiener, Cameron
et Martin en 1947 proposèrent un développement de type Fourier pour les fonctionnelles non-
linéaires : le développement de Fourier-Hermite. C’est à nouveau Wiener qui, à partir de ses travaux
de 1923 sur les espaces différentiels et de 1938 sur les chaos homogène, appliqua le développement
de Fourier-Hermite en 1958 aux problèmes impliquant des phénomènes aléatoires. Il en résultera le
développement de Wiener-Hermite, qui a été appliqué depuis à une grande variété de problèmes.
Le chaos homogène de Wiener a ensuite été raffiné par Ito en 1951 pour obtenir ce que l’on
appelle maintenant l’intégrale multiple de Wiener.
Le tableau 21.1 donne le nombre de polynômes présents dans la base du chaos polynomial considéré
en fonction du nombre M de variables aléatoires et du degré maximal p choisi.
Tableau 21.1: Nombre de polynômes dans la base du chaos : M est le nombre de variables aléatoires,
et p le degré maximal
où l’opérateur a est défini sur le produit d’un espace de Hilbert de type L2 (en fonction du problème)
par l’espace de Hilbert L2 .‚; F; P/. C’est un opérateur différentiel dont les coefficients ont des
fluctuations aléatoires dépendant d’une ou plusieurs variables.
On fait l’hypothèse que l’opérateur a est un opérateur différentiel dont les coefficients aléatoires
sont contraints à être des processus stochastiques du second ordre. Cette hypothèse n’est pas sévère
en fait, car la plupart des processus physiquement mesurables sont de ce type. On pourra donc écrire
chacun des coefficients ai .x; / de a comme la somme d’une composante déterministe ai .x/ D
EŒai .x; / et d’une composante aléatoire aei .x; /. On obtiendra à nouveau un système sous la
forme :
.a.x/ C e
a.x; //u.x; / D f .x; / (21.30)
qui se résout en :
u D g.e
ai .x; /; f .x; // (21.31)
L’intérêt est que l’on ne doit inverser que a 1 .x/. Toutefois, on ne sait pas calculer symboliquement
les termes d’ordre supérieur à deux, et on se contente de simulations numériques au delà. On peut
faire les mêmes remarques que pour la méthode de perturbation et il est difficile d’obtenir les
moments d’ordre supérieur à deux, surtout si l’on considère la valeur moyenne du processus sur
chaque élément, comme nous allons l’illustrer immédiatement en mécanique.
Kq D F
mais où cette fois, le matériau utilisé est supposé avoir un module d’Young représenté par un champ
aléatoire gaussien. La loi de comportement, traduite par la matrice d’élasticité, s’écrit alors :
avec
p Z
1 1
kei D i 'i N u L H0 LNu de (21.36)
e
où K0 est la matrice de rigidité globale calculée aux valeurs moyennes, et les matrices Ki des
matrices déterministes obtenues par les techniques d’assemblage classique.
On réécrit le système précédent :
1
!
X
1
K0 I C K0 Ki i q. / D F (21.38)
i D1
où les Pj sont les polynômes homogènes en les variables gaussiennes centrées réduites k
(avec P0 1). Comme les polynômes homogènes forment une base de L2 .‚; F; P/, les co-
efficients uji sont les coordonnées de ui . / dans cette base. Mais les polynômes homogènes ne
forment pas une base orthogonale de L2 .‚; F; P/ au sens du produit scalaire défini par la rela-
tion (21.12), contrairement au chaos polynomial. La solution peut donc également s’écrire dans la
base du chaos polynomial sous la forme :
1
X
u. / D uj ‰j (21.42)
j D0
Il s’agit simplement d’un changement de base, et dans ce cas, même le premier terme de la série
dans la base du chaos polynomial n’est pas le même que dans la série de von Neumann.
Pour en revenir à l’exemple précédent, cela
P signifie que l’on peut décomposer les déplacements
dans la base du chaos polynomial : q. / D i >0 qi ‰i . /, où les qj sont des vecteurs déterministes
(de dimension égale au nombre de degrés de liberté). Dans ce cas, tous les termes sont différents du
développement en série de von Neumann, même le premier q0 .
Et il est évidemment nécessaire de tronquer les séries dans cette équation pour pouvoir résoudre
numériquement.
La meilleure approximation de q. / est obtenue en minimisant le résidu au sens des moindre
p 1
carrés. Cela se produit lorsque le résidu est orthogonal au sous-espace engendré par les f‰k gkD0
dans L2 .‚; F; P/, ce qui s’écrit :
Maintenant, posons :
On remarquera au passage que Fk est nul pour tout k > 0 dans le cas d’un chargement déterministe
(ce qui est le cas dans notre exemple).
On obtient finalement le système matriciel suivant à résoudre :
2 30 1 0 1
K0;0 K0;p 1 q0 F0
6 :: :: 7 B :: C B :: C
4 : : 5@ : A D @ : A (21.49)
Kp 1;0 Kp 1;p 1 qp 1 Fp 1
qui est un système de taille p (ordre du développement dans la base du chaos polynomial) nombre
de degrés de liberté du modèle déterministe.
Les blocs diagonaux du système ci-dessus Kjj représentent la contribution due à la valeur
moyenne. Plus les fluctuations des propriétés matérielles sont faibles, plus le système est diagonal
par blocs. Le système reste par ailleurs symétrique, défini-positif et à caractère bande. Il peut être
résolu directement par une factorisation de Cholesky, ou par une méthode hiérarchique.
à partir des valeurs propres i et des vecteurs propres 'i de la fonction d’autocovariance du champ
aléatoire. En pratique, on n’utilisera évidemment qu’un nombre limité M de termes, correspondant
aux valeurs propres les plus grandes.
La matrice de rigidité est alors elle-aussi aléatoire et on peut l’exprimer aussi bien dans la base
de variables gaussiennes que dans la base du chaos polynomial :
1
X 1
X
KD Ki i D Kj ‰j
i D0 j D0
Si le champ aléatoire considéré n’est plus gaussien (par exemple lognormal), ou si la dépendance
de la rigidité en fonction de ce champ n’est plus linéaire, Ghanem montre que la matrice de rigidité
peut encore être représentée sur la base du chaos polynomial. On a montré que cela est encore
valable quelque soit la loi des variables aléatoires.
Dans l’exemple présenté, le chargement était considéré comme déterministe, mais il peut
lui-aussi être modélisé par des variables aléatoires de loi quelconque du moment qu’elles sont
décomposées sur la base du chaos polynomial, et on obtient le système discrétisé suivant :
1
! 1 ! 1 !
X X X
Ki ‰i qj ‰j D Fk ‰k (21.50)
i D0 j D0 kD0
La résolution numérique se fait en tronquant les séries de sorte que le résidu associé soit minimal
au sens de Galerkine.
Le processus stochastique porte sur des propriétés liées au domaine considéré . Le plus
simple des choix est donc de considérer la même discrétisation pour le modèle éléments finis que
pour la discrétisation du processus stochastique. Toutefois, le maillage du domaine correspond
au problème traité et plus particulièrement à l’obtention de certaines quantités : pour un calcul
mécanique, le maillage doit permettre d’appréhender correctement le champ de contraintes. Or
ce maillage « compatible » avec les contraintes n’a strictement aucune raison d’être adapté à la
discrétisation du champ stochastique ! C’est pourquoi il est souvent préférable d’utiliser deux
maillages différents. La minimisation du résidu dans le choix de la troncature des séries essaye de
« faire au mieux » avec les nœuds disponibles, mais cela peut se révéler insuffisant.
Dans la mise en place de telles méthodes, il convient de comparer les résultats avec des résultats
de référence... or, comme nous l’avons vu, à part dans de très rares cas, il n’est pas possible d’obtenir
des formulations simples et donc de disposer de résultats analytiques. Dans ce cas, la méthode
Monte-Carlo est utilisée. Le nom de ces méthodes, qui fait allusion aux jeux de hasard pratiqués
à Monte-Carlo, a été inventé en 1947 par Nicholas Metropolis, et publié pour la première fois
p
X1
SD sj ‰j (21.51)
i D0
Les post-traitements vont s’effectuer sur une expression analytique et ne coûtent presque rien
en terme de temps de calcul. On peut ainsi se focaliser sur une analyse en tendance centrale (les
premiers moments statistiques de la réponse) ou bien effectuer des analyses de fiabilité (et donc
s’intéresser aux queues de distribution). La densité de probabilité de la réponse peut également être
obtenue de différentes manières.
À partir de la relation (21.51), on obtient les moments :
À partir des résultats d’un calcul par éléments finis stochastiques, on dispose de la représentation
(approchée) de S.X/ aussi bien sous forme de série dans la base du chaos polynomial que sous
forme de série en les variables gaussiennes centrées réduites.
En appelant R la résistance et S le chargement (notation classique), une illustration est donnée
à la figure 21.1.
fS(s) fR(r)
nce R
Résista
fRS(r,s)
g(R-S>0)
domaine de sûreté
Ch
a rg g(R-S<0)
em domaine de défaillance
en
t
S
En se plaçant dans l’espace de ces variables gaussiennes centrées réduites, dit espace réduit, la
fonction d’état limite représente toujours la limite entre les domaines de sûreté et de défaillance,
mais de sorte que le point de cette hypersurface le plus proche de l’origine, appelé point de
conception, est le point pour lequel la probabilité de défaillance est maximale. Cette distance à
l’origine est appelée indice de sûreté ˇ, et on a donc :
Pf D ˆ. ˇ/ (21.57)
soit :
1
ˇD ˆ .Pf / (21.58)
où ˆ est la fonction de répartition gaussienne centrée réduite. Toutefois, déterminer ce point (i.e.
le minimum de la fonction d’état limite) n’est pas si facile. Tous les algorithmes d’optimisation
convergent vers un minimum, mais aucun ne peut affirmer que ce minimum est global.
Histoire
Le tout premier essai dans l’utilisation des concepts statistiques pour la fiabilité des structures date
de 1926, par Max Mayer dans Die Sicherheit der Bauwerke und ihre Berechnung nach Grenzkräften
anstatt nach zulässigen Spannungen. De nombreux progrès ont été faits par M. Prot (Note sur la
notion de coefficient de sécurité, 1936), W. Weibul (Investigations into strength of properties of
brittle materials, 1938, A statistical theory of strength of materials, 1939), W. Kjellman (Säke-
rhetproblemet ur principiell och teoretisk synpunkt, 1940), et G. Wästlund (Säkerhetproblemet ur
praktisk-konstruktiv synpunkt, 1940), mais globalement, très peu d’articles avaient été publiés dans
le domaine avant la seconde guerre mondiale.
EŒM
ˇC D (21.59)
DŒM
L’idée est que la distance du point de mesure EŒM à la surface d’état limite est une bonne mesure de
la fiabilité. Cette distance est mesurée par rapport à une unité d’incertitude DŒM qui peut être la
variance par exemple. On appelle M la marge de sécurité.
Si l’on note r la résistance et s le chargement correspondant, alors g.r; s/ D r s et M D R S.
On peut alors écrire :
R S
ˇC D q
R2 C S2
En 1972, Rosenblueth et Esteva proposent un nouvel indice de fiabilité. Dans le cas où R > 0
EŒlog.r=s/
ˇRE D (21.60)
DŒlog.r=s/
qui est calculé en linéarisant la marge de sécurité M. Un développement de Taylor au premier ordre
donne :
log R log S
M q
R2 C S2
En 1974, Hasofer et Lind proposent de passer de l’espace des variables X à celui de variables
normalisées et non corrélées. Ce sont eux qui donnent la définition de l’indice de fiabilité ˇHL comme
la distance minimale de l’origine à la surface d’état limite. En 1976, Ditlevsen propose un autre
indice de fiabilité, plus sélectif, en introduisant une mesure de fiabilité obtenue en intégrant une
fonction pondérée sur le domaine de sûreté. En pratique, on a souvent ˇG D ˇHL .
a. On distingue les méthodes de :
— niveau I : l’aspect probabiliste est introduit en donnant aux variables aléatoires une « valeur caractéris-
tique » associée à un facteur de sécurité partiel ;
— niveau II : ce sont les méthodes fiabilistes utilisant deux paramètres pour décrire chaque variable
aléatoire (moyenne et variance) ;
— niveau III : elles procèdent à l’analyse complète du problème et impliquent l’intégration de la fonction
de densité de probabilité conjointe multidimensionnelle des variables aléatoires étendue sur le domaine
de la sécurité. La fiabilité est exprimée en termes d’indices de sécurité adéquates, à savoir : indice de
fiabilité et probabilité de défaillance ;
— niveau IV : elles concernent les structures qui sont d’une importance économique majeure, et impliquent
l’utilisation des principes de l’analyse économique de l’ingénierie sous incertitude. Elles tiennent compte
des coûts et des bénéfices de la construction, de la maintenance, de la réparation, des conséquences de
la défaillance, des intérêts sur le capital... Elles doivent être utilisées pour les projets sensibles comme
les projets nucléaires, les tours de transmission, les ponts routiers.
Cette densité de probabilité est maximale à l’origine et décroît exponentiellement avec kuk2 . Les
points contribuant le plus à l’intégrale sont donc ceux appartenant au domaine de défaillance les
plus proches de l’origine.
1. La transformation de Rosenblatt transforme un vecteur X de loi quelconque en un vecteur U de même dimension
mais à composantes indépendantes, gaussiennes, centrées et réduites. La transformation de Nataf transforme un vecteur
ayant une loi à copule elliptique en un vecteur de loi sphérique associée au représentant elliptique de la copule. Une
copule est une fonction de répartition définie sur Œ0; 1N dont les lois marginales sont égales à la loi uniforme sur Œ0; 1.
Nous nous passerons volontiers de cela dans ce document de présentation. Pour la petite histoire, Murray Rosenblatt a
passé sa thèse sous la direction de Mark Kac.
Résumé — Dans ce court chapitre, nous survolons quelques méthodes également utilisées
en simulation numérique. Nous n’entrons pas dans le détail, mais si les notions d’éléments
finis, de formulations mixtes et hybrides et les multiplicateurs de Lagrange ont été
comprises, alors nos courtes explications doivent suffire.
où Ns .x/ est l’ensemble des points i dont le support contient le point x et Nf .i / est le nombre de
fonctions d’interpolation définies sur le support associé au point i .
Une fois les fonctions d’interpolation construites, il est possible d’en ajouter d’autres par
enrichissement. L’enrichissement de l’approximation permet ainsi de représenter un mode de
déplacement donné F.x/i˛ .x/ :
Nf .i / Nf .i /
X X X X
u.x/ D ai˛ i˛ .x/ C bi˛ i˛ .x/F.x/ (22.2)
i 2Ns .x/ ˛D1 i 2Ns .x/\Nf ˛D1
L’enrichissement des fonctions d’interpolation a par exemple permis de résoudre des problèmes de
propagation de fissure en deux et trois dimensions sans remaillage : la fissure se propage à travers
un nuage de points et est modélisée par enrichissement, à savoir des fonctions F.x/ discontinues
sur la fissure ou représentant la singularité en fond de fissure.
1. On peut par exemple nommer les méthode des noyaux régularisants, des éléments diffus ou discrets (DEM),
de Galerkin sans éléments (Element Free Galerkin Method, EFGM), Smoothed Particule Hydrodynamics (SPH),
Reproducing Kernel Particle Method (RKPM), h p Cloud Method, Moving Particle Simulation (MPS), Particle Finite
Element Method (PFEM), Material Point Method (MPM), Molecular Dynamics (MD), Lattice-Boltzmann-Method
(LBM)... Les méthodes que nous verrons dans les paragraphes suivants : partition de l’unité, éléments finis étendue,
treillis de Boltzmann sont issues, dans une certaine mesure, des méthodes sans maillage.
La base des éléments finis classiques peut elle-aussi être enrichie (afin de ne pas recourir aux
méthodes sans maillage) de manière à représenter une fonction donnée sur un domaine donné.
Melenk et Babus̆ka, en 1996, ont appelé cette technique : la Partition de l’Unité (PU). Ils ont
remarqué en fait que si Ns .x/, autrement dit l’ensemble des points i dont le support contient
le point x, était remplacé par Nn .x/, c’est-à-dire l’ensemble des nœuds contenant x, alors on
retombait sur la formulation éléments finis usuelle, qui, sous forme « assemblée », s’écrivait bien
alors :
X X
u.x/ D ai˛ i˛ .x/ (22.3)
i 2Nn .x/ ˛
Cela veut simplement dire que, dans le cas des éléments finis, on considère les supports comme liés
à des nœuds, alors que dans le cas sans maillage, ils sont liés à des points. En d’autres termes, si
l’on considère un nœud à chaque point, la méthode des éléments finis est un cas particulier de la
méthode sans maillage. On peut alors également écrire l’approximation de partition de l’unité par :
X X X X
u.x/ D ai˛ i˛ .x/ C bi˛ i˛ .x/F.x/ (22.4)
i 2Nn .x/ ˛ i 2Nn .x/\Nf ˛
où I est l’ensemble des nœuds du maillage, L l’ensemble des nœuds enrichis pour modéliser la
fissure coupant de part en part un élément, K1 et K2 les nœuds enrichis pour modéliser le fond de
fissure.
L’avantage en X-FEM est qu’il n’est plus demandé au maillage de se conformer à des surfaces,
qu’elles soient intérieures ou extérieures, et qu’il peut alors être conservé lors de leur évolution.
Les surfaces ne sont plus maillées et sont localisées sur le maillage grâce à la notion de fonction
de niveau. À chaque nœud au voisinage de cette surface, on associe la distance signée à cette
surface. Cette fonction « distance » peut être interpolée sur chaque élément avec les fonctions
classique de premier ordre. Les surfaces sont ainsi stockées par un champ élément fini défini au
voisinage de la surface qui participe au calcul au même titre que les autres champs physiques.
En particulier, la X-FEM permet la modélisation des trous, sans avoir à forcer le maillage à se
conformer à ceux-ci. Un nœud dont le support est complètement à l’intérieur du trou ne donne pas
lieu à la création de degrés de liberté. Pour un nœud dont le support coupe la frontière du trou, la
fonction d’interpolation classique est multipliée par une fonction valant 1 dans la matière et 0 dans
le trou.
fi .x C t ci ; t C t / D fi .x; t / C i (22.6)
où fi est la concentration de particules se déplaçant avec la vitesse ci jusqu’au nœud suivant pendant
un temps t . i représente l’opérateur de collision, et c’est lui qui change d’une méthode à l’autre.
Dans le modèle BGK (Bhatnagar-Gross-Krook)., la distribution des particules après propagation
eq
est relaxée vers la distribution à l’équilibre fi , et on a :
1 eq
i D fi .x; t / fi .x; t / (22.7)
avec le paramètre de relaxation, qui détermine la viscosité cinématique du fluide selon la
relation D .2 1/=6. La distribution à l’équilibre est une fonction de la densité locale et de la
vitesse locale u, qui sont les moments d’ordre 1 et 2 de la distribution des particules :
P
X fi .x; t /ci
.x; t / D fi .x; t / et u.x; t / D i (22.8)
.x; t /
i
eq
ci u .ci u/2 u u
fi .; u/ D tp 1 C 2 C (22.9)
cs 2cs4 2cs2
où cs est la vitesse du son, p D ci ci et tp est la densité à l’équilibre pour u D 0.
22.6 FEEC
Le Finite element exterior calculus, introduit par Douglas N. Arnod, Richard S. Falk et Ragnar
Winther en 2006, est une approche visant à expliquer (et à développer) des solutions éléments
finis pour une grande variété d’équations aux dérivées partielles. Il s’agit de mettre à profit les
outils de la géométrie différentielle, de la topologie algébrique et de l’algèbre homologique afin
de développer des discrétisations compatibles avec les structures géométriques, topologiques et
algébriques nécessaires pour que le problème aux équations aux dérivées partielles considéré soit
bien posé.
Dans cette version de ce document, nous n’entrons pas plus avant dans cette méthode, qui reste
sans doute trop mathématique dans sa présentation pour le public visé. Néanmoins, les articles,
notamment ceux de 2006 [3] et de 2010 [4], bien que longs, sont extrêmement pédagogiques et leur
lecture ne peut qu’être un plus.
patin glissant
couple moteur
Résumé — Les modélisations basées sur la mécanique des milieux continus conduisent,
dans un certain nombre de cas particuliers, à des contraintes « infinies » en certains points :
les singularités. Ces valeurs infinies sortent du domaine de validité de la plupart des
modélisations et, dans le cadre des simulations par éléments finis, pourraient mener un
concepteur peu averti à des erreurs d’analyse.
337 23. Quelques mots sur les singularités ÉLÉMENTS FINIS III
C’est pourquoi il est indispensable de savoir quand ces singularités doivent se produire afin
d’être en mesure d’effectuer les corrections nécessaires et ainsi redonner du sens à l’analyse
effectuée.
23.6 Conclusion
Nous espérons avoir pu mettre en évidence les points suivants :
— En mécanique des milieux continus, de nombreuses modélisations courantes mènent à des
contraintes infinies en un ou plusieurs points : angles rentrants dans les modèles géométriques,
discontinuités dans les modèles de comportements des matériaux, efforts ponctuels dans les
modèles de chargement...
— Ces contraintes infinies sont prédites par les mathématiques, mais sortent du domaine de
validité de la mécanique des milieux continus.
— Dans les simulations par éléments finis, les contraintes restent finies au voisinage des singu-
larités, mais leur valeur n’est pas pertinente pour autant : elle dépend uniquement de la taille
et de la forme des éléments et augmente indéfiniment lorsque l’on raffine le maillage.
— Un concepteur qui ignore l’existence de ces singularités risque donc de dimensionner une
pièce par rapport à un résultat non fiable, sauf s’il prend la peine de raffiner successivement
le maillage, ce qui permet de diagnostiquer le problème (vous savez, la fameuse étude de
convergence que l’on fait toujours tant que l’on est élève ingénieur et que l’on a tendance à
oublier, ou à négliger par la suite).
— Si l’on souhaite simuler l’état de contraintes au voisinage de la région singulière, il est
nécessaire de modéliser celle-ci plus finement pour faire disparaître la singularité. Cela
nécessite généralement des connaissances supplémentaires sur le produit, son environnement
ou le comportement de ses matériaux dans la région concernée.
— Si l’état de contraintes ou de déformations au voisinage de la singularité ne fait pas partie des
objectifs du calcul, alors celle-ci n’est pas gênante. Mieux vaut néanmoins être conscient du
problème pour ne pas en tirer de fausses conclusions...
Nous réitérons ce que nous avons déjà dit : la plupart des ingénieurs pratiquant le calcul sont
conscients que ces problèmes de singularités existent. Nous n’avons donc fait ici que rappeler des
choses connues... et c’est très bien ainsi si c’est le cas.
339 23. Quelques mots sur les singularités ÉLÉMENTS FINIS III
Conclusion
En guise de conclusion à ce document, nous souhaitions synthétiser les problèmes qui peuvent
survenir lors d’un calcul et ouvrir sur quelques perspectives.
La fiabilité d’un résultat dépend de celle de toute la chaîne d’approximation réalisées depuis la
modélisation du phénomènes physique jusqu’à l’obtention des résultats numériques fournis par
le programme de calcul. Nombre de ces problèmes ont été mentionnés au cours de ce document.
Rappelons les ici :
erreurs de modélisation : aussi bien au niveau du choix des équations mathématiques décrivant
le phénomène, que de la représentativité des conditions aux limites choisies. Mais au-delà
même, il est nécessaire de se rappeler que les modèles mathématiques ne fonctionnent bien
qu’avec les plus simples des situations, ou avec des situations complexes ne dépendant que
quelques facteurs dominants simples. La plupart des modèles sont des modèles linéaires, mais
mêmes ceux-ci peuvent dissimuler de la complexité : le chaos linéaire existe et les simulations
numériques d’un tel système peuvent conduire à des résultats qui peuvent surprendre si l’on
n’en est pas averti (voir la linéarisation du pendule double, ou la suite logistique). En d’autres
termes, et pour bien insister, la réalité physique que l’on se propose de modéliser, repose sur
des propriétés qui ne sont pas connues exactement, dont les lois de probabilité ne sont pas
forcément connues non plus, où tous les phénomènes sont non-linéaires et où ils sont tous
couplés. Les mathématiques proposent des modèles simplifiés correspondant aux situations
les plus simples (voire même n’ayant pas d’existence réelle), et il est du ressort de l’ingénieur,
et c’est en cela que son travail est plus compliqué que celui du mathématicien, de savoir juger
de la pertinence de tel ou tel modèle retenu pour modéliser la problématique considérée ;
erreurs de discrétisation : elles sont liées aux choix des méthodes numériques (méthode des
éléments finis ou autre), aux problèmes d’intégration, de représentation du domaine...
erreurs de verrouillage numérique : elles concernent des problèmes survenant lors du traitement
de paramètres introduits dans le calcul tels que les pas de temps, des modes parasites, des
instabilités numériques...
incertitudes des données : connaissance approximative des lois de comportement, des efforts,
des liaisons... Il faut alors procéder à une approche fiabiliste ;
erreurs d’arrondis : la manière dont un ordinateur traite un nombre est soumise à des contraintes
(représentation en base 2 par exemple, approximation à n décimales...). Ces erreurs, mêmes
infimes, peuvent dans certains cas se cumuler pour aboutir à un résultat faux.
Lorsque cela est possible, on n’hésitera donc pas a effectuer des comparaison avec des essais,
ce que l’on nomme recalage calcul-essais.
343 ANNEXES IV
Annexe A
Interpolation et approximation
L’interpolation est une opération consistant à approcher une courbe qui n’est connue que par la
donnée d’un nombre fini de points (ou une fonction à partir de la donnée d’un nombre fini de
valeurs).
Ainsi, l’interpolation numérique sert souvent à « faire émerger une courbe parmi des points ».
Il s’agit de toutes les méthodes développées afin de mieux prendre en compte les erreurs de mesure,
i.e. d’exploiter des données expérimentales pour la recherche de lois empiriques. Nous citerons
par exemple la régression linéaire et la méthode des moindres carrés souvent bien maîtrisées. On
demande à la solution du problème d’interpolation de passer par les points prescrits, voire, suivant
le type d’interpolation, de vérifier des propriétés supplémentaires (de continuité, de dérivabilité,
de tangence en certains points...). Toutefois, parfois on ne demande pas à ce que l’approximation
passe exactement par les points prescrits. On parle alors plutôt d’approximation.
Histoire
Le jour du Nouvel An de 1801, l’astronome italien Giuseppe Piazzi a découvert l’astéroïde Cérès (il
a suivi sa trajectoire jusqu’au 14 février 1801).
Durant cette année, plusieurs scienti-
fiques ont tenté de prédire sa trajectoire sur
la base des observations de Piazzi (à cette
époque, la résolution des équations non li-
néaires de Kepler de la cinématique est un
problème très difficile). La plupart des pré-
dictions furent erronées ; et le seul calcul suf- Piazzi Gauß Legendre Adrain
fisamment précis pour permettre au baron
Franz Xaver von Zach (astronome allemand) de localiser à nouveau Cérès à la fin de l’année, fut
celui de Gauß, (alors âgé de 24 ans). Gauß avait déjà réalisé l’élaboration des concepts fondamentaux
en 1795, lorsqu’il avait 18 ans. Mais sa méthode des moindres carrés ne fut publiée qu’en 1809,
lorsqu’elle parut dans le tome 2 de ses travaux sur la Mécanique céleste Theoria Motus Corporum
Coelestium in sectionibus conicis solem ambientium. Le mathématicien français Adrien-Marie
Legendre a développé indépendamment la même méthode en 1805. Le mathématicien américain
Robert Adrain a publié en 1808 une formulation de la méthode.
En 1829, Gauß a pu donner les raisons de l’efficacité de cette méthode : celle-ci
est optimale à l’égard de bien des critères. Cet argument est maintenant connu sous
le nom de théorème de Gauß-Markov.
Ce théorème dit que dans un modèle linéaire dans lequel les erreurs ont une
espérance nulle, sont non corrélées et dont les variances sont égales, le meilleur
estimateur linéaire non biaisé des coefficients est l’estimateur des moindres carrés.
Markov
Plus généralement, le meilleur estimateur linéaire non biaisé d’une combinaison
linéaire des coefficients est son estimateur par les moindres carrés. On ne suppose pas
que les erreurs possèdent une loi normale, ni qu’elles sont indépendantes (seulement non corrélées),
ni qu’elles possèdent la même loi de probabilité.
IV ANNEXES 346
A.1 Quelques bases polynomiales
A.1.1
Histoire Motivation
Lorsque l’on souhaite approximer une courbe par une autre, recourir aux polynômes semble une
voie naturelle.
Les séries de fonctions sont apparues à la fin du XVIIe siècle, lorsque Isaac Newton puis Brook
Taylor décomposèrent des fonctions en séries (entières, donc sur C) pour le calcul d’intégrales. Ce
n’est qu’en 1821 que Cauchy fournira les critères précis de convergence dans ses notes de cours de
Polytechnique Analyse algébrique, différents autres types de convergence étant introduits jusqu’en
1840.
La richesse de cette théorie vient de ce qu’elle permet d’étudier des fonctions qui ne s’expriment
pas à l’aide de fonctions connues, comme le sont certaines solutions d’équations différentielles.
Le théorème de Taylor (1715) (théorème 56) montre qu’une fonction plusieurs
fois dérivable au voisinage d’un point peut être approximée par une fonction poly-
nôme dont les coefficients dépendent uniquement des dérivées de la fonction en ce
point. En présentant cette formule, Taylor propose une méthode de développement
en série, mais il se préoccupe peu de la nature du reste ; il faut attendre ses succes-
seurs pour la caractériser rigoureusement. On désigne par théorèmes de Taylor ou
formules de Taylor plusieurs résultats et expressions pour le reste Rn .x/, parfois Taylor
renforcé par quelques hypothèses supplémentaires : Taylor-Young, Taylor-Lagrange,
Taylor-Cauchy, Taylor avec reste intégral.
Le théorème d’approximation de Weierstrass en analyse réelle dit que toute fonction continue
définie sur un segment peut être approchée uniformément par des fonctions polynômes. Le théorème
de Stone-Weierstrass généralise ce résultat aux fonctions continues définies sur un espace compact
et à valeurs réelles, en remplaçant l’algèbre des polynômes par une algèbre de fonctions qui sépare
les points et contient au moins une fonction constante non nulle.
L’interpolation polynomiale consiste donc à trouver un polynôme passant par un ensemble
de points donnés. Nous verrons qu’il est également possible de demander à ce que ce polynôme
satisfasse à d’autres conditions.
A.1.2 Orthogonalité
Une suite de polynômes orthogonaux est une suite infinie de polynômes P0 .x/, P1 .x/, ... à coef-
ficients réels, dans laquelle chaque Pn .x/ est de degré n, et telle que les polynômes de la suite
Plus généralement, on peut ajouter une fonction de poids $ .x/ dans l’intégrale. On notera bien que
sur l’intervalle d’intégration a; bŒ, la fonction poids $ .x/ doit être à valeurs finies et strictement
positives, et l’intégrale du produit de la fonction poids par un polynôme doit être finie (voir
espaces Lp ). Par contre, les bornes a et b peuvent être infinies. Il vient alors :
Z b
hf; gi D f .x/g.x/$ .x/dx (A.3)
a
p
La norme associée est définie par jjf jj D hf; f i. Le produit scalaire fait de l’ensemble de toutes
les fonctions de norme finie un espace de Hilbert. L’intervalle d’intégration est appelé intervalle
d’orthogonalité.
Si l’on note :
n
X
L.x/ D yj lj .x/ (A.5)
j D0
avec :
n
Y x xj x x0 x xi 1 x xi C1 x xn
li .x/ D D (A.6)
xi xj xi x0 xi xi 1 xi xi C1 xi xn
j D0;j ¤i
2 =2 dn x 2 =2
Hn .x/ D . 1/n ex e (A.7)
dx n
2 dn x2
Hn .x/ D . 1/n ex
b e (A.8)
dx n
Les deux définitions sont liées par la propriété d’échelle suivante :
p
Hn .x/ D 2n=2 Hn .x 2/
b (A.9)
H0 D 1 H0 D 1
b
H1 D x H1 D 2x
b
H2 D x 2 1 H2 D 4x 2
b 2
3 3
H3 D x 3x H3 D 8x
b 12x (A.10)
H4 D x 4 6x 2 C 3 H4 D 16x 4
b 48x 2 C 12
H5 D x 5 10x 3 C 15x H5 D 32x 5
b 160x 3 C 120x
6 4 2
H6 D x 15x C 45x 15 H6 D 64x 6
b 480x 4 C 720x 2 120
Hn est un polynôme de degré n. Ces polynômes sont orthogonaux pour la mesure de densité :
2
d.x/ e x =2
D p D '.x/ (A.11)
dx 2
avec '.x/ la densité de probabilité d’une variable aléatoire gaussienne centrée réduite (moyenne
nulle, écart-type égal à 1). Ils vérifient :
Z C1
Hn .x/Hm .x/'.x/dx D nŠınm (A.12)
1
où ınm est le symbole de Kronecker. C’est pour ces intéressantes propriétés que cette base a été
choisie en mécanique stochastique... on utilise alors la jolie expression de base de chaos polynomial.
Pour une application à la prise en compte de l’aléa dans la méthode des éléments finis, voir le
chapitre 21. Ces polynômes forment une base orthogonale de l’espace de Hilbert L2 .C; / des
fonctions boréliennes telles que :
Z C1
jf .x/j2 '.x/dx < C1 (A.13)
1
Des propriétés analogues sont vérifiées par les polynômes de Hermite sous leur forme physique.
La manière la plus simple de les définir est par la formule de récurrence de Bonnet : P0 .x/ D 1,
P1 .x/ D x et :
P0 .x/ D 1
P1 .x/ D x
1
P2 .x/ D .3x 2 1/
2
1 (A.18)
P3 .x/ D .5x 3 3x/
2
1
P4 .x/ D .35x 4 30x 2 C 3/
8
1
P5 .x/ D .63x 5 70x 3 C 15x/
8
Le polynôme Pn est de degré n. La famille .Pn /nN est une famille de polynômes à degrés étagés,
elle est donc une base de l’espace vectoriel Rn ŒX. On remarquera la propriété suivante :
qui donne en particulier Pn . 1/ D . 1/n et P2nC1 .0/ D 0. Les polynômes orthogonaux les plus
simples sont les polynômes de Legendre pour lesquels l’intervalle d’orthogonalité est Œ 1 I 1 et la
fonction poids est simplement la fonction constante de valeur 1 : ces polynômes sont orthogonaux
par rapport au produit scalaire défini sur RŒX par :
Z C1 Z 1
hP; Qi D P.x/Q.x/dxhPm ; Pn i D Pm .x/Pn .x/dx D 0 pour m ¤ n (A.20)
1 1
De plus, comme .Pn /nN est une base de RN ŒX, on a PNC1 2 .RN ŒX/? :
Z 1
8Q 2 RN ŒX; PNC1 .x/Q.x/dx D 0 (A.21)
1
2
kPn k2 D : (A.22)
2n C 1
Ces polynômes peuvent servir à décomposer une fonction holomorphe, une fonction lipschitzienne
ou à retrouver l’intégration numérique d’une fonction par la méthode de quadrature de Gauß-
Legendre (voir chapitre B).
Chacune de ces deux familles est une suite de polynômes orthogonaux par rapport à un produit
scalaire de fonctions assorti d’une pondération spécifique.
b n2 c
nX .n k 1/Š
8n > 0; Tn .x/ D . 1/k .2x/n 2k
(A.28)
2 kŠ.n 2k/Š
kD0
T0 D 1
T1 D x
T2 D 2x 2 1
3
T3 D 4x 3x
T4 D 8x 4 8x 2 C 1
(A.31)
T5 D 16x 5 20x 3 C 5x
T6 D 32x 6 48x 4 C 18x 2 1
7 5 3
T7 D 64x 112x C 56x 7x
T8 D 128x 8 256x 6 C 160x 4 32x 2 C 1
T9 D 256x 9 576x 7 C 432x 5 120x 3 C 9x
U0 D 1
U1 D 2x
U2 D 4x 2 1
3
U3 D 8x 4x
4
U4 D 16x 12x 2 C 1
(A.34)
U5 D 32x 5 32x 3 C 6x
U6 D 64x 6 80x 4 C 24x 2 1
U7 D 128x 7 192x 5 C 80x 3 8x
8 6 4
U8 D 256x 448x C 240x 40x 2 C 1
U9 D 512x 9 1024x 7 C 672x 5 160x 3 C 10x
xy 00 C .1 x/y 0 C ny D 0 (A.35)
qui est une équation différentielle linéaire du second ordre possédant des solutions non singulières
si et seulement si n est un entier positif.
Traditionnellement notés L0 ; L1 ; : : : ces polynômes forment une suite de polynômes qui peut
être définie par la formule de Rodrigues :
ex dn x n
Ln .x/ D e x : (A.36)
nŠ dx n
Ils sont orthogonaux les uns par rapport aux autres pour le produit scalaire :
Z 1
hf; gi D f .x/g.x/e x dx (A.37)
0
Cette propriété d’orthogonalité revient à dire que si X est une variable aléatoire distribuée exponen-
tiellement avec la fonction densité de probabilité suivante :
(
e x si x > 0
f .x/ D (A.38)
0 si x < 0
L0 D 1
L1 D xC1
1
L2 D .x 2 4x C 2/
2
1
L3 D . x 3 C 9x 2 18x C 6/
6 (A.39)
1
L4 D .x 4 16x 3 C 72x 2 96x C 24/
24
1
L5 D . x 5 C 25x 4 200x 3 C 600x 2 600x C 120/
120
1
L6 D .x 6 36x 5 C 450x 4 2400x 3 C 5400x 2 4320x C 720/
720
Il existe des polynômes de Laguerre généralisés dont l’orthogonalité peut être liée à une densité de
probabilité faisant intervenir la fonction Gamma. Ils apparaissent dans le traitement de l’oscillateur
harmonique quantique. Ils peuvent être exprimés en fonction des polynômes d’Hermite.
— Positivité :
— Symétrie :
— Formule de récurrence :
8
n 1
<.1 u/Bi .u/;
ˆ i D0
Bni .u/ D .1 u/Bni 1 .u/ C uBni 1
1 .u/; 8i 2 1; : : : ; n 1; 8u 2 Œ0 I 1 (A.44)
ˆ
: n 1
uBi 1 .u/; i Dn
Pierre Bézier (ingénieur de l’École Nationale Supérieure d’Arts et Métiers en 1930 et de l’École
Supérieure d’Électricité en 1931, docteur en mathématiques de l’université de Paris en 1977) est
connu pour son invention des courbes et surfaces de Bézier, couramment utilisées en informatique.
Entré chez Renault en 1933, il y fera toute sa carrière jusqu’en 1975 au poste de
directeur des méthodes mécaniques. Il y conçoit, en 1945, des machines transferts
pour la ligne de fabrication des Renault 4CV, et, en 1958, l’une des premières
machines à commande numérique d’Europe, une fraiseuse servant aux maquettes. Sa
préoccupation était de créer un moyen simple et puissant pour modéliser des formes
et faciliter la programmation des machines à commande numérique. Le problème
auquel il s’attaque est celui de la modélisation des surfaces en trois dimensions, les Bézier
commandes numériques se contentant jusqu’alors de courbes en deux dimensions.
La solution qu’il cherche est celle d’une interface intuitive accessible à tout utilisateur. Il décide
de considérer classiquement les surfaces comme une transformation de courbes. Son exigence
de s’adapter au dessinateur et non de contraindre le dessinateur à devenir calculateur, l’amène à
une inversion géniale, déduire le calcul à partir du dessin et non le dessin à partir du calcul. Il
invente alors la poignée de contrôle, curseur de déplacement des courbes d’un dessin informatisé
transmettant automatiquement les variations de coordonnées au processeur. Ces poignées de contrôle
sont toujours utilisées aujourd’hui.
Les courbes de Bézier sont des courbes polynomiales paramétriques. Elles ont de nombreuses
applications dans la synthèse d’images et le rendu de polices de caractères (Pierre Bézier a travaillé
sur les deux sujets). Ses recherches aboutirent à un logiciel, Unisurf, breveté en 1966. Il est à la
base de tous les logiciels créés par la suite. Les concepts de CAO et de CFAO venaient de prendre
forme. Ultérieurement, l’un des développeurs d’Apple, John Warnock, réutilise les travaux de Pierre
Bézier pour élaborer un nouveau langage de dessin de polices : Postscript. Il crée ensuite en 1982,
avec Charles M. Geschke, la société Adobe pour lancer un logiciel de dessin dérivé de ces résultats :
Illustrator.
Notons que les splines existaient avant Bézier, mais leur défaut était de changer d’aspect lors
d’une rotation de repère, ce qui les rendait inutilisables en CAO. Bézier partit d’une approche
géométrique fondée sur la linéarité de l’espace euclidien et la théorie, déjà existante, du barycentre :
si la définition est purement géométrique, aucun repère n’intervient puisque la construction en est
indépendante. Les splines conformes aux principes de Bézier seront par la suite nommées B-splines.
Pour n C 1 points de contrôle .P0 ; : : : ; Pn / on définit une courbe de Bézier par l’ensemble des
points :
n
X
b.t/ D Bni .t / Pi avec t 2 Œ0 I 1 (A.47)
i D0
où les Bni sont les polynômes de Bernstein. La suite des points P0 ; : : : ; Pn forme le polygone de
contrôle de Bézier.
Chaque point de la courbe peut être vu alors comme un barycentre des n C 1 points de contrôle
pondérés d’un poids égal au polynôme de Bernstein. Les principales propriétés des courbes de
Bézier sont les suivantes :
— la courbe est à l’intérieur de l’enveloppe convexe des points de contrôle ;
— la courbe commence par le point P0 et se termine par le point Pn , mais ne passe pas a priori
par les autres points de contrôle ;
A.3.2 B-Spline
Une B-spline est une combinaison linéaire de splines positives à support compact minimal. Les
B-splines sont la généralisation des courbes de Bézier, elles peuvent être à leur tour généralisées
par les NURBS. Étant donné m C 1 points ti dans Œ0 I 1 tels que 0 6 t0 6 t1 6 : : : 6 tm 6 1, une
courbe spline de degré n est une courbe paramétrique S W Œ0 I 1 ! Rd , composée de fonctions
B-splines de degré n :
mX
n 1
S.t/ D bi;n .t / Pi ; t 2 Œ0 I 1 (A.48)
i D0
Quand les points sont équidistants, les B-splines sont dites uniformes. C’est le cas des courbes de
Bézier qui sont des B-splines uniformes, dont les points ti (pour i entre 0 et m) forment une suite
arithmétique de 0 à 1 avec un pas constant h D 1=m, et où le degré n de la courbe de Bézier ne
peut être supérieur à m).
Par extension, lorsque deux points successifs tj et tj C1 sont confondus, on pose 0=0 D 0 : cela
a pour effet de définir une discontinuité de la tangente, pour le point de la courbe paramétré par
une valeur de t, donc d’y créer un sommet d’angle non plat. Toutefois il est souvent plus simple
de définir ce B-spline étendu comme l’union de deux B-splines définis avec des points distincts,
ces splines étant simplement joints par ce sommet commun, sans introduire de difficulté dans
l’évaluation paramétrique ci-dessus des B-splines pour certaines valeurs du paramètre t . Mais cela
permet de considérer alors tout polygone simple comme une B-spline étendue.
La forme des fonctions de base est déterminée par la position des points. La courbe est à
l’intérieur de l’enveloppe convexe des points de contrôle. Une B-spline de degré n, bi;n .t / est non
nulle dans l’intervalle Œti I ti CnC1 :
(
> 0 si ti 6 t < ti CnC1
bi;n .t / D (A.51)
0 sinon
En d’autres termes, déplacer un point de contrôle ne modifie que localement l’allure de la courbe.
Par contre, les B-splines ne permettent pas de décrire un arc de courbe conique.
8 (
ˆ 1 si tj t < tj C1
< bj;0 .t / D
ˆ
ˆ
0 sinon
(A.52)
ˆ t tj tj Cd C1 t
: bj;d .t / D bj;d 1 .t / C bj C1;d 1 .t /
ˆ
ˆ
tj Cd tj tj Cd C1 tj C1
où les tj sont des points. Lorsque plusieurs points tj sont confondus, on peut encore poser 0=0 D 0
comme pour les B-splines.
Intégration numérique
La méthode des éléments finis conduit à la discrétisation d’une formulation faible où la construction
des matrices constitutives du système à résoudre nécessite le calcul d’intégrales. Dans certains
cas particuliers, ou en utilisant des codes de calcul formel, ces intégrations peuvent être réalisées
de manière exacte. Cependant, dans la plupart des cas et dans la plupart des codes de calcul, ces
intégrations sont calculées numériquement. On parle alors de méthodes d’intégration numérique et
de formules de quadrature.
L’idée consiste à construire un polynôme pour interpoler f .x/ et à intégrer ce polynôme. Plu-
sieurs types de polynômes peuvent être utilisés pour cette interpolation. Les principales méthodes
d’interpolations ont été détaillées au chapitre A.
n
X1
Ih f .xi / (B.2)
i D0
f .a/ C f .b/
Ih (B.3)
2
Remarques.
— la méthode de Romberg permet d’accélérer la convergence de la méthode des trapèzes ;
— la méthode des trapèzes est une méthode de Newton-Cotes pour n D 1.
Méthode de Simpson
La méthode de Simpson consiste à interpoler f .x/ par un polynôme de degré 2, i.e. par la parabole
passant par les points extrêmes .a; f .a// et .b; f .b// et le point milieu .c; f .c// avec c D
.a C b/=2. On obtient alors :
h
I .f .a/ C f .b/ C f .c// (B.5)
6
5
où h D b a est la longueur de l’intervalle, et l’erreur commise vaut 25h:90 f .4/ .w/ pour un
certain w 2 Œa I b (sous réserve que f soit quatre fois dérivable). L’erreur étant proportionnelle
à f .4/ , la méthode est dite d’ordre 4, ce qui signifie qu’elle est exacte (erreur nulle) pour tout
polynôme de degré inférieur où égale à 3.
Comme dans le cas précédent, il est possible de subdiviser l’intervalle Œa I b en plusieurs
intervalles et d’appliquer cette formule sur chacun des intervalles. Si l’on subdivise l’intervalle Œa I b
en n intervalles égaux, avec n pair, il vient alors :
0 1
n=2
X1 n=2
h@ X
I f .a/ C f .b/ C 2 f .x2i / C 4 f .x2i 1 /A (B.6)
3
i D1 i D1
Remarques.
— la parabole interpolant f est trouvée en utilisant l’interpolation de Lagrange ;
— la méthode de Simpson est un cas particulier de celle de Newton-Cotes pour n D 2.
Méthode de Newton-Cotes
Les formules de Newton-Cotes se proposent également d’approximer l’intégrale I et découpant
l’intervalle Œa I b en n intervalles identiques. On posera donc encore une fois h D .b a/=n la
longueur de chaque sous intervalle, et xi D a C ih le point courant. La formule est :
n
X
I $i f .xi / (B.7)
i D0
Ils sont appelés points ou nœuds de Gauß. Les poids et les nœuds sont choisis de façon à obtenir
des degrés d’exactitude les plus grands possibles. Cette fois-ci .a I b/ peut être n’importe quel type
d’intervalle (fermé, ouvert, fini ou non).
On rappelle que les nœuds sont déterminés comme les n racines du nème polynôme orthogonal
associé à la formule de quadrature. Les méthodes de quadrature de Gauß intègrent exactement un
polynôme de degré 2n 1 avec n points.
Remarques.
— pour la méthode des éléments finis, l’intégration se déroule sur l’élément de référence, donc on n’a
pas besoin de faire ce changement. Il est fait par la transformation affine entre l’élément considéré
et l’élément de référence ;
— le nombre de points de Gauß ainsi que leurs positions sur l’élément sont donnés dans les documen-
tations des logiciels (bien que vous sachiez désormais les trouver).
y, v
noeud 2 noeud 1
2 η 4
ξ x, u
1 3
noeud 3 noeud 4
où nx , ny et nz sont les nombres de points de Gauß utilisés dans les directions x, y et z. Dans la
pratique, on a souvent nx D ny D nz .
n xi yi $i N
1
1 1/3 1/3 1/2 1
1/2 1/2
3 1/6 2
0 1/2
1
2 1/2 0
3
1/6 1/6
3 1/6 2
3 2/3 1/6
1/6 2/3
1 2
1/3 1/3 -27/96
4
4 4 1/5 1/5 25/96
Résumé — La résolution exacte des équations différentielles fait partie des choses qui
ont été demandées comme complément, même si elles ne correspondent pas vraiment au
but de ce document. Toutefois, le paragraphe sur la résolution numérique des équations
différentielles nous a permis d’introduire des méthodes qui sont employées également
dans la méthode des éléments finis (notamment la méthode de Newmark).
Coefficients constants
Si a et b sont des constantes, alors l’équation homogène précédente s’écrit sous la forme :
y 0 D ky (C.3)
avec k 2 R, et la solution est :
f .x/ D Cekx (C.4)
où la constante C 2 R est déterminée à l’aide des conditions initiales :
L’hypothèse g.y/ ¤ 0 écarte certaines solutions particulières. Par exemple, si y0 est un point
d’annulation de g, alors la fonction constante égale à y0 est une solution maximale de l’équation.
Une telle solution, dite solution singulière, est donc telle que g.y/ est toujours nul. Si la seule
hypothèse faite sur g est la continuité, il peut exister des solutions « hybrides » constituées du
raccordement de solutions régulières et singulières. D’une manière générale, pour une solution
donnée, la quantité g.y/ sera soit toujours nulle, soit jamais nulle.
Il existe un cas particulier, qui est celui de l’équation différentielle d’ordre un à variables
séparées autonome qui s’écrit :
y 0 D g.y/ (C.21)
c’est-à-dire que la relation formelle ne dépend pas de x. Dans ce cas, si x 7! y0 .x/ est une solution,
les fonctions obtenues par translation de la variable, de la forme x 7! y0 .x C A/, sont également
solutions. Il y a en outre une propriété de monotonie, au moins pour les solutions régulières :
puisque g ne s’annule pas, il garde alors un signe constant.
où a.x/, b.x/, c.x/ et d.x/ sont des fonctions. Si elles ne peuvent pas toutes être résolues explici-
tement, beaucoup de méthodes existent.
a2 C b C c D 0 (C.23)
Comme pour toute équation du second degré, il y a trois cas correspondant au signe du discrimi-
nant :
1. > 0 — L’équation caractéristique possède deux solutions 1 et 2 , et les solutions de
l’équation différentielle sont engendrées par f1 .x/ D e1 x et f2 .x/ D e2 x , i.e. de la forme :
où cette fois C1 et C2 sont des complexes. Comme on cherche des solutions de R dans R,
on note 1 D u C iv (et donc 2 D u iv), on exprime f1 et f2 , et on déduit que les
les constantes réelles C1 et C2 étant définies comme précédemment. Notons que f .x/ s’écrit
également :
avec q et r deux réels à déterminer comme précédemment. Cette forme est parfois plus
pratique selon les problèmes.
Dans le cas d’équations différentielles non linéaires, on passera forcément à une résolution nu-
mérique. Mais les méthodes numériques permettent évidemment aussi de résoudre numériquement
les équations différentielles et les équations aux dérivées partielles.
L’idée générale est toujours la même : on approche la dérivée d’une fonction en un point par sa
tangente (ce qui revient finalement à la définition de la dérivée). Pour une fonction f .x/, on écrit
donc au point x D a une relation de la forme :
f .b/ f .c/
f 0 .a/ (C.31)
b c
où b et c sont d’autres points. Par exemple, pour c D a et b D a C " on obtient un schéma décentré
à droite ; pour c D a " et b D a C ", on ontient un schéma centré.
D’après ce qui précède, on utilise une discrétisation de pas h, ce qui donne comme point cou-
rant yi D y0 C ih, et on fait l’approximation :
yi C1 yi
y0 D (C.33)
h
On obtient alors le schéma numérique :
yi C1 D yi C hf .t; yi / (C.34)
qui permet d’obtenir yi C1 uniquement en fonction de données au pas i . Cette méthode due à Euler,
correspond également à la méthode de Runge-Kutta à l’ordre 1.
yi C1 D yi C hyi0 C 1 (C.37)
2
@u @2 u
@u
D F u; x; t; ; (C.40)
@t @x @x 2
unC1 uni @u @2 u @u @2 u
i 1 nC1 n
D F u; x; t; ; C Fi u; x; t; ; (C.41)
t 2 i @x @x 2 @x @x 2
R / C C x.t
M x.t P / C K x.t / D f .t / (C.42)
2t
u t C t D u t C t uP t C uR t C ˇ3t u
« et uP t C t D uP t C t uR t C
2t u
« (C.43)
2
et on fait l’hypothèse de linéarité de l’accélération à l’intérieur d’un pas de temps t :
uR t C t uR t
«D
u (C.44)
t
Les différents schémas de Newmark correspondent à des valeurs particulières de ˇ et
. Dans le
cas ˇ D 0 et
D 1=2, on retombe sur le schéma des différences finies centrées.
La méthode de Newmark fonctionne également pour les problèmes non linéaires, mais dans ce
cas la matrice de rigidité devra être réévaluée à chaque pas de temps (ainsi que celle d’amortissement
dans les cas les plus compliqués).
D.1 Présentation
Histoire
Sous sa forme moderne, l’algorithme se déroule comme suit : à chaque itération, la fonction
dont on cherche un zéro est linéarisée en l’itéré (ou point) courant ; et l’itéré suivant est pris égal au
zéro de la fonction linéarisée.
D.2 Algorithme
Soit f W R ! R la fonction dont on cherche à construire une bonne approximation d’un zéro. pour
cela, on se base sur son développement de Taylor au premier ordre.
Partant d’un point x0 que l’on choisit de préférence proche du zéro à trouver (en faisant des
estimations grossières par exemple), on approche la fonction au premier ordre, autrement dit, on la
considère à peu près égale à sa tangente en ce point :
Schémas numériques
Résumé — Il nous est apparu qu’il était nécessaire d’ajouter quelques mots encore sur
les schémas numériques, notamment après la présentation des chapitres C et D. Nous
resterons évidemment brefs, tant le sujet est conséquent.
Nous nous sommes efforcés de présenter la méthode des éléments finis ainsi que la théorie
mathématique la sous-tendant.
La partie II nous a permis de voir que l’existence de solutions, dans le cas continu, est assurée
notamment par les théorèmes de Lax-Milgram, (paragraphe 7.3) Babuška (paragraphe 7.4) et
Brezzi (paragraphe 7.5) selon le type de formulation. La partie III, nous a permis de s’assurer de la
convergence de la solution approximée vers la solution continue, notamment par les lemmes de
Céa (paragraphe 10.4) et de Strang (paragraphe 10.5).
Toutefois, nous avons vu, lorsque nous prenons en compte certains phénomènes un peu plus
complexes (non stationnarité, non linéarité), que nous devons avoir recours à d’autres algorithmes
tels que les différences finies, et les algorithmes de Newmark et Newton-Raphson par exemple. Or
nous n’avons rien dit de très général sur la converges des schémas numériques, c’est le pourquoi de
ce petit chapitre.
E.1.2 Conditionnement
Le conditionnement mesure la dépendance de la solution d’un problème numérique par rapport
aux données du problème, ceci afin de contrôler la validité d’une solution calculée par rapport à
ces données. En effet, les données d’un problème numérique dépendent en général de mesures
expérimentales et sont donc entachées d’erreurs.
De façon plus générale, on peut dire que le conditionnement associé à un problème est une
mesure de la difficulté de calcul numérique du problème. Un problème possédant un conditionne-
ment bas est dit bien conditionné et un problème possédant un conditionnement élevé est dit mal
conditionné.
E.1.4 Consistance
La consistance est une propriété de la discrétisation. Un schéma numérique (d’une équation aux
dérivées partielles par exemple) sera dit consistant par rapport au problème qu’il discrétise si celui-
ci tend vers le problème considéré lorsque la discrétisation tend vers 0. La consistance concerne
essentiellement la capacité du schéma à représenter une solution régulière satisfaisant localement
les équations aux dérivées partielles, ceci lorsque les pas de discrétisation (t, x, etc.) tendent
tous vers 0. Plus précisément, si les données d’une étape du traitement algorithmique sont issues
d’une solution exacte, les résultats de ce traitement tendent vers cette solution.
La différence entre l’équation discrétisée et l’équation réelle est appelée l’erreur de troncature
La consistance d’une discrétisation s’analyse en effectuant un développement en série de Taylor
de l’équation discrétisée et en vérifiant que celle-ci tend vers l’équation originale lorsque le pas de
discrétisation tend vers 0.
Notons que Burton Wendroff a passé sa thèse sous la direction de Peter Lax.
B C
Babuška (Ivo Milan), 1926-, Tchèque 100, 134, 333, Cameron (Robert Horton), 1908-1989, Américain319
377 Cantor (Georg Ferdinand Ludwig Philip), 1845-1918,
Bachet (Claude-Gaspard, dit - de Mérizac), 1581- Allemand . . . . . . . . . . . . . . . . . . . 17, 24, 223
1638, Français . . . . . . . . . . . . . . . . . . . . . 103 Carathéodory (Constantin), 1873-1950, Grec . . . . 25
Bampton (Mervyn Cyril Charles), ?, Américain 230, Castigliano (Carlo Alberto), 1847-1884, Italien . 128
231 Cauchy (Augustin Louis, baron -), 1789-1857, Fran-
Banach (Stephan), 1892-1945, Polonais . 20, 55, 69, çais . . . . 19, 27, 55, 69, 76, 223, 272, 347,
70 369
Beck (Henry Charles, dit Harry), 1902-1974, Anglais Cayley (Arthur), 1821-1895, Anglais . 223, 224, 373
26 Céa (Jean), ?- , Français . . . . . . . . . . . . . 133, 134, 377
Bell (Alexander Graham), 1847-1922, Britannique Champollion (Jean-François), 1790-1832, Français
247 80
Bérenger (Jean-Pierre), ?-, Français . . . . . . . . . . . 259 Charpit de Villecourt (Paul), ?-1784, Français . . . 77
Bernoulli (Daniel), 1700-1782, Suisse . . . . . . . . . 144 Chasles (Michel), 1793-1880, Français . . . . . . . . 281
Bernoulli (Jacques), 1654-1705, Suisse . . . . . . . . 144 Cherepanov (Genady P.), 1937-, Américain . . . . 303
Bernoulli (Jean), 1667-1748, Suisse . . . . 33, 96, 144 Chevreuil (Mathilde), ?- , Française . . . . . . . . . . . 233
Bernstein (Sergeï Natanovich), 1880-1968, Russe353, Chladni (Ernst Florens Friedrich), 1756-1827, Alle-
355 mand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
Bessel (Friedrich Wilhelm), 1784-1846, Allemand Cholesky (André-Louis), 1875-1918, Français . 133,
369 225, 323
Beyle (Henri), dit Stendhal, 1783-1842, Français 80 Clairaut (Alexis Claude), 1713-1765, Français . . 75
Bézier (Pierre), 1910-1999, Français . 353, 355, 356 Clough (Ray William), 1920- ?, Américain . . . . . 128
Bhatnagar (Prabhu Lal), 1912-1976, Indien334, 335 Colson (John), 1680-1760, Anglais . . . . . . . . . . . 373
Bingham (Eugene Cook), 1878-1945, Américain278 Cornell (Carl Allin), 1938-2007, Américain . . . . 327
Biot (Maurice Anthony), 1905-1985, Américain 257 Cotes (Roger), 1682-1716, Anglais . . . . . . . 359, 360
Bochner (Salomon), 1899-1982, Américain . . . . . 57 Cottrell (Alan Howard, Sir -), 1919-2012, Anglais
Bolotin (Vladimir V.), 1926- ?, Russe . . . . . . . . . . 327 306
Boltzmann (Ludwig), 1944-1906, Autrichien 82, 84, Coulomb (Charles-Augustin), 1736-1806, Français
279, 314, 334 277, 282, 284, 287, 289, 290
U
Uflyand (Yakov Solomonovic), ,Russe . . . . . . . . 144
Ulam (Stanisław Marcin), 1909-1984, Américain325
Uzawa (Hirofumi), 1928-, Japonais . . . . . . . . . . . 290
V
Villani (Cédric), 1973- , Français. . . . . . . . . . . . . . .84
Vinci (Léonard, de-), 1452-1519, Italien . . . . . . . 144
Voigt (Woldemar), 1850-1919, Allemand . 209, 210,
272, 278–280
Volterra (Vito), 1860-1940, Italien . . . . . . . . . 76, 319
Voronoï (Gueorgui Feodossievitch), 1868-1908, Russe
197, 199, 200
W
Wallis (John), 1616-1703, Anglais . . . . . . . . . . . . 373
Warburton (Geoffrey Barratt), 1924-2009, Anglais
232
Waring (Edward), 1736-1798, Anglais . . . . . . . . . 346
Warnock (John Edward), 1940- , Américain . . . . 355
Washizu (Kyuichiro), 1921-1981, Japonais . . . . . 113
Wästlund (Karl Georg), 1905-1980, Suédois . . . 326
Weber (Ernst Heinrich), 1795-1878, Allemand . 247
Références bibliographiques
[1] Grégoire A LLAIRE. Analyse numérique et optilisation. Eds de l’École Polytechnique, 2007.
[2] Pierre A LLIEZ et al. Anisotropic Polygonal Remeshing. I NRIA. URL : http://hal.inria.
fr/docs/00/07/17/78/PDF/RR-4808.pdf (cf. page 197).
[3] Douglas N. A RNOLD, Richard S. FALK et Ragnar W INTHER. « Finite element exterior
calculus, homological techniques, and applications ». In : Acta Numerica (2006), pages 1–
155. URL : http://www.ima.umn.edu/~arnold//papers/acta.pdf (cf. page 335).
[4] Douglas N. A RNOLD, Richard S. FALK et Ragnar W INTHER. « Finite element exterior
calculus : from Hodge theory to numerical stability ». In : Bulletin of AMS 47.2 (2010),
pages 281–354. URL : http://www.ima.umn.edu/~arnold//papers/bulletin.pdf
(cf. page 335).
[5] Nadia BAHLOULI. Cours Matériaux Composites. Univ. Strasbourg. URL : http://www-
ipst.u-strasbg.fr/cours/materiaux-composites/tdm.htm.
[6] Stéphanie BASSEVILLE. Méthodes de résolutions en éléments finis. École Nationale Su-
périeure des Mines de Paris, Enseignement spécialisé « Éléments finis » S3733-S3735.
2005-2006. URL : http://mms2.ensmp.fr/ef_paris/technologie/polycop/f_
coursMR.pdf.
[7] Jean-Louis BATOZ et Gouri D HATT. Modélisation des structures par éléments finis. Vol. 1 –
solides élastiques. Hermes, 1995.
[8] Marc B ERVEILLER. « Éléments finis stochastiques : approches intrusive et non intrusive
pour des analyses de fiabilité ». Thèse de doctorat. Univ. Blaise Pascal - Clermont II, 2005.
URL : http://tel.archives-ouvertes.fr/docs/00/36/62/25/PDF/Berveiller.
pdf.
[9] Éric B LAYO. Notes de cours sur la méthode des éléments finis. M1 Mathématiques Ap-
pliquées et Industrielles, Laboratoire Jean Kuntzmann, I NRIA. 2010. URL : http://www-
ljk.imag.fr/membres/Eric.Blayo/Documents/Poly-EF.pdf.
[10] Éric B LAYO. Notes de cours sur la méthode des éléments finis. M1 Mathématiques Ap-
pliquées et Industrielles, Laboratoire Jean Kuntzmann, I NRIA. 2010. URL : http://www-
ljk.imag.fr/membres/Eric.Blayo/Documents/Poly-EF.pdf.
[11] Éric B LAYO. Notes de cours sur la méthode des éléments finis. M1 Mathématiques Ap-
pliquées et Industrielles, Laboratoire Jean Kuntzmann, I NRIA. 2010. URL : http://www-
ljk.imag.fr/membres/Eric.Blayo/Documents/Poly-EF.pdf.
[12] Franck B OYER. Analyse numérique des EDP elliptiques. Aix-Marseille universités, M2
Mathématiques et Applications. 2011. URL : http://www.cmi.univ-mrs.fr/~fboyer/
_media/enseignements/cours_m2_anedp_fboyer.pdf.
IV ANNEXES 392
[25] Amy DAHAN -DALMEDICO et Jeanne P EIFFER. Une histoire des mathématiques. Routes et
dédales. Eds du Seuil, 1986.
[26] David D UREISSEIX. Méthodes numériques appliquées à la conception par éléments finis.
10 janvier 2009. URL : http://hal.archives-ouvertes.fr/docs/00/35/17/13/
PDF/polyMNb.pdf.
[27] Michel DYSLI. B3-5 Introduction aux éléments finis. École Polytechnique Fédérale de
Lausanne ; cycle postgrade : géologie appliquée à l’ingénierie et à l’environnement. URL :
http://lms.epfl.ch/files/content/sites/lms/files/shared/Publications/
Soil%20and%20Rock/Intro_aux_elements_finis_GAIE.pdf.
[28] Bernard FAVRE. « Méthode pour établir la relation entre le bruit émis par les véhicules
routiers et l’impact de ce bruit sur les populations exposées ». Thèse de doctorat. Université
Claude Bernard Lyon I, 1984 (cf. page 240).
[29] Zhi-Qiang F ENG. Mécanique non linéaire M2-MN91. UFR Science et Technologies, Univ.
d’Evry Val d’Essonne. URL : http://lmee.univ-evry.fr/~feng/MN91.pdf.
[30] Pascal F REY et Frédéric H ECHT. Cours Maillage 2D, surfacique et 3D. Université Pierre
et Marie Curie (Paris 6). URL : https://www.ljll.math.upmc.fr/~hecht/ftp/old/
IST/NoteCours-v1.pdf.
[31] Roger R. G HANEM et Pol D. S PANOS. Stochastic Finite Elements. A spectral approach.
Dover, 2005.
[32] Gene H. G OLUB et Charles F. van L OAN. Matrix Computations, 3e Ed. Johns Hopkins
University Press, 1996.
[33] K.K. G UPTA et J.L. M EEK. « A bried history of the beginning of the Finite Element
Method ». In : Int. J. Num Meth in Eng. 39 (1996), pages 3761–3774. URL : http :
//people.sc.fsu.edu/~jpeterson/history_fem.pdf (cf. page 128).
[34] Jean-François H AMET. Les mécanismes de génération du bruit de roulement et l’influence
des caractéristiques de chaussée. URL : http://www.infobruit.com/revues/78_
09956.PDF (cf. page 240).
[35] Jean-François H AMET. Modélisation du bruit de contact pneu / chaussée. Quels sont les
facteurs clés d’une réduction des nuisances sonores ? URL : http://www.inrets.fr/ur/
lte/publi-autresactions/lesposters/contactpneuchauss.pdf (cf. page 240).
[36] Bertrand H AUCHECORNE. Les contre-exemples en mathematiques : 522 Contre-exemples
(2ème Ed). Ellipses, 2007.
[37] Frédéric H ECHT. « New development in freefem++ ». In : J. Numer. Math. 20.3-4 (2012),
pages 251–265. ISSN : 1570-2820.
[38] Frédéric H ESCHUNG. « Vers une construction et une adaptation automatiques des maillages ».
Thèse de doctorat. Université de Reims Champagne Ardenne, 26 mai 2005. URL : http:
/ / ebureau . univ - reims . fr / slide / files / quotas / SCD / theses / exl - doc /
GED00000155.pdf.
[39] Franck H ETROY. Paramétrisation de maillages. Université de Grenoble. URL : https:
//www.ljll.math.upmc.fr/~hecht/ftp/old/IST/NoteCours-v1.pdf.
[40] Jean JACOD. Théorie de la mesure et intégration (LM365). Université Pierre et Marie Curie
(Paris 6), L3 Maths. 2010-11. URL : http://www.proba.jussieu.fr/pageperso/
amaury/LM364/jacod.pdf.
[41] Steven G. J OHNSON. Notes on Perfectly Matched Layers (PMLs). URL : http://math.
mit.edu/~stevenj/18.369/pml.pdf.
IV ANNEXES 394
[59] Hakim NACEUR. Modélisation de la rupture en dynamique rapide. Univ. de Valenciennes
et du Hainaut Cambrésis. 2012.
[60] Steve O UDOT. Maillage de surfaces de genre zéro sans bord. École Polytechnique. URL :
http : / / www . enseignement . polytechnique . fr / informatique / ARCHIVES / IF /
projets/oudot/sujet.html.
[61] Grigory PANASENKO. « Cours d’homogénéisation ». In : DEA Analyse numérique, EDP et
calcul scientifique ; Univ Lyon 1 et St-Étienne, ECL, ENS Lyon (1996).
[62] Alexandre P OPIER. Espaces fonctionnels : un peu de topologie. Université du Maine, Le
Mans. URL : http://perso.univ-lemans.fr/~apopier/enseignement/M1_Maths_
EDP/slides_espaces_fonct.pdf.
[63] Jérôme P OUSIN. « Cours estimateurs d’erreurs et remaillage ». In : DEA Analyse numérique,
EDP et calcul scientifique ; Univ Lyon 1 et St-Étienne, ECL, ENS Lyon (1996).
[64] Julien R ÉTHORÉ. « Méthode éléments finis étendus en espace et en temps : application
à la propagation dynamique des fissures ». Thèse de doctorat. INSA Lyon, 2005. URL :
http://tel.archives-ouvertes.fr/docs/00/12/11/72/PDF/these.pdf.
[65] François ROUVIÈRE. Petit guide de calcul différentiel à l’usage de la licence et de l’agré-
gation (2ème Ed). Cassini, 2003.
[66] Patricia S AAD. « Modélisation et identification du comportement non linéaire des cales en
caoutchouc ». Thèse de doctorat. École Centrale de Lyon, 2003. URL : http://bibli.ec-
lyon.fr/exl-doc/psaad.pdf.
[67] Ulf S ANDBERG. « Low noise road surfaces. A state-of-the-art review ». In : Eurosymposium
Maîtrise du bruit routier en milieu urbain. 1992. URL : http://www.asphaltrubber.
org/ARTIC/International/RPA_A1177.pdf (cf. page 240).
[68] Ulf S ANDBERG. « Tyre/road noise : myths and realities ». In : Plenary paper published
in the Proceedings of The 2001 International Congress and Exhibition on Noise Control
Engineering. The Hague, The Netherlands, 2001, August 27-30. URL : http : / / www .
vti.se/sv/publikationer/pdf/tyreroad-noise--myths-and-realities.pdf
(cf. page 240).
[69] Jean-François S CHEID. méthodes numériques pour la dynamique des fluides. Institut
E.Cartan U.M.R. 7502, Univ. H. Poincaré Nancy 1. Cours de Master 2 IMOI option
calculs scientifique 2011-2012. URL : http : / / www . iecn . u - nancy . fr / ~scheid /
Enseignement/polyM2IMOI.pdf.
[70] Jean-François S CHEID. Analyse numérique des équations de Navier-Stokes. Institut E.Cartan
U.M.R. 7502, Univ. H. Poincaré Nancy 1. Cours de Master 2 Mathématiques (Recherche)
2005-2006. URL : http://www.iecn.u-nancy.fr/~scheid/Enseignement/ns_main.
pdf.
[71] Laurent S CHWARTZ. Analyse I : Théorie des ensembles et Topologie. Hermann, 1992.
[72] Laurent S CHWARTZ. Analyse II : Calcul différentiel et équations différentielles. Hermann,
1992.
[73] Laurent S CHWARTZ. Analyse III : Calcul intégral. Hermann, 1992.
[74] Christian S OIZE. « Modélisation probabiliste du flou structural en dynamique linéaire des
système mécaniques complexes - Éléments théoriques. » In : La Recherche Aérospatiale 5
(1986), pages 23–48 (cf. page 236).
[75] Christian S OIZE. « Estimation of the fuzzy substructure model parameters using the mean
power flow equation of the fuzzy structure ». In : Journal of Vibration and Acoustics 120
(1998), pages 279–286 (cf. page 236).
IV ANNEXES 396
[97] W IKIPÉDIA. Théories des milieux effectifs. URL : http://fr.wikipedia.org/wiki/
Th%C3%A9ories_des_milieux_effectifs.
[98] W IKIPÉDIA. Toutes les notes bibliograhiques et historiques de ce document.
[99] W IKIPÉDIA. Triangulation de Delaunay. URL : http://fr.wikipedia.org/wiki/
Triangulation_de_Delaunay.
[100] W IKIPÉDIA. Zone absorbante parfaitement adaptée. URL : http://fr.wikipedia.org/
wiki/Zone_absorbante_parfaitement_adapt%C3%A9e.
[101] Eberhard Z WICKER et Richard F ELDTKELLER. Psychoacoustique. L’oreille récepteur
d’information. Masson, 1981.