Tipe2012 Manneville, Paul Text

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 24

Dynamique non linéaire et chaos

Paul Manneville
Laboratoire d’Hydrodynamique, École Polytechnique
[email protected]
ENSTA-tipe – 25 Octobre 2011

Résumé. Les systèmes linéaires sont sans grande surprise puisqu’ils répondent toujours dans le
sens qu’on leur commande. Il n’en va pas de même des systèmes non-linéaires dont l’évolution peut
s’avérer difficile à anticiper. Le chaos résulte d’une instabilité congénitale des trajectoires décrivant la
dynamique du système considéré dans son espace des phases, ce qui se traduit par une imprédictibilité
à long terme de son état en dépit du déterminsime qui garantit la prédictibilité à court terme. L’étude
de systèmes mécaniques élémentaires, tel l’oscillateur harmonique, permettra d’introduire les notions
fondamentales de dynamique et les outils disponibles pour caractériser toute la gamme de comporte-
ments possibles, du stationnaire au chaotique. Le concept fondamental de bifurcation sera illustré par
l’exemple physique de la convection. De là nous passerons à la description de scénarios classiques de
transition vers le chaos et nous introduirons les principales quantités servant à caractériser un régime
chaotique, exposants de Lyapunov quantifiant l’imprédictibilité et dimensions fractales rendant compte
de la structure des attracteurs étranges dans l’espace des phase. Enfin nous évoquerons les applica-
tions de la dynamique non-linéaire (contrôle) et ses implications sur l’analyse et la modélisation des
systèmes complexes (climat).

1 Introduction
Le terme chaos s’est trouvé très médiatisé depuis une vingtaine d’années. Notamment l’effet
papillon est souvent invoqué pour faire allusion à de petites causes pouvant avoir de grands
effets. Au cours de cet exposé j’essaierai de faire comprendre l’origine de ce comportement,
notamment pour le relier à l’existence de rétroactions et de couplages non-linéaires. Lorsqu’un
système est linéaire les effets sont génériquement proportionnels aux causes. Au contraire les
non-linéarités peuvent tout aussi bien saturer la réponse que conduire à l’emballement. Dans
le but d’ordonner les idées, je présenterai quelques notions classiques de dynamique car, en y
réfléchissant un peu, on s’aperçoit que les systèmes qui nous intéressent évoluent et que l’on a
surtout besoin de pouvoir anticiper le futur de façon fiable. Une variable indépendante, le temps
qui s’écoule, joue donc un rôle particulier. Je montrerai également que la notion de stabilité
occupe une position centrale. En effet, intuitivement, tout comportement observable doit voir
ses principales caractéristiques persister dans le temps ou du moins présenter une certaine
régularité pour permettre l’anticipation. Cette cohérence à long terme est manifeste dans le
cas le plus simple d’un système dans un état indépendant du temps, mais aussi périodique, ou
même plus compliqué pour autant que nous sachions qualifier ce comportement par quelques
propriétés facilement identifiables.

1
Les systèmes auxquels nous nous intéressons vont donc être caractérisés par un nombre,
le plus petit possible, de variables d’état dont l’évolution au cours du temps, la dynamique,
nous concerne au premier chef. Ces variables et leur dynamique peuvent être fort mal connues
et l’histoire nous apprend qu’il a fallu de nombreux siècles avant que la mécanique, au sens
ordinaire, ne dégage ses lois. Ainsi les équations de Newton qui gouvernent le mouvement d’un
objet ponctuel de masse m se déplaçant sur un support rectiligne à l’extrémité d’un ressort
de raideur k se mettent-elles sous la forme d’une équation différentielle ordinaire linéaire du
second ordre en temps pour la position X de l’objet:
d 2
m dt2 X = −kX , (1)
équation qui s’intègre immédiatement pourvu que nous lui fournissions deux conditions initiales
d
X(t = 0) = X0 et V (t = 0) = V0 , où V ≡ dt X est la vitesse. Le problème ainsi posé est
parfaitement déterministe. En conséquence, à un état initial donné [X0 , V0 ] ne correspond à
tout temps ultérieur t > 0 qu’un état et un seul [X(t), V (t)], mais on peut aussi remonter le
temps et déterminer l’état [X(−t), V (−t)] dont [X0 , V0 ] est issu en inversant le sens du temps,
ce qui est une caractéristique de la mécanique newtonienne.
Dans cette perspective classique, c’est à dire non-quantique, tout aspect probabiliste est
nécessairement extrinsèque et ne fait que refléter notre ignorance des conditions initiales effec-
tives. Nous allons voir que, pour des raisons très profondes liées à la topologie de l’espace des
états et à la structure du système, ce point de vue n’est en fait tenable que si les variables d’état
sont en nombre extrêmement petit, en pratique seulement 2 comme ci-dessus. Comme exemple
plus exotique on peut évidemment citer le circuit oscillant RLC classique ou le système proie-
prédateur à deux espèces, mais on est loin de couvrir la large gamme des systèmes réellement
intéressants. Il peut paraı̂tre curieux de devoir renoncer au contrôle détaillé de plus de 2 vari-
ables d’état mais s’il en est ainsi c’est que la possible instabilité des états que l’on suit induit de
graves conséquences à long terme bien qu’à court terme les choses semblent rester maı̂trisées.
En fait, la reconnaissance du caractère divisé de la matière à l’échelle microscopique conduit
déjà à renoncer à la description déterministe détaillée pour adopter une description statistique
tirant profit de la loi des grands nombres. Ceci conduit à une description cohérente en ter-
mes de grandeurs moyennes thermodynamiques qui s’extraient naturellement d’un bruit dont
l’influence est supposée décroı̂tre en raison inverse de la racine carrée du nombre de particules.
Cette description fonctionne heureusement fort bien pour les systèmes à l’équilibre, mais ceux-ci
ne sont pas très ((vivants)) alors que la situation d’équilibre est exceptionnelle. Au contraire, les
systèmes hors d’équilibre sont traversés de flux de matière et d’énergie et peuvent manifester
des comportements plus complexes faisant émerger des propriétés nouvelles. En pratique, les
milieux continus qui nous entourent sont soumis aux mêmes lois physiques élémentaires, se
plient aux règles d’un équilibre local et affectent une tendance globale au retour à l’équilibre
que l’on qualifie de dissipation. Ainsi les équations de Navier–Stokes décrivent-elles les fluides
simples en rendant compte de leurs propriétés visqueuses, mais cela peut se transposer à bien
d’autres systèmes, dynamique des populations, économie, . . . La description du système con-
sidéré peut alors rester déterministe, mais dans le cadre d’un système d’équations aux dérivées
partielles, ou même dans des cadres plus complexes (équations intégrodifférentielles, possibilité
d’interactions retardées, etc.).
Dans toute mathématisation d’un problème, il y a une part de modélisation et donc toujours
l’élimination d’une information que l’on juge inutile (et qu’il serait parfois utile de réintroduire
sous forme de bruit extrinsèque). Dans un premier temps, et dans le cas où le caractère distribué
dans l’espace physique n’intervient pas, il est légitime de se limiter à les systèmes évolutifs qui

2
se présentent sous la forme d’équations différentielles (systèmes à temps continu) ou d’itérations
(systèmes à temps discret résultant d’une stroboscopie). Ils font intervenir un nombre fini de
variables discrètes et sont dit de dimension finie. Dans le cas contraire où l’extension dans
l’espace joue un rôle crucial, on a affaire à des équations aux dérivées partielles ou des réseaux
d’itérations couplées. De tels systèmes gouvernent alors des champs continus ou des versions
spatialement discrétisées de tels champs, donc une infinité de variables et sont dits de dimension
infinie. L’introduction d’interactions à retard augmente également la dimension effective du
système de la même manière.
Se pose alors la question de savoir pourquoi dans un contexte déterministe donné, la com-
plexité peut émerger et sous quelle forme. En fait, lorsque l’on pense ((complexe)) on peut avoir
en tête ((compliqué)), ce qui suggère quelque chose de lié à la définition même du système; l’autre
possibilité que nous explorerons ici en priorité vise plutôt à associer ((complexe)) à ((difficile)) et
nous monterons que les non-linéarités se combinent à l’instabilité pour produire, même dans
des systèmes réputés simples, ces régimes particuliers difficiles à appréhender qui seront ap-
pelés chaotiques. Ceux-ci se reconnaı̂trons avant tout au fait qu’ils sont caractérisés par une
obstruction intrinsèque à l’anticipation à long terme, c’est à dire à un futur que l’Homme
conserve l’ambition de maı̂triser. Si cette maı̂trise nous restera à jamais strictement inacces-
sible, au moins pouvons nous penser qu’il est important de préciser les principales propriétés
du chaos et notamment les conditions minimales sous lesquels il se manifeste afin d’en tirer le
meilleur parti possible. Pour cela nous donnerons quelques éléments de dynamique non-linéaire
dans le contexte introduit par Poincaré à la fin du XIXème siècle, §2, puis nous esquisserons
la cascade de comportements de plus en plus compliqués observés dans la transition au chaos,
marqués principalement par la sensibilité aux conditions initiales (propriété SCI) et le caractère
fractal des ((attracteurs)) qui représentent ces comportements dans l’espace des états, §3. Nous
évoquerons enfin quelques applications, §4, avant de conclure sur ce qui nous paraı̂t la plus
grande leçon apportée par la connaissance des effets des non-linéarités, §5, à savoir l’incapacité
rédhibitoire à anticiper à long terme de façon détaillée, c’est à dire autrement que statistique,
la dynamique des systèmes complexes.

2 Dynamique non-linéaire
Espace des phases et dynamique qualitative. Revenons au cas du ressort. Intégrer
l’équation de mouvement (1) partant de conditions initiales données est un exercice élémentaire.
Nous lui préférerons une approche plus géométrique faisant apparaı̂tre la dynamique sous forme
de trajectoires tracées dans le plan de phase dont les coordonnées sont des quantités conjuguées:
d
la position X et la quantité de mouvement P = mV = m dt X. L’équation d’évolution du sec-
ond ordre en temps (1) se récrit donc sous forme d’un système différentiel du premier ordre en
temps:
d d
dt
X = P/m , dt
P = −kX. (2)
Les membres de droite de ces équations dites de Hamilton définissent alors un champ de vecteurs
sur le plan de phase. Cette représentation géométrique est illustrée sur la figure 1.
La notion de plan de phase se généralise facilement en dimension plus élevée pour prendre
le nom d’espace des phases. Nous écrirons donc formellement:
d
dt
X = F (X), (3)

3
0.8

P
0.4

0.0

−0.4

−0.8
−0.8 −0.4 0.0 0.4 0.8
X

Figure 1: Plan de phase de l’oscillateur harmonique.

où F est un champ de vecteur, X désignant les points de cet espace X. La dimension du
système correspond alors précisément au nombre de conditions initiales à spécifier pour ini-
tialiser l’évolution. L’ensemble des trajectoires est appelé portrait de phase du système. En
toute généralité le système ainsi défini dépend de paramètres de contrôle que nous noterons
génériquement r. Ce qui compte surtout est la nature du régime qui s’instaure à valeur donnée
de ces paramètres, et la façon dont le portrait de phase change lorsque ceux-ci varient.
Certaines solutions particulières sont intéressantes à connaı̂tre car leur présence structure
l’espace des phases. Les plus simples d’entre elles sont les points fixes correspondant à des
d
états indépendants du temps. Elles sont obtenues en supposant dt X ≡ 0 donc en résolvant
F (Xf ) = 0. la différence des systèmes linéaires dont la solution est unique (en l’absence de
dégénérescence), les systèmes non-linéaires peuvent avoir de multiples solutions, tout comme le
trinôme du second degré aX 2 + bX + c = 0 qui peut avoir deux solutions réelles, ou seulement
une, ou aucune selon le signe et la valeur du discriminant ∆ = b2 − 4ac.

Stabilité. Une fois trouvées de telles solutions particulières, il faut déterminer à quelles con-
ditions elles sont observables. Cela réfère immédiatement à la notion de stabilité étant entendu
que l’on ne s’intéresse pas aux phases transitoires de l’évolution mais plutôt aux régimes perma-
nents représentés dans l’espace des phases par des ensembles limites. La figure 2 (haut) illustre
de façon très nave les notions de stabilité et d’instabilité d’un point fixe. Il semble clair que le
point fixe stable attire les trajectoires dans toutes les directions de l’espace alors que le point
fixe instable les repousse dans au moins une direction.
Ces simples considérations suggèrent que vont jouer un rôle primordial les notions
d’attracteurs et de bassins d’attraction, régions de l’espace des phases dont tous les points
rejoignent un attracteur donné correspondant à un régime permanent particulier. De ce point
de vue, le cas des systèmes conservatifs —satisfaisant div F (X) ≡ 0 pour tout X— apparaı̂t
un peu particulier, car si l’on comprend facilement qu’un point fixe puisse être instable, la
condition de conservation ci-dessus interdit qu’il soit attractif. Les systèmes hamiltoniens n’ont
donc pas d’attracteurs mais l’introduction de la moindre source de dissipation (frottement)
change la situation, aboutissant au fait que, par exemple, les oscillations de la masse au bout

4
Figure 2: En haut: point fixe stable (à gauche) et instable (à droite). En bas: même de basse
dimension, un système non-linéaire peut avoir plusieurs points fixes instables, ce qui est source
de complexité.

de son ressort finissent toujours par s’amortir faute d’entretien. Multiplicité des points fixes et
présence parmi eux d’éléments instables sont donc les premiers facteurs de complexité comme
le suggère la figure 2 (bas).

Régimes permanents instationnaires. Augmentant d’un cran la complexité des solutions


envisageables, on doit se poser la question de l’existence de régimes permanents instationnaires
et nous devinons que cela correspond génériquement au cas des systèmes mécaniques. En effet,
en l’absence de frottement, tout système mécanique simple (linéaire) oscille dès lors qu’il n’est
pas dans une position d’équilibre. L’amplitude des oscillations est alors directement fonction de
l’énergie que l’on a donnée au système. Ce cas simple s’étend à tous les systèmes mécaniques
non-linéaires ne faisant intervenir qu’une paire de variables conjuguées. Le pendule simple en
est un exemple déjà non-trivial puisqu’il dispose de deux positions d’équilibre dont l’une est
instable et que deux types de trajectoires sont possibles: les trajectoires ((liées)), de basse énergie,
qui voient le pendule osciller autour de la position d’équilibre, et les trajectoires ((passantes)),
de haute énergie, pour lesquelles il tourne toujours dans le même sens. Ces deux types de
trajectoires, illustrés sur la figure 3 (gauche), sont séparés dans l’espace des phases par une
trajectoire particulière, la ((séparatrice)), qui décrit un mouvement partant sans vitesse de la
position d’équilibre instable pour y revenir, également sans vitesse, au bout d’un temps infini.

Oscillations auto-entretenues. Si la présence de mouvement est assez naturelle pour les


systèmes sans frottement il n’en va pas de même en présence de dissipation. Pour obtenir
des oscillations (ou des dynamiques plus complexes) il faut compenser la perte d’énergie par
dissipation au moyen de sources externes qui maintiennent le système considéré hors d’équilibre.
Ainsi le circuit de Van der Pol compense-t-il les pertes par effet Joule dans la résistance d’un
circuit oscillant RLC classique en déstabilisant le point fixe à l’origine (courant et tension nuls)
à l’aide d’un dipole à résistance négative. Avec un choix d’unités convenables, l’équation qui le

5
φ
1.5

dX/dt
1.0

0.5

θ
0.0
−π +π

−0.5

−1.0

X
−1.5
−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5

d
Figure 3: gauche: Trajectoires dans le plan de phase du pendule simple (θ, φ = dt θ) en
représentation réduite sur l’intervalle θ ∈ [−π, π[ périodisé. droite: Oscillateur de Van der
Pol dans son plan de phase.

gouverne s’écrit
d2
dt2
X + (X 2 − r) dt
d
X +X =0 (4)
où X représente l’intensité dans le circuit. La quantité −r représente la somme algébrique de
la résistance ordinaire du circuit et de la résistance interne du dipôle. Lorsque −r > 0 (donc
r < 0) c’est l’effet Joule dissipé dans la résistance qui domine, la dissipation joue un rôle normal
et le circuit retourne à l’équilibre par des oscillations amorties. Dans le cas contraire, i.e. r > 0,
d
la dissipation, représentée par le terme en facteur de dt X est anormale en ce sens qu’elle dépend
fortement de l’amplitude
√ de X au cours d’une oscillation, positive et jouant un rôle amortisseur
lorsque |X| > r et négative sinon, donc déstabilisante. Lorsqu’on écarte le système de son
d
unique point fixe en X = dt X = 0 on voit alors de développer des oscillations qui saturent en
un régime permanent périodique. On parle de cycle limite dans l’espace des phases, cf. figure 3
(droite). Faisant varier r, on observe une bifurcation en r = 0, d’un régime indépendant du
temps pour r < 0 vers un régime périodique pour r > 0. Le comportement reste ici simple
et régulier. Il convient juste de souligner qu’à la différence du cas mécanique, l’amplitude des
oscillations n’est pas fonction de l’énergie contenue dans la condition initiale mais résulte d’un
bilan d’énergie variable dans le temps. Ce système est délibérément non-conservatif et hors
d’équilibre.

Dynamique complexe et dimension de l’espace des phases. Le comportement


périodique associé au cycle limite reste simple car une fois la phase temporelle du système
déterminée, son état peut être prédit dans un futur arbitrairement lointain. Cette simplicité
est un effet de la dimension d = 2 de l’espace des phases. En effet, le déterminisme supposé du
problème implique l’unicité des trajectoires associées, ce qui induit une forte contrainte pour
d < 3. Le grand théorème de Poincaré–Bendixon exprime en effet que rien de plus compliqué
qu’un comportement périodique ne peut se développer dans un espace des phases isomorphe
à R2 . Prenant le contre-pied logique de cette affirmation, on doit s’attendre à ce que des com-

6
(n-1)T nT (n+1)T

X X X X

Figure 4: La stroboscopie d’un système de dimension d forcé périodiquement correspond à des


l’enregistrement des états du système lors des intersections des trajectoires dans un espace des
phases élargi de dimension d + 1 incluant le temps avec des hyperplans régulièrement espacés.

portements plus complexes puissent voir le jour pour d ≥ 3 (ou d = 2 mais avec une topologie
non-triviale, e.g. un ruban de Mœbius). Une façon économique de passer à d = 3 consiste à
forcer périodiquement un système bidimensionnel, soit
d
dt
X = F (X, t) avec F (., t + T ) ≡ F (., t),

où T est la période de forçage. La phase du système en t = 0 devient ainsi une condition
initiale à part entière. Si nous prenons par exemple le cas d’un pendule posé sur une table
oscillant verticalement, expérimentalement nous pouvons constater que ce n’est pas la même
chose de le lcher dans une position donnée alors que le support est en train de monter que
lorsqu’il redescend. La position de la table à l’instant du lcher est la variable qui rend le
problème effectivement tridimensionnel. La méthode naturelle pour étudier le système consiste
alors à n’enregistrer les états que par stroboscopie à la période du forçage, au lieu de le faire en
continu. On passe donc à un système dynamique à temps discret sans qu’aucune information
ne soit perdue puisque l’intégration du système à temps continu entre deux instants séparés
d’une durée finie peut être rendue mathématiquement aussi précise que l’on veut. Cette façon
d’analyser le système géométriquement est illustrée sur la figure 4. On ne retient alors de la
dynamique que l’itération qui fait passer d’un état au suivant sur ces hyperplans identifiés
modulo T . La possibilité d’un comportement plus complexe que simplement périodique tient à
ce que dans un espace de dimension d ≥ 3 les trajectoires (des lignes) ont assez de place pour
s’embobiner les unes autour des autres sans se couper, ce qui n’est pas le cas en dimension
d = 2 (du moins tant que l’espace reste plat).
La généralisation de cette approche au cas des systèmes autonomes, c’est à dire non-forcés,
est facilement compréhensible lorsque un régime périodique s’est déjà installé car le cycle limite
est une source intrinsèque de périodicité qui permet de transposer l’idée de stroboscopie. Le
cycle limite est une boucle fermée dans l’espace des phases de dimension d. la suite de Poincaré
on est amené à définir une surface de section Σ, en fait une hypersurface de dimension d − 1
localement transverse au cycle en l’un de ses points, puis à ne considérer que les intersections
des trajectoires avec Σ et déterminer l’application de premier retour (système itératif) qui relie
une intersection avec Σ de la trajectoire suivie à celle qui la précède, cf. figure 5.
Notons que ceci permet déjà de répondre à la question des conditions minimales à remplir
pour observer des comportements complexes. Sans entrer dans la démonstration mathématique

7
M’=Φ(M)
P

Figure 5: Section de Poincaré et application de premier retour.

complète du théorème de Poincaré–Bendixon on remarquera que dans un espace X topologique-


ment équivalent à R2 , la dimension de Σ est dΣ = 1. En raison même du déterminisme, les
trajectoires intersectent alors Σ de façon ordonnée, ce qui conduit nécessairement à des com-
portements limites réguliers. L’argument ne tient plus dès que dΣ = d − 1 > 1 donc d ≥ 3
(ou si X ≡ Mœbius). Le chaos est l’expression la plus spectaculaire de cette possibilité de
comportements complexes.

Deux exemples. Commençons par un système tiré de la mécanique hamiltonienne, le pendule


double. Celui-ci est un ensemble de deux tiges articulées: la première tourne autour d’un axe fixe
à l’une de ses extrémités et supporte à sa seconde extrémité une autre tige lestée d’une masse.
La dynamique du système dépend de l’énergie contenue dans sa condition initiale. Lorsque
celle-ci est faible, on n’observe que de petites oscillations dont les périodes sont en rapport
rationnel (régime périodique de période le PPCM des périodes) ou irrationnel (régime quasi-
périodique). Lorsque l’énergie initiale est suffisante, les trajectoires sont chaotiques, telle celle
représentée sur la figure 6. Ce que n’illustre pas la figure, c’est la divergence de deux trajectoires
initialisées de façon presque identiques. Le fait que l’on puisse observer du chaos est directement

Figure 6: gauche: schéma du pendule double. droite: représentation d’une trajectoire chaotique
du pendule double lorsque l’énergie est suffisante.

8
20
X 45
10
40 Z
0
35

−10 30

−20
t 25
100 110 120 130 140 150 160 170 180 190 200
20
50

40
Z 15

10
30
5
20 −20 40
−10 20
10 0 0
0
t X 10 −20
Y
100 110 120 130 140 150 160 170 180 190 200 20 −40

Figure 7: Attracteur de Lorenz: séries chronologiques de X et Z (à gauche) et représentation


tridimensionnelle de la trajectoire correspondante (à droite).

en relation avec le décompte dimensionnel


 précédent.
 Le pendule double comporte en effet deux
paires de variables conjuguées θ, φ, dt d d
θ, dt φ de sorte que X ≡ T2 × R2 , où T est le tore à une
dimension (intervalle [0, 1[ périodisé) dont chacune des deux copies correspond à l’une des
d
variables angulaires, θ ou φ, et où R est la droite réelle associée à chacune des vitesses, dt θ
d
ou dt φ, qui peuvent prendre leurs valeurs de −∞ à +∞. Ajouter la condition de conservation
de l’énergie ajoute une contrainte qui abaisse d’une unité la dimension de l’espace des phases
accessible à énergie fixée qui se trouve donc être une variété tridimensionnelle.
Notre second exemple est le célèbre modèle que Lorenz a introduit en 1963 pour modéliser
la convection et qui permit, à la surprise de ce dernier, de mettre en évidence l’impossibilité de
reproduire dans le détail et à long terme les trajectoires issues de conditions initiales voisines.
Ce système non-conservatif s’écrit:
d d d
dt
X = P (−X + Y ) , dt
Y = −Y + RX − ZX , dt
Z = −bZ + XY . (5)

Pour illustrer son propos, Lorenz avait choisi les valeurs b = 8/3, P = 10, R = 28, où R
est, dans l’esprit de la convection, le paramètre de contrôle du problème mesurant sous forme
adimensionnée le gradient de température appliqué à une couche fluide chauffée par le bas
et initialement au repos, voir plus loin la figure 10. La partie gauche de la figure 7 illustre
l’évolution des variables X et Z fonction du temps pour ce choix particulier de paramètres,
tandis que la partie droite représente une vue en perspective de l’attracteur de Lorenz dans
l’espace des variables (X, Y, Z). Cet objet appelé attracteur étrange présente des propriétés sur
lesquelles nous reviendrons dans la section suivante.
Nous avons dit que R est le paramètre de contrôle du système, ce qui signifie que l’on peut
(doit) également examiner les régimes obtenus lorsque R adopte des valeurs différentes. On
peut ainsi construire le diagramme de bifurcation illustré sur la figure 8. Pour l’interpréter de
façon détaillée, il faut savoir comment il a été construit, ce qui nous entraı̂nerait un peu loin.
Disons simplement que lorsque à R donné, on trouve un seul point ou un nombre fini de points,
le régime est périodique. Au contraire, lorsque l’on observe un trait vertical quasi-continu, le
régime est chaotique. On constate ainsi une alternance de régimes périodiques et chaotiques.
De plus, les régimes chaotiques n’arrivent pas n’importe comment mais à l’issue d’une suite de
régimes périodiques dont la période double à chaque bifurcation étudiée à R décroissant. Ce

9
150
Z k −R+1

100

50

0
R
50 150 250 350
Figure 8: Diagramme de bifurcation du modèle de Lorenz lorsque R varie.

scénario classique est reproduit deux fois sur la figure 8, une première pour R ≈ 140 et une
seconde pour R ≈ 215. La figure 9 illustre cette seconde cascade de doublements de période en
perspective dans l’espace des variables (X, Y, Z), montrant que les cycles de période 2T , 4T ,
. . . , correspondent à des dédoublements successifs d’un même cycle de période T .

300
Z R=210 300
Z R=216

240 240

180 180

120 120
X X
−60 −20 20 60 −60 −20 20 60

300
Z R=220 300
Z R=230

240 240

180 180

120 120
X X
−60 −20 20 60 −60 −20 20 60

Figure 9: Illustration de la cascade sous-harmonique. Cycle de période T pour R = 230, 2T


pour R = 220, 4T pour R = 216, chaos pour R = 210.

10
la question du comment le chaos intervient, la théorie répond en montrant l’existence
de plusieurs scénarios issus de la déstabilisation d’un cycle limite. Outre le scénario sous-
harmonique dont nous venons de parler, mis en évidence et analysé vers 1978 par Feigenbaum,
d’une part, et Coullet et Tresser d’autre part, ont été identifiés le scénario originel de Ru-
elle et Takens (1971) qui fait passer par un (ou plusieurs) régime(s) quasi-périodique(s) et
l’intermittence que j’ai étudiée avec Y. Pomeau à partir de 1979.

3 Chaos, transition et caractérisation


Après avoir introduit à l’aide de modèles les notions essentielles de dynamique qualitative et il-
lustré différents types d’attracteurs: points fixes, cycles limites, attracteurs étranges, nous allons
revenir sur la transition vers le chaos dans les systèmes physiques, puis sur sa caractérisation
mathématique.

Bifurcations. Le mécanisme de la convection est illustré sur la figure 10. La couche de fluide
au repos, chauffé par le bas (Tb = Th + ∆T , avec ∆T > 0) est potentiellement instable dans le
champ de la gravité car, la densité décroissant en général quand la température augmente, elle
présente une stratification qui place du liquide lourd au dessus de liquide plus léger. La poussée
d’Archimède différentielle, force en volume, tend donc à induire un mouvement qui restaure
une stratification plus conforme à l’équilibre mécanique de la couche fluide. Cette tendance à la
mise en mouvement, partie déstabilisante du mécanisme, est contrecarrée par la dissipation dont
l’origine est double: d’une part la viscosité s’oppose à la mise en mouvement, d’autre part la
diffusion de chaleur tend à lisser les fluctuations de température, donc à effacer les modulations
de densité et, par voie de conséquence, à supprimer la cause du mouvement. L’efficacité de
ces processus stabilisants est fonction de la longueur d’onde des fluctuations, d’autant plus
grande que celles-ci varient rapidement dans l’espace. La compétition entre la force en volume
qui dépend de l’écart de température et augmente avec lui et la dissipation se traduit par
l’existence d’un seuil ∆Tc en deçà duquel la couche fluide reste au repos alors que s’il est dépassé
une structure dissipative régulière spatialement périodique se développe, caractérisée par une

Th
ρh > ρb

δθ > 0 g
δθ < 0
h δρ > 0
δρ < 0

ρb
Tb > T h
λ/2 ≅ h

Figure 10: Mécanisme de la convection suggérant l’émergence d’une structure de longueur


d’onde donnée.

11
.4 1.
X Xf
.3 .8

.6
.2
.4
.1

.0
t .2
0 10 20 30 40 50 60 70 80 90 100 r
0.

0 −.2
X
−.4
−1
−.6
−2
−.8
t −1.
−3
0 10 20 30 40 50 60 70 80 90 100 −0.5 0 0.5 1

Figure 11: Comportement d’un système subissant une bifurcation fourche super-critique.
gauche: évolution à partir d’une condition initiale petite 0 < X(t = 0)  1, en unités na-
turelles (en haut) et logarithmiques pour des conditions initiales d’ordre de grandeur variable
(en bas). droite: diagramme de bifurcation; l’état de base stable en dessous du seuil (en bleu)
de vient instable au dessus (en rouge), remplacé par l’une ou l’autre des solutions non-triviales
stables (en bleu) de l’équation (6); ici τ0 = g = 1.

longueur d’onde λc qui réalise un compromis entre les différents ingrédients du mécanisme.
Nous admettrons —ce qui se justifie tant par l’expérience que par l’analyse théorique de la
dynamique de perturbations infinitésimales qui permet de pousser les calculs jusqu’au bout—
que cette structure est bien décrite par une expression de la forme
v ∝ X(t) sin(kc x) ,
où v est l’un des champs thermo-hydrodynamiques en cause, kc = 2π/λc le vecteur d’onde
critique, et X une amplitude mesurant l’intensité du régime de convection, seulement fonction
du temps. Allant plus loin, on peut ramener l’étude du voisinage du seuil à celle de la dynamique
de cette amplitude:
d
τ0 dt X = rX − gX 3 , (6)
dans laquelle r = (∆T −∆Tc )/∆Tc sert de paramètre de contrôle, τ0 est un temps caractéristique
naturel d’évolution et g un coefficient d’interaction non-linéaire. L’intérêt de cette équation
tient à son universalité: elle décrit correctement toutes les instabilités qui, comme la convec-
tion, font apparaı̂tre des structures cellulaires indépendante du temps, seuls les coefficients sont
à déterminer au cas par cas. Elle rend compte de la croissance exponentielle des petites pertur-
bations puis de la saturation de celles-ci lorsqu’elles ont atteint un niveau suffisant pour que
les non-linéarités ne soient plus négligeables (Fig. 11, gauche). Le modèle de Landau (6) rend
compte d’une bifurcation fourche directe ou super-critique qui voit l’état bifurqué se substituer
continûment à l’état de base au delà du seuil d’instabilité.
Si en dessous du seuil (r < 0), le modèle de Landau (6) ne possède que la solution station-
naire triviale Xf ≡ 0 q stable, au dessus du seuil (r > 0) il dispose en outre de deux solutions
non-triviales: Xf = ± r/g stables alors que la solution triviale est devenue instable. Le dia-
gramme de bifurcation correspondant (Fig. 11 droite) montre les deux branches de solutions
non-triviales symétriques dans le changement X 7→ −X; la branche choisie dépend du signe de
la condition initiale infinitésimale tandis que la symétrie est brisée.

12
Figure 12: L’épave d’un tanker échoué émet un filet d’huile qui signale son sillage dans le
courant; l’allée de tourbillons dessinée par cette pollution naı̂t à l’arrière de l’obstacle puis
défile dans la direction générale de l’écoulement de sorte que, transversalement en un point en
aval l’eau passe régulièrement et alternativement dans un sens puis dans l’autre.

Cet exemple de bifurcation primaire étant traité, on passe ensuite à l’étude de stabilité
de l’état qui résulte de la superposition de l’état de base et de la perturbation à saturation.
Cette superposition fait figure de nouvel état de base et peut, à son tour devenir instable
vis à vis d’un nouveau mécanisme à l’origine d’une bifurcation secondaire. Il l’est pas difficile
d’extrapoler ensuite l’existence d’une bifurcation tertiaire,... bref, l’idée d’une cascade de bifur-
cations introduisant une complexité croissante dans le système et faisant apparaı̂tre le chaos
comme résultat d’accumulation indéfinie de bifurcations (Landau, 1944).
Dans l’ordre de la complexité temporelle, vient ensuite l’apparition de la périodicité.
L’exemple du circuit de Van der Pol a déjà été donné mais on pourrait aussi citer les situations
observées en mécanique des fluides, telle l’allée de tourbillons, dite de Bénard–von Kéarméan,
qui se déverse dans le sillage d’un obstacle non profilé dont une illustration spectaculaire est
présentée sur la figure 12. En dynamique des populations, des mécanismes d’oscillations sont
également présents dans les systèmes proie-prédateur où les proies prolifèrent jusqu’à ce que les
prédateurs bien nourris viennent limiter la croissance de leur population. Ces derniers prospèrent
alors jusqu’à ce que la sur-chasse ne rende leur vie difficile, etc.
La bifurcation de Hopf qui gouverne l’apparition d’oscillation présente le même caractère
universel que la bifurcation fourche évoquée précédemment. Elle conduit à l’introduction d’une
première fréquence (ω1 ) dans le système. Dans l’espace des phases, il lui correspond un cycle
limite dont il convient d’étudier la stabilité du cycle au moyen d’une section de Poincaré,
cf. figure 5.

Scénarios de transition vers le chaos. Typiquement les étapes ultérieures mettent en


jeu l’apparition d’une seconde fréquence (ω2 ) et les différents scénarios de transition au chaos
dépendent de la valeur du rapport α = ω2 /ω1 . Le scénario originel de Ruelle & Takens (1971)
correspond au cas α irrationnel (6∈ Q); au contraire lorsque α = p/q avec q suffisamment petit,
on obtient un scénario sous-harmonique, et notamment lorsque q = 2, la cascade de doublement
de période. Pour développer cette étude, il est naturel de travailler sur une itération puisque,
s’agissant de l’instabilité d’un cycle, on a le droit de se ramener à l’application de premier
retour issue de la section de Poincaré (Fig. 5). Juste à titre d’exemple illustrons le scénario de

13
1.
X
.8

.6

.4

.2

r
0.
.7 .8 .9 1.

Figure 13: Diagramme de bifurcation de l’itération logistique Xn+1 = 4rXn (1 − Xn ).

doublement de période sur un modèle simple, l’itération logistique:

Xn+1 = 4rXn (1 − Xn ) . (7)

Le diagramme de bifurcation correspondant est présenté sur la figure 13 Pour r < 0.75, la
solution est périodique de période 1 (un point à r fixé après élimination du transitoire). Pour
0.75 < r < 0.862 . . ., domaine de stabilité de la période 2, on trouve deux points visités
alternativement, puis viennent les périodes 4,. . . ,2k , avec k → ∞. Le chaos au sens introduit
par Ruelle & Takens apparaı̂t pour r > r∞ = 0.892 . . .. Deux choses sont à noter, d’une part la
grande complexité de la succession des régimes qui prennent place dans l’intervalle r ∈ [r∞ , 1],
d’autre part l’universalité du scénario au niveau quantitatif: tous les systèmes qui le suivent
respectent les mêmes successions d’états à des seuils qui se correspondent strictement d’un
système à l’autre.
Comparativement à Landau qui suggère une accumulation indéfinie d’instabilités, Ruelle &
Takens insistent sur le fait qu’il suffit d’un petit nombre de bifurcations pour obtenir un régime
imprédictible à long terme en dépit du déterminisme, ce qui est, selon eux, l’essence même du
chaos. Cette perte de prédictibilité résulte d’une instabilité des trajectoires sur l’attracteur ainsi
devenu chaotique, traduisant leur extrême sensibilité aux conditions initiales et aux petites per-
turbations (propriété SCI ). C’est de cette façon qu’il faut interpréter le célèbre ((effet papillon))
introduit par Lorenz et impliquant l’existence d’un horizon de prédictibilité au delà duquel, en
fonction de la précision avec laquelle sont connues les conditions initiales, la prédiction de l’état
observé ne peut être que statistique.

Caractérisation du chaos: (i) instabilité des trajectoires. La propriété SCI


caractéristique du chaos correspond dont à une amplification des petits écarts dûs à l’incertitude
sur les conditions initiales exactes. Un bon modèle en est l’itération dyadique:

Xk+1 = 2Xk (mod 1) , (8)

illustrée sur la figure 14 (gauche). Faire évoluer la condition initiale X0 = n≥1 σn 2−n , où σn est
P

le n-ème digit du développement de X0 en binaire, se traduit simplement par une multiplication


par 2 donc par un décalage de la virgule vers la droite, la prise du modulo consistant juste à
abandonner à chaque fois le digit qui est passé à gauche de la virgule dans l’opération. Ce

14
1
6
X k+1
1 2
2)
3
(2,1/

5
1 2
2 Y
2
4
1
Xk X 1
0
0 1

Figure 14: gauche: itération dyadique. droite: transformation du boulanger; à l’étirement d’un
facteur 2 gouverné par l’itération dyadique dans la direction de X on combine une compression
du même facteur dans la direction Y de manière à conserver les aires; il ne reste plus qu’à
remettre la partie qui dépasse dans le carré initial pour compléter la définition de la transfor-
mation.

simple décalage de Bernoulli, outil élémentaire d’une discipline appelée dynamique symbolique,
permet de comprendre élémentairement la divergence des trajectoires voisines et l’existence de
l’horizon de prédictibilité.
D’une façon générale, si l’instabilité des trajectoires se traduit bien par un étirement, cela
n’est jamais aussi simple que ce que suggère la relation (8). Un instrument de mesure du taux
d’instabilité est l’exposant de Lyapunov ici défini dans le cas simple où la dynamique se ramène
à une itération unidimensionnelle de la forme:

Xk+1 = F (Xk ) .

La statistique du taux local d’instabilité, ln(|F 0 (X)|) où F 0 est la dérivée de F par rapport à
X, est alors obtenue en calculant:
−1
1 NX
λ = lim ln(|F 0 (Xk )|) . (9)
N →∞ N
k=0

Appliquant cette définition à (8) on trouve immédiatement λ = ln(2) > 0 puisque F 0 = 2 pour
tout X. Cette définition de l’exposant de Lyapunov s’étend aux itérations multidimensionnelles,
puis aux systèmes dynamiques différentiels de dimension finie ou infinie. On obtient alors le
spectre de Lyapunov , ensemble de nombres réels ordonnés par valeurs décroissantes. Dire qu’un
système est chaotique est alors équivalent à montrer que le plus grand d’entre eux (au moins)
est positif.

Caractérisation du chaos: (ii) structure fractale. Si elle permet de bien illustrer ce


qui fait la nature du chaos, l’itération dyadique (8) n’est pas un bon modèle d’application
de premier retour car elle n’est pas inversible: un état Xk a deux préimages, ce qui entre en
contradiction avec le caractère déterministe de la dynamique sous-jacente, gouvernée par un
système d’équations différentielles. La simplification qui y conduit est donc trop brutale. En
fait, il n’est pas difficile de tourner cette difficulté en ajoutant une direction transverse Y à la

15
Figure 15: gauche: transformation du boulanger dissipative; la trajectoire issue d’une condition
initiale (X0 , Y0 ) s’organise en une hiérarchie de bandes qui forment un ensemble fractal ; ici, la
contraction est exactement 1,5 fois plus intense (facteur 2/6) que l’étirement (facteur 2) de sorte
qu’il se perd 1/3 de la surface à chaque itération. droite: la règle de construction de l’ensemble
de Cantor triadique reproduit exactement la structure transverse de cet attracteur.

direction d’étirement X. Les états sont alors définis comme des paires (X, Y ) qui évoluent selon
une loi qui agit sur X comme (8) et sur la coordonnée Y en la comprimant tout en mimant
l’effet des non-linéarités par un déplacement. Cette application, illustrée sur la figure 14 (droite),
porte le nom de transformation du boulanger car elle opère d’une façon qui ressemble à la
préparation de la pte feuilletée. On dit en effet que si une pincée de sel est placée en un endroit
de la pte, elle se trouve répartie uniformément en son sein après un grand nombre d’opérations
d’étirement/repliement, alors que le volume de la pte est conservé. Le modèle ainsi défini
est donc plus particulièrement adapté au cas conservatif de la mécanique hamiltonienne. Pour
rendre compte des systèmes dissipatifs, plus courants dans notre environnement familier, il suffit
de supposer qu’un peu de pte se perd à chaque opération, autrement dit que la transformation
comprime plus qu’elle n’étire. Le résultat de cette opération est représenté sur la figure 15
(gauche).
L’ensemble fractal qui résulte de la transformation du boulanger dissipative est un exemple
particulièrement simple d’attracteur étrange mais sa règle de construction peut sembler assez
artificielle. Un système qui l’est beaucoup moins est le modèle de Hénon qui s’écrit:

Xk+1 = Yk + 1 − aXk2 , Yk+1 = bXk .

C’est un système dissipatif qui, dans son principe, réalise les opérations schématisées sur la
figure 16. L’attracteur obtenu en itérant une condition initiale arbitraire après élimination d’un
court transitoire est présenté pour a = 1.4 et b = 0.3 sur la figure 17. Sa partie gauche le montre
dans son ensemble alors que la structure de type fractal est illustrée sur la partie droite. On y
voit des lignes continues qui correspondent à la direction d’instabilité le long de l’attracteur,
transversalement regroupées par paires de façon hiérarchique à la manière de l’ensemble de
Cantor décrit sur la figure 15.
La structure fractale des attracteurs fait qu’ils influencent l’espace des phases dans des
proportions plus importantes que ne semble l’indiquer leur dimension topologique. C’est pour
mesurer cette influence qu’a été introduit le concept de dimension fractale popularisé par Man-
delbrot. Le degré d’occupation de l’espace est ainsi déterminé en comptant le nombre N (ε) de

16
instabilité + dissipation non linéarité

Figure 16: Génériquement, un système dynamique instable, dissipatif et non-linéaire étire mais
comprime plus qu’il n’étire, tout en repliant son espace des phases.

boules de taille ε nécessaire pour recouvrir l’attracteur. La dimension fractale est alors obtenue
en calculant la limite:
log (N (ε))
df = lim .
ε→0 log(1/ε)

Pour un objet ordinaire (continu) cette définition redonne la dimension topologique dt , soit 0
pour un ensemble dénombrable de points, 1 pour une ligne et 2 pour une surface tant qu’elles
restent suffisamment lisses, etc. Par définition, un objet est dit fractal dès que df > dt . Pour les
attracteurs, c’est le repliement induit par les non-linéarités qui est responsable de leur caractère
fractal. Remarquons que cette présentation en reste à un stade volontairement élémentaire et
schématique car une vaste littérature est consacrée aux développements techniques visant à la
généraliser (ensembles multi-fractals) pour rendre compte des aspects statistiques associés au
chaos.

Caractérisation du chaos: (iii) approche empirique. Tous les systèmes non-linéaire


présentant une dynamique complexe ne sont pas définis ab initio par une expression analytique
bien définie. Tout au contraire, ils ne sont le plus souvent connus que par des mesures que l’on
pratique sur eux. Il se pose alors le problème de traiter des suites de données d’observation
échantillonnées. Formellement on peut écrire une telle suite {Wk , k = 0, 1, . . .}, où W est la

1.5

0.7

1.0

Y Y
0.5

0.6
0.0

−0.5

0.5
−1.0

−1.5
−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5 0.5 0.6 0.7
X X

Figure 17: Modèle de Hénon: attracteur et zoom illustrant la structure fractale.

17
valeur numérique d’une observable fonction de l’état du système, soit W = W(X), mais la na-
ture de la variable d’état X qui décrit le système physique n’est pas connue a priori , non plus que
sa dynamique. Pour néanmoins exploiter ces mesures d’observables, une méthode de reconstruc-
tion de la dynamique, supposée déterministe, a été proposée et formalisée mathématiquement
par Takens. Sa méthode des retards consiste à considérer une représentation des états du système
considéré au moyen de suites
Vk = {Wk−de +1 , Wk−de +2 , . . . , Wk−1 , Wk } ,
qui les font apparaı̂tre comme éléments d’un espace Rde de dimension de , appelée dimension
de plongement. De cette représentation on peut ensuite tirer des taux de divergence de trajec-
toires (approximant les exposants de Lyapunov), des dimensions fractales, etc. Naturellement de
nombreux problèmes pratiques se posent pour assurer la fiabilité de la reconstruction, fréquence
d’échantillonnage et dimension de plongement notamment. Cette approche n’en constitue pas
moins un pas important dans l’utilisation de la théorie des systèmes dynamiques et des concepts
liés au chaos dans les applications auxquelles nous allons maintenant nous intéresser.

4 Applications
Les travaux des trente dernières années ont donc conduit à mettre l’accent sur les notions de
stabilité/instabilité et de sensibilité aux conditions initiales dans les systèmes non-linéaires et à
préciser la nature de la stochasticité intrinsèque qu’ils présentent dans certaines circonstances
sans avoir besoin d’invoquer un bruit extrinsèque, fruit de notre ignorance. Cette reconnaissance
des limites du déterminisme est un fait très important qui justifie un recours bien compris aux
probabilités et à la statistique sur lequel nous reviendrons plus loin. Pour l’instant, considérons
la question pratique du contrôle des systèmes non-linéaires, dont l’expression la plus simple est
la synchronisation forcée. Si cette notion est relativement simple, elle n’en recèle pas moins des
subtilités lorsque les systèmes que l’on cherche à synchroniser sont potentiellement chaotiques.
Les outils introduits en toute généralité pour étudier les dynamiques complexes trouvent alors
à s’employer pour circonscrire ces subtilités.

Synchronisation. titre d’exemple considérons un système maı̂tre défini par


 
(m) (m)
Xk+1 = G Xk , (10)
supposé chaotique, et un système esclave de définition identique et couplé au précédent mais
sans rétroaction:    
(e) (e) (m)
Xk+1 = (1 − g) G Xk + g G Xk , (11)
(e)
où g est le coefficient de couplage. Il est clair que la solution synchronisée à l’identique Xk ≡
(m)
Xk pour tout k est possible. Cependant, elle n’est réalisable que si elle est stable. L’étude de
cette stabilité fait appel à la détermination d’un exposant de Lyapunov approprié qui s’il est
positif montre que la synchronisation ne se réalise pas si le forçage est insuffisant (g trop petit).
La subtilité évoquée plus haut s’introduit si maintenant au lieu de considérer un seul système
esclave, on en considère deux:
   
(e,1) (e,1) (m)
Xk+1 = (1 − g)G Xk + gG Xk , (12)
   
(e,2) (e,2) (m)
Xk+1 = (1 − g)G Xk + gG Xk , (13)

18
0.6 λ
0.4

0.2

gsg gsi g
0.0

désynchronisation
totale
−0.2 synchronisation
généralisée

−0.4
synchronisation
à l’identique
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7

Figure 18: De la synchronisation à l’identique à la désynchronisation totale, en passant par la


synchronisation généralisée pour le système (10,12,13). L’exposant de Lyapunov conditionnel
(ligne irrégulière) indique, lorsqu’il est négatif, que les différences de trajectoire entre les deux
systèmes esclaves s’amenuisent asymptotiquement, alors même que l’exposant de Lyapunov
maximal (ligne régulière d’allure parabolique) est positif, ce qui correspond à un système glob-
alement chaotique.

et quand on cherche à savoir si, soumis au même forçage, les deux systèmes évoluent ou non
de la même façon. Ce sera naturellement le cas si le coefficient de couplage est suffisant pour
réaliser la synchronisation à l’identique mais qu’en est il s’il est trop faible? L’étude dans le cas
particulier de l’application logistique (7) pour r = 1 soit G(X) = 4X(1 − X) montre que si g est
très petit, il y a désynchronisation totale mais qu’entre ce régime et le régime de synchronisation
à l’identique, il existe un régime de synchronisation généralisée où les deux systèmes esclaves
suivent des trajectoires identiques bien que différentes de celle du système maı̂tre. Ces différents
régimes sont mis en évidence sur la figure 18 qui affiche l’exposant de Lyapunov conditionnel
mesurant le taux de divergence des trajectoires des deux systèmes esclaves en fonction du
coefficient de couplage g. Des applications de la synchronisation généralisée à la transmission
d’information et au cryptage sont à l’étude.

Contrôle du chaos. La synchronisation forcée est en quelque sorte le degré zéro du contrôle.
Le problème plus général du contrôle du chaos est un domaine actif de recherche appliquée
depuis le début des années 1990. Il s’agit en pratique de tirer parti du fait que, dans les systèmes
non-linéaires potentiellement chaotiques, de très faibles signaux de contrôles sont susceptibles de
stabiliser des régimes périodiques instables, pourvu qu’ils soient bien choisis. Ainsi, la méthode
des feed-backs retardés de Pyragas stabilise-t-elle un régime de période T en rappelant en
continu la trajectoire du système au temps t vers son état au temps au temps t − T . Cette
méthode simple est très efficace lorsque l’on connaı̂t peu de choses sur le système d’intérêt. Une
méthode mathématiquement plus sophistiquée due à Ott, Grebogi & Yorke (méthode OGY)
réalise le contrôle des orbites périodiques sur la section de Poincaré (fig. 5) en perturbant les
paramètres du système de façon calculée. Elle est illustrée sur la figure 19 dont la légende
explique sommairement le principe.

19
Xk

Xk+1

Vs Ws

Wu
X*
Vu

Figure 19: La méthode OGY expliquée en dimension 2 sur la section de Poincaré transverse à
un cycle limite: le point fixe X∗ correspond au cycle limite à contrôler; l’essentiel du travail est
fait par le système lui-même qui fait converger les trajectoires vers X∗ le long de sa direction
stable Vs pourvu que l’on réduise de façon appropriée l’écart au point fixe dans la direction
complémentaire Wu en modifiant le paramètre de contrôle de la petite quantité nécessaire pour
rapprocher la trajectoires de la direction Vs .

Prédictibilité de la dynamique des systèmes complexes. Tournons nous maintenant


vers ce que les progrès accomplis dans l’analyse théorique des systèmes chaotiques ont pu
apporter et apporteront dans le futur à la compréhension des systèmes complexes. De façon
générale, ceux-ci mettent en jeu un très grand nombre de degrés de liberté, de feed-backs
et de non-linéarités. On pourrait choisir de multiples exemples en science naturelles (écologie
des systèmes proies-prédateur réalistes) ou même en sciences humaines (sociologie et systèmes
électoraux, économie politique et développement). . . Considérons plus particulièrement le cas
du climat de la Terre, encore très proche de l’hydrodynamique, et tout d’abord ce que la théorie
du chaos a apporté de concret au problème des prévisions météorologiques. Dès 1963, Lorenz
a attiré, avec le succès que l’on sait, l’attention de la communauté scientifique sur la question
de la prévision à long terme dans ce contexte précis, bien que son modèle à trois variables (5)
n’ait pas été destiné à modéliser la dynamique de l’atmosphère décrite par un nombre infini de
degrés de liberté. De cette infinité seule une fraction finie mais très grande (plusieurs dizaines
de millions) est prise en compte dans les simulations numériques de routine pratiquées par
les organismes de prévisions. Or nous avons appris qu’un tel système, assurément non-linéaire
et chaotique, ne permet pas de prévision fiable au delà d’un horizon de prédictibilité. Cet
horizon est actuellement au mieux d’une quinzaine de jours et la divergence exponentielle des
trajectoires caractéristique du chaos fait que l’on ne peut espérer améliorer cet état de fait que
très lentement (logarithmiquement) en précisant mieux les conditions initiales. Comment dès
lors faire mieux?
L’élaboration des conditions initiales utilisées par les ordinateurs est appelée l’assimilation
des données. Cette sorte de problème inverse n’a pas de solution unique, seulement des solutions
optimisant tel critère plutôt que tel autre. On peut donc en fait construire des ensembles de
conditions initiales, toutes également compatibles avec les mesures de terrain, pour ensuite les
simuler en parallèle car la puissance des machines actuelles le permet. Un exemple est fourni
par la figure 20, gracieusement mise à ma disposition par son auteur. Celle-ci présente les

20
Figure 20: Figure discutée dans le texte et tirée de l’article de T. Palmer: Global warming
in a nonlinear climate — Can we be sure? dans le numéro de Mars-Avril 2005 de la revue
Europhysics News (bulletin de la Société Européenne de Physique).

isobares prévues par les ordinateurs du Centre Européen de Reading (UK) pour un tel ensemble
de cinquante conditions initiales correspondant à l’assimilation de l’état de l’atmosphère 42
heures avant le passage de la grande tempête de 1999, appelée Lothar. Les deux vignettes
en haut à gauche donnent les prévisions considérées comme les meilleures. Aucune d’entre
elles ne correspond à la réalité titrée (( verification)). Pourtant parmi les cinquante simulations,
une fraction ressemble de plus ou moins près à cette réalité, montrant que la situation était
particulièrement incertaine. C’est l’introduction de statistiques d’ensemble de ce type qui justifie
l’établissement de cartes de vigilance actuellement très à l’honneur. Le bon sens suggère de
généraliser cette approche lors de l’étude de systèmes non-linéaires un tant soit peu complexes
afin de mieux gérer les risques encourus.

Dynamique non-linéaire et méthodologie de la modélisation. Ici aussi la dynamique


de l’atmosphère, compliquée de celle de l’océan mondial, de leurs interactions mutuelles et avec
la biosphère incluant l’Homme et son action, est un excellent exemple de la difficulté de la
modélisation. Ce qui est en jeu, c’est l’anticipation à moyen et long terme de l’évolution du
climat, cruciale pour l’avenir notre espèce.

21
forçage radiatif
(1 jour, 1 an, 10 000-100 000 ans)

Atmosphère
atmosphère libre
(10 jours) Biosphère
couche limite atmosphérique forçage anthropogénique
(1 jour) (10-100 ans)
effet de serre

précipitations
évaporation
glace de mer
(qq.jours-100 ans)
glaciers végétation
océan de surface (300 ans) (10 jours-10 ans)
(10 ans) calottes polaires
océan profond (30 000 ans)
(300 ans)
Cryosphère Continent
Océan forçage géophysique
(qq.ans-qq. millions ans)

Figure 21: Le système climatique de la Terre met en jeu différents sous-systèmes in-
terdépendants, géographiquement bien identifiés ou non, et des constantes de temps d’ordres
de grandeur très différents.

Si, comme le suggère la figure 21, il est relativement facile de décomposer le système climat
en sous-systèmes, on se heurte immédiatement à des difficultés liées, d’une part aux ordres de
grandeur des temps caractéristiques d’évolution de ces différents composants, et d’autre part
aux incertitudes qui règnent sur la forme et l’intensité des couplages. Si l’on peut la contraindre
par des conditions physiques précises, la modélisation reste à bien des égards un art plus
qu’une science. Elle garde une part incontournable de réductionnisme et tout le problème est
de savoir ce qu’il est important de garder ou de négliger dans l’évolution spatio-temporelle d’un
composite de sous-systèmes dont chacun peut recevoir une description dynamique assez précise
et comment l’amplification des erreurs associée au chaos à chaque niveau peut malgré tout
permettre la prévision d’un paramètre important de l’attracteur climatique (s’il existe) tel que
le réchauffement climatique et, au moins statistiquement, de l’ampleur de ses effets locaux, y
compris les évènements extrêmes.
La puissance des ordinateurs permet d’orienter les modélisations actuelles vers toujours plus
de réalisme. On est ainsi passé des modèles de bilan d’énergie qui prennent la Terre comme
un tout, à des modèles en boı̂te où de grands ensembles géographiques sont décrits au moyen
de quelques variables couplées, puis à des modèles spatio-temporellement résolus, les modèles
de circulation générale. Au départ, ceux-ci ne traitaient que l’un des composants, atmosphère
ou océan, considérant l’état de l’autre comme une donnée extérieure fonction du temps. Puis
ces deux composants ont été couplés et les modèles progressivement enrichis pour tenir compte
de la végétation, de la cryosphère (calottes glaciaires), de l’effet des gaz à effet de serre (GES)
d’origine anthropique, des poussières, etc.
Actuellement les projections vers le futur sont encore hasardeuses, même si elles concluent
toutes à un risque très élevé de réchauffement de grande ampleur. En tout état de cause, les
non-linéarités propres au système climatique sont, comme il a été déjà discuté dans le cas des
systèmes de définition plus simples, à l’origine de ces obstructions à la prédictibilité déterministe
nécessitant de prendre une perspective statistique. Elles peuvent également faire craindre des
effets paradoxaux puisque les réponses n’ont plus aucune raison d’être proportionnelles aux
sollicitations. Ainsi un refroidissement local pourrait être lié à un arrêt du Gulf Stream, lui-
même induit par le réchauffement global.
Il n’est cependant pas clair que la complexité croissante des modèles, améliorant sans doute

22
les prévisions, soit de nature à enrichir notre compréhension du problème et, par là, notre
maı̂trise d’une situation difficile si, comme le dit Thom, prédire n’est pas expliquer . D’autres
approches moins quantitatives sont possibles, reposant sur la séparation des échelles de temps,
faisant apparaı̂tre les sous-systèmes évoluant lentement (l’océan en particulier) comme des vari-
ables maı̂tresses, perturbées par l’effet des sous-systèmes rapides (principalement l’atmosphère),
soumis à des forçages dépendant du temps (insolation, GES). Mettant l’accent sur l’exigence
de robustesse des modèles, elles nous rapprocheraient des problématiques classiques en théorie
des bifurcations et du chaos déterministe.

5 Conclusion
Tout au long de ces pages j’ai essayé de montrer comment rendre compte du réel dans un
cadre déterministe et non-linéaire reposait sur la notion fondamentale de stabilité, conduisant
à définir les taux d’instabilités en termes d’exposants de Lyapunov. Les attracteurs décrivant
des régimes permanents réguliers, indépendants du temps, périodiques ou quasi-périodiques,
sont ainsi apparus comme des cas particuliers d’un cas général englobant aussi les attracteurs
étranges qui correspondent aux régimes chaotiques. Un point important sur lequel je n’ai peut-
être pas suffisamment insisté est celui de l’universalité des processus, elle-même découlant de
propriétés mathématiques certes un peu abstraites mais néanmoins générales. Bifurcations et
scénarios de transition vers le chaos reçoivent ainsi des interprétations qui ne dépendent pas de
la nature physique des systèmes qui en sont affectés et cela souvent juqu’au stade quantitatif.
Bien au delà de l’introduction de concepts à la beauté intrinsèque certaine (figure 22),
même s’ils n’échappent pas à des effets de modes (effet papillon, fractales), il m’apparaı̂t par-
ticulièrement important que les progrès théoriques aient conduit à des réévaluations précises
des obstructions à la prédictibilité. Celle-ci fonde le recours aux probabilités dans un contexte
déterministe et doit engendrer une réflexion profonde sur les pratiques de modélisation des
systèmes complexes. Ce qui est en jeu n’est autre, au bout du compte, que la nature bien
comprise du principe de précaution, simple expression de notre humilité face aux surprises en-
gendrées par des systèmes qui, du fait des non-linéarités, ne répondent pas nécessairement dans
le sens et dans les proportions attendus.

Figure 22: La grande vague au large de Kanagawa (Hokusai, c. 1830): l’instabilité génère une
hérarchie de structures de plus en plus petites illustrant la notion de cascade turbulente.

23
Tout au long de cet exposé je n’ai pas indiqué de références précises, préférant
orienter le lecteur qui voudrait en savoir plus dans cette perspective à con-
sulter le livre Instabilités chaos et turbulence (Éditions de l’École Polytechnique,
2004) (http://www.editions.polytechnique.fr) qui présente une abondante bibliogra-
phie raisonnée et dont la version anglaise actualisée est parue récemment (Insta-
bilities, chaos and turbulence, 2nd edition, Imperial College Press, 2010). D’autres
documents sont également téléchargeables sur ma page personnelle au LadHyX
(http://www.off-ladhyx.polytechnique.fr/people/pops/).

24

Vous aimerez peut-être aussi