Poly
Poly
Poly
Optimisation
Enseignement spécialisé
http://cas.ensmp.fr/∼petit/
MINES ParisTech
Année scolaire 2018-2019
TABLE DES MATIÈRES
2. Optimisation de trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1. Calcul des variations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.1. Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.2. Notions fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.3. Conditions nécessaires d’extrémalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2. Optimisation de systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.1. Problème aux deux bouts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.2. Contraintes finales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.3. Résolution numérique du problème aux deux bouts . . . . . . . . . . . . . . . . 35
2.2.3.1. Calcul du gradient par l’adjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.2.4. Principe du minimum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3. Champs d’extrémales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3. Exercices 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.1. Fonction de Rosenbrock . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2. Gradient et Hessien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3. Ensemble minimisant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4. Vitesse de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.5. Conditions de Wolfe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.6. Suite de Fibonacci . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.7. Moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4. Exercices 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1. Algorithme de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2. Algorithme du gradient conjugué . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.3. Formule SR1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4. Invariance d’échelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.5. Calcul automatique du gradient par parcours de graphe [25] . . . . . . . . . . . . 48
5. Exercices 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.1. Fonction de mérite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2. Dual d’une programmation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.3. Méthode de sous-ensembles actifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.4. Pénalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
TABLE DES MATIÈRES 3
6. Exercices 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.1. Optimisation de plan de vol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.2. Forme d’une chaı̂ne pesante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.3. Investissement optimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
1.1.5. Notions avancées. — On introduit ici la notion de convexité forte qui per-
mettra de prouver la convergence de certains algorithmes de résolution de problèmes
d’optimisation.
Définition 9. — Soit E ⊂ Rn convexe. On dit que E 3 x 7→ f (x) ∈ R est fortement
convexe (α-convexe) si et seulement si ∃α > 0 tel que ∀(x, y) ∈ E × E
x+y f (x) + f (y) α 2
f ≤ − kx − yk
2 2 8
4 CHAPITRE 1. OPTIMISATION CONTINUE DE DIMENSION FINIE
1.1.6. Vitesses de convergence. — Soit une suite de valeurs (xk )k∈N convergeant
vers x∗ . On dira que cette suite converge linéairement, si ∃r ∈]0, 1[ tel que pour k
suffisamment grand
kxk+1 − x∗ k ≤ r kxk − x∗ k
On dira que cette suite converge super linéairement, si pour k suffisamment grand
lim kxk+1 − x∗ k / kxk − x∗ k = 0
k→∞
On dira que cette suite converge de façon quadratique si ∃M > 0 tel que, pour k
suffisamment grand
2
kxk+1 − x∗ k ≤ M kxk − x∗ k
Définition 11. — On appelle condition d’Armijo (de paramètre c1 ) sur les itérations
(xk , pk , lk )k∈N l’inéquation
(2) f (xk + lk pk ) ≤ f (xk ) + c1 lk ∇f (xk )T pk
Définition 12. — On appelle condition de courbure (de paramètre c2 ) sur les itéra–
tions (xk , pk , lk )k∈N l’inéquation
(3) ∇f (xk + lk pk )T pk ≥ c2 ∇f (xk )T pk
Dans la suite on utilisera les deux conditions précédentes pour des paramètres
0 < c1 < c2 < 1. La première condition autorise des pas grands mais pas trop
(en pratique ceci évite les “rebonds” au cours des itérations). La deuxième condition
permet d’éviter les pas trop petits.
Définition 13. — On appelle conditions de Wolfe, les conditions (2) et (3) avec
0 < c1 < c2 < 1.
par récurrence par l’équation (7)), la condition de Lipschitz donne qu’il existe C > 0
tel que
∇2 f (xk + t(x∗ − xk )) − ∇2 f (xk ) ≤ C x∗ − xk t
On peut donc déduire
C ∗ 2
(4) −∇f (xk ) − ∇2 f (xk )(x∗ − xk ) ≤ x − xk
2
10 CHAPITRE 1. OPTIMISATION CONTINUE DE DIMENSION FINIE
où lk peut être choisi par les conditions de Wolfe (par exemple).
On va chercher à introduire les modifications du gradient entre les itérations (cour-
bure) dans la mise à jour de B k . Le nouveau modèle autour de l’estimation xk+1
est
1
Rn 3 p 7→ mk+1 (p) = f (xk+1 ) + ∇f (xk+1 )T p + pT B k+1 p ∈ R
2
On va faire coı̈ncider le gradient de mk+1 avec celui de f qu’on a évalué aux itérations
xk et xk+1 . Par construction, ∇mk+1 (0) = ∇f (xk+1 ). D’autre part, l’autre gradient
recherché ∇mk+1 (−lk pk ) = ∇f (xk+1 ) − lk B k+1 pk . On utilise désormais les notations
sk = xk+1 − xk ,
y k = ∇f (xk+1 ) − ∇f (xk )
On a donc à résoudre
B k+1 sk = y k
Il n’est pas toujours possible de résoudre cette équation dont l’inconnue B k+1 est à
rechercher symétrique définie positive. Une condition nécessaire et suffisante pour que
cette équation possède une solution symétrique définie positive est que
(sk )T y k > 0
ce qui peut se réécrire (xk+1 − xk )T (∇f (xk+1 ) − ∇f (xk )) > 0. On pourra éventuelle-
ment chercher à imposer cette condition au moment de la recherche linéaire. Cette
condition sera toujours remplie si la fonction f est α-convexe. Les conditions de Wolfe
garantissent que cette condition est remplie. En effet on a
∇f (xk+1 )T sk ≥ c2 ∇f (xk )T sk
d’après la condition de courbure. Ceci implique bien (sk )T y k ≥ (c2 −1)lk ∇f (xk )T pk >
0 car on utilise un algorithme de descente.
1.2.5.2. Approximation optimale du Hessien. — Notre but était de définir B k+1 , on
sait qu’on peut toujours le faire par les conditions de Wolfe. On va maintenant rendre
ce choix unique. En l’état actuel on a n(n+1)
2 coefficients et n équations ainsi que n
inégalités (provenant de la contrainte que l’approximation doit être positive définie).
On peut montrer que ces inégalités possèdent des solutions. Pour définir de manière
unique notre solution, on va chercher à s’approcher le plus possible de B k au sens
d’une certaine norme. Introduisons à cet effet la définition suivante.
Définition 14 (Norme de Frobenius (pondérée)). — Soit A = (aij )i=1...n,j=1...n
une matrice de Mn (R) et W une matrice définie positive de Mn (R). On définit kAkW
la norme pondérée de Frobenius par l’égalité suivante
kAkW = W 1/2 AW 1/2
F
2
P
où kAkF = i=1...n,j=1...n aij
Dans notre cas, nous allons choisir W matrice de pondérations telle que W y k = sk ,
1
par exemple W −1 = 0 ∇2 f (xk + τ lk pk )dτ qui est la moyenne du Hessien le long du
R
La précédente formule sera utilisée comme mise à jour du Hessien dans l’algorithme
DFP (Davidson, Fletcher, Powell).
1.2.5.3. Calcul itératif de l’inverse de l’approximation du Hessien. — La quantité que
nous utilisons dans les algorithmes de quasi-Newton est l’inverse du Hessien (B k )−1
et non le Hessien lui-même. Pour calculer cet inverse de manière efficace on peut
utiliser la formule issue de la proposition suivante
où γ k = 1/((y k )T sk ).
Théorème 13. — Soit Rn 3 x 7→ f (x) ∈ R deux fois différentiable telle que la ligne
de niveau L = x/f (x) ≤ f (x0 ) est convexe et qu’il existe des constantes positives
m et M telles que ∀z ∈ Rn et ∀x ∈ L
2 2
m kzk ≤ z T ∇2 f (x)z ≤ M kzk
L’algorithme 3 de BFGS converge vers l’unique minimum x∗ de f .
Une telle famille est libre. Un exemple d’une telle famille est donnée par une famille
de vecteurs propres orthogonaux de A.
1.2.6.1.1. Minimisation suivant les directions conjuguées. — Considérons une séquence
(13) xk+1 = xk + lk pk
où les suites (xk )k∈N et (pk )k∈N sont des suites de vecteurs de Rn et la suite (lk )k∈N
est une suite de vecteurs de R. On a alors
1 k 2 k T k
φ(xk+1 ) = φ(xk + lk pk ) = φ(xk ) + lk (xk )T Apk − bT pk lk + l (p ) Ap
2
Cette expression définit une fonction convexe de la variable lk . Son unique minimum
est obtenu pour
bT pk − (xk )T Apk (rk )T pk
(14) lk = = −
(pk )T Apk (pk )T Apk
où rk = r(xk ).
Théorème 15. — Quel que soit x0 ∈ Rn , la séquence générée par (13), où lk est
donné par (14) et où {p0 , p1 , ..., pn−1 } est une famille de n directions A-conjuguées,
avec A ∈ Mn (R) symétrique définie positive, atteint la solution x∗ de Ax = b en au
plus n étapes.
En multipliant à gauche cette égalité par (pk )T A il vient, pour tout k = 0, ..., n − 1,
(pk )T A(x∗ − x0 )
σk =
(pk )T Apk
1.2.6.1.2. Calcul des directions conjuguées. — On peut construire une base de vecteurs
propres orthogonaux car A est symétrique. Ces vecteurs sont par construction A-
conjugués et constituent un choix possible de directions conjuguées. Mais le calcul
de ces vecteurs est en général très coûteux en temps de calculs. En fait on peut cal-
culer les directions conjuguées au fur et à mesure qu’on en a besoin par la récurrence
suivante
pk = −rk + β k pk−1
qui s’interprète comme l’opposé du gradient au nouveau point altéré par la direction
précédente. Pour que pk et pk−1 soient des directions A-conjuguées on choisit
(rk )T Apk−1
(15) βk =
(pk−1 )T Apk−1
La direction pk est également A-conjuguée avec les directions pi pour i = 0, .., k − 2.
Pour démontrer ce résultat on utilise la proposition suivante
On peut calculer
(pi )T Apk = −(pi )T Ark + β k (pi )T Apk−1 = −(pi )T Ark
quel que soit i = 0, ..., k − 2. En conclusion, les directions {p0 , ..., pk } sont A-
conjuguées.
On peut en outre simplifier les expressions (14) et (15) en tirant partie des pro-
priétés de la famille (ri )i=0,...,k−1 avec rk . On obtient alors
(rk )T rk (rk+1 )T rk+1
(16) lk = k T k
, β k+1 =
(p ) Ap (rk )T rk
Une fois ces simplifications effectuées on aboutit à l’algorithme suivant
1.2. MÉTHODES NUMÉRIQUES DE RÉSOLUTION SANS CONTRAINTES 17
Il est possible d’améliorer cette vitesse de convergence par une technique de précon–
ditionnement utilisant un changement de variable linéaire, on se reportera à [25] pour
un exposé de ces techniques.
1.2.6.2. Application aux fonctions non linéaires. — Lorsque la fonction à minimiser
n’est pas quadratique, on ne peut pas calculer explicitement le pas optimal le long
d’une direction de descente et la notion de “résidu” n’a pas le même sens. On peut
néanmoins transposer les idées de l’algorithme du gradient conjugué de la manière
suivante
2.
xk+1 = xk + lk pk
rk+1 = ∇f (xk+1 )
2
rk+1
β k+1 = 2
krk k
pk+1 = −rk+1 + β k+1 pk
18 CHAPITRE 1. OPTIMISATION CONTINUE DE DIMENSION FINIE
xk+1 = xk + lk pk
rk+1 = ∇f (xk+1 )
(rk+1 )T (rk+1 − rk )
β k+1 = 2
krk k
pk+1 = −rk+1 + β k+1 pk
Les conditions de Wolfe peuvent également être utilisées mais n’assurent pas la
décroissance.
Une condition suffisante par le théorème des fonctions implicites est que le Jacobien
∂c
partiel ∂x est inversible au voisinage des points tels que c(x, u) = 0. On supposera
cette condition réalisée.
Ce problème revient à chercher un minimum de f sur l’ensemble {(x, u) = c−1 (0)}
qui est un fermé de Rn+m . Cet ensemble ne contient pas de voisinage de tous ses
points. Ainsi, tout déplacement infinitésimal autour d’un des points de son bord ne
1.3. PRINCIPES DE L’OPTIMISATION SOUS CONTRAINTES 19
et à la limite
−1
∂f ∂f ∂c ∂c ∂f
(18) =− +
∂u c=0 ∂x ∂x ∂u ∂u
On remarquera que la variation de f en maintenant la contrainte est différente de la
variation de f sans maintenir la contrainte (dernier terme de la précédente équation).
On peut étendre la définition 6 à notre cas.
Définition 16. — On dit que (x∗, u∗) est un point stationnaire de f sous la con-
∂f
trainte égalité c si c(x∗ , u∗ ) = 0 et ∂u (x∗ , u∗ ) = 0.
c=0
∗ ∗
Définition 17. — On dit que (x , u ) ∈ Rn × Rm est un minimum (optimum) local
de f sous la contrainte c(x, u) = 0 si ∃ > 0 tel que f (x∗ , u∗ ) ≤ f (x, u), ∀(x, u) tel que
k(x, u) − (x∗ , u∗ )k ≤ et c(x, u) = 0 (on dit que c’est un minimum local strict si la
précédente inégalité est stricte). On dit que (x∗ , u∗ ) est solution locale du problème
min f (x, u)
c(x,u)=0
On suppose que (17) et (21) possèdent des solutions (x∗ , u∗ ) et (x̄, ū) respectivement.
∗
On note ∂f ∗ ∗
∂c le vecteur composé des limites des valeurs (f (x̄, ū) − f (x , u ))/δci où
δci ∈ R correspond à la i-ème composante de δc.
Définition 19. — On appelle cône convexe engendré par {vi , i = 1, ..., k} un ensem-
ble de vecteurs de Rn , l’ensemble des combinaisons linéaires à coefficients positifs ou
nuls de vecteurs de {vi , i = 1, ..., k}.
La notion de cône convexe est utilisée pour caractériser les solutions de notre prob-
lème d’optimisation.
Proposition 10. — Si x∗ est solution du problème (22) alors (sous les hypothèses du
paragraphe §1.4.1.1) ∇f (x∗ ) est dans le cône convexe engendré par {−∇ci (x∗ ), i ∈ I}
où I = {i = 1, .., m tel que ci (x∗ ) = 0} (famille des indices des contraintes actives).
Démonstration. — On va montrer que si ∇f (x∗ ) n’appartient pas au cône convexe
engendré par {−∇ci (x∗ ), i ∈ I} alors x∗ n’est pas minimum. D’après le lemme 1 de
Farkas, ∃h ∈ Rn tel que ∇f (x∗ )T h < 0 et −∇ci (x∗ )T h ≥ 0 pour tout i ∈ I. En
suivant cette direction pour δ ∈ R il vient
f (x∗ + hδ) = f (x∗ ) + ∇f (x∗ )hδ + ◦(δ 2 )
ci (x∗ + hδ) = ci (x∗ ) + ∇ci (x∗ )T hδ, ∀i ∈ I
Donc pour δ suffisamment petit
f (x∗ + hδ) < f (x∗ )
ci (x∗ + hδ) ≤ c(x∗ ) ≤ 0, ∀i = 1, ..., m
Tout voisinage de x∗ contient un meilleur point que x∗ qui n’est donc pas minimum.
Dans le cas où les contraintes Rn 3 x 7→ ci (x) ∈ R ne sont pas affines, il peut
ne pas exister de direction donnée par le lemme de Farkas utilisable pour trouver un
meilleur point que x∗ . La courbure des contraintes peut gêner une telle construction.
D’autre part, le cône convexe engendré par les contraintes actives peut dégénérer (la
frontière peut ressembler à un point de rebroussement).
1.4. CONTRAINTES INÉGALITÉS 23
Néanmoins, il est possible d’étendre le résultat précédent dans le cas général sous
une hypothèse supplémentaires souvent peu gênante en pratique.
Théorème 17. — [Conditions KKT] Considérons un point x∗ ∈ Rn . Notons la
famille des indices des contraintes actives en x∗ par I = {i ∈ {1, .., m tel que ci (x∗ ) = 0}}.
Supposons que x∗ est un point régulier pour ces contraintes, c.-à-d. que la famille
(∇ci (x∗ ))i∈I est une famille libre (on dit que les contraintes sont qualifiées). Sous ces
hypothèses, si x∗ est une solution du problème (22) alors ∇f (x∗ ) appartient au cône
∗
convexe engendré
Pm par (−∇c i (x ))i∈I . En conséquence, ∃λi ≥ 0, i = 1, ..., m tels que
∇f (x ) = − i=1 λi ∇ci (x ) et λi ci (x∗ ) = 0 pour i = 1, .., n.
∗ ∗
Ce résultat (admis, voir [23]) est une condition nécessaire aux points réguliers
candidats pour être minimum. On calculera par les multiplicateurs de Lagrange la
combinaison linéaire qui permet d’exprimer le gradient du coût en fonction des gra-
dients des contraintes actives et on vérifiera que les multiplicateurs sont bien tous
positifs ou nuls.
En pratique on travaillera souvent avec des fonctions convexes et on exploitera le
résultat suivant
Proposition 11. — Soit le problème d’optimisation minc(x)≤0 f (x) où les fonctions
f et c sont différentiables et convexes. On suppose qu’il existe x ∈ Rn tel que c(x) < 0.
Les conditions KKT du théorème 17 sont nécessaires et suffisantes pour que x∗ soit
un minimum global.
Lorsque (x∗ , λ∗ ) n’est pas un point selle, l’égalité précédente n’est pas vraie, on n’a
que
sup inf L(x, λ) ≤ inf sup L(x, λ)
λ∈L x∈X x∈X λ∈L
on parle de “saut de dualité” lorsque les deux résultats sont différents.
On appelle problème primal le problème minx∈X maxλ∈L L(x, λ), et problème dual
maxλ∈L minx∈X L(x, λ).
Les deux théorèmes suivants permettent de relier notre problème d’optimisation
sous contraintes inégalités à l’existence d’un point selle.
Théorème 19 (Optimalité du point selle). — Si (x∗ , λ∗ ) est un point selle de
m
L sur X × (R+ ) , alors x∗ est solution du problème (22).
m
Démonstration. — Par définition, quel que soit λ ∈ (R+ ) on a
∗ ∗ ∗
L(x , λ) ≤ L(x , λ )
Ceci peut s’écrire
(26) (λ − λ∗ )T c(x∗ ) ≤ 0
En exprimant cette inéquation pour λ = 0 et λ = 2λ∗ il vient
T
(λ∗ ) c(x∗ ) = 0
Il vient aussi en exprimant le produit scalaire (26) composante par composante
c(x∗ ) ≤ 0
D’autre part, L(x∗ , λ∗ ) ≤ L(x, λ∗ ) pour tout x ∈ X. On a donc
T
f (x∗ ) ≤ f (x) + (λ∗ ) c(x)
1.4. CONTRAINTES INÉGALITÉS 25
Donc pour tout x ∈ X tel que c(x) ≤ 0 on a f (x∗ ) ≤ f (x) ce qui achève la démon-
stration.
Sans hypothèse sur la régularité des f et de c, on peut énoncer un théorème analogue
aux conditions KKT du théorème 17.
Théorème 20 (existence de point selle). — Supposons X 3 x → 7 f (x) ∈ R et
Rn 3 x 7→ c(x) ∈ Rm convexe. Soit x∗ solution du problème (22) tel que les con-
traintes actives en x∗ sont qualifiées, alors il existe un point selle (x∗ , λ∗ ) du La-
grangien (24).
Démonstration. — La suite des valeurs (f (xk ))k ∈ N est décroissante. Elle est stricte-
ment décroissante aux indices tels que αk > 0. On ne revisite jamais exactement
l’ensemble W k car xk+1 est le minimum sous les contraintes d’indices éléments de
W k . La deuxième propriété découle du raisonnement suivant. Si pk 6= 0 le point
xk est mis à jour. Soit le pas αk utilisé dans cette mise à jour est égal à 1 et on a
obtenu un minimiseur donc pk+1 = 0, soit αk < 1 et on doit rajouter une contrainte
à l’ensemble W k . Au bout de l < n étapes, W k contient n contraintes linéairement
indépendantes. Le problème est complètement contraint et on a donc pk+l = 0.
Cet algorithme est également très utilisé pour résoudre une successions de prob-
lèmes où une fonction coût non linéaire est approchée par son développement de
1.4. CONTRAINTES INÉGALITÉS 27
Taylor au deuxième ordre et où les contraintes sont approchées par leur développe-
ment de Taylor au premier ordre. De tels algorithmes SQP (successive quadratic
programming) sont détaillés dans [16, 15].
CHAPITRE 2
OPTIMISATION DE TRAJECTOIRES
Dans ce qui suit nous nous intéressons à l’espace vectoriel normé X = D des
fonctions continues à dérivées continues R ⊃ [t1 , t2 ] −→ Rn , n < ∞ muni de la
norme X 3 u 7→ kukD = maxt∈[t1 ,t2 ] ku(t)k + maxt∈[t1 ,t2 ] ku̇(t)k. On considère les
30 CHAPITRE 2. OPTIMISATION DE TRAJECTOIRES
fonctionnelles du type
Z t2
X 3 u 7→ J(u) = L(u(t), u̇(t), t)dt ∈ R
t1
où L est une fonction R2n+1 3 (u, v, t) 7→ L(u, v, t) ∈ R continue possédant des
dérivées partielles continues.
On cherchera à minimiser J sous certaines contraintes, en restreignant l’ensemble
des fonctions considérées à X ⊃ U = {u ∈ X, u(t1 ) = a, u(t2 ) = b} où a et b sont
des réels donnés. C’est un ensemble convexe. On cherchera à résoudre le problème
suivant
Démonstration. — Nous allons montrer que, autour de (x∗ , u∗ ), pour toute variation
admissible du premier ordre [t1 , t2 ] 3 (δx, δu)(t) ∈ Rn ×Rm telle que k(δx, δu)kX×U =
◦(δ) satisfaisant la contrainte ẋ = f (x, u, t), la variation δJ de la fonctionnelle J est
du deuxième ordre, c.-à-d. δJ = ◦(δ).
La stationnarité de (x∗ , u∗ , λ∗ ) pour J¯ est caractérisée par 3 relations. La première
est
∂
ϕ(x(t2 ), t2 )δx(t2 ) − λ(t2 )T δx(t2 )
∂x(t2 )
Z t2
∂ ∂
+ ( L(x, u, t)δx + λ(t)T f (x, u, t)δx + λ̇(t)T δx)dt = ◦(δ)
t1 ∂x ∂x
∂ ∂
(33) L(x, u, t) + λ(t)T f (x, u, t) + λ̇(t)T = 0
∂x ∂x
∂
(34) λT (t2 ) = ϕ(x(t2 ), t2 )
∂x(t2 )
(36) ẋ = f (x, u, t)
34 CHAPITRE 2. OPTIMISATION DE TRAJECTOIRES
Supposons que les équations (33), (34), (35) et (36) soient vérifiées. Calculons la
variation de la fonctionnelle J.
Z t2
∂ ∂ ∂
δJ = ϕ(x(t2 ), t2 )δx(t2 ) + L(x, u, t)δx + L(x, u, t)δu dt
∂x(t2 ) t1 ∂x ∂u
∂
= ϕ(x(t2 ), t2 )δx(t2 )
∂x(t2 )
Z t2
∂ ∂
+ −λ(t)T f (x, u, t)δx(t) − λ̇(t)T δx(t) − λ(t)T f (x, u, t)δu(t) dt
t1 ∂x ∂u
∂
= ϕ(x(t2 ), t2 )δx(t2 ) − λ(t2 )T δx(t2 ) + λ(t1 )T δx(t1 )
∂x(t2 )
Z t2
T ˙ ∂ ∂
+ λ(t) δx(t) − f (x, u, t)δx(t) − f (x, u, t)δu(t) dt
t1 ∂x ∂u
= ◦(δ)
2.2.1. Problème aux deux bouts. — Les conditions de stationnarité (33) (34)
de la proposition 15 forment, avec les contraintes (36) et (29), le problème “aux deux
bouts” suivant
ẋ = f (x, u)
x(t1 ) = x0
∂H
λ̇T = − (x, u, λ)
(37) ∂x
∂
λT (t2 ) = ϕ(x(t2 ), t2 )
∂x(t 2)
∂H
où u est solution de =0
∂u
∂
Le long de l’extrémale on élimine u des équations en résolvant les équations ∂u H = 0.
Le problème aux deux bouts a pour seules inconnues les fonctions R ⊃ [t1 , t2 ] 3 t 7→
x(t) ∈ Rn et R ⊃ [t1 , t2 ] 3 t 7→ λ(t) ∈ Rn . Le système d’équations différentielles et de
conditions limites (37) ne définit pas un problème de Cauchy à cause de la séparation
des conditions de bords aux deux extrémités du domaine. En outre, la condition
portant sur λ dépend de l’inconnue x. C’est un problème difficile à résoudre en
général.
Proposition 16 (Conservation de l’Hamiltonien). — Lorsque L ne dépend pas
explicitement de t, les conditions de stationnarité constituant le système d’équations
différentielles aux deux bouts (37) impliquent
d
H=0
dt
Démonstration. — Un calcul direct donne
d ∂H ∂H ∂H ∂H
H= ẋ + 0 + λ̇ = f (x, u) − f (x, u) = 0
dt ∂x ∂λ ∂x ∂x
2.2. OPTIMISATION DE SYSTÈMES DYNAMIQUES 35
Le système d’équations que nous devons résoudre dans le problème aux deux bouts
implique
∂f ∂f
δ̇x(t) = (x, u, t)δx(t) + (x, u, t)δu(t) + ◦(δ)
∂x ∂u
T T
∂f ∂L
λ̇(t) = − (x, u, t) λ(t) − (x, u, t)
∂x ∂x
T
∂
avec comme conditions limites δx(t1 ) = 0, λ(t2 ) = ∂x(t 2 ) ϕ(x(t 2 ), t2 ) . Le lemme 3
de l’adjoint donne
Z t2 Z t2
∂L T ∂f ∂H
δJ = (x, u, t) + λ (x, u, t) δu(t)dt+◦(δ) = (x, u, λ, t)δu(t)dt+◦(δ)
t1 ∂u ∂u t1 ∂u
2.2.4. Principe du minimum. — Les calculs des variations menés jusqu’à présent
ont consisté à calculer la variation de la valeur d’une fonctionnelle de deux variables
x, u lorsque u était libre et x était liée à u par une équation différentielle ẋ = f (x, u, t).
Maintenant nous allons considérer que la variable u n’est pas libre mais contrainte.
Nous regardons maintenant les problèmes de la forme
La preuve du résultat que nous allons énoncer est difficile. Nous nous contentons
d’en suggérer quelques grandes lignes. Comme nous l’avons vu, la variation de la
valeur de la fonctionnelle s’écrit en fonction d’une variation δu,
Z t2
∂H
(45) δJ = δu(t)dt
t1 ∂u
Autour d’un optimum (x∗ , u∗ ), il ne doit pas exister de variation admissible, com-
patible avec les contraintes C(u, t) ≤ 0 fournissant une variation négative δJ. En
reprenant le point de vue utilisé dans la présentation des conditions de Karush,
Kuhn et Tucker du théorème 17, on doit avoir que le gradient de chaque contri-
bution ponctuelle dans l’intégrale (45) doit être dans le cône convexe des contraintes
actives. Autrement dit, pour tout t ∈ [t1 , t2 ], il existe un vecteur R ⊃ [t1 , t2 ] 3 t 7→
µ(t) ∈ Rl dont les composantes vérifient µi (t) = 0 si Ci (x(t), u(t) < 0, µi (t) ≥ 0 si
Ci (x(t), u(t) = 0 tel que
∂H ∂C
= −µT
∂u ∂u
Plus formellement le principe du minimum s’énonce
Grâce à cette propriété, il est possible d’établir une équation aux dérivées partielles
satisfaites par J . On suppose disposer d’un champs d’extrémales E pour le problème
d’optimisation (46). Considérons (x, t) ∈ E. Il correspond à la fonction de retour
optimal évaluée en ce point J 0 (x, t) une commande optimale R ⊃ [t, t2 ] 3 l 7→ u0 (l) ∈
Rm que nous supposerons (pour simplifier) unique. Pour toute commande u proche
de u0 on peut calculer une fonction coût à partir de la trajectoire R ⊃ [t1 , t2 ] 3 t 7→
x(t) ∈ Rn (proche de la trajectoire optimale) issue de x(t1 ) = x0 . Il vient
J(x, u) ≥ J (x0 , t1 )
avec
(47) min J(x, u) = J (x0 , t1 )
u
EXERCICES 1
Montrer que x∗ = (1, 1)T est l’unique minimum local de cette fonction et qu’à ce
point le Hessien est défini positif.
EXERCICES 2
(sk − Hk yk )(sk − Hk yk )T
Hk+1 = Hk +
(sk − Hk yk )T yk
48 CHAPITRE 4. EXERCICES 2
EXERCICES 3
5.4. Pénalisation
Considérer le problème pénalisé à barrière logarithmique
(54) min x − µ log x − µ log(1 − x)
x∈]0,1[
provenant du problème
(55) min x
x≥0,x≤1
Résoudre (54), vérifier analytiquement que lorsque µ tend vers 0, x∗ (µ), l’optimum
obtenu, converge vers la solution de (55).
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
0 100 200 300 400 500 600 700 800 900
EXERCICES 4
Dans le même temps, la banque lui verse des intérêts proportionnels à son capital
restant à la banque x(t). L’équation régissant ses économies est donc
ẋ(t) = αx(t) − r(t).
1. Montrer que le problème se ramène à trouver un point stationnaire de
Z T p
J(x) = exp(−βt)2 αx(t) − ẋ(t)dt
0
avec x(0) = S, x(T ) = 0.
2. Écrire l’équation de Euler-Lagrange equation correspondante et montrer que
αx(t) − ẋ(t) = r(0) exp(2(α − β)t).
3. Supposer que α > β > α/2. Résoudre l’équation précédente. Montrer que la
politique optimale de dépense est donnée par
1 − exp((α − 2β)(T − t))
x(t) = S exp(2(α − β)t) .
1 − exp((α − 2β)T )
4. Représenter graphiquement cette fonction. Commenter.
CHAPITRE 7
sous la contrainte
ẋ = −x4 + u
Figure 2. Quadrilatère.
9 1
2 4 4
1
6 2 9 3
5 3
1 6 5 5 4
5 4 3
A A' B
4 3 1 2 4 4 3 3
3 3 1 3
2 2
7 5 3 8
3 1
Sens de déplacement
situation, comment peut-il augmenter son profit sans que vous puissiez rien y
faire?
où x est une fonction deux fois dérivable définie sur [0, 1] telle que
x(0) = ẋ(0) = x(1) = 0, ẋ(1) = 1
1. Former l’équation d’Euler-Poisson correspondante.
2. Calculer x∗ extrémale du problème.
3. On veut montrer que x∗ fournit effectivement un minimum de la fonctionnelle.
Considérer
Z 1
J(x∗ + h) = (ẍ∗ (t) + ḧ(t))2 dt
0
où h est une variation admissible. En procédant à une double intégration par
partie, montrer que
J(x∗ + h) ≥ J(x∗ )
Conclure.
2. Montrer que
1
q(x) =
f (λ1 , ...λn , x)g(λ1 , ...λn , x)
avec
X x2i X 1 x2i
f (λ1 , ...λn , x) = λi P 2, g(λ1 , ...λn , x) = P 2
i=1,...,n i=1,...,n xi λ
i=1,...,n i i=1,...,n xi
62 CHAPITRE 7. EXERCICES ET PROBLÈMES COMPLÉMENTAIRES
7.14. Dualité
1. Considérer le problème (très simple)
min |x|
x∈R, x≥1
2. Considérer le problème
min cT x
n
x∈R ,
Ax = b,
x≥0
Montrer que son dual est
max −bT ν
(λ, ν)
AT ν − λ + c = 0
λ≥0
Préciser les dimensions de λ et ν. Peut-on simplifier cette formulation duale?
3. Soit A une matrice de taille m × n et b un vecteur colonne. On cherche x ∈ Rn
solution du problème
min cT x
Ax≤b
(
x si x ≥ 0
4. On note p : R → R+ tel que p(x) = , et P : Rm → Rm tel
0 sinon
p(x1 )
que P (x = (x1 , ..., xm )T ) = ..
l’opérateur de projection sur (R+ )m .
.
p(xm )
Établir, en utilisant les conditions Karush-Kuhn-Tucker, l’équivalence suivante
{λ = P (λ + ρφ(u)), ρ > 0 fixé}
λ ∈ (R+ )m
⇔ P T m
i φi (u)(µi − λi ) ≤ 0 pour tout µ = (µ1 , ..., µm ) ∈ (R+ )
6. Vérifier que si (u, λ) est point selle du Lagrangien, alors λ = P (λ + ρφ(u)) pour
un certain ρ, et que
L(u, λ) ≤ L(u + θ(v − u), λ)
pour tout v et pour tout θ ∈ [0, 1]. Faire le lien avec l’algorithme d’Uzawa.
7. En déduire, en utilisant un développement de Taylor que
∇J(u)T (v − u) + λT φ(v) ≥ 0
pour tout v.
En déduire la valeur de C 0 .
(c) montrer que Y 0 (1) = 0.
3. Parmi les extrémales, celle précédemment calculée, Y , réalise effectivement le
minimum de J.
(a) Montrer que J(Y ) = 0. On pourra pour cela utiliser une intégration par
parties en écrivant
Z 1
CY 0 (x)Y 0 (x)2k−1 − Y (x)2k dx
J(Y ) =
0
où T > 0 est un paramètre à choisir, montrer que pour T suffisamment grand,
la commande u(t) = ẋ(t)−ax(t)
b appartient à U et permet de rallier x0 à x1 .
2. Déduire de ce qui précède que si T fournit une solution admissible, alors T 0 > T
fournit aussi une solution admissible.
3. Considérer un temps t1 candidat à l’optimalité. On veut montrer que si deux
lois horaires [0, t1 ] 3 t 7→ u1 (t) et [0, t1 ] 3 t 7→ u2 (t) sont optimales alors elles
coincident.
(a) montrer que pour toute loi commande u, on a
Z t
x(t) = x0 exp(at) + exp(a(t − τ ))bu(τ )dτ
0
66 CHAPITRE 7. EXERCICES ET PROBLÈMES COMPLÉMENTAIRES
(b) en déduire
Z t1 Z t1
exp(−at)bu1 (t)dt = exp(−at)bu2 (t)dt
0 0
(c) former l’Hamiltonien du problème (on notera λ l’état adjoint). Déduire
du principe du minimum de Pontryagin que la ou les solutions optimales
sont données par
arg min λ(t)bu(t)
(d) former l’équation différentielle adjointe satisfaite par λ.
(e) montrer, par le lemme de l’adjoint, que
Z t1 Z t1
λ(t)bu1 (t)dt = λ(t)bu2 (t)dt
0 0
(f) déduire du principe du minimum de Pontryagin que λ(t)u1 (t) ≤ λ(t)u2 (t)
et que, d’après l’égalité précédente on a alors
λ(t)u1 (t) = λ(t)u2 (t)
presque partout. En déduire sous quelle condition on peut conclure
u1 (t) = u2 (t)
presque partout.
(g) dans le cas où x est un vecteur et u un scalaire, proposer une généralisa-
tion.
Destination
5
4 1
7 6
1 2 2
1 6
5 4
3 1
4
Figure 4. Graphe
où f est une fonction à valeurs dans R, continue par rapport à chacune de ses variables
et où a, b : R → R sont continues et vérifient en particulier la propriété suivante:
68 CHAPITRE 7. EXERCICES ET PROBLÈMES COMPLÉMENTAIRES
12
10
−2
−4
−1 −0.5 0 0.5 1 1.5 2 2.5 3
∀θ ∈ R, a(θ) < b(θ) (pour assurer la bonne définition de l’intervalle considéré dans
(60)). Le graphe d’une telle fonction f est représentée sur la figure 5.
On définit
(61) x? (θ) = argmin f (x, θ)
x∈[a(θ);b(θ)]
x0
O
V=x+M
1. On considère {y1 , ..., yn } un ensemble de n vecteurs (fonctions) indépendants
de H et {c1 , ..., cn } n scalaires (constantes). On note M l’espace engendré
par {yi }i=1...n et on considère V = {x ∈ H / < x, yi >= ci , ∀i = 1...n}.
Caractériser M ⊥ et en déduire que V est un espace affine translaté de M ⊥ .
2. En appliquant le théorème de projection ci-dessus à V , montrer qu’il existe un
unique x0 ∈ V solution de
min kxk
x∈V
⊥ ⊥
Pn
3. En utilisant le fait que (M ) = M , montrer que x0 = i=1 βi yi où les βi sont
solutions du système linéaire
β1 c1
(< yi , yj >)i=1...n,j=1...n ... = ...
βn cn
4. Application. On considère le problème suivant
Z 1
min u2 (t)dt
u∈L2 [0,1] 0
sous les constraintes
ẋ1 = x2 , ẋ2 = −x2 + u, x1 (0) = x2 (0) = 0, x1 (1) = 1, x2 (1) = 0
R1
– par intégration, montrer que x2 (1) = 0 exp(t − 1)u(t)dt et que x1 (1) =
R1
0
(1 − exp(t − 1))u(t)dt
– écrire les contraintes du problème ci-dessus sous la forme < u, y1 >=
c1 , < u, y2 >= c2 .
– en déduire que la solution du problème est u(t) = β1 y1 (t) + β2 y2 (t) où β1
et β2 sont solutions d’un système d’équations linéaires qu’on précisera.
70 CHAPITRE 7. EXERCICES ET PROBLÈMES COMPLÉMENTAIRES
où k·k désigne la norme Euclidienne. Montrer que ce problème est convexe. En
déduire que u réalise le minimum de la fonction objectif si et seulement si
AT Au = AT b
2. La matrice A étant non inversible, montrer que AT A ne l’est pas non plus.
3. Montrer que la matrice AT A est symétrique positive. On note λ1 , ..., λm ses m
valeurs propres non nulles, avec m < n. En déduire que
m
X
AT A = λi vi viT
i=1
i=1
λ i
2. On cherche à réécrire ce problème sous une forme canonique où les inégalités
sont juste des relations de positivité des inconnues. Pour cela, on introduit un
vecteur s de m inconnues positives ou nulles, et un vecteur y de 2n inconnues
positives ou nulles. Chaque composante i de z est exprimable sous la forme
zi = yi − yi+n , yi ≥ 0, yi+n ≥ 0
Montrer qu’on peut réécrire (63) sous la forme
1
min xT Qx + cT x
2
(64) Ax = b
−x≤0
avec
NT PN
y 02n×m
x= , Q= ,
s 0m×2n 0m×m
cT = fT N
01×m , A= MN Im
où N est une matrice qu’on explicitera.
3. Former le problème dual de (64) (on l’écrira comme un problème de maximisa-
tion sous contraintes). Pour cela, on formera le Lagrangien
1 T
L= x Qx + cT x + λT (b − Ax) − µT x
2
4. Montrer que les conditions de Karush-Kuhn-Tucker pour le problème général
(
min f (x)
d(x) = 0, e(x) ≤ 0
sont
X X
∗
∇f (x ) +
λ∗i ∇di (x∗ ) + µ∗i ∇ei (x∗ ) = 0
d(x∗ ) = 0
(65) e(x∗ ) ≤ 0
µ∗ ≥ 0
∗
µi ci (x∗ ) = 0
Ax = b
T
− Qx + A λ + s = c
(67) xi si = ε
x i ≥ 0
si ≥ 0
8. Montrer comment résoudre les conditions (67) par une méthode de Newton avec
projection. Former pour cela le Jacobien de la fonction à annuler. Former la
première itération de cet algorithme en exhibant le calcul de la direction et la
procédure de projection.
9. Comment atteindre la solution de (65)?
xT s
10. Une méthode itérative consiste à considérer = σ 2n+m , σ ∈]0, 1[.
Comment peut-on interpréter ce choix?
Ainsi, l’arc reliant P1 à P2 a une longueur 3, alors qu’il n’y a pas d’arc (on note que
la longueur est infinie) reliant P1 à P4 .
On cherche à établir une carte des plus courts chemins entre chaque point du
graphe. Pour résoudre ce problème on va utiliser la programmation dynamique.
1. Dessiner tous les arcs du graphe reliant les points P1 , P2 , P3 , P4 , P5 . De combien
d’arc le graphe est-il ainsi constitué?
74 CHAPITRE 7. EXERCICES ET PROBLÈMES COMPLÉMENTAIRES
d L d
Lf (0) = Af (0)
dt 2A dt
Z T
K
min (x(T ) − L/2)2 + y(τ )2 dτ
2 0
ẋ = cos θ
ẏ = sin θ
θ̇ = u
u ∈ [−α, α]
x(0) = 0, y(0) = 0, θ(0) = 0, y(T ) = 0, θ(T ) = 0
7.32. Convexité
Soit f : Rn → R une fonction quadratique strictement convexe. Soit x, y1 ,...,yn
des vecteurs de Rn .
Pn
1. Montrer que la fonction Rn 3 (λ1 , ..., λn ) 7→ f (x + i=1 λi yi ) est également
quadratique convexe.
2. Donner l’expression de son Hessien.
3. A quelle condition est-elle strictement convexe?
où γ est une fonction positive, régulière sur ] − ∞, 0[, telle que limx→0− γ(x) = +∞.
Par convention, γ(x) = +∞, pour x ≥ 0. On considère une suite strictement décrois-
sante (k ) de réels strictement positifs et on note, pour tout k
m
X
Jk (x) = J(x) + k p(x) , J(x) + k γ(gi (x))
i=1
On suppose que Jk admet un minimum sur Rn en un point unique noté xk .
1. Montrer que pour tout k, xk est dans l’intérieur de S.
2. Montrer que pour tout k on a
(71) Jk (xk ) ≤ Jk (xk+1 )
(72) Jk+1 (xk+1 ) ≤ Jk+1 (xk )
3. Déduire, par une combinaison linéaire des lignes qui précèdent, que
(73) J(xk+1 ) ≤ J(xk )
7.36. PSA: PROFIT SHARING AGREEMENT 79
1.4
reserves
profit cumulé
production
1.2
taux taxation
0.8
0.6
0.4
0.2
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
7.37. Convexité
1. Soit f une fonction convexe définie sur un ensemble convexe E. Montrer que
l’ensemble
Lt = {x ∈ E tel que f (x) ≤ t}
est un ensemble convexe.
7.39. LINÉARISATIONS SUCCESSIVES 81
2. Soit gi , i = 1, ..., k des fonctions convexes définies sur Rn . Montrer que l’ensemble
L = {x tel que gi (x) ≤ 0, i = 1, ..., k}
est un ensemble convexe.
3. Soit f et g deux fonctions convexes R → R. Montrer que h(x, y) = f (x) + g(y)
est convexe.
n
!2
Z 1 X
n k−1
min f (x), f (x) = t − xk t dt
x=(x1 ,...,xn )∈Rn −1 k=1
1. Montrer que x 7→ f (x) est convexe.
2. Former la condition de stationnarité
R 1 de f .
3. On considère le produit scalaire −1 g(t)h(t)dt =< g, h > de l’espace L2 ([−1, 1]).
Montrer que les conditions précédentes impliquent qu’un certain polynôme est
orthogonal à toutes les puissances tk , k = 0, ..., n − 1.
4. Montrer que le polynôme recherché est (polynôme de Rodrigues)
n! dn 2
R(t) = tn − (t − 1)n
(2n)! dtn
(on remarquera que R est de degré n − 1).
5. Quel est le polynôme de Rodrigues pour t3 ?
7.39. Solution d’un problème aux deux bouts par linéarisations successives
On cherche (voir [3]) à résoudre des problèmes d’optimisation de trajectoires généraux
1 t2 T
Z
1 T
(75) min x (t2 )F x(t2 ) + (x Qx + uT Ru)dt
ẋ = f (x, u) 2 2 t1
x(t1 ) = x0
où f est une fonction régulière, F et Q des matrices symétriques positives, R une
matrice symétrique définie positive, x0 , t1 , t2 des paramètres donnés.
Pour cela, on propose une méthode d’approximation linéaire successive des équa-
tions de la dynamique, sous l’hypothèse (qu’on supposera vérifiée) que ẋ = f (x, u)
peut s’écrire
(76) ẋ = A(x)x + B(x)u
avec A et B des fonctions (matricielles) régulières.
1. Former l’Hamiltonien du problème (75) en utilisant l’écriture (76).
82 CHAPITRE 7. EXERCICES ET PROBLÈMES COMPLÉMENTAIRES
d d
avec C(x, λ) = − dx (A(x)x)T − uT dx B(x)T
3. On introduit la séquence fonctionnelle (x[i] , λ[i] )i∈N
x[0] (t) = x0 , λ[0] (t) = F x0
avec, pour i ≥ 1,
d [i]
x = A(x[i−1] )x[i] − B(x[i−1] )R−1 B(x[i−1] )T λ[i]
dt
x[i] (t1 ) = x0
d [i]
λ = −Qx[i] + C(x[i−1] , λ[i−1] )λ[i]
dt
λ[i] (t2 ) = F x[i−1] (t2 )
Ecrire ce système sous une forme
d [i]
(77) z = Ā(z [i−1] )z [i]
dt
avec
x[i]
[i]
z =
λ[i]
Préciser Ā.
4. L’équation (77) définit un système linéaire instationnaire de la forme
d
y(t) = M (t)y(t)
dt
On introduit un état adjoint
d
(78) µ(t) = −M (t)T µ(t)
dt
Montrer, en utilisant le lemme de l’adjoint, que
y T (t2 )µ(t2 ) = y T (t1 )µ(t1 )
T
5. Soit δk = (0 . . . 0 1 0 . . . 0) où le 1 est en position k avec n + 1 ≤ k ≤ 2n, avec
n = dim x.
Montrer que la (k − n)-ième composante de λ[i] (t2 ) vaut y T (t1 )µk (t1 ) où µk
est la solution de (78) avec la condition finale µk (t2 ) = δk .
7.41. RÉSERVOIR CYLINDRIQUE 83
à F .
10. On note x0 = 21 (x1 + x2 ). Montrer que
y i = f (x0 ) + f 0 (x0 )(xi − x0 ) + i , i = 1, 2
avec
L 1 2
ki k ≤ x − x2
8
86 CHAPITRE 7. EXERCICES ET PROBLÈMES COMPLÉMENTAIRES
0.6 ε=0.05
ε=0.15
ε=0.3
ε=0.45
0.4
ε=0.6
0.2
−0.2
−0.4
−0.6
1 1
0 0
-1 x1 -1 x1
x2 x2
u u
-2 -2
0 1 2 3 0 1 2 3
Time [s] Time [s]
7.45. Résolution d’un problème aux deux bouts par inversion dynamique
On s’intéresse à la dynamique d’un véhicule équipé d’un moteur à courant continu
dont on cherche à le faire parcourir une distance D en un temps donné T en minimisant
l’énergie consommée, sous contraintes de vitesse initiale et finale nulles. Ce problème
de contrôle optimal s’écrit ainsi
Z T
(91) min (b1 u(t)v(t) + b2 u(t)2 )dt
ẋ = v 0
v̇ = a1 u − a2 v 2 − a0 − γ(x)
x(0) = 0, x(T ) = D
v(0) = v(T ) = 0
[31] H. J. Sussmann and J. C. Willems. 300 years of optimal control: from the brachys-
tochrone to the maximum principle. IEEE Control Systems Magazine, pages 32–
44, 1997. disponible sur http://www.math.rutgers.edu/˜sussmann.