PolycopideRadjefSonia PDF
PolycopideRadjefSonia PDF
PolycopideRadjefSonia PDF
net/publication/343474348
CITATIONS READS
0 7,115
1 author:
Sonia Radjef
Université des Sciences et de la Technologie d'Oran Mohamed Boudiaf
26 PUBLICATIONS 46 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Contribution à la résolution des problèmes difficiles et réels de divers secteurs par la mise en œuvre de nouvelles techniques et d’approches d’optimisation monocritère et
multicritère et d’apprentissage artificiel. View project
All content following this page was uploaded by Sonia Radjef on 06 August 2020.
Optimisation :
Cours et exercices
Présenté par :
Introduction Générale 1
1
2
Bibliographie 118
Introduction Générale
1
La programmation mathématique est aujourd’hui une branche particulièrement
active des mathématiques appliquées et il y-a, à cela, de nombreuses raisons.
La première est peut-être le nombre, la variété et l’importance de ses appli-
cations que ce soit dans les sciences de l’ingénieur ou dans d’autres domaines
des mathématiques appliquées. Sans prétendre être exhaustif, on peut citer :
– En recherche opérationnelle : optimisation des systèmes technico-économiques,
planifications, problèmes de transport, d’ordonnancement, de gestion
des stocks, etc . . .
– En analyse numérique : approximation, régression, résolution des systèmes
linéaires et non linéaires, méthodes numériques liées à la mise en oeuvre
des méthodes d’éléments finis, etc . . .
– En automatique : identification des systèmes, commande optimale des
systèmes, filtrage, ordonnancement d’atelier, commande de robots, etc
...
– En ingénierie : dimensionnement et optimisation des structures, concep-
tion optimale des systèmes techniques complexes tels que les systèmes
informatiques, réseaux d’ordinateurs, réseaux de transport,
de télécommunication, etc. . .
– En économie mathématique : résolution de grandes modèles macro-
économiques, modèles d’entreprise, théorie de la décision et théorie des
jeux.
Mais l’importance de la programmation mathématique vient aussi du fait
qu’elle fournit un cadre conceptuel adéquat pour l’analyse et la résolution de
nombreux problèmes des mathématiques appliquées.
Ce polycopié est destiné particulièrement aux étudiants de licence (L3) et de
master en mathématiques.
Il regroupe les deux volets de l’optimisation, à savoir optimisation sans
contraintes et optimisation avec contraintes. C’est un support de cours riche
d’exercices et d’exemples numériques. Il est composé de 5 chapitres répartis
en deux parties, l’une concerne l’optimisation sans contraintes et la seconde
concerne l’optimisation avec contraintes. Dans le premier chapitre, on rap-
pelle brièvement quelques notions mathématiques utiles pour la suite du
cours. Le chapitre 2 et 3 sont consacrés à l’optimisation sans contraintes ; dans
le premier, on présentera les conditions d’optimalité, les conditions d’exis-
tence et d’unicité, dans le cas d’un problème non linéaire sans contraintes.
Puis, on développera les algorithmes les plus utilisés pour résoudre ce type de
problèmes. Quand aux quatrième et cinquième chapitres, ils sont consacrés
à la théorie et aux algorithmes de résolution d’un problèmes non linéaires
2
soumis à des contraintes.
Chaque chapitre est clotûré par un ensemble d’exercices. Les divers exer-
cices accompagnent le document afin d’assimiler les notions plus théoriques
vues en cours. Les solutions de certains de ces exercices feront l’objet d’un
prochain polycopié.
3
Première partie
4
Chapitre 1
Concepts et Considérations
Théoriques
1.1 Introduction
Dans ce chapitre, on donne quelques rappels sur l’algèbre linéaire et la
programmation mathématique. On rappelle tout d’abord les propriétés essen-
tielles des formes quadratiques, ainsi que la notion des ensembles et fonctions
convexes.
5
1.2 Vecteurs et matrices 6
De même pour
A11 A12 x1 b1
A= ,x = ,b = ,
A21 A22 x2 b2
l’équation Ax = b peut alors s’écrire :
A11 x1 + A12 x2 = b1 ,
A21 x1 + A22 x2 = b2 .
|JB | = m, JB ∪ JN = J, JB ∩ JN = ∅,
n
X X X
Ax = aj x j = aj x j + aj x j
j=1 j∈JB j∈JN
= A(I, JB )x(JB ) + A(I, JN )x(JN )
= A B xB + A N xN .
où les coefficients aij sont des réels. Les nombres b1 , b2 , · · · , bm sont appelés
les membres libres du système (1.1) ou les seconds membres. En posant
x1 b1
x2 b2
A = (aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n), x = .. , b = .. ,
. .
xn bm
Ax = b. (1.2)
Définition 1.3.1. Le système linéaire (1.2) est dit de rang complet en lignes
si rang(A) = m, m ≤ n, et de rang complet en colonnes si rang(A) =
n, m ≥ n.
m k
D= D11 D21 m , m + k = n.
D21 D22 k
Si D > 0 (D ≥ 0), alors les sous-matrices principales D11 et D22 sont définies
positives (non négatives). D’une manière générale, toute sous-matrice prin-
cipale d’une matrice définie positive (non négative) est aussi définie positive
(non négative).
1.5 Éléments d’analyse convexe 13
x1 = x0 + α1 d, x2 = x0 + α2 d,
où α1 , α2 ∈ R+ . Donc
pour tout λ ∈ [0, 1]. Comme S est un ensemble convexe, λx1 + (1 − λ)x2 ∈ S.
D’où
(λx1 + (1 − λ)x2 , λα1 + (1 − λ)α2 ) ∈ epif,
ce qui implique que epif est convexe.
Supposons, maintenant, que epif est convexe, et soient x1 , x2 ∈ S. On a
(x1 , f (x1 )), (x2 , f (x2 )) ∈ epif . D’après la convexité de epif , on a
Donc
f (λx1 + (1 − λ)x2 ) ≤ λf (x1 ) + (1 − λ)f (x2 )
pour tout λ ∈ [0, 1]. D’où f est convexe.
est convexe. Cependant, son comportement sur le bord peut être arbitraire-
ment complexe. Minimiser de telles fonctions est en général impossible. Cette
remarque nous mène à nous restreindre à la classe de fonctions semi-continues
inférieurement.
S = {x ∈ Rn |Ax ≤ b} ,
cT x −→ max, x ∈ S.
Une autre manière de caractériser les rayons extrêmes d’un polyèdre est
donnée par le théorème suivant :
S = {x ∈ Rn |Ax ≤ b}
1.8 Exercices
Exercice 1.8.1. Soit A ∈ Mn (R) telle que AT A = AAT . On suppose qu’il
existe p ∈ N tel que Ap = 0.
a) Montrer que AT A = 0.
b) En déduire que A = 0.
Exercice 1.8.2. Soit A ∈ Mn (R). Montrer que la matrice AT A est diagonali-
sable à valeurs propres positives.
Exercice 1.8.3. – Soit A une matrice carrée réelle d’ordre n et S = AT A.
Montrer que S est symétrique semi-définie positive.
– Réciproquement, montrer que pour toute matrice S symétrique posi-
tive, il existe une matrice A carrée réelle de format n telle que S = AT A.
A t-on l’unicité de A ?
– Montrer que S est définie positive si et seulement si A est inversible.
– Montrer que rang(A) = rang(S).
Exercice 1.8.4. 1. Soit A ∈ Rm×n et b ∈ Rm . Utiliser la définition de la
convexité pour montrer que l’ensemble S = {x ∈ Rn : Ax ≥ b} est un
ensemble convexe.
1.8 Exercices 21
2. Pour chacune des propositions suivantes, dire si elle est juste ou fausse :
– L’ensemble S ⊂ Rn est dit fermé quand tout point de S est un point
frontière.
– Si S ⊂ Rn est ouvert alors S est convexe.
Exercice 1.8.5. Etudier la convexité des fonctions suivantes :
1. f1 (X1 , X2 ) = 10X1 + 10X2 + 100 − X12 − 2X1 X2 − X22
2. f2 (X1 , X2 ) = X12 + 2X1 X2 + 100X1 + 100X2
3. f3 (X1 , X2 ) = X1 eX1 +X2 , X1 , X2 ≥ 0.
4. f (X1 , X2 , X3 ) = 3X12 + 2X22 + X32 − 2X1 X2 − 2X1 X3 + 2X2 X3 − 6X1 −
4X2 − 2X3
Exercice 1.8.6. Etudier la nature des formes quadratiques suivantes :
1. z = X12 + X22 ;
2. z = (X1 + X2 )2 ;
3. z = X12 − X22 .
Exercice 1.8.7. Calculer la jacobienne de la fonction f définie de R2 dans R3
et pour tout (x, y) de R2 , on a :
f (x) = 3x21 + 2x22 + x23 − 2x1 x2 − 2x1 x3 + 2x2 x3 − 6x1 − 4x2 − 2x3 .
22
2.1 Formulation mathématique d’un problème d’optimisation 23
Remarque 2.2.1. Les maxima locaux et globaux sont définis de manière si-
milaire. Notons que x0 est un maximum local (respectivement global) de la
fonction f sur l’ensemble Rn si x0 est un minimum local (respectivement
global) de la fonction (−f ) sur Rn .
2.2 Minima locaux et globaux 25
Remarque 2.2.3. Le problème (2.2) peut aussi admettre une infinité de solu-
tions optimales, comme dans la figure suivante :
2.3 Théorèmes généraux d’existence 26
Remarque 2.2.4. Dans le cas d’une fonction objectif convexe, il n’y a pas de
distinction entre minimum local et global : tout minimum local est également
global, comme l’établit le théorème suivant :
Théorème 2.2.1. Soit f : S ⊆ Rn → R une fonction convexe définie sur un
ensemble convexe S. Alors, tout minimum local est également un minimum
global. Si f est strictement convexe, alors il existe au plus un minimum global
de f .
Or
xk ∈ S(c) ⇒ f (xk ) ≤ c, ∀k.
D’où
+∞ = lim f (xk ) ≤ c < +∞.
k→∞
D’où
f (x∗ ) = inf f (x).
x∈S
2.4 Caractérisation des solutions optimales 28
min f (x)
x∈Rn
D’où
dg(0)
= dT ∇f (x0 ) = 0.
dα
Comme d est choisi arbitrairement, alors
∇f (x0 ) = 0.
Définition 2.4.1. Les points x0 tels que ∇f (x0 ) = 0 sont appelés points
critiques (ou stationnaires) de f .
α2 T 2
f (x0 + αd) − f (x0 ) = α[∇f (x0 )]T d + d ∇ f (x0 )d + o(α2 ).
2
2.4 Caractérisation des solutions optimales 30
o(α2 )
lim =0
α→0 α2
entrainent
dT ∇2 f (x0 )d ≥ 0
ce qui démontre que ∇2 f (x0 ) est une matrice semi-définie positive.
f (x) = −x4 , x ∈ R.
Le théorème qui suit établit une condition suffisante pour qu’un vecteur
soit un minimum local, si f est deux fois continûment différentiable.
On aura alors
o(θ2 )
0 0 0 0 2 1 T 2 0
f (x + l) − f (x ) = f (x + θd) − f (x ) = θ d ∇ f (x )d + 2 .
2 θ
Comme
dT ∇2 f (x0 )d > 0
et
o(θ2 )
lim= 0,
θ→0 θ 2
minf (x).
x∈R
On a
0 2
f (x) = 0 ⇔ 2xe−x = 0 ⇔ x = 0,
et
00 2 2
f (x)|x=0 = 2e−x − 4x2 e−x |x=0 = 2 > 0.
Le point x0 = 0 est un minimum local de f .
On peut remarquer que le point x0 = 0 est un minimum global de f .
2.5 Étude de quelques exemples 32
sur R2 .
On a ∂f
∂x1
= 2x1 − 2x2 + 1 = 0
∇f (x) = 0 ⇔
∂f
= 2x2 − 2x1 = 0
∂x2
Les équations n’étant pas compatibles, il s’ensuit alors que le problème posé
n’a pas de solution. Le maximum de f n’existe pas non plus, puisque la
condition nécessaire du premier ordre est la même que pour le minimum.
Exemple 2.5.3. Soit
sur R2 .
Cherchons les points stationnaires
∂f
∂x1 = 2x1 − 2x2 + 1 = 0 −1 1
∇f (x) = 0 ⇔ ⇒ x1 = , x2 = .
∂f 4 4
∂x2
= −2x2 − 2x1 = 0
2.6 Exercices 33
−1 1
Calculons le hessien de f au point x0 = ( 4 4
)
∂ 2f ∂ 2f ∂ 2f ∂ 2f
= 2, = = −2, = −2.
∂x21 ∂x1 ∂x2 ∂x2 ∂x1 ∂x22
Donc
2 0 2 −2
∇ f (x ) = = M,
−2 −2
où
M1 = 2 > 0; M2 = det M = −8 < 0
Le hessien n’est pas semi-définie positif. Il s’ensuit alors que le point x0 =
( −1
4
1
4
) ne constitue pas un minimum de f .
−1 1 1
f( , ) = − > −1 = f (0, 1).
4 4 8
2 2
Exemple 2.5.4. Soit f (x) = f (x1 , x2 ) = e−x1 −x2 à minimiser sur R2 .
On a
−x2 −x2
∂f
∂x1 = −2x1 e 1 2 = 0
⇒ x1 = x2 = 0.
∂f −x21 −x22
∂x2
= −2x2 e =0
D’autre part, au point x0 = (0, 0), on a
∇2 f (x0 ) < 0.
2.6 Exercices
Exercice 2.6.1. Soit f : Rn → R.
a) Démontrer que si f est convexe, alors tout minimum local est global.
b) Supposons que f est une forme quadratique. Démontrer une condition
nécessaire et suffisante pour que f soit strictement convexe.
c) Déterminer les valeurs de a, b et c telles que la fonction
f (x, y, z) = x2 + 2axy + by 2 + cz 2 ,
f (x) = x3 + ax2 + bx
admette :
1. un point maximum local au point x = −1 et un point minimum
local au point x = +1.
2. un point maximum local au point x = +1 et un point minimum
local au point x = 0.
Exercice 2.6.2. Soit ϕ la fonction définie sur R par
b−x x−a
f (x) ≤ f (a) + f (b), ∀x ∈ [a, b].
a−x x−b
(b) Montrer que
f (b) − f (a)
f 0 (a) ≤ ≤ f 0 (b).
b−a
(d) Supposons que f est deux fois différentiable. Utiliser le résultat de
(c) pour montrer que f 00 (a) ≥ 0 et f 00 (b) ≥ 0
2.6 Exercices 35
3.1 Introduction
Comme la stationnarité de f est une condition nécessaire d’optimalité,
pratiquement toutes les méthodes de minimisation sans contrantes dans Rn
consistent à rechercher un point x∗ stationnaire (∇f (x∗ ) = 0).
Ce problème est équivalent à la résolution d’un système d’équations non
linéaires :
∂f
gi (x) = (x) = 0, i = 1, · · · , n.
∂xi
On peut chercher à résoudre directement ce système, ce qui conduit à la
méthode de Newton. Cependant, il faut se rappeler que cette méthode présente
quelques inconvénients :
i) la divergence de la méthode, si le point de départ est trop éloigné de
x∗ ,
ii) elle exige que la fonction f soit deux fois continûment différentiable
et exige le calcul des dérivées secondes.
C’est pourquoi, les méthodes les plus couramment utilisées sont basées sur un
principe général assez simple, mais dont l’analyse des conditions de conver-
gence sont complexes : on les appelle méthodes de descente. Il s’agit de
procédures itératives de construction d’une suite de points {xk } telle que la
fonction f décroı̂t d’une itération à une autre, i.e.,
37
3.2 La méthode du gradient 38
où
o(k4xk)
lim = 0.
k4xk→0 k4xk
xk+1 = xk + θk dk , k = 0, 1, · · · (3.4)
où Dk est une matrice symétrique définie positive. Dans ce cas, la direction
dk s’écrit
dk = −Dk ∇f (xk )
et la condition de descente
T
∇f (xk ) dk < 0
peut s’écrire
T
− ∇f (xk ) Dk ∇f (xk ) < 0
a) Règle du minimum
Elle consiste à choisir, à l’itération k, le pas θk minimisant la fonction f
dans la direction dk , c-à-d
θk = s, k = 0, 1, · · · (3.11)
La règle du pas constant est la plus simple. Toutefois, si le pas est grand, il
y-a risque de divergence et quand le pas est trop petit, la vitesse de conver-
gence serait très lente. Ainsi la règle du pas constant n’est utile que pour les
problèmes où la valeur appropriée du pas est connue ou peut être facilement
calculée.
Exemple 3.2.1. On considère la fonctionnelle quadratique suivante :
– On calcule le gradient de f :
16x1 + 4x2
∇f (x) = .
4x1 + 10x2
– On calcule la valeur du gradient au point x(0) :
(0) 200
∇f (x ) = .
140
– On calcule le point x(1) :
(1) (0) (0) (0) 10 (0) 200 10 − 200α(0)
x = x −α ∇f (x ) = −α = .
10 140 10 − 140α(0)
– On cherche la valeur optimale de α(0) . Pour ce, on calcule f (x(1) ) puis
on détermine α(0) permettant de minimiser f (x(1) ). On a
f (x(1) ) = 8(10 − 200α(0) )2 + 4(10 − 200α(0) )(10 − 140α(0) ) + 5(10 − 140α(0) )2
= −59600 + 1060000α(0)
= ϕ(α(0) ).
On calcule α(0) tel que ϕ0 (α(0) ) = 0, d’où α(0) = 0.056.
– On trouve ainsi
(1) −1.20
x = .
2.16
– On cherche de la même façon tous les points x(k) jusqu’à ce que le
critère d’arrêt soit satisfait.
Exemple 3.2.2. Utiliser la méthode de la plus forte pente puis de la plus forte
pente accélérée (p=2) pour trouver le minimum de la fonction f définie de
R2 dans R comme suit :
1
f (x1 , x2 ) = x41 − 2x31 + x22 − 3x1 − x1 x2 .
6
On a 3
4x1 − 6x21 − 3 − x2
∇f (x1 , x2 ) = 1 .
x − x1
3 2
0 0
Soit x = . On trouve la direction de la plus forte pente
0
0 3
−∇f (x ) = .
0
3.2 La méthode du gradient 43
On minimise donc
On trouve
λ0 ≈ 0.582.
Notre premier pas nous conduit donc au point
1 0 0 1.746
x = x − λ0 ∇f (x ) = .
0
Pour la plus forte pente accélérée, après avoir fait 2 pas de la plus forte
pente standard, nous devons faire un pas accéléré, en utilisant la direction
x2 − x0 . On minimise donc la fonction
On trouve
λ2 = 1.172
et on atteint le point
3 0 2 0 2.05
x = x + λ2 (x − x ) = ,
6.137
ce qui donne
−1
xk+1 = xk − θk ∇2 f (xk ) ∇f (xk ), k = 0, 1, · · ·
en supposant que ∇2 f (xk ) est une matrice définie positive. Dans le cas où
∇2 f (xk ) n’est pas définie positive, une certaine modification est nécessaire.
L’idée de la méthode de Newton peut s’expliquer de deux manières :
– Lors de la minimisation d’une fonction sur Rn , le problème consistait
à chercher un point x∗ ∈ Rn tel que
∇f (x∗ ) = 0.
g(x∗ ) = ∇f (x∗ ) = 0
où
g1
.. ∂g(xk ) ∂gi (xk )
g = . , = .
∂x ∂xj 1≤i,j≤n
gn
En tenant compte du fait que
∂g(xk )
= ∇2 f (xk ) = H(xk ),
∂x
la formule itérative (3.13) s’écrit alors
−1
xk+1 = xk − ∇2 f (xk ) ∇f (xk ), k = 0, 1, · · ·
(3.14)
3.3 La méthode de Newton 45
Remarque 3.3.1. Lorsque le hessien ∇2 f (xk ) n’est pas défini positif, la di-
rection de déplacement dk dans la méthode de Newton peut ne pas être une
direction de descente. En effet, l’expression
T T 2 −1
∇f (xk ) dk = − ∇f (xk ) ∇ f (xk ) ∇f (xk ) = −dTk ∇2 f (xk )dk
Itération 2 : On a
−1
2
F (x(1) ) = 3
2
−1
et
3 1 2
∇F (x(1) ) = 3 1 −1
1 1 1
d’où
5
4
x(2) = 3
4
.
1
Itération 3 : On a
1
8
F (x(2) ) = 1
8
0
et
5/2 3/2 2
∇F (x(2) ) = 5/2 3/2 −1
1 1 1
d’où
9
8
x(3) = 7
8
.
1
On a ainsi
1
32
F (x(3) ) = 1
32
.
0
Deuxième cas : On choisit x(0) = 0 0 0 .
Itération 1 : On a
3
F (x(0) ) = −1
−3
et
0 0 0
∇F (x(0) ) = 0 0 −1 .
1 1 1
3.4 La méthode du gradient conjugué 48
T
car r(k) d(k−1) = 0.
• On a x(k+1) = x(k) + ρk d(k) et r(k) = Ax(k) − b d’où
d’où
r(k+1) = r(k) + ρk Ad(k) .
• Montrons que
T
r(k) Ad(k−1)
βk = (k−1)T (k−1)
d Ad
et T
r(k) r(k)
βk =
r(k−1)T r(k−1)
sont équivalentes.
On a
r(k) − r(k−1) = ρk−1 Ad(k−1)
3.4 La méthode du gradient conjugué 51
donc
T T r(k) − r(k−1)
r(k) Ad(k−1) = r(k)
ρk−1
d’où
T r(k) − r(k−1)
βk = r(k)
ρk−1 d(k−1)T Ad(k−1)
or T
r(k) r(k) T T
ρk = (k)T (k) ⇒ ρk−1 d(k−1) Ad(k−1) = r(k−1) r(k−1)
d Ad
d’où T
T r(k) − r(k−1) r(k) r(k)
βk = r(k) =
r(k−1)T r(k−1) r(k−1)T r(k−1)
car
T
r(k) r(k−1) = 0, r(k) = d(k) − βk−1 d(k−1)
et r(k) est orthogonal à toutes les directions d(0) , d(1) , · · · , d(k) .
On obtient ainsi la première coordonnée de l’itéré suivant X k+1 que l’on note
xk1 ; on peut, pour effectuer cette minimisation dans R, utiliser par exemple
la méthode de Newton dans R. On recommence ensuite en fixant la première
coordonnée à xk+1
1 et les n − 2 dernières comme précédemment. On minimise
sur la deuxième et ainsi de suite.
L’algorithme obtenu est :
Algorithme de relaxation
1. Initialisation Poser k = 0 et choisir X 0 ∈ Rn .
3.6 Exercices
Exercice 3.6.1. Considérons un problème de minimisation d’une fonction
donnée sous la forme suivante :
m
1X
f (x) = fi (x)2 ;
2 i=1
dTk .(Axk + b)
ρk = ,
dTk Adk
puis le vecteur
xk+1 = xk − ρk .dk .
1. Justifier le choix de ρk .
2. En supposant que Axk + b 6= 0, ∀k = 1, . . . , n − 1, exprimer xl , pour l =
1, . . . , n en fonction de x0 , (ρi , i = 0, . . . , n − 1) et (di , i = 0, . . . , n − 1).
3. Montrer que dTk Axk = dTk Ax0 , ∀k = 0, . . . , n − 1.
4. – Calculer dTk (Axn + b).
– Déduire que xn est la solution du système Ax = −b.
– Que peut-on dire sur la convergence de la méthode.
5. Appliquer l’algorithme du gradient conjugué pour résoudre le problème
d’optimisation sans contraintes suivant :
Exercice 3.6.5. Pour chacune des affirmations suivantes, spécifier si elles sont
vraies ou fausses. Justifier la réponse.
1. Soit f : Rn → R une fonction deux fois continûment différentiable et
soit xk tel que ∇2 f (xk ) est définie positive. Alors la direction de Newton
dN est une direction de descente pour f en xk .
2. Soit q : Rn → R telle que
1
q(x) = xT Qx + g T x + c,
2
n×n
avec Q ∈ R symétrique définie positive, g ∈ Rn et c ∈∈ R.
On suppose d1 , . . . , dn Q−conjuguées. Si Q = αI avec α > 0, alors
d1 , . . . , dn sont orthogonales.
3. Soient f : Rn → R et x∗ tel que ∇f (x∗ ) = 0 et ∇2 f (x∗ ) est semi définie
positive. Alors x∗ est un minimum local de f .
Exercice 3.6.6. Soit le problème d’optimisation sans contraintes suivant :
min f (x, y) = 3x2 + 3y 2 .
(x,y)∈R2
56
Chapitre 4
4.1 Introduction
Un problème de minimisation d’une fonction non-linéaire f sous contraintes
x ∈ S ⊂ Rn , où S est défini par une collection de m inégalités et r égalités,
se présente sous la forme suivante :
f (x) → min,
gi (x) ≤ 0, i = 1, m, (4.1)
hj (x) = 0, j = 1, r.
57
4.1 Introduction 58
x∗ = 4 1 , f (x∗ ) = 0.
x∗ = 6 0 , f (x∗ ) = 4.
f (x0 ) ≤ f (x), ∀x ∈ S.
Nous allons donner deux résultats très généraux d’existence d’une solution
optimale au problème (4.2).
f (x0 ) ≤ f (x), ∀x ∈ S.
4.2 Théorèmes généraux d’existence 60
f (x0 ) ≤ f (x), ∀x ∈ S.
min f = min f,
S S∩BR
B(x0 , ) = x ∈ S, kx − x0 k ≤ .
Considérons
Sα = x0 + αd, α ∈ [0, α] .
∀x ∈ Sα ∩ B(x0 , ) ∩ S, on aura
f (x0 ) ≤ f (x).
Soit
e] = α ∈ [0, α] /x0 + αd ∈ Sα ∩ B(x0 , ) ∩ S ,
[0, α
et
ϕ(α) ≥ ϕ(0), ∀α ∈ [0, α
e] .
4.3 Conditions d’optimalité 63
on obtient
0
ϕ+ (0) = [∇f (x0 )]T d ≥ 0.
La relation (4.4) est alors démontrée.
ne soit pas vide ou ne soit pas réduit à un point isolé, on considérera que
rangA = m < n.
Proposition 4.3.1. Soit x une solution réalisable du problème (4.5).
Un vecteur d ∈ Rn est alors une direction admissible en x si et seulement si
Ad = 0. (4.6)
De plus, pour un tel vecteur, on a
x(α) = x + αd ∈ S, ∀α ∈ R.
En effet,
g(x(α)) = Ax(α) − b = Ax + αAd − b = 0, ∀(α 6= 0) ∈ R ⇔ Ad = 0.
Remarque 4.3.1. Pour α = 0, x(α) se réduit à x qui vérifie g(x) = 0.
Si donc x0 est un point minimum pour le problème (4.5), alors la fonction
ϕ(α) = f (x0 + αd) pour Ad = 0 admet aussi un minimum au point α = 0.
On en déduit que
dϕ(0)
= ϕT (0) = ∇f T (x0 )d = 0. (4.7)
dα
L’égalité (4.7) montre que le vecteur d est orthogonal au gradient de f au
point minimum x0 . Il est aussi orthogonal à chacun des vecteurs-lignes de la
matrice A :
AT1
AT
2
Ad = 0 ⇒ .. d = 0 ⇒ ATi d = 0, 1 ≤ i ≤ m.
.
ATm
où
g1 (x)
x = (x1 , x2 , · · · , xn ) ∈ Rn , λ = (λ1 , λ2 , · · · , λm ) ∈ Rm , g(x) = ..
.
.
gm (x)
∇x L(x0 , λ0 ) = 0.
En effet, on a
m
X m
X
0 0 0
∇x L(x , λ ) = ∇f (x ) + λ0i ∇gi (x0 ) 0
= ∇f (x ) + λ0i Ai = 0. (4.10)
i=1 i=1
D’autre part, la condition g(x0 ) = 0 réalisée pour une solution optimale est
équivalente à la condition de stationnarité du vecteur λ0 de la fonction de
Lagrange :
g1 (x0 )
∇λ L(x0 , λ0 ) = ... 0
= g(x ) = 0. (4.11)
0
gm (x )
4.3 Conditions d’optimalité 66
Si l’on note
∇x L(x, λ)
∇L(x, λ) = ,
∇λ L(x, λ)
alors la règle des multiplicateurs de Lagrange s’établit ainsi :
On en déduit que
m
X
(λ∗i − λ0i )Ai = 0.
i=1
λ∗ = λ0 .
4.3 Conditions d’optimalité 67
λ1 + 8λ2 = 0 ⇒ λ1 = −8λ2 .
On aura alors
3 −9 3
x1 = λ2 , x2 = λ2 , x3 = λ2 .
2 2 10
10
En utilisant (4.59), on déduit la valeur de λ2 = 63 . D’où
80 5 −5 1 40
λ1 = − , x1 = , x2 = , x3 = , f (x) = .
63 21 7 21 63
On trouve donc un seul vecteur x ∈ Rn qui réalise le minimum de f sur
l’ensemble des contraintes. En effet, la condition nécessaire de Lagrange est
aussi suffisante puisque la fonction considérée ici est strictement convexe. Par
conséquent,
1 40
x∗ = 5 −15 1 , f (x∗ ) = .
21 63
Ay = 0. (4.18)
0 dϕ 00 d2 ϕ
ϕ (0) = |α=0 , ϕ (0) = |α=0 ≥ 0.
dα dα2
Donc
dϕ dx(α)
|α=0 = ∇f T (x(α)) |α=0
dα dα
= y T ∇f (x(α)) |α=0
= y T ∇f (x0 )
d2 ϕ dx(α)
2
|α=0 = y T ∇2 f (x(α))
dα dα
T 2
= y ∇ f (x(α))y.
y T ∇2 f (x0 )y ≥ 0 (4.19)
D’autre part, on a
m
T
X
L(x, λ0 ) = f (x) + λ0 g(x) = f (x) + λ0i (ATi x − bi ).
i=1
On en déduit que
m
X
0
∇x L(x, λ ) = ∇f (x) + λ0i Ai
i=1
∇2x L(x, λ0 ) = ∇2 f (x).
y T ∇2x L(x0 , λ0 )y ≥ 0.
4.3 Conditions d’optimalité 70
f (x) → min,
(4.20)
x ∈ S = {x ∈ Rn , g(x) = Ax − b = 0}
f (x) ≥ f (x0 ).
D’autre part, on a
D’où −1
λ0 = − AD−1 AT (AD−1 c + b).
Par conséquent,
−1
x0 = D−1 AT AD−1 AT (AD−1 c + b) − D−1 c.
On a
2 0 0 −1
1 1 1 0
D = 0 6 0 ,c = 0 ,A = ,b = .
2 −1 5 1
0 0 8 0
ATi x0 ≤ 0, 1 ≤ i ≤ m, cT x0 = β ≤ 0. (4.24)
ATi x0 = βi < 0, 1 ≤ i ≤ m.
On construit le vecteur
αk λk
x = x + θx0 , 0 < θ < Pm .
| i=1 λi βi |
4.3 Conditions d’optimalité 74
On aura donc
ATi x = ATi x + θATi x0 = θβi < 0, 1 ≤ i ≤ m, i 6= k;
ATk x = ATk x + θATk x0 = αk + θβk < 0;
mais
m
X m
X
T
c x = λi ATi x = λk ATk x + λi ATi x
i=1 i=1,i6=k
m
X
= λk (αk + θβk ) + θλi βi
i=1,i6=k
m
X
= λk αk + θ λi βi .
i=1
Cette dernière relation contredit l’hypothèse du théorème pour un nombre θ
positif assez petit. Notre supposition sur un certain λk < 0 est donc fausse.
Le lemme de Farkas est ainsi démontré.
Remarque 4.3.3. Ici, la démonstration est faite pour m vecteurs linéairement
indépendants, où m < n. Ce lemme reste vrai, même pour m ≥ n. Il suffit
alors de prendre les λi égaux à zéro pour les vecteurs linéairement dépendants.
Définition 4.3.3. Tout vecteur x vérifiant les inégalités (4.26) est appelé
solution admissible ou plan du problème (4.25)-(4.26).
Définition 4.3.4. La contrainte gi (x) ≤ 0 sera dite active au point x, si
gi (x) = 0 et passive si gi (x) < 0.
On notera l’ensemble des indices actifs au point x par
Ia = Ia (x) = {i ∈ I : gi (x) = 0} .
ATi y ≤ 0, i ∈ Ia (x).
On aura donc
Ax − b + αAy ≤ 0.
Puisque
ATi x − bi + αATi y ≤ 0, i ∈ I,
ATi x − bi = 0, ∀i ∈ Ia (x),
ATi y ≤ 0, ∀i ∈ Ia (x).
ATi y ≤ 0, ∀i ∈ Ia (x).
Soit le vecteur x(α) = x + αy, où x est une solution admissible du problème
(4.25)-(4.26). On peut alors écrire
y T ∇2 f (x0 )y
y T ∇2 f (x0 )y < 0.
D’où X
(∇f (x0 ))T y = − λ0i ATi y = 0.
i∈Ia (x0 )
Donc
o(α2 )
0 2 1 T 2 0
f (x(α)) − f (x ) = α y ∇ f (x )y + < 0,
2 α2
si α est un nombre positif assez petit.
Cette dernière inégalité contredit le fait que x0 soit un minimum local de f .
Par conséquent, la matrice ∇2 f (x0 ) est définie non négative sur l’ensemble
(4.27).
4.3 Conditions d’optimalité 78
D’où m
X
0
f (x) − f (x ) ≥ − λ0i ATi (x − x0 ), ∀x ∈ S.
i=1
Puisque λ0i 0
= 0, pour i ∈ I\Ia (x ), alors on aura
X
f (x) − f (x0 ) ≥ − λ0i (ATi x − ATi x0 ),
i∈Ia (x0 )
d’où X
f (x) − f (x0 ) ≥ − λ0i (ATi x − bi ) ∀x ∈ S.
i∈Ia (x0 )
sur l’hyperplan
lT ∇gi (x0 ) = 0, i = 1, · · · , m. (4.35)
4.3 Conditions d’optimalité 82
S0 = 2πx22 + 2πx1 x2 .
V = πx22 x1 .
f (x1 , x2 ) = −πx22 x1
g(x1 , x2 ) = 2πx22 + 2πx1 x2 − S0 .
x1 ≥ 0, x2 ≥ 0. (4.39)
(4.38) admet une solution alors le problème posé aurait sa solution parmi les
solutions optimales locales du problème (4.38).
On définit la fonction de Lagrange :
∂L
(x, λ) = −πx22 + 2πλx2 = 0
∂x1
∂L
(x, λ) = −2πx2 x1 + 4πλx2 + 2πλx1 = 0
∂x2
∂L
(x, λ) = 2πx22 + 2πx1 x2 − S0 = 0
∂λ
4.3 Conditions d’optimalité 84
D’où r
S0
x1 = 4λ, x2 = 2λ, λ = ± .
24π
q
0 S0
Choisissons λ = 24π .
Calculons la matrice
2 0 0 −2πx2 + 2πλ0 0 −2πλ0
∇x L(x, λ ) = =
−2πx2 + 2πλ0 −2πx1 + 4πλ0 −2πλ0 −4πλ0
L’équation de l’hyperplan (4.37) est
∂g ∂g
( )y1 + ( )y2 = 4πλ0 y1 + 16πλ0 y2 = 0. (4.40)
∂x1 ∂x2
De (4.40), on obtient y1 = −4y2 .
La forme quadratique avec la matrice ∇2x L(x, λ) a la forme
y T ∇2x L(x, λ0 )y = −4πλ0 y1 y2 − 4πλ0 y22
et sur l’hyperplan (4.40), elle devient
y T ∇2x L(x, λ0 )y = 12πλ0 y22 > 0,
pour tout y = (y1 , y2 ) avec y2 6= 0.
Ainsi les conditions du théorème (4.3.11) sont vérifiées pour :
r r
0 S0 0 S0
x1 = 2 , x2 = .
6π 6π
Le cylindre avec ces paramètres aurait le plus grand volume.
Ia (x) = {i ∈ I, gi (x) = 0} .
x0 + λl ∈ D, ∀λ ∈ [0, δ1 ]. (4.44)
Comme gi (x0 ) < 0 et les fonctions gi (.) sont continues en x0 pour i 6∈ Ia (x0 ),
alors il existe δ2 > 0 tel que
Enfin, comme
lT ∇gi (x0 ) < 0, i ∈ Ia (x0 ),
alors d’après le théorème 4.3.1, il existe δ3 > 0, tel que
x0 + λl ∈ S, ∀λ ∈ [0, δ],
4.3 Conditions d’optimalité 86
lT ∇gi (e
x) < 0, si gi (e
x) = 0,
et l un vecteur quelconque si gi (e
x) < 0.
Définition 4.3.8. Un vecteur l est appelé direction admissible au point x e par
rapport aux contraintes du problème (4.41), si il est une direction admissible
par rapport à chacune des contraintes gi (x) ≤ 0, 1 ≤ i ≤ m au point x e.
Ainsi, les directions admissibles par rapport aux contraintes du problème
(4.41) au plan xe sont décrites par les équations (4.43) si on change x0 par x
e.
Du théorème 4.3.12, on déduit la proposition suivante :
Proposition 4.3.2. Si x0 est un optimum local du problème (4.41), alors au
point x0 , il n’existe pas de directions admissibles du problème (4.41).
Théorème 4.3.13. Soit x0 un point de minimum relatif local du problème
(4.41) tel que les vecteurs
lT ∇2x L(x0 , λ0 )l ≥ 0,
∇f (x0 ) + m
P 0
Pr 0
i=1 λi ∇gi (x ) + j=1 µj ∇hj (x ) = 0,
(4.53)
λi gi (x0 ) = 0, i = 1, m.
4.3 Conditions d’optimalité 89
∇f (x0 ) + m
P 0
Pr 0
i=1 λi ∇gi (x ) + j=1 µj ∇hj (x ) = 0,
0
λi gi (x ) = 0, i = 1, m,
avec l > 0.
Posons
g1 (x1 , x2 ) = g(x1 , x2 );
g2 (x1 , x2 ) = −x1 ;
g3 (x1 , x2 ) = −x2 ;
x = (x1 , x2 ).
Le problème (4.54) devient :
f (x) → min,
g1 (x) = 0,
(4.55)
g2 (x) ≤ 0,
g3 (x) ≤ 0.
4.3 Conditions d’optimalité 90
De (4.59), on déduit
λ2 x1 = 0, (4.61)
λ3 x2 = 0, (4.62)
De (4.56) et (4.57), on a
√
λ2 = −x1 183 + λ1 , (4.63)
λ3 = −x2 18 + λ1 , (4.64)
4.3 Conditions d’optimalité 91
D’où
y1 = −y2 .
Au troisième plan pseudo-stationnaire, la forme quadratique (4.69) est
définie négative. Donc d’après le théorème 4.3.15, ce plan ne peut être
la solution du problème. La solution serait parmi les deux premiers
plans.
Les deux premiers plans vérifient le théorème 4.3.14 mais ne vérifient
pas le théorème 4.3.15.
La solution du problème sera trouvée en comparant les valeurs de la fonction
f. √
l2
Au premier plan, f (x∗ ) = − 16 , au second plan f (x∗ ) = − 363 l2 .
Donc le plan optimal est
x∗1 = 0, x∗2 = l .
4.4 Exercices
Exercice 4.4.1. Considérons le problème de recherche du point de la parabole
y = 15 (x − 1)2 le plus proche du point (x, y) = (1, 2), dans le sens de norme
Euclidienne.
1. Modéliser ce problème en un programme de minimisation avec contraintes ;
2. Trouver tous les points de Karush-Kuhn-Tucker (KKT),
3. Déterminer les points correspondant aux solutions optimales.
4.4 Exercices 93
f (x) −→ min
3x1 + 2x2 ≤ 6, x1 ≥ 0, x2 ≥ 0.
Exercice 4.4.10. Soit la fonction f (x) = f (x1 , x2 ) = x21 + x22 − 8x1 − 10x2 .
1) Quel est le point minimum global ?
2) Résoudre graphiquement le problème (P ) suivant :
f (x) −→ min,
3x1 + 2x2 ≤ 6, x1 ≥ 0, x2 ≥ 0.
4.4 Exercices 96
f (x, y) = x2 + y 2 + xy.
On note
D = {(x, y) ∈ R2 , x2 + y 2 ≤ 1 et x + y ≥ 1}.
– Montrer que f est strictement convexe sur R2 et qu’elle possède un
unique minimum sur D.
– En écrivant les relations de KKT, déterminer le point où f atteint son
minimum sur D.
Exercice 4.4.12. Soient m, n ∈ N∗ avec n ≥ 2, A ∈ Mn (R) une matrice
symétrique et définie positive, B ∈ Mm,n (R) et d ∈ Rn .
On considère la fonction f : Rn → R donnée par
1
f (x) = xT Ax − dT x, ∀x ∈ Rn
2
et l’ensemble des contraintes C
C = {x ∈ Rn : Bx = 0}.
Ax∗ − d + B T λ∗ = 0
Bx∗ = 0
Résoudre ce problème.
Exercice 4.4.16. Maximiser la fonction numérique f (x, y), sous la contrainte
g(x, y) = 0, lorsque :
1/ f (x, y) = xy, g(x, y) = x + 4y–16.
2/ f (x, y) = x2 y, g(x, y) = 2x2 + y 2 –3.
Exercice 4.4.17. Résoudre le problème suivant :
min x21 + x22 + x23 ,
x1 + x2 + x3 = 3,
2x1 − x2 + x3 ≤ 5
4.4 Exercices 98
le parallélépipède de volume maximal dont les arêtes sont parallèles aux axes.
Exercice 4.4.19. (Problème de Tartaglia) Décomposer le nombre 8 en deux
parties positives p1 , p2 de sorte que le produit de leur produit par leur
différence soit maximale.
Chapitre 5
xB = B −1 (b − RxR ).
min F (B −1 (b − RxR ), xR ),
(5.3)
xR ∈ Rn−m .
99
5.1 Méthode par élimination 100
On a si (x∗B , x∗R ) est solution optimale de (5.1), x∗R est solution optimale de
(5.3).
Exemple 5.1.1. On considère le problème suivant :
sin(x1 + x2 ) + x23 + 13 (x4 + x45 + x26 ) → min,
8x1 − 6x2 + x3 + 9x4 + 4x5 = 6,
3x1 + 2x2 − x4 + 6x5 + 4x6 = −4.
On obtient
x3 −1 6 − 8x1 + 6x2 − 9x4 − 4x5
xB = = B (b − RxR ) =
x6 −1 − 43 x1 − 12 x2 + 14 x4 − 32 x5
x1 = −x23 + x4 x3
x2 = x4 + x23 .
On définit
h(x4 , x3 ) = f (−x23 + x4 x3 , x4 + x23 , x3 , x4 ).
Le problème (5.4) devient un problème sans contraintes comme suit :
h(x) = x2 + (x − 1)3 .
q(xk , µk ) ≤ q(x, µk ),
d’où
m m
1 X 2 1 X 2
f (xk ) + g (xk ) ≤ f (x) + g (x) = f (x) (5.11)
2µk i=1 i 2µk i=1 i
alors m
X
gi2 (xk ) ≤ 2µk (f (x) − f (xk )). (5.12)
i=1
∗
Supposons que x est un point limite de {xk }, donc il existe une sous-séquence
K telle que
lim xk = x∗ .
k∈K,k→+∞
lim k = 0
k→∞
lim xk = x∗ ,
k∈K
(5.13)
lim −gi (xk )/µk = λ∗i , 1 ≤ i ≤ m,
k∈K
m
X gi (xk )
∇x q(xk , µk ) = ∇f (xk ) + ∇gi (xk ). (5.14)
i=1
µk
d’où m
X
k gi (xk )∇gi (xk )k ≤ µk (k + k∇f (xk )k) (5.16)
i=1
Quand k → ∞ pour k ∈ K, on a
d’où, comme µk → 0, on a
On obtient alors m
X
gi (x∗ )∇gi (x∗ ) = 0. (5.17)
i=1
5.2 Méthodes de pénalisation 107
et
g(xk )
λk = − ,
µk
on a alors comme dans (5.15) :
T −gi (xk )
A(xk ) λk = (∇gi (x)) = ∇f (xk ) − ∇x q(xk , µ) (5.19)
µk 1≤i≤m
D’où −1
lim λk = λ∗ = A(x∗ )AT (x∗ ) A(x∗ )∇f (x∗ ).
k∈K
Montrer que pour chaque séquence {µk }k telle que µk → 0, il existe une
séquence de minimums locaux x(µk ) qui convergent vers -1.
Solution :
On définit la fonction de pénalisation P (x, µ) comme suit :
1 1
P (x, µ) = x + ((x2 )− )2 + ((x + 1)− )2
2µ 2µ
avec
(x2 )− = max(0, −x2 ) = 0, ∀x,
(x + 1)− = max(0, −1 − x)
– Si x ≥ −1, alors (x + 1)− = 0. On a alors P (x, µ) = x.
– Si x < −1, alors (x + 1)− = −x − 1. On a alors P (x, µ) = x + 2µ
1
(x + 1)2 .
Dans les deux cas, on trouve que min P (x, µ) est atteint pour x → −1.
Exemple 5.2.3. Vérifier que les conditions de KKT du problème suivant :
min f (x),
l ≤ x ≤ u,
x ∈ Rn ,
P[l,u] ∇f (x) = 0,
f (x(k+1) ) ≤ f (x(k) ).
Dans le cas avec contraintes, on ne peut pas être sûr que x(k) reste sur l’en-
semble des contraintes C. Il est donc nécessaire de se ramener sur C, et ceci
grâce à une projection sur C, l’opérateur associé étant noté ΠC où C est
convexe fermé et non vide :
C : Rn → C
x → ΠC (x).
On obtient ainsi l’algorithme du gradient projeté, qui est identique à celui
du gradient à la projection près :
Initialisation :
k = 0, choix de x(0) et > 0.
Itération k :
Tant que le critère d’arrêt est non satisfait :
b(k+1) = x(k) − ρ(k) ∇f (x(k) )
x
x(k+1) = ΠC x
b(k+1)
k =k+1
Fin tant que
Théorème 5.3.1 (Convergence). Soit f une fonction de classe C 1 définie de
Rn dans R. On suppose que f est elliptique de dérivée lipschitzienne. Alors,
2α
si on choisit le pas ρ(k) dans un intervalle [β1 , β2 ] tel que 0 < β1 < β2 < M 2
et d’inégalité lipschitzienne
Ax = b
où Q est une matrice carrée de R d’ordre n × n, c un vecteur de Rn , A une
matrice de R d’ordre m × n et b un vecteur de Rm .
Les conditions de KKT de premier ordre nous donnent
∇x ( 12 xT Qx − cT x + λT (Ax − b)) = 0,
Ax = b,
Qx∗ − c + AT λ∗ = 0,
Ax∗ = b.
x → L(x, µ∗ , λ∗ ).
5.7 Exercices
Exercice 5.7.1. Expliquer si les problèmes suivants admettent des solutions
optimales :
min
x1 + x2 ,
x1 + x22 = 0,
2
(5.22)
0 ≤ x1 ≤ 1,
0 ≤ x2 ≤ 1.
min x1 + x2 ,
x2 + x22 ≤ 1, (5.23)
1
x1 + x2 = 3.
min x1 x2 ,
(5.24)
x1 + x2 = 2.
Exercice 5.7.2. Montrer que dans le problème de Fletcher, si on élimine x en
termes de y, alors la bonne solution du problème est obtenue en résolvant le
problème sans contraintes.
Exercice 5.7.3. Considérons le problème de recherche du point de la parabole
y = 51 (x − 1)2 le plus proche du point (x, y) = (1, 2), dans le sens de norme
Euclidienne.
1. Modéliser ce problème en un programme de minimisation avec contraintes ;
2. Trouver tous les points de Karush-Kuhn-Tucker (KKT),
3. Déterminer les points correspondant aux solutions optimales.
Exercice 5.7.4. Le problème de recherche de la plus courte distance entre
un point x0 ∈ Rn et l’hyperplan d’équation {x\Ax = b} où les lignes de
la matrice A sont linéairement indépendantes et b, un vecteur colonne de
taille n. Ce problème peut s’écrire comme un problème de programmation
quadratique :
min 12 (x − x0 )T (x − x0 ),
Ax = b.
– Montrer que le multiplicateur de Lagrange, à l’optimum est :
– Montrer que, dans le cas où A est un vecteur ligne, la plus petite dis-
tance entre x0 et l’hyperplan vaut :
kb − Ax0 k
d= .
kAk
Exercice 5.7.5. Considérons le problème de minimisation suivant :
1
min 1+x 2,
x≥1
Ecrire la fonction de pénalisation P (x, µ) associée à ce problème, puis montrer
que P (x, µ) est non bornée pour toute valeur positive de µ.
Exercice 5.7.6. On considère la fonctionnelle f définie sur R2 par : f (x, y) =
2x2 +3xy+2y 2 . On appelle Q le quadrant défini par : Q = x ≤ − 12 , y ≤ − 12 .
x ≥ 1.
Ecrire la fonction de pénalisation Q(x, µ) associée à ce problème, puis montrer
que Q(x, µ) est non bornée pour toute valeur positive de µ.
Exercice 5.7.9. Considérons le problème de minimisation suivant :
min x,
x2 ≥ 0,
x + 1 ≥ 0,
5.7 Exercices 117
où P[l,u] est l’opérateur de projetion sur [l, u]. Indication : L’opérateur de
projection du vecteur g ∈ Rn sur [l, u] est défini ainsi :
min(0, gi ), si xi = li ,
(P[l,u] g)i = gi , si xi ∈ [li , ui ],
max(0, gi ), si xi = ui ,
1. Montrer que le point (1, −1) est régulier et qu’il vérifie les conditions
de Karush-Kuhn-Tucker.
2. Pour k ≥ 1 entier et pour tout (x, y) ∈ R2 , on définit la fonction :
118
Bibliographie
119