Cours MOP 2019
Cours MOP 2019
Cours MOP 2019
A
Faculté des mathématiques et d’informatique
Département de Recherche Opérationnelle
M L
J K
Cours d’optimisation
multiobjectifs
2018-1019
Table des matières
2 Méthodes de scalaires 30
2.1 Méthode de pondération des fonctions objectif . . . . . . . . . . . . . . . . 30
2.1.1 Exemple pour la méthode de pondération . . . . . . . . . . . . . . 35
2.2 Méthode -contrainte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.2.1 Exemple pour la méthode -contrainte . . . . . . . . . . . . . . . . 39
2.3 Méthode hybride . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4 Série d’exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1
2.5 Corrigés des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
bibliographie 48
2
CHAPITRE 1
1.1 Introduction
Dans la plupart des problèmes du monde réel, il ne s’agit pas d’optimiser seulement
une seule fonction objectif (critère) mais plutôt d’optimiser simultanément plusieurs fonc-
tion (critères) et qui sont généralement conflictuels ou contradictoires. Dans les problèmes
de gestion de production, par exemple, il faut le plus souvent maximiser les bénéfices et
minimiser les coûts (Achat de matières premières, salaires, économiser l’énergie.....).
Cette philosophie de multiplicité d’objectifs où l’optimisation multiobjectifs dite en an-
glais ”multiobjective optimization” qu’on note souvent (M OP ) semble très raisonnable
et contribue efficacement à l’élaboration de nouveaux systèmes d’aide à la décision, qui
visent à faciliter la tâche des décideurs en anglais ”Decision Maker” qu’on note (DM )
devant des choix complexes, qui s’avèrent souvent être conflictuels.
Pour fixer les idées, supposons que vous vous apprêtiez à partir en voyage en Tunisie.
Vous pouvez partir à pied ou en auto-stop, économisant ainsi votre monnaie au détriment
1. Vilfredo Pareto(1848 -1923) un sociologue et économiste italien
3
de la durée, ou alors partir en première classe dans un avion sur une compagnie luxueuse,
profitant ainsi d’un temps de voyage minimum, au détriment de votre porte-monnaie. Ou
encore, vous pouvez trouver une combinaison intermédiaire (vélo, train puis bateau puis
voiture, etc.).
Où acheter une voiture, une voiture de haute gamme (puissante, confortable, chère...),
une voiture ordinaire( pas chère, non robuste....).
Exemple 1. Nous voulons acheter une voiture neuve, nous nous somme intéressés par
quatre marques VW Golf, Opel Astra, Ford Focus et Toyota Corolla. Notre décision est
accordée sur trois objectifs où critères à savoir
1. Prix d’achat qui à minimiser ;
2. Consommation (carburant) qui est aussi à minimiser ;
3. La puissance du moteur qui est souvent de type maximiser.
Ce simple exemple est un problème de décision qui contient 4 solutions alternatives avec
trois critères à optimiser. Les données de cet exemple sont regroupées dans le tableau
Type de voiture
Golf Opel Astra Ford Focus Toyota Corolla.
Prix en dinars(0.1 million) 16.2 14.9 14.0 15.2
Objectifs Consommation par Litre/100KM 7.2 7.0 7.5 8.2
puissance(KW) 66.0 62.0 55.0 71.0
Données de l’exemple 1
4
Figure 1.1 – L’espace des critères de l’exemple 1
meilleur choix) est entre Opel and Ford. Notons que, Golf et Toyota sont plus chers et
consomme trop par rapport a Ford et Opel.
En effet, ce problème d’aide à la décision peut ce formulé comme suit :
” min ” (f1 (x)
” min ” (f2 (x)
x∈S
Cette exemple illustre que le concept et la notion d’optimalité dans l’optimisation mul-
tiobjectif que nous allons voir dans la suite de ce chapitre.
5
Figure 1.2 – Un ensemble convexe
Remarque 1. Dans le cas d’une fonction objectif convexe, il n’y a pas de distinction
entre minimum local et global : tout minimum local est également global.
Définition 5. Soit la fonction f (x1 , x2 , ..., xn ) continue et admet des dérivés partiels du
premier ordre sur Rn , le gradient de f (x1 , x2 , ..., xn ) est le vecteur suivant :
δf δf δf
∇f (x1 , x2 , ..., xn ) = ( , , ..., , )
x1 x2 xn
Définition 6. Soit la fonction f (x1 , x2 , ..., xn ) continue et admet des dérivés partiels de
deuxième ordre sur Rn , le Hessien de f (x1 , x2 , ..., xn ) est une matrice n × n d’éléments
δ2f
δxi δxj
6
Le Hessien est donné par la matrice suivante :
! !
δ2 f δ2 f
6x1 2
∇2 f (x1 , x2 ) = δx1 δx1
δ2 f
δx1 δx2
δ2 f =
δx2 δx1 δx2 δx2
2 2
Tel que
7
– x = (x1 , x2 , ..., xn )T est le vecteur de n variables de décision.
– On pose F (x) = (f1 (x), f2 (x), ..., fp (x))T est le vecteur de p fonctions objectifs à
optimiser.
Où
fi : Rn → R, i = 1, 2, ..., p
x → fi (x)
F : S → Rp
x → F (x)
L’ensemble Z = F (S) s’appelle espace des critères où espace des objectifs.
La figure (Fig.1.3) montre l’espace de décision S avec 3 variables de décisions et l’espace
des objectif à 2 objectifs.
Remarque 2. .
8
1.2.5 Solution efficace et relation de dominance
A la fin du 19ème siècle, l’économiste Vilfredo Pareto formule le concept d’optima-
lité qui porte son nom (optimalité au sens de Pareto) , qui constitue les origines de la
recherche sur l’optimisation multiobjectifs où la notion d’optimalité dans l’optimisation
mono-objectif n’a aucun sens. En effet, elle n’existe aucune solution réalisable x qui fasse
diminuer un objectif sans augmenter dans le même temps au moins un autre objectif.
Cependant, dans la plupart des cas, l’optimum de Pareto n’est pas constitué d’une seule
solution mais d’un ensemble de solutions de ”meilleur compromis” appelées solutions effi-
caces ou solutions non-dominées.
Lorsque nous voulons résoudre un problème d’optimisation multiobjectifs, il s’agit de dé-
terminer un ensemble de solutions efficaces où l’ensemble optimale au sens de Pareto où
l’ensemble de solution non dominées.
Sans perte de généralités, considérons le problème d’optimisation multiobjectifs de type
minimisation qui s’écrit comme suit
(
” min ” F (x) = (f1 (x), f2 (x), ..., fp (x))T , p ≥ 2
(M OP )
gj (x) ≤ 0, j = 1, 2, ..., m
Pour mieux comprendre ce qu’est une relation de dominance, nous considérons l’exemple
suivant
2. Dans le maximisation cette relation devienne ≥
9
Exemple 3. Par exemple, pour le cas de maximisation, considérons les trois vecteurs
suivants :
5 3 3
z1 = −2 ; z2 = −3 ; z3 = −2
1 −2 1
Exemple 4. .
– Les points z1 , z2 et z3 ne sont pas dominés par n’importe quel autres points.
– z5 est dominé par z3 .
– z2 domine faiblement z4 et z5
(b) Si les deux fonctions f1 et f2 à maximiser, alors :
– Les points z1 et z5 ne sont pas dominés par n’importe quel autres points.
10
– z3 est dominé par z5 .
– z5 domine faiblement z4 et z2
Proposition 1. Les solution qui dominent les autres mais ne se dominent pas entre
elles sont appelées solutions non dominées où solutions optimales au sens de Pareto où
l’ensemble de solutions efficaces.
En d’autres termes, une x̂ ∈ S est dite efficace si son image par l’application ẑ = F (x̂)
n’est pas dominée par aucune autre solution.
Dans la suite de ce manuel, notons par XE l’ensemble de solutions efficaces et ZN D
l’ensemble de solutions non dominées ainsi que ZN D = F (XE ).
En effet, les solutions non dominées s’appelle parfois des actions non dominées. En
effet, dans l’exemple 4 le décideur (M D) serait en conflit à choisir entre les deux solutions
(action) z1 et z5 pour le cas de maximisation. Et en conflit à choisir entre les solutions
(actions) z1 , z2 et z3 .
Cependant, le choix d’une solution parmi les solutions non dominées trouvées constitue
une autre véritable problématique qu’on appelle théorie d’aide à la décision multicritère
où le but du décideur va être de modéliser ses choix ou plutôt ses préférences.
Pour modéliser ces choix, on pourra s’appuyer sur deux grandes théories :
1. la théorie de l’utilité multi-attribut ;
2. la théorie de l’aide à la décision.
Notons que ces deux théorie ne feront pas l’objet d’étude de ce présent manuel.
11
Figure 1.5 – Le front de Pareto
Nous présentons ici quelques points caractéristiques très utilisés dans l’optimisation mul-
tiobjectif notamment le point idéal, le point nadir,la matrice des gains.etc.
De même manière analogue, le point idéal pour le cas de minimisation est le point
z = (z1? , z2? , ..., zp? ) est le vecteur qui minimise chacune des fonctions objectifs fi
?
Le point idéal est généralement une solution utopique, dans le sens où il n’appartient pas
à l’espace objectif réalisable.
Dans certains cas, le décideur peut le définir comme un point de référence exprimant le
but qu’il veut atteindre pour chaque objectif. Le point idéal définit la borne supérieure
(cas de maximisation) où les points non dominés peuvent atteindre. il est souvent employé
comme points de référence dans la programmation du compromis ou dans des méthodes
interactives dont le but est de trouver une solution la plus préférée pour le décideur.
12
D’une manière similaire, pour le cas de minimisation le point anti-idéal z = (z 1 , z 2 , ..., z p )
est le point qui minimise chacune des fonctions objectifs fi i-e z i = max{fi (x), x ∈ S, i =
1, ..., p}
Le point nadir définit la borne inférieure (cas de maximisation) où les points non
dominés peuvent atteindre.
Définition 12. (Matrice des gains) soit x̂j une solution optimale du critère fj . La matrice
des gains p × p est formée des éléments zji = fi (x̂j ) tels que
z1? . . . z1j . . . z1j
.. .. . .. .
. .. . ..
.
G=
zi1 . . . zi? . . . zik
.. . . . .. . . . ..
. . .
zp1 . . . zkj . . . zp?
Les coordonnées du point idéal apparaissent sur la diagonale principale de cette matrice
et les coordonnées du point Nadir apparaissent sur la diagonale opposée. Lorsqu’un critère
j possède plusieurs solutions optimales, la colonne j de la matrice des gains dépendra de
la solution x̂j choisie (la matrice des gains est univoquement déterminée si, pour tous les
critères j, la solution x̂j est unique).
La figure (Fig. 1.6) illustre ces différents points caractéristiques dans l’espace des objectifs
sur un exemple de problème de maximisation bi-objectifs.
13
Figure 1.6 – L’illustration graphique de l’exemple 5
Tout les points qui se trouvent sur le front de Pareto délimité par les points z 1 ,z 2 et z 3
sont des point non dominés. Tous les points situés à l’intérieur de ce front sont dominés.
Le point idéal est z ? = (0; 8) et la matrice des gains est
!
0 0
G=
−12 8
14
de pondération λ = (λ1 , λ2 , ..., λp ) ∈ Rp décrit parfois l’importance où le poids de chaque
fonction objectif.
Fréquemment, les méthodes utilisant cette technique, le vecteur des coefficients de pon-
dération λ = (λ1 , λ2 , ..., λp ) ∈ Rp vérifie les relations suivantes :
1. ∀i = 1, 2, ..., p : λi ≥ 0.
p
X
2. λi = 1.
i=1
Le problème paramétrique (la fonction scalarisante) noté par (Pλ ) en question est
définis comme somme pondérée des p fonctions objectifs tel que :
p
X
min λi fi (x)
(Pλ ) i=1
(1.3.2)
x∈S
Comme remarque, si le problème multiobjectif (M OP ) 1.3.1 est linéaire et pour une cer-
taine valeur de vecteur λ le problème paramétrique 1.3.2 est aussi linéaire et sa résolution
peut se faire avec la méthode simplexe est sa solution optimale est toujours un point
extrême de l’ensemble réalisable.
Les théorèmes suivants nous montre les différents aspects théoriques pour caractériser une
solution efficace du problème (M OP ) 1.3.1 en utilisant le problème paramétrique (Pλ ).
Théorème 8. (Iserman ,1974) Une solution x̂ ∈ S est efficace si et seulement s’il existe
λ ∈ Rp , λ > 0 tel que
λF (x̂) ≥ λF (x) pour tout x ∈ S
15
1.3.2 Technique de test d’efficacité d’une solution
Cette technique s’applique pour tester l’efficacité d’une solution réalisable donnée. Elle
peut être utiliser pour générer une solution efficace initiale dans certaines méthodes in-
teractives. En effet, elle sert aussi à examiner l’existence de solutions efficaces.
Les premiers résultats spécifiques de cette technique ont été présenté pour la programma-
tion linéaire multiobjectifs (M OLP ) par Ecker and Kouada (1975). Elle a été généralisée
par Wendell and Lee (1977) pour le cas non linéaire.
et une solution réalisable x̂, la technique se base sur la résolution du problème mono-
objectif appelé problème auxiliaire suivant :
p
X
min ϕ(x) = fi (x)
(Paux ) i=1 (1.3.3)
fi (x) ≤ fi (x̂) pour tout i = 1, 2, ..., p
x∈S
Ce test d’efficacité d’une solution réalisable donnée qui représente aussi l’examen
d’existence de solutions efficaces a été recombiné par le théorème de Benson (1978).
Théorème 10 (Benson,1978). Etant donné le problème multiobjectifs de type minimisa-
tion (M OP ) ≡ min F (x) tel que F (x) = [f1 (x), f2 (x), · · · fp (x)]T . Soit x̂ ∈ S une solution
x∈S
réalisable donnée, et considérons le problème mono-objectif suivant
p
X
max γ = εi
i=1
(Pε ) fi (x) + εi = fi (x̂) pour tout i = 1, 2, ..., p (1.3.5)
εi ≥ 0 pour tout i = 1, 2, ..., p
x∈S
16
Si on résout le problème (Pε ), les résultats suivants sont valides
1. x∗ est une solution efficace du problème (M OP ) si la valeur optimale de la fonction
objectif γ ∗ du problème 1.3.5 est nulle (γ ∗ = 0).
2. Si le problème 1.3.5 a une solution optimale finie et γ ∗ > 0 ou point x∗ alors x∗ est
efficace pour le problème (M OP ).
3. Pour une solution réalisable x∗ , si le problème(M OP ) est convexe et le problème (Pε )
n’a pas de solution finie (Non réalisable, non borné) alors l’ensemble de solutions
efficaces du(M OP ) et vide (XE = ∅).
Remarque 5. Si le problème multiobjectifs est de type maximisation c’est-à-dire (M OP ) ≡
max F (x) tel que F (x) = [f1 (x), f2 (x), · · · fp (x)]T le test d’efficacité de Benson devient
x∈S
comme suit p
X
max γ = εi
i=1
(Pε ) fi (x) − εi = fi (x̂) pour tout i = 1, 2, ..., p (1.3.6)
εi ≥ 0 pour tout i = 1, 2, ..., p
x∈S
Pour r=2 # 21
p
"
X
d2 (F (x)) = |zi∗ − fi (x)|2 ,
i=1
Si r → ∞
d∞ (F (x)) = max (zi∗ − fi (x))
i=1,2,...,p
17
1.4 Classification des méthodes de résolution
Selon Y.Collette and P. Siarry [5], Il existe un nombre important de méthodes et nous
avons classé celles-ci en cinq groupes :
1. les méthodes scalaires,
2. les méthodes interactives,
3. les méthodes floues,
4. les méthodes exploitant une métaheuristique,
5. les méthodes d’aide à la décision.
Les méthodes de ces cinq groupes peuvent aussi être rangées en trois familles de méthodes
d’optimisation multiobjectifs :
1. Les méthodes à préférence a priori : Dans ces méthodes, l’utilisateur définit le com-
promis qu’il désire réaliser (il fait part de ses préférences) avant de lancer la méthode
d’optimisation. On retrouve dans cette famille la plupart des méthodes par agréga-
tion (où les fonctions objectif sont fusionnées en une seule).
2. Les méthodes à préférence progressive : Dans ces méthodes, l’utilisateur affine son
choix de compromis au fur et à mesure du déroulement de l’optimisation. On re-
trouve dans cette famille les méthodes interactives.
3. Les méthodes à préférence a posteriori : Dans ces méthodes, l’utilisateur choisit une
solution de compromis en examinant toutes les solutions extraites par la méthode
d’optimisation. Les méthodes de cette famille fournissent, à la fin de l’optimisation,
une surface de compromis.
Il existe des méthodes d’optimisation multiobjectifs qui n’entrent pas exclusivement dans
une famille. Par exemple, on peut utiliser une méthode à préférence a priori en lui fournis-
sant des préférences choisies au hasard. Le résultat sera alors un grand nombre de solutions
qui seront présentées à l’utilisateur pour qu’il décide de la solution de compromis. Cette
combinaison forme alors une méthode à préférence a posteriori.
18
1. Représenter graphiquement l’espace de décision S.
2. Représenter graphiquement l’espace des critère Y .
3. Calculer le point idéal, le point Anti-idéal,le point nadir et la matrice des gains.
4. Identifier le front de Pareto (Espace de compromis) ou bien l’ensemble non dominées
YN D et l’ensemble de solutions efficaces XE .
19
Exercice 3. Soit le problème multiobjectif non linéaire (M OLP )
” max ” f1 (x) = −x1 + 3x2
” max ” f2 (x) = 3(x1 + x2 )
” max ” f3 (x) = x1 + 2x2
(M OLP ) x2 ≤ 4
x1 + 2x2 ≤ 10
2x1 + x2 ≤ 10
x ,x ≥ 0
1 2
Exercice 5.
20
1.6 Corrigés des exercices
Corrigés de l’exercice 1
Considérons le problème multiobjectif linéaire (M OLP )
” max ” f1 (x) = −3x1 + x2 ;
” max ” f2 (x) = x1 − 2x2
x1 + x2 ≤ 15
2x + x ≥ 4
1 2
(M OLP ) (1.6.1)
x1 − x2 ≤ 5
x1 ≤ 8
x2 ≤ 10
x1 , x2 ≥ 0.
21
Figure 1.9 – L’espace des critères exercice 1
(−6; 2), F (b) = (4; 8), F (c) = (10; −20), F (d) = (−5; −15), F (e) = (−17; −6); F (f ) =
(−21; 2), F (g) = (−15; 5).
3. Calculer le point idéal, le point nadir, le point Anti-ideal et la matrice des gains.
Le point idéal est le point qui maximise les deux critères séparément . Il s’agit de
résoudre les deux programmes suivants :
max f 1 (x) = −3x1 + x2 ;
max f2 (x) = x1 − 2x2
x1 + x2 ≤ 15 x1 + x2 ≤ 15
2x1 + x2 ≥ 4 2x1 + x2 ≥ 4
(P 1) x1 − x2 ≤ 5 (P 2) x1 − x2 ≤ 5
x1 ≤ 8
x1 ≤ 8
x2 ≤ 10 x2 ≤ 10
x , x ≥ 0.
x , x ≥ 0.
1 2 1 2
22
!
10 −15
M=
−20 5
Corrigés de l’exercice 2
Considérons le problème multiobjectif (M OP ) défini comme ci-dessus
” max ” f1 (x) = x1
(M OP ) ” max ” f2 (x) = x2
x∈S
23
2. Comme f1 (x) = x1 et f2 (x) = x2 , l’ensemble de solution efficace XE et égale l’en-
semble non dominé YN D qui est donné par la partie en rouge de la figure (Fig.1.10
).
3. On voit sur la figure (Fig.1.10 ) le segment de deux points J = (7; 6) et A = (9; 6)
constitue l’ensemble de solutions faiblement efficaces qui sont aussi des solutions
faiblement non dominées.
4. Refaire toutes ces questions pour les cas suivants ;
(Cas 2)” max ” f1 (x) = x1 et ” min ” f2 (x) = x2 les solutions efficaces, le points idéal
et anti-idéal et le point nadir sont donné par le figure (fig.1.11) .
24
Figure 1.12 – Cas 3 ” min ” f1 (x) = x1 et ” max ” f2 (x) = x2 de l’exercice 2
Corrigés de l’exercice 3
Soit le problème multiobjectif linéaire à trois objectifs
” max ” f1 (x) = −x1 + 3x2
” max ” f2 (x) = 3(x1 + x2 )
” max ” f3 (x) = x1 + 2x2
(M OLP ) x2 ≤ 4
x1 + 2x2 ≤ 10
2x1 + x2 ≤ 10
x ,x ≥ 0
1 2
1. L’espace de décision S.
L’espace de décision S est montré dans la figure( Fig.1.14). S est un polyèdre
convexe délimité par les points extrêmes a = (0; 0), b = (0; 4); c = (2; 4); d =
(3.333; 3.333), e = (5; 0).
2. Calcule de point idéal et la matrice de gains.
Soit S = {x ∈ R2 , x2 ≤ 4, x1 + 2x2 ≤ 10, 2x1 + x2 ≤ 10, x1 , x2 ≥ 0}. Pour calculer, le
25
Figure 1.13 – Cas 4 ” min ” f1 (x) = x1 et ” min ” f2 (x) = x2 de l’exercice 2
(P 1) ≡ max f1 (x)
x∈S
(P 2) ≡ max f2 (x)
x∈S
(P 3) ≡ max f3 (x).
x∈S
La solution optimale de (P 1) est le point extrême b = (0; 4) et son image par F est le
point F (b) = (12; 12; 8) et celle de (P 2) est le point d = (3.333; 3.333) et son image
est F (d) = (6.666; 19.998; 9.996). La solution optimale de (P 3) n’est pas unique,
touts les points du segment de droite [c, d] sont optimale donc les coordonnées du
point idéal ne sont pas unique. Si on prend le point c = (2; 4) et son image F (c) =
[101810] on obtient alors le point idéal z ∗ = (12; 19.998; 10). En autre, si on prend
le point d = (3.333; 3.333) et son image est F (d) = (6.666; 19.998; 9.996) on obtient
le point idéal devient alorsz ∗ = (12; 19.998; 9.996).
La matrice des gains n’est pas aussi unique, si on prend c = (2; 4) la solution optimale
du (P 3), on obtient la matrice des gains suivante
12 12 8
M = 6.666 19.998 9.996
10 18 10
26
Figure 1.14 – L’espace de décision S de l’exercice 3
Le tableau (Tab.1.1) nous donne les résultats obtenus par l’exécution de LINGO
pour chaque point. Remarquons que les points extrêmes b = (0; 4) , c = (2; 4) et
d = (3.333; 3.333) sont efficaces.
27
Table 1.1 – Test d’efficacité des points de l’exercice 3
En effet, si un point x̄ donné n’est pas efficace, notons par x∗ la solution optimale
donnée par le programme correspondant (Pε ) , d’après le théorème de Benson x∗ est
efficace et son image F (x∗ ) domine effectivement l’image F (x̄).
4. L’ensemble efficace XE de ce problème est la partie rouge de l’ensemble S donnée
dans la figure (Fig.1.14).
Corrigés de l’exercice 4
Soit le (M OLP ) suivant
” max ” f1 (x) = x1
” max ” f2 (x) = x2
” max ” f3 (x) = −2x1 + x2
(M OLP ) x1 + x2 ≤ 8
x1 − x2 ≤ 2
−7x1 + 3x2 ≤ 14
x ≤4
1
28
Figure 1.15 – L’espace de décision S de l’exercice 4
3. Tester l’efficacité des points extrêmes puis déduire l’ensemble efficace XE Existe-il
des solutions faiblement efficaces.
La résolution graphique des problèmes auxiliaires correspondant aux points extrêmes
nous les résultats de tableau (Tab.1.2). D’après le théorème (Th.1.3.2), x∗ est une so-
lution optimale du problème auxiliaire (Paux ) 1.3.3 alors x∗ est efficace pour (M OP )
c’est à dire fi (x∗ ) ≤ fi (x̂) pour tout i = 1, 2, ..., p. En effet, le point a = (−5; −7)
n’est pas efficace. Les points b = (1; 7) et c = (4; 4) sont efficaces car ils sont opti-
maux pour les problèmes auxiliaires correspondant. Par contre ; le point d = (4; 2)
29
est faiblement efficace. L’ensemble efficace de ce (M OLP ) est la partie rouge de la
figure (fig.1.15). En effet, la segment ]c, d] est faiblement efficace.
30
CHAPITRE 2
Méthodes de scalaires
31
forme suivante. p
X
min λi fi (x)
i=1
(Pλ ) x ∈ S (2.1.1)
p
X
avec λi ≥ 0, i = 1, 2, ..., p et λi = 1
i=1
ϕ = λ1 f1 (x) + λ2 f2 (x)
Théorème 11. Si la solution optimale de problème paramétrique (Pλ ) 2.1.1 est unique
alors elle est efficace pour le problème (M OP ) 2.0.1.
32
Figure 2.1 – Le principe de la méthode de pondération des fonctions objectif
Figure 2.2 – Une difficulté insurmontable pour la méthode de pondération des fonctions
objectif.
x∗ ∈ S Optimale pour (Pλ )2.1.1 est unique ⇒ x∗ est efficace pour (M OP )2.0.1
Par contradiction, supposons que x∗ ∈ S l’unique solution optimale de (Pλ ) 2.1.1 pour un
certain vecteur de paramètres λ et x∗ n’est pas efficace pour le problème (M OP ) 2.0.1.
En effet, il existe une autre solution réalisable x ∈ S fi (x) ≤ fi (x∗ ) et il existe un certain j
p
X
tel que fj (x) ≤ fj (x∗ ). sachant que le vecteur λ et non négatif alors on aura λi fi (x) ≤
i=1
p p p
X X X
λi fi (x∗ ). Puisque, x∗ est optimale et unique alors λi fi (x∗ ) < λi fi (x) pour tout
i=1 i=1 i=1
x ∈ S. En effet, les deux inégalités sont contradictoires.
33
Théorème 12. La solution optimale de problème paramétrique (Pλ ) 2.1.1 est efficace
pour le problème (M OP ) 2.0.1 si ∀i, λi > 0, i = 1, 2, ..., p
x∗ ∈ S (Optimale pour(Pλ )2.1.1 ∀i, λi > 0, i = 1, 2, ..., p ⇒ x∗ est efficace pour (M OP )2.0.1
Soit x∗ ∈ S une solution optimale pour (Pλ ) 2.1.1 pour un vecteur de paramètres λ où
∀i, λi > 0, i = 1, 2, ..., p. Supposons que x∗ n’est pas efficace pour le problème (M OP )
2.0.1 donc il existe une autre solution réalisable x ∈ S fi (x) ≤ fi (x∗ ) et il existe un certain
p p
X X
∗
j tel que fj (x) ≤ fj (x ). Puisque ∀i, λi > 0, i = 1, 2, ..., p alors λi fi (x) ≤ λi fi (x∗ )
i=1 i=1
qui est contradiction avec x∗ ∈ S une solution optimale pour (Pλ ).
Les deux théorèmes précédents (Th.11) et (Th.12) montre que la solution de la méthode
de pondération est toujours une solution efficace si le vecteur de poids λ est positifs
ou si la solution optimale (Pλ ) est unique sans imposer d’autres conditions.Cependant,
l’inconvénient de cette méthode ne peut pas en fait si le problème (M OP ) n’est pas
convexe de déterminer certaines solutions efficaces (Voir la figure (Fig.2.2)).
Selon le théorème (Th.13), toute solution efficace d’un problème multiobjectif convexe
peut être déterminer à l’aide de la méthode des sommes pondérées. Notons que la valeur
du vecteur des poids λ n’est pas unique.
Pour deux critères, la figure (Fig.2.3) montre le sens de ce théorème. A gauche de la figure,
toute solution efficace du front en gras peut être obtenue par la résolution du problème
paramétrique par l’alternance du vecteur de poids λ. A droite, il n’est pas possible d’avoir
les solutions dans la partie non convexe du front pour n’importe quelle valeur de λ.
Abordons maintenant la cas de problèmes multiobjectif linéaires (M OLP ), pour deux
critères la fonction objectif du problème paramétrique s’écrit W (x) = λ1 f1 (x) + λ2 f2 (x).
En effet, la solution optimale du Pλ est toujours un point extrême.
Exemple 6. Pour mieux comprendre cette remarque, considérons l’exemple donné dans
l’article [4]
” max ” f1 (x) = x1
” max ” f (x) = x
2 2
(M OLP )
x1 + x2 ≤ 1
x1 , x2 ≥ 0
34
Figure 2.3 – La méthode de sommes pondérées et la convexité
L’ensemble réalisable dans l’espace de décision S et son image dans l’espace des critères
Y sont illustrés dans la figure (Fig.2.4).
L’ensemble de solutions efficaces est le segment de droite [a, b] et le front de Pareto où
YN D est le segment de droite [A, B].
Pour λ = (1; 0) la solution efficace donnée par le problème paramétrique et le point b et
si λ = (0; 1) la solution est le point a. Si on prends λ = ( 12 ; 12 ) la solution efficace serait le
point a ou b(Multiplicité de solution).
35
2.1.1 Exemple pour la méthode de pondération
Exemple 7. Considérons l’exemple Binh [5] qui est un problème multiobjectif non linéaire
(M ON LP )
” min ” f1 (x) = x21 + x22
” min ” f (x) = (x − 5)2 + (x − 5)2
2 1 2
(M ON LP )
−5 ≤ x1 ≤ 10
−5 ≤ x2 ≤ 10
On peut voir facilement que l’exemple de Binh est un problème quadratique convexe
car les deux fonctions objectif f1 et f2 sont des equations de cercles qui peuvent s’écrire se
forme quadratique strictement convexe et l’ensemble de décision S qui est un quadrant.
Utilisons un script qu’on peut écrire dans MATLAB pour tracer l’allure de domaine réa-
lisable dans l’espace des critères.
f1=[] ;
f2=[] ;
for i=-5 :0.2 :10 ;
for j=-5 :0.2 :10 ;
f 1 = [f 1; i.2 + j.2 ] ;
f 2 = [f 2; (i − 5).2 + (j − 5).2 ] ;
end
end
plot(f1,f2,’*’) ;
Avec λ1 , λ2 ≥ 0 et λ1 + λ2 = 1.
Si on pose λ1 = 1 − λ2 d’où 0 ≤ λ1 ≤ 1 alors la fonction objectif ϕ devient
36
Figure 2.5 – Espace de critère de l’exemple Binh
Comme on peut le vérifier facilement, le Hessien ϕ est une matrice définie positif alors
le minimum de la fonction ϕ est donné par la résolution du système :
( (
2x1 − 10λ2 = 0; x∗1 = 5λ2 ;
⇒
2x2 − 10λ2 = 0 x∗2 = 5λ2
. Si on remplace x∗1 = 5λ2 , x∗2 = 5λ2 , on obtient alors les fonctions objectif suivantes :
ϕ = 50λ(1 − λ2 )
f1 = 50λ22
f2 = 50(1 − λ2 )2
On peut alors calculer quelques solutions du front de Pareto pour un certain nombre de
valeurs du coefficient λ2 . Ces résultats sont réunis dans le tableau (Tab2.6)
L’allure de front de Pareto est alors celle de la figure (Fig.2.7)
37
Figure 2.6 – Résultats pour quelques valeur de λ2 de la méthode pondérée
Figure 2.7 – Les points non dominés trouvé pour l’exemple (Ex.7)
par Chankong and Haimes (1983). Cette méthode consiste à transformer le problème
d’optimisation multiobjectif (M OP ) 2.0.1 en un problème d’optimisation mono-objectif
qu’on note par (P ) comportant quelques contraintes supplémentaires. Le principe de cette
méthode est
1. on choisit un objectif à optimiser prioritairement soit fk ;
2. on choisit un vecteur de contraintes initial i , i = 1, 2, ..., p, i 6= k, i ≥ 0 ;
3. on transforme le problème en conservant l’objectif prioritaire et en transformant les
autres objectifs en contraintes d’inégalité de type fi ≤ i , i = 1, 2, ..., p, i 6= k.
38
Mathématiquement, le problème d’optimisation mono-objectif (P ) qu’on appelle parfois
le problème − contraintes peut s’écrire comme suit :
min fk (x)
(P ) fi (x) ≤ i , i = 1, 2, ..., p, i 6= k (2.2.1)
x∈S
39
Théorème 16. Une solution réalisable x∗ ∈ S est efficace pour le problème (M OP ) 2.0.1
si elle est optimale et unique pour le problème mono-objectif (P ) 2.2.1 avec fi (x∗ ) = i , i =
1, 2, ..., p, i 6= k
Pour plus détailles sur ces démonstrations, nous référons le lecteur à voir le livre
K.Miettinen [3].
Pour des problèmes simples, le choix des valeurs de i peut donner une bonne répartition
des solutions sur le front de Pareto. En revanche, dans la plupart des cas concrets, le choix
(arbitraire) des valeurs de i ne permet pas d’obtenir une bonne répartition des solutions
sur le front de Pareto. Alors, on peut ne pas avoir assez de points et rencontrer de grandes
difficultés pour extrapoler l’allure de front de Pareto.
40
2.2.1 Exemple pour la méthode -contrainte
Exemple 8. Reprenons l’exemple Binh [5] qui est un problème multiobjectif non linéaire
(M ON LP )
” min ” f1 (x) = x21 + x22
” min ” f (x) = (x − 5)2 + (x − 5)2
2 1 2
(M ON LP )
−5 ≤ x1 ≤ 10
−5 ≤ x2 ≤ 10
L’ensemble réalisable dans l’espace de décision est donné par la figure (Fig.2.8) Prenons
41
En effet, on peut utiliser l’approche graphique pour trouver sa solution.
x∗ f1 (x∗ ) f2 (x∗ )
0 (0; 0) 0 50
1 (0.70; 0.70) 1 36.857
4 (1.414; 1.414) 4 25.715
5 (1.581; 1.581) 5 23.377
9 (2.1213; 2.1213) 9 16.573
16 (2.828; 2.828) 16 9.431
25 (3.535; 3.535) 25 4.289
36 (4.242; 4.242) 36 1.147
50 (5; 5) 50 0
60 5; 5) 50 0
Résultats avec la méthode -contrainte de l’exemple (Ex.8)
Le tableau (Tab.2.2.1) nous donne les résultats trouvés pour quelques valeurs de . D’après
les résultats trouvés, nous remarquons que l’allure du front de Pareto donné par la figure
(Fig.2.10) est presque la même trouvée par la méthode des sommes pondérées (Voir figure
42
Figure 2.10 – Les solutions non dominées de l’exemple (Ex.8)
(Fig.2.7)).
En effet, l’énoncé des théorèmes en particulier (Th.15) et (Th.17) sont évidement valable
dans toutes les valeurs de considérées c’est-à-dire dans le tableau (Tab.2.2.1) on voit que
f1 (x∗ ) = et la solution optimale du problème −contrainte est unique alors elle efficace
pour le problème de Binh.
Constatons que la valeur = 50 représente une borne supérieure pour l’objectif f1 =
x21 + x22 . Si on augmente d’avantage la solution efficace reste la même x∗ = (5; 5) et son
image le point non dominé est y ∗ = (0; 50).
43
être déterminer par la résolution du problème mono-objectif (P ) 2.3.1 pour différentes
valeurs de . Notons que les valeurs de peuvent être des bornes supérieures des objectifs
fi .
Théorème 18. La solution optimale x∗ de problème hybride (P ) 2.3.1 est une solution
efficace de problème multiobjectif (MOP) 2.0.1.En d’autre termes, si x∗ ∈ S est efficace
pour (MOP) 2.0.1 alors elle est optimale pour le problème hybride (P ) 2.3.1 pour i =
fi (x∗ ), i = 1, 2, ..., p.
44
2.4 Série d’exercices
Exercice 1
Considérons le problème multiobjectifs linéaire (M OLP )
” max ” f1 (x) = x1 ;
” max ” f2 (x) = x2
x1 + x2 ≤ 15
2x + x ≥ 4
1 2
(M OLP )
x1 − x2 ≤ 5
x1 ≤ 8
x2 ≤ 10
x1 , x2 ≥ 0.
Exercice 2
Soit le problème multiobjectif non linéaire (M ON LP )
” min ” f1 (x) = x1 + x2 ;
” min ” f (x) = (x − 3)2 + (x − 3)2
2 1 2
(M ON LP )
0 ≤ x 1 ≤ 3
0 ≤ x2 ≤ 3
45
2.5 Corrigés des exercices
Corrigé de l’exercice 1
Soit le problème multiobjectifs linéaire (M OLP )
” max ” f1 (x) = x1 ;
” max ” f2 (x) = x2
x1 + x2 ≤ 15
2x + x ≥ 4
1 2
(M OLP )
x1 − x2 ≤ 5
x1 ≤ 8
x2 ≤ 10
x1 , x2 ≥ 0.
46
domaine de décision S est un polyèdre convexe alors sa solution optimale si elle
unique elle est en un point extrême de S.
(a) λ = 1 : le problème paramétrique correspondant est (Pλ ) ≡ max x1 . la solution
x∈S
optimale de problème paramétrique (Pλ ) n’est pas unique, tous les points qui se
trouve sur le segment ]e, f ] sont optimales. L’ensemble des solutions faiblement
efficaces est les segment ]e, f ], le point extrêmes e = (8; 7) est la seule solution
efficace du problème multiobjectifs (M OLP ).
(b) λ = 0 : la solution optimale de problème paramétrique (Pλ ) n’est pas unique,
tous les points qui se trouve sur le segment ]c, d] sont optimales. L’ensemble des
solutions faiblement efficaces est les segment [c, d[, le point extrêmes d = (5; 10)
est la seule solution efficace du problème multiobjectifs (M OLP ).
(c) λ = 0.5 : la solution optimale de problème paramétrique (Pλ ) n’est pas unique,
tous les points qui se trouve sur le segment [d, e] sont optimales. L’ensemble des
solutions efficaces du problème multiobjectifs (M OLP ) est les segment [d, e].
(d) λ = 0.2 : Le point extrême d = (5; 10) est la seule solution optimale du problème
paramétrique (Pλ ) d’après le théorème (Th. 11) cette solution est efficace pour
le problème multiobjectifs (M OLP ).
(e) λ = 0.3 : Le point extrême d = (5; 10) est la seule solution optimale du problème
paramétrique (Pλ ) d’après le théorème (Th. 11) cette solution est efficace pour
le problème multiobjectifs (M OLP ).
(f) λ = 0.8 : Le point extrême e = (8; 7) est la seule solution optimale du problème
paramétrique (Pλ ) d’après le théorème (Th. 11) cette solution est efficace pour
le problème multiobjectifs (M OLP ).
En résumé, sur la figure (Fig.2.12) les segments en couleur jaune représente les
solutions faiblement efficaces et celui en rouge nous donne les solution efficace du
problème multiobjectifs (M OLP ).
Corrigé de l’exercice 2
Soit le problème multiobjectif non linéaire (M ON LP )
” min ” f1 (x) = x1 + x2 ;
” min ” f (x) = (x − 3)2 + (x − 3)2
2 1 2
(M ON LP )
0 ≤ x1 ≤ 3
0 ≤ x2 ≤ 3
47
Le problème mono-objectif (P1 ) correspondant est
min f2 (x) = (x1 − 3)2 + (x2 − 3)2
x +x ≤
1 2
(P1 )
0 ≤ x 1 ≤ 3
0 ≤ x2 ≤ 3
Le problème (P1 ) est un PNL quadratique qu’on peut résoudre facilement d’une
manière graphique. On peut le résoudre par une manière algébrique en utilisant las
conditions d’optimalités K.K.T.
(a) Cas 1 = 2 : Graphiquement, on peut voir facilement sur la figure (Fig.2.13) que
la solution optimale de (P1 ) est le point x∗ = (1; 1) et f1 (x∗ ) = 1 = 2, d’après
le théorème (Th. 15) cette solution est efficace pour le problème multiobjectifs
considéré, le point non dominé correspondant y = (2; 8).
48
Bibliographie
[1] M.J. Alves C.H.Antunes and J. Climaco. Multiobjective Linear and Integer Program-
ming. Springer International Publishing Switzerland, 2016.
[2] M. Ehrgott. Multicriteria Optimzation. Springer Berlin-Heidelberg, second edition,
2005.
[3] K.Miettinen. Nonlinear multiobjective optimzation. Kluwer acaddemic publisher, 1999.
[4] V.Morovati and L.Pourkarimi. Extension of zoutendijk method for solving constrained
multiobjective optimization problems. European Journal of Operational Research,
(2018).
[5] Y.Collette and P. Siarry. Optimsation multiobjectif. Editions Eyrolles, 2005.
49