Untitled
Untitled
Untitled
RESTRIÇÕES DE IGUALDADES
Aprovada por :
I
Prof Nelson Mac Filho ,D. Habil.
/'4,
*>' ,
-'
/ /<;37>
k/
Prof Luis f i e d o v. de Carvalho ,D. Sc.
, .
-, w
Prof. Roberto Quirino do Kascimento ,D. Sc.
l-
'prof. Luiz Satoru Ochi ,D. Sc.
1998 )
Janeiro ,COPPE
Ana Elvira e a
meus filhos ,
Cristhiano
Andréa e
Raíssa
AGRADECIMENTOS
trabalho.
A minha esposa Ana Elvira , aos meus filhos Cristhiano ,Andréa e Raíssa ,pelo
incentivo , colaboração , compreensão e amizade . O apoio de todos foi muito
importante para o término deste trabalho.
Aos meus irmãos e minhas irmãs Ana Clara e Lélia , pelo incentivo , força,
Aos meus colegas da COPPE / UFRJ , por estarem sempre presentes e prontos a
Abril de 1998 .
Abril de 1998.
This work presents a new algorithm in order to solve the nonlinear programming
problems with equality constraints . To achieve this proposal , it is used the hyperbolic
penalty method , which was originally developed to solve the nonlinear programming
another algorithm which considers the solution of the nonlinear prograqrnming problems
vii
METODOS DE PENALIDADES ...................................................................... 30
I ..................................................
~ r s c u s s à oINICIAL DO ALGORÍTMO 68
.
TABELAS 1 2 e 3 .......................................................................................... 91
viii
PROBLEMAS DEGENERADOS ....................................................................... 97
..
TABELAS 4 5 6 e 7 ...................................................................................... 98
CONCLUS~ES.............................................................................................. 126
.
TABELA 1. Resultados computacionais do problema teste 1 Parte 113.................. 91
.
TABELA 2 . Resultados computacionais do problema teste 1 Parte 213................. 92
Número da iteração
Função Lagrangeana
Ponto inicial
Ponto ótimo ou solução do problema original
minimizar f(x)
hj(x) = O ,j = 1 , ...,p
minimizar f ( x )
hiperbólica .
Basicamente , seguindo essas idéias e incorporando a imprescindível manipulação
em nossos experimentos.
testados.
tais como : pontos exteriores , pontos interiores , mista , exata , método dos
penalização hiperbólica .
problema deve satisfazer , são desenvolvidos os resultados teóricos que nos levam até a
convergência .
Com o objetivo de mostrarmos o fiincionamento do algorítmo e a validade do
restrição de igualdade ,
anteriormente.
padrão mais importantes atualmente disponíveis nessa área, tais como algumas definições
restrigões.
átima do problema.
ótimos globais podem ser caracterizados somente em alguns casos particulares, como
.
nas problemas de programação convexa . Portanta quando falarmos em otimalidade
rninimizar f(x )
sujeito a : x E S ,
onde x = ( x~ . ..,. . x,,) designa as variáveis , S o conjunt~de restciçães ou
.
Por outro lado quando S = R",temos os problemas ditas irrestritos ( PL ) ,que
dada por :
que para qualquer ponto inicial x0E R" ( ou x0 E S ) , verificando 1 xO- x* 1 5 <r ,o
algorítmo gera uma sequência de pontos convergindo para a solução x* do problema
original .
otimalidade ,porque elas devem ser satisfeitas em qualquer ponto ótimo restrito, local
OTIMIZAÇÃO IRRESTRITO
minimizar f (x ) ( 1.2)
x E Rn
Se a função f ( . ) é de classe C' ,então uma condição necessária para x* E R" ser
Vf(x")=O
CONDIÇÃO NECESSÁRTA DE SEGUNDA ORDEM :
dt v 2 f ( x * ) d 2 0 . ( 1.4
CONDIÇ~ESDE SUFICIÊNCIA :
Vf(x*) = O ( 1.5
minimizar f ( x ) ( 1.7
sujeitoà: g i ( x ) 2 0 , i = l ¶... ?m
hj(x) = O , j = 1 , ...,p
onde f ( . ) : R" +R , gi(.):Rn + R" e h j ( . ) : R" + RP são funções
não-lineares e diferenciáveis .
rninimizar f ( x ) ( 1.8 1
sujeito à : h j ( x ) = O ; j = 1 ,...,p
minimizar f (x ) ( 1.9 1
das restrições .
apresentada a seguir :
local para o problema ( 1.8 ) é que exista y* E RP tal que sejam satisfeitas as
semidefínida positiva para todos os vetores sobre o espaço nulo associado aos
V~(X*)~V=O,
CONDIÇÕES DE SUFICIÊNCIA :
V ~ V ~ ~ ~ ( X *> , O~ *, ) V ( 1.14)
Vh(x* )'.v= O .
Considerando o problema de programação não-linear com restriqões de
DEFINIÇÃO ( 1.9 ) :
GERAL DE OTIMIZAÇÃO
D E J ~ I Ç Ã O ( 1.11 ) :
independentes, onde I ( x ) = ( i / g i ( x ) = O ) .
x* E S ser um ponto de mínimo local para o problema ( 1.7 ) . Supondo que x* seja
V f ( x * ) + ~ * ~ . ~ h ( x- *h*'Vg(x*)
) = O
h*'g(x*) = O ( 1.20)
h(x*) = O
g(x*) 2 o
CONDIÇ~ESNECESSÁRIAS DE SEGUNDA ORDEM :
funções f , h e g respectivamente.
CONDIÇOES DE SUFICIÊNCIA:
h*tg(x*) = O
h * 2 0 ,
e a matriz Hessiana
com I = { i / g i ( x * ) = O ; Ai > O )
&TODOS UTILIZADOS PARA RESOLUÇÃO DE
RESTRIÇ~ES
não-linear com restrições de igualdade, e como uma extensão ,o problema geral . Face
com restrições .
de restrições .
Considere o problema :
minimizar f ( x )
sujeito a : x E X C Rn,
onde X é um subconjunto fechado do R" e f (. ) uma função continuamente
e também que seja uma direção viável ,o u seja , que exista um 8 k+l > O
-
=
xk+l
xk + &+I* dktl E X
eque f(xh1)<f(xk).
Bazaraa [ 6 ] e Minoux [ 48 ] .
Um dos métodos mais conhecidos da classe dos métodos de direções viáveis é
minimizar f ( x )
sujeito à : ai x Ibi ; i E 11
aix=bi ; i€I2
vetor não é uma direção viável, devido a curvatura das superficies. Neste caso ,ao se
linear .
minimizar f ( x )
sujeito à : Ax = b
x 2 0
programação não-linear ,como por exemplo ,no método simplex convexo de Zangwill
[W.
A variação da função objetivo f para um pequeno deslocamento dx compatível
df = ,
u,f d x ~
com
( vii)
minirnizar f ( x )
sujeito a : h ( x ) = O
x 2 0
para tratar o caso mais geral em que as restrições, assim como a função objetivo ,
KUHN -TUCKER
minimizar f ( x )
sujeitoa: h ( x ) = O
Vf(x) + p t ~ h ( x )= O ( 2.6
h(x) = O ,
onde as variáveis x e p sao chamadas de variáveis primais e duais , respectivamente.
Para termos uma solução p única em ( 2.6 ) num ponto ótimo x*, este deve ser
dos problemas .
Fazendo-se :
temos :
onde :
Sob condições especiais, a sequência de pares gerada converge para um par ótimo
(x* & * I .
PROGRAMAÇÃO QUADRÁTICA SEQUENCIAL
restrições, tais que a função objetivo é uma função quadrática , e as restrições são
minimizar f ( x )
sujeitoa : h ( x ) = 0,
todas diferenciáveis .
forma :
Lagrangeano ) .
minirnizar f (x)
sujeito à : x E S
minimizar f ( x ) + P (x ) (2.17 )
x E Rn
tem como limite um ponto, que para esse caso ,a função de penalidade P ( x ) deve
satisfazer :
i) P ( x ) é contínua
íi) P ( x ) 2 o
iii) P ( x ) = O # XES
de tais métodos para resolver problemas práticos foi apresentado por Fiacco &
igualdades :
sujeito&: h(x) = O ,
sugerida por Courant [ 20 ] em 1943 ,foi definida de tal forma a produzir o problema:
minimizar f ( x ) + y [ h ( x ) ] 2 ; y 2 0
x E Rn
onde ( ck ) é uma seqüência de escalares positivos com ck < ck+~ para todo k ,
McCormick [ 25 1.
minimizar f (x)
respectivamente, e toma :
ou seja :
Analogamente a ( 2.19 ),o problema original é resolvido através da resolução da
seqüência de problemas :
x E R"
Essa família de métodos trabalha unicamente com pontos viáveis, ou seja, com
da região viável . Esse desestímulo é efetuado por uma " barreira " resultante da
uma solução ótima para o problema original . Ademais é provado que f ( xk) -+ f * ,
i) P ( x ) é contínua
ii) P ( x ) 2 o
iii) P ( x ) -+ oo quando x se aproxima da fronteira de S .
mais tarde por Carro1 [ 16 ] em 1959 , com o nome de CRST - Created Response
Surface Technique . O procedimento foi usado para resolver problemas com restrições
da penalidade interior têm sido investigado por vários autores , em particular por
métodos em seu premiado livro [25 ] para uma discussão mais detalhada.
interior tem sido feitas . Primeiro a fim de evitar as dificuldades associadas com o
os parâmetros da penalidade interior vai para zero ,por conseguinte ,vários métodos
de parâmetro livre têm sido propostos. Para maiores detalhes, veja igualmente em
Uma descrição integrada desses métodos pode também ser vista em Lootsma [ 41 ] .
X E S0
minimizar f.( x )
hj(x)=O ; j=l,...,p
pode-se usar um método de penalidade mista, obtida pelo uso simultâneo da
a forma :
lidade que são exatas , no sentido de que , a solução dos problemas de penalidade,
parâmetro de penalidade.
Com estas funções não é necessário resolver uma sequência infinita de
minimizar f ( x )
sujeitoà: g i ( x ) 2 0 ; i = 1 , ..., m
hj(x) = O ;j = 1 , ...,p
rninimizar f ( x ) + c.P(x),
x E R"
face à presença das não-diferenciabilidades . Resulta por essa razão , que essa
para o problema :
minimizar f ( x ) ( 2.38 )
sujeitoa: h ( x ) = O
Lagrangeana
~(x,P=
) f W + 1 l ~ U x 1,
as condições necessárias para o t W d a d e
minimizar \ ~ ?4 1 V , I ( x , p ) j2
l / z l I ~ ( x )+
( x , p ) €RnxRP
Observa-se que ( x* , y* ) é um par KKT para o problema original se , e
Como motivação para isso , mencionamos o fato de que, para todo r > O e
s >O .
se ( x* , y* ) é qualquer par KKT para o problema ( 2.38 ) então o par
problema irrestrito ( 2-40 ) uma preferência para mínimo local em vez de máximo
local .
A relação entre os pontos críticos da função objetivo do problema ( 2.40 ) com
TEOREMA 1 :
Essa abordagem apresentada por Bertsekas é um dos caminhos que nos leva
minimizar f ( x )
sujeitoa: h j ( x ) = O ; j = 1 , ...,p
por Hestenes [ 32 1.
Deonstração : Fletcher [ 27 ] .
convexo original .
Como vimos, o Método dos Multiplicadores ou do Lagrangeano Aumentado
propuseram um método dual de solução no qual quadrados das funções restrições são
mínimo irrestrito .
ordem para otimalidade são satisfeitas, o algorítmo converge localmente numa taxa linear.
A vantagem do algorítmo é que ele produz uma estabilidade numérica que não
é encontrada nos métodos de penalidades usuais . Por outro lado, Miele et a1 [ 44 ,45 ,
46 , 4 7 ] modificou e melhorou os métodos de Hestenes e Powell e ,tem obtido resultados
Powell , que em vez de atualizar o vetor dos multiplicadores após uma sequência de
Já, Kort & Bertsekas [ 37 ] consideraram o caso mais geral em que o problema
convergência local .
penalizado .
Uma segunda vantagem do método dos multiplicadores é que sua taxa de
Li = hk f $.h@)
iterações .Por outro lado , uma desvantagem do método Lagrangeano é que ele
requer um bom ponto inicial a fim de obtermos a convergência para uma solução
detalhamento.
O método de penalização hiperbólica apresentado por Xavier [ 62 ] trata de resolver
minimizar f ( x )
( 2.49 )
sujeito à : gi ( x ) 2 O ; i = 1 ,..., m
com
Figura 3 : Função Penalidade Hiperbólica
reduz-se a penalização para pontos dentro da região viável . O processo continua até que se
interior .
hi=%tgai , ( 2.52 )
obtendo-se a expressão :
com
restrições de desigualdades .
2) Faça k : = k + l .
Resolva o problema de minimização irrestrito
k+l
Ti =qz;" ; O < q 5 1
Vá para o passo 2 .
Pode-se observar que existe uma ligação deste método com a função Lagrangeana, e
teremos :
Por outro lado , para valores de y > O , que correspondem a pontos viáveis ,
temos numa faixa inicial de y , a expressão ( 2.58 ) negativa ,o que corresponde a um
aumento de h .
onde
RESOLUÇÃO DO PROBLEMA DE PROGRAMAÇÃO NÃO-
PENALIZAÇÃO HIPERBÓLICA
minimizar f ( x )
sujeitoa: h j ( x ) = O ; j = 1 , ...,p
anteriormente.
Sendo assim , a primeira providência é transformar cada restrição de igualdade do
problema ( 3.1 ) em duas restrições de desigualdades produzindo um problema equivalente
da forma :
rninimizar f(x)
sujeitoà: h j ( x ) % O ; j = l , ...,p
hj(x) 2 0 ; j = 1 , ...,p
minimizar f ( x )
sujeitoa: h j ( x ) IO ;j = 1, ...,p
minimizar f ( x )
sujeito à : hj ( x ) r O ; j = 1 , ...,p
hj(x) 2 ~ j - ; j = 1 , ...,p ,
sendo - 5 O , j = 1 , ... ,p .
Como o algorítmo de penalização hiperbólica assume a hipótese de que a
região viável tenha interior não-vazio , para a sua utilização , no problema ( 3.2 )
obtemos o problema :
problema ( 3.5 )
ou seja, provoca uma região viável com interior não-vazio ,associada a cada restrição
de igualdade .
Assim fazendo , vamos resolver uma sequência de problemas irrestritos da
forma :
onde :
( 3.7
Na iteração k teremos :
1 k k
i tga, (h, (x ) - E:-)
- ,
Pela análise das expressões ( 3.9a ) e ( 3.9b ) podemos ver que sempre serão
PROPOSIÇÃO 2 :
Demonstração :
u ~ . [ v ~ + ( T ? ) ~> ] v ~ . [ u ~ + ( $ ) ~ ] Z
ou seja :
Como vimos , a relaxação de cada restrição de igualdade implica porém numa
envolvem as mesmas funções, podemos concluir que essa proposta não implica num
uma conveniente manipulação das folgas zj' e rj- de modo a buscar uma crescente
um certo ponto somente um dos lados das retrições ( 3.5.a ) ou ( 3.5.b ) seja violado ,
todavia salvaguardas como proteção a uma definição equivocada desse conjunto ativo.
ALGORÍTMOI
e z O >0 .
2 - "CONTAGEM DA ITERAÇÃO"
Faça k : = k + l
3 - TESOLUÇÃO DO SUBPROBLEMA"
k k 7l
af:=pa,+(l-p)2 , = , .p , O < p < 1
Faça :
Va pam o passo 3
definido em ( 2.62 )
k -
k+l-- - Ej
1o
Então faça :
k+l + k +
Ej = Ej
1o
Então faça :
k+l - k -
Em caso contrário,
R-i1 - k
r, =-100z
k+l + k
Faça : &i = +I00 z
Vá para o passo 2 .
~ ~ s c u s s AINICIAL
o DO ALGORÍTMO
Este procedimento tem como perspectiva forçar uma aproximação gradativa dos
intermediários xk viáveis .
problema original .
CONDIÇÕES DO PROBLEMA
( C1 ) : As funções .
f ( .) e h ( ) ; j = 1 ,. m são duas vezes
continuamente diferenciáveis
dessa forma existe um único multiplicador de Lagrange dado por h* = (hi*,h2*, ... ,
L*) tal que :
V f ( x * ) i- h*.Vh(x*) = O
( C3 ) : A matriz Hessiana da função Lagrangeana 1( x ,h ) dada por
+
S, = { X ; hj(x) 5 Ej , hj(x) 2 E j l , . , =) é limitado.
j = 1,...,p.
Vamos também apresentar alguns resultados que serão utilizados nos nossos
viável .
<pj ( xO, yO) = O para j = 1 , ... , m e ( xO, yO) E D1 . Suponha que a matriz
Jacobiana a' O'( ' tenha posto m . Então, existe uma vizinhança C& (xO,yO)c DI ,
8.xj
satisfeitas :
RESULTADO 3 :
Seja x* um ponto de mínimo local para a problema ( 3.1 ) ,este ponto x* seja
matriz
J = [v 2 ~ ( x *I*)
vh(x*)'
, Vh(x*)
O 1 é não-singular .
Demonstração :
equivalentemente:
Multiplicando a expressão ( 3.16 ) por yf , e usando ( 3.17 ),necessariamente
devemos ter :
RESULTADO 4 :
rninimizar f (x )
sujeitoà: h(x) = E
que tem ( x* , h*, 0 ) como solução . Além do mais , o Jacobiano deste sistema com
V e x ( ~ ) . v f [ x ( ~ )+] V , x ( ~ ) . V h [ x ( ~ ) l . h ( =
~ )0
Por outro lado , diferenciando a relação e = h[ x ( E ) ] , em relação a E
obtemos :
I = V,h[x(e)] = V,X(E).~~[X(E)]
V,f[x(~)] = - h(€) .
xk E argrnin{F(x,ak,zk)),
função hiperbólica .
E a vista do Resultado 1 , Xavier [ 62 ] , haverá um certo valor a ( E ) qile
viável para o problema relaxado ( 3.5 ) . Assim , O algorítmo sempre trabalha com
penalização .
das restrições decorrentes das folgas ( distâncias a esquerda dj- e à direita dj' ).
Alternativa 1 :
Alternativa 3 :
Por ( 3.28 ) e pela viabilidade sj- < hj ( xk ) < cjf , dada no passo 4 ,
podemos concluir que :
Discussão inicial da alternativa 2 :
Nessa situação , certamente existe uma iteração K3 tal que para toda iteração
hj(xk) +O ,
Nessa última situação , suponhamos que para toda iteração k > I(4 , sempre o
hj ( x k ) < 2p.Z
Considerando as duas desigualdades imediatamente acima, temos :
do problema original .
limitada e dessa forma possui urna subseqüência convergente . Tomando-se sem perda
- -
implicando que hj (x) = O, j = í , ... ,p , ou seja, que o ponte x é vihel para
f(x*) = f(X).
Vejamos :
temos :
F ( x * , c x ~ , z ~2 )F ( x ~ , c x ~ , T ~ )
F ( x k , a k ,T ~ =
) min, F ( x , a k , z k ) ,
-
então existe uma subseguência convergente xk x , e o limite x é um ponto
Será visto abaixo que , somente a alternativa 1 é válida . Esse resultado tem o
interior .
de equações :
nos fornece :
De outro lado ,considerando xk -t i,ponto ótimo do problema original ,visto
positivos , pois terão o mesmo sinal dos multiplicadores ótimos , por hipótese ,
supomos serem todos positivos.
seguir apresentadas .
temos :
- cj- = + Ej ,
4-
( 3.35 )
parte do teste 8A [ hj( xk ) < 20 .rk ] será também satisfeita pois >0 e z > O .
De fato , como hj* > O , j = 1 ,... ,p , existirá uma iteração K1 tal que :
hjh > hj*/2. , j = 1 , ... ,p ( 3.36)
força da instrução 8C.3 que a + 7612 . Ademais , para que o passo 8C seja
executado é necessário que o teste de 8A seja falso , ou seja, pelo menos uma das
relações
Como > O ,face a Proposição 2 ,o primeiro teste ( df > dj' ) não falhará .
Se por acaso o segundo teste [ hj ( xk) < 28..rk ] falhar , ou seja ,se tivermos
podemos concluir que se ( 3.41 ) for válida , necessariamente o valor de pjk vai
para zero . A figura 8 tem o objetivo de tornar mais clara essa conclusão .
-
Assim ,haverá um valor a tal que CLjk i hj*/2 , violando a expressão ( 3.38 ).
Dessa forma podemos concluir que o segundo teste não falhará , ou seja , após
-
a > a o algorítmo certamente executará o passo 8A.
-1 C I I I I I I I I I
4 -3 -2 -1 O 1 2 3 4
positivos .
h á l i s e da viabilidade da alternativa 1 :
Por exclusão , esta é a única alternativa viável e tem uma grande implicação
proposta metodológica .
v ~ F ( X , C X ~ ,=T O~ )
lirn [ V f ( x * ) -
k+m
c
j=l
hj*Vhj(x*) ] = O
Como os gradientes Vhj ( x* ) são L.I. ( condição ( C2 ) ,logo esse sistema tem
lim
k-tm
~ > h= h*.
Pelo acima exposto ,demonstramos o seguinte teorema :
RESTRITOS A IGUALDADES
de igualdades.
infx F ( x , a 0 , ~ O) = FO > - oo
Em particular , pequenos valores de ao podem produzir divergência da
3 - ESCOLHA DO PARÂMETRO TO :
EXEMPLO 1 :
xO = ( 2 , - 1 ) , z0 = 0.1000000E-01 e ao = 0.114576E+01.
DESCRI~ÃO DAS TABELAS
desigualdades .
.
da função objetivo modificada F ( ) do problema irrestrito , da função penalidade
. .
P ( ) e da função objetivo f ( ) do problema original .
Com relação aos parâmetros da função penalidade, podemos ver que o ângulo
exemplo 1 .
TABELA 1 : Resultados Computacionais do Problema Teste 1 . Parte 1 / 3
Iteração €i h (xk hk
k
TABELA 3 : Resultados Computacionais do Problema Teste 1 . Parte 3 / 3
Problema 7
minimjzar f ( x ) = h( 1 + x12) - x2
Ponto inicial : x 0 = ( 2 , 2 )
X* = ( 0 , 1.7320 ) e h* = 0.2887
Problema 27
sujeito à : h ( x ) = xl + x32 + 1 = 0
Ponto inicial xO = ( 2 , 2 , 2 )
X* = ( - 1 , 1 , 0 ) e h* = 0.4
Problema 39
minimizar f(x) = - xl
Problema 42
sujeito à : h ~x( ) = xl - 2 = O
Ponto inicial xO = ( l 9 1 , 1 , l
Problema 61
X:, f ~ 3 ~ -~ 8x - 4 112
~ = O
Ponto inicial xO = ( 2 , 2 , 2 , 2 , 2 )
Problema 78
h3 ( x ) = x13 + x23 + 1 = 0
Ponto inicial x0 = ( - 2 , 1 . 5 , 2 , - 1 , - 1 )
Problema do Bazaraa [ 6 ]
sujeito à : h (x ) = xl 2 - x2 = O
Ponto inicial xO = ( 2 , 1 )
degenerados .
Problema Degenerado 50 :
minimizar ( X ~ - X ~ ) ~ + ( X ~ - X ~ ) ~ + ( X ~ - X ~ ) ~ + ( X ~ - X ~
x2 + 2x3 + 3x4 - 6 = O
~3 + 2% -i- 3x5 - 6 = O
Problema Degenerado 28 :
minimizar ( Xl + x2 )2 + ( x2 + x3 )2
sujeitoa: xl + 2x2 + 3x3 - 1 = O
Ponto inicial xO = ( - 4 , 1 , 1 )
minimizar ( x l - X 2 ) 2 + ( ~ 3 - - 1)4+(~5-1)6
sujeito a : xi2 + sen( ~q - xs ) - 1 = O
xz + -2 = o
Panto inicial xQ = ( 0.7 ,L75 , O 5 .2,2 )
Destacamos ,entretanto ,que esses resultados são similares aos outros casos .
Este feito nos permite acreditar que o algorítmo I possa ter similar sucesso
problema :
minimizar
sujeito a :
+
com c j ' I O e cj 2 0 , j = l ,..., p ,
IGUALDADES E DESIGUALDADES
e .cO>O
= - 100 , j = 1, ... ,p
Calcule :
.E; = + 10021 , j = 1, ... ,p
2 - "CONTAGEM DA ITERAÇÃO"
Faça k : = k + l
3- a ~ ~ DO ~SUBPROBLEMA"
~ ~ ~ ç Ã ~
CalcuIe as distâncias ?
esquerda
i e à direita do valor hj (xk) às folgas :
8 - "TESTE DE T I T - I O L APARA
C ~ ~ CADA R DE IGUALDADE "
E S ~ Ã O
Então faça :
&jk+l + = &jk +
Então faça :
I Ejk+l + = +E
EIk+l - = Ejk -
: 1 10 ,
7
(8B.1 )
( 8B.2 )
Em caso contrário,
k+l- = -
&j 100 ' c ~ ( 8C.l)
Faça : E?+ -
- + 100 zk ( 8C.2 )
ajk+l = p.c$ + ( 1 - p ).n/2 ( 8C.3 )
j = l , , p e O< p < l
Vá para o passo 2.
Neste ponto , devemos ressaltar que o algorítmo II é uma modificação do
- 112 este efeito é particularmente suscetível, pois também envolve o parâmetro 7".
inicial de .c0. Entretanto ,existem casos em que tal escolha se torna de fundamental
Esse particular exemplo , HS -112 , possui uma função objetivo com uma
pequenos das componentes do vetor " x " , gerando valores extremamentes negativos
EXEMPLO 2 :
minimizar f ( x ) = xl 2 + ~ +2x2
2 ~
2
sujeito a : h (x) = x12 + x2 - 1 = 0
anteriormente .
TABELA 8 : Resultados Computacionais do Problema Teste 2 . Parte 1 / 4
k k
Iteração ak T~ x1 x2 PASSOS
TABELA 9 : Resultados Computacionais do Problema Teste 2. Parte 2 / 4
Iteração ;C h (xk) ~k
k
TABELA 10 : Resultados Computacionais do Problema Teste 2. Parte 3 / 4
Iteração Lk kzk
k
TABELA 11 : Resultados Computacionais do Problema Teste 2. Parte 4 1 4
e Schittkowski [ 34 1.
Problema 32
sujeito à : xi 2 O , i = 1,2,3
3
6x2 + 4x3 - XI - 3 2 O
1-xi-xz-x3=0
Problema 41
minimizar 2 - x1 x2 x3
sujeito a : xl + 2 x2 + 2 x3 - = O
0 I x i I 1 , i=1,2,3
OIx,12
Ponto inicial xO = ( 2 , 2 , 2 , 2 )
sujeito a : xl + 3 x2 =O
x3 + Xq - 2x5 = o
x;? - x5 = o
- 1 0 I x 5~10 , i = 1 , ..., 5
Ponto inicial xO= ( 2 , 2 , 2 , 2 , 2 )
Problema 55
xl+Xz+x3-3=0
&+Xs+Xg-2=O
x1+Xq-1=0
X2fXg-2=0
x3+Xg-2=0
xi>O , i = l , ..., 6
Xl I I , a s 1
Ponto inicial xO = ( 1 , 2 ,O , O , O , 2 )
f (x* ) = 6.3333
Problema 60
minimizar ( xl - 1 )2 + ( x1 - x2 )2 + ( x2 - x3 )4
-1OIx; I 1 0 , i = 1 , ..., 10
Problema 63
sujeito à : xi 2 O 9 i = 1,2,3
Problema 71
minimizar ( x1 + x2
~1x4 + x3 ) + x3
sujeito à : x1 xz x3 - 25 2 O
xi2 + x; + x32 + w2 = o
l 5 x i r 5 , i = 1 , ..., 4
sujeito a : - xl + x2 + 1 2 O
2xi + 3x2 - 4 = o
Ponto inicial x" = ( 2 , 0 ) . Solução ótima encontrada na 7Vteração em 1.32
Problema 2 do Bazaraa [ 6 ]
minimizar x? + 4 ~2~
sujeito à : xi 2 O 9 i = 1,2,3,4
X l + 2x2 - x3 - 1 =o
-x1+x2+Xq=O
Problema 73
sujeitoa: 2 . 3 ~ ~ + 5 . 6 ~ 2 + I l . l x ~ + 1 . 3 q - 5 ~ 0
+ ~4 1 . 8 ~+~52.1 ~4
12xl + 1 1 . 9 ~ - 21 -
2 312
1.645 ( 0.28 x12 + O. 19 ~2~ + 20.5 ~3~ i- 0.62 q ) 2 O
xl+X:!+x3+Xq-1=0
Xi 2 O , i = 1 , ..., 4
Ponto inicial xO = ( 1 , 1 , 1 , 1 )
Problema 81
minimizar e x p ( x l x z x 3 ~ ~0.5(x13
)- +x23 + 1)2
-3.2 5 xj 5 3 . 2 ; j = 3,4,5
x2 X3 - 5x4 xg = o
3
xl + x23 + 1 = 0
Ponto inicial xO = ( - 2 ,2 , 2 ,- 1 , - 1 )
Problema 111
Problema 112
sujeito a : xl + 2 x2 + 2 x3 + + XIO - 2 = O
x,+2x'j+Xg+x7- 1 = o
x3 + x7 + Xg + 2x9 + x10 - 1 = o
xi21.E-6 , i = l ,..., 1O
Valores de cj ,j = 1 ,... , 10
g z ( x ) = - 1 3 3 + 3 x 7 - axlo 2 0
g3 ( x ) = - g~( x ) + ( l / b - b)x9 2 0
g7(x) = -g5(x) + ( l / a - a ) a 2 O
h1 ( x ) = 1 . 2 2 ~ 4- xl - x5 = O b = 0.9
hs(x) = 9 8 0 0 0 ~ ~ / +( ~1 40 0
~ 0~ ~ -~ ~6) = O
~ ~ ( x ) = ( x ~ + x s -) %
/ x= ~O
0.00001 5 XI 5 2000 , 85 5 5 93
0.00001 I ~2 I 16000 9 90 I x7 5 95
0.00001 r x3 r 1200 , 3 I xs 5 12
Problema 119
16
sujeito à : 2
j=l
b, Xj - Ci = 0
Foi apresentado um novo método para resolução desse problema, que se fundamentou
viável com interior não-vazio . Seguindo essas idéias , foi apresentado o algorítmo I para
convergência.
a teoria desenvolvida .
robustez e , até mesmo , de eficiência . Todavia ,para problemas maiores avaliamos que o
comportamento oscilatório dos valores das folgas superiores e inferiores podem diminuir
a eficiência do método.
Tais estudos podem ter como ponto de partida as idéias relacionadas nos trabalhos
DIFERENCIABILIDADE
funcionamento dos métodos que fazem o uso de informações das derivadas de primeira
Uma outra característica se relaciona com o ponto inicial , pois não existe a
resolver qualquer tipo de problema, e em particular , para tratar de uma forma única
gradiente reduzido generalizado . Tal combinação poderia ser feita da seguinte maneira :
que as restrições lineares seriam tratadas dentro do enfoque GRG. Produziríamos assim,
um excelente desempenho.
combinação com outros métodos primais como : gradiente projetado , gradiente reduzido
LAGRANGEANO HIPERB~LICO
EXPERIMENTAÇÃO COMPUTACIONAL
EXTRAPOLAÇÃO
Essas serão algumas das linhas de estudos que deverão desenvolver este trabalho.
BIBLIOGRAFIA
[ 2 ] ABADIE, J. & GULGOU, J. - Numerical Experiments with the GRG Method, In:
520-536, 1970.
Equalify Constraints , ed. R. Fletcher ,Academic Press ,London ,New York , pp.
Theory and Algorithms. John Wiley and Sons, New York, Second, 1973.
1967.
Minimization. SIAM J. Control and Optimization, vol. 14, pp. 216 - 235 , 1975a.
[ 14 ] BOX ,M. J. ; DAVIES ,D. & SWANN ,W. H. - Nonlinear Optimization Technique.
Winsconsin , 1959.
the Institute of Mathematics and its Applications . V015 ,pp. 3 19 - 342 , 1975.
[ 37 ] KORT ,B. W. & BERTSEKAS ,D. P. - Combined Prima1 Dual and Penal@ Methods
for Convex Programming . SIAM Journal Control and Optirnization ,vol. 14 , pp.
268 - 294,1976.
Optimizations . ed. F. A. Lootsma ,Academic Press ,London ,pp. 313 - 347, 1972.
[ 44 ] MIELE ,A. ; GRAGG ,E. E. ; IYER ,R. R. & LEVY ,A. V. - Use the Augmented
260 , 1972a.
[ 47 ] MIELE , A. ; MOSELEY , P. E. ; LEVY , A. V. & COGGIN , G. M. - On the
Method of Multipliers for Mathematical Programming Problems. Journal of
Reading , 1975.
In Optimization. Fletcher R. ed. ,Academic Press ,London ,pp. 283 - 298 , 1969.
Constraints . Journal Soc. Ind. Appl. Math. Vol. 8 ,pp. 181 - 217 , 1960.
Nomlinear Constraints . Journal Soc. Ind. Appl. Math.. Vol. 9 , pp. 514 - 532 ,
1961.
Boston , 1963.
Brasil , 1982.