Professional Documents
Culture Documents
Abstract This paper aims to evaluate two different methods of one-dimensional search and compare with two optimization
methods for non-linear unconstrained problems. First it’s presented bisection and Newton search that minimize a given tridi-
mensional function. Afterwards, Newton optimized and quasi-Newton Broyden-Flecher-Goldfarb-Shanno family methods are
performed and its results are analyzed and the number of iterations, time taken and precision of each technique are compared.
Matlab® and Gams® are used to verify the reliability of obtained results of those implemented methods.
Resumo O Presente artigo tem por objetivo avaliar dois métodos diferentes para busca unidimensional e comparar com dois
métodos de otimização irrestrita não linear. Primeiramente são apresentados os métodos de busca por Bisseção e Newton a fim
de minimizar uma dada função. Após, métodos da família de Newton Otimizado e Semi-Newton Broyden-Flecher-Goldfarb-
Shanno são utilizados e seus resultados são analisados e o número de iterações, tempo de execução e precisão de cada método é
comparado. Matlab® e Gams® são utilizados para verificar a confiabilidade dos resultados obtidos com os obtidos pelos métodos
implementados.
Os problemas de otimização (PO) estão presen- Considerando o problema geral de otimização não
tes em diversas áreas de conhecimento e têm como linear descrito em (1), onde Ω representa o conjunto
finalidade encontrar soluções ótimas em relação à viável das soluções.
alguns objetivos. Estes problemas são modelados por
uma equação em função das variáveis de decisão, Minimizar f x ; x
chamada de função objetivo. (UNESCO 2005) (1)
As variáveis de decisão podem assumir valores Sujeito à xk n
100
80
x2
0
x2
0
foi proposto em (Haffner 2017) uma função a ser 40
40
x (15)
80
K2
K3sen x1 K3 cos 2
60
1 x 4 x1 x2
60
2
4 2 2
x2
x2
0 0
1 40
K1 1;0;1 ; 0 K2 5 ;
40
Sujeito à 20
20
(16)
0 K3 5 ; x1 , x2 -5 0 -5 0
-5 0 5 -5 0 5
x1 x1
k1 = 0; k2=0; k3=5 k1 = 0; k2=5; k3=5
3.1 Análise das Constantes K1, K2 e K3 5 90 5 90
80 80
x2
0 0 50
tes Kn, precedente à minimização. 40 40
A Figura 1 diferencia o comportamento da fun- 30 30
(horário).
As constantes K2 e K3 à medida que seus valores
são incrementados a função objetivo começa a se 20
14
limite superior de sua restrição, demonstrando sua
f(x1,x2)
12
não convexidade.
10
Além disso, utiliza-se o software Gams® consi-
8
derando K2 e K3 como variáveis e aplicada as restri-
6
ções dadas em (16), analisando seus valores margi- 3
2
nais quando K1 é fixado. Resultando que mesmo va- 1 1
1.5
0
riando os valores de K, o mínimo da função não é -1 0
0.5
-0.5
afetado, Assim adotando os valores de -1, 2,5 e 0,1 -2
-3 -1.5
-1
x2
x1
para K1, K2 e K3, respectivamente, apresentados na
Tabela 1. Figura 2. Comportamento da função objetivo f x para K1 = 0,
Tabela 1. Valores das Constantes K1, K2 e K3 de f(x). K2 = 5 e K3 = 5.
Constante Valor Kn
K1 -1,0 Os valores das constantes são escolhidos de mo-
K2 2,5 do que a função objetivo permanecesse moderada-
K3 0,1 mente convexa, tolerando, em uma estreita faixa,
f x assumir valores maiores que suas vizinhanças.
O comportamento de f x é apresentado na Com isso é possível avaliar a robustez dos métodos
Figura 2, na qual (a) é demonstrada a função objetivo implementados.
k1=-1; k2=2,5; k3=0,1
em curvas de nível e em (b), esta é descrita por um 5
100
gráfico de superfície. 80
60
x2
40
20
-5 0
-5 0 5
x1 (a)
k1=-1; k2=2,5; k3=0,1 4.1 Bisseção
Por exceção, o método da Bisseção não utilizou os
25 pontos iniciais da Tabela 2, pois apresentou baixa
20
eficácia na convergência.
Quando definido a precisão de 1,00E-4 e o ponto
15
inicial xo = [-5, -5] este método convergiu para o pon-
f(x1,x2)
10
to de mínimo global, encontrando um ponto de mí-
5 nimo local e se aprisionando em um ponto de cela.
0 Tabela 3. Bisseção: análise da tolerância
-5
3 a1 b1 xo a2 b2 f(x) x i ε ( )
2
3
1
2
-5 5 [0 ; 0] -5 5 -1,7313 [1,33 ; 0,86] 7 1,00E-01
0
1
-1 0 -5 5 [0 ; 0] -5 5 -1,7314 [1,33 ; 0,85] 11 1,00E-02
-2 -1
x2 -3 -2
x1
-5 5 [0 ; 0] -5 5 -1,7315 [1,33 ; 0,85] 15 1,00E-03
(b) -5 5 [0 ; 0] -5 5 -1,7315 [1,33 ; 0,85] 37 1,00E-10
Para avaliar o desempenho dos métodos utiliza- -3 10 [3,5 ; 5] -6 5 -1,7308 [1,33;0,88] 19 1,00E-04
dos na minimização da função objetivo (15) com as
constantes K da Tabela 1 foi determinado um con- 4.2 Newton
junto de pontos próximos utilizados como pontos
iniciais (xo) de busca. Todos os métodos utilizaram os Tabela 5. Newton: análise da tolerância.
mesmos pontos iniciais, apresentados na Tabela 2. xo f(x) x i ε ( )
Tabela 2. Pontos iniciais de busca xoe -1,7315 [1,33 ; 0,85] 4 1,00E-01
xoe -1,7315 [1,33 ; 0,85] 4 1,00E-02
Símbolo Valores de xo xoe -1,7315 [1,33 ; 0,85] 5 1,00E-10
xoa [0 ; 0]
xob [-5 ; 5] Tabela 6. Newton: análise da convergência.
xoc [5 ; -5] xo f(x) x i ε ( )
xod [100 ; 150] xoa -1,7315 [1,33 ; 0,85] 5 1,00E-04
xoe [3 ; 2] xob -1,7315 [1,33 ; 0,85] 4 1,00E-04
xoc -1,7315 [1,33 ; 0,85] 5 1,00E-04
Para cada método implementado foram utiliza- xod -1,7315 [1,33 ; 0,85] 6 1,00E-04
dos os diferentes pontos iniciais da Tabela 2, avali-
ando o número de iterações. O ponto xoe foi empre- 4.3 Otimização por Newton
gado para examinar a precisão do método.
Como o ponto de mínimo de uma função fica lo- Tabela 7. Otimização por Newton: análise da tolerância.
calizado em um ponto de derivada zero, optou-se por
utilizar o módulo do gradiente da função no ponto xk xo f(x) x i ε ( )
como critério de parada. Em todos os métodos foram xoe -1,7315 [1,33 ; 0,85] 3 1,00E-01
efetuadas duas análises: uma avaliando o número de xoe -1,7315 [1,33 ; 0,85] 3 1,00E-02
iterações para precisões de 1,00E-01, 1,00E-02 e a xoe -1,7315 [1,33 ; 0,85] 4 1,00E-09
máxima precisão obtida; a segunda avalição utiliza o Tabela 8. Otimização por Newton: análise da convergência.
ponto inicial xoe para a precisão de 1,00E-04.
Em adição, a fim de validar os métodos imple- xo f(x) x i ε ( )
mentados, foi feita a simulação com duas funções xoa -1,7315 [1,33 ; 0,85] 4 1,00E-04
pré-programadas do Matlab®: a fminsearch (que ba- xob -1,7315 [1,33 ; 0,85] 4 1,00E-04
seia-se em métodos de busca unidimensional sem xoc -1,7315 [1,33 ; 0,85] 4 1,00E-04
derivadas) e o fminunc (que baseia-se no método xod -1,7315 [1,33 ; 0,85] 5 1,00E-04
Quase-Newton com derivadas) utilizando os pontos
da Tabela 2. Ainda, foi utilizado o software Gams® e
comparado o desempenho utilizando os solvers co-
nopt e minos.
4.4 Otimização Quase-Newton BFGS 4.8 Comparativo entre os métodos