Python 中具有迭代边界的函数的最小化
Minimization of a function with iterative bounds in Python
我正在尝试最小化 N
参数(例如 x[1],x[2],x[3]...,x[N]
)的函数,其中最小化的边界取决于最小化参数本身。例如,假设 x
的所有值都可以在 0 和 1 之间变化,这样总和然后我得到 1,那么我有以下边界不等式:
0 <= x[1] <= 1
x[1] <= x[2] <= 1 - x[1]
x[2] <= x[3] <= 1-x[1]-x[2]
...
x[N-1] <= x[N] <= 1-x[1]-x[2]-x[3]-...-x[N]
有没有人知道如何在 python 上构建类似的算法?或者,如果我可以采用 Scipy 中的现有方法,例如?
根据经验:只要您的边界取决于优化变量,它们就是不等式约束而不是边界。使用基于 0 的索引,您的不等式可以写成
# left-hand sides
-x[0] <= 0
x[i] - x[i+1] <= 0 for all i = 0, ..., n-1
# right-hand sides
sum(x[i], i = 0, .., j) - 1 <= 0 for all j = 0, .., n
两者都可以用一个简单的matrix-vector乘积表示:
import numpy as np
D_lhs = np.diag(np.ones(N-1), k=-1) - np.diag(np.ones(N))
D_rhs = np.tril(np.ones(N))
def lhs(x):
return D_lhs @ x
def rhs(x):
return D_rhs @ x - np.ones(x.size)
因此,您可以使用 scipy.optimize.minimize
来最小化受 lhs(x) <= 0
和 rhs(x) <= 0
约束的 objective 函数,如下所示:
from scipy.optimize import minimize
# minmize expects eqach inequality constraint in the form con(x) >= 0,
# so lhs(x) <= 0 is the same as -1.0*lhs(x) >= 0
con1 = {'type': 'ineq', 'fun': lambda x: -1.0*lhs(x)}
con2 = {'type': 'ineq', 'fun': lambda x: -1.0*rhs(x)}
result = minimize(your_obj_fun, x0=inital_guess, constraints=(con1, con2))
我正在尝试最小化 N
参数(例如 x[1],x[2],x[3]...,x[N]
)的函数,其中最小化的边界取决于最小化参数本身。例如,假设 x
的所有值都可以在 0 和 1 之间变化,这样总和然后我得到 1,那么我有以下边界不等式:
0 <= x[1] <= 1
x[1] <= x[2] <= 1 - x[1]
x[2] <= x[3] <= 1-x[1]-x[2]
...
x[N-1] <= x[N] <= 1-x[1]-x[2]-x[3]-...-x[N]
有没有人知道如何在 python 上构建类似的算法?或者,如果我可以采用 Scipy 中的现有方法,例如?
根据经验:只要您的边界取决于优化变量,它们就是不等式约束而不是边界。使用基于 0 的索引,您的不等式可以写成
# left-hand sides
-x[0] <= 0
x[i] - x[i+1] <= 0 for all i = 0, ..., n-1
# right-hand sides
sum(x[i], i = 0, .., j) - 1 <= 0 for all j = 0, .., n
两者都可以用一个简单的matrix-vector乘积表示:
import numpy as np
D_lhs = np.diag(np.ones(N-1), k=-1) - np.diag(np.ones(N))
D_rhs = np.tril(np.ones(N))
def lhs(x):
return D_lhs @ x
def rhs(x):
return D_rhs @ x - np.ones(x.size)
因此,您可以使用 scipy.optimize.minimize
来最小化受 lhs(x) <= 0
和 rhs(x) <= 0
约束的 objective 函数,如下所示:
from scipy.optimize import minimize
# minmize expects eqach inequality constraint in the form con(x) >= 0,
# so lhs(x) <= 0 is the same as -1.0*lhs(x) >= 0
con1 = {'type': 'ineq', 'fun': lambda x: -1.0*lhs(x)}
con2 = {'type': 'ineq', 'fun': lambda x: -1.0*rhs(x)}
result = minimize(your_obj_fun, x0=inital_guess, constraints=(con1, con2))