Julia.JuMP 比 Python.Cvxpy 慢 15 倍吗?

Is Julia.JuMP 15x slower then Python.Cvxpy?

我试图解决一个简单的优化问题,首先通过 Python.Cvxpy 框架,然后通过 Julia.JuMP 框架,但是 Julia.JuMP 公式慢了 15 倍。

我的优化问题:

  1. 在 Python.Cvxpy 中:(运行时间:4 秒)
# Run: time python this_file.py
import cvxpy as cp
import numpy as np
n = 2
b = np.array([2,3])
c1 = np.array([[3,4],[1,0],[0,1]])
c2 = [1,0,0]

x = cp.Variable(n)
prob = cp.Problem( cp.Minimize(b@x), [ c1@x >= c2 ])
prob.solve(cp.MOSEK)   # FOSS alternative: prob.solve(cp.GLPK)

print('Solution:', prob.value)
  1. 在 Julia.JuMP 中:(运行时间:1 分 7 秒)
# Run: time julia this_file.jl
using JuMP
using Mosek, MosekTools   # FOSS alternative: using GLPK

function compute()
    n = 2
    b = [2,3]
    c1 = [3 4 ; 1 0 ; 0 1]
    c2 = [1,0,0]

    prob = Model(optimizer_with_attributes(Mosek.Optimizer))   
    # FOSS alternative: Model(optimizer_with_attributes(GLPK.Optimizer))
    @variable(prob, x[1:n])
    @objective(prob, Min, b'*x)
    @constraint(prob, c1*x .>= c2)
    JuMP.optimize!(prob)

    println("Solution: ", JuMP.objective_value(prob))
end;

compute()

有什么固定 Julia.JuMP 代码的提示或技巧吗?

超过 1 分钟就过分了。您是否更新了软件包或其他内容并重新编译?

这是我得到的;

(base) oscar@Oscars-MBP lore % cat ~/Desktop/discourse.jl
@time using JuMP
@time using GLPK

function compute()
    n = 2
    b = [2,3]
    c1 = [3 4 ; 1 0 ; 0 1]
    c2 = [1,0,0]

    prob = Model(GLPK.Optimizer)
    @variable(prob, x[1:n])
    @objective(prob, Min, b' * x)
    @constraint(prob, c1 * x .>= c2)
    optimize!(prob)
    println("Solution: ", objective_value(prob))
end

@time compute()
@time compute()
(base) oscar@Oscars-MBP lore % time ~/julia --project=/tmp/jump ~/Desktop/discourse.jl
  4.070492 seconds (8.34 M allocations: 599.628 MiB, 4.17% gc time, 0.09% compilation time)
  0.280838 seconds (233.24 k allocations: 16.040 MiB, 41.37% gc time)
Solution: 0.6666666666666666
 12.746518 seconds (17.74 M allocations: 1.022 GiB, 3.71% gc time, 44.57% compilation time)
Solution: 0.6666666666666666
  0.000697 seconds (2.87 k allocations: 209.516 KiB)
~/julia --project=/tmp/jump ~/Desktop/discourse.jl  22.63s user 0.55s system 100% cpu 23.102 total

分解

  • 总计:23 秒
  • 其中,4秒为using JuMP
  • 13 秒是第一次解决
  • ~0秒是第二次解
  • 这样还剩下 6 秒来启动 Julia

我们正在努力改进 using JuMP 和我们的“首次解决时间”问题,但在此期间您可以做一些事情。

  1. 不要 运行 通过 julia file.jl 编写脚本。打开一次 Julia 并使用 REPL。这避免了 6 秒的开销。
  2. 在一个会话中解决多个 JuMP 模型。您只需支付一次 13 秒。第二个解决的很快。
  3. 求解更大的模型。如果求解时间以分钟为单位,您可能不关心 13 秒的启动时间。
  4. 使用 PackageCompiler https://github.com/JuliaLang/PackageCompiler.jl 来避免一些延迟问题。
  5. 使用不同的工具。如果您的工作流程是要解决许多小的优化问题,而您不能执行上述操作,那么目前 JuMP 可能不是完成这项工作的合适工具(尽管我们计划在未来改进延迟问题)。