Julia.JuMP 比 Python.Cvxpy 慢 15 倍吗?
Is Julia.JuMP 15x slower then Python.Cvxpy?
我试图解决一个简单的优化问题,首先通过 Python.Cvxpy 框架,然后通过 Julia.JuMP 框架,但是 Julia.JuMP 公式慢了 15 倍。
我的优化问题:
- 在 Python.Cvxpy 中:(运行时间:4 秒)
# Run: time python this_file.py
import cvxpy as cp
import numpy as np
n = 2
b = np.array([2,3])
c1 = np.array([[3,4],[1,0],[0,1]])
c2 = [1,0,0]
x = cp.Variable(n)
prob = cp.Problem( cp.Minimize(b@x), [ c1@x >= c2 ])
prob.solve(cp.MOSEK) # FOSS alternative: prob.solve(cp.GLPK)
print('Solution:', prob.value)
- 在 Julia.JuMP 中:(运行时间:1 分 7 秒)
# Run: time julia this_file.jl
using JuMP
using Mosek, MosekTools # FOSS alternative: using GLPK
function compute()
n = 2
b = [2,3]
c1 = [3 4 ; 1 0 ; 0 1]
c2 = [1,0,0]
prob = Model(optimizer_with_attributes(Mosek.Optimizer))
# FOSS alternative: Model(optimizer_with_attributes(GLPK.Optimizer))
@variable(prob, x[1:n])
@objective(prob, Min, b'*x)
@constraint(prob, c1*x .>= c2)
JuMP.optimize!(prob)
println("Solution: ", JuMP.objective_value(prob))
end;
compute()
有什么固定 Julia.JuMP 代码的提示或技巧吗?
超过 1 分钟就过分了。您是否更新了软件包或其他内容并重新编译?
这是我得到的;
(base) oscar@Oscars-MBP lore % cat ~/Desktop/discourse.jl
@time using JuMP
@time using GLPK
function compute()
n = 2
b = [2,3]
c1 = [3 4 ; 1 0 ; 0 1]
c2 = [1,0,0]
prob = Model(GLPK.Optimizer)
@variable(prob, x[1:n])
@objective(prob, Min, b' * x)
@constraint(prob, c1 * x .>= c2)
optimize!(prob)
println("Solution: ", objective_value(prob))
end
@time compute()
@time compute()
(base) oscar@Oscars-MBP lore % time ~/julia --project=/tmp/jump ~/Desktop/discourse.jl
4.070492 seconds (8.34 M allocations: 599.628 MiB, 4.17% gc time, 0.09% compilation time)
0.280838 seconds (233.24 k allocations: 16.040 MiB, 41.37% gc time)
Solution: 0.6666666666666666
12.746518 seconds (17.74 M allocations: 1.022 GiB, 3.71% gc time, 44.57% compilation time)
Solution: 0.6666666666666666
0.000697 seconds (2.87 k allocations: 209.516 KiB)
~/julia --project=/tmp/jump ~/Desktop/discourse.jl 22.63s user 0.55s system 100% cpu 23.102 total
分解
- 总计:23 秒
- 其中,4秒为
using JuMP
- 13 秒是第一次解决
- ~0秒是第二次解
- 这样还剩下 6 秒来启动 Julia
我们正在努力改进 using JuMP
和我们的“首次解决时间”问题,但在此期间您可以做一些事情。
- 不要 运行 通过
julia file.jl
编写脚本。打开一次 Julia 并使用 REPL。这避免了 6 秒的开销。
- 在一个会话中解决多个 JuMP 模型。您只需支付一次 13 秒。第二个解决的很快。
- 求解更大的模型。如果求解时间以分钟为单位,您可能不关心 13 秒的启动时间。
- 使用 PackageCompiler https://github.com/JuliaLang/PackageCompiler.jl 来避免一些延迟问题。
- 使用不同的工具。如果您的工作流程是要解决许多小的优化问题,而您不能执行上述操作,那么目前 JuMP 可能不是完成这项工作的合适工具(尽管我们计划在未来改进延迟问题)。
我试图解决一个简单的优化问题,首先通过 Python.Cvxpy 框架,然后通过 Julia.JuMP 框架,但是 Julia.JuMP 公式慢了 15 倍。
我的优化问题:
- 在 Python.Cvxpy 中:(运行时间:4 秒)
# Run: time python this_file.py
import cvxpy as cp
import numpy as np
n = 2
b = np.array([2,3])
c1 = np.array([[3,4],[1,0],[0,1]])
c2 = [1,0,0]
x = cp.Variable(n)
prob = cp.Problem( cp.Minimize(b@x), [ c1@x >= c2 ])
prob.solve(cp.MOSEK) # FOSS alternative: prob.solve(cp.GLPK)
print('Solution:', prob.value)
- 在 Julia.JuMP 中:(运行时间:1 分 7 秒)
# Run: time julia this_file.jl
using JuMP
using Mosek, MosekTools # FOSS alternative: using GLPK
function compute()
n = 2
b = [2,3]
c1 = [3 4 ; 1 0 ; 0 1]
c2 = [1,0,0]
prob = Model(optimizer_with_attributes(Mosek.Optimizer))
# FOSS alternative: Model(optimizer_with_attributes(GLPK.Optimizer))
@variable(prob, x[1:n])
@objective(prob, Min, b'*x)
@constraint(prob, c1*x .>= c2)
JuMP.optimize!(prob)
println("Solution: ", JuMP.objective_value(prob))
end;
compute()
有什么固定 Julia.JuMP 代码的提示或技巧吗?
超过 1 分钟就过分了。您是否更新了软件包或其他内容并重新编译?
这是我得到的;
(base) oscar@Oscars-MBP lore % cat ~/Desktop/discourse.jl
@time using JuMP
@time using GLPK
function compute()
n = 2
b = [2,3]
c1 = [3 4 ; 1 0 ; 0 1]
c2 = [1,0,0]
prob = Model(GLPK.Optimizer)
@variable(prob, x[1:n])
@objective(prob, Min, b' * x)
@constraint(prob, c1 * x .>= c2)
optimize!(prob)
println("Solution: ", objective_value(prob))
end
@time compute()
@time compute()
(base) oscar@Oscars-MBP lore % time ~/julia --project=/tmp/jump ~/Desktop/discourse.jl
4.070492 seconds (8.34 M allocations: 599.628 MiB, 4.17% gc time, 0.09% compilation time)
0.280838 seconds (233.24 k allocations: 16.040 MiB, 41.37% gc time)
Solution: 0.6666666666666666
12.746518 seconds (17.74 M allocations: 1.022 GiB, 3.71% gc time, 44.57% compilation time)
Solution: 0.6666666666666666
0.000697 seconds (2.87 k allocations: 209.516 KiB)
~/julia --project=/tmp/jump ~/Desktop/discourse.jl 22.63s user 0.55s system 100% cpu 23.102 total
分解
- 总计:23 秒
- 其中,4秒为
using JuMP
- 13 秒是第一次解决
- ~0秒是第二次解
- 这样还剩下 6 秒来启动 Julia
我们正在努力改进 using JuMP
和我们的“首次解决时间”问题,但在此期间您可以做一些事情。
- 不要 运行 通过
julia file.jl
编写脚本。打开一次 Julia 并使用 REPL。这避免了 6 秒的开销。 - 在一个会话中解决多个 JuMP 模型。您只需支付一次 13 秒。第二个解决的很快。
- 求解更大的模型。如果求解时间以分钟为单位,您可能不关心 13 秒的启动时间。
- 使用 PackageCompiler https://github.com/JuliaLang/PackageCompiler.jl 来避免一些延迟问题。
- 使用不同的工具。如果您的工作流程是要解决许多小的优化问题,而您不能执行上述操作,那么目前 JuMP 可能不是完成这项工作的合适工具(尽管我们计划在未来改进延迟问题)。