SVM(SVC)训练详细中的obj和rho是什么
what is obj and rho in SVM(SVC) training verbose
我在 SVC 中训练了一个分类模型,我想可视化训练过程,因此详细设置为 True。这是我得到的结果:
optimazation finished,#iter = 200
obj = -315.082675, rho = 3.537407
nSV = 232, nBSV = 199
iter 表示收敛所需的迭代。在这种情况下,obj 和 rho 是什么意思?
scikit-learn 的 SVC
implementation is based on libsvm
. You are trying to solve the ν-Support Vector Classification problem which is defined here 如下二次程序(原始问题):
其中对应的对偶问题是
最优超平面软间隔变体的ν-SVC使用ν-参数化。标准正则化参数 C 被参数 ν ∈ [0, 1] 替换,它是示例数量的下限和上限是支持向量,分别位于超平面的错误一侧,如前所述 here.
变量 ρ 也被优化了。请注意,对于 ξ = 0,两个 类 由边距 2ρ/||w|| 分隔。这里rho指的是收敛时的最优ρ值。而obj是objective函数(最小化)收敛时的最优值。
我在 SVC 中训练了一个分类模型,我想可视化训练过程,因此详细设置为 True。这是我得到的结果:
optimazation finished,#iter = 200
obj = -315.082675, rho = 3.537407
nSV = 232, nBSV = 199
iter 表示收敛所需的迭代。在这种情况下,obj 和 rho 是什么意思?
scikit-learn 的 SVC
implementation is based on libsvm
. You are trying to solve the ν-Support Vector Classification problem which is defined here 如下二次程序(原始问题):
其中对应的对偶问题是
最优超平面软间隔变体的ν-SVC使用ν-参数化。标准正则化参数 C 被参数 ν ∈ [0, 1] 替换,它是示例数量的下限和上限是支持向量,分别位于超平面的错误一侧,如前所述 here.
变量 ρ 也被优化了。请注意,对于 ξ = 0,两个 类 由边距 2ρ/||w|| 分隔。这里rho指的是收敛时的最优ρ值。而obj是objective函数(最小化)收敛时的最优值。