机器学习 - SVM - 计算向量 W 时如何计算偏差?
Machine Learning - SVM - How to calculate bias when calculate vector W?
我正在编写使用 SGD(随机子梯度下降)优化向量 W 的 SVM Primal 代码。
分类方法是sign(w*x + bias)。
我的问题是如何找到最佳偏差?
我想它必须在 W 优化期间做,但是怎么做呢?我不知道。
您的假设是 sign(<w, x> + b)
,想一想 x' = [x 1]
,然后您可以将您的假设表达为 sign(<w', x'>)
,其中 w' = [w b]
。我希望它清楚地表明 b
与 w
没有任何不同(唯一的区别是您的正则化项 ||w||^2
不涉及 b
)。因此你只需要 d L/ d b
其中 L
是你的损失函数。
我正在编写使用 SGD(随机子梯度下降)优化向量 W 的 SVM Primal 代码。
分类方法是sign(w*x + bias)。
我的问题是如何找到最佳偏差?
我想它必须在 W 优化期间做,但是怎么做呢?我不知道。
您的假设是 sign(<w, x> + b)
,想一想 x' = [x 1]
,然后您可以将您的假设表达为 sign(<w', x'>)
,其中 w' = [w b]
。我希望它清楚地表明 b
与 w
没有任何不同(唯一的区别是您的正则化项 ||w||^2
不涉及 b
)。因此你只需要 d L/ d b
其中 L
是你的损失函数。