bagging/boosting 使用元音 wabbit

bagging/boosting using vowel wabbit

我如何在带有 SVM 的 vowpal wabbit 中使用装袋或提升。

我目前的结果是 90% 的召回率和 10% 的准确率。

vw -d train.dat -c compressed --passes 10 --oaa 3 -f train.model --loss_function hinge

我想使用bagging/boosting来提高精度

为了提升使用 --boosting N(最近添加,所以使用来自 GitHub 的 VW)。 对于装袋,使用 --bootstrap M。参见

我看不出如何定义召回率和准确率以分类为 3 类。让我们现在假设,你有一个标准的二元分类(有两个 类:正面和负面)并且你想要优化 F1 分数(精度和召回率的调和平均值)并且你有精度 = 10%,召回率=90%。所以只有 10% 的正面预测示例是真正正面的。 (这可能是由于数据不平衡或测试数据中正例与训练数据的比例不同造成的。)在这种情况下,我建议增加重要性权重(参见 [Importance] at VW wiki)负面例子(或降低正面例子的重要性)。