vowpalwabbit 奇怪的功能计数
vowpalwabbit strange features count
我发现在训练过程中,我的模型 vw 在其日志中显示了非常大的(比我的特征数多得多)特征数。
我尝试用一些小例子重现它:
simple.test:
-1 | 1 2 3
1 | 3 4 5
然后 "vw simple.test" 命令说它使用了 8 个特征。 +一个特征是不变的,但另一个是什么?在我的真实示例中,我的功能和 wv 中使用的功能之间的差异大约是 x10。
.....
Num weight bits = 18
learning rate = 0.5
initial_t = 0
power_t = 0.5
using no cache
Reading datafile = t
num sources = 1
average since example example current current current
loss last counter weight label predict features
finished run
number of examples = 2
weighted example sum = 2
weighted label sum = 3
average loss = 1.9179
best constant = 1.5
total feature number = 8 !!!!
total feature number
显示所有观察示例的特征计数总和。所以在你的情况下是 2*(3+1 常数)=8。当前示例中的特征数显示在 current features
列中。请注意,默认情况下只有 2^Nth
示例打印在屏幕上。一般来说,观察可以具有不等数量的特征。
我发现在训练过程中,我的模型 vw 在其日志中显示了非常大的(比我的特征数多得多)特征数。
我尝试用一些小例子重现它:
simple.test:
-1 | 1 2 3
1 | 3 4 5
然后 "vw simple.test" 命令说它使用了 8 个特征。 +一个特征是不变的,但另一个是什么?在我的真实示例中,我的功能和 wv 中使用的功能之间的差异大约是 x10。
.....
Num weight bits = 18
learning rate = 0.5
initial_t = 0
power_t = 0.5
using no cache
Reading datafile = t
num sources = 1
average since example example current current current
loss last counter weight label predict features
finished run
number of examples = 2
weighted example sum = 2
weighted label sum = 3
average loss = 1.9179
best constant = 1.5
total feature number = 8 !!!!
total feature number
显示所有观察示例的特征计数总和。所以在你的情况下是 2*(3+1 常数)=8。当前示例中的特征数显示在 current features
列中。请注意,默认情况下只有 2^Nth
示例打印在屏幕上。一般来说,观察可以具有不等数量的特征。