vowpal wabbit 使用了什么样的特征提取器?

What kind of feature extractor is used in vowpal wabbit?

sklearn when we pass sentence to algorithms we can use text features extractors like the countvectorizer, tf-idf vectoriser等...我们得到一个浮点数数组。

但是当传递给 vowpal wabbit 输入文件时我们得到的是这样的:

-1 |Words The sun is blue
1 |Words The sun is yellow

vowpal wabbit 的内部实现使用了什么?这段文字如何转换?

这里有两个不同的问题:

Q1: 为什么你不能(也不应该)使用像 [=11 这样的转换=] 当使用 vowpal wabbit ?

A1: vowpal wabbit 不是批量学习系统,它是在线学习系统。为了计算 tf-idf(每个文档中的词频与整个语料库中的词频)这样的度量,您需要先查看 all 数据(语料库),有时还要进行多次传递数据。 vowpal wabbit 作为一个 online/incremental 学习系统,旨在解决您 没有完整数据的问题提前时间。参见 This answer for a lot more details

Q2: vowpal wabbit"transform"它看到的特征如何?

A2: 没有。它只是将每个单词特征即时映射到内存中的哈希位置。在线学习步骤由重复优化循环驱动(SGD or BFGS) example by example, to minimize the modeling error. You may select the loss function 优化。

但是,如果您已经拥有要训练的完整数据,那么在将转换后的值提供给 vowpal wabbit 之前,没有什么能阻止您对其进行转换(使用任何其他工具)。这是你的选择。根据特定的数据,使用转换预传递可能会得到更好或更差的结果,而不是 运行 多次传递 vowpal wabbit 本身没有初步转换(检查 vw --passes 选项).

为了完成答案,让我们添加另一个相关问题:

Q3: 我可以使用预转换(例如tf-idf)的数据吗vowpal wabbit ?

A3: 是的,你可以。只需使用以下(post-转换)形式。代替单词,使用整数作为特征 ID,并且由于任何特征都可以有一个可选的显式权重,使用 tf-idf 浮点数作为权重,在典型 SVMlight 格式的 : 分隔符之后:

-1 |  1:0.534  15:0.123  3:0.27  29:0.066  ...
1  |  3:0.1  102:0.004  24:0.0304  ...

之所以可行,是因为 vw 有一个很好的区分字符串和整数特征的特性。它不会散列看起来像整数的特征名称(除非您明确使用 --hash_all 选项)。直接使用整数特征编号,就好像它们是特征的哈希结果。