vowpal wabbit 使用了什么样的特征提取器?
What kind of feature extractor is used in vowpal wabbit?
在sklearn when we pass sentence to algorithms we can use text features extractors like the countvectorizer, tf-idf vectoriser等...我们得到一个浮点数数组。
但是当传递给 vowpal wabbit 输入文件时我们得到的是这样的:
-1 |Words The sun is blue
1 |Words The sun is yellow
vowpal wabbit 的内部实现使用了什么?这段文字如何转换?
这里有两个不同的问题:
Q1: 为什么你不能(也不应该)使用像 [=11 这样的转换=] 当使用 vowpal wabbit
?
A1: vowpal wabbit
不是批量学习系统,它是在线学习系统。为了计算 tf-idf
(每个文档中的词频与整个语料库中的词频)这样的度量,您需要先查看 all 数据(语料库),有时还要进行多次传递数据。 vowpal wabbit
作为一个 online/incremental 学习系统,旨在解决您 没有完整数据的问题提前时间。参见 This answer for a lot more details。
Q2: vowpal wabbit
"transform"它看到的特征如何?
A2: 没有。它只是将每个单词特征即时映射到内存中的哈希位置。在线学习步骤由重复优化循环驱动(SGD or BFGS) example by example, to minimize the modeling error. You may select the loss function 优化。
但是,如果您已经拥有要训练的完整数据,那么在将转换后的值提供给 vowpal wabbit
之前,没有什么能阻止您对其进行转换(使用任何其他工具)。这是你的选择。根据特定的数据,使用转换预传递可能会得到更好或更差的结果,而不是 运行 多次传递 vowpal wabbit
本身没有初步转换(检查 vw --passes
选项).
为了完成答案,让我们添加另一个相关问题:
Q3: 我可以使用预转换(例如tf-idf
)的数据吗vowpal wabbit
?
A3: 是的,你可以。只需使用以下(post-转换)形式。代替单词,使用整数作为特征 ID,并且由于任何特征都可以有一个可选的显式权重,使用 tf-idf
浮点数作为权重,在典型 SVMlight 格式的 :
分隔符之后:
-1 | 1:0.534 15:0.123 3:0.27 29:0.066 ...
1 | 3:0.1 102:0.004 24:0.0304 ...
之所以可行,是因为 vw
有一个很好的区分字符串和整数特征的特性。它不会散列看起来像整数的特征名称(除非您明确使用 --hash_all
选项)。直接使用整数特征编号,就好像它们是特征的哈希结果。
在sklearn when we pass sentence to algorithms we can use text features extractors like the countvectorizer, tf-idf vectoriser等...我们得到一个浮点数数组。
但是当传递给 vowpal wabbit 输入文件时我们得到的是这样的:
-1 |Words The sun is blue
1 |Words The sun is yellow
vowpal wabbit 的内部实现使用了什么?这段文字如何转换?
这里有两个不同的问题:
Q1: 为什么你不能(也不应该)使用像 [=11 这样的转换=] 当使用 vowpal wabbit
?
A1: vowpal wabbit
不是批量学习系统,它是在线学习系统。为了计算 tf-idf
(每个文档中的词频与整个语料库中的词频)这样的度量,您需要先查看 all 数据(语料库),有时还要进行多次传递数据。 vowpal wabbit
作为一个 online/incremental 学习系统,旨在解决您 没有完整数据的问题提前时间。参见 This answer for a lot more details。
Q2: vowpal wabbit
"transform"它看到的特征如何?
A2: 没有。它只是将每个单词特征即时映射到内存中的哈希位置。在线学习步骤由重复优化循环驱动(SGD or BFGS) example by example, to minimize the modeling error. You may select the loss function 优化。
但是,如果您已经拥有要训练的完整数据,那么在将转换后的值提供给 vowpal wabbit
之前,没有什么能阻止您对其进行转换(使用任何其他工具)。这是你的选择。根据特定的数据,使用转换预传递可能会得到更好或更差的结果,而不是 运行 多次传递 vowpal wabbit
本身没有初步转换(检查 vw --passes
选项).
为了完成答案,让我们添加另一个相关问题:
Q3: 我可以使用预转换(例如tf-idf
)的数据吗vowpal wabbit
?
A3: 是的,你可以。只需使用以下(post-转换)形式。代替单词,使用整数作为特征 ID,并且由于任何特征都可以有一个可选的显式权重,使用 tf-idf
浮点数作为权重,在典型 SVMlight 格式的 :
分隔符之后:
-1 | 1:0.534 15:0.123 3:0.27 29:0.066 ...
1 | 3:0.1 102:0.004 24:0.0304 ...
之所以可行,是因为 vw
有一个很好的区分字符串和整数特征的特性。它不会散列看起来像整数的特征名称(除非您明确使用 --hash_all
选项)。直接使用整数特征编号,就好像它们是特征的哈希结果。