当一种算法表示正面和一种负面时如何调整情绪分析?
How to tune sentiment analysis when one algorithm says positive and one negative?
我目前正在做一个项目,我使用 [Google CNL] 1 and [PyFeel] 2 对数据集进行情感分析。
我已经阅读了很多关于如何调整分类器的文章和技巧,但我更想寻找一些想法:当技术 1 说积极而技术 2 说消极时该怎么办?
遇到这种情况我该怎么办?
在一般的机器学习案例中,这就是集成的全部意义所在:获取多个模型的输出并做出决定。所以你可以在那里阅读大量的文献。
当您有两个模型时,选择将归结为:
- 总结他们的信心
- 多信任一个
- 获得第三意见作为决胜局。
- 不要decision/escalate人类
如果这两个模型是二元分类器,那么你不能使用第一个想法(也就是说,如果模型 A 说它是 +0.7 积极情绪,而模型 B 说它是 -0.4 消极情绪,那么总和是 + 0.3,所以是正数)。
第二个想法,只有两个二元分类器模型,让你不太信任的模型毫无意义。但如果您有乐谱可以使用,这将很有用。扩展前面的例子,如果你信任模型 B 两倍,+0.7 + (-0.4 * 2) = -0.1.
即因为您更信任模型 B,所以您允许它的 -0.4 覆盖模型 A 的 +0.7,并确定它是负数。
我目前正在做一个项目,我使用 [Google CNL] 1 and [PyFeel] 2 对数据集进行情感分析。
我已经阅读了很多关于如何调整分类器的文章和技巧,但我更想寻找一些想法:当技术 1 说积极而技术 2 说消极时该怎么办?
遇到这种情况我该怎么办?
在一般的机器学习案例中,这就是集成的全部意义所在:获取多个模型的输出并做出决定。所以你可以在那里阅读大量的文献。
当您有两个模型时,选择将归结为:
- 总结他们的信心
- 多信任一个
- 获得第三意见作为决胜局。
- 不要decision/escalate人类
如果这两个模型是二元分类器,那么你不能使用第一个想法(也就是说,如果模型 A 说它是 +0.7 积极情绪,而模型 B 说它是 -0.4 消极情绪,那么总和是 + 0.3,所以是正数)。
第二个想法,只有两个二元分类器模型,让你不太信任的模型毫无意义。但如果您有乐谱可以使用,这将很有用。扩展前面的例子,如果你信任模型 B 两倍,+0.7 + (-0.4 * 2) = -0.1.
即因为您更信任模型 B,所以您允许它的 -0.4 覆盖模型 A 的 +0.7,并确定它是负数。