Watson/Alchemy 情绪分析在某些情况下被错误标记为负面

Watson/Alchemy sentiment analysis mislabeled as negative in some cases

我正在使用 Watson/Alchemy 情绪分析 API,发现一些文章被标记为负面,而这些文章可以说是正面的。当文章讨论好的或有益的减少时,就会发生这种情况。

例如,this Washington Post article,"We’ve had a massive decline in gun violence in the United States. Here’s why."提交给API时,它returns的评分是-0.4,虽然文章还是比较乐观的! (文章认为枪支暴力已经显着下降。)

另一个示例是 this article from CoreLogic、"CoreLogic Reports 38,000 Completed Foreclosures in January 2016." API returns 文档情感分数为 -0.27,即使文本是正面的:“...与 2015 年 1 月相比,止赎库存下降了 21.7%,完成止赎的数量下降了 16.2%。全国完成止赎的数量从 2015 年 1 月的 46,000 下降到 2016 年 1 月的 38,000。

是否有解决此问题的既定解决方法?具体来说,我们不想损害服务的可信度,因此当仔细 reader 评估此类文章的情绪时,我们的结果与 API 所建议的完全不同。我正在寻找可以让我针对特定情况修改情绪结果的东西(例如 "decrease in foreclosures" 是积极的,"decrease in homicides" 也是如此)。

我相信这很正常:-) 很少有情感分析算法可以在 100% 的结果中给你正确的答案:-) 我不知道算法的实现,但我敢打赌是情绪是根据"sentiment"的表达和词来计算的。例如,很可能 "gun"、"violence" 可能与负面情绪有关,但 Watson 可能没有理解它们与 "massive decline" 有关(甚至 "decline" 可能有负面情绪)。

对于非常特定的领域,即使是最先进的情感分析算法也能达到大约 85~90% 的准确率。因此,基于此设定您的期望始终很重要。