情绪分析的细节
Specifics on sentiment analysis
我正在开发一个机器人,它使用情绪分析来分析医疗保险领域的人们提出的问题。我们所做的主要事情之一是通过查找护理工具将人们与护理联系起来。人们提出的基本问题采用 "I need a new doctor" 或 "I need to see a dermatologist" 的形式。当情绪消极时,我们希望将用户转给客户服务,但正如我们刚刚发现的那样,任何以 "I need" 开头的陈述都被 LUIS 的内置情绪分析视为消极陈述。这对我们来说是个大问题!
如果有办法调整它,请有人告诉我,尽管我不抱太大希望。但我想了解 - 为什么做出这个决定?为什么一个简单的 "I need" 问题被认为是消极的而不是中立的?
无法更改情绪分析,因为 LUIS 依赖于 Microsoft 的文本分析来生成结果。除了 Ferdinand 的评论建议,您还可以执行以下操作之一。
建议产生更积极结果的不同话语。使用 'find a doctor' 会产生积极的结果,而 'I need a doctor' 则不会。
Azure 团队有一个 ML 学习实验室 repo,展示了如何开发您自己的文本分析。这将需要更多的努力,但会让您能够获得您正在寻找的那种情绪分析。
我正在开发一个机器人,它使用情绪分析来分析医疗保险领域的人们提出的问题。我们所做的主要事情之一是通过查找护理工具将人们与护理联系起来。人们提出的基本问题采用 "I need a new doctor" 或 "I need to see a dermatologist" 的形式。当情绪消极时,我们希望将用户转给客户服务,但正如我们刚刚发现的那样,任何以 "I need" 开头的陈述都被 LUIS 的内置情绪分析视为消极陈述。这对我们来说是个大问题!
如果有办法调整它,请有人告诉我,尽管我不抱太大希望。但我想了解 - 为什么做出这个决定?为什么一个简单的 "I need" 问题被认为是消极的而不是中立的?
无法更改情绪分析,因为 LUIS 依赖于 Microsoft 的文本分析来生成结果。除了 Ferdinand 的评论建议,您还可以执行以下操作之一。
建议产生更积极结果的不同话语。使用 'find a doctor' 会产生积极的结果,而 'I need a doctor' 则不会。
Azure 团队有一个 ML 学习实验室 repo,展示了如何开发您自己的文本分析。这将需要更多的努力,但会让您能够获得您正在寻找的那种情绪分析。