TensorFlow 实现 Seq2seq 情感分析

TensorFlow implementing Seq2seq Sentiment analysis

我目前正在使用 Tensorflow Seq2seq 模型,尝试实现情感分析。我的想法是向编码器提供 IMDB 评论,向解码器提供 [Pad] 或 [Go],向目标提供 [neg]/[pos]。我的大部分代码与 seq2seq 翻译的示例非常相似。但是我得到的结果很奇怪。对于每个批次,结果要么全部为 [neg],要么全部为 [pos]。

"encoder input : I was hooked almost immediately.[pad][pad][pad]"

"decoder input : [pad]"

"target : [pos]"

由于这个结果很讲究,不知道有没有人知道是什么原因导致的?

我会建议尝试使用更简单的架构 - 将 RNN 或 CNN 编码器馈送到逻辑分类器中。该架构在情感分析(亚马逊评论,yelp 评论等)上显示出非常好的结果。

对于此类模型的示例,您可以 see here - 单词和字符的各种编码器(LSTM 或卷积)。