Word2vec + Tensorflow 和一切的形状

Word2vec + Tensorflow and the shape of everything

我正在寻找使用 tensorflow 解决简单文本分类问题的解决方案。我用 IMDB 数据集制作了一个模型来了解评论是正面的还是负面的。数据是通过 word2vec 处理的,所以现在我有一堆向量可以分类。我认为我的问题是由于 y_labels 的形状不好,因为它们是一维的,我想通过带有两个 类 输出的 tensorflow 对它们进行分类,或者我错了。最终信息,该模型运行良好,精度为 1.0,可能太好了!感谢您的帮助!

X_train called train_vecs = (25000, 300) dtype: float64
X_test called test_vecs = (25000, 300) dtype: float64
y_test = shape (25000, 1) dtype: int64
y_train = shape: (25000, 1) dtype: int64

x = tf.placeholder(tf.float32, shape = [None, 300])
y = tf.placeholder(tf.float32, shape = [None, 2])
# Input -> Layer 1
W1 = tf.Variable(tf.zeros([300, 2]))
b1 = tf.Variable(tf.zeros([2]))
#h1 = tf.nn.sigmoid(tf.matmul(x, W1) + b1)
# Calculating difference between label and output
pred = tf.nn.softmax(tf.matmul(x, W1) + b1)
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred,y))
train_step = tf.train.GradientDescentOptimizer(0.3).minimize(cost)

with tf.Session() as sess:
        for i in xrange(200):
                init_op = tf.initialize_all_variables()
                sess.run(init_op)
                train_step.run(feed_dict = {x: train_vecs, y: y_train})
        correct_prediction = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1))
        # Calculate accuracy
        accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
        print "Accuracy:", accuracy.eval({x: test_vecs, y: y_test})

您在示例中使用了 softmax。 Softmax 为 N 个不同的 classes 分配一个概率,其中概率加起来为 1。基本上,模型正在选择 N 个选项中的一个。为了使这个有意义,您需要 N 至少为 2。如果 N == 1,class 的概率将始终为 1。您有两个可能的修复方法:

  1. 创建两个 class,一个用于 "positive sentiment",一个用于 "negative sentiment",将 N 设置为 2。
  2. 使用逻辑回归代替 Softmax。在逻辑回归中,每个 class 都是独立的。这意味着您有 N 个问题,每个问题都有自己的 "yes" 或 "no" 答案,这对于 N == 1 是有意义的。