简单线性回归无法在张量流中收敛

simple linear regression failed to converge in tensorflow

我是机器学习和 Tensorflow 的新手。目前我正在尝试按照教程的逻辑创建一个简单的线性回归模型,形式为 y = a*x(这里没有偏差项)。但是,由于某种原因,模型无法收敛到正确的值 "a"。数据集是我在 excel 创建的。如下图:

这是我的代码,它试图在我生成的这个虚拟数据集上 运行 tensorflow。

import tensorflow as tf
import pandas as pd

w = tf.Variable([[5]],dtype=tf.float32)
b = tf.Variable([-5],dtype=tf.float32)
x = tf.placeholder(shape=(None,1),dtype=tf.float32)
y = tf.add(tf.matmul(x,w),b)

label = tf.placeholder(dtype=tf.float32)
loss = tf.reduce_mean(tf.squared_difference(y,label))

data = pd.read_csv("D:\dat2.csv")
xs = data.iloc[:,:1].as_matrix()
ys = data.iloc[:,1].as_matrix()
optimizer = tf.train.GradientDescentOptimizer(0.000001).minimize(loss)
sess = tf.InteractiveSession()
sess.run(tf.global_variables_initializer())

for i in range(10000):
    sess.run(optimizer,{x:xs,label:ys})
    if i%100 == 0:  print(i,sess.run(w))
print(sess.run(w))

下面是 ipython 控制台中的打印输出,如您所见,在第 10000 次迭代后,w 的值约为 4.53,而不是正确的值 6。 如果有人能阐明这里出了什么问题,我将不胜感激。我玩过从 0.01 到 0.0000001 的不同学习率,设置的 none 能够使 w 收敛到 6。我读过一些建议将特征标准化为标准正态分布,我想知道如果这种规范化是必须的?没有归一化,梯度下降就不能找到解决方案吗?非常感谢!

这是一个整形问题:y 和标签的形状不同([batch_size, 1] vs [batch_size])。在 loss = tf.reduce_mean(tf.squared_difference(y, label)) 中,它导致 tensorflow 对事物的解释与你想要的不同,可能是通过使用一些广播......无论如何,结果是你的损失根本不是你想要的。

要更正,只需替换

y = tf.add(tf.matmul(x, w), b)

来自

y = tf.add(tf.matmul(x, w), b)
y = tf.reshape(y, shape=[-1])

下面是我的完整工作代码:

import tensorflow as tf
import pandas as pd

w = tf.Variable([[4]], dtype=tf.float64)
b = tf.Variable([10.0], dtype=tf.float64, trainable=True)
x = tf.placeholder(shape=(None, 1), dtype=tf.float64)
y = tf.add(tf.matmul(x, w), b)
y = tf.reshape(y, shape=[-1])
label = tf.placeholder(shape=(None), dtype=tf.float64)
loss = tf.reduce_mean(tf.squared_difference(y, label))

my_path = "/media/sf_ShareVM/data2.csv"
data = pd.read_csv(my_path, sep=";")
max_n_samples_to_use = 50
xs = data.iloc[:max_n_samples_to_use, :1].as_matrix()
ys = data.iloc[:max_n_samples_to_use, 1].as_matrix()
lr = 0.000001
optimizer = tf.train.GradientDescentOptimizer(learning_rate=lr).minimize(loss)
sess = tf.InteractiveSession()
sess.run(tf.global_variables_initializer())

for i in range(100000):
    _, loss_value, w_value, b_value, y_val, lab_val = sess.run([optimizer, loss, w, b, y, label], {x: xs, label: ys})
    if i % 100 == 0:  print(i, loss_value, w_value, b_value)
    if (i%2000 == 0 and 0< i < 10000):  # We use a smaller LR at first to avoid exploding gradient. It would be MUCH cleaner to use gradient clipping (by global norm)
        lr*=2
        optimizer = tf.train.GradientDescentOptimizer(learning_rate=lr).minimize(loss)

print(sess.run(w))