tf.metrics.mean_squared_error 的准确性

accuracy of tf.metrics.mean_squared_error

为了学习需要,想查一下tf.Metrics.mean_squared_error的准确性。令我惊讶的是,它们有很大的不同。我正在寻求解释。这是我的实验简介,后面是我的示例代码:

1) tf.Metrics.mean_squared_error用整个训练数据评估训练好的玩具模型;和

2) 在第 1 步之后立即再次评估,首先收集同一整个训练数据的所有 "Xs"(或图像)的预测,然后计算所有基本事实的均方误差训练数据和预测的(或标签)。

我有两个未经证实的解释:(1) 浮点精度损失累积和 (2) tf.Metrics.mean_square_error 在其实现中应用看似移动平均线,导致不准确。

非常感谢任何相关的想法!谢谢!


import tensorflow as tf
from numpy import genfromtxt

tf.logging.set_verbosity(tf.logging.INFO)
# (hyper)parameters
batch_size = 200
num_epochs = 1000
steps = 1000
# prepare data
with tf.Session() as sess:
    training_x = sess.run(tf.random_normal([2048, 16], mean=-1, stddev=4, dtype=tf.float64))
    training_y = norm = sess.run(tf.random_normal([2048, 1], mean=-1, stddev=4, dtype=tf.float64))
# input function
_input_fn = lambda _input_path: genfromtxt(_input_path, delimiter=',')
input_training = tf.contrib.learn.io.numpy_input_fn({"input": training_x}, training_y,
                                              batch_size=batch_size, num_epochs=num_epochs)
input_evaluate_train_data = tf.contrib.learn.io.numpy_input_fn({"input": training_x}, training_y)

# remember to give the same column name as used in _input_fn
features = [tf.contrib.layers.real_valued_column('input', dimension=16)]
regressor = tf.contrib.learn.DNNRegressor(feature_columns=features,
                                          hidden_units=[32, 8],
                                          dropout=0.1,
                                          model_dir="testDNNR/result",
                                          optimizer=tf.train.AdamOptimizer(learning_rate=0.008),
                                          activation_fn=tf.nn.elu)

# training
regressor.fit(input_fn=input_training, steps=steps)
# testing with training data
eval_metric_ops = {
    "mse": lambda targets, predictions: tf.metrics.mean_squared_error(tf.cast(targets, tf.float64), predictions)
}
ev = regressor.evaluate(input_fn=input_evaluate_train_data, steps=1, metrics=eval_metric_ops)
pred = regressor.predict(input_fn=input_evaluate_train_data, as_iterable=False)
# using my MSE
mse = ((training_y - pred) ** 2).mean()

print ("evaluation result given training data using my MSE: " + str(mse))
print ("evaluation result given training data using the library built-in MSE: " + str(ev))

不匹配来自 tf.contrib.learn.io.numpy_input_fn 的工作方式。经过一些包装后,此功能由 https://github.com/tensorflow/tensorflow/blob/r1.3/tensorflow/python/estimator/inputs/numpy_io.py#L45

实现

如您所见,默认情况下,每次调用它时 returns 一批 128 个值。当你在调用 regressor.evaluate 中使用它时,你会得到一组与你在 regressor.predict.

中使用它时得到的不同的 128 个值。

还有其他相关问题。上面链接的实现具有 shuffle=True,这意味着它将从您的数据中随机选择 128 个元素。

此外,当你这样做时 training_y - pred 大小非常不同并且张量得到 广播 导致比你预期的更多的术语。