Tensorflow - 数据邻接重要吗? - MNIST 例子

Tensorflow - Does data adjancency matter ? - MNIST example

我查看了 MNIST example 并注意到当图像数组被展平为 728 数组时,如果该数组被随机化会有影响吗?我的意思是 NN 是否考虑了数据的邻接性,或者是否有一个输入节点放置输入数字(因此有 728 个节点)。

我想问的是,如果我像示例中那样使用展平的图像进行训练,是否会得到与随机化 728 数据数组时相同的网络?

取决于您查看的是哪个 mnist 示例。 convolutional.py 在图像上运行 5x5 空间卷积 window,这确实考虑了空间相关性。

使用简单权重矩阵的 MNIST 初学者示例:

W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))

没有。您可以排列点中条目的顺序而不更改任何内容,只要您以相同的方式排列所有输入

(卷积方法在大多数图像识别应用中获胜是有原因的——空间局部性 很有用。:)

您正在查看非常基础的教程,其全部目的是让您熟悉 TF 和一些重要的 ML 概念,这些概念将用于许多更难的模型中。他们并没有尝试做任何困难的事情(事实上,准确度并不高于开箱即用的 运行 SVM 所能达到的准确度)。如果您仔细阅读教程,他们会说:

It doesn't matter how we flatten the array, as long as we're consistent between images.

Flattening the data throws away information about the 2D structure of the image. Isn't that bad? Well, the best computer vision methods do exploit this structure, and we will in later tutorials. But the simple method we will be using here, a softmax regression, won't.

您关于网络的问题:网络的拓扑结构相同,weights/biases 不同。

还有一个 convolutional neural network 的例子考虑了数据的邻接性