TF-slim 层数

TF-slim layers count

下面的代码代表一层还是两层?我很困惑,因为神经网络中不应该也有一个输入层吗?

input_layer = slim.fully_connected(input, 6000, activation_fn=tf.nn.relu)
output = slim.fully_connected(input_layer, num_output)

是否包含隐藏层?我只是想能够可视化网络。提前致谢!

来自tensorflow-slim

Furthermore, TF-Slim's slim.stack operator allows a caller to repeatedly apply the same operation with different arguments to create a stack or tower of layers. slim.stack also creates a new tf.variable_scope for each operation created. For example, a simple way to create a Multi-Layer Perceptron (MLP):

# Verbose way:
x = slim.fully_connected(x, 32, scope='fc/fc_1')
x = slim.fully_connected(x, 64, scope='fc/fc_2')
x = slim.fully_connected(x, 128, scope='fc/fc_3')

# Equivalent, TF-Slim way using slim.stack:
slim.stack(x, slim.fully_connected, [32, 64, 128], scope='fc')

所以这里提到的网络是一个[32, 64,128]网络——一个隐藏大小为64的层。

你有一个只有一个隐藏层的神经网络。在您的代码中,input 对应于上图中的 'Input' 层。 input_layer 就是图片所说的'Hidden'。 output就是图片所说的'Output'.

请记住,神经网络的 "input layer" 不是传统的全连接层,因为它只是未经激活的原始数据。这有点用词不当。上图中那些输入层的神经元和隐藏层或者输出层的神经元不一样