TF-slim 层数
TF-slim layers count
下面的代码代表一层还是两层?我很困惑,因为神经网络中不应该也有一个输入层吗?
input_layer = slim.fully_connected(input, 6000, activation_fn=tf.nn.relu)
output = slim.fully_connected(input_layer, num_output)
是否包含隐藏层?我只是想能够可视化网络。提前致谢!
Furthermore, TF-Slim's slim.stack operator allows a caller to repeatedly apply the same operation with different arguments to create a stack or tower of layers. slim.stack also creates a new tf.variable_scope for each operation created. For example, a simple way to create a Multi-Layer Perceptron (MLP):
# Verbose way:
x = slim.fully_connected(x, 32, scope='fc/fc_1')
x = slim.fully_connected(x, 64, scope='fc/fc_2')
x = slim.fully_connected(x, 128, scope='fc/fc_3')
# Equivalent, TF-Slim way using slim.stack:
slim.stack(x, slim.fully_connected, [32, 64, 128], scope='fc')
所以这里提到的网络是一个[32, 64,128]
网络——一个隐藏大小为64的层。
你有一个只有一个隐藏层的神经网络。在您的代码中,input
对应于上图中的 'Input' 层。 input_layer
就是图片所说的'Hidden'。 output
就是图片所说的'Output'.
请记住,神经网络的 "input layer" 不是传统的全连接层,因为它只是未经激活的原始数据。这有点用词不当。上图中那些输入层的神经元和隐藏层或者输出层的神经元不一样
下面的代码代表一层还是两层?我很困惑,因为神经网络中不应该也有一个输入层吗?
input_layer = slim.fully_connected(input, 6000, activation_fn=tf.nn.relu)
output = slim.fully_connected(input_layer, num_output)
是否包含隐藏层?我只是想能够可视化网络。提前致谢!
Furthermore, TF-Slim's slim.stack operator allows a caller to repeatedly apply the same operation with different arguments to create a stack or tower of layers. slim.stack also creates a new tf.variable_scope for each operation created. For example, a simple way to create a Multi-Layer Perceptron (MLP):
# Verbose way:
x = slim.fully_connected(x, 32, scope='fc/fc_1')
x = slim.fully_connected(x, 64, scope='fc/fc_2')
x = slim.fully_connected(x, 128, scope='fc/fc_3')
# Equivalent, TF-Slim way using slim.stack:
slim.stack(x, slim.fully_connected, [32, 64, 128], scope='fc')
所以这里提到的网络是一个[32, 64,128]
网络——一个隐藏大小为64的层。
你有一个只有一个隐藏层的神经网络。在您的代码中,input
对应于上图中的 'Input' 层。 input_layer
就是图片所说的'Hidden'。 output
就是图片所说的'Output'.
请记住,神经网络的 "input layer" 不是传统的全连接层,因为它只是未经激活的原始数据。这有点用词不当。上图中那些输入层的神经元和隐藏层或者输出层的神经元不一样