张量流中的二进制阈值激活函数
binary threshold activation function in tensorflow
我有一段代码使用 sigmoid 激活函数进行分类,输出 [0,1]。但我需要一个输出二进制值 0 或 1 的激活函数。
x = tf.placeholder("float", [None, COLUMN])
Wh = tf.Variable(tf.random_normal([COLUMN, UNITS_OF_HIDDEN_LAYER], mean=0.0, stddev=0.05))
h = tf.nn.sigmoid(tf.matmul(x, Wh))
Wo = tf.Variable(tf.random_normal([UNITS_OF_HIDDEN_LAYER, COLUMN], mean=0.0, stddev=0.05))
y = tf.nn.sigmoid(tf.matmul(h, Wo))
# Objective functions
y_ = tf.placeholder("float", [None, COLUMN])
correct_prediction = tf.equal(tf.argmax(y, 1),tf.argmax(y, 1))
cost = tf.reduce_sum(tf.cast(correct_prediction, "float"))/BATCH_SIZE
你能告诉我如何用二进制第一步替换 sigmoid 函数吗?
y = tf.round(tf.nn.sigmoid(tf.matmul(h,Wo))
这会给你 0 或 1 个输出。
在这种情况下你不需要 sigmoid。
试试 relu(sign(x))
我有一段代码使用 sigmoid 激活函数进行分类,输出 [0,1]。但我需要一个输出二进制值 0 或 1 的激活函数。
x = tf.placeholder("float", [None, COLUMN])
Wh = tf.Variable(tf.random_normal([COLUMN, UNITS_OF_HIDDEN_LAYER], mean=0.0, stddev=0.05))
h = tf.nn.sigmoid(tf.matmul(x, Wh))
Wo = tf.Variable(tf.random_normal([UNITS_OF_HIDDEN_LAYER, COLUMN], mean=0.0, stddev=0.05))
y = tf.nn.sigmoid(tf.matmul(h, Wo))
# Objective functions
y_ = tf.placeholder("float", [None, COLUMN])
correct_prediction = tf.equal(tf.argmax(y, 1),tf.argmax(y, 1))
cost = tf.reduce_sum(tf.cast(correct_prediction, "float"))/BATCH_SIZE
你能告诉我如何用二进制第一步替换 sigmoid 函数吗?
y = tf.round(tf.nn.sigmoid(tf.matmul(h,Wo))
这会给你 0 或 1 个输出。
在这种情况下你不需要 sigmoid。 试试 relu(sign(x))