向 Keras 中的嵌入层添加偏差
Adding bias to embedding layer in Keras
我正在使用 keras 构建模型,以便使用带有负采样的 skipgram 来学习词嵌入。我的输入是一对单词:(context_word, target_word) 当然还有标签 1 和 0对于消极的夫妻。
我需要做的是为模型添加偏差。偏差应该只是每个输入的目标词的偏差,而不是两个词的偏差。
到目前为止,我有代码:
input_u = Input((1,))
input_v = Input((1,))
item_embedding = Embedding(input_dim = items_size,
output_dim = embed_dim,
name = 'item_embedding')
bias_embedding = Embedding(input_dim = items_size,
output_dim = 1,
embeddings_initializer = 'zeros',
name = 'bias_embedding')
u = item_embedding(input_u)
v = item_embedding(input_v)
b_v = bias_embedding(input_v)
dot_p_layer = merge.dot([u, v], axes = 1)
with_bias = merge.add([dot_p_layer, b_v])
flattenned = Flatten()(with_bias)
output_layer = Dense(1,
activation = 'sigmoid',
use_bias = False)(flattenned)
print (output_layer.shape)
model = Model(inputs=[input_u, input_v], outputs=output_layer)
model.compile(loss='binary_crossentropy', optimizer = 'adam', metrics = ['accuracy'])
但是,我似乎无法让它工作。代码是 运行 但是 与没有偏差的模型相比,我得到了更高的损失和更低的准确性。所以我认为我做错了什么。另外,当我检查尺寸时,我仍然得到嵌入尺寸的尺寸,而不是 embedding dimension + 1
我考虑过使用另一个 Dense 层(甚至不确定这样做是否合乎逻辑或是否正确)以便在点积之后添加偏差,但我真的做不到让它工作。
我真的很想得到一些帮助,将偏差添加到模型中。
如果您想要 dimension + 1
,您正在寻找 concatenate
,而不是 add
。
我不知道 dot
之后的维度(点是奇怪的行为,哈哈),但如果它是 3D (batch, embedding, embedding)
,则需要在连接之前展平。
我正在使用 keras 构建模型,以便使用带有负采样的 skipgram 来学习词嵌入。我的输入是一对单词:(context_word, target_word) 当然还有标签 1 和 0对于消极的夫妻。 我需要做的是为模型添加偏差。偏差应该只是每个输入的目标词的偏差,而不是两个词的偏差。
到目前为止,我有代码:
input_u = Input((1,))
input_v = Input((1,))
item_embedding = Embedding(input_dim = items_size,
output_dim = embed_dim,
name = 'item_embedding')
bias_embedding = Embedding(input_dim = items_size,
output_dim = 1,
embeddings_initializer = 'zeros',
name = 'bias_embedding')
u = item_embedding(input_u)
v = item_embedding(input_v)
b_v = bias_embedding(input_v)
dot_p_layer = merge.dot([u, v], axes = 1)
with_bias = merge.add([dot_p_layer, b_v])
flattenned = Flatten()(with_bias)
output_layer = Dense(1,
activation = 'sigmoid',
use_bias = False)(flattenned)
print (output_layer.shape)
model = Model(inputs=[input_u, input_v], outputs=output_layer)
model.compile(loss='binary_crossentropy', optimizer = 'adam', metrics = ['accuracy'])
但是,我似乎无法让它工作。代码是 运行 但是 与没有偏差的模型相比,我得到了更高的损失和更低的准确性。所以我认为我做错了什么。另外,当我检查尺寸时,我仍然得到嵌入尺寸的尺寸,而不是 embedding dimension + 1
我考虑过使用另一个 Dense 层(甚至不确定这样做是否合乎逻辑或是否正确)以便在点积之后添加偏差,但我真的做不到让它工作。
我真的很想得到一些帮助,将偏差添加到模型中。
如果您想要 dimension + 1
,您正在寻找 concatenate
,而不是 add
。
我不知道 dot
之后的维度(点是奇怪的行为,哈哈),但如果它是 3D (batch, embedding, embedding)
,则需要在连接之前展平。