Keras:嵌入/向量的附加层?

Keras : addition layer for embeddings / vectors?

我有 3 个词嵌入:

有没有办法通过添加所有三个向量来获得第四个嵌入,以及所有向量的可训练权重,例如:

?有没有办法在 keras 层中执行此操作?

问题
我想学习印度尼西亚语的词嵌入。我计划通过使用 LSTM 训练序列预测机来做到这一点。

然而,印尼语的语法与英语不同。特别是在印度尼西亚语中,您可以使用前缀和后缀来修饰单词。给定前缀的名词词可以成为动词,给定后缀可以成为形容词。你可以在一个词中加入如此多的变体,这样一个基本词就可以有 5 个或更多变体。

例如:

  1. tani 表示农场(动词)
  2. pe-tani 意思是农民
  3. per-tani-an 表示农场(名词)
  4. ber-tani 表示农场(动词,含义略有不同)

通过给单词附加前缀进行的语义转换在单词之间是一致的。例如:

  1. pe-tani 之于 tani 就像 pe-layan 之于 layan,pe-layar 之于 layar,pe-tembak 之于 tembak,等等。
  2. per-main-an 之于 main 就是 per-guru-an 之于 guru,per-kira-an 之于 kira,per-surat-an 之于 surat,等等。

因此,我计划将前缀和后缀表示为嵌入,这将用于对基本词的嵌入进行添加,从而产生新的嵌入。因此,复合词的含义是从基本词和词缀的嵌入中派生出来的,而不是存储为单独的嵌入。但是我不知道如何在 Keras 层中执行此操作。如果之前有人问过,我找不到它。

当你说"three word embeddings"的时候,我看到三个Embedding层,比如:

input1 = Input((sentenceLength,))
input2 = Input((sentenceLength,))
input3 = Input((sentenceLength,))

emb1 = Embedding(...options...)(input1)
emb2 = Embedding(...options...)(input2)
emb3 = Embedding(...options...)(input3)

您可以使用一个简单的 Add() 层来对三者求和:

summed = Add()([emb1,emb2,emb3])

然后你继续你的建模...

#after creating the rest of the layers and getting the desired output:
model = Model([input1,input2,input3],output)

如果您没有使用嵌入层,但输入了三个向量:

input1 = Input((4,)) #or perhaps (sentenceLength,4)
input2 = Input((4,))
input3 = Input((4,))

added = Add()([input1,input2,input3])

其余同理


如果这不是您的问题,请详细说明这三个 "word embeddings" 的来源、您打算如何 select 它们等。