tf.keras.backend.dot 有什么作用?
What does tf.keras.backend.dot does?
我目前正在尝试在 C 中实现 LSTM。因此我需要了解 https://www.tensorflow.org/api_docs/python/tf/keras/backend/dot。
例如,如果我调用:dot([1,2],[3,4,5])
for(i = 0; i<size1; i++)
{
for(j = 0; j<size2; j++)
{
tmp += first[j]*second[i];
}
result[i] = tmp;
tmp = 0;
}
所以会得到:[1*3+2*3,1*4+2*4, 1*5+2*5]
这样对吗?
是的,它 returns 两个张量的点积。根据您的示例,它在可变长度张量的点积意义上是正确的,这与矩阵乘法相同。因此,您如愿以偿。
两个变量 a
和 b
的数学点积可以定义为:
a.b=sum(a<i>*b<i>); where i ranges from 0 to n;
我目前正在尝试在 C 中实现 LSTM。因此我需要了解 https://www.tensorflow.org/api_docs/python/tf/keras/backend/dot。
例如,如果我调用:dot([1,2],[3,4,5])
for(i = 0; i<size1; i++)
{
for(j = 0; j<size2; j++)
{
tmp += first[j]*second[i];
}
result[i] = tmp;
tmp = 0;
}
所以会得到:[1*3+2*3,1*4+2*4, 1*5+2*5]
这样对吗?
是的,它 returns 两个张量的点积。根据您的示例,它在可变长度张量的点积意义上是正确的,这与矩阵乘法相同。因此,您如愿以偿。
两个变量 a
和 b
的数学点积可以定义为:
a.b=sum(a<i>*b<i>); where i ranges from 0 to n;