具有滑动 windows = TDNN 的 MLP

MLP with sliding windows = TDNN

需要对声明进行一些确认。

这两个是等价的吗? 1.MLP 滑动时间 windows 2.Time延迟神经网络(TDNN)

谁能证实给定的说法?可能有参考意义。谢谢

这是来自 Waibel et al 1989 paper 的 TDNN 描述。 "In our TDNN basic unit is modified by intoducing delays D1 through Dn as shown in Fig. 1. J inputs of such unit now will be multiplied by several weights, one for each delay"。这本质上是具有滑动 window 的 MLP(另请参见此处的图 2)。

"Equivalent" 过于笼统,但你可以粗略地说,就架构而言(至少关于他们最初的提议——有更多的修改,比如 MS-TDNN,它与 MLP 更不同) .正确的措辞是 TDNN 是一个扩展的 MLP 架构 [1].

两者都使用反向传播并且都是前馈网络。
主要思想大概可以这样表述:

Delaying the inputs of neurons located in a hidden or the output layer is similar to multiplying the layers beyond and helps with pattern scaling and translation and is close to integrating the input signal over time.

它与 MLP 的不同之处:

However, in order to deal with delayed or scaled input signals, the original denition of the TDNN required that all (delayed) links of a neuron that are connected to one input are identical.

这个要求在后来的研究中被推翻了,但是,就像在 [1] 中过去和现在的节点具有不同的权重(这对于许多应用程序来说显然是合理的)使其等同于 MLP。

这就是关于架构比较的全部内容。让我们谈谈培训。结果会有所不同:如果您将相同的顺序数据输入到 MLP 中,则整个训练会有所不同,该 MLP 仅从滑动 window 中逐个获取 当前数据 和如果你将它 与当前和过去的数据 一起输入到 TDNN 中。最大的不同是 context。使用 MLP,您将在 过去的激活 中获得过去输入的上下文。使用 TDNN,您将在 present activations 中获得它们,直接耦合到您的 present 输入。同样,MLP 没有时间上下文功能(这就是为什么递归神经网络更适用于顺序数据),而 TDNN 试图解决这个问题。在我看来,TDNN 基本上是试图合并 MLP(基本反向传播)和 RNN(context/sequences)这两个世界。

TL;DR: 如果您剥离 TDNN 的目的,您可以说您的陈述在架构层面上是正确的。但是,如果您在实际操作中并排比较这两种架构,您会得到不同的观察结果。