区分人工神经网络中的学习和记忆

Differentiating between learning and memorisation in Artificial Neural Networks

是否有很好的资源可以清楚地解释人工神经网络的学习和记忆之间的区别 - 如果源包含数学解释 and/or 证明,那就更好了。 我在网上查看过文献,但其中大多数只是使用示例来演示,例如对象检测或识别。例如: this, this also this...列表很长。我觉得这还不够。 我知道这个问题对某些人来说可能听起来有点含糊,但是,是否存在作为系统简单记忆或学习的阈值的事情? 非常感谢。

我不知道任何证据来源,但神经网络本质上是非常好的分类器 overfit/overtrained。如果你使用比你需要的网络更复杂的网络(而且你不通常你当然不知道它是什么)你可能会过度训练 model.regularization 并且 dropout 用于防止或至少减少神经网络的过度拟合。

当您的模型过度拟合时,这意味着它只找到了与您用来训练模型的样本相似的特定样本分布模式,因此失去了对所有看不见的输入进行概括的能力。这种行为称为记忆,当您的 samples/inputs 中有一个顺序但您不希望模型学习该顺序并且神经网络使用该顺序对样本进行分类时,也会发生记忆。(例如输入从低到中到高排序)。改组数据是解决这个问题的好方法。

我只知道你可以通过这种方式找出模型是否记住了训练集:训练准确率很高,可能是 100%,但测试准确率低很多,而这个 much 没有阈值,它是经验值,对于一个特定的问题,你甚至可以达到 75% 的准确率,但对于另一个问题,甚至 95% 的准确率都很低。