Keras 顺序模型中的最大安全批处理大小

Maximum-security batch size in Keras Sequential model

我正在训练一个 Keras 序列模型,但我没有指定 batch_size。当我查看一个在训练期间保存我所有批量大小的列表时,我发现 1200 似乎是最大批量大小。

我的输入数据有 1500 个样本。当我将批处理大小指定为 1500 时,keras 仍将其分成 1200 和额外的 300。当我没有指定某些内容时,我得到 37 乘以 32 批加上大小 16 (=1200) 中的一个,然后是 9 乘以 32 加一尺寸为 12 (=300)。保存的批量大小:

我查看了 keras 顺序模型文档 here,但没有找到为什么会发生这种情况的解释。

我想过是不是我的内存对1500个样本来说太小了,但是在计算过程中它只使用了大约60%。这不是对第二个观察结果的解释。

这是因为默认情况下,它使用 80% 的数据进行训练,使用 20% 的数据进行测试。