Tensorflow - 抛出批量大小问题

Tensorflow - batch size issue thrown

我正在按照来自 Colab 的本教程 (https://colab.research.google.com/github/khanhlvg/tflite_raspberry_pi/blob/main/object_detection/Train_custom_model_tutorial.ipynb) 进行操作,并在我自己的 Windows 机器上 运行 它。

当我调试我的脚本时它抛出这个错误 > The size of the train_data (0) couldn't be smaller than batch_size (4). To solve this problem, set the batch_size smaller or increase the size of the train_data.

在我的这段代码中

model = object_detector.create(train_data, model_spec=spec, batch_size=4, train_whole_model=True, epochs=20, validation_data=val_data)

我自己的训练数据包含 101 张图像,而来自 Colab 的示例在他们的训练文件夹中只包含 62 张。

我知道它在抱怨训练数据不能小于批量大小,但我不明白为什么它一开始就抛出它,因为我的训练数据不为空。

在我自己的机器上,我有 Tensorflow 版本:2.8.0,就像在 colab 中一样。

我已经尝试将批量大小从 0 一直增加到 100plus,但仍然给我同样的错误。

我试过删除一个样本,这样就有 100 张图像,并将样本大小设置为 2、4 等...但仍然会引发错误。

我得出的结论是它没有正确加载数据,但为什么呢?

对于任何 运行遇到和我一样的问题的人,这是我的解决方案。

好吧,发生这种情况的原因是 Python.

的不同版本

我试图在本地 运行 使用 Python 3.8.10

Colab 运行宁 3.7.12 .

我 运行 我在 colab 上使用版本 (3.7.12) 的所有数据并训练了我的模型,没有更多问题。