Keras 中批量大小和纪元之间的关系是什么?
What is the relationship between the batch size and the epochs in Keras?
我正在训练一个包含 8000 个样本的模型
classifier = KerasClassifier(build_fn=build_classifier, batch_size=10, nb_epoch=100)
其中批量大小为 10(那么每批将包含 800 个样本)。因此,在每个 epoch 中,将使用这 800 个样本中的一个来拟合模型。这是我的理解,如有错误请指正
输出为
纪元 1/10
10/7200 [..............................] - ETA: 2:57 - loss: 0.6932 - acc: 0.1000
440/7200 [>.............................] - ETA: 4s - loss: 0.6866 - acc: 0.7932
1100/7200 [===>..........................] - ETA: 2s - loss: 0.6744 - acc: 0.7900
1660/7200 [=====>........................] - ETA: 1s - loss: 0.6555 - acc: 0.7910
2220/7200 [========>.....................] - ETA: 1s - loss: 0.6329 - acc: 0.7869
2930/7200 [===========>..................] - ETA: 0s - loss: 0.5990 - acc: 0.7887
3520/7200 [=============>................] - ETA: 0s - loss: 0.5744 - acc: 0.7906
4230/7200 [================>.............] - ETA: 0s - loss: 0.5564 - acc: 0.7872
4880/7200 [===================>..........] - ETA: 0s - loss: 0.5432 - acc: 0.7881
5650/7200 [======================>.......] - ETA: 0s - loss: 0.5278 - acc: 0.7913
6280/7200 [=========================>....] - ETA: 0s - loss: 0.5165 - acc: 0.7933
6910/7200 [===========================>..] - ETA: 0s - loss: 0.5059 - acc: 0.7951
7200/7200 [==============================] - 1s 123us/step - loss: 0.5051 - acc: 0.7939
为什么第一个epoch有13个细分?在每个epoch中,应该只有一批必须执行,对吧?
批量大小是每批中的样本数。每个批处理被称为 1 step.
当训练集中的所有数据都用于训练时,一个epoch完成。
因此,对于给定的示例,每个时期将有 800 个步骤,每个批次将有 10 个样本。
我正在训练一个包含 8000 个样本的模型
classifier = KerasClassifier(build_fn=build_classifier, batch_size=10, nb_epoch=100)
其中批量大小为 10(那么每批将包含 800 个样本)。因此,在每个 epoch 中,将使用这 800 个样本中的一个来拟合模型。这是我的理解,如有错误请指正
输出为
纪元 1/10
10/7200 [..............................] - ETA: 2:57 - loss: 0.6932 - acc: 0.1000
440/7200 [>.............................] - ETA: 4s - loss: 0.6866 - acc: 0.7932
1100/7200 [===>..........................] - ETA: 2s - loss: 0.6744 - acc: 0.7900
1660/7200 [=====>........................] - ETA: 1s - loss: 0.6555 - acc: 0.7910
2220/7200 [========>.....................] - ETA: 1s - loss: 0.6329 - acc: 0.7869
2930/7200 [===========>..................] - ETA: 0s - loss: 0.5990 - acc: 0.7887
3520/7200 [=============>................] - ETA: 0s - loss: 0.5744 - acc: 0.7906
4230/7200 [================>.............] - ETA: 0s - loss: 0.5564 - acc: 0.7872
4880/7200 [===================>..........] - ETA: 0s - loss: 0.5432 - acc: 0.7881
5650/7200 [======================>.......] - ETA: 0s - loss: 0.5278 - acc: 0.7913
6280/7200 [=========================>....] - ETA: 0s - loss: 0.5165 - acc: 0.7933
6910/7200 [===========================>..] - ETA: 0s - loss: 0.5059 - acc: 0.7951
7200/7200 [==============================] - 1s 123us/step - loss: 0.5051 - acc: 0.7939
为什么第一个epoch有13个细分?在每个epoch中,应该只有一批必须执行,对吧?
批量大小是每批中的样本数。每个批处理被称为 1 step.
当训练集中的所有数据都用于训练时,一个epoch完成。
因此,对于给定的示例,每个时期将有 800 个步骤,每个批次将有 10 个样本。