Batch_size 在张量流中?理解这个概念
Batch_size in tensorflow? Understanding the concept
我的问题简单明了。在训练和预测神经网络时批量大小指定什么。如何可视化它以便清楚地了解数据是如何馈送到网络的。
假设我有一个自动编码器
encoder = tflearn.input_data(shape=[None, 41])
encoder = tflearn.fully_connected(encoder, 41,activation='relu')
我将输入作为具有 41 个特征的 csv 文件,据我所知,当我的批量大小为 1 时,它将从 csv 文件中获取每个特征并将其提供给第一层的 41 个神经元.
但是当我将批次大小增加到 100 时,这 100 个批次的 41 个特征将如何馈送到该网络?
model.fit(test_set, test_labels_set, n_epoch=1, validation_set=(valid_set, valid_labels_set),
run_id="auto_encoder", batch_size=100,show_metric=True, snapshot_epoch=False)
是否会对批次进行任何标准化或对其进行一些操作?
两种情况下的 epoc 数量相同
批量大小是您在网络中输入的样本量。对于输入编码器,您指定输入未指定 (None) 数量的样本,每个样本有 41 个值。
使用 None 的优点是您现在可以一次训练 100 个值的批次(这对您的梯度有好处),并测试只有一个值的批次(一个样本你想要一个预测)。
如果您不指定每批标准化,则每批都没有标准化 ;)
希望我解释得足够好!如果您有更多问题,请随时向他们提问!
我的问题简单明了。在训练和预测神经网络时批量大小指定什么。如何可视化它以便清楚地了解数据是如何馈送到网络的。
假设我有一个自动编码器
encoder = tflearn.input_data(shape=[None, 41])
encoder = tflearn.fully_connected(encoder, 41,activation='relu')
我将输入作为具有 41 个特征的 csv 文件,据我所知,当我的批量大小为 1 时,它将从 csv 文件中获取每个特征并将其提供给第一层的 41 个神经元.
但是当我将批次大小增加到 100 时,这 100 个批次的 41 个特征将如何馈送到该网络?
model.fit(test_set, test_labels_set, n_epoch=1, validation_set=(valid_set, valid_labels_set),
run_id="auto_encoder", batch_size=100,show_metric=True, snapshot_epoch=False)
是否会对批次进行任何标准化或对其进行一些操作?
两种情况下的 epoc 数量相同
批量大小是您在网络中输入的样本量。对于输入编码器,您指定输入未指定 (None) 数量的样本,每个样本有 41 个值。
使用 None 的优点是您现在可以一次训练 100 个值的批次(这对您的梯度有好处),并测试只有一个值的批次(一个样本你想要一个预测)。
如果您不指定每批标准化,则每批都没有标准化 ;)
希望我解释得足够好!如果您有更多问题,请随时向他们提问!