是否可以在 n 次迭代而不是每次迭代后使用平均损失来优化 Tensorflow MLP?

Is it possible to optimize a Tensorflow MLP with the averaged loss after n iterations instead of every iteration?

我的网络的输入是 NxN 图像的 n 个连续像素(其中 n 比 N 小),输出是 1 个像素。
损失定义为输出与期望输出之间的平方差。

我想在迭代整个图像后对平均损失使用优化器。

但是,如果我尝试在列表中收集损失并在所有迭代完成后平均这些损失,将其提供给我的优化器,则会导致错误,因为 Tensorflow 不知道损失从何而来,因为它不是在计算图上。

显然,向我的网络提供数组 [x,n](其中 x 是输入的数量,否则我必须在每次迭代中单独提供,n 是连续像素的数量)然后优化为此输入计算的损失正是我要找的。