Tensorflow ValueError: GraphDef cannot be larger than 2GB
Tensorflow ValueError: GraphDef cannot be larger than 2GB
Link 使用代码和 error logs.
到我的笔记本
GraphDef 的大小似乎随着步数的增加而增加。如果做得好,我认为这不应该发生。然而,当我只更改 "display_step" 变量时,它允许我 运行 一些更多的步骤,直到错误发生。
关于如何解决这个问题的任何想法?
我认为问题在于:您在训练循环中反复调用 get_batch_train
,并且此函数通过 tf.convert_to_tensor
动态创建张量。实际上,这会在每次迭代时在您的图形中创建新节点,这会导致长 运行.
中的 OOM
由于 train_x
和 train_y
被馈送到 session.run
,因此无需手动将它们转换为张量。所以试着去掉 tf.convert_to_tensor
.
Link 使用代码和 error logs.
到我的笔记本GraphDef 的大小似乎随着步数的增加而增加。如果做得好,我认为这不应该发生。然而,当我只更改 "display_step" 变量时,它允许我 运行 一些更多的步骤,直到错误发生。
关于如何解决这个问题的任何想法?
我认为问题在于:您在训练循环中反复调用 get_batch_train
,并且此函数通过 tf.convert_to_tensor
动态创建张量。实际上,这会在每次迭代时在您的图形中创建新节点,这会导致长 运行.
由于 train_x
和 train_y
被馈送到 session.run
,因此无需手动将它们转换为张量。所以试着去掉 tf.convert_to_tensor
.