使用 GPU 的 TF bidirectional_dynamic_rnn 效率低下
Low efficiency of TF's bidirectional_dynamic_rnn using GPU
我正在使用 NVIDIA Tesla P40 训练分类模型。我用tensorflow的bidirectional_dynamic_rnn搭建bi-lstm网络,训练效率很差,只用了30%左右的计算资源,速度甚至不比用CPU with 45 个逻辑核心。能不能帮忙给点建议充分利用GPU计算资源,或者说说原因?????
第一个提示:尝试增加 batch_size
。它将增加并行使用的数据量,从而减少 I/O 时间。
请注意,它将需要更多的 GPU 内存,因此您必须对其进行调整以避免内存不足错误。
我正在使用 NVIDIA Tesla P40 训练分类模型。我用tensorflow的bidirectional_dynamic_rnn搭建bi-lstm网络,训练效率很差,只用了30%左右的计算资源,速度甚至不比用CPU with 45 个逻辑核心。能不能帮忙给点建议充分利用GPU计算资源,或者说说原因?????
第一个提示:尝试增加 batch_size
。它将增加并行使用的数据量,从而减少 I/O 时间。
请注意,它将需要更多的 GPU 内存,因此您必须对其进行调整以避免内存不足错误。