为英特尔至强金牌 6148 构建张量流
build tensorflow for intel xeon gold 6148
我有一台服务器,上面有两个 Intel xeon gold 6148 和 tensorflow 运行。
当我使用 pip 安装 tf 时,我收到一条消息,提示我的安装未使用 AVX2 和 AVX512。
因此,为了获得最佳性能,我尝试使用 docker 从源代码构建 tf。
我是在 https://www.tensorflow.org/install/source 之后这样做的,但是对于我使用的 bazel build 命令:
bazel build --config=mkl -c opt --copt=-mavx --copt=-mavx2 --copt=-mfma --copt=-mavx512f --copt=-mavx512pf --copt=-mavx512cd --copt=-mavx512er //tensorflow/tools/pip_package:build_pip_package
关注 https://software.intel.com/en-us/articles/intel-optimization-for-tensorflow-installation-guide。
但是这个安装的性能比标准的pip安装差很多。
所以,总结一下:在 xeon gold 架构上安装 tensorflow 的最佳方法是什么?
尝试使用 Intel 网站上的 tensorflow wheel。
请按照以下步骤创建自己的 conda 环境并安装 wheel。
1) conda create -n ENV_NAME -c intel python=3.6 pip numpy
2) 源激活 ENV_NAME
希望对您有所帮助。
我有一台服务器,上面有两个 Intel xeon gold 6148 和 tensorflow 运行。
当我使用 pip 安装 tf 时,我收到一条消息,提示我的安装未使用 AVX2 和 AVX512。
因此,为了获得最佳性能,我尝试使用 docker 从源代码构建 tf。
我是在 https://www.tensorflow.org/install/source 之后这样做的,但是对于我使用的 bazel build 命令:
bazel build --config=mkl -c opt --copt=-mavx --copt=-mavx2 --copt=-mfma --copt=-mavx512f --copt=-mavx512pf --copt=-mavx512cd --copt=-mavx512er //tensorflow/tools/pip_package:build_pip_package
关注 https://software.intel.com/en-us/articles/intel-optimization-for-tensorflow-installation-guide。
但是这个安装的性能比标准的pip安装差很多。
所以,总结一下:在 xeon gold 架构上安装 tensorflow 的最佳方法是什么?
尝试使用 Intel 网站上的 tensorflow wheel。
请按照以下步骤创建自己的 conda 环境并安装 wheel。
1) conda create -n ENV_NAME -c intel python=3.6 pip numpy
2) 源激活 ENV_NAME
希望对您有所帮助。