有没有办法在多 GPU 上实现 运行 急流时间序列模块(ARIMA、ESM)?
Is there a way to run rapids time series modules (ARIMA, ESM) on multi-gpu?
我有一个节点,上面有 2 个 Tesla P100 gpu。
当我 运行 rapids.tsa.ARIMA(或 ESM)时,它只会使用一个 GPU。
有没有办法利用多 GPU 来训练模型?就像在 rapids-dask-xgboost 中一样?
不符合 cuml documentation。对于多节点多 GPU,请检查 table.
上的 Notes 列
时间序列模型、Arima 和 Holtwinters 的多节点多 GPU 实现不存在。我建议在 cuML 的 github 存储库 (https://github.com/rapidsai/cuml) 上创建一个功能请求。
我有一个节点,上面有 2 个 Tesla P100 gpu。
当我 运行 rapids.tsa.ARIMA(或 ESM)时,它只会使用一个 GPU。 有没有办法利用多 GPU 来训练模型?就像在 rapids-dask-xgboost 中一样?
不符合 cuml documentation。对于多节点多 GPU,请检查 table.
上的 Notes 列时间序列模型、Arima 和 Holtwinters 的多节点多 GPU 实现不存在。我建议在 cuML 的 github 存储库 (https://github.com/rapidsai/cuml) 上创建一个功能请求。