我们如何增加可用于在 Google Cloud DataLabs 中执行 SVM 的 CPU?
How do we increase the CPUs available for doing SVMs in Google Cloud DataLabs?
我们有一个包含约 70,000 行和约 7 个特征的数据库,我们正在尝试对其进行基于 SVM 的预测。服务 运行 4-5 小时后停止(没有结果)。我们如何增加或减少执行计算的 CPU 数量,以便这可能 运行 在几分钟而不是几小时内完成?
这在很大程度上取决于您的操作方式。
首先,请注意 Python 是单线程的,因此使用 CPU 解决问题可能没有什么区别,除非您以某种可以利用它们的方式这样做。
其次,运行您的 Datalab 实例的托管 VM 在创建时配置为具有一定数量的内核、内存等。这不会动态扩展。您需要在部署时创建一个更强大的实例。请参阅此处的文档:https://cloud.google.com/datalab/getting-started#custom_cloud_datalab_deployment
我们有一个包含约 70,000 行和约 7 个特征的数据库,我们正在尝试对其进行基于 SVM 的预测。服务 运行 4-5 小时后停止(没有结果)。我们如何增加或减少执行计算的 CPU 数量,以便这可能 运行 在几分钟而不是几小时内完成?
这在很大程度上取决于您的操作方式。
首先,请注意 Python 是单线程的,因此使用 CPU 解决问题可能没有什么区别,除非您以某种可以利用它们的方式这样做。
其次,运行您的 Datalab 实例的托管 VM 在创建时配置为具有一定数量的内核、内存等。这不会动态扩展。您需要在部署时创建一个更强大的实例。请参阅此处的文档:https://cloud.google.com/datalab/getting-started#custom_cloud_datalab_deployment