Databricks 作业 API 使用单节点集群创建作业
Databricks Job API create job with single node cluster
我想弄清楚为什么在使用 Databricks 作业时出现以下错误 API。
{
"error_code": "INVALID_PARAMETER_VALUE",
"message": "Cluster validation error: Missing required field: settings.cluster_spec.new_cluster.size"
}
我做了什么:
- 我使用 Databricks UI 在单节点集群上创建了一个作业 运行。
- 我从 UI.
复制并粘贴了作业配置 json
- 我删除了我的作业并尝试通过使用作业 API 发送一个 POST 来重新创建它,复制的 json 看起来像这样:
{
"new_cluster": {
"spark_version": "7.5.x-scala2.12",
"spark_conf": {
"spark.master": "local[*]",
"spark.databricks.cluster.profile": "singleNode"
},
"azure_attributes": {
"availability": "ON_DEMAND_AZURE",
"first_on_demand": 1,
"spot_bid_max_price": -1
},
"node_type_id": "Standard_DS3_v2",
"driver_node_type_id": "Standard_DS3_v2",
"custom_tags": {
"ResourceClass": "SingleNode"
},
"enable_elastic_disk": true
},
"libraries": [
{
"pypi": {
"package": "koalas==1.5.0"
}
}
],
"notebook_task": {
"notebook_path": "/pathtoNotebook/TheNotebook",
"base_parameters": {
"param1": "test"
}
},
"email_notifications": {},
"name": " jobName",
"max_concurrent_runs": 1
}
API 的文档没有帮助(找不到任何关于 settings.cluster_spec.new_cluster.size 的信息)。 json是从UI复制过来的,所以我想应该是正确的。
感谢您的帮助。
来源:https://docs.microsoft.com/en-us/azure/databricks/dev-tools/api/latest/clusters#--create
要创建单节点集群,请包含示例中显示的 spark_conf
和 custom_tags
条目,并将 num_workers
设置为 0。
{
"cluster_name": "single-node-cluster",
"spark_version": "7.6.x-scala2.12",
"node_type_id": "Standard_DS3_v2",
"num_workers": 0,
"spark_conf": {
"spark.databricks.cluster.profile": "singleNode",
"spark.master": "local[*]"
},
"custom_tags": {
"ResourceClass": "SingleNode"
}
}
我想弄清楚为什么在使用 Databricks 作业时出现以下错误 API。
{ "error_code": "INVALID_PARAMETER_VALUE", "message": "Cluster validation error: Missing required field: settings.cluster_spec.new_cluster.size" }
我做了什么:
- 我使用 Databricks UI 在单节点集群上创建了一个作业 运行。
- 我从 UI. 复制并粘贴了作业配置 json
- 我删除了我的作业并尝试通过使用作业 API 发送一个 POST 来重新创建它,复制的 json 看起来像这样:
{
"new_cluster": {
"spark_version": "7.5.x-scala2.12",
"spark_conf": {
"spark.master": "local[*]",
"spark.databricks.cluster.profile": "singleNode"
},
"azure_attributes": {
"availability": "ON_DEMAND_AZURE",
"first_on_demand": 1,
"spot_bid_max_price": -1
},
"node_type_id": "Standard_DS3_v2",
"driver_node_type_id": "Standard_DS3_v2",
"custom_tags": {
"ResourceClass": "SingleNode"
},
"enable_elastic_disk": true
},
"libraries": [
{
"pypi": {
"package": "koalas==1.5.0"
}
}
],
"notebook_task": {
"notebook_path": "/pathtoNotebook/TheNotebook",
"base_parameters": {
"param1": "test"
}
},
"email_notifications": {},
"name": " jobName",
"max_concurrent_runs": 1
}
API 的文档没有帮助(找不到任何关于 settings.cluster_spec.new_cluster.size 的信息)。 json是从UI复制过来的,所以我想应该是正确的。
感谢您的帮助。
来源:https://docs.microsoft.com/en-us/azure/databricks/dev-tools/api/latest/clusters#--create
要创建单节点集群,请包含示例中显示的 spark_conf
和 custom_tags
条目,并将 num_workers
设置为 0。
{
"cluster_name": "single-node-cluster",
"spark_version": "7.6.x-scala2.12",
"node_type_id": "Standard_DS3_v2",
"num_workers": 0,
"spark_conf": {
"spark.databricks.cluster.profile": "singleNode",
"spark.master": "local[*]"
},
"custom_tags": {
"ResourceClass": "SingleNode"
}
}