在 Azure 中检查 Databricks Runtime 的版本
Checking the version of Databricks Runtime in Azure
是否可以在 Azure 中检查 Databricks Runtime 的版本?
Databricks Runtime 是 运行 在 Azure Databricks 管理的集群上的一组核心组件。它包括 Apache Spark,但还添加了许多组件和更新,这些组件和更新显着提高了大数据分析的可用性、性能和安全性。
You can choose from among many supported runtime versions when you
create a cluster.
If you want to know the version of Databricks runtime in Azure after
creation:
转到 Azure Data bricks 门户 => 集群 => 交互式集群 =>在这里你可以找到 运行 时间版本。
详情请参考“Azure Databricks Runtime versions”。
希望这对您有所帮助。
在 Scala 中:
dbutils.notebook.getContext.tags("sparkVersion")
在Python中:
spark.conf.get("spark.databricks.clusterUsageTags.sparkVersion")
正在为您提供 Databricks 运行时和 Scala 版本,例如。例如:5.0.x-scala2.11 .
print (spark.version)
对我有用
是否可以在 Azure 中检查 Databricks Runtime 的版本?
Databricks Runtime 是 运行 在 Azure Databricks 管理的集群上的一组核心组件。它包括 Apache Spark,但还添加了许多组件和更新,这些组件和更新显着提高了大数据分析的可用性、性能和安全性。
You can choose from among many supported runtime versions when you create a cluster.
If you want to know the version of Databricks runtime in Azure after creation:
转到 Azure Data bricks 门户 => 集群 => 交互式集群 =>在这里你可以找到 运行 时间版本。
详情请参考“Azure Databricks Runtime versions”。
希望这对您有所帮助。
在 Scala 中:
dbutils.notebook.getContext.tags("sparkVersion")
在Python中:
spark.conf.get("spark.databricks.clusterUsageTags.sparkVersion")
正在为您提供 Databricks 运行时和 Scala 版本,例如。例如:5.0.x-scala2.11 .
print (spark.version)
对我有用