Databricks 的凭据传递 Sql
Credential pass through for Databricks Sql
到目前为止,我们已经将 Databricks 用于数据工程和数据科学目的,但最近开始探索新的 Databricks Sql 分析,因为我们有很多 SQL 分析师也想加入潮流(对于某些用例)。
但是,我注意到的最大绊脚石是 SQL 端点始终需要服务主体才能访问 Azure Data Lake Gen2。没有仅使用“凭据传递”而不使用 SPN 的选项。
我已经尝试查找限制(已知问题)页面以及所有现有文档,但没有遇到任何与此相关的内容。
我们不能只使用具有凭据传递的高并发集群用于数据湖第 2 代(或具有凭据传递的单用户标准集群)而不使用任何 spn(就像我们为数据工程所做的那样)和数据科学工作负载)?或者至少有一个时间表?
这对于组织中访问生产数据的细粒度安全要求非常重要。
到目前为止,我们已经将 Databricks 用于数据工程和数据科学目的,但最近开始探索新的 Databricks Sql 分析,因为我们有很多 SQL 分析师也想加入潮流(对于某些用例)。
但是,我注意到的最大绊脚石是 SQL 端点始终需要服务主体才能访问 Azure Data Lake Gen2。没有仅使用“凭据传递”而不使用 SPN 的选项。
我已经尝试查找限制(已知问题)页面以及所有现有文档,但没有遇到任何与此相关的内容。
我们不能只使用具有凭据传递的高并发集群用于数据湖第 2 代(或具有凭据传递的单用户标准集群)而不使用任何 spn(就像我们为数据工程所做的那样)和数据科学工作负载)?或者至少有一个时间表?
这对于组织中访问生产数据的细粒度安全要求非常重要。