如何从 Java 连接到 Databricks Apache Spark 的远程实例并将 csv 文件写入远程实例?

How do I connect to and write a csv file to a remote instance of Databricks Apache Spark from Java?

我正在尝试连接到 Databricks 的远程实例并将 csv 文件写入 DBFS 的特定文件夹。我可以在这里和那里找到点点滴滴,但我不知道如何完成这项工作。如何从本地计算机上的 Java 程序 运行 将文件添加到远程 Databricks 实例上的 DBFS?

我目前正在使用我从这里创建的社区实例: https://databricks.com/try-databricks

这是我的实例的 url(我猜“o=7823909094774610”正在识别我的实例)。
https://community.cloud.databricks.com/?o=7823909094774610

这是我正在寻找的一些资源,试图解决这个问题,但我仍然无法着手解决:

您可以查看 DBFS REST API,并考虑在您的 Java 应用程序中使用它。

如果不需要 Java 解决方案,那么您也可以查看 databricks-cli。使用 pip (pip install databricks-cli) 安装后,您只需:

  1. 通过 运行 配置 CLI:databricks configure
  2. 通过运行将文件复制到DBFS:databricks fs cp <source> dbfs:/<target>