Knime 大数据本地环境 & findspark

Knime BigData Local Environment & findspark

我只是想知道:是否可以访问在 Knime 中启动的 BigData Environment Node

我在 Knime 工作流程中有一个节点。从 Knime 外部,我使用 findspark 编写了一个 Python 脚本,但是......它似乎没有检测到它。

有什么例子或建议吗?

提前致谢

Hive 可以访问,而 Spark 和 HDFS 则不能。您可以通过 JDBC 使用在节点执行时随机化的端口连接到 Hive。关于它的信息应该在第一个输出端口 - DB Session.