Knime 大数据本地环境 & findspark
Knime BigData Local Environment & findspark
我只是想知道:是否可以访问在 Knime 中启动的 BigData Environment Node?
我在 Knime 工作流程中有一个节点。从 Knime 外部,我使用 findspark 编写了一个 Python 脚本,但是......它似乎没有检测到它。
有什么例子或建议吗?
提前致谢
Hive 可以访问,而 Spark 和 HDFS 则不能。您可以通过 JDBC 使用在节点执行时随机化的端口连接到 Hive。关于它的信息应该在第一个输出端口 - DB Session.
我只是想知道:是否可以访问在 Knime 中启动的 BigData Environment Node?
我在 Knime 工作流程中有一个节点。从 Knime 外部,我使用 findspark 编写了一个 Python 脚本,但是......它似乎没有检测到它。
有什么例子或建议吗?
提前致谢
Hive 可以访问,而 Spark 和 HDFS 则不能。您可以通过 JDBC 使用在节点执行时随机化的端口连接到 Hive。关于它的信息应该在第一个输出端口 - DB Session.