将 Apache Zeppelin 连接到 Hive
Connect Apache Zeppelin to Hive
我尝试将我的 apache zeppelin 与我的 hive metastore 连接起来。我使用 zeppelin 0.7.3,所以没有 hive 解释器 jdbc。我已将 hive-site.xml 复制到 zeppelin conf 文件夹,但我不知道如何创建新的 hive 解释器。
我还尝试通过 spark 的配置单元上下文访问配置单元表,但是当我尝试这种方式时,我看不到我的配置单元数据库,只显示了默认数据库。
有人可以解释如何创建配置单元解释器或如何通过 spark 正确访问我的配置单元元存储吗?
如有任何答复,我们将不胜感激。
我按照这个 documentation 解决了它。在 jdbc 连接器中添加此参数后,您应该能够 运行 hive 解释器与
%jdbc(hive)
在我的例子中,这有点棘手,因为我使用的是 Cloudera Hadoop,所以标准 jdbc 配置单元连接器无法正常工作。因此,我将外部配置单元-jdbc.jar 更改为适合我的 cdh 版本的配置单元(对于 cdh 5.9.- 例如,它位于 here)。
我还发现您可以将 hive.url 更改为 impala 端口,并根据需要将 jdbc 连接到 impala。
我尝试将我的 apache zeppelin 与我的 hive metastore 连接起来。我使用 zeppelin 0.7.3,所以没有 hive 解释器 jdbc。我已将 hive-site.xml 复制到 zeppelin conf 文件夹,但我不知道如何创建新的 hive 解释器。
我还尝试通过 spark 的配置单元上下文访问配置单元表,但是当我尝试这种方式时,我看不到我的配置单元数据库,只显示了默认数据库。
有人可以解释如何创建配置单元解释器或如何通过 spark 正确访问我的配置单元元存储吗?
如有任何答复,我们将不胜感激。
我按照这个 documentation 解决了它。在 jdbc 连接器中添加此参数后,您应该能够 运行 hive 解释器与
%jdbc(hive)
在我的例子中,这有点棘手,因为我使用的是 Cloudera Hadoop,所以标准 jdbc 配置单元连接器无法正常工作。因此,我将外部配置单元-jdbc.jar 更改为适合我的 cdh 版本的配置单元(对于 cdh 5.9.- 例如,它位于 here)。
我还发现您可以将 hive.url 更改为 impala 端口,并根据需要将 jdbc 连接到 impala。