调试 Zeppelin 依赖管理
Debug Zeppelin Dependency Management
我尝试让 Zeppelin Dependency Management 工作(Zeppelin 版本 0.6.2)。
例如,我尝试通过以下方式安装 Spark-Cassandra Connector:
使用 url 添加新存储库:https://mvnrepository.com/artifact/
并且没有其他参数。
在带有工件的 Spark-Interpreter 中添加新的依赖项:com.datastax.spark:spark-cassandra-connector_2.10:2.0.0-M3
但是在保存之后似乎什么也没有发生,我在 ~/.m2
中找不到任何新的包,也不知道在哪里寻找日志。任何帮助表示赞赏。
使用中央仓库时不需要添加仓库。
尝试以下步骤。
rm -rf local-repo
。此步骤可能不是强制性的。
- 在spark解释器页面添加artifact依赖,点击保存。此时spark解释器不会启动。
- 运行 像
println("hello world")
这样的简单命令
- 检查local-repo目录,依赖jar应该在那里
- 运行 从添加的依赖 jar
导入 class
如果还是不行,检查日志文件zeppelin-interpreter-spark-*.log
。
我尝试让 Zeppelin Dependency Management 工作(Zeppelin 版本 0.6.2)。
例如,我尝试通过以下方式安装 Spark-Cassandra Connector:
使用 url 添加新存储库:
https://mvnrepository.com/artifact/
并且没有其他参数。在带有工件的 Spark-Interpreter 中添加新的依赖项:
com.datastax.spark:spark-cassandra-connector_2.10:2.0.0-M3
但是在保存之后似乎什么也没有发生,我在 ~/.m2
中找不到任何新的包,也不知道在哪里寻找日志。任何帮助表示赞赏。
使用中央仓库时不需要添加仓库。
尝试以下步骤。
rm -rf local-repo
。此步骤可能不是强制性的。- 在spark解释器页面添加artifact依赖,点击保存。此时spark解释器不会启动。
- 运行 像
println("hello world")
这样的简单命令
- 检查local-repo目录,依赖jar应该在那里
- 运行 从添加的依赖 jar 导入 class
如果还是不行,检查日志文件zeppelin-interpreter-spark-*.log
。