zeppelin standalone 用于 hdfs 和 spark 的学习目的我需要安装什么?
zeppelin standalone for learning purpose with hdfs and spark what do i need to install?
我不得不说我有点糊涂了,我没有完成 apache zeppelin documentation,我有以下问题。
我的最终目标是让本地 zeppelin 与本地 hdfs 和本地 spark[=26 一起工作=] 只需最少的安装即可进行简单练习。
问题
- 齐柏林飞艇安装够了吗?是否包括本地hdfs、spark的组件?
- 如果没有,我还需要安装什么才能拥有本地 spark 和 hdfs?
- 我是否需要安装本地 hdfs(假设我想使用 hdfs)以及我是否需要安装本地 spark(假设我想使用本地 spark)。
谢谢
安装Zeppelin,看是否自带Spark解释器
我认为是,而且我知道 the documentation covers its configuration。但是,解释器不是 Spark 的安装,只是用于启动外部程序进程的配置。
是的,如果您需要 HDFS,则需要设置和安装 Hadoop。但是,由于您无论如何都在使用一台计算机,因此没有必要,Spark 代码在本地磁盘上也能正常工作。
我知道我见过 Docker 至少将 Zeppelin 和 Spark 捆绑在一起的容器。
或者,您可以使用 Hortonworks Sandbox VM,它已经为您设置好所有内容。
我不得不说我有点糊涂了,我没有完成 apache zeppelin documentation,我有以下问题。
我的最终目标是让本地 zeppelin 与本地 hdfs 和本地 spark[=26 一起工作=] 只需最少的安装即可进行简单练习。
问题
- 齐柏林飞艇安装够了吗?是否包括本地hdfs、spark的组件?
- 如果没有,我还需要安装什么才能拥有本地 spark 和 hdfs?
- 我是否需要安装本地 hdfs(假设我想使用 hdfs)以及我是否需要安装本地 spark(假设我想使用本地 spark)。
谢谢
安装Zeppelin,看是否自带Spark解释器
我认为是,而且我知道 the documentation covers its configuration。但是,解释器不是 Spark 的安装,只是用于启动外部程序进程的配置。
是的,如果您需要 HDFS,则需要设置和安装 Hadoop。但是,由于您无论如何都在使用一台计算机,因此没有必要,Spark 代码在本地磁盘上也能正常工作。
我知道我见过 Docker 至少将 Zeppelin 和 Spark 捆绑在一起的容器。
或者,您可以使用 Hortonworks Sandbox VM,它已经为您设置好所有内容。