在 sbt 中设置当前项目 - spark 构建问题
Set current project in sbt - spark build issue
我在尝试构建 spark 时遇到错误 Set current project to spark-parent (in build file:/C:/cygwin64/spark-current/spark-2.1.1/)
。是否有一个选项“-Dcurrent”或一些我可以设置的 sbt 开关来促进这一点,或者我是否需要触摸构建文件?我的环境变量位于 %SPARK_HOME% 的正确位置,所以这不是问题所在。我也在研究 windows 系统,但我是用 cygwin 做的。
所以我走错了方向。在大多数情况下,我错误地使用了 sbt 脚本。查看 spark 开发工具,我只需要一个额外的参数,例如 "build/abt compile"
我在尝试构建 spark 时遇到错误 Set current project to spark-parent (in build file:/C:/cygwin64/spark-current/spark-2.1.1/)
。是否有一个选项“-Dcurrent”或一些我可以设置的 sbt 开关来促进这一点,或者我是否需要触摸构建文件?我的环境变量位于 %SPARK_HOME% 的正确位置,所以这不是问题所在。我也在研究 windows 系统,但我是用 cygwin 做的。
所以我走错了方向。在大多数情况下,我错误地使用了 sbt 脚本。查看 spark 开发工具,我只需要一个额外的参数,例如 "build/abt compile"