执行 jar tf 命令时在 Scala 中发现错误双文字
Error double literal found in Scala while executing jar tf command
我最近开始学习 Scala。我正在尝试在 spark -shell prompt
上执行 tf jar
命令
jar tf C:/spark/lib/spark-examples-1.6.0-hadoop2.6.0.jar
它正在抛出 错误
error: ';' expected but double literal found.
有人可以帮我找到问题吗。
Spark shell 是一个稍微自定义的 Scala repl,它不是 "shell" 的 那种 。它不知道通常的 bash
/cmd
-specific 命令,并且它假定您只输入要计算的有效 Scala 定义和表达式。 C:/spark/lib/spark-examples-1.6.0-hadoop2.6.0.jar
不是有效的 Scala 表达式。
注意它失败的确切位置:它在 1.6
之后立即失败。 1.6.0
部分之前的所有内容都可以解释为 Scala 表达式 C.:/(spark)./(lib)./(spark).-(examples).-(1.6)
,但它无法解析 1.6.0
,并退出并显示错误消息。
我最近开始学习 Scala。我正在尝试在 spark -shell prompt
上执行tf jar
命令
jar tf C:/spark/lib/spark-examples-1.6.0-hadoop2.6.0.jar
它正在抛出 错误
error: ';' expected but double literal found.
有人可以帮我找到问题吗。
Spark shell 是一个稍微自定义的 Scala repl,它不是 "shell" 的 那种 。它不知道通常的 bash
/cmd
-specific 命令,并且它假定您只输入要计算的有效 Scala 定义和表达式。 C:/spark/lib/spark-examples-1.6.0-hadoop2.6.0.jar
不是有效的 Scala 表达式。
注意它失败的确切位置:它在 1.6
之后立即失败。 1.6.0
部分之前的所有内容都可以解释为 Scala 表达式 C.:/(spark)./(lib)./(spark).-(examples).-(1.6)
,但它无法解析 1.6.0
,并退出并显示错误消息。