适用于 Sparklyr 的 Spark 兼容版本

Compatible versions of Spark for Sparklyr

是否有关于哪些版本的 Spark 与 Sparklyr 兼容的权威来源?或者谁能​​阐明如何确定这一点?

我在 macOS 上,但我使用 Spark 2 并不成功。4.x;他们都无法连接,通常会产生“Failed to connect to sparklyr to port 8880...”错误。

我终于可以使用 Spark 2.3.0 来工作了。但是,如果我尝试安装 2.3.3,则会出现错误:

> spark_install("2.3.3")
Error in spark_install_find(version, hadoop_version, installed_only = FALSE,  : 
  Spark version not available. Find available versions, using spark_available_versions()

可用的版本是:

> spark_available_versions()
  spark
1   1.6
2   2.0
3   2.1
4   2.2
5   2.3
6   2.4

因此,这看起来像一个 "authoritative" 列表,但 2.4 不起作用。

此外,2.3 是否仅表示 2.3.0?为什么不支持补丁发布?

您可以使用 spark_available_versions(show_minor = T) 列出次要版本,是的,sparklyr 支持补丁版本。截至最新版本:

   spark
1  1.6.3
2  1.6.2
3  1.6.1
4  1.6.0
5  2.0.0
6  2.0.1
7  2.0.2
8  2.1.0
9  2.1.1
10 2.2.0
11 2.2.1
12 2.3.0
13 2.3.1
14 2.3.2
15 2.3.3
16 2.4.0
17 2.4.1
18 2.4.2
19 2.4.3