Array_max spark.sql.function 未找到
Array_max spark.sql.function not found
我需要使用包 org.apache.spark.sql.functions._ 中的函数 array_max 和 array_min,但这两个函数都找不到?
scala> import org.apache.spark.sql.functions._
import org.apache.spark.sql.functions._
scala>... array_max(col(..))
error: not found: value array_max
ps :
- scala 版本 2.11.8
- spark 版本 2.3.0.2.6.5.0-292
- HDP 2.6.5
def array_max(e: org.apache.spark.sql.Column): org.apache.spark.sql.Column
此 array_max
功能在 Spark 2.3
中不可用,仅在 Spark 2.4
之后可用。
作为参考,请查看下面的 git 回购协议。
Spark 2.3
Spark 2.4
我需要使用包 org.apache.spark.sql.functions._ 中的函数 array_max 和 array_min,但这两个函数都找不到?
scala> import org.apache.spark.sql.functions._
import org.apache.spark.sql.functions._
scala>... array_max(col(..))
error: not found: value array_max
ps :
- scala 版本 2.11.8
- spark 版本 2.3.0.2.6.5.0-292
- HDP 2.6.5
def array_max(e: org.apache.spark.sql.Column): org.apache.spark.sql.Column
此 array_max
功能在 Spark 2.3
中不可用,仅在 Spark 2.4
之后可用。
作为参考,请查看下面的 git 回购协议。
Spark 2.3
Spark 2.4