无法在 Spark-Scala 中执行用户定义的函数

Failed to execute user defined function in Spark-Scala

下面是将多值列转换为映射的 UDF。

def convertToMapFn (c: String): Map[String,String] = {
  val str = Option(c).getOrElse(return Map[String, String]())
  val arr = str.split(",")
  val l = arr.toList
  
  val regexPattern = ".*(=).*".r
  
  s"$c".toString match {
    case regexPattern(a) => l.map(x => x.split("=")).map(a => {if(a.size==2) (a(0).toString -> a(1).toString) else "ip_adr" -> a(0).toString} ).toMap
    case "null" => Map[String, String]()
  }
}

val convertToMapUDF = udf(convertToMapFn _)

我能够显示数据,但是在尝试将数据插入 Delta table 时,出现以下错误。

Caused by: org.apache.spark.SparkException: Job aborted due to stage failure: Task 9 in stage 97.0 failed 4 times, most recent failure: Lost task 9.3 in stage 97.0 (TID 2561, 10.73.244.39, executor 5): org.apache.spark.SparkException: Failed to execute user defined function($read$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$Lambda26/1884779796: (string) => map<string,string>)

Caused by: scala.MatchError: a8:9f:e (of class java.lang.String)

at line396de0100d5344c9994f63f7de7884fe49.$read$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw.convertToMapFn

Caused by: org.apache.spark.SparkException: Failed to execute user defined function($read$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$Lambda26/1884779796: (string) => map<string,string

有人可以告诉我如何解决这个问题。谢谢

您可以在错误消息中看到您有 MatchError。当您没有考虑所有可能的匹配案例时,就会发生这种情况。一个基本的修复是将 case "null" => 更改为 case _ =>,这将匹配正则表达式不匹配的任何内容。

其他事项:

  • s"$c".toString在这种情况下相当于写c
  • 我想你的意思是匹配 str 而不是 c