"Lambdifying" Java 中的 scala 函数

"Lambdifying" scala Function in Java

使用 Java 和 Apache Spark(已在 Scala 中重写),面对旧的 API 方法(org.apache.spark.rdd.JdbcRDD 构造函数),其参数为 AbstractFunction1:

abstract class AbstractFunction1[@scala.specialized -T1, @scala.specialized +R]() extends scala.AnyRef with scala.Function1[T1, R] {}

因为AbstractFunction1是一个抽象class,我不能使用Java8 lambdas,所以我决定包装scala.Function1 trait is the same with java.util.functions.Function 但没有实现 andThencompose 方法。 结果,我创建了这些界面:

import scala.Function1;

@FunctionalInterface
public interface Funct<T, R> extends Function1<T, R>, Serializable {

    @Override
    default <A> Function1<A, R> compose(Function1<A, T> before) {
        return null;
    }

    @Override
    default <A> Function1<T, A> andThen(Function1<R, A> g) {
        return null;
    }
}

IDE这个接口没有问题,但是编译的时候,一个get:

[ERROR] Funct is not a functional interface
[ERROR] multiple non-overriding abstract methods found in interface Funct

是否可以包装 Scala 的特征,我可以将 lambdas 用于方法:

void doMagic(scala.Function1<T,V> arg)

所以您需要 scala 函数特征的功能接口版本,以便您可以使用 java8 lambda 语法调用它们?您不必自己执行此操作。看看 https://github.com/scala/scala-java8-compat 。它不如直接使用 java8 lambda 语法那么好,因为你仍然需要做

import static scala.compat.java8.JFunction.*;
doMagic(func(x => ...));

而不是

doMagic(x => ...);

但在 Scala 2.12 中,一个重要的主题是 Java8 兼容性。 scala FunctionX 类 本身将重做为 SAM 接口,因此当 scala 2.12 发布时,您将能够执行后者。至少那是我上次检查时的计划。