java.lang.ClassCastException: com.datastax.driver.core.DefaultResultSetFuture 无法转换为 shade.com.datastax

java.lang.ClassCastException: com.datastax.driver.core.DefaultResultSetFuture cannot be cast to shade.com.datastax

我在尝试 运行 上面的代码时收到此错误。

错误:

  Exception:
    Caused by: java.lang.ClassCastException: com.datastax.driver.core.DefaultResultSetFuture cannot be cast to shade.com.datastax.spark.connector.google.common.util.concurrent.ListenableFuture
        at com.datastax.spark.connector.writer.AsyncExecutor.com$datastax$spark$connector$writer$AsyncExecutor$$tryFuture(AsyncExecutor.scala:38) ~[spark-cassandra-connector_2.11-2.3.1.jar:2.3.1]
        at com.datastax.spark.connector.writer.AsyncExecutor.executeAsync(AsyncExecutor.scala:71) ~[spark-cassandra-connector_2.11-2.3.1.jar:2.3.1]
        at com.datastax.spark.connector.writer.TableWriter$$anonfun$writeInternal$$anonfun$apply.apply(TableWriter.scala:234) ~[spark-cassandra-connector_2.11-2.3.1.jar:2.3.1]
        at com.datastax.spark.connector.writer.TableWriter$$anonfun$writeInternal$$anonfun$apply.apply(TableWriter.scala:233) ~[spark-cassandra-connector_2.11-2.3.1.jar:2.3.1]
        at scala.collection.Iterator$class.foreach(Iterator.scala:893) ~[scala-library-2.11.8.jar:?]

代码片段。

<dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.11</artifactId>
            <version>2.3.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.11</artifactId>
            <version>2.3.1</version>
        </dependency>
        <dependency>
            <groupId>com.datastax.spark</groupId>
            <artifactId>spark-cassandra-connector_2.11</artifactId>
            <version>2.3.1</version>
        </dependency>

        <dependency>
            <groupId>com.datastax.cassandra</groupId>
            <artifactId>cassandra-driver-mapping</artifactId>
            <version>3.2.0</version>
        </dependency>

你能帮忙解决这个问题吗?提前致谢。

这只有在包含 Java 驱动程序的非阴影版本时才会发生。由于 Guava 不兼容,我们需要隐藏 Spark Cassandra 连接器中的 Java 驱动程序。这意味着任何额外的 Java 基于驱动程序的库都会破坏阴影并导致像上面那样的反射错误。

如果您需要手动对 Java 驱动程序版本执行某些操作,请使用 Spark Cassandra Connector 的未着色版本,包括您自己的库,然后再次对 guava 进行着色。