如何使用 spark rdd 获取下面的列表?

how to get this below list using spark rdd?

列表(1,2,3,4..100)==> 列表((1,2),(2,3),(3,4)...(100,101))==>列表(3,5,7,....201)

scala> x.map(x=>x,x+1).map(x=>x._1+x._2 ) :26: 错误:方法映射的参数 (2) 太多:(f: Int => B)(隐式 bf: scala.collection.generic.CanBuildFrom[List[Int],B,那个那个 x.map(x=>x,x+1).map(x=>x._1+x._2)

我正在尝试将 1 值转换为 100 值,但得到的是上面的值 error.Is 代码有任何问题吗?

您的地图函数 return 不正确。

试试这个:

input.map(x => (x,x+1)).map(x => x._1 + x._2)

尽管如此,我不认为需要两个地图函数,因为您可以像这样在一个函数中完成:

input.map(x => x + x + 1)

上面的表达式也会给你相同的结果。