Spark 合并两个单值数据集

Spark merging two single value datasets

我有一个具有以下架构的数据集

|-- Name: string (nullable = true)
|-- Values: long (nullable = true)
|-- Count: integer (nullable = true)

输入数据集

+------------+-----------------------+--------------+                           
|Name        |Values                 |Count         |
+------------+-----------------------+--------------+
|A           |1000                   |1             |
|B           |1150                   |0             |
|C           |500                    |3             |
+------------+-----------------------+--------------+

我的结果数据集需要采用

格式
+------------+-----------------------+--------------+                           
|Sum(count>0)|      sum(all)         | Percentage   |
+------------+-----------------------+--------------+
|    1500    |      2650             | 56.60        |
+------------+-----------------------+--------------+

我目前能够通过 运行

获得单个数据集中的总和(计数>0)和总和(全部)
val non_zero = df.filter(col(COUNT).>(0)).select(sum(VALUES).as(NON_ZERO_SUM))
val total = df.select(sum(col(VALUES)).as(TOTAL_SUM))

我不知道如何将两个独立的数据集合并为一个数据集,然后用它来计算百分比。

同样的问题还有更好的解决方法吗?

谢谢,

我会使用单一聚合:

import org.apache.spark.sql.functions._

df.select(
  sum(when($"count" > 0, $"values')).alias("NON_ZERO_SUM"),
  sum($"values").alias("TOTAL_SUM")
)