PySpark:使用过滤函数后取列的平均值

PySpark: Take average of a column after using filter function

我正在使用以下代码来获取工资高于某个阈值的人的平均年龄。

dataframe.filter(df['salary'] > 100000).agg({"avg": "age"})

年龄列是数字(浮点数),但我仍然收到此错误。

py4j.protocol.Py4JJavaError: An error occurred while calling o86.agg. 
: scala.MatchError: age (of class java.lang.String)

您是否知道在不使用 groupBy 函数和 SQL 查询的情况下获取平均值等的任何其他方法。

聚合函数应该是一个值和一个列名一个键:

dataframe.filter(df['salary'] > 100000).agg({"age": "avg"})

或者您可以使用 pyspark.sql.functions:

from pyspark.sql.functions import col, avg

dataframe.filter(df['salary'] > 100000).agg(avg(col("age")))

也可以使用CASE .. WHEN

from pyspark.sql.functions import when

dataframe.select(avg(when(df['salary'] > 100000, df['age'])))

你也可以试试这个:

dataframe.filter(df['salary'] > 100000).groupBy().avg('age')