PySpark:使用过滤函数后取列的平均值
PySpark: Take average of a column after using filter function
我正在使用以下代码来获取工资高于某个阈值的人的平均年龄。
dataframe.filter(df['salary'] > 100000).agg({"avg": "age"})
年龄列是数字(浮点数),但我仍然收到此错误。
py4j.protocol.Py4JJavaError: An error occurred while calling o86.agg.
: scala.MatchError: age (of class java.lang.String)
您是否知道在不使用 groupBy
函数和 SQL 查询的情况下获取平均值等的任何其他方法。
聚合函数应该是一个值和一个列名一个键:
dataframe.filter(df['salary'] > 100000).agg({"age": "avg"})
或者您可以使用 pyspark.sql.functions
:
from pyspark.sql.functions import col, avg
dataframe.filter(df['salary'] > 100000).agg(avg(col("age")))
也可以使用CASE .. WHEN
from pyspark.sql.functions import when
dataframe.select(avg(when(df['salary'] > 100000, df['age'])))
你也可以试试这个:
dataframe.filter(df['salary'] > 100000).groupBy().avg('age')
我正在使用以下代码来获取工资高于某个阈值的人的平均年龄。
dataframe.filter(df['salary'] > 100000).agg({"avg": "age"})
年龄列是数字(浮点数),但我仍然收到此错误。
py4j.protocol.Py4JJavaError: An error occurred while calling o86.agg.
: scala.MatchError: age (of class java.lang.String)
您是否知道在不使用 groupBy
函数和 SQL 查询的情况下获取平均值等的任何其他方法。
聚合函数应该是一个值和一个列名一个键:
dataframe.filter(df['salary'] > 100000).agg({"age": "avg"})
或者您可以使用 pyspark.sql.functions
:
from pyspark.sql.functions import col, avg
dataframe.filter(df['salary'] > 100000).agg(avg(col("age")))
也可以使用CASE .. WHEN
from pyspark.sql.functions import when
dataframe.select(avg(when(df['salary'] > 100000, df['age'])))
你也可以试试这个:
dataframe.filter(df['salary'] > 100000).groupBy().avg('age')