如何在pyspark中获取绝对值?
How to get absolute value in pyspark?
我正在尝试 运行 pyspark 脚本。我试图找到两个计数之间的百分比差异,但无法获得正确的值。
你能帮我看看这个怎么弄吗?
示例:
pre_count = 100
cur_count = 25
diff = (float((cur_count - pre_count)/pre_count)*100)
diff
正在给予 -100.0
预期输出:-25
如果你想要一个浮点数,你应该划分浮点数,否则,你会得到一个 float(-1) * 100
,这是预期的 -100
。
pre_count = 100.0
cur_count = 25.0
除此之外,差异百分比符合预期-75%
。
看来你的公式有点不对,要计算减少的百分比,请执行:
|100 - 25|/100 = 0.75 = 75%
这将转化为
pre_count = 100
cur_count = 25
diff = (abs((pre_count - cur_count )/pre_count )*100)
我正在使用 python abs()
来获得绝对差异。
我正在尝试 运行 pyspark 脚本。我试图找到两个计数之间的百分比差异,但无法获得正确的值。 你能帮我看看这个怎么弄吗?
示例:
pre_count = 100
cur_count = 25
diff = (float((cur_count - pre_count)/pre_count)*100)
diff
正在给予 -100.0
预期输出:-25
如果你想要一个浮点数,你应该划分浮点数,否则,你会得到一个 float(-1) * 100
,这是预期的 -100
。
pre_count = 100.0
cur_count = 25.0
除此之外,差异百分比符合预期-75%
。
看来你的公式有点不对,要计算减少的百分比,请执行:
|100 - 25|/100 = 0.75 = 75%
这将转化为
pre_count = 100
cur_count = 25
diff = (abs((pre_count - cur_count )/pre_count )*100)
我正在使用 python abs()
来获得绝对差异。