为什么 exp 函数在 pyspark 中不起作用?
Why won't the exp function work in pyspark?
我正在尝试根据逻辑回归的系数计算优势比,但我遇到了一个问题,最好用这段代码总结:
import pyspark.sql.functions as F
F.exp(1.2)
失败
py4j.Py4JException: Method exp([class java.lang.Double]) does not exist
整数也同样失败。我不明白 Double 怎么会导致 exp 函数出现问题?
如果您查看 pyspark.sql.functions.exp()
的文档,它需要一个 col 对象的输入。因此它不适用于浮点值,例如 1.2
.
创建一个可以在 F.exp()
中使用的数据框或 Column
对象
示例为:
df = df.withColumn("exp_x", F.exp(F.col("some_col_named_x")))
我正在尝试根据逻辑回归的系数计算优势比,但我遇到了一个问题,最好用这段代码总结:
import pyspark.sql.functions as F
F.exp(1.2)
失败
py4j.Py4JException: Method exp([class java.lang.Double]) does not exist
整数也同样失败。我不明白 Double 怎么会导致 exp 函数出现问题?
如果您查看 pyspark.sql.functions.exp()
的文档,它需要一个 col 对象的输入。因此它不适用于浮点值,例如 1.2
.
创建一个可以在 F.exp()
Column
对象
示例为:
df = df.withColumn("exp_x", F.exp(F.col("some_col_named_x")))