检查列是否有正确的十进制数
Checking whether a column has proper decimal number
我有一个数据框(input_dataframe),如下所示:
id test_column
1 0.25
2 1.1
3 12
4 test
5 1.3334
6 .11
我想添加一列 result,如果 test_column[=,它将值 1 26=] 有一个 十进制值 和 0 如果 test_column 有任何其他值。 test_column 的数据类型是字符串。以下是预期的输出:
id test_column result
1 0.25 1
2 1.1 1
3 12 0
4 test 0
5 1.3334 1
6 .11 1
我们可以使用 pySpark 代码实现它吗?
您可以使用 decimal.Decimal()
解析十进制标记
这里我们将代码绑定到 UDF 中,然后使用 df.withColumn
import decimal
from pyspark.sql.types import IntType
def is_valid_decimal(s):
try:
# return (0 if decimal.Decimal(val) == int(decimal.Decimal(val)) else 1)
return (0 if decimal.Decimal(val)._isinteger() else 1)
except decimal.InvalidOperation:
return 0
# register the UDF for usage
sqlContext.udf.register("is_valid_decimal", is_valid_decimal, IntType())
# Using the UDF
df.withColumn("result", is_valid_decimal("test_column"))
我有一个数据框(input_dataframe),如下所示:
id test_column
1 0.25
2 1.1
3 12
4 test
5 1.3334
6 .11
我想添加一列 result,如果 test_column[=,它将值 1 26=] 有一个 十进制值 和 0 如果 test_column 有任何其他值。 test_column 的数据类型是字符串。以下是预期的输出:
id test_column result
1 0.25 1
2 1.1 1
3 12 0
4 test 0
5 1.3334 1
6 .11 1
我们可以使用 pySpark 代码实现它吗?
您可以使用 decimal.Decimal()
这里我们将代码绑定到 UDF 中,然后使用 df.withColumn
import decimal
from pyspark.sql.types import IntType
def is_valid_decimal(s):
try:
# return (0 if decimal.Decimal(val) == int(decimal.Decimal(val)) else 1)
return (0 if decimal.Decimal(val)._isinteger() else 1)
except decimal.InvalidOperation:
return 0
# register the UDF for usage
sqlContext.udf.register("is_valid_decimal", is_valid_decimal, IntType())
# Using the UDF
df.withColumn("result", is_valid_decimal("test_column"))