Pyspark 根据列是否在另一个 Spark Dataframe 中创建新列
Pyspark create new column based if a column isin another Spark Dataframe
我正在尝试在我的 Spark Dataframe 中创建一个列,如果列的行位于单独的 Dataframe 中,则为一个标志。
这是我的主要 Spark Dataframe (df_main
)
+--------+
|main |
+--------+
|28asA017|
|03G12331|
|1567L044|
|02TGasd8|
|1asd3436|
|A1234567|
|B1234567|
+--------+
这是我的参考文献 (df_ref
),这个参考文献中有数百行,所以我显然不能像这样硬编码它们 solution or
+--------+
|mask_vl |
+--------+
|A1234567|
|B1234567|
...
+--------+
通常,我在 pandas' dataframe 中的做法是这样的:
df_main['is_inref'] = np.where(df_main['main'].isin(df_ref.mask_vl.values), "YES", "NO")
所以我会得到这个
+--------+--------+
|main |is_inref|
+--------+--------+
|28asA017|NO |
|03G12331|NO |
|1567L044|NO |
|02TGasd8|NO |
|1asd3436|NO |
|A1234567|YES |
|B1234567|YES |
+--------+--------+
我试过下面的代码,但是没明白图片中的错误是什么意思。
df_main = df_main.withColumn('is_inref', "YES" if F.col('main').isin(df_ref) else "NO")
df_main.show(20, False)
这个问题已经有人回答了,你可以在这里查看
你很接近。我认为您需要的额外步骤是显式创建将包含 df_ref
.
中的值的列表
请看下图:
# Create your DataFrames
df = spark.createDataFrame(["28asA017","03G12331","1567L044",'02TGasd8','1asd3436','A1234567','B1234567'], "string").toDF("main")
df_ref = spark.createDataFrame(["A1234567","B1234567"], "string").toDF("mask_vl")
然后,您可以创建一个 list
并使用 isin
,几乎与您拥有的一样:
# Imports
from pyspark.sql.functions import col, when
# Create a list with the values of your reference DF
mask_vl_list = df_ref.select("mask_vl").rdd.flatMap(lambda x: x).collect()
# Use isin to check whether the values in your column exist in the list
df_main = df_main.withColumn('is_inref', when(col('main').isin(mask_vl_list), 'YES').otherwise('NO'))
这会给你:
>>> df_main.show()
+--------+--------+
| main|is_inref|
+--------+--------+
|28asA017| NO|
|03G12331| NO|
|1567L044| NO|
|02TGasd8| NO|
|1asd3436| NO|
|A1234567| YES|
|B1234567| YES|
+--------+--------+
如果你想避免收集,我建议你做下一个:
df_ref= df_ref
.withColumnRenamed("mask_v1", "main")
.withColumn("isPreset", lit("yes"))
main_df= main_df.join(df_ref, Seq("main"), "left_outer")
.withColumn("is_inref", when(col("isPresent").isNull,
lit("NO")).otherwise(lit("YES")))
我正在尝试在我的 Spark Dataframe 中创建一个列,如果列的行位于单独的 Dataframe 中,则为一个标志。
这是我的主要 Spark Dataframe (df_main
)
+--------+
|main |
+--------+
|28asA017|
|03G12331|
|1567L044|
|02TGasd8|
|1asd3436|
|A1234567|
|B1234567|
+--------+
这是我的参考文献 (df_ref
),这个参考文献中有数百行,所以我显然不能像这样硬编码它们 solution or
+--------+
|mask_vl |
+--------+
|A1234567|
|B1234567|
...
+--------+
通常,我在 pandas' dataframe 中的做法是这样的:
df_main['is_inref'] = np.where(df_main['main'].isin(df_ref.mask_vl.values), "YES", "NO")
所以我会得到这个
+--------+--------+
|main |is_inref|
+--------+--------+
|28asA017|NO |
|03G12331|NO |
|1567L044|NO |
|02TGasd8|NO |
|1asd3436|NO |
|A1234567|YES |
|B1234567|YES |
+--------+--------+
我试过下面的代码,但是没明白图片中的错误是什么意思。
df_main = df_main.withColumn('is_inref', "YES" if F.col('main').isin(df_ref) else "NO")
df_main.show(20, False)
这个问题已经有人回答了,你可以在这里查看
你很接近。我认为您需要的额外步骤是显式创建将包含 df_ref
.
请看下图:
# Create your DataFrames
df = spark.createDataFrame(["28asA017","03G12331","1567L044",'02TGasd8','1asd3436','A1234567','B1234567'], "string").toDF("main")
df_ref = spark.createDataFrame(["A1234567","B1234567"], "string").toDF("mask_vl")
然后,您可以创建一个 list
并使用 isin
,几乎与您拥有的一样:
# Imports
from pyspark.sql.functions import col, when
# Create a list with the values of your reference DF
mask_vl_list = df_ref.select("mask_vl").rdd.flatMap(lambda x: x).collect()
# Use isin to check whether the values in your column exist in the list
df_main = df_main.withColumn('is_inref', when(col('main').isin(mask_vl_list), 'YES').otherwise('NO'))
这会给你:
>>> df_main.show()
+--------+--------+
| main|is_inref|
+--------+--------+
|28asA017| NO|
|03G12331| NO|
|1567L044| NO|
|02TGasd8| NO|
|1asd3436| NO|
|A1234567| YES|
|B1234567| YES|
+--------+--------+
如果你想避免收集,我建议你做下一个:
df_ref= df_ref
.withColumnRenamed("mask_v1", "main")
.withColumn("isPreset", lit("yes"))
main_df= main_df.join(df_ref, Seq("main"), "left_outer")
.withColumn("is_inref", when(col("isPresent").isNull,
lit("NO")).otherwise(lit("YES")))