在 pyspark 中将 int 数据类型转换为数组 <int>
Casting int data type to array<int> in pyspark
我正在尝试转换 Azure databricks 中增量 table 的数据类型 notebook.Existing 类型是“int”并希望转换 array.But 出现以下错误。
首先导入csv文件,插入数据到DataFrame。然后尝试找出 DataFrame 的架构。
cast()
函数用于将一列的数据类型转换为另一列 e.g.int 为字符串,双精度为浮点数。您不能使用它将列转换为数组。
要将列转换为数组,您可以使用 numpy.
df = pd.DataFrame(data={'X': [10, 20, 30], 'Y': [40, 50, 60], 'Z': [70, 80, 90]}, index=['X', 'Y', 'Z'])
# Convert specific columns
df[['X', 'Y']].to_numpy()
array([[10, 70],
[20, 80],
[30, 90]])
使用F.array('landing_priority')
我正在尝试转换 Azure databricks 中增量 table 的数据类型 notebook.Existing 类型是“int”并希望转换 array.But 出现以下错误。
首先导入csv文件,插入数据到DataFrame。然后尝试找出 DataFrame 的架构。
cast()
函数用于将一列的数据类型转换为另一列 e.g.int 为字符串,双精度为浮点数。您不能使用它将列转换为数组。
要将列转换为数组,您可以使用 numpy.
df = pd.DataFrame(data={'X': [10, 20, 30], 'Y': [40, 50, 60], 'Z': [70, 80, 90]}, index=['X', 'Y', 'Z'])
# Convert specific columns
df[['X', 'Y']].to_numpy()
array([[10, 70],
[20, 80],
[30, 90]])
使用F.array('landing_priority')