PySpark:Spark ML MulitLayerPerceptron 失败但其他分类器工作正常
PySpark: Spark ML MulitLayerPerceptron failing but other classifier working fine
您好,我正在使用 Spark ML 训练模型。训练数据集有 130 列和 1000 万行。现在,问题是每当我 运行 MultiLayerPerceptron 它显示以下错误:
org.apache.spark.SparkException: Job aborted due to stage failure:
Task 43 in stage 1882.0 failed 4 times, most recent failure: Lost task
43.3 in stage 1882.0 (TID 180174, 10.233.252.145, executor 6): java.lang.ArrayIndexOutOfBoundsException
有趣的是,当我使用其他分类器(例如逻辑回归和随机森林)时,它并没有发生。
我的代码:
# Building the model
inputneurons = len(features_columns)
#Assembling the Feature Vectors
assembler = VectorAssembler(inputCols=features_columns, outputCol="features")
#Logistic Regression
mlp = MultilayerPerceptronClassifier(labelCol=label, featuresCol="features", layers=[inputneurons,300,2])
#Pipelining the assembling and modeling process
pipeline = Pipeline(stages=[assembler, mlp])
model = pipeline.fit(training_df)
Spark 中的 MLP 出现此类问题的原因可能是什么?
标签中有两个以上 类 但在多层感知器分类器中我指定了 2 个输出神经元,这导致了 ArrayIndexOutOfBoundException。
您好,我正在使用 Spark ML 训练模型。训练数据集有 130 列和 1000 万行。现在,问题是每当我 运行 MultiLayerPerceptron 它显示以下错误:
org.apache.spark.SparkException: Job aborted due to stage failure: Task 43 in stage 1882.0 failed 4 times, most recent failure: Lost task 43.3 in stage 1882.0 (TID 180174, 10.233.252.145, executor 6): java.lang.ArrayIndexOutOfBoundsException
有趣的是,当我使用其他分类器(例如逻辑回归和随机森林)时,它并没有发生。
我的代码:
# Building the model
inputneurons = len(features_columns)
#Assembling the Feature Vectors
assembler = VectorAssembler(inputCols=features_columns, outputCol="features")
#Logistic Regression
mlp = MultilayerPerceptronClassifier(labelCol=label, featuresCol="features", layers=[inputneurons,300,2])
#Pipelining the assembling and modeling process
pipeline = Pipeline(stages=[assembler, mlp])
model = pipeline.fit(training_df)
Spark 中的 MLP 出现此类问题的原因可能是什么?
标签中有两个以上 类 但在多层感知器分类器中我指定了 2 个输出神经元,这导致了 ArrayIndexOutOfBoundException。