提前停止和 sklearn neural_network.MLPClassifier
Early stopping and the sklearn neural_network.MLPClassifier
我正在使用 sklearn.neural_network.MLPClassifier
。我正在使用 early_stopping
功能,它使用验证拆分(默认为训练数据的 10%)评估每次迭代的性能。
但是,我的问题是多标签。根据 API,验证使用子集精度,这对于多标签问题非常苛刻。
是否可以定义用于验证的替代评分函数(最好是 mlogloss)?谢谢。
解决方案是使用 sknn 而不是 MLP 的 sklearn 实现。这允许使用添加我们自己的 valid_set 并指定损失函数。详情 here。
我正在使用 sklearn.neural_network.MLPClassifier
。我正在使用 early_stopping
功能,它使用验证拆分(默认为训练数据的 10%)评估每次迭代的性能。
但是,我的问题是多标签。根据 API,验证使用子集精度,这对于多标签问题非常苛刻。
是否可以定义用于验证的替代评分函数(最好是 mlogloss)?谢谢。
解决方案是使用 sknn 而不是 MLP 的 sklearn 实现。这允许使用添加我们自己的 valid_set 并指定损失函数。详情 here。