统计模型 - 无关紧要的特征转换
Stats Model - Insignificant Features transformation
我正在研究 UCI 帕金森数据库 https://archive.ics.uci.edu/ml/machine-learning-databases/parkinsons/
当我 运行 使用统计模型进行逻辑回归时,所有特征都显得微不足道,需要建议来转换特征。
logit = sm.Logit(y, X_std)
result = logit.fit()
print(result.summary())
模型准确率高达 85%,但这没有意义,因为所有特征都不重要。
请帮忙
您的样本量不够大,无法可靠地估计这么多参数。如果解释变量之间存在相关性,那么即使它们共同具有预测能力,它们在统计上也可能不显着。
这么多变量最好使用惩罚估计,或者使用某种方法进行特征选择以减少参数数量并获得更可靠的估计。
我正在研究 UCI 帕金森数据库 https://archive.ics.uci.edu/ml/machine-learning-databases/parkinsons/ 当我 运行 使用统计模型进行逻辑回归时,所有特征都显得微不足道,需要建议来转换特征。
logit = sm.Logit(y, X_std)
result = logit.fit()
print(result.summary())
模型准确率高达 85%,但这没有意义,因为所有特征都不重要。
请帮忙
您的样本量不够大,无法可靠地估计这么多参数。如果解释变量之间存在相关性,那么即使它们共同具有预测能力,它们在统计上也可能不显着。
这么多变量最好使用惩罚估计,或者使用某种方法进行特征选择以减少参数数量并获得更可靠的估计。