为什么正态性被视为因变量和自变量的重要假设?
Why Normality is considered as an important assumption for dependent and independent variables?
在 Kaggle 上研究一个关于回归的内核时,有人提到数据应该看起来像正态分布。但我不明白为什么?
我知道这个问题可能很基础但是请帮助我理解这个概念。
提前致谢!!
回归模型做出了许多假设,其中之一是正态性。当违反此假设时,您的 p-values 和系数估计的置信区间可能是错误的,从而导致关于预测变量的统计显着性的错误结论
然而,一个常见的误解是数据(即 variables/predictors)需要呈正态分布,但事实并非如此。这些模型不对预测变量的分布做出任何假设。
例如,假设您在回归中有一个二元预测变量(Male/Female;Slow/Fast 等)——这个变量不可能服从正态分布,但它是仍然是回归模型中使用的有效预测变量。正态性假设实际上是指残差的分布,而不是预测变量本身
在 Kaggle 上研究一个关于回归的内核时,有人提到数据应该看起来像正态分布。但我不明白为什么? 我知道这个问题可能很基础但是请帮助我理解这个概念。
提前致谢!!
回归模型做出了许多假设,其中之一是正态性。当违反此假设时,您的 p-values 和系数估计的置信区间可能是错误的,从而导致关于预测变量的统计显着性的错误结论
然而,一个常见的误解是数据(即 variables/predictors)需要呈正态分布,但事实并非如此。这些模型不对预测变量的分布做出任何假设。
例如,假设您在回归中有一个二元预测变量(Male/Female;Slow/Fast 等)——这个变量不可能服从正态分布,但它是仍然是回归模型中使用的有效预测变量。正态性假设实际上是指残差的分布,而不是预测变量本身