Gaussian Naive Bayes是否有需要调参的参数
Does Gaussian Naive Bayes have paramter to be tuned
我正在尝试从 scikit-learn 库中实现高斯朴素贝叶斯。我知道朴素贝叶斯是基于贝叶斯定理的,它在高层次上定义为:
posterior = (prior * likelihood) / evidence.
据我所知,先验和证据都是从训练数据中学习到的。
我不确定 Q1 的可能性是从训练数据中学习还是通过使用 最大似然估计? Q2: 有没有需要调整的超参数?
假设你有贝叶斯定理,
P(A|B) = (P(B|A)*P(A))/P(B)
Where,
P(A|B) = Posterior Probability
P(B|A) = Likelihood
P(A) = Prior Probability
P(B) = Marginal Likelihood
问题的答案
使用训练数据计算似然,使用最大似然估计计算似然的最大值。
朴素贝叶斯几乎没有可调整的超参数,因此通常泛化效果很好。
我正在尝试从 scikit-learn 库中实现高斯朴素贝叶斯。我知道朴素贝叶斯是基于贝叶斯定理的,它在高层次上定义为:
posterior = (prior * likelihood) / evidence.
据我所知,先验和证据都是从训练数据中学习到的。
我不确定 Q1 的可能性是从训练数据中学习还是通过使用 最大似然估计? Q2: 有没有需要调整的超参数?
假设你有贝叶斯定理,
P(A|B) = (P(B|A)*P(A))/P(B)
Where,
P(A|B) = Posterior Probability
P(B|A) = Likelihood
P(A) = Prior Probability
P(B) = Marginal Likelihood
问题的答案
使用训练数据计算似然,使用最大似然估计计算似然的最大值。
朴素贝叶斯几乎没有可调整的超参数,因此通常泛化效果很好。