k-最近邻中分类和回归的区别?

difference between classification and regression in k-nearest neighbor?

在分类中使用K最近邻和在回归中使用有什么区别?

以及在推​​荐系统中使用 KNN 时。它涉及分类还是回归?

在分类任务中,用户试图预测一个category,它通常表示为一个整数标签,但表示“事物”的类别。例如,您可以尝试将图片分类为“猫”和“狗”,并将标签 0 用于“猫”,将标签 1 用于“狗”。

用于分类的 KNN 算法将查看您尝试对其进行预测的输入的 k 个最近邻居。然后它将输出这 k 个示例中出现频率最高的标签。

在回归任务中,用户希望输出一个数值(通常是连续的)。比如估价一个房子,或者评价一部电影好不好。

在这种情况下,KNN 算法会从您要对其进行预测的样本中收集与 k 个最接近样本关联的值,并将它们聚合以输出单个值。通常,你会选择邻居的 k 个值的平均值,但你可以选择中位数或加权平均值(或者实际上任何对你手头的任务有意义的东西)。

对于您的特定问题,您可以同时使用两者,但回归对我来说更有意义,以便预测用户与您要向他推荐的事物之间的某种“匹配百分比”。