使用 KNeighborsClassifier 时,使用 weights="distance" 的动机是什么
When using KNeighborsClassifier what is the motivation of using weights="distance"
当使用KNeighborsClassifier
时,使用weights="distance"
的动机是什么?
根据 sklearn docs:
‘distance’ : weight points by the inverse of their distance. In this case, closer neighbors of a query point will have a greater influence than neighbors which are further away.
使用这个的动机是什么?
nearest-neighborsclassifier的思想是考虑训练集中那些与你要classify的点接近的点,并猜测这个点的class 基于他们已知的 class 标签。
如果所有这些接近的训练点都具有相同的标签,则结果很清楚。但是,如果它们的标签不同怎么办?您可以使用他们最常见的标签,但这可能并不总是最好的猜测。
例如,想象一个带有标签 A 的训练点非常接近您要 class 化的点,而带有标签 B 的两个训练点稍微远一些,但仍然很近。新点应该标记为 A 还是 B?根据点的接近程度(即距离的倒数)对点进行加权提供了一种 objective 方法来回答这个问题。
当使用KNeighborsClassifier
时,使用weights="distance"
的动机是什么?
根据 sklearn docs:
‘distance’ : weight points by the inverse of their distance. In this case, closer neighbors of a query point will have a greater influence than neighbors which are further away.
使用这个的动机是什么?
nearest-neighborsclassifier的思想是考虑训练集中那些与你要classify的点接近的点,并猜测这个点的class 基于他们已知的 class 标签。
如果所有这些接近的训练点都具有相同的标签,则结果很清楚。但是,如果它们的标签不同怎么办?您可以使用他们最常见的标签,但这可能并不总是最好的猜测。
例如,想象一个带有标签 A 的训练点非常接近您要 class 化的点,而带有标签 B 的两个训练点稍微远一些,但仍然很近。新点应该标记为 A 还是 B?根据点的接近程度(即距离的倒数)对点进行加权提供了一种 objective 方法来回答这个问题。