在 SparkALS 中 'Number of features' 是否也意味着 'Number of factors'?
In SparkALS does 'Number of features' also mean 'Number of factors'?
我正在研究 Spark 的早期版本 (alpha-0.1),以了解它是如何开始以及如何发展的。我也在尝试自学交替最小二乘法的工作原理。
我正在查看 SparkALS 示例并查看以下变量:
var M = 0 // Number of movies
var U = 0 // Number of users
var F = 0 // Number of features
来源:https://github.com/apache/spark/blob/alpha-0.1/src/examples/SparkALS.scala#L11-L13
F 变量(特征数)代表什么?
我可以将其解释为潜在因子的数量吗?这在 Spark Collaborative Filtering documentation 页面中也称为 rank
:
rank is the number of latent factors in the model.
啊,Spark API docs指的是rank
的特征个数:
rank - number of features to use
所以我猜术语特征数和潜在因子数是可以互换的.
我正在研究 Spark 的早期版本 (alpha-0.1),以了解它是如何开始以及如何发展的。我也在尝试自学交替最小二乘法的工作原理。
我正在查看 SparkALS 示例并查看以下变量:
var M = 0 // Number of movies
var U = 0 // Number of users
var F = 0 // Number of features
来源:https://github.com/apache/spark/blob/alpha-0.1/src/examples/SparkALS.scala#L11-L13
F 变量(特征数)代表什么?
我可以将其解释为潜在因子的数量吗?这在 Spark Collaborative Filtering documentation 页面中也称为 rank
:
rank is the number of latent factors in the model.
啊,Spark API docs指的是rank
的特征个数:
rank - number of features to use
所以我猜术语特征数和潜在因子数是可以互换的.