线性回归如何做预测更有效率?
How do Linear regression - predict more efficient?
我需要更改以下方法来计算和 return 线性回归预测
(对于多变量或单变量情况)。
注意:'predict' 方法应该同时用于 test-set 上的预测,
以及训练过程中。
输入参数:
x_feature_vectors - 包含我们要预测 y_predicted 值的所有特征向量的数据框,
使用线性回归模型的权重。
注意:预计 x_feature_vectors 包含一个虚构的特征列,其中
常数值 1,表示 x_0 虚构特征(称为 'x_0')。
trained_w - 经过训练的 w-vector,即经过训练的权重向量(或来自训练中某个步骤的权重向量)。
注意:trained_w 系列应包含 w_0 单元格作为第一个单元格。
所有单元格的索引都应符合 'columns'(即列标题
是 'x_feature_vectors' 数据框的列索引),包括 'x_0'
虚构专栏。
return值:
- y_predicted - 每个输入特征向量实例的一系列预测
我的代码:
def predict(x_featureVectors,trained_w):
y_predicted = pd.Series(index=x_featureVectors.index, dtype=float)
for index in x_featureVectors.index:
y_predicted[index] = 0
for col in x_featureVectors.columns:
y_predicted[index] += trained_w[col] * x_featureVectors.loc[index, col]
return y_predicted
我怎样才能更有效地做到这一点?我可以用一个 for 循环来做到这一点吗?
假设您有一个虚构的列,预测只是每行的点积向量与权重向量:
def predict(x_featureVectors, trained_w):
return np.dot(x_featureVectors, trained_w)
我需要更改以下方法来计算和 return 线性回归预测 (对于多变量或单变量情况)。
注意:'predict' 方法应该同时用于 test-set 上的预测, 以及训练过程中。
输入参数:
x_feature_vectors - 包含我们要预测 y_predicted 值的所有特征向量的数据框, 使用线性回归模型的权重。
注意:预计 x_feature_vectors 包含一个虚构的特征列,其中 常数值 1,表示 x_0 虚构特征(称为 'x_0')。
trained_w - 经过训练的 w-vector,即经过训练的权重向量(或来自训练中某个步骤的权重向量)。
注意:trained_w 系列应包含 w_0 单元格作为第一个单元格。 所有单元格的索引都应符合 'columns'(即列标题 是 'x_feature_vectors' 数据框的列索引),包括 'x_0' 虚构专栏。
return值:
- y_predicted - 每个输入特征向量实例的一系列预测
我的代码:
def predict(x_featureVectors,trained_w):
y_predicted = pd.Series(index=x_featureVectors.index, dtype=float)
for index in x_featureVectors.index:
y_predicted[index] = 0
for col in x_featureVectors.columns:
y_predicted[index] += trained_w[col] * x_featureVectors.loc[index, col]
return y_predicted
我怎样才能更有效地做到这一点?我可以用一个 for 循环来做到这一点吗?
假设您有一个虚构的列,预测只是每行的点积向量与权重向量:
def predict(x_featureVectors, trained_w):
return np.dot(x_featureVectors, trained_w)