神经网络中的优化器和估计器
Optimizer and Estimator in Neural Networks
当我开始使用 Neural 时,我似乎很了解优化器和估计器。
估计器:Classifier
根据样本集对值进行分类,Regressor
根据样本集预测值。
优化器:使用不同的优化器(Adam、GradientDescentOptimizer)来最小化损失函数,这可能很复杂。
我知道每个估算器都会在内部提出一个默认优化器来最小化损失。
现在我的问题是它们如何组合在一起并优化机器训练?
简答:损失函数link它们在一起。
例如,如果您正在进行 class化,您的 classifier 可以接受输入并输出 预测。然后你可以通过 预测的 class 和 ground truth class[=20 来计算你的 loss =]. optimizer 的任务是通过修改 classifier 的参数来最小化损失。
当我开始使用 Neural 时,我似乎很了解优化器和估计器。
估计器:Classifier
根据样本集对值进行分类,Regressor
根据样本集预测值。
优化器:使用不同的优化器(Adam、GradientDescentOptimizer)来最小化损失函数,这可能很复杂。
我知道每个估算器都会在内部提出一个默认优化器来最小化损失。
现在我的问题是它们如何组合在一起并优化机器训练?
简答:损失函数link它们在一起。
例如,如果您正在进行 class化,您的 classifier 可以接受输入并输出 预测。然后你可以通过 预测的 class 和 ground truth class[=20 来计算你的 loss =]. optimizer 的任务是通过修改 classifier 的参数来最小化损失。