公式中的关系逻辑回归和随机梯度下降
Relationship logistic regression and Stochastic gradient descent In Formula
考虑到公式项,我认为 SGD 适用于 Logistic 回归的最终结果。不确定是否正确
只是想知道随机梯度下降和逻辑回归之间的关系。我猜它的工作原理类似于神经元网络,它计算如何提高权重(应用链式法则)。
换句话说,在计算出LR公式之后,它会在其上应用链式法则。获得更好的权重并使其在循环单元 LR 损失率接近于零,这是正确的吗?谢谢
例如,完成LR计算后,
然后应用 SGD(LR) -> 获得更新的权重 -> 在循环中再次执行 LR 直到满足 SGD
逻辑回归 是一种使用逻辑函数(或类似变体)对离散系统建模的方法。也就是说,输出的系统具有有限数量的可能值。您可以将其视为一种 分类 算法(尽管这种描述可能很危险,因为分类在技术上不同于回归),它将一组输入映射到一组有限的输出.
随机梯度下降是梯度下降(或批量梯度下降)的变体优化算法。它不是同时使用所有(或 "batch" 的)训练数据(可能非常 computation/memory 昂贵),而是使用迭代近似来寻找跨 N 维输入的函数的最小值 space.
随机梯度下降可用于构建逻辑回归模型,类似于它可用于构建线性回归模型的方式.模型本身独立于用于训练它的优化算法。虽然 随机梯度下降 通常用作训练算法,但它不是 ONLY 选项。
考虑到公式项,我认为 SGD 适用于 Logistic 回归的最终结果。不确定是否正确
只是想知道随机梯度下降和逻辑回归之间的关系。我猜它的工作原理类似于神经元网络,它计算如何提高权重(应用链式法则)。
换句话说,在计算出LR公式之后,它会在其上应用链式法则。获得更好的权重并使其在循环单元 LR 损失率接近于零,这是正确的吗?谢谢
例如,完成LR计算后,
然后应用 SGD(LR) -> 获得更新的权重 -> 在循环中再次执行 LR 直到满足 SGD
逻辑回归 是一种使用逻辑函数(或类似变体)对离散系统建模的方法。也就是说,输出的系统具有有限数量的可能值。您可以将其视为一种 分类 算法(尽管这种描述可能很危险,因为分类在技术上不同于回归),它将一组输入映射到一组有限的输出.
随机梯度下降是梯度下降(或批量梯度下降)的变体优化算法。它不是同时使用所有(或 "batch" 的)训练数据(可能非常 computation/memory 昂贵),而是使用迭代近似来寻找跨 N 维输入的函数的最小值 space.
随机梯度下降可用于构建逻辑回归模型,类似于它可用于构建线性回归模型的方式.模型本身独立于用于训练它的优化算法。虽然 随机梯度下降 通常用作训练算法,但它不是 ONLY 选项。