FF 神经网络和二进制分类
FF Neural network and binary classification
每当我在二元分类问题上训练前馈神经网络时,净 returns 浮点值。这背后的理论是什么?这可以解释为概率吗?例如,如果净 returns 0.7 是否等同于说该值有 70% 的概率为 1 而不是 0?那么我是否应该只缩放浮点值并将阈值定义为 0 或 1?
我假设您正在使用 sigmoid 函数作为激活函数?
它会 return 该范围内的值。当你在玩我的游戏时,我把它当作某个任意范围的百分比。如果您可以容忍一点点错误,它可以是二进制结果。当我训练逻辑门时,经过相当成功的训练后,1 AND 1 的结果类似于 0.9999999;这几乎是 1。你可以在那个点四舍五入。
我在一两个月前就此发表了一篇 post。如果我能找到它,我会link。
当你在二元问题上训练神经网络时,如果你不使用二元激活函数,答案将是一个概率(如果你使用 sigmoid):实例概率属于 class.
我从不使用阈值或二元激活函数,因为研究概率总是很有趣。例如,您可能有一个错误 class 化的实例,但您观察到它的概率约为 0.5。因此,NN 不确定要固定在实例上的 class。相反,如果一个实例被misclassified并且概率很大(接近0或1),那么它就是一个strong error,你应该认真理解它为什么被misclassified。
每当我在二元分类问题上训练前馈神经网络时,净 returns 浮点值。这背后的理论是什么?这可以解释为概率吗?例如,如果净 returns 0.7 是否等同于说该值有 70% 的概率为 1 而不是 0?那么我是否应该只缩放浮点值并将阈值定义为 0 或 1?
我假设您正在使用 sigmoid 函数作为激活函数?
它会 return 该范围内的值。当你在玩我的游戏时,我把它当作某个任意范围的百分比。如果您可以容忍一点点错误,它可以是二进制结果。当我训练逻辑门时,经过相当成功的训练后,1 AND 1 的结果类似于 0.9999999;这几乎是 1。你可以在那个点四舍五入。
我在一两个月前就此发表了一篇 post。如果我能找到它,我会link。
当你在二元问题上训练神经网络时,如果你不使用二元激活函数,答案将是一个概率(如果你使用 sigmoid):实例概率属于 class.
我从不使用阈值或二元激活函数,因为研究概率总是很有趣。例如,您可能有一个错误 class 化的实例,但您观察到它的概率约为 0.5。因此,NN 不确定要固定在实例上的 class。相反,如果一个实例被misclassified并且概率很大(接近0或1),那么它就是一个strong error,你应该认真理解它为什么被misclassified。