"To do any classification or regression, we need the fully-connected layer as the output layer"
"To do any classification or regression, we need the fully-connected layer as the output layer"
我正在浏览一些论文和教程,到处都提到它,"To do any classification or regression, we need the fully-connected layer as the output layer"。为什么这样?它背后的直觉是什么?我无法与我的理解联系起来。如果我在最后一层使用 dropouts 会怎样?
首先,dropouts 是一种从首要效应调整不正确训练的方法:抛出一些中间结论,并相信有效的结论会自然地重新出现。 Dropout一般不在最后一层使用。
fully-connected 最后一层是用于分类的 NN(神经网络)惯用语:它为倒数第二层(前一层)中的每个感知器赋予一个权重,以影响最终(最终)分类。
总体思路是,倒数第二层包含模型用来做出分类决策的 highest-level 抽象和关系。每个可能的分类都会得到一个 "voice"(权重)。结果是最后一个FC(fully-connected)层。
我正在浏览一些论文和教程,到处都提到它,"To do any classification or regression, we need the fully-connected layer as the output layer"。为什么这样?它背后的直觉是什么?我无法与我的理解联系起来。如果我在最后一层使用 dropouts 会怎样?
首先,dropouts 是一种从首要效应调整不正确训练的方法:抛出一些中间结论,并相信有效的结论会自然地重新出现。 Dropout一般不在最后一层使用。
fully-connected 最后一层是用于分类的 NN(神经网络)惯用语:它为倒数第二层(前一层)中的每个感知器赋予一个权重,以影响最终(最终)分类。
总体思路是,倒数第二层包含模型用来做出分类决策的 highest-level 抽象和关系。每个可能的分类都会得到一个 "voice"(权重)。结果是最后一个FC(fully-connected)层。