深度神经网络应该隐藏节点增加、减少或保持不变

Deep neural network should hidden nodes increase, decrease, or stay the same

隐藏层中的隐藏节点数应该增加、减少还是保持不变。我看到在一些 conv 网络中,如 alexnet、VGG 和 resnet,节点数量在后续层中趋于增加。为什么会这样,这真的很重要吗?

没有通用规则,这完全取决于如何构建神经网络的问题。几乎任何方案 - 减少,增加,小瓶颈,宽 "neck" - 都有自己的应用程序。为了真正了解正在发生的事情,您需要大量经验,但通常调整体系结构非常棘手,通常需要一些 "rule of the thumb" 来完成,例如 "we use architecture used by XXX, and then try to tune it a bit".