如何在 CNN 中排列不同的层
How to arrange different layers in CNN
搜索了很多关于卷积神经网络的文章,发现有一些不错的结构可以参考。例如,AlexNet、VGG、GoogleNet。
但是,如果我想自己定制CNN架构,如何arrange/order不同的层?例如。卷积层、dropout、max pooling……有什么标准吗?还是继续尝试不同的组合来产生好的结果?
您通常希望在卷积层之后放置一个池化层。此外,您可以将 dropout 视为应用于一个层的参数,而不是完全一个单独的层——以您更容易想到的为准。
据我所知,没有一个标准,但是组合
1-如果你想创建更深的网络,你可以使用残差块来避免梯度消失问题。
2-使用 3,3 卷积的标准是因为它降低了计算成本 ex 3 同时 3,3 卷积可以以更小的成本实现 7,7 卷积
3-dropout的主要原因是引入正则化,也可以像作者所说的那样通过batch normalization来实现。
4-在增强什么和如何增强之前,必须了解he/she要解决的问题。
你可以看一看在斯坦福教授的案例研究
Standford case study
该视频可以帮助您了解其中的大部分组合以及它们如何改进模型,并可以帮助您构建网络。
搜索了很多关于卷积神经网络的文章,发现有一些不错的结构可以参考。例如,AlexNet、VGG、GoogleNet。
但是,如果我想自己定制CNN架构,如何arrange/order不同的层?例如。卷积层、dropout、max pooling……有什么标准吗?还是继续尝试不同的组合来产生好的结果?
您通常希望在卷积层之后放置一个池化层。此外,您可以将 dropout 视为应用于一个层的参数,而不是完全一个单独的层——以您更容易想到的为准。
据我所知,没有一个标准,但是组合
1-如果你想创建更深的网络,你可以使用残差块来避免梯度消失问题。
2-使用 3,3 卷积的标准是因为它降低了计算成本 ex 3 同时 3,3 卷积可以以更小的成本实现 7,7 卷积
3-dropout的主要原因是引入正则化,也可以像作者所说的那样通过batch normalization来实现。
4-在增强什么和如何增强之前,必须了解he/she要解决的问题。
你可以看一看在斯坦福教授的案例研究 Standford case study
该视频可以帮助您了解其中的大部分组合以及它们如何改进模型,并可以帮助您构建网络。