训练小输入尺寸的 Deep Convnet
Training Deep Convnet with small input size
我对深度学习这个领域很陌生。虽然我了解它是如何工作的,并且我设法 运行 关于 Caffe Library 的一些教程,但我仍然有一些问题,我无法找到一些令人满意的答案。
我的问题如下:
考虑 AlexNet,它在 caffe 中输入 227 x 227 图像大小(我认为在原始论文中是 224),而 FC7 生成 4096-D 特征向量。现在,如果我想检测一个人说使用大小为 (32 x 64) 的滑动 window,那么每个 window 都会在通过 AlexNet 之前放大到 227 x 227。这是一些大的计算。有没有更好的方法来处理这个 (32 x 64) window?
我对这个 32 x 64 window 检测器的方法是用很少的卷积、池化、ReLus 和 FC 构建我自己的网络。虽然我了解如何构建架构,但我担心我要训练的模型可能会出现过度拟合等问题。我的一位朋友告诉我使用 AlexNet 预训练我的网络,但我不知道该怎么做?我现在无法联系到他,但有人认为他说的是可行的吗?我很迷惑。我正在考虑使用 ImageNet 并训练我的网络,它将采用 32 x 64 输入。由于这只是特征提取器,我觉得使用 imageNet 可能会为我提供各种图像以进行良好的学习?如果我错了,请纠正我,如果可能的话,请引导我走上正确的道路。
这个问题是关于Caffe的。假设我使用 HOG 计算特征并且我想使用神经网络的 GPU 版本来训练分类器。那可能吗?我想考虑使用 HDF5 层来读取 hog 特征向量并将该全连接层传递给训练?这可能吗?
我将不胜感激任何可能帮助我理解 Convnets 概念的帮助或论文链接等。
对于包含全连接层的 CNN,输入大小无法更改。如果网络在 224x224 图像上进行训练,则输入大小必须为 224x224。看看这个question.
从头开始训练自己的网络需要大量数据。 AlexNet 在一百万张图片上进行了训练。如果你有如此大量的训练数据(你可以下载 ImageNet 训练数据),那么继续吧。否则你可能想看看 finetuning.
可以,可以使用HDF5层读取HOG特征向量进行训练。
我对深度学习这个领域很陌生。虽然我了解它是如何工作的,并且我设法 运行 关于 Caffe Library 的一些教程,但我仍然有一些问题,我无法找到一些令人满意的答案。
我的问题如下:
考虑 AlexNet,它在 caffe 中输入 227 x 227 图像大小(我认为在原始论文中是 224),而 FC7 生成 4096-D 特征向量。现在,如果我想检测一个人说使用大小为 (32 x 64) 的滑动 window,那么每个 window 都会在通过 AlexNet 之前放大到 227 x 227。这是一些大的计算。有没有更好的方法来处理这个 (32 x 64) window?
我对这个 32 x 64 window 检测器的方法是用很少的卷积、池化、ReLus 和 FC 构建我自己的网络。虽然我了解如何构建架构,但我担心我要训练的模型可能会出现过度拟合等问题。我的一位朋友告诉我使用 AlexNet 预训练我的网络,但我不知道该怎么做?我现在无法联系到他,但有人认为他说的是可行的吗?我很迷惑。我正在考虑使用 ImageNet 并训练我的网络,它将采用 32 x 64 输入。由于这只是特征提取器,我觉得使用 imageNet 可能会为我提供各种图像以进行良好的学习?如果我错了,请纠正我,如果可能的话,请引导我走上正确的道路。
这个问题是关于Caffe的。假设我使用 HOG 计算特征并且我想使用神经网络的 GPU 版本来训练分类器。那可能吗?我想考虑使用 HDF5 层来读取 hog 特征向量并将该全连接层传递给训练?这可能吗?
我将不胜感激任何可能帮助我理解 Convnets 概念的帮助或论文链接等。
对于包含全连接层的 CNN,输入大小无法更改。如果网络在 224x224 图像上进行训练,则输入大小必须为 224x224。看看这个question.
从头开始训练自己的网络需要大量数据。 AlexNet 在一百万张图片上进行了训练。如果你有如此大量的训练数据(你可以下载 ImageNet 训练数据),那么继续吧。否则你可能想看看 finetuning.
可以,可以使用HDF5层读取HOG特征向量进行训练。