从 VGG 中提取特征
Extracting Features from VGG
我想使用微调的 VGG-19 网络从 MS COCO 数据集中的图像中提取特征。
然而,每张图像大约需要 6~7 秒,每 1k 张图像大约需要 2 小时。 (对于其他经过微调的模型甚至更长)
MS COCO数据集中有12万张图片,所以至少需要10天。
有什么方法可以加快特征提取过程吗?
好吧,这不仅仅是一个命令。首先,您必须检查您的 GPU 是否足够强大以应对深度 CNN。了解您的 GPU 型号可以回答这个问题。
其次,您必须在 Makefile.config(或 CMakeLists.txt)中编译和构建启用 CUDA 和 GPU(CPU_Only 禁用)的 Caffe 框架。
通过所有必需的步骤(安装 Nvidia 驱动程序、安装 CUDA 等),您可以构建用于 GPU 的 caffe。然后通过在命令行中传递 GPU_Device_ID,您可以从它们提供的速度中受益。
关注 this link 使用 GPU 构建 Caffe。
希望对您有所帮助
这个 ipython notebook 示例很好地解释了从任何 caffe 模型中提取特征的步骤:https://github.com/BVLC/caffe/blob/master/examples/00-classification.ipynb
在pycaffe中,你可以简单地使用caffe.set_mode_gpu()设置gpu模式。
我想使用微调的 VGG-19 网络从 MS COCO 数据集中的图像中提取特征。
然而,每张图像大约需要 6~7 秒,每 1k 张图像大约需要 2 小时。 (对于其他经过微调的模型甚至更长)
MS COCO数据集中有12万张图片,所以至少需要10天。
有什么方法可以加快特征提取过程吗?
好吧,这不仅仅是一个命令。首先,您必须检查您的 GPU 是否足够强大以应对深度 CNN。了解您的 GPU 型号可以回答这个问题。
其次,您必须在 Makefile.config(或 CMakeLists.txt)中编译和构建启用 CUDA 和 GPU(CPU_Only 禁用)的 Caffe 框架。
通过所有必需的步骤(安装 Nvidia 驱动程序、安装 CUDA 等),您可以构建用于 GPU 的 caffe。然后通过在命令行中传递 GPU_Device_ID,您可以从它们提供的速度中受益。
关注 this link 使用 GPU 构建 Caffe。
希望对您有所帮助
这个 ipython notebook 示例很好地解释了从任何 caffe 模型中提取特征的步骤:https://github.com/BVLC/caffe/blob/master/examples/00-classification.ipynb
在pycaffe中,你可以简单地使用caffe.set_mode_gpu()设置gpu模式。