以 SVM 作为弱学习器的 Opencv 级联分类器

Opencv cascade classifier with SVM as weak learner

我正在做一个与人物检测相关的项目。我成功地实现了基于 HOG SVM 的分类器(使用 libSVM)和级联分类器(使用 opencv)。 svm 分类器工作得很好,我测试了很多视频,它正确地检测出确实有一些假阳性和一些假阴性的人;这里的问题是计算时间:整个图像大约需要 1.2-1.3 秒,前景块大约需要 0.2-0.4 秒;因为我正在从事一个必须能够在近乎实时的环境中工作的项目,所以我切换到级联分类器(以减少计算时间)。 所以我用 opencv (opencv_traincascade) 训练了许多不同的级联分类器。输出在计算时间方面很好(整个图像为 0.2-0.3 秒,仅在前景上启动时要少得多),所以我实现了目标,比方说。这里的问题是检测质量:我得到了很多误报和很多漏报。由于这两种方法之间的 only 区别是opencv中使用的基本分类器(决策树或决策树桩,据我所知无论如何没有SVM),所以我开始认为我的问题可能是基本分类器(在某种程度上,我猜 hog 特征最好与超平面分开)。

当然,libsvm和Opencv使用的数据集是完全一样的,无论是训练还是测试...为了完整起见,我使用了将近9千个正样本和近3万个负样本。

这是我的两个问题:

一如既往地提前感谢您!

马可.

原则上弱分类器可以是任何东西,但是Adaboost相关方法的优势在于它们能够从简单的分类器中获得好的结果(它们被称为“弱”是有原因的)。
使用 SVN 和 Adaboost 级联是一个矛盾,因为前者不需要在这样的框架中使用:它可以自己完成它的工作,而后者速度很快,只是因为它利用了弱分类器。
此外,我不知道有任何关于它的研究,而且 OpenCv 也不支持它:你必须自己编写代码。这是一项艰巨的任务,您可能不会得到任何有趣的结果。
无论如何,如果您认为 HOG 功能更适合您的任务,OpenCv 的 traincascade 有一个选项,除了 Haar 和 Lbp。 关于你的第二个问题,我不是很确定,但我很确定答案是否定的。
我的建议是:尽量从 traincascade 中获得最大的收益,例如尝试增加样本 id 的数量并比较结果。

这个paper挺好的。它只是说如果你使用更少的样本来训练它(假设少于训练集的一半),SVM 可以被视为弱分类器。权重越高,它被 'weak-SVM' 训练的机会就越大。

不幸的是,源代码并未广泛使用。如果你想要一个快速的原型,使用python scikit learn,在修改opencv之前看看是否能得到理想的结果。