output_tensor 的 dlib 致命错误

dlib fatal error with output_tensor

我目前正在使用 RCNN 算法开发人脸检测应用程序。在 dlib-19.2 C++ 中开发的代码。我的操作系统是 Windows10 家庭版。框架是Qt 5.7.

我的 781 张图片(高度:228 和 width:307)在一个名为 "images"

的向量中
std::vector<matrix<rgb_pixel>> images;

之后,我将 "images" 分成两个向量:一个包含训练图像(总共 389 张)和测试图像(总共 391 张):

std::vector<dlib::matrix<dlib::rgb_pixel>> training_images(images.begin(), images.begin() + half_size);
std::vector<dlib::matrix<dlib::rgb_pixel>> testing_images(images.begin() + half_size, images.end());

然后,我尝试使用 train() 函数训练 RCNN 网络:

template <long num_filters, typename SUBNET> using con5d = con<num_filters,5,5,2,2,SUBNET>;

template <long num_filters, typename SUBNET> using con3  = con<num_filters,3,3,1,1,SUBNET>;

template <typename SUBNET> using downsampler  = relu<bn_con<con5d<32, relu<bn_con<con5d<32, relu<bn_con<con5d<32,SUBNET>>>>>>>>>;

template <typename SUBNET> using rcon3  = relu<bn_con<con3<32,SUBNET>>>;

using net_type  = loss_binary_log<con<1,6,6,1,1,rcon3<rcon3<rcon3<downsampler<input_rgb_image_pyramid<pyramid_down<6>>>>>>>>;

net_type net;
dnn_trainer<net_type> trainer(net);
trainer.set_learning_rate(0.01);
trainer.set_min_learning_rate(0.00001);
trainer.set_mini_batch_size(5);
trainer.be_verbose();
trainer.train(training_images, training_labels);

但是,这不起作用。每次我 运行 代码时都会出现以下错误:

Error detected at line 179. Error detected in file ../../Desktop/dlib-19.2/dlib/dnn/loss.h. Error detected in function double dlib::loss_binary_log_::compute_loss_value_and_gradient(const dlib::tensor&, const_label_iterator, SUBNET&) const [with const_label_iterator = __gnu_cxx::__normal_iterator >; SUBNET = dlib::dimpl::subnet_wrapper, dlib::add_layer, dlib::add_layer, dlib::add_layer, dlib::add_layer, dlib::add_layer, dlib::add_layer, dlib::add_layer, dlib::add_layer, dlib::add_layer, dlib::add_layer, dlib::add_layer, dlib::add_layer, dlib::input_rgb_image_pyramid >, void>, void>, void>, void>, void>, void>, void>, void>, void>, void>, void>, void>, void>, void>, void>, void>, void>, void>, void>, true, void>].

Failing expression was output_tensor.nr() == 1 && output_tensor.nc() == 1 && output_tensor.k() == 1.

真不知道怎么回事。你能帮帮我吗?

非常感谢您的所有回答。

错误告诉您,您选择的 loss_binary_log 损失要求网络的输出张量在每个样本中只有一个值。但是您定义的网络不会那样做。在它的末尾放置一个完全连接的层或做类似的事情,以便在最后得到一个输出。