cv::SolvePnP 的外部校准

Extrinsic Calibration With cv::SolvePnP

我目前正在尝试使用外部跟踪系统实现基于网络摄像头的 AR 的替代方法。除了外部校准外,我已经配置了环境中的所有内容。我决定使用 cv::solvePnP(),因为它几乎完全符合我的要求,但两周后我竭尽全力让它发挥作用。下图显示了我的配置。 c1 是我的相机,c2 是我使用的光学跟踪器,M 是附加在相机上的跟踪标记,ch 是棋盘。

就目前情况而言,我传入了使用 cv::findChessboardCorners() 获取的图像像素坐标。世界点是参考附加到相机 c1 的跟踪标记 M 获取的(因此外部是从该标记的框架到相机原点的变换)。我已经使用最多 50 个点的数据集对此进行了测试,以减轻局部最小值的可能性,但目前我只使用四个 2D/3D 点对进行测试。我从 cv::solvePnP() 返回的 rvec 和 tvec 得到的结果外在因素相对于我手动创建的地面实况外在因素以及基本视觉分析(翻译意味着 1100mm距相机最多 10 毫米)。

最初我认为问题是我对如何确定我的棋盘姿势有些含糊不清,但现在我相当确定情况并非如此。数学看起来很简单,在我设置系统的所有工作之后,陷入本质上是单行的东西是一个巨大的挫败感。老实说,我 运行 别无选择,所以如果有人能提供帮助,我将非常感激你。我的测试代码发布在下面,与我的实现相同但减去了一些渲染调用。我拥有的适用于我的程序的外在基本事实如下(基本上是围绕一个轴的纯旋转和一个小的平移):

1     0     0     29
0   .77  -.64   32.06
0   .64   .77  -39.86
0     0     0     1

谢谢!

#include <opencv2\opencv.hpp>
#include <opencv2\highgui\highgui.hpp>

int main()
{
    int imageSize     = 4;
    int markupsSize   = 4;
    std::vector<cv::Point2d> imagePoints;
    std::vector<cv::Point3d> markupsPoints;
    double tempImage[3], tempMarkups[3]; // Temp variables or iterative data construction  

    cv::Mat CamMat = (cv::Mat_<double>(3,3) <<  (566.07469648019332), 0, 318.20416967732666, 
        0,  (565.68051204299513), -254.95231997403764, 0,  0, 1);  

    cv::Mat DistMat = (cv::Mat_<double>(5,1) <<  -1.1310542849120900e-001, 4.5797249991542077e-001,
    7.8356355644908070e-003, 3.7617039978623504e-003, -1.2734302146228518e+000);

    cv::Mat rvec = cv::Mat::zeros(3,1, cv::DataType<double>::type);
    cv::Mat tvec = cv::Mat::zeros(3,1,cv::DataType<double>::type);
    cv::Mat R;
    cv::Mat extrinsic = cv::Mat::eye(4, 4, CV_64F);

    // Escape if markup lists aren't equally sized
    if(imageSize != markupsSize)
    {
    //TODO: Replace with try, throw error code, and catch in qSlicerLocalizationModuleWidget
    return 0;
    }

    // Four principal chessboard corners only
    imagePoints.push_back(cv::Point2d(368.906, 248.123));
    imagePoints.push_back(cv::Point2d(156.583, 252.414));
    imagePoints.push_back(cv::Point2d(364.808, 132.384));
    imagePoints.push_back(cv::Point2d(156.692, 128.289));

    markupsPoints.push_back(cv::Point3d(495.115, 39.106, 93.79));  
    markupsPoints.push_back(cv::Point3d(463.143, -86.286, -51.178));  
    markupsPoints.push_back(cv::Point3d(500.236, 121.988, 24.056));  
    markupsPoints.push_back(cv::Point3d(471.276, -3.23, -127.809));    

    // Larger data set
    /*imagePoints.push_back(cv::Point2d(482.066, 233.778));
    imagePoints.push_back(cv::Point2d(448.024, 232.038));
    imagePoints.push_back(cv::Point2d(413.895, 230.785));
    imagePoints.push_back(cv::Point2d(380.653, 229.242 ));
    imagePoints.push_back(cv::Point2d(347.983, 227.785));
    imagePoints.push_back(cv::Point2d(316.103, 225.977));
    imagePoints.push_back(cv::Point2d(284.02, 224.905));
    imagePoints.push_back(cv::Point2d(252.929, 223.611));
    imagePoints.push_back(cv::Point2d(483.41, 200.527));
    imagePoints.push_back(cv::Point2d(449.456, 199.406));
    imagePoints.push_back(cv::Point2d(415.843, 197.849));
    imagePoints.push_back(cv::Point2d(382.59, 196.763));
    imagePoints.push_back(cv::Point2d(350.094, 195.616));
    imagePoints.push_back(cv::Point2d(317.922, 194.027));
    imagePoints.push_back(cv::Point2d(286.922, 192.814));
    imagePoints.push_back(cv::Point2d(256.006, 192.022));
    imagePoints.push_back(cv::Point2d(484.292, 167.816));
    imagePoints.push_back(cv::Point2d(450.678, 166.982));
    imagePoints.push_back(cv::Point2d(417.377, 165.961));

    markupsPoints.push_back(cv::Point3d(457.132, 59.822, 89.247));  
    markupsPoints.push_back(cv::Point3d(451.634, 42.015, 69.719));  
    markupsPoints.push_back(cv::Point3d(447.06, 22.927, 48.635));  
    markupsPoints.push_back(cv::Point3d(442.424, 4.454, 28.659));  
    markupsPoints.push_back(cv::Point3d(437.621, -14.395, 7.495));  
    markupsPoints.push_back(cv::Point3d(433.386, -33.034, -12.009));  
    markupsPoints.push_back(cv::Point3d(429.227, -51.001, -32.269));  
    markupsPoints.push_back(cv::Point3d(424.291, -70.266, -52.667));  
    markupsPoints.push_back(cv::Point3d(460.300, 79.769, 69.948));  
    markupsPoints.push_back(cv::Point3d(455.020, 61.379, 49.306));  
    markupsPoints.push_back(cv::Point3d(450.501, 43.288, 30.250));  
    markupsPoints.push_back(cv::Point3d(446.062, 24.572, 8.713));  
    markupsPoints.push_back(cv::Point3d(441.346, 5.823, -10.997));  
    markupsPoints.push_back(cv::Point3d(436.670, -13.135, -31.428));  
    markupsPoints.push_back(cv::Point3d(432.367, -31.428, -51.785));  
    markupsPoints.push_back(cv::Point3d(427.745, -50.016, -72.519));  
    markupsPoints.push_back(cv::Point3d(464.824, 101.129, 52.251));  
    markupsPoints.push_back(cv::Point3d(458.628, 81.864, 30.810));  
    markupsPoints.push_back(cv::Point3d(454.120, 63.546, 10.458));  */


    // Calculate camera pose
    cv::solvePnP(cv::Mat(markupsPoints), cv::Mat(imagePoints), CamMat, DistMat, rvec, tvec);
    cv::Rodrigues(rvec, R);

    // Invert results of Rodrigues by transposing rotation matrix and calculating inverted tvec
    R = R.t();  
    tvec = -R * tvec; // translation of inverse

    std::cout << "Tvec = " << std::endl << tvec << std::endl;

    // Copy R and tvec into the extrinsic matrix
    extrinsic( cv::Range(0,3), cv::Range(0,3) ) = R * 1; 
    extrinsic( cv::Range(0,3), cv::Range(3,4) ) = tvec * 1; 

    // Fill last row of homogeneous transform (0,0,0,1)
    double *p = extrinsic.ptr<double>(3);
    p[0] = p[1] = p[2] = 0; p[3] = 1;

    std::cout << "Extrinsic = " << std::endl << extrinsic << std::endl << std::endl;
    std::cout << "Extrinsic (inv) = " << std::endl << extrinsic.inv() << std::endl;
    std::cin >> tempImage[0];
    return 0;
}

编辑 1:我尝试使用 Chi Xu 的方法 (xn = (x-cx)/f, yn = (y-cy)/f) 对像素值进行归一化。运气不好:(

编辑 2:似乎几乎所有使用 solvePnP 的人都使用一种方法,他们将棋盘角标记为其世界框架和原点的向量,我将尝试将我的跟踪器注册到棋盘。如果这按预期工作,我标记的第一个坐标将大约为 <0,0>。 solvePnP 的结果变换将乘以世界到相机标记变换的逆,从而产生(希望)外部矩阵。

编辑3:我执行了步骤2中描述的步骤。在棋盘上建立坐标系后,我计算了从棋盘space到世界space的变换cTw并验证了它在我的渲染环境中。然后我计算了表示从相机 space 到棋盘 space 的变换的外部 mTc。相机标记变换 wTr 是从跟踪系统获取的。最后,我采用了所有变换并将它们相乘如下,以将我的变换从相机原点一直移动到相机标记:

mTc*cTw*wTr

瞧瞧,它给出了 完全相同的结果。 我快要死了,因为有任何迹象表明我做错了什么。如果有人有任何线索,我请求你的帮助。

编辑 4:今天我意识到我已经配置了我的棋盘轴,使它们处于左手坐标系中。由于 OpenCV 使用标准的右手形式运行,我决定使用以右手方式配置的棋盘格框架轴重试测试。虽然结果大致相同,但我注意到世界到棋盘的变换现在是一种非标准变换格式,即 3x3 旋转矩阵不再像它应该的那样围绕对角线大致对称。这表明我的跟踪系统没有使用右手坐标系(如果他们记录了这一点,那就太好了。或者任何东西,就此而言)。虽然我不确定如何解决这个问题,但我确信这是问题的一部分。我会继续努力,希望这里有人知道该怎么做。我还添加了 Eduardo 在 OpenCV 板上提供给我的图表。谢谢爱德华多!

所以我想通了这个问题。毫不奇怪,这是在实施中,而不是在理论上。最初设计项目时,我们使用了基于网络摄像头的跟踪器。这个跟踪器的 z 轴从标记平面出来。当我们转向光学跟踪器时,代码大部分是按原样移植的。对我们来说不幸的是(我生命中的 2 个月安息吧),我们从未检查过 z 轴是否仍然从标记平面出来(它没有)。因此,渲染管道被分配了错误的向上视图和向外视图矢量到场景摄像机。它现在主要工作,除了翻译由于某种原因而关闭。但是完全不同的问题!