向 node.js 添加 OpenCV C++ 附加组件的最基本示例

Most basic example of adding a OpenCV C++ add-on to node.js

所以最近我一直在使用 C++ 接触 OpenCV。 我已经构建了一些库和应用程序,我想将它们导出到 Nodejs,但我这辈子都弄不明白。

我试图在下面的这个 repo 中查看他是如何做到的,但要接受的东西很多,尤其是因为这是我的第一个附加组件。 https://github.com/peterbraden/node-opencv/blob/master/binding.gyp

我不介意它与 NAN 或 N-API 一起使用,我只是希望有一些简单易懂的东西,可以看出发生了什么以及为什么发生。

这是一个简单的 OpenCV 函数,它只打开一个图像,我试图将其用作 Node 的插件:

#include <opencv2/core.hpp>
#include <opencv2/imgcodecs.hpp>
#include <opencv2/highgui.hpp>
#include <iostream>
#include <string>
using namespace cv;
using namespace std;

int ShowImage()
{
  String imageName("./image.png");
  Mat image;
  image = imread(imageName, IMREAD_COLOR);
  namedWindow("Display window", WINDOW_AUTOSIZE);
  imshow("Display window", image);
  waitKey(0);
}

您需要三个主要文件。

  1. binding.gyp
  2. module.cpp
  3. index.js

binding.gyp

对我来说,最困难的部分是弄清楚如何将 openCV 包含到项目中。我不知道这是否正确,但我将 binding.gyp 文件视为典型 C++ 项目中的 make 文件。考虑到这一点,这就是我的 binding.gyp 文件的样子。

{
    "targets": [{
        "target_name": "module",
    'include_dirs': [
        '.',
        '/user/local/lib',
    ],
    'cflags': [
        '-std=c++11',
    ],
    'link_settings': {
        'libraries': [
            '-L/user/local/lib', 
             '-lopencv_core', 
             '-lopencv_imgproc', 
             '-lopencv_highgui'
        ],
    },
    "sources": [ "./src/module.cpp",
                "./src/ImageProcessing.cpp" ]
    }]
}

我写的 ImageProcessing.cpp 文件需要 c++11,所以我添加了那个标志,它不需要让 openCV 工作。

binding.gyp 文件的关键是 link 设置。这就是您实际将 openCV 包含到您的项目中的方式。 还要确保将所有源文件包含在源列表中(我最初忘记包含我的 ImageProcessing.cpp 文件)

module.cpp

我使用了 n-api 所以我的 module.cpp 文件看起来像这样

#include <node_api.h>
#include "ImageProcessing.hpp"
#include "opencv.hpp"

template <typename T>
ostream& operator<<(ostream& output, std::vector<T> const& values)
{
    for (auto const& value : values)
    {
        output << value;
    }
    return output;
}

napi_value processImages(napi_env env, napi_callback_info info)
{
    napi_status status;
    size_t argc = 3;
    napi_value argv[1];
    status = napi_get_cb_info(env, info, &argc, argv, NULL, NULL);

    char PathName[100];
    size_t result;
    status = napi_get_value_string_utf8(env, argv[0], PathName, 100, &result);

    char FileName1[100];
    status = napi_get_value_string_utf8(env, argv[1], FileName1, 100, &result);

    char FileName2[100];
    status = napi_get_value_string_utf8(env, argv[2], FileName2, 100, &result);

    vector< vector<Point> > Anchors;        //to store coordinates of all anchor points
    vector< vector<Point> > Regions[4];     //to store coordinates of all corners of all pages
    vector<int> Parameters;                 // image processing parameters
    vector<string> FileList1;
    vector<string> FileList2;
    Mat TemplateROI[NUM_SHEET][4];
    Mat Result1, Result2;

    string FileName;
    string testName = FileName1;


    int i;

    // The first function to be called only at startup of the program
    // provide the path to folder where the data and reference image files are saved
    getAnchorRegionRoI(PathName, &Anchors, Regions, &Parameters, TemplateROI);

    vector< vector<int> > Answers;


    if (Parameters.at(0)) {
            namedWindow("Display1", CV_WINDOW_AUTOSIZE);
            namedWindow("Display2", CV_WINDOW_AUTOSIZE);
    }



    napi_value outer;
    status = napi_create_array(env, &outer);
    //This will need to be changed to watch for new files and then process them
    Answers = scanBothSides(FileName1, FileName2, "./Output/", &Result1, &Result2, &Anchors, Regions, Parameters, TemplateROI);

    for(int k = 0; k<Answers.size(); k++){
      napi_value inner;
      status = napi_create_array(env, &inner);
      int j;
      for(j = 0; j<Answers[k].size(); j++){
        napi_value test;
        napi_create_int32(env, Answers[k][j], &test);
        napi_set_element(env,inner, j, test);
      }
      napi_value index;
      napi_create_int32(env, k, &index);
      napi_set_element(env,inner, j, index);

      napi_set_element(env,outer, k, inner);
    }


    if (Parameters.at(0)) {
        if (!Result1.empty() && !Result1.empty()) {
            FileName = "./Output/" + string("O ") + FileList1[i];
            imwrite(FileName, Result1);
            FileName = "./Output/" + string("O ") + FileList2[i];
            imwrite(FileName, Result2);
            resize(Result1, Result1, Size(772, 1000));
            resize(Result2, Result2, Size(772, 1000));
            imshow("Display1", Result1);
            imshow("Display2", Result2);
            waitKey(0);
        }
    }

    if (status != napi_ok)
    {
      napi_throw_error(env, NULL, "Failed to parse arguments");
    }

    //return PathName;
    return outer;
}

napi_value Init(napi_env env, napi_value exports)
{
  napi_status status;
  napi_value fn;

  status = napi_create_function(env, NULL, 0, processImages, NULL, &fn);
  if (status != napi_ok)
  {
    napi_throw_error(env, NULL, "Unable to wrap native function");
  }

  status = napi_set_named_property(env, exports, "processImages", fn);
  if (status != napi_ok)
  {
    napi_throw_error(env, NULL, "Unable to populate exports");
  }

  return exports;
}

NAPI_MODULE(NODE_GYP_MODULE_NAME, Init)

这是与 C/C++ 和节点接口的文件。

我在找到 opencv.hpp 文件时遇到了问题,所以我暂时将它移到了我的工作目录中。这就是为什么我使用引号而不是方括号来包含它的原因。

使用 n-api 需要一点时间来适应,因此请务必阅读文档 here

index.js

最后这是我的 index.js 文件

const express = require('express');
const app = express();
const addon = require('./build/Release/module');
const value = "./Data/";

let FileName1 = "./Images/Back1.jpg";
let FileName2 = "./Images/Front1.jpg";
let result = addon.processImages(value, FileName1, FileName2);
console.log("Results: "+result);
server.listen(3000, () => console.log('Example app listening on port 3000!'))

所以你所要做的就是从 build/Release 文件夹中获取你的模块,然后像调用任何其他 js 函数一样调用它。

再次查看 module.cpp 代码,您会发现在 init 函数中您使用 n-api 创建了一个新函数。我叫我的 processImages。此名称与 module.cpp 文件顶部的 processImages 函数名称匹配。最后在我的 index.js 文件中调用 addon.processImages().

提示:

我通过 运行 npm install -g node-gyp

全局安装了 node-gyp

我使用以下命令编译了我的代码:node-gyp configure build

尝试让一个简单的 n-api 项目先运行,然后再添加到 openCV 中。我使用 this 入门教程

我创建了一个简单的脚本,它将使用 opencv_contrib (SIFT, SURF available) for statically linking with Native Abstractions for Node.js 编译 OpenCV 3.4。

rm -rf 3rdparty/opencv
mkdir -p 3rdparty/opencv
rm -rf tmp
mkdir tmp
cd tmp
rm -rf opencv-master
rm -rf opencv_contrib-master
git clone --branch 3.4 --depth 1 https://github.com/opencv/opencv.git opencv-master
git clone --branch 3.4 --depth 1 https://github.com/opencv/opencv_contrib.git opencv_contrib-master
mkdir build
cd build
cmake \
    -DCMAKE_INSTALL_PREFIX="$(pwd)/../../3rdparty/opencv\@3.4" \
    -DBUILD_SHARED_LIBS=OFF \
    -DENABLE_PRECOMPILED_HEADERS=YES \
    -DOPENCV_EXTRA_MODULES_PATH=../opencv_contrib-master/modules \
    ../opencv-master
cmake --build .
make install

它将帮助您开始计算机视觉项目。顺便说一句,SIFT算法不再需要许可证作为其专利使用expired 2020-03-06

{
    "targets": [
    {
        "target_name": "addon",
        "cflags": [
            "-std=c++11",
            "-stdlib=libc++"
        ],
        "cflags_cc!": [
            "-fno-rtti",
            "-fno-exceptions"
        ],
        "xcode_settings": {
            "GCC_ENABLE_CPP_RTTI": "YES",
            "GCC_ENABLE_CPP_EXCEPTIONS": "YES",
        },
        "include_dirs": [
            "../../3rdparty/opencv/@3.4/include",
            "<!(node -e \"require('nan')\")"
        ],
        'libraries': [
            "<!@(node utils/find-libs.js)",
            "-framework OpenCL"
        ],
        "sources": [
            "./src/main.cc",
            "./src/lib/MainAddon.cc"
        ],
    }
  ]
}

完整的源代码足够大,所以它发布在 this GitHub repository