Google Mobile Vision Android 中部分帧的人脸检测
Face detection on partial frame in Google Mobile Vision for Android
任何人都可以推荐一种方法来指定用于人脸检测的帧的子集吗?这可能适用于整个面部跟踪过程中的固定区域,比如帧的一个象限 - 因此不是每帧动态。在我的例子中,我只需要扫描框架的固定部分并且对提高性能很感兴趣。
将跟踪仅限于突出的面部不是一个选项,因为我需要跟踪多张面部并在发送到检测器之前裁剪每一帧太慢了。我的希望是实现这样的目标:
// Send entire frame, but specify subset for detection
detector.receiveFrame(fullFrame, sub_x, sub_y, sub_width, sub_height)
或者在创建框架时:
// Create a partial frame from a full frame during frame building
Frame.Builder().setImageData(fullFrame_byteBuffer, sub_x, sub_y, sub_width, sub_height, format)
我是否缺少在 SDK 中执行此操作的选项,或者是否有比在全帧上执行 copy/cropping 操作更好的方法?
谢谢
更新:我知道此功能存在于底层 Pittpatt 实现中,作为 ppr_set_search_region(context, x1, y1, x2, y2)
- 可能 Google 在 [=30= 上提供此功能]?
这目前是不可能的。虽然是为了响应动态限制条码的检测区域,但答案似乎是断言目前不支持限制检测区域。
任何人都可以推荐一种方法来指定用于人脸检测的帧的子集吗?这可能适用于整个面部跟踪过程中的固定区域,比如帧的一个象限 - 因此不是每帧动态。在我的例子中,我只需要扫描框架的固定部分并且对提高性能很感兴趣。
将跟踪仅限于突出的面部不是一个选项,因为我需要跟踪多张面部并在发送到检测器之前裁剪每一帧太慢了。我的希望是实现这样的目标:
// Send entire frame, but specify subset for detection
detector.receiveFrame(fullFrame, sub_x, sub_y, sub_width, sub_height)
或者在创建框架时:
// Create a partial frame from a full frame during frame building
Frame.Builder().setImageData(fullFrame_byteBuffer, sub_x, sub_y, sub_width, sub_height, format)
我是否缺少在 SDK 中执行此操作的选项,或者是否有比在全帧上执行 copy/cropping 操作更好的方法?
谢谢
更新:我知道此功能存在于底层 Pittpatt 实现中,作为 ppr_set_search_region(context, x1, y1, x2, y2)
- 可能 Google 在 [=30= 上提供此功能]?
这目前是不可能的。虽然