Apple Vision Framework:通过观察检测微笑或笑脸?
Apple Vision Framework: detect smiles or happy faces with observations?
我正在开发一个项目,该项目使用 Vision Framework 来检测图像中的人脸,然后使用 CoreML 模型来检测人脸是否在微笑。问题是 CoreML 模型文件将近 500 MB。我不想让我的应用程序膨胀太多。
由于我已经从 Vision 框架中获取了 VNFaceLandmarks2D 观察数据,我想我会尝试使用它来检测微笑。
有没有人尝试过使用 Vision 框架中的 VNFaceLandmarks2D 数据来尝试确定人脸是开心还是微笑?
如果是,你是怎么做到的,效果如何?
谢谢!
一种解决方案是使用较小的 Core ML 模型文件。听起来您正在使用基于 VGGNet 的模型。有几个更小的模型架构(4 到 16 MB 之间)具有与 VGGNet 相同的精度,因此更适合在移动设备上使用。
这个更好、小、快、有趣:
CIFaceFeature 检测可让您检测闭眼和微笑。
https://developer.apple.com/documentation/coreimage/cifacefeature
我正在开发一个项目,该项目使用 Vision Framework 来检测图像中的人脸,然后使用 CoreML 模型来检测人脸是否在微笑。问题是 CoreML 模型文件将近 500 MB。我不想让我的应用程序膨胀太多。
由于我已经从 Vision 框架中获取了 VNFaceLandmarks2D 观察数据,我想我会尝试使用它来检测微笑。
有没有人尝试过使用 Vision 框架中的 VNFaceLandmarks2D 数据来尝试确定人脸是开心还是微笑?
如果是,你是怎么做到的,效果如何?
谢谢!
一种解决方案是使用较小的 Core ML 模型文件。听起来您正在使用基于 VGGNet 的模型。有几个更小的模型架构(4 到 16 MB 之间)具有与 VGGNet 相同的精度,因此更适合在移动设备上使用。
这个更好、小、快、有趣:
CIFaceFeature 检测可让您检测闭眼和微笑。 https://developer.apple.com/documentation/coreimage/cifacefeature