ARKit:如何判断用户的脸是否与相机平行

ARKit: How to tell if user's face is parallel to camera

在我的Swift/ARKit/SceneKit项目中,我需要判断前置摄像头中用户的脸是否与摄像头平行。

我能够通过比较左右眼距离(使用 faceAnchor.leftEyeTransformworldPosition 属性)与相机的距离来判断水平平行。

但是我卡在了垂直平行。有什么想法,如何实现?

假设您在应用中使用 ARFaceTrackingConfiguration,您实际上可以检索 ARFaceAnchor 和相机的变换以确定它们的方向。您可以使用 ARFaceAnchor.transform 属性 获得头部在世界 space 中的方向的 simd_float4x4 矩阵。同样,您可以获得场景的 SCNCameraARCamera 的变换。

为了在 SceneKit 应用程序中比较相机和面部相对于彼此的方向(尽管在 ARKit 方面有类似的功能),我得到了附加到它们每个节点的世界变换,我们称它们为 faceNode 附加到 ARFaceAnchorcameraNode 代表 ARSCNView.pointOfView。例如,要找到相机和你的脸之间的角度,你可以这样做:

let faceOrientation: simd_quatf = faceNode.simdWorldTransform
let cameraOrientation: simd_quatf = cameraNode.simdWorldTransform
let deltaOrientation: simd_quatf = faceOrientation.inverse * cameraOrientation

通过查看 deltaOrientation.angledeltaOrientation.axis,您可以确定面部和相机之间每个轴上的相对角度。如果你做类似 deltaOrientation.axis * deltaOrientation.angles 的事情,你就会得到一个 simd_float3 向量,让你感觉到头部相对于相机的俯仰、偏航和滚动(以弧度为单位)。

有多种方法可以使用面部锚点和相机变换来执行此操作,但这种 simd 四元数方法对我来说效果很好。希望这可以帮助!