面部特征检测后在 iOS 中渲染 3D 模型的最佳方法是什么?
What is the best approach to render 3D model in iOS after facial landmark detection?
我想在面部标志检测后放置一个发型。我能够正确渲染 2D 图像。我想渲染 3D 模型。我想到了使用 SceneKit 来渲染 3D 模型。我想知道 Instagram、snapchat 和其他面部滤镜应用程序如何渲染 3D 模型。我观察到 SceneKit 坐标系与 UIKit 坐标系不同。我用谷歌搜索但找不到坐标系的转换。谁能帮忙。谢谢
查找 worldUp
和 simdWorldUp
实例属性以了解 ARKit 如何基于真实世界的设备运动构建场景坐标系(另外,您可以检查 ARConfiguration.WorldAlignment
枚举)。
请查看此 SO post: 以获得完整信息。
请记住,ARAnchor
是您放置 3D 对象时最好的朋友。点击
了解更多详情。
我想在面部标志检测后放置一个发型。我能够正确渲染 2D 图像。我想渲染 3D 模型。我想到了使用 SceneKit 来渲染 3D 模型。我想知道 Instagram、snapchat 和其他面部滤镜应用程序如何渲染 3D 模型。我观察到 SceneKit 坐标系与 UIKit 坐标系不同。我用谷歌搜索但找不到坐标系的转换。谁能帮忙。谢谢
查找 worldUp
和 simdWorldUp
实例属性以了解 ARKit 如何基于真实世界的设备运动构建场景坐标系(另外,您可以检查 ARConfiguration.WorldAlignment
枚举)。
请查看此 SO post:
请记住,ARAnchor
是您放置 3D 对象时最好的朋友。点击