透视相机 RealityKit
Perspective camera RealityKit
我创建了一个加载对象(usdz 文件)的 RealityKit 项目。使用 LiDAR 非常适合遮挡并且能够看到真实世界的网格。
我想使用 Apple 文档中的内容:Perspective Camera。如果我很好理解,这可以作为第三人称相机进行比较。
我在我的 arView 中创建了一个专用按钮,调用时执行以下代码:
let cameraEntity = PerspectiveCamera()
cameraEntity.camera.far = 10
cameraEntity.camera.fieldOfViewInDegrees = 60
cameraEntity.camera.near = 0.01
let cameraAnchor = AnchorEntity(world: .zero)
cameraAnchor.children.append(cameraEntity)
self.arView.scene.anchors.append(cameraAnchor)
什么时候调用代码变黑....我不明白如何放置相机才能看到扫描的网格。
如果有人有想法?提前致谢!
这取决于您查看的 USDZ 所在的位置。我认为默认意味着相机位于原点,朝 [0, 0, -1] 的方向看。
您可以使用 Entity.look(at:from:upVector:relativeTo:)
方法更改它。确保您的 from:
参数距离 USDZ 对象的中心足够远。
我创建了一个加载对象(usdz 文件)的 RealityKit 项目。使用 LiDAR 非常适合遮挡并且能够看到真实世界的网格。 我想使用 Apple 文档中的内容:Perspective Camera。如果我很好理解,这可以作为第三人称相机进行比较。
我在我的 arView 中创建了一个专用按钮,调用时执行以下代码:
let cameraEntity = PerspectiveCamera()
cameraEntity.camera.far = 10
cameraEntity.camera.fieldOfViewInDegrees = 60
cameraEntity.camera.near = 0.01
let cameraAnchor = AnchorEntity(world: .zero)
cameraAnchor.children.append(cameraEntity)
self.arView.scene.anchors.append(cameraAnchor)
什么时候调用代码变黑....我不明白如何放置相机才能看到扫描的网格。 如果有人有想法?提前致谢!
这取决于您查看的 USDZ 所在的位置。我认为默认意味着相机位于原点,朝 [0, 0, -1] 的方向看。
您可以使用 Entity.look(at:from:upVector:relativeTo:)
方法更改它。确保您的 from:
参数距离 USDZ 对象的中心足够远。