渲染以 MTKView 为中心的小型 CIImage
Rendering small CIImage centered in MTKView
我正在将 CIImage
渲染到 MTKView
,但图像小于可绘制对象。
let centered = image.transformed(by: CGAffineTransform(translationX: (view.drawableSize.width - image.extent.width) / 2, y: (view.drawableSize.height - image.extent.height) / 2))
context.render(centered, to: drawable.texture, commandBuffer: buffer, bounds: centered.extent, colorSpace: CGColorSpaceCreateDeviceRGB())
我希望上面的代码将图像呈现在视图的中心,但图像却位于原点。
这是说明问题的回购协议:https://github.com/truemetal/centered-render-of-ciimage-to-mtkview
在指责 Metal
或 CoreImage
之前,我想确定我没有做错什么。
非常感谢 link 文档说我不能做那样的事情。
我可以通过将图像合成到另一个与可绘制对象大小完全相同的图像上来解决这个问题,但我仍然想知道为什么上面的代码不起作用。
let centered = image.transformed(by: CGAffineTransform(translationX: (view.drawableSize.width - image.extent.width) / 2, y: (view.drawableSize.height - image.extent.height) / 2))
let background = CIImage(color: .white).cropped(to: CGRect(origin: .zero, size: view.drawableSize))
let preparedImage = centered.composited(over: background)
self.context.render(preparedImage, to: drawable.texture, commandBuffer: buffer, bounds: preparedImage.extent, colorSpace: CGColorSpaceCreateDeviceRGB())
这个最好奇了。如果您使用 "new" CIRenderDestination
API 而不是 context.render(…)
它实际上有效:
let destination = CIRenderDestination(width: Int(view.drawableSize.width),
height: Int(view.drawableSize.height),
pixelFormat: view.colorPixelFormat,
commandBuffer: buffer,
mtlTextureProvider: { () -> MTLTexture in
return drawable.texture
})
try! self.context.startTask(toRender: centered, to: destination)
我不知道为什么,但是 context.render(…)
似乎不尊重图像的翻译或给定的边界。也许其他人知道更多...
我正在将 CIImage
渲染到 MTKView
,但图像小于可绘制对象。
let centered = image.transformed(by: CGAffineTransform(translationX: (view.drawableSize.width - image.extent.width) / 2, y: (view.drawableSize.height - image.extent.height) / 2))
context.render(centered, to: drawable.texture, commandBuffer: buffer, bounds: centered.extent, colorSpace: CGColorSpaceCreateDeviceRGB())
我希望上面的代码将图像呈现在视图的中心,但图像却位于原点。
这是说明问题的回购协议:https://github.com/truemetal/centered-render-of-ciimage-to-mtkview
在指责 Metal
或 CoreImage
之前,我想确定我没有做错什么。
非常感谢 link 文档说我不能做那样的事情。
我可以通过将图像合成到另一个与可绘制对象大小完全相同的图像上来解决这个问题,但我仍然想知道为什么上面的代码不起作用。
let centered = image.transformed(by: CGAffineTransform(translationX: (view.drawableSize.width - image.extent.width) / 2, y: (view.drawableSize.height - image.extent.height) / 2))
let background = CIImage(color: .white).cropped(to: CGRect(origin: .zero, size: view.drawableSize))
let preparedImage = centered.composited(over: background)
self.context.render(preparedImage, to: drawable.texture, commandBuffer: buffer, bounds: preparedImage.extent, colorSpace: CGColorSpaceCreateDeviceRGB())
这个最好奇了。如果您使用 "new" CIRenderDestination
API 而不是 context.render(…)
它实际上有效:
let destination = CIRenderDestination(width: Int(view.drawableSize.width),
height: Int(view.drawableSize.height),
pixelFormat: view.colorPixelFormat,
commandBuffer: buffer,
mtlTextureProvider: { () -> MTLTexture in
return drawable.texture
})
try! self.context.startTask(toRender: centered, to: destination)
我不知道为什么,但是 context.render(…)
似乎不尊重图像的翻译或给定的边界。也许其他人知道更多...