带有 Core Audio AudioQueue 的 AVFoundation 会话
AVFoundation Session with Core Audio AudioQueue
正在开发音频视频处理应用程序。按照 RosyWriter 示例使用 AV Foundation 和 OpenGL 获得工作视频处理器。问题是没有音频预览,那是实时音频播放....(是的,这会引起反馈)!
在 RosyWriterCapturePipeline.m
中的 captureOutput
方法下,将音频样本缓冲区发送到 Core Audio AudioQueue 进行播放。 AudioQueue 正在运行,但音频数据停止进入 captureOutput
方法。
这是怎么回事? Core Audio 会干扰 AV Foundation 吗?或者处理音频捕获的调度队列更有可能被堵塞?测试和纠正这个问题的好方法是什么?
AVCaptureSessionRuntimeErrorNotification 未提供任何音频捕获失败的指示。
代码:https://github.com/hpp/Penny/blob/master/Penny/PennyAudioManager.m
在 iOS 开发人员库 "sample code"
中有一个如何将 AVFoundation AVCaptureAudioDataOutput 与 AudioUnit 一起使用的示例
正在开发音频视频处理应用程序。按照 RosyWriter 示例使用 AV Foundation 和 OpenGL 获得工作视频处理器。问题是没有音频预览,那是实时音频播放....(是的,这会引起反馈)!
在 RosyWriterCapturePipeline.m
中的 captureOutput
方法下,将音频样本缓冲区发送到 Core Audio AudioQueue 进行播放。 AudioQueue 正在运行,但音频数据停止进入 captureOutput
方法。
这是怎么回事? Core Audio 会干扰 AV Foundation 吗?或者处理音频捕获的调度队列更有可能被堵塞?测试和纠正这个问题的好方法是什么?
AVCaptureSessionRuntimeErrorNotification 未提供任何音频捕获失败的指示。
代码:https://github.com/hpp/Penny/blob/master/Penny/PennyAudioManager.m
在 iOS 开发人员库 "sample code"
中有一个如何将 AVFoundation AVCaptureAudioDataOutput 与 AudioUnit 一起使用的示例