iOS 是否可以进行实时音频处理?

Is realtime audio processing possible in iOS?

所以我打算构建一个应用程序,至少让我使用 iphone 上的麦克风通过耳机插孔转换为平衡音频信号。问题是我不确定是否可以毫不延迟地将麦克风输入输出。我研究了 CoreAudio 和 AVFoundation,但看起来其中一个很快就会被弃用,而另一个可能级别太高而无法满足我的需要。我正在测试 AudioKit,但我只在模拟器中 运行 它 运行 在 windows 内的虚拟机上运行,​​因此我可能会在实际设备上获得更好的结果(虽然我持怀疑态度,因为音频延迟与我通过 windows 监控麦克风时的延迟大致相同)。

有没有人知道任何框架或字面上任何可能使实时音频处理没有太明显延迟的东西? 在 iOS 上甚至有可能还是 OS 开销太大?

从字面上看,任何答案都值得赞赏。

我正在使用 AudioKit 进行实时音频处理。有一些小问题,但我已经能够设法将处理节点添加到实时麦克风录音中,并将它们几乎没有延迟地输出到扬声器。

我 运行 遇到的一个值得注意的小问题是 'debug' 构建和 xcode 中的 'release' 构建之间的区别。发布版本的编译时间更长,但 运行s 更快,从而减少了音频缓冲区处理的延迟。不过,我的测试平台是旧的 ipad2,因此如果您使用的是较新的硬件,您可能 运行 不会遇到这些问题。