音频生产者线程与 OSX AudioComponent 消费者线程和 C 中的回调

Audio producer threads with OSX AudioComponent consumer thread and callback in C

这个问题不是关于插件的,它是关于一个独立的应用程序设计的,并且与我之前问过的几个问题有关。

我必须编写一个多线程音频合成函数,其数据处理量远远超过 CoreAudio[=32] 所能容纳的=] 渲染线程:数千个独立的幅度和相位实时插值采样精确的正弦波振荡器。这需要的 CPU 功率超过任何单个处理器内核所能承受的能力,所有优化都可用。

我正在努力学习它,但它似乎是一堵墙,而不是一条曲线。消费者线程可能是一个简单的 CA 实时优先渲染回调接受 AudioBufferList iodata,等等…… …但是生产者线程应该是什么?如果选择另一个 AudioComponent,它并不比将它全部放在输出线程上更好 - 它只会变得更加复杂并引入额外的延迟。

如果将 n 并行 AudioComponents 放入一个 graph 中,它提供一个环形缓冲区,它提供消费者线程,如何保证它不会在同一个线程上结束,保持同步和样本准确?

如果编写 n 传统 POSIX 线程并加入输出,如何实现 CoreAudio 拉模型与这样的推模型实时共存?

有没有这样的免费示例代码?是否有编写此类代码的参考、教科书或教程?我还没有找到任何公开可用的信息。这让我有点奇怪以前没有人问过这样的问题?

提前致谢!

我的策略是让一个单独的线程(或多个线程)实时生成 LPCM 音频并将其写入大小合适的环形缓冲区。核心音频线程将从这个环形缓冲区中读取。

如果 reader(核心音频线程)请求的音频多于可用的音频,那么您将退出 (buffer underrun),因为 reader 等不及了。这表明您需要更大的缓冲区,或者您的音频生成算法不是实时的并且需要优化。

如果写入器在环形缓冲区已满时尝试写入,最旧的音频将被覆盖,您会遇到另一个故障,这次是通过溢出。在这种情况下,您的音频生成代码 运行 太快了,需要学习如何等待。在这里通过条件变量添加写等待会很方便。

我知道两个很酷的环形缓冲区实现,它们使用虚拟内存技巧来有效地实现模块化内存访问:

如果您正在寻找更便携的东西,CBuffer for unix-like systems and Magic Ring Buffer Windows。

但是!您不必使用棘手的 MMU 环形缓冲区,如果您愿意,可以使用普通的旧便携式 C 版本。