SWIFT - 是否可以从 AVAudioEngine 或 AudioPlayerNode 保存音频?如果是,如何?
SWIFT - Is it possible to save audio from AVAudioEngine, or from AudioPlayerNode? If yes, how?
我一直在查看 Swift 文档以保存 AVAudioEngine 的音频输出,但我找不到任何有用的提示。
有什么建议吗?
解决方案
由于马特的回答,我找到了解决方法。
这是一个示例代码,说明如何在通过 AVAudioEngine 传递音频后保存音频 (我认为从技术上讲它是之前)
newAudio = AVAudioFile(forWriting: newAudio.url, settings: nil, error: NSErrorPointer())
//Your new file on which you want to save some changed audio, and prepared to be bufferd in some new data...
var audioPlayerNode = AVAudioPlayerNode() //or your Time pitch unit if pitch changed
//Now install a Tap on the output bus to "record" the transformed file on a our newAudio file.
audioPlayerNode.installTapOnBus(0, bufferSize: (AVAudioFrameCount(audioPlayer.duration)), format: opffb){
(buffer: AVAudioPCMBuffer!, time: AVAudioTime!) in
if (self.newAudio.length) < (self.audioFile.length){//Let us know when to stop saving the file, otherwise saving infinitely
self.newAudio.writeFromBuffer(buffer, error: NSErrorPointer())//let's write the buffer result into our file
}else{
audioPlayerNode.removeTapOnBus(0)//if we dont remove it, will keep on tapping infinitely
println("Did you like it? Please, vote up for my question")
}
}
希望对您有所帮助!
一个问题要解决:
有时,您的输出节点比输入节点短:如果您将时间速率加快 2,您的音频将缩短 2 倍。这是我现在面临的问题,因为我保存文件的条件是(第 10 行)
if(newAudio.length) < (self.audioFile.length)//audiofile being the original(long) audio and newAudio being the new changed (shorter) audio.
有什么帮助吗?
是的,这很容易。您只需点击一个节点并将缓冲区保存到一个文件中。
不幸的是,这意味着您必须通过节点播放。我希望 AVAudioEngine 能让我将一个声音文件直接处理成另一个声音文件,但显然这是不可能的——你必须实时播放和处理。
离线渲染使用 GenericOutput AudioUnit 为我工作。请检查这个link,我已经离线混合了两个,三个音频并将其合并到一个文件中。不同的场景,但它可能会帮助您了解一些想法。 core audio offline rendering GenericOutput
我一直在查看 Swift 文档以保存 AVAudioEngine 的音频输出,但我找不到任何有用的提示。
有什么建议吗?
解决方案 由于马特的回答,我找到了解决方法。 这是一个示例代码,说明如何在通过 AVAudioEngine 传递音频后保存音频 (我认为从技术上讲它是之前)
newAudio = AVAudioFile(forWriting: newAudio.url, settings: nil, error: NSErrorPointer())
//Your new file on which you want to save some changed audio, and prepared to be bufferd in some new data...
var audioPlayerNode = AVAudioPlayerNode() //or your Time pitch unit if pitch changed
//Now install a Tap on the output bus to "record" the transformed file on a our newAudio file.
audioPlayerNode.installTapOnBus(0, bufferSize: (AVAudioFrameCount(audioPlayer.duration)), format: opffb){
(buffer: AVAudioPCMBuffer!, time: AVAudioTime!) in
if (self.newAudio.length) < (self.audioFile.length){//Let us know when to stop saving the file, otherwise saving infinitely
self.newAudio.writeFromBuffer(buffer, error: NSErrorPointer())//let's write the buffer result into our file
}else{
audioPlayerNode.removeTapOnBus(0)//if we dont remove it, will keep on tapping infinitely
println("Did you like it? Please, vote up for my question")
}
}
希望对您有所帮助!
一个问题要解决:
有时,您的输出节点比输入节点短:如果您将时间速率加快 2,您的音频将缩短 2 倍。这是我现在面临的问题,因为我保存文件的条件是(第 10 行)
if(newAudio.length) < (self.audioFile.length)//audiofile being the original(long) audio and newAudio being the new changed (shorter) audio.
有什么帮助吗?
是的,这很容易。您只需点击一个节点并将缓冲区保存到一个文件中。
不幸的是,这意味着您必须通过节点播放。我希望 AVAudioEngine 能让我将一个声音文件直接处理成另一个声音文件,但显然这是不可能的——你必须实时播放和处理。
离线渲染使用 GenericOutput AudioUnit 为我工作。请检查这个link,我已经离线混合了两个,三个音频并将其合并到一个文件中。不同的场景,但它可能会帮助您了解一些想法。 core audio offline rendering GenericOutput