从 AudioBuffer 写入 Node.js 中的 wav 文件
Write a wav file in Node.js from an AudioBuffer
我是 Node.js 编程新手,我正在尝试将 m4a 文件转换为 wav 文件。
我使用了 audiobuffer-to-wav 和 web-audio-api。
这是我的代码:
const fs = require('fs');
const toWav = require('audiobuffer-to-wav');
const AudioContext = require('web-audio-api').AudioContext;
const audioContext = new AudioContext;
let resp = fs.readFileSync('sample.m4a');
audioContext.decodeAudioData(resp, buffer => {
let wav = toWav(buffer);
console.log(buffer.length);
console.log(wav);
});
我想知道如何将 wav 变量保存到 Node.js
中的文件中
const fs = require('fs');
const toWav = require('audiobuffer-to-wav');
const AudioContext = require('web-audio-api').AudioContext;
const audioContext = new AudioContext;
let resp = fs.readFileSync('sample.m4a');
var audioStack = [];
var header = require('waveheader');
audioContext.decodeAudioData(resp, buffer => {
let wav = toWav(buffer);
var chunk = new Uint8Array(wav);
console.log(chunk);
fs.appendFile('bb.wav', new Buffer(chunk), function (err) {
});
});
这是我的回答。谢谢卡拉马里科。
我是 Node.js 编程新手,我正在尝试将 m4a 文件转换为 wav 文件。
我使用了 audiobuffer-to-wav 和 web-audio-api。 这是我的代码:
const fs = require('fs');
const toWav = require('audiobuffer-to-wav');
const AudioContext = require('web-audio-api').AudioContext;
const audioContext = new AudioContext;
let resp = fs.readFileSync('sample.m4a');
audioContext.decodeAudioData(resp, buffer => {
let wav = toWav(buffer);
console.log(buffer.length);
console.log(wav);
});
我想知道如何将 wav 变量保存到 Node.js
中的文件中const fs = require('fs');
const toWav = require('audiobuffer-to-wav');
const AudioContext = require('web-audio-api').AudioContext;
const audioContext = new AudioContext;
let resp = fs.readFileSync('sample.m4a');
var audioStack = [];
var header = require('waveheader');
audioContext.decodeAudioData(resp, buffer => {
let wav = toWav(buffer);
var chunk = new Uint8Array(wav);
console.log(chunk);
fs.appendFile('bb.wav', new Buffer(chunk), function (err) {
});
});
这是我的回答。谢谢卡拉马里科。