通过节点将浏览器麦克风流连接到 Google 语音 Api
Connect Browser Microphone stream to Google Speech Api via node
我刚开始使用 node.js 并尝试将浏览器生成的麦克风流与节点服务器上的 google 语音 api 运行 和microphone-stream
包。
我用 browserify 成功打包了必要的模块,但现在不知道如何进行。我也让麦克风流在 node server
上工作(如此处解释:Streaming Speech Recognition on an Audio Stream)。
如何传输音频流?我在一期中读到了有关使用 websockets 的信息,但我并不真正理解这是否适合我的情况。还是 RPC?
现在我在服务器上使用这些包:
const express = require('express');
const path = require('path');
const bodyParser = require('body-parser');
const fs = require('fs');
const record = require('node-record-lpcm16');
const google = require('googleapis');
const getUserMedia = require('get-user-media-promise');
const MicrophoneStream = require('microphone-stream');
这是我第一次使用节点/服务器,所以希望这个问题不会太幼稚。
谢谢! :)
我建了一个操场来解决这个任务。它不使用任何以前的插件(节点记录 16 / microphone-stream / ...),而是通过 socket.io.
向节点服务器发送 16 位音频流
https://github.com/vin-ni/Google-Cloud-Speech-Node-Socket-Playground
我刚开始使用 node.js 并尝试将浏览器生成的麦克风流与节点服务器上的 google 语音 api 运行 和microphone-stream
包。
我用 browserify 成功打包了必要的模块,但现在不知道如何进行。我也让麦克风流在 node server
上工作(如此处解释:Streaming Speech Recognition on an Audio Stream)。
如何传输音频流?我在一期中读到了有关使用 websockets 的信息,但我并不真正理解这是否适合我的情况。还是 RPC?
现在我在服务器上使用这些包:
const express = require('express');
const path = require('path');
const bodyParser = require('body-parser');
const fs = require('fs');
const record = require('node-record-lpcm16');
const google = require('googleapis');
const getUserMedia = require('get-user-media-promise');
const MicrophoneStream = require('microphone-stream');
这是我第一次使用节点/服务器,所以希望这个问题不会太幼稚。 谢谢! :)
我建了一个操场来解决这个任务。它不使用任何以前的插件(节点记录 16 / microphone-stream / ...),而是通过 socket.io.
向节点服务器发送 16 位音频流https://github.com/vin-ni/Google-Cloud-Speech-Node-Socket-Playground