如何像 FFMPEG 一样从 Python 中的音频文件创建频谱图图像?

How to create a spectrogram image from an audio file in Python just like how FFMPEG does?

我的代码:

import matplotlib.pyplot as plt
from matplotlib.pyplot import specgram
import librosa
import librosa.display
import numpy as np
import io
from PIL import Image

samples, sample_rate = librosa.load('thabo.wav')
fig = plt.figure(figsize=[4, 4])
ax = fig.add_subplot(111)
ax.axes.get_xaxis().set_visible(False)
ax.axes.get_yaxis().set_visible(False)
ax.set_frame_on(False)
S = librosa.feature.melspectrogram(y=samples, sr=sample_rate)
librosa.display.specshow(librosa.power_to_db(S, ref=np.max))
buf = io.BytesIO()
plt.savefig(buf,  bbox_inches='tight',pad_inches=0)

# plt.close('all')
buf.seek(0)
im = Image.open(buf)
# im = Image.open(buf).convert('L')
im.show()
buf.close()

生成的频谱图

使用 FFMPEG

ffmpeg -i thabo.wav -lavfi showspectrumpic=s=224x224:mode=separate:legend=disabled spectrogram.png

生成的频谱图

请帮忙,我想要一个与 FFMPEG 生成的完全相同的声谱图,用于从 google 的教学机器导出的语音识别模型。 Offline recognition

您可以将音频直接通过管道传输到 ffmpeg,这将避免中间文件,如果您想避免图像文件输出,ffmpeg 也可以输出到管道。

使用 ffmpeg 的三个实例进行演示:

ffmpeg -i input.wav -f wav - | ffmpeg -i - -filter_complex "showspectrumpic=s=224x224:mode=separate:legend=disabled" -c:v png -f image2pipe - | ffmpeg -y -i - output.png

当然,第一个和最后一个 ffmpeg 个实例将替换为您的工作流程的特定流程。