如何将CNN应用于短时傅立叶变换?

时间:2019-05-24 13:30:30

标签: python python-3.x conv-neural-network fft

因此,我有一个代码可以返回.wav文件的短时傅立叶变换频谱。我希望能够占用一毫秒的频谱,并在其上训练CNN。

我不太确定该如何实现。我知道如何格式化图像数据以将其输入到CNN中,以及如何训练网络,但是我对如何获取FFT数据并将其分成较小的时间段一无所知。

FFT代码(对不起,超长代码):

rate, audio = wavfile.read('scale_a_lydian.wav')

audio = np.mean(audio, axis=1)

N = audio.shape[0]
L = N / rate

M = 1024

# Audio is 44.1 Khz, or ~44100 samples / second
# window function takes 1024 samples or 0.02 seconds of audio (1024 / 44100 = ~0.02 seconds)
# and shifts the window 100 over each time
# so there would end up being (total_samplesize - 1024)/(100) total steps done (or slices)

slices = util.view_as_windows(audio, window_shape=(M,), step=100) #slices overlap

win = np.hanning(M + 1)[:-1]
slices = slices * win #each slice is 1024 samples (0.02 seconds of audio)

slices = slices.T #transpose matrix -> make each column 1024 samples (ie. make each column one slice)


spectrum = np.fft.fft(slices, axis=0)[:M // 2 + 1:-1] #perform fft on each slice and then take the first half of each slice, and reverse

spectrum = np.abs(spectrum) #take absolute value of slices

# take SampleSize * Slices
# transpose into slices * samplesize
# Take the first row -> slice * samplesize
# transpose back to samplesize * slice (essentially get 0.01s of spectrum)

spectrum2 = spectrum.T
spectrum2 = spectrum2[:1]
spectrum2 = spectrum2.T

以下输出FFT频谱:

N = spectrum2.shape[0]
L = N / rate

f, ax = plt.subplots(figsize=(4.8, 2.4))

S = np.abs(spectrum2)
S = 20 * np.log10(S / np.max(S))

ax.imshow(S, origin='lower', cmap='viridis',
          extent=(0, L, 0, rate / 2 / 1000))
ax.axis('tight')
ax.set_ylabel('Frequency [kHz]')
ax.set_xlabel('Time [s]');
plt.show()

(随时纠正我在评论中提出的任何理论错误)

因此,据我了解,我有一个numpy数组(频谱),每列是一个包含510个样本的切片(切成两半,因为每个FFT切片的一半是多余的(没用?)),每个样本都有频率列表?

以上代码理论上将0.01s的音频作为频谱输出,这正是我所需要的。这是真的,还是我想的不对?

1 个答案:

答案 0 :(得分:0)

我建议您使用Librosa来加载音频并仅用1行代码进行一些预处理。您希望所有音频文件都具有相同的采样率。另外,您还想在特定部分剪切音频以获得特定间隔。 您可以像这样加载音频:

textChanged

因此您的时间序列为y。 从这里开始,我将使用this音频上CNN的良好实现。 这家伙正在使用他自己的库来执行基于gpu的mel-specgramgram计算。您只需要将import librosa y, sr = librosa.load(audiofile, offset=10.0, duration=30.0, sr=16000) 参数提供给网络即可。请参见here。 或者,您可以删除该网络的第一层并预先计算您的Mel频谱图,然后将其保存在某处。这些将是您对网络的输入。参见here

其他资源: Audio Classification : A Convolutional Neural Network Approach

相关问题