语音激活检测(Voice Activity Detection, VAD):也称为端点检测,目的就是要找到音频信号的开始和结束位置。
时域方法:
- 音量:只用音量来进行端点检测,是最简单的方法,但是会对清音造成误判。
- 音量和过零率:以音量为主,过零率为辅,可以对清音进行较准确的检测。
这里介绍第二种方法,结合音量和过零率的语音激活检测方法:
- 以高阈值tu为标准,决定端点,作为初始端点;
- 将端点前后延伸到低阈值tl处(如下图N1、N2点);
- 再将端点前后延伸到过零率(tzc)处,以包含语音中的清音部分。
图中 tl 的范围是完全包含了 tu 的范围。为什么还需要第一步,因为仅仅用第2步的话,噪音的部分会被计算进来。
结合过零率找到 SUV 来做端点检测,基于如下的特征:浊音 ZCR < 静音 ZCR < 清音 ZCR。
import librosa
import matplotlib.pyplot as plt
import numpy as np
import soundfile as sf
# 加载数据
file_path = 'test1.wav'
y, fs = librosa.load(file_path, sr=8000, mono=False)
if len(y) == 2:
y = y[0, :]
# 分帧:每帧数据、每帧最大值、每帧幅度
frame_length = 160
hop_length = 80
frame_datas = []
frame_maxs = []
frame_amps = []
frame_zcrs = []
for i in range(0, len(y) - frame_length, hop_length):
frame_data = y[i: i + frame_length] - np.mean(y[i: i + frame_length])
frame_max = np.max(frame_data)
frame_amp = np.sum(np.abs(frame_data))
frame_datas.append(frame_data)
frame_maxs.append(frame_max)
frame_amps.append(frame_amp)
# 过门限率
door_th = np.abs(np.min(frame_maxs)) * 2
for i in range(len(frame_datas)):
frame_data = frame_datas[i]
frame_data = frame_data - door_th
frame_zcr = np.sum(np.abs([np.sign(frame_data[j]) - np.sign(frame_data[j + 1]) for j in range(len(frame_data) - 1)])) / 2
frame_zcrs.append(frame_zcr)
# 基于双级阈值及过零率的语音激活检测(VAD)
th = np.max(frame_amps) * 0.1
tl = np.max(frame_amps) * 0.05
th_zcr = np.max(frame_zcrs) * 0.2
th_pairs = []
temp = np.argwhere(frame_amps > th).squeeze()
stop_flag = 1
start = 0
stop = 0
for i in range(len(temp) - 1):
if stop_flag == 1:
start = temp[i]
stop_flag = 0
elif abs(temp[i] - temp[i - 1]) == 1 and (abs(temp[i] - temp[i + 1]) > 1 or i + 1 == len(temp) - 1) :
stop = temp[i]
stop_flag = 1
th_pairs.append([start, stop])
dst_data = np.zeros_like(y)
for i in range(len(th_pairs)):
start = th_pairs[i][0]
stop = th_pairs[i][1]
for i in range(start, 0, -1):
if frame_amps[i] < tl:
start_1 = i
break
for i in range(stop, len(frame_amps), 1):
if frame_amps[i] < tl:
stop_1 = i
break
for i in range(start_1, 0, -1):
if frame_zcrs[i] < th_zcr:
start_2 = i
break
for i in range(stop_1, len(frame_zcrs), 1):
if frame_zcrs[i] < th_zcr:
stop_2 = i
break
dst_data[hop_length * start_2: hop_length * stop_2 + frame_length] = \
y[hop_length * start_2: hop_length * stop_2 + frame_length]
# sf.write('dst_data2.wav', dst_data, fs)
plt.subplot(4, 1, 1)
plt.plot(y)
plt.subplot(4, 1, 2)
print(len([i for i in range(0, len(y) - frame_length, hop_length)]), len(frame_amps))
plt.plot([i for i in range(0, len(y) - frame_length, hop_length)], frame_amps)
plt.subplot(4, 1, 3)
plt.plot([i for i in range(0, len(y) - frame_length, hop_length)], frame_zcrs)
plt.subplot(4, 1, 4)
plt.plot(dst_data)
plt.show()
参考: 语音处理/语音识别基础(六)- 语音的端点检测(EPD/VAD)
标签:双级,零率,frame,stop,VAD,length,len,np,data From: https://blog.51cto.com/u_14036511/8030970