首页 > 其他分享 >助听器降噪神经网络模型

助听器降噪神经网络模型

时间:2024-05-11 17:08:25浏览次数:26  
标签:训练 混响 助听器 降噪 神经网络 SNR 语音 LSTM 数据

具体的软硬件实现点击 http://mcu-ai.com/ MCU-AI技术网页_MCU-AI人工智能
本文介绍了一种用于实时语音增强的双信号变换 LSTM 网络 (DTLN),作为深度噪声抑制挑战 (DNS-Challenge) 的一部分。该方法将短时傅立叶变换 (STFT) 和学习分析和综合基础结合在堆栈网络方法中,参数少于一百万个。该模型使用挑战组织者提供的 500 小时的嘈杂语音进行训练。 该网络能够进行实时处理(一帧输入,一帧输 出)并达到有竞争力的结果。将这两种类型的信号变换结合起来,使 DTLN 能够从幅度谱中稳健地提取信息,并从学习的特征基础中合并相位信息。该方法显示了最先进的性能,并且以平均意见得分 (MOS) 计绝对优于 DNS-Challenge 基线 0.24 分。

噪声抑制任务是语音增强领域的一个重要学科, 随着深度神经网络的兴起,提出了几种基于深度模型的音频处理新方法[1,2,3,4]。然而,这些通常是为离线处理而开发的,不需要考虑实时性。当使用神经网络设计基于框架的算法时,递归神经网络 (RNN)是常见的选择。 RNN 在语音增强 [7, 8] 和语音分离 [9, 10, 11] 领域取得了令人信服的结果。长短期记忆网络(LSTM)[12]代表了分离领域的最先进技术[13]。性能最佳的网络通常是通过使用双向 LSTM 以非因果方式构建的。

本文介绍的堆叠双信号变换 LSTM 网络架构如下:

本文介绍的堆叠双信号变换 LSTM 网络架构具有两个分离核心,其中包含两个 LSTM 层,后跟一个全连接(FC)层和一个用于创建掩码输出的 sigmoid 激活层。第一个分离核心使用 STFT 分析和合成基础。FC 层和 sigmoid 激活预测的掩模乘以混合的幅度,并使用输入混合的相位转换回时域。来自第一个网络的帧由 1D-Conv 层处理以创建特征表示。特征表示在被馈送到第二个分离核心之前由归一化层进行处理。第二个核的预测掩模与特征表示的非标准化版本相乘。结果用作 1D-Conv 层的输入,用于将估计表示转换回时域。在最后一步中,通过重叠相加过程重建信号。

训练数据集是根据 DNS 挑战赛提供的音频数据创建的。语音数据是 Lib-rispeech 语料库 [23] 的一 部分,噪声信号源自 Audioset 语料库 [24]、 Freesound 和 DEMAND 语料库 [25]。使用提供的脚本创建了 500 小时的数据。默认 SNR 范围(0 至 40 dB)更改为 -5 至 25 dB,以包含负 SNR 并限制总范围。为了覆盖更细粒度的 SNR 分布,SNR 级别的数量从 5 增加到 30。所有其他参数保持不变。 500 小时的数据集分为训练数据(400 小时)和交叉验证数据(100 小时),这对应于常见的 80:20% 分割。所有训练数据均以 16 kHz 采样。挑战组织者还提供了一个测试集,其中包含四个不同类别, 每个类别包含 300 个样本。这些类别是无混响的合成剪辑、有混响的合成剪辑、Microsoft 内部收集的真实录音和 Audioset 的真实录音。合成数据取自格拉茨大学的干净语音数据集 [26]。合成数据的 SNR在0到25dB SNR之间随机分布。混响数据的脉冲响应是在 Microsoft 的多个房间中测量的,混响时间 (RT˯˩) 范围为 300 到 1300 毫秒。此外,组织者创建了盲测集,并在 ITU P-808 [27] 设置中进行评估。 [14] 中提供了训练和测试集的完整细节。为了正确估计噪声混响环境中所有客观测量的性能, 使用了 WHAMR 语料库 [19] 的混响单扬声器和噪声测试集,采样频率为 16 kHz。

本文中的 DTLN 在其四个 LSTM 层中各有 128 个单元。帧大小为 32 ms,移位为 8 ms。 FFT 大小为 512,等于帧长度。用于创建学习特征表示的 1D-Conv 层有 256 个过滤器。在训练期间,在 LSTM 层之间应用 25% 的 dropout。使用 Adam 优化器,学习率为 10e-3,梯度范数裁剪为 3。如果验证集上的损失在十个时期内没有减少,则应用提前停止。该模型以 32 的批量大小进行训练,每个样本的长度为 15 秒。 Nvidia RTX 2080 TI 上一个训练周期的平均时间约为 21 分钟。使用尺度敏感的负 SNR [20] 作为训练目标。与尺度不变信噪比(SI-SNR)[11]相比,它应该避免输入混合和预测的干净语音之间可能存在的电平偏移,这在实时处理系统中是可取的。此外, 由于它在时域中操作,因此可以隐式地考虑相位信息。相比之下,语音信号的估计幅度和干净幅度 STFT 之间的均方误差作为训练目标无法在优化过程中使用任何相位信息。

模型效果的比较

本文介绍了一种基于堆叠双信号变换 LSTM 网络 的噪声抑制方法,用于实时语音增强,并在大规 模数据集上进行训练。我们能够展示在堆叠网络 方法中使用两种类型的分析和综合基础的优势。 DTLN 模型在嘈杂的混响环境中运行稳健。尽管 我们将基本训练设置与简单的架构相结合,但我 们观察到相对于噪声条件的所有主观评估在 MOS 方面的绝对改进为 0.22。

标签:训练,混响,助听器,降噪,神经网络,SNR,语音,LSTM,数据
From: https://www.cnblogs.com/mcu-ai-QH/p/18186810

相关文章

  • 面向单片机的超轻量级的神经网络推理库+单片机上实现动态加载功能的函数库
    1、TinyMaix-面向单片机的超轻量级的神经网络推理库TinyMaix是专为低资源的单片机设计的AI神经网络推理框架,通常被称为TinyML。TinyMaix可以让你在任意单片机上运行轻量级深度学习模型。TinyMaix的设计原则:易用性>移植性>速度>空间。TinyMaix其实是矽速科技(Sipee......
  • 一种基于光电容积波的血压测量神经网络算法,开源、低功耗、低成本的人工智能软硬件提
    具体的软硬件实现点击http://mcu-ai.com/MCU-AI技术网页_MCU-AI人工智能心血管疾病是最严重的死亡原因之一,每年在全世界造成严重的生命损失。持续监测血压似乎是最可行的选择,但这需要一个侵入性的过程,带来了几层复杂性。这促使我们开发一种方法,通过使用光体积描记图(PPG)信号的非......
  • 基于深度卷积神经网络的时间序列图像分类,开源、低功耗、低成本的人工智能硬件提供者
    具体的软硬件实现点击http://mcu-ai.com/MCU-AI技术网页_MCU-AI人工智能卷积神经网络(CNN)通过从原始数据中自动学习层次特征表示,在图像识别任务中取得了巨大成功。虽然大多数时间序列分类(TSC)文献都集中在1D信号上,但本文使用递归图(RP)将时间序列转换为2D纹理图像,然后利用深度CNN分......
  • 基于改进MFCC特征和卷积递归神经网络的心音分类
    具体的软硬件实现点击http://mcu-ai.com/MCU-AI技术网页_MCU-AI人工智能心音分类在心血管疾病的早期发现中起着至关重要的作用,特别是对于小型初级卫生保健诊所。尽管近年来心音分类取得了很大进展,但其中大多数都是基于传统的分段特征和基于浅层结构的分类器。这些传统的声学表示......
  • 一种光电容积波PPG 转换到心电图ECG进行房颤检测的神经网络模型
    具体的软硬件实现点击http://mcu-ai.com/MCU-AI技术网页_MCU-AI人工智能光电体积描记法(PPG)是一种经济有效的非侵入性技术,利用光学方法测量心脏生理学。PPG在健康监测领域越来越受欢迎,并用于各种商业和临床可穿戴设备。与心电图(ECG)相比,PPG并没有提供实质性的临床诊断价值,尽管......
  • 利用神经网络对脑电图(EEG)降噪------开源的、低成本、低功耗微处理器神经网络模型解
    具体的软硬件实现点击http://mcu-ai.com/MCU-AI技术网页_MCU-AI人工智能这个示例展示了如何使用EEGdenoiseNet基准数据集[1]和深度学习回归去除脑电图(EEG)信号中的眼电图(EOG)噪声。EEGdenoiseNet数据集包含4514个干净的EEG片段和3400个眼部伪迹片段,这些片段可以用来合成带有......
  • 神经网络极简入门
    神经网络是深度学习的基础,正是深度学习的兴起,让停滞不前的人工智能再一次的取得飞速的发展。其实神经网络的理论由来已久,灵感来自仿生智能计算,只是以前限于硬件的计算能力,没有突出的表现,直至谷歌的AlphaGO的出现,才让大家再次看到神经网络相较于传统机器学习的优异表现。本文主要......
  • 二值神经网络对CNN优化
    二值神经网络概念二值神经网络(BinaryNeuralNetworks,BNN)是一种特殊的人工神经网络,在该网络中,权重和激活函数的值被约束为二进制(通常是+1或-1),而不是传统的浮点数。这种二值化的处理可以减少网络模型的存储需求和计算复杂度,从而在某些情况下提高了运行速度和效率。对CNN手写数字......
  • R语言结合新冠疫情COVID-19对股票价格预测:ARIMA,KNN和神经网络时间序列分析
    原文链接:http://tecdat.cn/?p=24057原文出处:拓端数据部落公众号1.概要本文的目标是使用各种预测模型预测Google的未来股价,然后分析各种模型。Google股票数据集是使用R中的Quantmod软件包从YahooFinance获得的。2.简介预测算法是一种试图根据过去和现在的数据预测未来值的过......
  • R语言银行信用数据SOM神经网络聚类实现可视化
    原文链接:http://tecdat.cn/?p=3231原文出处:拓端数据部落公众号  当今社会,“信用”越来越多的人们关注个人或企业,有望获得最高的信用评分,以享受更多的信贷额度,更优惠的利率。 那么我们如何评分信用,并使我们的客户可视化?自组织地图( SOM )是一种无监督的数据可视化技术,可用......