Monaural Speech Separation Method Based on Deep Learning Feature Fusion and Joint Constraints
-
摘要: 为了提高单通道语音分离性能,该文提出基于深度学习特征融合和联合约束的单通道语音分离方法。传统基于深度学习的分离算法的损失函数只考虑了预测值和真实值的误差,这使得分离后的语音与纯净语音之间误差较大。该文提出一种新的联合约束损失函数,该损失函数不仅约束了理想比值掩蔽的预测值和真实值的误差,还惩罚了相应幅度谱的误差。另外,为了充分利用多种特征的互补性,提出一种含特征融合层的卷积神经网络(CNN)结构。利用该CNN提取多通道输入特征的深度特征,并在融合层中将深度特征与声学特征融合用来训练分离模型。由于融合构成的特征含有丰富的语音信息,具有强的语音信号表征能力,使得分离模型预测的掩蔽更加准确。实验结果表明,从信号失真比(SDR) 、主观语音质量评估( PESQ)和短时客观可懂度(STOI)3个方面评价,相比其他优秀的基于深度学习的语音分离方法,该方法能够更有效地分离目标语音。Abstract: To improve the performance of monaural speech separation, a monaural speech separation method based on deep learning feature fusion and joint constraints is proposed. The loss function of the traditional separation algorithm based on deep learning only considers the error between the predicted value and the true one, which makes the error between the separated speech and the pure speech larger. To combat it, a new joint constrained loss function is proposed, which not only constrains the error between the predicted value and the true one of ideal ratio mask, but also penalizes the error of the corresponding amplitude spectrum. In addition, to make full use of the complementarity of multiple features, a Convolutional Neural Network (CNN) structure with feature fusion layer is proposed, which extracts the depth feature of the multi-channel input feature, and then fuses the depth feature and the acoustic feature in the fusion layer to train the separation model. The fused separation feature contains abundant acoustic information and has a strong acoustic representative ability, which makes the mask predicted by the separation model more accurate. The experimental results show that from Signal Distortion Ratio (SDR), Perceptual Evaluation of Speech Quality (PESQ) and Short-Time Objective Intelligibility (STOI), compared with other excellent speech separation methods based on deep learning, the proposed method can separate the mixed speech more effectively.
-
1. 引言
人工智能算法的理论研究相比于几年前取得了突出的进步。因此,一部分研究人员开始将精力投在把人工智能算法特别是深度神经网络(Deep Neural Networks, DNN)部署在各种硬件平台上,包括中央处理器(Central Processing Unit, CPU)、图形处理器(Graphics Processing Unit, GPU)、现场可编程门阵列(Field Programmable Gate Array, FPGA)、专用集成电路(Application Specific Integrated Circuit, ASIC)上[1,2]。这些基于硬件平台而专门构建出来的神经网络加速器被证明在应用于图像分类[3]、目标检测[4,5]和语音识别等方面有着很好的效果,而像无人机检测、自动驾驶这类的强实时性的人工智能(Artificial Intelligence, AI)、物联网应用不仅对网络识别精度有较高要求,而且对网络推理速度以及硬件平台功耗同样是严峻的挑战。相比较基于性能优先的CPU/GPU这类通用处理器很难满足功耗约束,FPGA和ASIC具有高能效、低功耗的特性成为当前边缘AI应用方案的首选[6]。
但是想要基于低功耗硬件平台,构建出符合要求的DNN加速器是非常有挑战性的[7,8]。要求开发人员不仅了解AI算法,更加需要包括:(1)专用于低功耗平台的DNN体系结构;(2)高效的内存管理方案;(3)并行可靠的工作流。整个任务严重依赖设计者跨越机器学习和集成电路设计的专业知识。设计过程中如果只实现AI算法却不考虑硬件优化策略,就很难满足边缘计算方案低功耗和高实时性的严格要求。因此硬件优化策略具有较高的普适性和重要的研究价值。
为了解决以上诸多问题,本文提出用于DNN加速芯片设计的一系列高效率优化策略,并在FPGA上验证性能,包括可堆叠共享计算引擎(Process Engine, PE)、可调的循环次数、通道增强和预加载工作流优化方法,利用有限的低功耗硬件资源获得最好的性价比。本文所提硬件优化策略:(1)基于SkyNet网络模型应用,设计出SEUer A型加速器,其精度和功耗都要优于iSmart3-SkyNet(the 1st place in the DAC’2019-SDC) [9];(2)基于SkrSkr-SkyNet(the 2nd place in the DAC’2020-SDC) [10]应用优化出了SEUer B型加速器,最终分数会超过UltraNet(the 1st place in the DAC’2020-SDC)。本文的主要贡献如下:
(1)提出一种可堆叠共享PE用于组装成并行度灵活的卷积计算模块,可以独立且高效率地完成逐点卷积(PointWise Convolution, PWC)计算和深度可分离卷积(DepthWise Convolution, DWC)计算,并且采用了行缓冲区结构解决PWC单次读取特征图的限制。
(2)针对可堆叠共享PE提出了循环次数可调,可根据网络层数自动优化计算模块中循环次数,提高计算的效率。
(3)通道增强的方法不仅可以大幅度增强图片输入层的并行度,还可以增加与外部存储器的通信带宽。
(4)预加载工作流可以更好地协同处理系统(Processing System, PS)与可编程逻辑(Programmable Logic, PL),从而加速整个系统,降低系统的延迟和功耗。
本文其余安排如下:第2节介绍专用于低功耗平台的SkyNet的网络结构以及存在的问题,然后使用Roofline模型[11]分析基于SkyNet网络设计出的iSmart3-SkyNet加速器的性能瓶颈;第3节针对这些问题给出对应的优化策略;第4节将讨论我们为低功耗平台提出的优化策略的实验结果;第5节给出结论。
2. SkyNet网络模型及其加速器问题分析
2.1 专注于低功耗目标检测的SkyNet模型
SkyNet是一个冠军模型,它被设计出来专门用于嵌入式边缘设备的目标检测和追踪任务[9]。可以为低功耗嵌入式系统提供可靠的推理精度的同时满足实时响应这类的低延时要求。SkyNet采用自下而上的DNN设计方法[12],将3×3深度卷积层、1×1点卷积层、批量归一化的组合层和ReLU6组合成捆绑包(bundle)。将捆绑包反复堆叠形成如表1所示的网络结构。表1所示的超参数(包括网络通道数和池化层的位置)是通过使用实际硬件进行神经网络搜索而获得的最佳解决方案。从硬件执行效率角度考虑,SkyNet网络比自上而下设计的卷积神经网络(Convolutional Neural Network, CNN)更有效[13]。
表 1 SkyNet的体系结构和每个捆绑包的推理速度表格捆绑包 层数 输入尺寸 操作类型 计算量、计算量占比(%) 延迟占比(%) #1 1 3×160×320 DW-Conv3 119.61M, 20.6 33.90 2 3×160×320 PW-Conv1 3 48×160×320 POOLING #2 4 48×80×160 DW-Conv3 86.02M, 14.42 16.54 5 48×80×160 PW-Conv1 6 96×80×160 POOLING #3 7 96×40×80 DW-Conv3 61.75M, 10.36 6.23 8 96×40×80 PW-Conv1 9 192×40×80 POOLING #4 10 192×20×40 DW-Conv3 60.36M, 10.13 4.92 11 192×20×40 PW-Conv1 #5 12 384×20×40 DW-Conv3 160.05M, 26.85 12.43 13 384×20×40 PW-Conv1 #6 – 合并第9层输出 107.52M, 18.04 20.08 14 1280×20×40 [旁路] DW-Conv3 15 1280×20×40 PW-Conv1 #7 16 96×20×40 PW-Conv1 0.77M, 0.14 0.10 – 17 10×20×40 计算回归框 0.16 CPU – – – – 5.64 CNN网络的图像输入通道一般为3个光学三原色(Red Green Blue, RGB)或4个三原色加不透明参数(Red Green Blue Alpha, RGBA),因此很难在固定计算通道的PE上提高浅层网络的计算效率[14,15]。例如,表1最后两列反映了iSmart3-SkyNet理论计算量占比跟实际硬件延时占比差异,在第1个捆绑包中,虽然SkyNet的输入层是3,但在理论计算中第1层的PWC的输入层却是32,DWC的输出层却是64而不是48。因为加速器中计算模块输入输出通道固定,iSmart-SkyNet的输入并行度为16,输出并行度为32。在计算第1层时,即便通道当中存在无效数据,它在输入输出通道维度依旧各自循环两次,也因此在表格中第1个、第2个捆绑包的计算量之和为34.48%;而实际加上异构计算平台的计算耗时,仅仅第1个捆绑包的延时就占了整体时间的33.90%,实际延时相比较计算量,增加了69%。在这种情况下,第1个、第2个捆绑包的延时占到整个系统延时的1/2。因此考虑到带宽限制等诸多现实因素,提高浅层网络的计算效率,使得延时与计算量一致是非常困难的。
2.2 Roofline模型
计算和通信是系统吞吐量优化中的两个主要限制。加州大学洛杉矶分校丛京生教授团队[11]的Roofline性能模型,反映了系统性能与片外内存流量的关系,更重要的是,突出了硬件平台的峰值性能与神经网络模型之间的相关性。式(1)描述了Roofline模型,PP是系统中所有可用计算资源提供的浮点吞吐量,也称为计算屋顶。B是内存带宽(Memory Bandwidth, BW),而CC代表计算与通信之比(Computing To Communication, CTC)是每个片上存储器流量的操作。加速器的实际计算性能不能超过计算屋顶和计算与通信比率×内存带宽的最小值。在第1种情况下,可达到的性能受到处理器可提供的最大计算资源限制;第2种情况则可达到的性能受到内存带宽的限制,并且无法充分利用计算资源
可获得的吞吐量=MIN(PP,B×CC) (1) 对于不同类型卷积以及不同循环展开的相同卷积,加速器计算通信比公式都是不一样的。对于深度可分离卷积,计算通信比如式(2)所示
DWCCTC.=总操作数总执行周期=2×R×C×M×N×Kαi×βi+αw×βw+αo×βo (2) 其中,M, N分别为输入通道和输出通道,输出特征图尺寸为R×C,卷积核大小为K,卷积步长为S。
αi,αw,αo 和βi,βw,βo 的定义在式(3)中。[Tm, Tn, Tr, Tc]分别是输入、输出通道和输出特征图行和列的分块大小。可以理解为对应循环的并行度ai=aw=ao=NTn×RTr×CTcβi=Tm(STr+K−S)(STc+K−S)βw=TmK2βo=TmTrTc} (3) 对于逐点卷积的计算通信比如式(4)和式(5)所示,其中出现的参数量的含义与式(2)和式(3)的一致
PWCCTC.=总操作数总执行周期=2×R×C×M×Nαi×βi+αw×βw+αo×βo (4) ai=aw=MTm×NTn×RTr×CTcao=NTn×RTr×CTcβi=Tm(STr+K−S)(STc+K−S)βw=TmTnK2βo=TmTrTc} (5) 在iSmart3-SkyNet中,DWC和PWC分别由不同的计算引擎计算。DWC和PWC的Roofline模型的说明如图1所示。对于DWC的Roofline模型的图示如图1(a)所示,第1层可获得的性能非常低,这受到带宽的限制。因此,捆绑包#1的等待时间百分比大于捆绑包#1的浮点操作次数(Floating Point of OPeration, FLOP)。此外,计算上限仅约为6.88 GFLOPS,这受计算资源的限制,因为PWC计算引擎占用了最多的计算资源。图1(b)显示了PWC层的Roofline模型,所有层的可达到的性能都达到了计算上限110 GFLOPS。但是,计算能力不高。此外,DWC和PWC由不同的计算引擎计算。换句话说,当PWC引擎工作时,DWC引擎是自由的,反之亦然。计算资源的利用率不高。在第1层中,输入通道为3,但是iSmart3-SkyNet计算32个通道。冗余计算会增加推理延迟。这些问题在其他用于轻量级目标检测网络的加速器中也存在。为了解决这些问题,提出了几种方法,这些方法在第3节介绍。
3. 优化策略
本节首先介绍高效优化策略下的加速器总体架构,该架构可专用于低功耗平台。以专用于低功耗平台的网络SkyNet为例,经问题分析,可堆叠共享PE、通道增强、循环次数可调、预加载工作流优化方法依次被提出。这样,基于低功耗平台有限的硬件资源,可充分发挥并行计算优势,实现更加高效的边缘计算。
3.1 系统整体结构
系统的整体架构如图2所示,架构基于异构结构,包含了可编程逻辑(Progarmmable Logic, PL)和高性能处理系统(Processing System, PS)。PL由4个模块组成:内存判决模块通过高性能总线接口(Advanced eXtensible Interface, AXI)直接访问外部存储器以及调度双倍的数据缓冲区形成乒乓结构,最大化利用片上存储器;多个可堆叠共享计算引擎(Process Engine, PE)堆叠成为计算模块来处理PWC和DWC计算;池化激活模块完成池化与激活计算;控制模块被设计用来控制PL逻辑和时序,保证每个模块在正确的时刻被正确地重用。PS采用了多进程优化,以提高图像预处理和后处理的计算速度。
加速器开始工作时,图像和权重被存储在外部存储器中。PS做图像预处理的同时,向PL发出启动信号。PL中的控制模块接收启动信号后,控制内存判决模块通过AXI4接口从外部存储器中读取权重和图像并存储到相应的缓冲区中,接着控制模块按照网络模型顺序依次重复调用计算模块和池化激活模块,最后内存判决模块将结果输出给PS做后处理完成所有任务。
3.2 可堆叠共享PE
由于有限的硬件资源,并且PWC计算引擎占用了大多数计算资源[16],因此DWC计算引擎的峰值性能非常低。本文提出一种可堆叠的共享PE,以提高DWC计算引擎的峰值性能。几个这样的PE被组装并堆叠到一个大型计算模块中。PWC和DWC操作都共享此计算模块。这意味着在整个任务中只有一个这样的计算模块就可以完成PWC和3×3 的DWC。
如图2(b)所示,共享PE由9个DSP组成,因此可以在1个时钟周期内完成3×3 DWC计算。受双端口块随机存取存储器(dual-port Block Random Access Memory, BRAM)功能的限制,1个时钟周期内最多可以读取两个像素。为了解决这个问题,共享PE利用BRAM和DWC计算引擎之间的行缓冲区。如图2(c)所示,红色特征图的像素被存储在行缓冲区中,而滑动窗口的像素被用于当前计算。在每个时钟周期,窗口中的像素都会移动,新的像素会从行缓冲区中移入,而旧的像素会从窗口中弹出,以便可以展开内核,并且可以映射特征图的9个像素1个时钟周期内即可轻松获得。
对于SkyNet,选择32个共享PE堆叠到计算模块中,并且在计算PWC时,将展开18个输入通道和16个输出通道。16/18输入通道用于传输数据,其他两个通道的值为0。在计算DWC时,所有通道都用于传输数据,并且计算速度将比访问外部存储器更快,并且会触及加速器的存储墙。
3.3 循环次数可调
从表1可以看出,SkyNet的前两层实际耗时比理论上花费更多的时间。浅网络层的通道很少,图像输入通道通常只有3(RGB)或4(RGBA)。具有固定输入和输出通道尺寸的计算引擎将在处理浅层网络时导致某些通道的计算资源空闲,并且其他循环将导致额外的系统延迟。具有不变循环计数的计算模块不能完美地应用于浅层网络。因此,本文提出循环计数可调节的优化方法。
可调节的循环计数方法建立在可堆叠共享PE基础上。通过提供的参数变量[输入通道并行度(Channel Input, CI)],可以自由地堆叠到计算模块中,它根据不同的层自动调节循环计数,以达到最小功耗和最低延迟。例如,iSmart3-SkyNet的输入通道并行度为16。在计算PWC的第1层时,在输入通道尺寸上循环了两次,而第2个循环为无效计算。最终iSmart3-SkyNet第1层中超过90%的计算资源处于空闲状态,这也导致更长的延迟和更多的功耗。如果iSmart3-SkyNet使用可调节的循环计数优化,则可以基于不同的层调节循环计数。在计算第1个PWC层时,输入通道尺寸将仅循环1次,而不是原始的两倍。即使图像输入通道尺寸仅循环1次,仍然有13/16 DSP处于空闲状态,第1个PWC层的这种无用计算可以通过3.4节描述的通道增强优化来解决。
3.4 通道增强
由表1分析,相比较于第2层网络,第1层网络硬件延时远远大于计算量,占整个系统延时的1/3。这是因为在像SkyNet这样的CNN中,第1层图片的输入通道只有3个(RGB)。即使使用了循环次数可调优化,iSmart3-SkyNet的第1层PWC的通道利用率并不高,DSP的利用效率仅为3/16。为了解决这一问题,通道增强优化被提出。方法如图3所示,先将特征图以像素单位裁剪,并以RGB的顺序在通道维度上重新排列。从低位开始一直排列到高位。下一轮从上一轮结束的像素开始,重复以上操作直至最后一个像素点。如此使得处理后的特征图的通道展宽,提高了第1层的计算并行性。
本文提出的通道增强不同于传统通道增强技术[17]。通道增强优化不仅提高了图片输入层的计算并行性,还大大提高了与外部存储器的传输带宽。例如在iSmart3-SkyNet中,传输图像的AXI4的数据位宽只有8位,在Skrskr-SkyNet中传输图像的AXI4的数据位宽度为32位,但只有24位有效。而在使用了通道增强优化的SkrSkr-SkyNet,用于传输图像的AXI4总线数据宽度为128位并且没有原先的无效数据。因此传输图像的带宽大大提升,访问存储器的次数减少,系统延时和功耗也随之减少。
3.5 预加载工作流
当前可用于计算CNN的工作流程如下:获取图像(picture)、对该图像进行预处理、将处理后的图像复制到DDR存储器进行存储、在加速器上计算DNN模型以及后处理,如图4(a)所示,尽管DNN是在PL上并行计算的,但其工作受到串行工作流程的限制,并且必须等待上一幅图像的后处理完成,才能对DNN进行预处理。将处理后的图像复制到DDR内存中,然后才能开始工作。此串行工作流程效率低下。一般的并行工作流程如图4(b)所示。与串行工作流程相比,在并行工作流程中,PL正在执行DNN计算,而PS也在预处理下一张图片。但是,PL仍处于空闲状态。因此,提出了预加载工作流程。如图4(c)所示,在计算图像的第1层之后,PS将预处理的下一个图像复制到DDR以替换旧图像。由于PL几乎始终处于工作状态,因此预加载工作流程的效率高于图4(b)。
值得一提的是,其中PS上的预处理速度一般都要快于PL上DNN的计算速度。而要想做到这一点,需要对PS做多进程优化。以多个进程对摄像头采集的照片同时预处理,然后将图像放入队列并等待存入DDR中。PL在计算完DNN之后会将结果存入另一个队列,PS也会以多进程优化确保后处理时间快于DNN第1层的计算时间。如此一来,系统的关键路径在PL处,且PL的效率接近100%。
4. 实验结果分析
根据第3节提出的优化方法优化iSmart3-SkyNet加速器后,优化后的DWC层的Roofline模型如图5(a)所示。可以看出,与原始Roofline模型相比,第1层DWC的性能不再比其他DWC层的性能更弱,因为通道增强优化增加了带宽。由于共享计算资源,DWC的计算能力从原来的6.88 GFLOPS增加到172.8 GFLOPS。它使所有DWC层从计算限制变为内存限制,使得可达到的性能得到了显著提高。PWC的Roofline模型如图5(b)所示。优化的PWC计算屋顶从原来的110 GFLOPS增加到307.2 GFLOPS。计算屋顶的增加导致该层的一部分从计算限制更改为内存限制,使得每层可获得的性能都比iSmart3-SkyNet高。
为了更好地说明本文优化方法在低功耗目标检测方面的性能改进,分别选择了iSmart3-SkyNet和SkrSkr-SkyNet作为基准模型。本文iSmart3-SkyNet和Skrskr-SkyNet中提出的方法的有效性如图6所示,其中它们的性能(包括延迟和能量)被标准化为1。与iSmart3-SkyNet和SkrSkr-SkyNet相比,使用预加载的工作流方法处理1000幅图像,分别可以将运行时间减少约4.44%和1.11%,并将能耗分别减少13.27%和3.45%。当处理的图像数量增加时,预加载工作流程可以减少更多的运行时间和能耗。对于iSmart3和Skrskr,可调节循环次数方法的运行时间分别减少了1.78%和3.10%,能耗分别减少了12.92%和11.29%。考虑到可调节循环计数仅应用于前两个PWC层,因此更改为合适的网络模型将获得更显著的效果。对于iSmart3,可堆叠共享PE减少了10.87%的运行时间和16.07%的能耗。对于Skrskr,可堆叠共享PE减少了5.49%的运行时间和13.55%的能量。由于内存的限制,运行时间的减少并不重要。但是,由于减少了计算资源的消耗,因此能源的节省非常重要。通道增强方法具有最大的改进,可以减少Skrskr和iSmart3的运行时间10.85%和17.98%。它们的功耗降低了约1/4。通道增强不仅可以提高硬件资源的利用率,而且可以大大提高加载图像的带宽。将所有优化方法应用于SkrSkr,运行时间缩短了30.29%,能耗降低了35.49%。iSmart3的改进更加明显,运行时间缩短了35.98%,能耗降低了52.06%。
与之前的DAC-SDC目标检测加速器相比,结果如表2所示。与iSmart3- SkyNet相比,Skrskr- SkyNet使用了更有效的量化,这也使得Skrskr的GOPS/W值为iSmart3的2.24倍,准确率也因为DWC使用了线性缓冲区从0.716增加到0.731。根据第3节所述的优化策略,可以在不改变量化方法的情况下对每个加速器进行进一步优化。基于iSmart3改进的SEUer A型不仅由于行缓冲区使精度提升到0.724,GOPS/W和Energy/Picture还分别优化了1.85倍和2.14倍。基于Skrskr改进的SEUer B型帧率从52.429提高到78.576,功耗降低了近1/2。此外,SEUer B型的GOPS/W和Energy/Picture分别比Skrskr增加了1.5倍和1.9倍。
表 2 优化策略效果对比加速器 iSmart3 [9] SEUer A Skrskr [10] SEUer B 网络模型 SkyNet SkyNet SkyNet SkyNet 量化精度 A9/W11 A9/W11 A8/W6 A8/W6 硬件平台 Ultra96V2 Ultra96V2 Ultra96V2 Ultra96V2 准确率(DJI) 0.716 0.724 0.731 0.731 时钟频率(MHz) 215 215 300 300 DSP数量 329 287 360 360 LUT数量(k) 54 54 56 46 FF数量(k) 60 70 68 51 帧率(fps) 25.05 37.393 52.429 78.576 GOPS/W 3.21 5.95 7.22 11.19 Energy/Pic.(J) 0.289 0.135 0.129 0.068 5. 结束语
本文利用Roofline模型对深度可分离卷积进行分析,然后面向低功耗目标检测提出了DNN加速芯片的优化策略,包括可堆叠共享PE、可调节循环次数、通道增强和预加载工作流等优化措施,通过选择iSmart3-SkyNet和Skrskr-SkyNet作为基础网络,FPGA验证效果显著。对于iSmart3-SkyNet,本文提出的方法可以增加精度并提高能效;对于Skrskr-SkyNet,本文基于提出的优化策略所设计的加速器以78.576 fps的速度和0.068 J/图像的速度进行计算,性能超过2020年DAC低功耗目标检测国际顶尖竞赛第1名UltraNet,目前在此类目标检测加速器设计领域处于较为领先地位。
-
图 8 本文方法和文献[20]时域波形对比
表 1 基于CNN特征融合的单通道语音分离联合约束算法流程
(1) 训练阶段: 输入:混合语音信号的strain、目标语音信号s1train和其他源语音信号。 输出:训练好的分离模型。 步骤1 首先对目标源语音和混合语音做分帧处理后进行STFT, 归一化后的混合信号幅度谱Ytrain,目标信号的幅度谱Y1train和
其他源语音信号的幅度谱,还有功率谱‖Ytrain‖2以及对数功率谱lg‖Ytrain‖2。步骤2 通过式(10)计算得到目标信号的理想比值掩蔽。
步骤3 [Ytrain,‖Ytrain‖2,lg‖Ytrain‖2]作为CNN输入特征和M1train作为分离模型的输出目标。步骤4 在前向传播阶段,随机初始化每层神经元的权重和偏置。将CNN的输出特征和Ytrain进行拼接融合作为全连层的输入,估计
比值掩蔽ˆM1train。步骤5 在反向传播阶段,通过整合优化器寻优使得联合损失函数式(3)最小,迭代调整每层神经元的权重和偏置。 步骤6 得到训练完好的用于分离的深度神经网络。 (2) 分离阶段: 输入:测试信号stest和训练好的分离模型。 输出:估计的目标值ˆM1test。 步骤1 首先对测试的混合语音做预处理之后进行STFT, 归一化后得到混合信号幅度谱 Ytest,还有功率谱‖Ytest‖2以及对数功率谱
lg‖Ytest‖2和混合语音相位谱Ptest。步骤2 获得分离模型输出估计的目标值ˆM1test。 (3) 语音重构阶段: 步骤1 利用ˆM1test和混合语音幅度谱通过式(11)可以得到估计的目标语音帧幅度谱ˆS1test。 步骤2 利用估计的幅度谱和提取的混合语音相位谱得到估计语音的频谱。 步骤3 通过ISTFT得到目标语音信号帧的时域信号,所有帧连接得到目标语音信号。 表 2 本文方法与基于DNN方法性能对比
方法比较 性别组合 SDR(dB) PESQ STOI
本文方法F-F 8.4626 2.567 0.76 F-M 10.6765 2.887 0.88 M-M 7.7658 2.335 0.65
文献[20]方法F-F 7.3623 2.306 0.68 F-M 8.9548 2.632 0.80 M-M 6.9021 2.061 0.59 -
[1] 田元荣, 王星, 周一鹏. 一种新的基于稀疏表示的单通道盲源分离算法[J]. 电子与信息学报, 2017, 39(6): 1371–1378. doi: 10.11999/JEIT160888TIAN Yuanrong, WANG Xing, and ZHOU Yipeng. Novel single channel blind source separation algorithm based on sparse representation[J]. Journal of Electronics &Information Technology, 2017, 39(6): 1371–1378. doi: 10.11999/JEIT160888 [2] 付卫红, 张琮. 基于步长自适应的独立向量分析卷积盲分离算法[J]. 电子与信息学报, 2018, 40(9): 2158–2164. doi: 10.11999/JEIT171156FU Weihong and ZHANG Cong. Independent vector analysis convolutive blind separation algorithm based on step-size adaptive[J]. Journal of Electronics &Information Technology, 2018, 40(9): 2158–2164. doi: 10.11999/JEIT171156 [3] 李红光, 郭英, 张东伟, 等. 基于欠定盲源分离的同步跳频信号网台分选[J]. 电子与信息学报, 2021, 43(2): 319–328. doi: 10.11999/JEIT190920LI Hongguang, GUO Ying, ZHANG Dongwei, et al. Synchronous frequency hopping signal network station sorting based on underdetermined blind source separation[J]. Journal of Electronics &Information Technology, 2021, 43(2): 319–328. doi: 10.11999/JEIT190920 [4] UDREA R M, CIOCHINA S, and VIZIREANU D N. Multi-band bark scale spectral over-subtraction for colored noise reduction[C]. International Symposium on Signals, Circuits and Systems, Iasi, Romania, 2005: 311–314. [5] CHEN Jingdong, BENESTY J, HUANG Yiteng, et al. New insights into the noise reduction wiener filter[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2006, 14(4): 1218–1234. doi: 10.1109/TSA.2005.860851 [6] WIEM B, ANOUAR B M M, and AICHA B. Monaural speech separation based on linear regression optimized using gradient descent[C]. 2020 5th International Conference on Advanced Technologies for Signal and Image Processing, Sousse, Tunisia, 2020: 1–6. [7] WANG Chunpeng and ZHU Jie. Neural network based phase compensation methods on monaural speech separation[C]. 2019 IEEE International Conference on Multimedia and Expo (ICME), Shanghai, China, 2019: 1384–1389. [8] SUN Yang, WANG Wenwu, CHAMBERS J, et al. Two-stage monaural source separation in reverberant room environments using deep neural networks[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2019, 27(1): 125–139. doi: 10.1109/TASLP.2018.2874708 [9] XIAN Yang, SUN Yang, WANG Wenwu, et al. Two stage audio-video speech separation using multimodal convolutional neural networks[C]. 2019 Sensor Signal Processing for Defence Conference (SSPD), Brighton, UK, 2019: 1–5. [10] LIU Yuzhou, DELFARAH M, and WANG Deliang. Deep casa for talker-independent monaural speech separation[C]. ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Barcelona, Spain, 2020: 6354–6358. [11] WANG Deliang. On ideal binary mask as the computational goal of auditory scene analysis[M]. DIVENYI P. Speech Separation by Humans and Machines. New York: Springer, 2005, 60: 63–64. [12] KIM G, LU Yang, HU Yi, et al. An algorithm that improves speech intelligibility in noise for normal-hearing listeners[J]. The Journal of the Acoustical Society of America, 2009, 126(3): 1486–1494. doi: 10.1121/1.3184603 [13] HAN Kun and WANG Deliang. A classification based approach to speech segregation[J]. The Journal of the Acoustical Society of America, 2012, 132(5): 3475–3483. doi: 10.1121/1.4754541 [14] SRINIVASAN S, ROMAN N, and WANG Deliang. Binary and ratio time-frequency masks for robust speech recognition[J]. Speech Communication, 2006, 48(11): 1486–1501. doi: 10.1016/j.specom.2006.09.003 [15] ZHANG Xiaolei and WANG Deliang. A deep ensemble learning method for monaural speech separation[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2016, 24(5): 967–977. doi: 10.1109/TASLP.2016.2536478 [16] HUANG Posen, KIM N, HASEGAWA-JOHNSON M, et al. Joint optimization of masks and deep recurrent neural networks for monaural source separation[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2015, 23(12): 2136–2147. doi: 10.1109/TASLP.2015.2468583 [17] DU Jun, TU Yanhui, DAI Lirong, et al. A regression approach to single-channel speech separation via high-resolution deep neural networks[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2016, 24(8): 1424–1437. doi: 10.1109/TASLP.2016.2558822 [18] WANG Yannan, DU Jun, DAI Lirong, et al. A gender mixture detection approach to unsupervised single-channel speech separation based on deep neural networks[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2017, 25(7): 1535–1546. doi: 10.1109/TASLP.2017.2700540 [19] LI Xiang, WU Xihong, and CHEN Jing. A spectral-change-aware loss function for DNN-based speech separation[C]. ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Brighton, UK, 2019: 6870–6874. [20] SUN Linhui, ZHU Ge, and LI Ping’an. Joint constraint algorithm based on deep neural network with dual outputs for single-channel speech separation[J]. Signal, Image and Video Processing, 2020, 14(7): 1387–1395. doi: 10.1007/s11760-020-01676-6 [21] COOKE M, BARKER J, CUNNINGHAM S, et al. An audio-visual corpus for speech perception and automatic speech recognition[J]. The Journal of the Acoustical Society of America, 2006, 120(5): 2421–2424. doi: 10.1121/1.2229005 期刊类型引用(0)
其他类型引用(1)
-