Loading [MathJax]/jax/element/mml/optable/GeneralPunctuation.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于双路径递归网络与Conv-TasNet的多头注意力机制视听语音分离

兰朝凤 蒋朋威 陈欢 赵世龙 郭小霞 韩玉兰 韩闯

兰朝凤, 蒋朋威, 陈欢, 赵世龙, 郭小霞, 韩玉兰, 韩闯. 基于双路径递归网络与Conv-TasNet的多头注意力机制视听语音分离[J]. 电子与信息学报, 2024, 46(3): 1005-1012. doi: 10.11999/JEIT230260
引用本文: 兰朝凤, 蒋朋威, 陈欢, 赵世龙, 郭小霞, 韩玉兰, 韩闯. 基于双路径递归网络与Conv-TasNet的多头注意力机制视听语音分离[J]. 电子与信息学报, 2024, 46(3): 1005-1012. doi: 10.11999/JEIT230260
LAN Chaofeng, JIANG Pengwei, CHEN Huan, ZHAO Shilong, GUO Xiaoxia, HAN Yulan, HAN Chuang. Multi-Head Attention Time Domain Audiovisual Speech Separation Based on Dual-Path Recurrent Network and Conv-TasNet[J]. Journal of Electronics & Information Technology, 2024, 46(3): 1005-1012. doi: 10.11999/JEIT230260
Citation: LAN Chaofeng, JIANG Pengwei, CHEN Huan, ZHAO Shilong, GUO Xiaoxia, HAN Yulan, HAN Chuang. Multi-Head Attention Time Domain Audiovisual Speech Separation Based on Dual-Path Recurrent Network and Conv-TasNet[J]. Journal of Electronics & Information Technology, 2024, 46(3): 1005-1012. doi: 10.11999/JEIT230260

基于双路径递归网络与Conv-TasNet的多头注意力机制视听语音分离

doi: 10.11999/JEIT230260
基金项目: 国家自然科学基金(11804068),黑龙江省自然科学基金(LH2020F033)
详细信息
    作者简介:

    兰朝凤:女,副教授,博士生导师,研究方向为语音信号处理与分析、人工智能算法、水下信号分析与处理等

    蒋朋威:男,硕士,研究方向为人工智能算法、语音分离

    陈欢:男,博士,研究方向为声信号分析与处理、检测与识别

    赵世龙:男,博士生,研究方向为声信号分析与处理、检测与定位

    郭小霞:女,博士,研究方向为声信号分析与处理

    韩玉兰:女, 博士,研究方向为人工智能算法、图像处理

    韩闯:男,博士,研究方向为声信号诊断、检测与定位

    通讯作者:

    韩闯 hanchuang@hrbust.edu.cn

  • 中图分类号: TN912.3; TP391.41

Multi-Head Attention Time Domain Audiovisual Speech Separation Based on Dual-Path Recurrent Network and Conv-TasNet

Funds: The National Natural Science Foundation of China (11804068), Natural Science Foundation of Heilongjiang Province (LH2020F033)
  • 摘要: 目前的视听语音分离模型基本是将视频特征和音频特征进行简单拼接,没有充分考虑各个模态的相互关系,导致视觉信息未被充分利用,分离效果不理想。该文充分考虑视觉特征、音频特征之间的相互联系,采用多头注意力机制,结合卷积时域分离模型(Conv-TasNet)和双路径递归神经网络(DPRNN),提出多头注意力机制时域视听语音分离(MHATD-AVSS)模型。通过音频编码器与视觉编码器获得音频特征与视频的唇部特征,并采用多头注意力机制将音频特征与视觉特征进行跨模态融合,得到融合视听特征,将其经DPRNN分离网络,获得不同说话者的分离语音。利用客观语音质量评估(PESQ)、短时客观可懂度(STOI)及信噪比(SNR)评价指标,在VoxCeleb2数据集进行实验测试。研究表明,当分离两位、3位或4位说话者的混合语音时,该文方法与传统分离网络相比,SDR提高量均在1.87 dB以上,最高可达2.29 dB。由此可见,该文方法能考虑音频信号的相位信息,更好地利用视觉信息与音频信息的相关性,提取更为准确的音视频特性,获得更好的分离效果。
  • 语音作为一种信息交流和表达情感最方便和准确的方式而存在,为人类社会发展起到了重要推进作用。语音处理技术的发展,促进了语音人机交互技术的进步,进而提升了人类与智能终端进行交互的能力[1]。语音处理包括语音分离、语音增强、语音识别、自然语言理解等方面[2],其中语言分离是语音技术的前端处理,语音分离的结果影响后续交互链路的质量,因此语音分离问题受到越来越多的学者关注。

    语音分离来源于“鸡尾酒会问题”,在复杂的噪声环境下,人们可以听到感兴趣的声音[3]。传统的语音分离技术主要是基于信号处理和统计学方法,常见的单通道语音分离方法有独立成分分析(Independent Component Analysis, ICA)[4]、非负矩阵分解(Non-negative Matrix Factorization, NMF)[5]和计算听觉场景分析(Computational Auditory Scene Analysis, CASA)[6]。传统的语音分离方法存在算法优化困难、训练时间长的缺点,同时传统语音分离方法需要语音的先验信息,限制了分离性能的进一步提高。随着深度学习的快速发展,通过数据去挖掘深度信息,促进了语音分离领域的技术更新,例如深度聚类(DeeP CLustering, DPCL)[7]、置换不变训练(Permutation Invariant Training, PIT)[8]、话语级的置换不变训练方法(utterance-level Permutation Invariant Training, uPIT)[9],基于深度学习的纯语音分离输入信息只含有音频信息,面对更加复杂的现实场景,干扰信息增加,分离性能易受到影响。

    在拥挤的餐厅和嘈杂的酒吧,人类可以只关注自己感兴趣的声音,忽略掉外部干扰,这种复杂场景下的语音感知能力不仅依赖人类听觉系统,还得益于视觉系统,共同促进人类的多感官感知系统处理复杂环境[10,11]。心理学研究表明,说话人的面部表情或者嘴唇运动会影响人脑对声音的处理,视觉信息在对话和交流中起着重要作用,因此观察说话人嘴唇运动可以帮助人们在嘈杂的环境中理解说话人的意思。受此启发,基于视听融合的多模态主动说话者检测[12]、视听语音分离[13]、视听同步[14]等研究被相继提出,至此音视频融合的语音分离方法成为新的研究热点[15]

    针对多说话者语音分离,由于说话者的数量较多,图像信息运算量大、模型复杂度高、易出现过拟合或欠拟合现象,同时在音视频语音分离过程中,视觉信息仅起辅助作用,因此多说话者语音分离研究的重点依然为音频信号。如果音频信号能得到最大程度的利用,则分离效果将会有很大幅度的提升,因此端到端的语音分离方法被相继提出。端到端的语音分离方法输入与输出都是时域语音信号,不需要进行短时傅里叶变换(Short Time Fourier Transform, STFT)将时域信号转换至频域,因此可以利用音频信号的相位信息,提高语音分离效果。端到端的语音分离方法,最早适用于纯语音分离,Luo等人[16]相继提出时域分离网络(Time-domain audio separation Network, TasNet)、卷积时域分离网络(Convolutional Time-domain audio separation Network, Conv-TasNet)[17]和双路径递归神经网络(Dual-Path Recurrent Neural Network, DPRNN)[18],随着多模态音视频语音分离技术的发展,研究学者结合端到端方法和音视频语音分离方法,实现了端到端的时域音视频语音分离。

    Wu等人[19]提出了时域音视频语音分离模型,对于音频部分采用Conv-TasNet网络结构,利用编码器获得音频特征,对于视频部分采用残差网络(Residual neural Network, ResNet)提取视觉特征,采用CNN提取视觉特征中唇部图像,由于唇部图像含有与音频无关的视觉信息,导致运算量稍大。范存航等人[20]利用混合语音与网络输出信号的差值,实现了多路语音的解算。徐亮等人[21]提出了多特征融合音视频的语音分离模型,视觉部分采用多次特征提取的方法,获得更多包含语音信息的视觉特征,音视频融合部分采用了多次融合的方法,该模型分离网络采用TCN网络,面对超长语音序列时,受卷积感受野的限制。Gao等人[22]提出了多任务建模策略,该策略利用膨胀卷积网络(Inflated 3D convnet, I3D)模型获取唇部运动光流信息,通过学习跨模态的嵌入来建立人脸和声音的匹配,通过人脸和声音的相互关联,有效解决了视听不一致问题。Xiong等人[23]将多任务建模基础应用于视听融合,利用轻量级网络ShuffleNet v2提取唇部特征,同时基于自注意力机制,提出了基于跨模态注意力的联合特征表示的视听语音分离,提高了视觉信息利用率。Zhang等人[24]提出了对抗性纠缠视觉表征的音视频语音分离网络,该网络采用对抗性纠缠的方法从视觉输入中提取与语音相关的视觉特征,并将其用于辅助语音分离,该方法虽有效地减少了图像数据的输入,但在视听融合部分,是在卷积层进行的特征拼接,未能充分利用到视觉特征。Wu等人[25]又提出了低质量时域音视频语音分离模型,针对低质量的视频,利用注意力机制选择与音频特征相关的视觉特征,并基于Conv-TasNet模型与多模态融合相结合,当使用低质量数据进行训练时,得到了较好的分离结果。

    上述时域视听语音分离,虽取了不错的语音分离性能,但在视听特征融合或者分离网络上,存在视听融合简单或面对长语音序列无法进行完整的序列提取的问题。因此针对上述问题,本文采用注意力机制的跨模态融合策略,解决音视频融合单一问题,同时尝试使用DPRNN作为模型的分离网络,使得模型面对超长语音序列可以进行建模和优化,力求解决多说话者的语音分离问题。

    人机语音交互中,常常会遇到视频中出现多个说话者图像的情况,为分离每位说话者,需对多说话者进行语音分离。端到端的语音分离网络模型,可以更好地利用音频信号的相位信息,提取更为准确的音频特征。因此,本文基于纯语音分离Conv-TasNet网络架构,构建语音分离模型。Conv-TasNet网络主要由编码器、时间卷积分离网络和解码器组成,如图1所示。

    图 1  Conv-TasNet语音分离结构框架

    图1中,Conv-TasNet利用编码器代替了STFT获得音频特征,由于编码器输入直接为混合语音波形,不需要进行时频转换,因此可以利用到音频信号的相位信息。时间卷积分离网络是通过编码器输出的音频特征,计算各个说话者的掩蔽,时间卷积分离网络输出的掩蔽与编码器输出的音频特征相乘,再通过解码器得到分离后的语音,解码器的作用类似于ISTFT。

    本文对Conv-TasNet网络进行了改进,增加视觉编码器,结合基于注意力机制的跨模态融合方法和DPRNN分离网络,提出多头注意力机制时域视听语音分离(Multi-Head Attention Time Domain AudioVisual Speech Separation, MHATD-AVSS)模型,MHATD-AVSS模型结构如图2所示。

    图 2  基于多头注意力机制时域视听跨模态融合语音分离模型

    图2的语音分离模型主要由4部分组成:分别是视觉编码器、音频编码器/解码器、多说话者跨模态融合模块和分离网络。视觉编码器由唇部嵌入提取器和时间卷积块组成,其中唇部嵌入提取器由3D卷积层和18层的残差网络组成,时间卷积块由1个时间卷积、ReLU激活函数和BN组成。视觉编码器通过唇部嵌入提取器和时间卷积块,生成维度为kv的唇部特征向量fvv表示唇部图像。音频编码器由1维卷积组成,利用1维卷积代替STFT,生成维度为ka的音频特征向量faa表示输入音频。

    为了充分考虑各个模态之间的相关性,实现不同模态之间的联合表示,本文提出基于注意力机制的跨模态融合模块,多说话者跨模态融合模块首先对视觉编码器输出的不同说话者的视觉特征进行拼接,然后将拼接后的视觉特征与音频特征进行跨模态融合,最后输出维度为kav的视听特征favav表示音频和视觉融合。

    分离网络采用DPRNN网络,DPRNN在深层模型中对RNN网络进行优化,使其面对长序列时也可以高效处理。DPRNN分离网络首先将输入的视听特征fav进行分割,得到分割后的视听融合块,然后将视听融合块输入到BiLSTM网络进行块间处理,再对处理后的视听融合模块进行叠加还原,输出各个说话者的预测掩码Mi, i=1,2,,n, n为说话者的个数,预测掩码Mi的维度与音频特征向量fa维度相同,最后将复合掩码Mi与音频编码器的输出fa相乘,输入到解码器,通过解码器还原出预测的说话者音频。

    2.2.1   视觉编码器

    由于唇部图像包含语音信息和上下文信息,因此本文设计视觉编码器提取视觉特征作为说话者的唇部视觉特征,其内部结构如图3所示。

    图 3  视觉编码器结构

    图3中,视觉编码器由唇部嵌入提取器和时间卷积块组成,唇部嵌入提取器由3D卷积层和18层ResNet组成,采用CNN可以从输入的混合视觉信息中,更好地提取到唇部特征。同时,为避免随网络层数的增加而出现网络退化问题,增加了ResNet网络。ResNet由17层卷积层和1个全连接层组成,网络的输入为视频帧,输出为256维特征向量lvlv表示唇部图像。

    本文的时间卷积块由1个时间卷积、BN, ReLU激活函数和下采样组成,输入的256维特征向量lv,经过ReLU激活函数和BN处理,抑制梯度爆炸和梯度消失问题,下采样对特征向量lv进行降维处理,时间卷积的卷积核大小为3,通道数为512,步幅大小为1。输入的视频图像经视觉编码器处理后的唇部特征向量为

    fv=F(Conv1D(v,Lv,Sv)) (1)

    其中,Conv1D()表示卷积操作,v表示唇部图像,Lv表示卷积核大小,Sv表示卷积步长,F()表示ReLU函数。

    2.2.2   音频编码器/解码器

    由于使用STFT方式进行音频特征提取,没有考虑相位信息,且时频域信息与视觉信息相关性较小,由此本文设计了音频编码器,从输入混合语音信号中提取音频特征,音频编码器采用1维卷积直接对混合语音进行音频特征提取。首先是音频编码器对输入的混合语音先进行1维卷积运算,卷积核大小为40,步长为20,然后再将混合语音an转换成ka维表示的WR1×ka。此时,用矩阵乘法表示可写为

    W=F(anUT) (2)

    其中,W表示卷积计算结果,U表示编码器基函数,F()表示ReLU函数。

    在进行1维卷积后,增加了整流线性单元ReLU函数,从而保证了卷积后矩阵WR1×ka非负性。输入的混合语音经音频编码器,可得

    fa=F(Conv1D(an,La,Sa)) (3)

    其中,Conv1D()表示卷积操作,an表示输入混合音频,La表示卷积核大小,Sa表示卷积步长。

    解码器使用1维转置卷积运算,从WR1×ka表示形式重建出波形,用矩阵乘法表示为

    ˆan=WˆU (4)

    其中,ˆan表示重建的语音信号,ˆU表示解码器基函数。

    2.2.3   多说话者跨模态融合模块

    为充分考虑各个模态之间相关性,实现不同模态之间的联合表示,本文在Xiong等人[23]跨模态融合策略的基础上,采用多头注意力机制,提出基于注意力机制的跨模态融合模块。注意力机制可以获取局部和全局的关系,同时参数少、模型复杂度低。因此,本文在所构建的模型中利用注意力机制从视觉特征中获得与音频特征相关的部分,从而减少视觉特征中无关信息的干扰,提高视觉信息的利用率,注意力机制的表达公式为

    Attention(Q,K,V)=Softmax(QKTdk)V (5)

    其中,Q,K,V分别表示查询、键、值,dk表示K的维度大小。

    受Transformer[26]多头注意力启发,跨模态融合模块将采用跨模态注意力融合(Cross-Modal Attention, CMA)策略,在式(5)中加入可学习参数λ,这样不仅能自适应地调整注意力权重,还能作为残差连接I(fm),加快模型收敛速度。由式(5)可得自注意力跨模态融合(Scaled dot-product Cross-Modal Attention, SCMA)机制,表示为

    SCMA(fvm,fa)=λsoftmax(QvmKvmd)Va+fvm (6)

    其中,视觉特征fvm经过2维卷积得到QvmKvm,音频特征fa经过2维卷积得到VadQvm,KvmVa的维度,输出为视听融合特征。

    多头注意力的特点是利用多个子空间让模型去关注更多的视觉信息,为了进一步增强模型拟合性能,充分利用不同模态的相互关系,在SCMA基础上,采用多头注意力跨模态融合(multiple Head Cross-Modal Attention, HCMA),利用多个子空间让模型去关注不同方面的信息。HCMA可根据式(7)–式(9)来计算

    Qvmi=QvmWiQ,Kvmi=KvmWiK,Vai=VaWiV,i=1,2,3 (7)
    headi=SCMA(Qvmi,Kvmi,Vai),i=1,2,3 (8)
    HCMA(Qvm,Kvm,Va)=Concact(head1,head2,head3) (9)

    其中,i表示多头注意力头数,WiQ, WiKWiV表示权重训练矩阵,Qvmi, Kvmi, Vai分别表示不同子空间下Qvm, Kvm, Va, headi表示自注意力的融合结果。

    2.2.4   语音分离网络

    DPRNN网络是在深层模型中对RNN进行了优化,在对音频信号分离过程中可将较长的音频分割成小块,并迭代地应用块内和块间操作,使其面对长序列时也可以高效处理。因此,本文基于DPRNN网络[18],并结合Wu等人[19]的研究成果,提出MHATD-AVSS的语音分离模型。

    本文的DPRNN分为3个阶段:分段、块处理和重叠相加。输入为音视频特征fav,首先进行分段处理,将fav分割成重叠的块,分割的第1块和最后一块用零填充,保证各个分割后的块等长,然后将分割后的音视频特征块连接在一起,形成一个3D张量fav

    将3D张量fav输入到堆叠的DPRNN块,每个DPRNN块将输入的3D张量转换为具有相同形状的另一个张量fav。其中,DPRNN块包含两个子模块,分别是局部(块内)和全局(块间)操作,对块内结果和块间结果进行归一化,归一化使用线性完全连接和层标准化(Layer Normalization, LN),保证张量 {{\boldsymbol{f}}''_{{\rm{av}}}} {{\boldsymbol{f}}'_{{\rm{av}}}} 处于同一维度。

    将张量 {{\boldsymbol{f}}''_{{\rm{av}}}} 经过双路径的RNN网络后输出预测张量 {\hat {\boldsymbol{f}}_{{\rm{av}}}} ,对 {\hat {\boldsymbol{f}}_{{\rm{av}}}} 进行重叠相加操作。 {\hat {\boldsymbol{f}}_{{\rm{av}}}} 经过重叠相加后,得到各个说话者的预测掩码 {{\boldsymbol{M}}_i} , i = 1,2, \cdots ,n, n 为说话者的个数,预测掩码 {{\boldsymbol{M}}_i} 的维度与音频特征向量 {{\boldsymbol{f}}_{\rm{a}}} 维度相同。输出掩蔽值,并将掩蔽值与音频特征相乘,再经过解码器即得到本部分研究内容的多说话者分离后的语音。

    在语音分离领域,常用以下指标衡量分离效果:客观语音质量评估(Perceptual Evaluation of Speech Quality, PESQ)指标,衡量语音的感知能力;短时客观可懂度(Short-Time Objective Intelligibility, STOI)指标,衡量分离语音的可懂度;源失真比(Signal-to-Distortion Ratio, SDR)指标,衡量语音的分离能力。本文所用的3种评价指标,计算过程为:

    (1)PESQ。PESQ是衡量语音质量的常用指标之一,算法过程是首先对源信号和分离出来的语音信号进行电平调整,然后对调整后的标准电平进行滤波处理,并使用听觉转换,再通过认知操作计算PESQ的值。PESQ的计算表达式为

    {\rm{PESAQMOS}} = 4.5 - 0.1{d_{{\text{SYM}}}} - 0.0309{d_{{\text{ASYM}}}} (10)

    其中, {d_{{\text{SYM}}}} 为对称干扰, {d_{{\text{ASYM}}}} 为非对称干扰。

    (2)STOI。STOI是衡量语音可懂度指标,对于语音信号中的某段内容,人们只有懂或者不懂两种情况。从这个角度考虑,可以将“懂”量化为1,“不懂”量化为0。计算STOI的表达式为

    \qquad {\text{STOI}} = \frac{1}{{JN}}\sum\limits_{j,n} {{{{d}}_{j,n}}} (11)
    \qquad {{{d}}_{j,n}} = \frac{{{{({{\boldsymbol{S}}_{j,n}} - {\mu _{{{\boldsymbol{S}}_{j,n}}}})}^{\rm{T}}}({{\widetilde {\boldsymbol{S}}}_{j,n}} - {\mu _{{{\widetilde {\boldsymbol{S}}}_{j,n}}}})}}{{{{\left\| {{{\boldsymbol{S}}_{j,n}} - {\mu _{{{\boldsymbol{S}}_{j,n}}}}} \right\|}_2}{{\left\| {{{\widetilde {\boldsymbol{S}}}_{j,n}} - {\mu _{{{\widetilde {\boldsymbol{S}}}_{j,n}}}}} \right\|}_2}}} (12)

    其中, J 为频带数, N 为帧数,{{{d}}_{j,{{n}}}}为分离后语音与原始语音之间的短时谱向量的相关系数。

    (3)SDR。SDR可以说明信号之间的失真比,是语音分离常用评价指标,计算表达式为

    {\rm{SDR}} = 10\lg \left( {\frac{{{{\left\| {{{\boldsymbol{S}}_{{\rm{target}}}}} \right\|}^2}}}{{{{\left\| {{{\boldsymbol{e}}_{{\rm{interf}}}} + {{\boldsymbol{e}}_{{\rm{noise}}}} + {{\boldsymbol{e}}_{{\rm{artif}}}}} \right\|}^2}}}} \right) (13)

    其中,{{\boldsymbol{S}}_{{\rm{target}}}}为分离出来的语音信号; {{\boldsymbol{e}}_{{\rm{interf}}}} 为干扰信号;{{\boldsymbol{e}}_{{\rm{noise}}}}为加性噪声;{{\boldsymbol{e}}_{{\rm{artif}}}}为算法构件所产生的干扰信号。

    本文利用上述3种评价方法,对提出的语音分离模型进行性能评估。

    VoxCeleb2是由牛津大学Chung等人[27]收集YouTube录像资料制作的音视频数据集,数据集共有100万条视频片段。这些视频片段来自全球6000多名发言者视频。VoxCeleb2数据集包含了140多个不同民族、不同语言,并且口音、说话者年龄、说话者性别比较均衡。该数据集主要由演讲和采访视频组成,其中每个片段只有一个人的图像,视频片段时间由4 ~20 s不等,这些录像都经过了人脸识别和人脸跟踪处理,保证了说话人的脸是在图片里的,并且唇部是在图片中间的。

    从VoxCeleb2数据集下载40 000个视频片段。首先利用FFmpeg对40 000个视频片段进行裁剪,使得每个视频片段长度为3 s。然后将40 000个视频片段随机分成4等份,每份有10 000个视频片段,分别作为说话者1、说话者2、说话者3和说话者4的数据来源。最后对各个说话者的视频片段进行编号。

    针对两个说话者情况,将说话者1和说话者2进行对应编号混合,获得10 000个混合语音,随机选取9 000个视频片段作为模型的训练集,剩余的1 000个作为测试集。

    针对3个说话者情况,将说话者1、说话者2和说话者3进行对应编号混合,获得10 000个混合语音,随机选取9 000个视频片段作为模型的训练集,剩余的1 000个作为测试集。

    针对4个说话者情况,将说话者1、说话者2、说话者3和说话者4进行对应编号混合,获得10 000个混合语音,随机选取9 000个视频片段作为模型的训练集,剩余的1 000个作为测试集。

    本文提出的跨模态融合MHATD-AVSS网络,是用Pytorch工具包实现的。唇部数据和音频数据的处理基于文献[19],并对训练数据进行预处理。使用权重衰减为 {10^{ - 2}} 的AdamW作为网络优化器,在本次训练过程中,设置的batch size为10,共进行了500个周期,设置的初始学习率(learning rate)为 1 \times {10^{ - 4}} 。如果连续5个周期损失没有降低,则学习率会变为原来的1/10。实验设备采用处理器Intel(R) Core(TM) i7-9700 CPU @ 3.00 GHz,安装内存32,操作系统64位Windows10,GPU型号GEFORCE RTX 2080 Ti,实验在GPU模式下运行。

    (1)为了分析跨模态融合的MHATD-AVSS网络性能,以两个说话者分离情况为例,利用SDR, PESQ及STOI评价语音分离效果,结果如表1所示。表中,TCN+“特征拼接”表示分离网络使用TCN,视听融合采用特征拼接方法的AV基线;DPRNN+“特征拼接”表示分离网络使用DPRNN,视听融合采用特征拼接方法的网络结构;TCN+SCMA表示分离网络使用TCN,视听融合采用自注意力跨模态融合的网络结构;TCN+HCMA表示分离网络使用TCN,视听融合采用多头注意力跨模态融合的网络结构;DPRNN+SCMA表示分离网络使用DPRNN,视听融合采用自注意力跨模态融合的网络结构。

    表 1  MHATD-AVSS模型的消融实验
    模型SDR(dB)PESQSTOI
    AV基线[19]9.152.680.84
    DPRNN+特征拼接9.532.700.84
    TCN+SCMA9.832.710.85
    DPRNN+SCMA10.312.730.86
    MHATD-AVSS11.022.750.87
    下载: 导出CSV 
    | 显示表格

    表1可知,DPRNN+特征拼接的SDR值为9.53 dB,相比较AV基线未采用DPRNN分离网络的SDR提升了0.38 dB,说明使用DPRNN分离网络,可以更好地进行建模,有效提高视听语音分离性能。DPRNN+SCMA, MHATD-AVSS的SDR值分别为10.31 dB, 11.02 dB,相比DPRNN+“特征拼接”,SDR分别提高了0.78 dB, 1.49 dB,说明采用模态注意力,相比特征拼接,能更好地利用不同模态之间的相互关系,得到更理想的视听特征。MHATD-AVSS的SDR值为11.02 dB,相比DPRNN+SCMA, SDR提高了0.71 dB,说明采用多头注意力跨模态融合,相比自注意力跨模特融合,可以利用多个学习的权重矩阵,可以获得更多与音频特征关联性强的视觉信息,获得更好的分离性能。

    (2)由于测试集、服务器配置等不同,评价结果也不同。为了提高对比的准确性,针对不同说话者情况,利用本实验室服务器的配置环境,在本文测试集下对时域纯语音分离网络Conv-TasNet[17]、时域视听分离网络AV模型[19]和文献[24]进行了复现,并与MHATD-AVSS模型进行对比,结果如表2所示。

    表 2  同一数据集、服务器下不同模型多说话者分离结果
    说话者个数模型SDR(dB)PESQSTOI
    2Conv-TasNet[17]8.932.670.84
    AV基线[19]9.152.680.84
    文献[24]9.842.710.85
    MHATD-AVSS11.022.750.87
    3Conv-TasNet[17]8.322.660.83
    AV基线[19]8.562.670.83
    文献[24]9.442.690.84
    MHATD-AVSS10.612.730.86
    4Conv-TasNet[17]7.892.650.82
    AV基线[19]8.102.660.83
    文献[24]8.972.680.84
    MHATD-AVSS10.032.710.85
    下载: 导出CSV 
    | 显示表格

    表2可知,在两个说话者语音混合情况下,采用多头注意力跨模态融合MHATD-AVSS,相比较时域纯语音分离网络Conv-TasNet、文献[19]时域视听分离模型和文献[24]对抗性视听语音分离网络,SDR分别提高了2.09 dB, 1.87 dB, 1.18 dB;3个说话者语音混合情况下,SDR分别提高了2.29 dB, 2.05 dB, 1.17 dB;4个说话者语音混合情况下,SDR分别提高了2.14 dB, 1.93 dB, 1.06 dB。说明时域视听跨模态融合语音分离网络与时域纯语音分离网络相比,利用视觉信息辅助音频信息,能具有更好的抗干扰能力,获得更好的分离效果;相比较文献[19]时域视听分离模型和文献[24]对抗性视听语音分离网络,采用了跨模态融合的方案,相比较音频特征与视觉特征拼接的方法,能更好地利用视觉信息与音频信息的相关性。

    表2还可知,随着说话者人数的增多,各个网络的分离效果都有所下降,相对于2个说话人混合的分离结果,3个说话人混合的分离结果略微下降,4个说话人混合的分离结果则有明显下降。由此可见,当4个说话人或者更多说话者混合是处在一个极度嘈杂环境中时,对网络模型的分离能力将提出更高要求。

    本文针对单通道多说话者语音分离,提出一种基于Conv-TasNet模型和跨模态注意力融合的时域视听语音分离模型。采用DPRNN分离网络,在深层模型中对RNN网络进行优化,使其面对长序列时也可以高效处理。采用注意力机制进行跨模态视听特征融合,可以充分利用音频流和视频流之间的相关性。实验结果表明,本文提出的基于Conv-TasNet时域视听跨模态融合语音分离网络在SDR, PESQ和STOI 3个指标上,都优于纯语音分离和采用特征拼接的视听语音分离网络。

  • 图  1  Conv-TasNet语音分离结构框架

    图  2  基于多头注意力机制时域视听跨模态融合语音分离模型

    图  3  视觉编码器结构

    表  1  MHATD-AVSS模型的消融实验

    模型SDR(dB)PESQSTOI
    AV基线[19]9.152.680.84
    DPRNN+特征拼接9.532.700.84
    TCN+SCMA9.832.710.85
    DPRNN+SCMA10.312.730.86
    MHATD-AVSS11.022.750.87
    下载: 导出CSV

    表  2  同一数据集、服务器下不同模型多说话者分离结果

    说话者个数模型SDR(dB)PESQSTOI
    2Conv-TasNet[17]8.932.670.84
    AV基线[19]9.152.680.84
    文献[24]9.842.710.85
    MHATD-AVSS11.022.750.87
    3Conv-TasNet[17]8.322.660.83
    AV基线[19]8.562.670.83
    文献[24]9.442.690.84
    MHATD-AVSS10.612.730.86
    4Conv-TasNet[17]7.892.650.82
    AV基线[19]8.102.660.83
    文献[24]8.972.680.84
    MHATD-AVSS10.032.710.85
    下载: 导出CSV
  • [1] SUN Peng, WU Dongping, and LIU Chaoran. High-sensitivity tactile sensor based on Ti2C-PDMS sponge for wireless human–computer interaction[J]. Nanotechnology, 2021, 32(29): 295506. doi: 10.1088/1361-6528/ABF59E.
    [2] CHERRY E C. Some experiments on the recognition of speech, with one and with two ears[J]. The Journal of the Acoustical Society of America, 1953, 25(5): 975–979. doi: 10.1121/1.1907229.
    [3] LUTFI R A, RODRIGUEZ B, and LEE J. Effect of listeners versus experimental factors in multi-talker speech segregation[J]. The Journal of the Acoustical Society of America, 2021, 149(S4): A105. doi: 10.1121/10.0004656.
    [4] COMON P. Independent component analysis, a new concept?[J]. Signal Processing, 1994, 36(3): 287–314. doi: 10.1016/0165-1684(94)90029-9.
    [5] LEE D D and SEUNG H S. Learning the parts of objects by non-negative matrix factorization[J]. Nature, 1999, 401(6755): 788–791. doi: 10.1038/44565.
    [6] PARSONS T W. Separation of speech from interfering speech by means of harmonic selection[J]. The Journal of the Acoustical Society of America, 1976, 60(4): 911–918. doi: 10.1121/1.381172.
    [7] HERSHEY J R, CHEN Zhuo, LE ROUX J, et al. Deep clustering: Discriminative embeddings for segmentation and separation[C]. 2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Shanghai, China, 2016: 31–35.
    [8] YU Dong, KOLBÆK M, TAN Zhenghua, et al. Permutation invariant training of deep models for speaker-independent multi-talker speech separation[C]. 2017 IEEE International Conference on Acoustics, Speech and Signal Processing, New Orleans, USA, 2017: 241–245.
    [9] KOLBæK M, YU Dong, TAN Zhenghua, et al. Multitalker speech separation with utterance-level permutation invariant training of deep recurrent neural networks[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2017, 25(10): 1901–1913. doi: 10.1109/TASLP.2017.2726762.
    [10] WAGEMANS J, FELDMAN J, GEPSHTEIN S, et al. A century of gestalt psychology in visual perception: II. Conceptual and theoretical foundations[J]. Psychological Bulletin, 2012, 138(6): 1218–1252. doi: 10.1037/a0029334.
    [11] GOLUMBIC E Z, COGAN G B, SCHROEDER C E, et al. Visual input enhances selective speech envelope tracking in auditory cortex at a "cocktail party"[J]. The Journal of Neuroscience, 2013, 33(4): 1417–1426. doi: 10.1523/JNEUROSCI.3675-12.2013.
    [12] TAO Ruijie, PAN Zexu, DAS R K, et al. Is someone speaking?: Exploring long-term temporal features for audio-visual active speaker detection[C]. The 29th ACM International Conference on Multimedia, Chengdu, China, 2021: 3927–3935.
    [13] LAKHAN A, MOHAMMED M A, KADRY S, et al. Federated learning-aware multi-objective modeling and blockchain-enable system for IIoT applications[J]. Computers and Electrical Engineering, 2022, 100: 107839. doi: 10.1016/j.compeleceng.2022.107839.
    [14] MORGADO, LI Yi, and VASCONCELOS N. Learning representations from audio-visual spatial alignment[C]. The 34th International Conference on Neural Information Processing Systems, Vancouver, Canada, 2020: 397.
    [15] FLEMING J T, MADDOX R K, and SHINN-CUNNINGHAM B G. Spatial alignment between faces and voices improves selective attention to audio-visual speech[J]. The Journal of the Acoustical Society of America, 2021, 150(4): 3085–3100. doi: 10.1121/10.0006415.
    [16] LUO Yi and MESGARANI N. TaSNet: Time-domain audio separation network for real-time, single-channel speech separation[C]. 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Calgary, Canada, 2018: 696–700.
    [17] LUO Yi and MESGARANI N. Conv-TasNet: Surpassing ideal time–frequency magnitude masking for speech separation[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2019, 27(8): 1256–1266. doi: 10.1109/TASLP.2019.2915167.
    [18] LUO Yi, CHEN Zhuo, and YOSHIOKA T. Dual-path RNN: Efficient long sequence modeling for time-domain single-channel speech separation[C]. ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Barcelona, Spain, 2020: 46–50.
    [19] WU Jian, XU Yong, ZHANG Shixiong, et al. Time domain audio visual speech separation[C]. 2019 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU), Singapore, 2019: 667–673.
    [20] 范存航, 刘斌, 陶建华, 等. 一种基于卷积神经网络的端到端语音分离方法[J]. 信号处理, 2019, 35(4): 542–548. doi: 10.16798/j.issn.1003-0530.2019.04.003.

    FAN Cunhang, LIU Bin, TAO Jianhua, et al. An end-to-end speech separation method based on convolutional neural network[J]. Journal of Signal Processing, 2019, 35(4): 542–548. doi: 10.16798/j.issn.1003-0530.2019.04.003.
    [21] 徐亮, 王晶, 杨文镜, 等. 基于Conv-TasNet的多特征融合音视频联合语音分离算法[J]. 信号处理, 2021, 37(10): 1799–1805. doi: 10.16798/j.issn.1003-0530.2021.10.002.

    XU Liang, WANG Jing, YANG Wenjing, et al. Multi feature fusion audio-visual joint speech separation algorithm based on Conv-TasNet[J]. Journal of Signal Processing, 2021, 37(10): 1799–1805. doi: 10.16798/j.issn.1003-0530.2021.10.002.
    [22] GAO Ruohan and GRAUMAN K. VisualVoice: Audio-visual speech separation with cross-modal consistency[C]. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Nashville, USA, 2021: 15490–15500.
    [23] XIONG Junwen, ZHANG Peng, XIE Lei, et al. Audio-visual speech separation based on joint feature representation with cross-modal attention[J]. arvix: 2203.02655, 2022.
    [24] ZHANG Peng, XU Jiaming, SUI Jing, et al. Audio-visual speech separation with adversarially disentangled visual representation[J]. arXiv: 2011.14334, 2020.
    [25] WU Yifei, LI Chenda, BAI Jinfeng, et al. Time-domain audio-visual speech separation on low quality videos[C]. ICASSP 2022 - 2022 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Singapore, 2022: 256–260.
    [26] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]. The 31st International Conference on Neural Information Processing Systems, Long Beach, USA, 2017: 6000–6010.
    [27] CHUNG J S, NAGRANI A, and ZISSERMAN A. VoxCeleb2: Deep speaker recognition[C]. Interspeech 2018, 19th Annual Conference of the International Speech Communication Association, Hyderabad, India, 2018: 1086–1090.
  • 期刊类型引用(1)

    1. 蔡昱东,刘雪,廖祥,周艺. 基于侧抑制和反馈式注意力机制的语音增强网络模型. 生物医学工程学杂志. 2025(01): 82-89 . 百度学术

    其他类型引用(1)

  • 加载中
图(3) / 表(2)
计量
  • 文章访问数:  679
  • HTML全文浏览量:  371
  • PDF下载量:  84
  • 被引次数: 2
出版历程
  • 收稿日期:  2023-04-12
  • 修回日期:  2023-09-05
  • 网络出版日期:  2023-09-08
  • 刊出日期:  2024-03-27

目录

/

返回文章
返回