Deep Learning-based Joint Multi-branch Merging and Equalization Algorithm for Underwater Acoustic Channel
-
摘要: 为了更好地解决水声信道中的衰落及严重码间干扰问题,该文提出一种基于深度学习的联合多分支合并与均衡算法。该算法借助深度学习网络的非线性拟合能力,联合实现了多分支合并和均衡。在算法实现中,合并与均衡并非相互独立,而是基于深度学习网络的总输出计算出总误差,以总误差对网络参数实现联合调整,数据集则基于统计水声信道模型进行构建。仿真结果表明,相较于已有算法,所提算法能获得更快的收敛速度和更好的误码率性能,使得其能更好地适应水声信道。
-
关键词:
- 水声通信 /
- 深度学习 /
- 水声信道 /
- 联合多分支合并与均衡
Abstract: To better solve the fading and severe inter-symbol interference problems in underwater acoustic channels, a Joint Multi-branch Merging and Equalization algorithm based on Deep Learning (JMME-DL) is proposed in this paper. The algorithm jointly implements multi-branch merging and equalization with the help of the nonlinear fitting ability of the deep learning network. The merging and equalization are not independent of each other, in the implementation of the algorithm, the total error is first calculated based on the total output of the deep learning network, and then the network parameters of each part are jointly adjusted with the total error, and the dataset is constructed based on the statistical underwater acoustic channel model. Simulation results show that the proposed algorithm achieves faster convergence speed and better BER performance compared to the existing algorithms, making it better adapted to underwater acoustic channels. -
1. 引言
随着对海洋资源开发、海洋权益维护等的日益重视,水声通信技术在军事和民用水下信息传输领域的重要性日益显现。但复杂多变的水声信道给信息的可靠传输带来了挑战,信号在高速率传输过程中会同时面临时变、严重码间干扰及衰落的影响[1]。为了解决此问题,通常考虑采用自适应均衡与分集技术。
自适应均衡是一种在接收机处进行自适应信号补偿的技术,可有效抑制码间干扰及噪声,矫正和补偿信道特性,从而可提高通信系统的可靠性。在水声通信中应用的传统自适应均衡算法主要有两种:最小均方误差(Least Mean Square, LMS)类自适应算法[2]和递归最小二乘(Recursive Least Square, RLS)类自适应算法[3]。相较于LMS,基于RLS类的自适应算法收敛性能更好,但其计算复杂度较高。而水声信道延迟扩展时间大,会导致严重的码间干扰,故传统自适应均衡算法由于其结构上的局限性,难以取得较好的误码率性能。近年来出现的深度学习算法,凭借其强大的学习能力和非线性拟合能力,成为了水声信道均衡算法研究的热点[4],给取得更好码间干扰消除效果带来了可能。文献[5]分别使用多层感知器(Multi-Layer Perceptron, MLP)和递归神经网络(Recursive Neural Network, RNN)实现了信道均衡,能获得比传统自适应均衡算法更好的误码率性能,但其仅能处理多径信道数很少的情况。文献[6]使用卷积递归神经网络(Convolutional Recursive Neural Network, CRNN)设计信道均衡器,可实现误码率性能的进一步改善。但CRNN存在局部最优解问题,且复杂度及训练成本较高,文献[7]考虑将5层深度神经网络(Deep Neural Network, DNN)应用到水声OFDM通信系统中,用于检测恢复发送端发送的信息。目前关于神经网络用于均衡方面的研究,还仅局限于单分支情况。
由于水下声波的衰落及传播特性,可考虑在水声通信中采用单发多收(Single Input Multiple Output, SIMO)分集技术,通过利用多个衰落相互独立的水声信道传送相同的信息,可更好地捕获声信号的能量及抵抗衰落的影响,改善水声通信链路的可靠性。在目前的分集技术中,主要的合并技术包括:等增益合并和最大比合并[8]。最大比合并性能最好,但其实现需已知对应各个分支的信道状态信息,而实际的水声环境下,换能器间的信道状态信息是难以获得的,因此,此方法不太适合于实际的水声通信系统。此外,在高速水声通信中,还存在码间干扰,因此不能仅采用合并技术处理,还需采用均衡技术,但如果多分支合并与均衡间相互独立,并不能充分发挥两者的联合性能,因此需考虑如何将多分支合并与均衡联合实现。文献[9]提出一种多分支合并与均衡联合实现算法,该自适应算法可基于LMS和RLS算法实现。文献[10]提出了一种基于归一化最小均方(Normalized Least Mean Square, NLMS)的多分支合并与均衡联合实现算法。文献[11]提出了一种基于均方误差准则的多分支合并与均衡算法,但其本质实现上仍然是各分支相互独立的。据文献调研可知,尽管在均衡领域,已有研究将智能学习算法用于均衡器,但还未有考虑基于智能学习方法将多分支合并和均衡联合实现的研究出现。
针对水声信道中严重衰落及码间干扰问题,本文提出一种基于深度学习的联合多分支合并与均衡算法。该算法基于DNN实现,可利用其强大学习能力和非线性拟合能力,更好的实现合并和消除码间干扰,在其实现中,多分支合并与均衡是联合实现的,可进一步提高联合性能。仿真结果验证了所提算法的可行性,也验证了其相对于已有方法的优势。
2. 系统模型
本文研究针对SIMO单载波水声通信系统,发射端有一个换能器,接收端有N个水听器,如图1所示。在图1中,h表示海水的深度,ht表示发射端换能器距海底的距离,hd(i)表示接收端第i个水听器序距海底距离,i∈{1,2,⋯,N},d表示换能器与水听器阵列的水平距离,hi(n)表示换能器与第i个水听器间水声信道的冲激响应,假设发射端换能器与接收端N个水听器间的水声信道hi(n)是相互独立的。
在此模型下,接收端第i个水听器的接收信号ri(n)可,其可表述为下式
ri(n)=s(n)∗hi(n)+ξi(n) (1) 其中i∈{1,2,⋯,N},s(n)表示独立等概率二进制相移键控(Binary Phase Shift Keying, BPSK)调制信号,s(n)∈{−1,1},∗表示卷积运算,ξi(n)表示零均值,方差为σ2i的加性高斯白噪声。
3. 基于深度学习的联合多分支合并与均衡
高速水声通信会同时面临水声通信中时变、严重码间干扰及衰落的影响,为了改善水声通信链路的可靠性,需要考虑同时解决。目前,已有合并均衡方法基于MMSE标准实现,深度学习方面则仅考虑了单分支情况,还未考虑多分支情况。本文提出了一种基于深度学习的联合多分支合并与均衡算法(Joint Multi-branch Merging and Equalization based on Deep Learning, JMME-DL),该算法与已有算法相比具有以下不同之处:(1)该算法基于深度学习网络实现了多分支均衡;(2)多分支合并和各分支均衡并非相互独立,而是联合实现的。
本文所提出JMME-DL算法的结构示意图如图2所示,该算法将直接处理各水听器接收到的信号,经如图2所示的深度学习网络处理后,通过判决即可恢复发送端发送的数据。
由图2可知,各分支网络和对各分支网络输出的合并并非相互独立,而是基于网络总输出计算误差进行联合更新的,每个分支会同时处理相应分支的若干组数据,第i个分支的第1层神经网络输入o(1)i可表示为
o(1)i=[ri(n),ri(n−1),⋯ri(n−Mi+1)ri(n+1),ri(n),⋯ri(n−Mi+2)⋮⋮⋱⋮ri(n+K−1),⋯⋯ ri(n−Mi+K)] (2) 其中,i∈{1,2,⋯,N},K表示每个分支1次处理的组数(这里假设各分支的组数均为相同的),Mi表示各个分支DNN网络的输入层神经元的数量。设各个分支的深度神经网络(DNN)的层数均为L,若第i个分支的第l层输出为o(l)i,则第l+1层的输出可通过下式计算得出
o(l+1)i=f(l)i(o(l)i)=fi(θ(l)(i)o(l)i+b(l)(i)) (3) 其中,θ(l)(i)代表第i个分支网络中第l层的权重矩阵,θ(l)(i)={θ(l)(i)j,k}, b(l)(i)代表第i个分支网络中第l层的偏置向量,b(l)(i)={b(l)(i)j},fi(⋅)表示SIGMOID激活函数,如图3所示,f(l)i(⋅)表示第l层的激活函数。网络层数增加时,每一层输入的分布会逐渐偏移,这会导致某些层的输入落入激活函数fi(⋅)的饱和区内,造成梯度消失,从而导致网络参数无法更新。为了解决梯度消失引起的“梯度弥散”问题,在图2中的每一层前均加入正则化(Batch Normalization, BN)层,BN层能将每一层的输入信息变换为服从均值为0,方差为1的标准正态分布的序列,信息经这样的正则化处理后,就可落入激活函数的敏感区域,梯度变化大,可加快网络的收敛速度。
由于采用的调制方式是BPSK调制,故可将其看作是一个二分类的问题。鉴于SIMOID激活函数的输出值取值范围为(0,1),这里将BPSK调制值取“+1”时定义为正向类“1”,取“–1”时定义为负向类“0”,阈值取0.5,在判决时可根据估计值与0.5的大小关系,判决恢复发送端发送的信息。由图2所示,第L−1层间的输出可表示为
o(L−1)i=f(L−1)(f(L−2)((⋯f(1)(o(1)i)))) (4) 最后总网络的输出˜stotal由各分支的输出加权得到˜stotal=f(n∑i(θ(L−1)(i)o(L−1)i+b(L−1)(i)))。考虑通信的目的是传递信息,期望接收端能正确恢复信息,故定义深度学习网络的损失函数为
Loss(θ,b)=1K‖ (5) 其中, {s} 表示期望信息s = [s((n - 1)K + 1), \cdots , s(nK)],n = 1,2, \cdots , {\tilde {\boldsymbol{s}}_{{{\mathrm{total}}}}} 表示对 {{\boldsymbol{s}}} 的估计值。从式(5)可以看出,损失函数取值越小,可以使得对信息的估计值越逼近于期望值,故可通过最小化损失函数求得最优化的网络参数(权重矩阵和偏置向量)。为了能使算法自适应于信道,可推导出令此损失函数最小的自适应算法。由随机梯度下降法,可得权重矩阵和偏置向量的更新公式为
{\boldsymbol{\theta }}_{(i)}^{{(l)}} = {\boldsymbol{\theta }}_{{(i)}}^{{(l)}} - \alpha \frac{{\partial L}}{{\partial {\boldsymbol{\theta }}_{{(i)}}^{{(l)}}}}{\text{ }}(l = 1,2, \cdots ,L - 1) (6) {{\boldsymbol{b}}}_{(i)}^{(l)} = {{\boldsymbol{b}}}_{(i)}^{(l)} - \alpha \frac{{\partial L}}{{\partial {{\boldsymbol{b}}}_{(i)}^{(l)}}}{\text{ }}(l = 1,2, \cdots ,L - 1) (7) 其中, \alpha 表示学习率,其取值严重影响深度神经网络的收敛及稳态性能。根据反向传播算法,更新过程中的偏导部分可由下式计算得出
\begin{split} \frac{{\partial L}}{{\partial {{\boldsymbol{\theta}} }_{{(i)}}^{^{(L - 1)}}}} =\,& \frac{{\partial L}}{{\partial {{\boldsymbol{o}}}_i^{(L - 1)}}}\frac{{\partial {{\boldsymbol{o}}}_i^{(L - 1)}}}{{\partial {{\boldsymbol{\theta}} }_{{(i)}}^{{(L - 1)}}}} = {({{\boldsymbol{o}}}_i^{(L - 2)})^{\mathrm{T}}}(({\boldsymbol{s}} - {\tilde {\boldsymbol{s}}_{{\text{total}}}}) \\ & \odot f'(\sum\limits_i^n \left({{\boldsymbol{\theta}} }_{{(i)}}^{{(L - 1)}}{{\boldsymbol{o}}}_i^{(L - 1)} + {{\boldsymbol{b}}}_{{(i)}}^{{(L - 1)}} \right)))\\[-1pt] \end{split} (8) \begin{split} \frac{{\partial L}}{{\partial {{\boldsymbol{b}}}_{{(i)}}^{{(L - 1)}}}} =\,& \frac{{\partial L}}{{\partial {{\boldsymbol{o}}}_i^{(L - 1)}}}\frac{{\partial {{\boldsymbol{o}}}_i^{(L - 1)}}}{{\partial {{\boldsymbol{b}}}_{{(i)}}^{{(L - 1)}}}} = {\text{sum}}\{ ({\boldsymbol{s}} - {\tilde s_{{\text{total}}}}) \\ & \odot f' \sum\limits_i^n {({{\boldsymbol{\theta}} }_{{(i)}}^{{(L - 1)}}{{\boldsymbol{o}}}_i^{(L - 1)} + {{\boldsymbol{b}}}_{{(i)}}^{{(L - 1)}}} )\} \end{split} (9) 其中, \odot 表示哈达玛积, {( \cdot )^{\text{T}}} 表示矩阵转置, {\text{sum}}\{ \} 表示对矩阵按列求和。由式(9),为了表述方便,定义神经网络第 L - 1 层的误差项 {{\boldsymbol{\delta}} }_i^{^{L - 1}} 为
\begin{split} {{\boldsymbol{\delta}} }_i^{{L - 1}} =\,& \frac{{\partial L}}{{\partial {{\boldsymbol{o}}}_i^{(L - 1)}}} = ({\boldsymbol{s}} - {\tilde {\boldsymbol{s}}_{{\text{total}}}})\\ & \odot f'\left(\sum\limits_i^n \left({{\boldsymbol{\theta}} }_{{(i)}}^{{(L - 1)}}{{\boldsymbol{o}}}_i^{(L - 1)} + {{\boldsymbol{b}}}_{{(i)}}^{{(L - 1)}} \right)\right) \end{split} (10) 类比可推导出第l层的误差为
{{\boldsymbol{\delta}} }_i^{l} = \frac{{\partial L}}{{\partial {{\boldsymbol{o}}}_i^l}} = ({\boldsymbol{s}} - {\tilde {\boldsymbol{s}}_{{\text{total}}}}) \odot f' \left(\sum\limits_i^n \left({{\boldsymbol{\theta}} }_{{(i)}}^{{(l)}}{{\boldsymbol{o}}}_i^{(l)} + {{\boldsymbol{b}}}_{{(i)}}^{{(l)}} \right)\right) (11) 由式(8)–式(11),对第i分支第l层的更新公式可表示为
\frac{{\partial L}}{{\partial {{\boldsymbol{\theta}} }_{{(i)}}^{{(l)}}}} = {({{\boldsymbol{o}}}_i^{(l - 1)})^{\text{T}}}{{\boldsymbol{\delta}} }_i^l{\text{ }}(l = 1,2, \cdots ,L - 1) (12) \frac{{\partial L}}{{\partial {{\boldsymbol{b}}}_{{(i)}}^{{(l)}}}} = {\text{sum}}\{ {{\boldsymbol{\delta }}}_i^l{\text{\} }}(l = 1,2, \cdots ,L - 1) (13) 将式(12)–式(13)代入式(6)–式(7),可得JMME-DL自适应算法
{{\boldsymbol{\theta}} }_{(i)}^{{(l)}} = {{\boldsymbol{\theta}} }_{^{(i)}}^{{(l)}} - \alpha {({{\boldsymbol{o}}}_i^{(l - 1)})^{\text{T}}}{{\boldsymbol{\delta}} }_i^l{\text{ }}(l = 1, \cdots ,L - 1) (14) {{\boldsymbol{b}}}_{{(i)}}^{{(l)}} = {{\boldsymbol{b}}}_{{(i)}}^{{(l)}} - \alpha {{\boldsymbol{\delta}} }_i^l{\text{ }}(l = 1, \cdots ,L - 1) (15) 综上,所提JMME-DL算法实现过程如算法1所示。
表 1 JMME-DL算法输入:训练集: \mathcal{D} = \left\{ {\left( {{r_i}(n),s(n)} \right)} \right\}_{i = 1}^N 中 K 组数据;验证集: V ;学习率: \alpha ;正则化系数: \lambda ;迭代次数: M 初始化: {\boldsymbol{\theta}} ,{\boldsymbol{b}} repeat for i = 1 2 ··· M do (1) 从训练集 \mathcal{D} 中选取 K 组数据样本 (2) 前馈计算,直到最后一层并计算总输出 (3) 反向传播计算每一层的误差 // 计算每一层参数的导数 \dfrac{{\partial L}}{{\partial {{\boldsymbol{\theta}} }_{^{(i)}}^{^{(l)}}}} = {({{\boldsymbol{o}}}_i^{(l - 1)})^{\text{T}}}{{\boldsymbol{\delta}} }_i^l{\text{ }}(l = 1, \cdots ,L - 1) \dfrac{{\partial L}}{{\partial {{\boldsymbol{b}}}_{^{(i)}}^{^{(l)}}}} = {\text{sum}}\{ {{\boldsymbol{\delta}} }_i^l{\text{\} }}(l = 1, \cdots ,L - 1) // 更新参数 {{\boldsymbol{\theta}} }_{(i)}^{^{(l)}} = {{\boldsymbol{\theta }}}_{^{(i)}}^{^{(l)}} - \alpha {({{\boldsymbol{o}}}_i^{(l - 1)})^{\text{T}}}{{\boldsymbol{\delta}} }_i^l{\text{ }}(l = 1, \cdots ,L - 1) {{\boldsymbol{b}}}_{^{(i)}}^{^{(l)}} = {{\boldsymbol{b}}}_{^{(i)}}^{^{(l)}} - \alpha {{\boldsymbol{\delta}} }_i^l{\text{ }}(l = 1, \cdots ,L - 1) until训练的模型在验证集 V 的错误率不再下降; 输出: {\boldsymbol{\theta}} ,{\boldsymbol{b}} 4. 仿真结果与分析
4.1 仿真条件
在仿真中,假设水声信道是半稳态的,即在一个数据包的发送过程中,信道是不变的,但对下一个数据包的传输来说,信道会发生变化。每个数据包由训练序列和数据序列构成。每个数据包的长度为1008个符号,其中前400个符号为训练序列,用于对网络的训练,后608个符号为数据信息,用于对网络的测试。在仿真中,JMME-DL各分支网络的输入神经元个数设定为16。为了在训练长度为400时得到更多的训练样本,各分支构成样本时,采用重复使用的方式,即第1~16个采样值构成第1个样本,2~17构成第2个样本,依次类推,400个训练符号可形成400组训练样本。换能器和水听器间的水声信道冲激响应基于文献[12]中的统计水声信道模型得出,所使用主要参数如表1所示,基于此水声信道模型可构建蒙特卡洛仿真,据表1中参数设置产生的水声信道冲激响应如图4所示。在仿真中深度学习网络的学习率 \alpha 设置为0.005,正则化系数\lambda 设置为0.8,迭代次数M设置为100。为了验证本文提出JMME-DL算法的有效性,与已有算法进行了误码率和收敛性能的对比,在仿真图中的误码率和收敛曲线分别以平均多个数据包下的相应曲线得出。
表 1 水声信道仿真主要参数仿真参数 数值 海水深度(m) 300 发射机深度(m) 100 水听器1深度(m)
水听器2深度(m)120
125水听器3深度(m) 130 发射机与水听器水平距离(m) 3000 水下传播系数 1.6 水下声速(m/s) 1500 载波频率(kHz) 10 带宽(kHz) 5 4.2 仿真结果与分析
本文选取对比算法如下:(1)文献[10]提出的基于NLMS的联合多分支合并与均衡算法(Joint Multi-branch Merging and Equalization based on NLMS, JMME-NLMS)。(2)文献[6]提出的基于卷积递归神经网络(CRNN)算法和等增益合并相结合的多分支处理算法,各分支是相互独立的,但对各分支的输出进行等增益合并,称之为基于CRNN的等增益合并多分支均衡算法(Equal-Gain Combing Multi-branch Equalization based CRNN, EGC-ME-CRNN)。(3)基于深度学习的单分支均衡算法(Single-branch Equalization based on Deep Learning, SE-DL)。(4)基于深度学习的均衡和等增益合并相结合的算法,各分支相互独立,仅对各分支的输出进行等增益合并,称之为基于DL的等增益合并多分支均衡算法(Equal-Gain Combing Multi-branch Equalization based on Deep Learning, EGC-ME-DL)。
深度神经网络的非线性拟合能力与网络层数具有一定关系,网络层数过少,非线性拟合能力较差;而网络层数过多时,可能导致过拟合,因此,深度神经网络的层数严重影响JMME-DL的性能。有鉴于此,首先通过仿真研究了网络层数对误码率性能的影响。在构建各分支深度神经网络时,假设不同分支的神经网络层数和结构相同。图5给出了网络层数对误码率性能的影响,图中分别给出了各分支网络层数为4层、5层、6层、7层和8层时的误码率曲线:4层网络结构为16-16-32-1;5层网络结构为16-16-24-32-1;6层网络结构为16-16-24-32-24-1;7层网络结构为16-16-24-32-24-16-1;8层网络结构为16-16-24-32-36-24-16-1。从图5可以看出,随着层数的增加,JMME-DL的误码率性能会有进一步的性能改善,但当层数达到一定程度时,再进一步增加层数时,误码率性能不会有较大的提升,反而会增加算法的复杂度。本文中在考虑网络层数的设定时,是考虑保证算法性能的同时,令网络尽可能轻量(计算复杂度低)。故综合考虑误码率性能和算法复杂度,选择各分支的网络层数为6会是一个较好的折衷。因此,在后续仿真中,设置各分支的网络层数为6。
图6给出了SE-DL, EGC-ME-DL, JMME-NLMS, EGC-ME-CRNN和所提JMME-DL算法间的误码率性能比较。从图6可以看出,EGC-ME-DL, JMME-NLMS, EGC-ME-CRNN和所提JMME-DL算法的误码率性能优于SE-DL。这是因为这几种算法都是多分支算法,相对于SE-DL来说,可以获得分集增益。从图6还可以看出,EGC-ME-DL, EGC-ME-CRNN和所提JMME-DL算法能获得比JMME-NLMS更好的误码率性能,这是因为这几种算法都是基于神经网络实现,其具有强大的非线性拟合能力,能更好地消除码间干扰。此外,我们还可以看出所提JMME-DL的误码率性能优于EGC-ME-DL、EGC-ME-CRNN算法。这是因为JMME-DL是基于深度学习网络实现的,且在其实现过程中,各分支网络和多分支的合并并非是相互独立的,而是联合实现的。
图7给出了不同算法的收敛性能比较,横轴表示深度学习算法的迭代次数。从图7中可以看出EGC-ME-DL和EGC-ME-CRNN的收敛速度接近,而所提JMME-DL算法能获得比EGC-ME-DL和EGC-ME-CRNN更好的收敛速度。此外,还可以从图7中看出,所提JMME-DL算法达到的损失函数值小于EGC-ME-DL和EGC-ME-CRNN算法,这与图6中的误码率性能是一致的,损失函数值越小,误码率性能越好,这反过来也证明了图6中结果的正确性。
5. 结束语
考虑更好地消除严重多径导致的码间干扰及抗水声信道衰落,本文提出一种基于深度学习的联合多分支合并与均衡算法。在该算法中,多分支合并和均衡并不是相互独立的,而是基于设计的深度学习网络联合实现的,因而能获得更好的合并与均衡性能。仿真结果表明,与已有算法相比,所提JMME-DL算法能借助深度学习网络的非线性拟合能力,更有效地消除码间干扰,从而获得更好的收敛及误码率性能。
-
1 JMME-DL算法
输入:训练集: \mathcal{D} = \left\{ {\left( {{r_i}(n),s(n)} \right)} \right\}_{i = 1}^N 中 K 组数据;验证集: V ;学习率: \alpha ;正则化系数: \lambda ;迭代次数: M 初始化: {\boldsymbol{\theta}} ,{\boldsymbol{b}} repeat for i = 1 2 ··· M do (1) 从训练集 \mathcal{D} 中选取 K 组数据样本 (2) 前馈计算,直到最后一层并计算总输出 (3) 反向传播计算每一层的误差 // 计算每一层参数的导数 \dfrac{{\partial L}}{{\partial {{\boldsymbol{\theta}} }_{^{(i)}}^{^{(l)}}}} = {({{\boldsymbol{o}}}_i^{(l - 1)})^{\text{T}}}{{\boldsymbol{\delta}} }_i^l{\text{ }}(l = 1, \cdots ,L - 1) \dfrac{{\partial L}}{{\partial {{\boldsymbol{b}}}_{^{(i)}}^{^{(l)}}}} = {\text{sum}}\{ {{\boldsymbol{\delta}} }_i^l{\text{\} }}(l = 1, \cdots ,L - 1) // 更新参数 {{\boldsymbol{\theta}} }_{(i)}^{^{(l)}} = {{\boldsymbol{\theta }}}_{^{(i)}}^{^{(l)}} - \alpha {({{\boldsymbol{o}}}_i^{(l - 1)})^{\text{T}}}{{\boldsymbol{\delta}} }_i^l{\text{ }}(l = 1, \cdots ,L - 1) {{\boldsymbol{b}}}_{^{(i)}}^{^{(l)}} = {{\boldsymbol{b}}}_{^{(i)}}^{^{(l)}} - \alpha {{\boldsymbol{\delta}} }_i^l{\text{ }}(l = 1, \cdots ,L - 1) until训练的模型在验证集 V 的错误率不再下降; 输出: {\boldsymbol{\theta}} ,{\boldsymbol{b}} 表 1 水声信道仿真主要参数
仿真参数 数值 海水深度(m) 300 发射机深度(m) 100 水听器1深度(m)
水听器2深度(m)120
125水听器3深度(m) 130 发射机与水听器水平距离(m) 3000 水下传播系数 1.6 水下声速(m/s) 1500 载波频率(kHz) 10 带宽(kHz) 5 -
[1] 邵宗战. 现代水声通信技术发展探讨[J]. 科技创新与应用, 2022, 12(20): 152–155. doi: 10.19981/j.CN23-1581/G3.2022.20.036.SHAO Zongzhan. Discussion on the development of modern hydroacoustic communication technology[J]. Technology Innovation and Application, 2022, 12(20): 152–155. doi: 10.19981/j.CN23-1581/G3.2022.20.036. [2] XIE Lin, ZHAO Haili, TIAN Chengjun, et al. Comparison of several new improved variable-step LMS algorithms[C]. 2022 7th International Conference on Automation, Control and Robotics Engineering (CACRE), Xi’an, China, 2022: 229–233. doi: 10.1109/CACRE54574.2022.9834206. [3] GUO Xiaochen, ZHANG Youwen, and ZHENG Wei. Variable forgetting factor RLS algorithm for mobile single carrier SIMO underwater acoustic communication[C]. Proceedings of SPIE 12615, International Conference on Signal Processing and Communication Technology (SPCT 2022), Harbin, China, 2023: 1261519. doi: 10.1117/12.2674104. [4] CHENG Xing, LIU Dejun, WANG Chen, et al. Deep learning-based channel estimation and equalization scheme for FBMC/OQAM systems[J]. IEEE Wireless Communications Letters, 2019, 8(3): 881–884. doi: 10.1109/LWC.2019.2898437. [5] CHEN S, GIBSON G J, COWAN C F N, et al. Adaptive equalization of finite non-linear channels using multilayer perceptrons[J]. Signal Processing, 1990, 20(2): 107–119. doi: 10.1016/0165-1684(90)90122-F. [6] LAVANIA S, KUMAM B, MATEY P S, et al. Adaptive channel equalization using recurrent neural network under SUI channel model[C]. 2015 International Conference on Innovations in Information, Embedded and Communication Systems (ICIIECS), Coimbatore, India, 2015: 1–6. doi: 10.1109/ICIIECS.2015.7193035. [7] ZHANG Youwen, LI Junxuan, ZAKHAROV Y, et al. Deep learning based underwater acoustic OFDM communications[J]. Applied Acoustics, 2019, 154: 53–58. doi: 10.1016/j.apacoust.2019.04.023. [8] JARUWATANADILOK S. Underwater wireless optical communication channel modeling and performance evaluation using vector radiative transfer theory[J]. IEEE Press, 2008, 26(9): 1620–1627. doi: 10.1109/JSAC.2008.081202. [9] STOJANOVIC M, CATIPOVIC J, and PROAKIS J G. Adaptive multichannel combining and equalization for underwater acoustic communications[J]. The Journal of the Acoustical Society of America, 1993, 94(3): 1621–1631. doi: 10.1121/1.408135. [10] CHOI J W, RIEDL T J, KIM K, et al. Adaptive linear turbo equalization over doubly selective channels[J]. IEEE Journal of Oceanic Engineering, 2011, 36(4): 473–489. doi: 10.1109/JOE.2011.2158013. [11] LIU Zhiyong, WANG Yinghua, SONG Lizhong, et al. Joint adaptive combining and variable tap-length multiuser detector for underwater acoustic cooperative communication[J]. KSII Transactions on Internet and Information Systems, 2018, 12(1): 325–339. doi: 10.3837/tiis.2018.01.016. [12] QARABAQI P and STOJANOVIC M. Statistical characterization and computationally efficient modeling of a class of underwater acoustic communication channels[J]. IEEE Journal of Oceanic Engineering, 2013, 38(4): 701–717. doi: 10.1109/JOE.2013.2278787. -