Loading [MathJax]/jax/element/mml/optable/BasicLatin.js
Advanced Search
Volume 37 Issue 8
Aug.  2015
Turn off MathJax
Article Contents
Yue Hai-xia, Yang Ru-liang. Raw Data Simulation of Spaceborne Polarization SAR[J]. Journal of Electronics & Information Technology, 2006, 28(1): 16-20.
Citation: Dong Bin-hong, Tang Peng, Du Yang, Zhao Yan. Performance Analysis of Energy Metrics for Viterbi Soft Decoding Algorithm Based on M-FSK Signal[J]. Journal of Electronics & Information Technology, 2015, 37(8): 1920-1925. doi: 10.11999/JEIT141532

Performance Analysis of Energy Metrics for Viterbi Soft Decoding Algorithm Based on M-FSK Signal

doi: 10.11999/JEIT141532
  • Received Date: 2014-12-02
  • Rev Recd Date: 2015-03-03
  • Publish Date: 2015-08-19
  • The Viterbi decoding algorithm is widely used in the wireless digital communication system, generally using the bit Log-Likelihood Ratio (LLR) as its input. For an M-ary Frequency Shift Keying (M-FSK) signal, a corresponding Viterbi decoding algorithm by directly adopting the M-dimensions energy information of the signal demodulation as the decoder branch metrics is proposed. This paper analyzes the theoretical performance of the proposed algorithm in the AWGN and the Rayleigh fading channels, and the upper bound for closed-form expressions of the Bit Error Rate (BER) performance are derived. The validity of the theoretical derivation is demonstrated by the simulations. Compared with the existing Viterbi algorithm, the proposed scheme can avoid the computing of the bit LLR and the branch metric, also it can descend the complex of the algorithm and decrease the loss of the information, improve the BER performance in the presence of Viterbi decoding algorithm which based on the M-FSK signal soft demodulation. Thus, the proposed scheme is a Viterbi decoding algorithm that is more adaptive to the actual project based on the M-FSK signal.
  • 方面级情感分析,也称细粒度情感分析,是情感分析的一个子领域,旨在识别在线评论中明确给出的方面的情感极性[1]。例如:“The restaurant environment is very good, but the waiter attitude is so bad.”在这句话中,“restaurant environment”和“waiter attitude”是两个不同的方面,可以看出,“restaurant environment”的情感极性是积极的,而“waiter attitude”的情感极性是消极的。由于两个方面的情感极性是截然相反的,因此不能仅考虑句子层面的情感极性。

    早期,情感分析问题主要采用知识工程与传统机器学习相结合的方法[2-4]。近年来,以神经网络为代表的深度学习在各个领域取得了显著进展[5-9],由于其可以自动提取特征而不需要人工干预,一些学者采用神经网络解决情感分析问题[7-9]。然而,基于神经网络的方法不能有效地区分句子中每个单词的重要程度,而且句子的情感极性不仅由内容决定,还与所涉及的方面密切相关。为此,一些学者将注意力机制引入情感分类任务中[10-14],以重点关注句子中的方面。文献[10]提出了一种基于注意力机制的长短期记忆网络模型(ATtention-based Long Short-Term Memory network with Aspect Embedding, ATAE-LSTM),当不同的方面作为输入时,注意力机制可以关注句子中的不同部分。文献[11]将记忆网络(Memory Network, MemNet)引入情感分类任务中,并结合多层注意力机制生成方面与上下文的特征表示。文献[12]认为目标和上下文都需要特殊对待,需要使用交互注意力机制来学习各自的表示,因而提出了交互式注意网络(Interactive Attention Networks, IAN)。文献[13]指出IAN模型中的池化操作会忽略句子与目标之间的词对交互,需要以联合的方式对方面和句子进行建模,为此提出一种新的交互注意力模块(Attention-Over-Attention, AOA)。文献[14]提出了一种方面-上下文交互表示结构,该结构通过使用多头注意力机制来生成方面和上下文的特征表示。

    虽然注意力机制与传统神经网络相结合的方法已经取得了一定效果,但是这类方法忽略了句子中方面与上下文词之间的句法依存信息以及位置信息,可能导致注意力机制难以学习到合适的注意力权重。具体来说,现有的注意力机制可能导致给定的方面错误地将句法上不相关的上下文词识别为情感词。为了解决这一问题,一些学者将图神经网络(Graph Neural Network, GNN)引入情感分类任务中[15,16],使得句法依存信息得到了有效的利用。文献[15]使用图卷积网络(Graph Convolutional Network, GCN)从句子的依赖树中学习节点表示,并结合注意力机制将其用于情感分类任务。文献[16]提出了一种基于GCN的方面级情感分类模型,该模型可以有效地捕捉句子中多个方面之间的情感依赖关系。此外,方面与上下文词之间的位置信息对识别方面的情感极性来说也是至关重要的,句子中与方面相邻的词要比其他距离较远的词受到更多的关注。为了合理地利用位置信息,文献[17]提出了一种位置感知双向注意力网络模型(Position-aware Bidirectional Attention Network, PBAN),该模型不仅关注方面的位置信息,还利用双向注意力机制相互建模方面和句子之间的关系。文献[18]提出一种基于依存树及距离注意力的句子属性情感分类模型(Dependency Tree and Distance Attention, DTDA),该模型通过计算句子中方面与上下文词的相对距离与语法距离,构造包含语义信息和距离信息的句子特征表示。需要注意的是,上述方法大多对句法依存信息以及位置信息进行单独建模,依存信息以及位置信息并没有得到有效的利用,这使得注意力机制的作用没有得到充分的发挥。为此,本文提出一种面向方面级情感分析的交互图注意力网络模型(an Interactive Graph ATtention networks, IGATs)。本文的贡献如下:

    (1)本文对句子中方面与上下文词之间的句法依存信息与位置信息进行了有效的建模,使得模型不仅能够学习到位置信息,还能够捕获到词与词之间的句法依存关系;

    (2)模型使用交互注意力机制建模方面与上下文词之间的语义关系,并分别生成方面与上下文的表示,以判断方面的情感极性;

    (3)本文在3个公开数据集上评估模型的性能,实验结果表明,该模型对不同数据集的准确率(Accuracy, Acc)与宏平均F1值(Macro average F1, MF1)均有所提升,并进一步证明了句法依存信息与位置信息对模型的重要性。

    本文借助Spacy文本处理库中的依存解析器生成句子的句法依存树。以“Its size is ideal but the weight is unacceptable.”为例,其依存树结构如图1所示。其中,黄色字体表示方面词,红色字体表示情感词,有向边表示依存关系,标签表示依存关系类型。为了使句法结构的作用得以充分发挥,本文使用图注意力网络(Graph Attention Network, GAT)编码句法依存树,以捕获词与词之间的句法依存关系。

    图  1  句法依存树

    图注意力网络(GAT)[19]是GNN的一种变体,它通过使用多头注意力机制聚集邻居节点的表示来迭代更新每个节点的表示,实现了对不同邻居节点权重的自适应分配。给定一个有N个节点的依存图(即句法依存树),设图中任意节点˙I在第i层GAT所对应的特征向量为hl+1i, hl+1iRKdl+1, K表示图注意力的头数,dl+1表示头数为1的情况下,图注意力网络输出的特征向量的维度。更新公式为

    hl+1i=Kk=1σ(jN(i)alkijWlkhlj) (1)
    alkij=exp(LeakyReLU(aTlk[WlkhliWlkhlj]))uN(i)exp(LeakyReLU(aTlk[WlkhliWlkhlu])) (2)

    其中,表示拼接操作,N(i)表示节点i的邻接节点,alkij表示第l层GAT的第k个注意力头计算出的权重系数,WlkRdl+1×dlaTlkR2dl+1是权重参数,hljRdl表示邻接节点的隐藏状态向量,LeakyReLU表示激活函数。

    IGATs模型(如图2)主要由词嵌入层与LSTM层、位置嵌入层、GAT层、交互注意力层与输出层5部分组成。模型的组件在本节其余部分单独介绍。

    图  2  IGATs模型

    给定一个包含n个词的句子(w1,w2,,wa+1,,wa+m,,wn1,wn),其中,(wa+1,wa+2,,wa+m)表示有m个词的方面(可以是方面词或方面短语)。本文首先使用嵌入矩阵ER|V|×de将每个单词嵌入到低维实值向量空间中,其中,|V|表示词表的大小,de表示词嵌入的维数;然后,将初始化的单词向量输入到BiLSTM中,以生成句子的隐藏状态向量H=(h1,h2,,ha+1,,ha+m,,hn1,hn);最后通过copy操作与mask操作分别生成上下文的隐藏状态向量Hc=(hc1,hc2,,hca+1,,hca+m,,hcn1,hcn)与方面的隐藏状态向量Ha=(0,,haa+1,,haa+m,,0),其中hiR2dh表示第i个词的隐藏状态向量,dh为单向LSTM的输出维数。

    位置嵌入层(Position Embedding, PE)采用方面与上下文词之间的距离来衡量二者的相关性,距离分为语法距离和相对距离。语法距离可由句法依存树得到,设方面词wa与上下文词wi之间的语法距离为di,文献[18]将di定义为二者在依存树中的路径长度,语法距离特征计算公式为

    si={1di2dmax (3)

    通过计算式(3)可以得到句子中方面与上下文词之间的语法距离特征向量{\boldsymbol{S}} = ({s_1},{s_2}, \cdots ,{s_n})。其中, {d_{\max }} 表示路径长度的最大值, {s_i} 表示方面与上下文词 {w_i} 之间的语法距离特征。若方面为短语,则以该短语中距离依存树根节点最近的一个单词作为方面词。相对距离可由方面与上下文词在句子中的路径长度得到,相对距离特征计算公式为

    {r_i} = \left\{ \begin{aligned} & 1 - \frac{{a + 1 - i}}{n},\; 1 \le i < a + 1 \hfill \\ & 0, \qquad\qquad \quad\;\; a + 1 \le i \le a + m \hfill \\ & 1 - \frac{{i - a - m}}{n}, a + m < i \le n \hfill \\ \end{aligned} \right. (4)

    通过计算式(4)可以得到句子中方面与上下文词之间的相对距离特征向量{\boldsymbol{R}} = ({r_1},{r_2}, \cdots ,{r_n}),其中 {r_i} 表示方面与上下文词 {w_i} 之间的相对距离特征。然后,结合语法距离特征和相对距离特征生成新的距离特征表示

    {p_i} = \frac{{{r_i} + {s_i}}}{2} (5)

    其中, {p_i} 表示句子中方面与上下文词 {w_i} 之间的距离特征。最后,通过引入距离特征更新句子的隐藏状态,新生成的句子特征表示包含了单词的语义信息和位置信息。更新公式为

    {{\boldsymbol{h}}_i} = {p_i}{{\boldsymbol{h}}_i} (6)

    本文使用GAT捕获句子中方面与上下文词之间的句法依存关系,GAT层的初始输入为位置嵌入层的输出,为了使位置嵌入层的作用得以充分发挥,本文对每层GATs的输入都进行了位置嵌入,由前文可知, l 层GATs的输出结果为{{\boldsymbol{H}}^l} = \{ {\boldsymbol{h}}_1^l, {\boldsymbol{h}}_2^l, \cdots ,{\boldsymbol{h}}_{a + 1}^l, \cdots ,{\boldsymbol{h}}_{a + m}^l, \cdots ,{\boldsymbol{h}}_{n - 1}^l,{\boldsymbol{h}}_n^l\}, {\boldsymbol{h}}_i^l \in {R^{2K{d_{{h}}}}}

    交互注意力层(Interactive Attention layer, IAtt)使用交互注意力机制建模方面与上下文之间的语义关系,并分别生成方面和上下文的表示。由于GAT层采用多头注意力机制来更新节点的隐藏状态,拼接操作会导致模型参数过多,为了防止过拟合,本文首先引入线性层对GAT层的输出进行降维

    {{\boldsymbol{h}}_i} = {\boldsymbol{Wh}}_i^l + {\boldsymbol{b}} (7)

    其中,{\boldsymbol{W}} \in {R^{2{d_{{h}}} \times 2K{d_{{h}}}}}{\boldsymbol{b}} \in {R^{2{d_{{h}}}}}分别是权重参数和偏置项。然后,本文借助mask操作与copy操作分别生成面向方面的特征向量{\boldsymbol{A}} = \{ 0, \cdots ,{{\boldsymbol{a}}_{a + 1}}, \cdots ,{{\boldsymbol{a}}_{a + m}}, \cdots ,0\}与面向上下文的特征向量{\boldsymbol{C}} = \{ {{\boldsymbol{c}}_1},{{\boldsymbol{c}}_2}, \cdots ,{{\boldsymbol{c}}_{a + 1}}, \cdots , {{\boldsymbol{c}}_{a + m}}, \cdots ,{{\boldsymbol{c}}_{n - 1}},{{\boldsymbol{c}}_n}\},通过计算上下文的隐藏状态向量 {\boldsymbol{h}}_i^{\text{c}} \in {{\boldsymbol{H}}^{\text{c}}} 与面向方面的向量 {{\boldsymbol{a}}_i} \in {\boldsymbol{A}} 之间的语义相关性 {\beta _t} ,并为每个上下文词 {\boldsymbol{h}}_t^c 分配相关的注意力权重 {\alpha _t}

    {\beta _t} = \sum\limits_{i = 1}^n {{\boldsymbol{a}}_i^{\text{T}}} {\boldsymbol{h}}_i^{\text{c}} \quad (8)
    {\alpha _t} = \frac{{\exp ({\beta _t})}}{{\displaystyle\sum\limits_{i = 1}^n {\exp ({\beta _i})} }} (9)
    {\boldsymbol{c}} = \sum\limits_{t = 1}^n {{\alpha _t}{\boldsymbol{h}}_t^{\text{c}}}\qquad (10)

    通过计算方面的隐藏状态向量 {\boldsymbol{h}}_i^{\text{a}} \in {{\boldsymbol{H}}^{\text{a}}} 与面向上下文的向量 {{\boldsymbol{c}}_i} \in {\boldsymbol{C}} 之间的语义相关性 {\phi _t} ,为每个方面词 {\boldsymbol{h}}_t^{\text{a}} 分配相关的注意力权重 {\varphi _t}

    {\phi _t} = \sum\limits_{i = a + 1}^{a + m} {{\boldsymbol{c}}_i^{\text{T}}} {\boldsymbol{h}}_i^{\text{a}}\quad (11)
    {\varphi _t} = \frac{{\exp ({\phi _t})}}{{\displaystyle\sum\limits_{i = a + 1}^{a + m} {\exp ({\phi _i})} }} (12)
    {\boldsymbol{a}} = \sum\limits_{t = a + 1}^{a + m} {{\varphi _t}{\boldsymbol{h}}_t^{\text{a}}} \qquad (13)

    最后将生成的方面表示 {\boldsymbol{a}} 与上下文表示 {\boldsymbol{c}} 进行拼接得到最终的表示 {\boldsymbol{r}} ,其中{\boldsymbol{r}} \in {R^{4{d_{{h}}}}}

    本文将获得的最终表示 {\boldsymbol{r}} 输入到全连接层,最后通过\rm{softmax}进行分类输出

    p{\text{ = softmax(}}{{\boldsymbol{W}}_p}{\boldsymbol{r}}{\text{ + }}{{\boldsymbol{b}}_p}{\text{)}} (14)

    其中, p \in {R^{{d_p}}} 为极性决策空间, {d_p} 表示情感标签的维数,{{\boldsymbol{W}}_p} \in {R^{{d_p} \times 4{d_{{h}}}}} {{\boldsymbol{b}}_p} \in {R^{{d_p}}} 分别是权重参数和偏置项。模型的损失函数采用交叉熵损失函数,使用标准的梯度下降法进行训练

    {\rm{loss = - }}\sum\limits_{i = 1}^{{d_p}} {{y_i}} \lg {p_i} + \lambda {\left\| {\rm{\theta }} \right\|_2} (15)

    其中, y \in {R^{{d_p}}} 为真实概率分布, i 为概率分布 y p 的第 i 个元素, \lambda 是L2正则化系数。

    为了验证IGATs模型的有效性,本文在3个公开的数据集上进行了实验,分别是Twitter数据集[7]、Laptop数据集 [1]、Restaurant数据集 [1]。这些数据集包含3个标签(即 {d_p} = 3 ),分别是积极(Positive)、中性(Neutral)、消极(Negative)。数据集统计结果如表1所示。

    表  1  数据集统计
    数据集积极中性消极
    Twitter-train156131271560
    Twitter-test173346173
    Laptop-train994464870
    Laptop-test341169128
    Restaurant-train2164637807
    Restaurant-test728196196
    下载: 导出CSV 
    | 显示表格

    本文的实验平台如表2所示,实验主要采用Facebook的Pytorch-GPU深度学习框架与Spacy文本处理库,使用python3.7实现。

    表  2  实验平台
    实验环境具体信息
    操作系统Windows 10 教育版
    CPUIntel(R) Core(TM) i7-7700 CPU @ 3.60 GHz
    内存16.0 GB
    显卡GTX 1080
    显存8.0 GB
    下载: 导出CSV 
    | 显示表格

    本文使用300维的GloVe向量[20]初始化单词嵌入,模型的所有权重参数均采用均匀分布进行初始化。GAT的层数设置为1,图注意力头数设置为1,此时模型的效果最好。模型的超参数设置如表3所示。

    表  3  超参数设置
    超参数超参数值数量
    词嵌入维度300
    隐藏状态向量维度300
    Batch size16
    训练迭代次数epoch100
    优化器OptimizerAdam
    学习率Learning rate0.001
    Dropout rate0.3
    L2正则化系数0.00001
    下载: 导出CSV 
    | 显示表格

    模型采用精准率(Precision, P)、召回率(Recall, R)、准确率(Acc)与宏平均F1值(MF1)等作为评价指标。对于单个类别,设TP为正确预测的样本, {\text{FP}} 为其他类别被预测为当前类别的样本, {\text{FN}} 为当前类别被预测为其他类别的样本,则 {{P}} , R, {\text{F1}} 值的计算公式为

    {{P = }}\frac{{{\text{TP}}}}{{{\text{TP + FN}}}} (16)
    {{R = }}\frac{{{\text{TP}}}}{{{\text{TP + FP}}}} (17)
    {\text{F1}} = \frac{{2 \times {{P}} \times {{R}}}}{{{{P}} + {{R}}}} (18)

    对于 {d_p} 个类别,准确率 {{\rm{Acc}}} {{\rm{MF}}} 1 的计算公式为

    \qquad {\text{Acc}} = \frac{{\displaystyle\sum\limits_{i = 1}^{{d_p}} {{\text{T}}{{\text{P}}_i}} }}{{\displaystyle\sum\limits_{i = 1}^{{d_p}} {({\text{T}}{{\text{P}}_i} + {\text{F}}{{\text{P}}_i} + {\text{F}}{{\text{N}}_i})} }} (19)
    \qquad {\text{MF1}} = \frac{1}{{{d_p}}}\sum\limits_{i = 1}^{{d_p}} {{\text{F}}{1_i}} (20)

    其中,MF1值是指所有类别的F1值的平均,模型重复运行3次,取Acc最高的一次作为最终结果。

    为了评估本文的模型,将它与一系列基准模型进行比较,各个模型简介如下所示:

    SVM[4]:采用有监督的机器学习方法检测方面术语和方面类别,并检测客户评论中对方面术语和方面类别表达的情感。

    LSTM[9]:一种目标相关的长短期记忆(LSTM)模型,该方法在生成句子表示时可以捕捉目标词和其上下文之间的联系,以用于目标相关的情感分类。

    MemNet[11]:采用深度记忆网络与多层注意力机制相耦合的方法进行情感分类。

    IAN[12]:使用两个注意力网络交互地建模目标与上下文之间的语义关系,并分别生成目标与上下文的表示,为判断方面的情感极性提供了足够的信息。

    AOA[13]:对方面和句子进行联合建模,以捕捉方面和上下文之间的相互作用,共同学习方面和句子的表示,并自动地关注句子中的重要部分。

    AOA-MultiACIA[14]:一种新的方面-上下文交互表示模型,它能够在其上下文序列建模过程中提取与特定方面相关的特征,并同时生成高质量的方面表示。

    ASGCN[15]:通过在句子的句法依存树上构建多层GCN以捕获句法依存信息,并结合注意力机制进行情感分类。

    GATs[19]:使用GAT模型进行情感分类,GAT模型描述如2.2节所示。

    表4给出了各个模型在3个数据集上的性能对比。可以看出,虽然SVM模型在Laptop和Restaurant数据集上的性能优于LSTM模型,但是它依赖人工特征提取,费时费力且效率低下。基于注意力机制的模型(如MemNet, IAN, AOA, AOA-MultiACIA)性能均优于LSTM模型,这表明注意力机制在情感分析任务中是有效的,而且采用交互注意力机制的IAN与AOA模型性能要优于采用传统注意力机制的MemNet模型,甚至不亚于将句法依存信息考虑在内的ASGCN模型,这表明方面与上下文词都需要受到关注,而且二者之间的交互有利于情感信息的传播,并最终提升情感预测模型的性能。

    表  4  各个模型的性能对比(%)
    模型TwitterLaptopRestaurant
    准确率(Acc)宏平均F1准确率(Acc)宏平均F1准确率(Acc)宏平均F1
    SVM63.4063.3070.49N/A80.16N/A
    LSTM69.5667.7069.2863.0978.1367.47
    MemNet71.4869.9070.6465.1779.6169.64
    IAN72.5070.8172.0567.3879.2670.09
    AOA72.3070.2072.6267.5279.9770.42
    AOA-MultiACIA72.4069.4075.2770.2482.5972.13
    ASGCN72.1570.4075.5571.0580.7772.02
    GATs73.1271.2574.6170.5180.6370.41
    IGATs75.2973.4076.0272.0582.3273.99
    下载: 导出CSV 
    | 显示表格

    然而,上述模型要么只考虑句法依存信息或位置信息,要么只关注于方面与上下文词之间的交互,难以实现二者之间的协调优化。为此,本文提出一个新的模型,即IGATs。可以看出,IGATs在3个数据集上的Acc与MF1值整体上优于其他模型。相较于仅包含多层注意力机制的AOA-MultiACIA模型,IGATs在Twitter数据集上的Acc与MF1分别提升了2.89%和4%,在Laptop数据集上的Acc与MF1分别提升了0.75%和1.81%,在Restaurant数据集上的MF1提升了1.86%,这表明句法依存信息与位置信息有利于识别方面的情感极性,而且Twitter数据集对句法信息与位置信息更加敏感。需要注意的是,IGATs在Restaurant数据集上的Acc稍低于AOA-MultiACIA模型,这是因为该模型采用多层交互注意力机制,它能够在上下文序列建模过程中提取与特定方面相关的特征,并生成高质量的方面表示。相较于将句法依存信息与相对位置信息考虑在内的ASGCN模型,IGATs在Twitter数据集上的Acc与MF1分别提升了3.14%和3%,在Laptop数据集上的Acc与MF1分别提升了0.47%和1%,在Restaurant数据集上的Acc与MF1分别提升了1.55%和1.97%,相较于将句法依存信息与位置信息考虑在内的GATs模型,IGATs在各个数据集上的Acc与MF1也均有所提升,这表明依存信息与位置信息需要结合交互注意力网络才能发挥更好的效果。

    除此之外,文章统计了各个模型的可训练参数数量(1M=1Million),如表5所示。由于SVM模型采用人工提取特征的方法进行情感分类,模型性能的好坏很大程度上取决于特征工程,其效率很低。MemNet模型的参数数量最少,其性能虽然优于LSTM,但是仍不及其他模型;IAN模型的参数规模与ASGCN相当,然而其在Laptop与Restaurant上的性能远不及ASGCN;AOA模型借鉴了IAN模型的交互注意力机制,其模型计算复杂度不亚于IAN,但是二者性能很接近;AOA-MultiACIA模型在AOA模型的基础上叠加了多层多头注意力机制,虽然其在各个数据集上的性能不亚于ASGCN,但是模型计算复杂度远高于AOA,更高于ASGCN;GATs模型的参数规模比ASGCN少,二者性能却十分接近,因此,模型效率高于ASGCN模型;IGATs模型的参数规模与GATs接近,但是其性能整体上优于其他模型,这表明IGATs模型的效率远高于其他模型。

    表  5  各个模型的可训练参数数量(M)
    模型可训练参数数量
    SVM
    LSTM0.72
    MemNet0.36
    IAN2.17
    AOA2.10
    ASGCN2.17
    GATs1.81
    IGATs1.81
    下载: 导出CSV 
    | 显示表格

    为了进一步检查IGATs的每个组件对性能的影响,本文对IGATs进行了消融研究,具体如下:

    BiLSTM+IAtt:模型由LSTM层与IAtt层组成,LSTM层用来学习句子的语义特征表示,IAtt层用来建立方面与上下文词之间的语义关系。

    BiLSTM+GAT+IAtt:模型仅在LSTM层后新增了一个GAT层,用来捕获方面与上下文词之间的句法依存关系。

    BiLSTM+PE+IAtt:模型仅在LSTM层后新增了一个PE层,用来将位置信息嵌入到句子的语义特征表示中。

    IGATs:完整的模型,不仅考虑了位置信息,还考虑了句法依存信息。

    各个模型的性能对比如表6所示。可以看出,BiLSTM+IAtt模型在3个数据集的Acc与MF1值整体上不及其他模型,这表明句子中方面与上下文词之间的句法依存信息与位置信息是不可忽略的。BiLSTM+GAT+IAtt模型的性能整体上优于BiLSTM+IAtt模型,但仍不及IGATs,这表明虽然句法依存信息有利于识别方面的情感极性,但是也不能忽略了位置信息的影响。BiLSTM+PE+IAtt模型的性能在Twitter数据集上比IGATs低,在Laptop数据集上要优于IGATs,在Restaurant数据集上的性能接近IGATs,这表明相较于句法依存信息,Laptop对位置信息更敏感。由此可见,PE层对IGATs模型的贡献最大,其次是GAT层,但是也不能忽视GAT层的影响。

    表  6  消融研究(%)
    模型TwitterLaptopRestaurant
    准确率(Acc)宏平均F1准确率(Acc)宏平均F1准确率(Acc)宏平均F1
    BiLSTM+IAtt74.1372.8675.0870.8281.2572.14
    BiLSTM+GAT+IAtt74.8672.9874.9271.0882.0573.45
    BiLSTM+PE+IAtt74.4272.3576.6572.7582.2374.01
    IGATs75.2973.4076.0272.0582.3273.99
    下载: 导出CSV 
    | 显示表格

    由于GAT层包含多层GAT,每层GAT又可能包含多个图注意力头,不能忽视这些因素对模型性能的影响。因此,本文研究了GAT头数 K 为1的情况下,GAT层数 L 对IGATs性能的影响。通过改变 L \in \{ 1,2,3,4,5,6,7,8,9,10\} 的值,测试IGATs在Restaurant数据集上的Acc和MF1值。实验结果如图3所示。可以看出,IGATs的准确率Acc随着 L 的增加而下降,MF1值在层数小于5的情况下比较稳定,在层数为5的情况下取得最大值,随后开始下降。

    图  3  GAT层数L对模型性能的影响

    除此之外,本文也研究了GAT层数为1的情况下,图注意力头数K对IGATs最终性能的影响。通过改变K∈{1, 2, 3, 4, 5, 6, 7, 8, 9, 10}的值,测试IGATs在Restaurant数据集上的Acc和MF1值。实验结果如图4所示。可以看出,IGATs的准确率Acc随着K的增加整体呈现下降趋势,MF1值在图注意力头数为6时最大,随后开始下降。综合各方面因素,本文将GAT层数以及图注意力头数均设为1。

    图  4  GAT头数K对模型性能的影响

    本文提出一种面向方面级情感分析的交互图注意力网络模型(IGATs)。首先,通过计算方面与上下文词之间的语法距离与相对距离实现了位置信息的利用;其次,通过构建句法依存树和图注意力网络实现了句法依存信息的融合;最后,通过建立方面与上下文词之间的交互注意力模型,实现了两者之间的协调优化。实验结果表明IGATs能够有效捕获方面与上下文词之间的句法依存信息和位置信息,模型在多个数据集上的评价性能都得到了显著提升。同时,模型仍然存在一些有待研究的内容,例如,没有考虑方面与上下文词之间的依存关系标签以及词性对任务的影响,这些将在今后的工作中进行完善。

  • Elias P. Coding for noisy channels[C]. 1955 IRE Convention Record, 1955: 37-47.
    Viterbi A J. Error bounds for convolutional codes and an asymptotically optimum decoding algorithm[J]. IEEE Transactions on Information Theory, 1967, 13(2): 260-269.
    Kene J D and Kulat K D. WiMAX physical layer optimization by implementing SOVA Decoding algorithm[C]. Proceedings of 2014 International Conference on Circuits, Systems, Communication and Information Technology Applications (CSCITA), Mumbai, India, 2014: 179-183.
    Kudeshia A and Jagannatham A K. Optimal viterbi based total variation sequence detection(TVSD) for robust image/video decoding in wireless sensor networks[J]. IEEE Signal Processing Letters, 2014, 21(6): 722-726.
    Chen Tao, Chen Bo, Xu Ding-hai, et al.. Channel quality estimation with MMSE filter and Viterbi decoding for airborne communications[C]. Proceedings of 2014 Integrated Communications, Navigation and Surveillance Conference (ICNS), Herndon, USA, 2014: 8-10.
    Li Yang, Liu Kui-sheng, Tao Ran, et al.. Adaptive Viterbi- based range-instantaneous doppler algorithm for ISAR imaging ship target at sea[J]. IEEE Journal of Oceanic Engineering, 2014, DOI: 10.1109/JOE.2014.2312237.
    黄远达, 熊蔚明, 孙辉先. 采用辅助网格的4D-8PSK-TCM维特比译码[J]. 空间科学学报, 2008, 28(6): 578-583.
    Huang Yuan-da, Xiong Wei-ming, and Sun Hui-xian. Auxiliary trellis based Viterbi decoding algorithm research of 4D-8PSK-TCM[J]. Chinese Journal of Space Science, 2008, 28(6): 578-583.
    臧国珍, 宋贝, 田冲. 差分协同信号的维特比译码接收[J]. 军事通信技术, 2013, 34(1): 17-20.
    Zang Guo-zhen, Song Bei, and Tian Chong. Viterbi decoding for differential cooperative communication[J]. Journal of Miltary Communications Technology, 2013, 34(1): 17-20.
    Morishima Y, Oka I, and Ata S. Pulse interference mitigation techniques for QPSK and QAM using Viterbi decoding[C]. Proceedings of 2010 International Symposium on Information Theory and its Applications (ISITA), Taichung, 2010: 639-643.
    罗宁. 一种高速数传接收机的高效维特比译码结构设计[J]. 信息通信, 2013(2): 80-81.
    Luo Ning. A high efficient viterbi decoding structure in high data rate receiver[J]. Information Communications, 2013(2): 80-81.
    Saleh T S, Marslan I, and Ei-Tanany M. Simplified LLR-based Viterbi decoder for convolutional codes in symmetric alpha-stable noise[C]. Proceedings of 2012 25th IEEE Canadian Conference on Electrical Computer Engineering (CCECE), Montreal, Canada, 2012: 1-4.
    Hagenauer J and Hoeher P. A Viterbi algorithm with soft-decision outputs and its applications[C]. Proceedings of 1989 IEEE Global Telecommunications Conference and Exhibition Communications Technology for the 1990s and Beyond (GLOBECOM), Dallas, USA, 1989: 1680-1686.
    程郁凡, 裴亚丽, 李少谦. 一种4FSK软解调方法[P]. 中国, 200610020632.X, 2009-3-18.
    Viterbi A J. An intuitive justification and a simplified implementation of the MAP decoder for convolution code[J]. IEEE Journal on Selected Areas in Communications, 1998, 16(2): 260-264.
    Proakis J G and Salehi M. Digital Communications[M]. 5th Edition, New York: McGraw-Hill, 2008: 45-48, 109-110, 491-516.
  • 加载中

Catalog

    通讯作者: 陈斌, bchen63@163.com
    • 1. 

      沈阳化工大学材料科学与工程学院 沈阳 110142

    1. 本站搜索
    2. 百度学术搜索
    3. 万方数据库搜索
    4. CNKI搜索

    Article Metrics

    Article views (2303) PDF downloads(705) Cited by()
    Proportional views
    Related

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return