Sparse Array Design Methods Based on Hole Analysis of the Coprime Array
-
摘要: 针对互质阵列产生连续延迟较少且冗余度高的问题,该文提出了两种基于互质阵列的稀疏设计方法。首先,通过分析阵元位置对互质阵列差分共阵总延迟和连续延迟影响,得出互质阵列在去掉特定阵元后,将不改变连续延迟拓扑。然后,优化传感器阵列布局,在保持整个阵列的阵元数不变的条件下,增加阵列连续延迟数量。其后,分别推得了两种提出阵列设计方法的连续延迟和自由度相关的数学表达式。最后,以相同物理传感器和相同估计方法开展对比仿真,验证提出稀疏阵列设计的DOA估计性能。Abstract: For the problem of a low number of consecutive lags and high redundancy of sensors in the coprime array, two sparse arrays are proposed in this paper. First, by analyzing the influence of the sensor positions on the unique lags and consecutive lags of the difference coarray, it is concluded that the range of the consecutive lags in the coprime array is not changed after removing the specific sensors. Then, entire array structure is optimized while keeping the number of sensors unchanged, increasing the number of consecutive lags. Afterward, mathematical expressions of the consecutive lags and degree of freedoms of the proposed arrays are derived respectively. Finally, simulations are carried out with the same physical sensors and the identical estimation method to verify the DOA estimation performance of the proposed sparse arrays.
-
Key words:
- Coprime array /
- Sparse array /
- Correlation lags /
- Direction-Of-Arrival (DOA) estimation
-
1. 引言
电子病历文本常常以非结构化的形式存在,从中提取出关键的医学实体信息对进一步研究患者的疾病有很大的帮助,是对医学领域进行信息挖掘的重要资源,是顺利进行后续下游任务的一个关键步骤。在中文电子病历中,命名实体识别(Named Entity Recognition,NER)任务拥有广阔的应用场景,比如:临床决策系统[1]、医学信息检索[2]、智能问答系统[3]等。因此,NER对于医疗领域中病历信息的处理具有重要的研究价值。
现阶段,深度学习在自然语言处理(Natural Language Processing, NLP)领域取得显著进步。Wu等人[4]构建一种联合卷积神经网络(Convolutional Neural Network, CNN)、长短时记忆网络(Long Short-Term Memory, LSTM)、条件随机场(Conditional Random Fields, CRF)的体系结构来捕获本地和远程的上下文特征。Dong等人[5]基于LSTM-CRF模型融入部首语义信息来提取实体。Xu等人[6]提出了中文命名实体识别的多重嵌入(Multiple Embeddings for Chinese Named Entity Recognition, ME-CNER)模型,嵌入多个字符表示来识别实体。Zhang等人[7]将注意力机制应用于嵌入层,实现多粒度嵌入。深度学习方法泛化能力强,能够自动挖掘深层特征。因此,本文选择基于深度学习的方法完成命名实体识别任务。
命名实体识别技术[8]发展迅速,已经在各个领域中得到应用。张乐等人[9]针对军事领域军事实体边界模糊[10]的问题,提出基于预训练语言模型(Bidirectional Encoder Representation from Transformers, BERT)的深度学习识别方法。郭力华等人[11]设计出一种利用最大正向匹配策略和社区注意力机制(the Forward Maximum Matching strategy and Community Attention Mechanism, FMM-CAM)的法律文书命名实体识别方法,该方法能有效提取出法律文书中的实体信息。在医疗领域,Ji等人[12]针对标签不一致问题,设计出一种联合注意力,双向长短期记忆网络(Bi-directional Long Short-Term Memory, BiLSTM)和CRF的模型。然而,目前NER对于医学文本中出现的专业词语还是无法精确的辨识[13],对BERT[14]等模型的研究和应用还不够深入。因此,对于医疗领域的文本资料进行NER研究,仍然有着重大的意义。
本文提出一种新的中文医疗实体识别方法,称为结合多特征嵌入和多网络融合的模型(combining Multi-Feature Embedding and Multi-Network Fusion model, MFE-MNF)。本模型推导一种多特征嵌入的方法提取特征向量,并将多特征嵌入向量分别输入到BiLSTM和本文构建的自适应图卷积网络等双通道中捕获上下文语义信息和全局语义信息。基于CCKS2019和CCKS2020数据集的实验评估,本文为NER方法在中国医学领域的实施提供了一些有价值的见解和观点。
2. 中文医疗文本的多特征嵌入
2.1 字符嵌入
字符是组成文本的基础单位,本文采用BERT
1 模型捕获字符嵌入,将文本序列转换成为机器能够识别的字符向量。假设s={c1,c2,⋯,cn}描述文本中的一句话,则ci(1≤i≤n)代表语句中的第i个字,其对应的字符向量是xcixci=ec(ci) (1) 2.2 单词嵌入
通过与词典信息进行匹配,将字符所对应的单词表示[15]为wci={wci1,wci2,⋯,wcij},其中wcij表示的是从第i个字符开始的、长度为l的单词。其中步长为l的所有单词组成集合为wci,l={wci,1l,wci,2l,⋯,wci,kl},其中wci,kl表示的是从第i个字符开始匹配得到的第k个步长为l的单词,使用BERT预训练语言模型获取单词特征表示,第i个字符所对应的单词向量为xwi
xwi=ew(wci) (2) 2.3 多语义词典
本文创建了多语义词典,即单词词典和部首字典。从搜狗词库医学板块
2 下载医学词汇大全词典,并将其转换为可用格式,构造单词词典。在单词词典中包括了90047个医学名词。通过对CCKS2019和CCKS2020数据集遍历,得到一个包含所有不重复字的集合,爬取新华字典2 ,找到与所有字相对应的部首信息,构建一个部首字典。在该字典中总共包含12649个键值对,其中2041个字有多个部首,193个字等于它们自己的部首。2.4 字形嵌入
中国汉字是象形文字,其偏旁部首中蕴含着特殊的含义,比如:“疒”部首代表着属于疾病类型的实体词,“月”部首代表着属于身体器官类型的实体词。本文采用CNN提取字形的部首特征。通过与部首字典匹配,得到字符对应的部首序列集合为rci={rci1,rci2,⋯,rcij},其中rcij表示与第i个字符匹配的部首,对应的部首向量为xri
xri=pool(Conv(rci)) (3) 2.5 知识嵌入
HowNet
2 语言知识库中拥有丰富的语义资源,其是由义原信息组成的。知识嵌入模块从HowNet提供的义原信息中获得外部知识,并构建一棵语义树,知识嵌入的步骤如下:步骤1 构造语义树。以HowNet为知识库基线,通过义原表征出语义关系,构造一颗语义树。在每个词中融合了语义树的信息,为词提供更加细粒度的解释。
步骤2 使用注意力机制提取知识特征。具体过程如图1所示。
对于每个概念单词w,首先通过检索HowNet知识库整体得到每个单词的义原S(w)j,构建义原集合Sememe(w)={S(w)1,S(w)2,⋯,S(w)l}。每个单词的词义向量由其对应的义原向量相加求均值得到。引入注意力机制获得每个单词的关注分数,利用上下文信息获得中心词的义原信息的关注程度,灵活地选择出更符合语境的义原信息,提升中心词的表示能力。最终将所有的义原信息累加得到单词w的知识特征向量
xyi=|S(w)|∑i=1att(S(w)j)⋅S(w)j (4) 其中,S(w)j表示与词w相似的第j个词的嵌入表示,att(S(w)j)表示每个概念单词的注意力分数
att(S(w)j)=exp(w′c⋅ˆSj(W))|S(W)|∑k=1exp(w′c⋅ˆSK(W)) (5) 其中,w′c表示上下文嵌入,ˆSj(W)表示义原信息的平均值。
多特征嵌入层是指将多个特征融合嵌入,结合多语义词典,实现多粒度的实体提取,多特征嵌入如图2所示。对于输入的一段文本序列s={c1,c2,⋯,cn},其中字符特征向量xci∈Rdc,单词特征向量xwi∈Rdw,部首特征向量xri∈Rdr,知识特征向量xyi∈Rdy融合嵌入公式为
xcwryi=xci⊕xwi⊕xri⊕xyi (6) 其中,dc代表字符特征向量的维度,dw代表单词特征向量的维度,dr代表部首特征向量的维度,dy代表知识特征向量的维度,i∈{1,2,⋯,n}。
3. 模型设计
3.1 多特征嵌入层
提取医学实体时可以分别从字符、单词、字形、义原4个粒度提取语义特征,并构建多语义词典,准确提取语义特征。义原是最小的语义单位,每个词都可以由若干个义原来组合表示。图2展示了多个特征嵌入的模型结构。图3展示了句子“入院后诊断为阑尾炎”的语义树的形成过程。
3.2 BiLSTM层
将嵌入层输出的向量输入到BiLSTM层中,用来获取上下文语义信息。BiLSTM能够捕获双向的隐藏层状态,通过拼接双向隐藏层输出,建模上下文信息。
3.3 自适应图卷积网络层
本文构建一种新的网络模型——自适应图卷积网络(Adaptive Graph Convolutional Network, AGCN)来融合邻近节点特征。具体实现步骤如下所示:
首先,构建语义丰富的字符图,使用滑动窗口扫描文本捕获信息。对于一个文本字符序列V={c1,c2,⋯,cn},其中ci(1≤i≤n)表示文本中的第i个字。假设滑动窗口的宽度为W,以步长为l前进,取得滑动窗口字符集为S={S1,S2,⋯,Sn},其中Sk(k=1,2,⋯,n)表示在时刻 k的窗口字符间联系。
其次,使用点互信息[16](Pointwise Mutual Information, PMI)来计算字符图中每两个节点之间的关联度,边的权重计算公式如下,如果值大于0,说明两个字符之间存在关联,权重值为PMI值,如果值小于0,说明两个字符之间不存在关联
Ai,j={PMI(ci,cj),PMI(ci,cj)>01,ci=cj0,PMI(ci,cj)<0 (7) 其中,PMI(ci,cj)是指两个字符ci和cj之间的关联度,主要的计算公式为
PMI(ci,cj)=lgp(ci,cj)p(ci)p(cj) (8) p(ci,cj)=m(ci,cj)|S| (9) p(ci)=m(cj)|S| (10) 其中,m(ci)表示字符ci在字符集S中出现的频率,m(ci,cj)表示字符ci和字符cj一起在字符集S中出现的频率,|S|表示字符集S的数量。
使用V表示字符集合,其作为图的节点,E表示字符序列之间的一组边,形式为E={ci,cj,PMI},使用边将各个节点连接起来构成关联图。
最后,将构造的关联图定义为G={V,E},输入一段医学文本数据,每个字符作为图中的一个节点,每个节点i对应的特征由嵌入层获得为xi,其中,xi∈Rm,m表示特征向量的维数,所有节点的特征向量拼接构成一个特征矩阵X,其中,X∈Rn×m,n表示所有n个字符节点。将X和字符关联图G输入到AGCN模型中,得到一个特征矩阵H,其中,H(1)∈Rn×k,其中k表示每个节点的隐藏层的特征维度
H(1)=σ(^AXW(0)) (11) 其中,ˆA=˜D−12˜A˜D−12,˜A表示归一化对称邻接矩阵,˜A=A+IN,A表示无向图的邻接矩阵,IN表示单位矩阵,由于邻接矩阵还包括自身的特征信息,因而加上单位矩阵,使对角线元素有值。˜D表示度矩阵,Dii=∑jAij,W(0)∈Rm×k是权重矩阵,σ为激活函数,例如ReLU激活函数。
每个节点经过图卷积层[17]获取相连的节点的特征向量和关联度,聚合节点信息,进而更新自身节点的特征向量。通过堆叠多层AGCN模型,经过N次图卷积,每个字符特征向量通过拓扑结构传播到邻近节点上,进而能够捕获全局的语义特征。逐层传播的公式为
H(l+1)=σ(ˆAH(l)W(l)) (12) 其中,H(0)=X,l表示层数。
3.4 语义融合
多头注意力容易表征特征向量内部的关联关系[18]。因此,本文采用多头注意力机制来融合BiLSTM模块提取的向量和AGCN 模块提取的向量。将经过多头注意力机制融合后的向量X输入到CRF层实行序列标注,利用最大似然方法对CRF模型进行参数优化。
4. 实验
本文实施一系列的实验以研究结合多特征嵌入和多网络融合的有效性。
4.1 数据集
CCKS2019数据集、CCKS2020数据集由医渡云技术有限公司提供。总共标注出6种实体类型,分别是疾病和诊断(Disease)、影像检查(Image-Check)、实验室检验(Lab-Check)、手术(Operation)、药物(Medicine)和解剖部位(Anatomical Site)。
由于存在标注不统一、实体位置偏差的问题,需要对输入数据进行优化处理。本文采用手工调整方式进行改正,统一英文字母大小写,将句子以句号进行分割,将文本中的标点符号“;”“:”等删除。数据预处理后,CCKS2019有1379条数据,CCKS2020有1050条数据集。
本文使用NER任务中常用的BIO标注模式。其中,B表示命名实体的开头,I表示命名实体的中间,O表示不是命名实体。中文电子病历标注结果如图4所示。
4.2 参数设置及评价指标
在实验中,设定句子的最大长度为256,长度大于256将被截断,长度不足256将使用<PAD>标签补充。采用保留验证法对超参数进行优化。使用验证集对超参数进行优化。模型的参数如表1所示。
表 1 实验参数设置参数名 数值 单位 字符嵌入维度 768 维 GCN层数 2 层 滑动窗口大小 10 字符 Dropout 0.500 – Batch_size 64 – Epoch 80 轮 学习率 0.001 – 本文采用精确度(Precision, P)、召回率(Recall, R)、F1值、计算复杂度和计算时间作为评价指标,当且仅当实体的边界和类别均被正确识别时,认为该实体才被正确识别。
4.3 对比实验结果及分析
本文选取了最具代表性的NER模型,并将它们与本文所提MFE-MNF模型进行比较。BiLSTM-CRF可以有效地提取上下文信息,是NER基本框架。Bert细化了编码单元,与Word2vec嵌入方式相比,Bert的F1值更高,表明Bert嵌入方式拥有较强鲁棒特性。ME-CNER模型采用多重嵌入,BiGRU-CRF网络作为标记器。与基线BiLSTM-CRF相比,ME-CNER在CCKS2019数据集上的F1评分提高了2.54,在CCKS2020数据集上的F1评分提高了3.18,充分显示了多重嵌入的有效性。Lattice模型[19]采用BiLSTM-CRF结构,性能略优于ME-CNER模型。Bert-GCN-CRF模型[20]利用图卷积网络来解决上下文信息获取问题,F1值得到了提升,表明GCN对于NER任务是有用的资源。
表2比较了在CCKS2019数据集上多种NER模型的结果,表3比较了在CCKS2020数据集上各种NER模型的结果。
本文所提MFE-MNF模型采用多特征嵌入的方法提取特征向量,不仅嵌入字符特征、单词特征、部首特征,而且融入了外部知识,提供了更丰富的语义信息,并结合BiLSTM和自适应图卷积网络模型,其F1值得到了提升。由此可以看出本文提出的模型优于其他模型,如表2、表3所示。
本文同时比较了不同模型的收敛时间,如图5所示。据观察,MFE-MNF模型在不同的数据集上都较先达到稳定。Lattice LSTM模型所用时间是长的,这是由于受限于模型里的batch-size,每个batch-size只能训练1个样本,大大降低了训练速度。由于Bert-BiLSTM-CRF和Bert-GCN-CRF模型都使用Bert,因此训练时间会比Word2vec-BiLSTM-CRF长。ME-CNER模型与Word2vec-BiLSTM-CRF模型的训练时间相差不大。由于本文提出的MFE-MNF模型分别采用BiLSTM和GCN提取语义,训练时间会比Word2vec-BiLSTM-CRF模型长,但远小于Lattice LSTM模型。综上所述,本文所提MFE-MNF模型是完成NER任务的一种有效的方法。
不同模型的计算复杂度和计算时间如表4所示。本文提出的MFE-MNF模型采用将transformer中self-attention层的前11层共享的方式,与其他模型相比,模型参数有所降低,并且准确率达到最高,该模型在计算复杂度、准确率方面都优于其他模型。
4.4 深度分析
本文将从以下几个方面进一步讨论MFE-MNF中各个模块对模型的影响,以证明此模型的有效性。
(1)嵌入模块。在CCKS2019数据集上对MFE-MNF模型进行消融实验,分别去除不同的特征嵌入。
表5是消融实验结果显示。加入单词嵌入、部首嵌入、义原嵌入中的任何两个(标记为“+ word + radical”, “+ word + sememe”, “+sememe+radical”),准确率较之前的实验都有所提升,并且,在有部首嵌入或者义原嵌入的实验中,性能提升得更高,表明部首嵌入和义原嵌入的重要性。
表 5 嵌入模块的消融实验(%)模型 P R F1 character 87.93 87.58 87.77 + word 89.29 88.51 89.08 + radical 89.74 89.33 89.52 + sememe 90.05 89.62 89.85 + word + radical 90.43 90.09 90.28 + word + sememe 91.01 90.37 90.74 +character+sememe+radical+word 91.45 91.09 91.21 (2)语义信息提取模块。据观察,在嵌入模块不改变的情况下,如表6所示,单独使用BiLSTM或AGCN将显著降低性能。这表明BiLSTM和AGCN确实能够增强信息的深度提取能力。
表 6 语义信息提取模块的消融实验(%)模型 P R F1 BiLSTM+AGCN 91.45 91.09 91.21 - BiLSTM 90.13 89.85 90.04 - AGCN 89.89 89.42 89.65 (3)词典与覆盖率实验。首先将训练集分为实体全部出现、实体部分出现和实体没有出现3份进行试验,验证测试集中的实体在训练集中的出现能否对实验结果产生影响。同时,验证字典对模型准确率的影响,结果如表7、表8所示。通过结果可以看出当控制词典变量不变时,增加覆盖率能够提高模型的准确率;当控制覆盖率不变时,使用词典也能够提高准确率。
表 7 基于CCKS2019数据集的词典与覆盖率实验(%)实体是否出现在训练集 没有词典 有词典 P R F1 P R F1 全部出现 90.69 90.03 90.38 91.45 91.09 91.21 部分出现 88.28 87.60 87.92 88.99 88.23 88.62 不出现 86.88 86.77 86.85 87.60 87.09 87.29 表 8 基于CCKS2020数据集的词典与覆盖率实验(%)实体是否出现在训练集 没有词典 有词典 P R F1 P R F1 全部出现 85.28 84.57 84.92 85.31 84.96 85.15 部分出现 82.82 81.14 81.46 83.53 82.77 83.13 不出现 81.42 80.31 80.77 82.14 81.63 81.83 5. 结束语
针对医疗领域实体边界确定困难以及语义信息利用不充分的问题,本文提出一种新的MFE-MNF模型,旨在充分利用汉字中蕴含的词义信息以及句子中隐藏的语义信息,提升实体识别的准确度,主要创新点在于该模型将字符、单词、部首以及外部知识融合嵌入,并引入词典信息,基本解决了分词错误、单词边界模糊的问题。并且本文提出了自适应图卷积网络模型来捕获文本结构内部的全局语义信息,使用BiLSTM捕获上下文语义信息,通过双通路提取,其在一定程度上解决了语义信息提取不完整的问题。通过在不同数据集上做对比实验,结果表明,本文提出的MFE-MNF模型准确地完成了序列标注任务,准确率比传统模型有所提高。该模型充分展现了在中文医疗领域的优越性,并表现出较好的泛化能力。接下来将考虑进一步降低时间消耗,进一步提升模型的泛化能力。
-
[1] 孙兵, 阮怀林, 吴晨曦, 等. 基于Toeplitz协方差矩阵重构的互质阵列DOA估计方法[J]. 电子与信息学报, 2019, 41(8): 1924–1930. doi: 10.11999/JEIT181041SUN Bing, RUAN Huailin, WU Chenxi, et al. Direction of arrival estimation with coprime array based on Toeplitz covariance matrix reconstruction[J]. Journal of Electronics &Information Technology, 2019, 41(8): 1924–1930. doi: 10.11999/JEIT181041 [2] WANG Xinghua, CHEN Zhenhong, REN Shiwei, et al. DOA estimation based on the difference and sum coarray for coprime arrays[J]. Digital Signal Processing, 2017, 69: 22–31. doi: 10.1016/j.dsp.2017.06.013 [3] SCHMIDT R O. Multiple emitter location and signal parameter estimation[J]. IEEE Transactions on Antennas and Propagation, 1986, 34(3): 276–280. doi: 10.1109/TAP.1986.1143830 [4] LIU Chunlin and VAIDYANATHAN P P. Remarks on the spatial smoothing step in coarray MUSIC[J]. IEEE Signal Processing Letters, 2015, 22(9): 1438–1442. doi: 10.1109/LSP.2015.2409153 [5] PAN Jingjing, SUN Meng, WANG Yide, et al. An enhanced spatial smoothing technique with ESPRIT algorithm for direction of arrival estimation in coherent scenarios[J]. IEEE Transactions on Signal Processing, 2020, 68: 3635–3643. doi: 10.1109/TSP.2020.2994514 [6] CHEN Hua, HOU Chunping, ZHU Weiping, et al. ESPRIT-like two-dimensional direction finding for mixed circular and strictly noncircular sources based on joint diagonalization[J] Signal Processing, 2017, 141: 48–56. doi: 10.1016/j.sigpro.2017.05.024. [7] BOUDAHER E, AHMAD F, AMIN M G, et al. Mutual coupling effect and compensation in non-uniform arrays for direction-of-arrival estimation[J]. Digital Signal Processing, 2017, 61: 3–14. doi: 10.1016/j.dsp.2016.06.005 [8] TANG Mang, SHU Ting, HE Jin, et al. Direction-finding with spread array of identical doublets[J]. IEEE Communications Letters, 2021, 25(1): 142–146. doi: 10.1109/LCOMM.2020.3026367 [9] MOFFET A. Minimum-redundancy linear arrays[J]. IEEE Transactions on Antennas and Propagation, 1968, 16(2): 172–175. doi: 10.1109/TAP.1968.1139138 [10] PAL P and VAIDYANATHAN P P. Nested arrays: A novel approach to array processing with enhanced degrees of freedom[J]. IEEE Transactions on Signal Processing, 2010, 58(8): 4167–4181. doi: 10.1109/TSP.2010.2049264 [11] ZHENG Zhi, YANG Chaolin, WANG Wenqin, et al. Robust DOA estimation against mutual coupling with nested array[J]. IEEE Signal Processing Letters, 2020, 27: 1360–1364. doi: 10.1109/LSP.2020.3011314 [12] VAIDYANATHAN P P and PAL P. Sparse sensing with co-prime samplers and arrays[J]. IEEE Transactions on Signal Processing, 2011, 59(2): 573–586. doi: 10.1109/TSP.2010.2089682 [13] ALAWSH S A and MUQAIBEL A H. Multi-level prime array for sparse sampling[J]. IET Signal Processing, 2018, 12(6): 688–699. doi: 10.1049/iet-spr.2017.0252 [14] QIN Sin, ZHANG Y D, and AMIN M G. Generalized coprime array configurations for direction-of-arrival estimation[J]. IEEE Transactions on Signal Processing, 2015, 63(6): 1377–1390. doi: 10.1109/TSP.2015.2393838 [15] ZHOU Chengwei, GU Yujie, ZHANG Y D, et al. Compressive sensing-based coprime array direction-of-arrival estimation[J]. IET Communications, 2017, 11(11): 1719–1724. doi: 10.1049/iet-com.2016.1048 [16] GUO Muran, ZHANG Y D, and CHEN Tao. DOA estimation using compressed sparse array[J]. IEEE Transactions on Signal Processing, 2018, 66(15): 4133–4146. doi: 10.1109/TSP.2018.2847645 [17] LIU Chunlin, VAIDYANATHAN P P, and PAL P. Coprime coarray interpolation for DOA estimation via nuclear norm minimization[C]. 2016 IEEE International Symposium on Circuits and Systems, Montreal, Canada, 2016: 2639–2642. doi: 10.1109/ISCAS.2016.7539135. [18] LIU Ke and ZHANG Y D. Coprime array-based DOA estimation in unknown nonuniform noise environment[J]. Digital Signal Processing, 2018, 79: 66–74. doi: 10.1016/j.dsp.2018.04.003 [19] WANG Mianzhi and NEHORAI A. Coarrays, MUSIC, and the Cramér–rao bound[J]. IEEE Transactions on Signal Processing, 2017, 65(4): 933–946. doi: 10.1109/TSP.2016.2626255 期刊类型引用(5)
1. 赵珍珍,董彦如,刘静,张俊忠,曹慧. 融合词信息和图注意力的医学命名实体识别. 计算机工程与应用. 2024(11): 147-155 . 百度学术
2. 常远,季长伟,张春玲,胡强. 融合多特征嵌入的中文医疗命名实体识别模型MF-MNER. 小型微型计算机系统. 2024(12): 2915-2922 . 百度学术
3. 郭龙,梁灿,李彦丽. 知识库中标注词句序列命名实体识别方法. 计算机仿真. 2024(11): 512-516 . 百度学术
4. 孙争艳,陈磊,魏苏波,陈宝国. 基于边界信息和词汇信息增强的中文命名实体识别. 南京师范大学学报(工程技术版). 2024(04): 79-86 . 百度学术
5. 关斯琪,董婷婷,万子敬,何元生. 基于BERT-CRF模型的火灾事故案例实体识别研究. 消防科学与技术. 2023(11): 1529-1534 . 百度学术
其他类型引用(7)
-