Loading [MathJax]/jax/element/mml/optable/MathOperators.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

C2 Transformer U-Net:面向跨模态和上下文语义的医学图像分割模型

周涛 侯森宝 陆惠玲 刘赟璨 党培

周涛, 侯森宝, 陆惠玲, 刘赟璨, 党培. C2 Transformer U-Net:面向跨模态和上下文语义的医学图像分割模型[J]. 电子与信息学报, 2023, 45(5): 1807-1816. doi: 10.11999/JEIT220445
引用本文: 周涛, 侯森宝, 陆惠玲, 刘赟璨, 党培. C2 Transformer U-Net:面向跨模态和上下文语义的医学图像分割模型[J]. 电子与信息学报, 2023, 45(5): 1807-1816. doi: 10.11999/JEIT220445
Wang Xue-mei, Liu Wen-qiang, Deng Zi-li. Robust Covariance Intersection Fusion Steady-state Kalman Filter for Uncertain Systems[J]. Journal of Electronics & Information Technology, 2015, 37(8): 1900-1905. doi: 10.11999/JEIT141515
Citation: ZHOU Tao, HOU Senbao, LU Huiling, LIU Yuncan, DANG Pei. C2 Transformer U-Net: A Medical Image Segmentation Model for Cross-modality and Contextual Semantics[J]. Journal of Electronics & Information Technology, 2023, 45(5): 1807-1816. doi: 10.11999/JEIT220445

C2 Transformer U-Net:面向跨模态和上下文语义的医学图像分割模型

doi: 10.11999/JEIT220445
基金项目: 国家自然科学基金(62062003),宁夏自治区重点研发计划(2020BEB04022),宁夏自然科学基金(2022AAC03149),北方民族大学引进人才科研启动项目(2020KYQD08)
详细信息
    作者简介:

    周涛:男,博士,教授,博士生导师,主要研究方向为计算机辅助诊断、医学图像分析与处理、模式识别等

    侯森宝:男,硕士生,研究方向为图像图形智能处理

    陆惠玲:女,副教授,研究方向为医学图像分析处理、机器学习

    刘赟璨:女,硕士生,研究方向为图像图形智能处理

    党培:女,硕士生,研究方向为图像图形智能处理

    通讯作者:

    侯森宝 hsb378093739@163.com

  • 中图分类号: TN911.73; TP391

C2 Transformer U-Net: A Medical Image Segmentation Model for Cross-modality and Contextual Semantics

Funds: The National Natural Science Foundation of China (62062003), The Key Research and Development Projects of Ningxia Autonomous Region (2020BEB04022), The National Natural Science Foundation of Ningxia (2022AAC03149), The Introduction of Talents and Scientific Research Start-up Project of Northern University for Nationalities (2020KYQD08)
  • 摘要: 跨模态的医学图像可以在同一病灶处提供更多的语义信息,针对U-Net网络主要使用单模态图像用于分割,未充分考虑跨模态、上下文语义相关性的问题,该文提出面向跨模态和上下文语义的医学图像分割C2 Transformer U-Net模型。该模型的主要思想是:首先,在编码器部分提出主干、辅助U-Net网络结构,来提取不同模态的语义信息;然后,设计了多模态上下文语义感知处理器(MCAP),有效地提取同一病灶跨模态的语义信息,跳跃连接中使用主网络的两种模态图像相加后传入Transformer解码器,增强模型对病灶的表达能力;其次,在编-解码器中采用预激活残差单元和Transformer架构,一方面提取病灶的上下文特征信息,另一方面使网络在充分利用低层和高层特征时更加关注病灶的位置信息;最后,使用临床多模态肺部医学图像数据集验证算法的有效性,对比实验结果表明所提模型对于肺部病灶分割的Acc, Pre, Recall, Dice, Voe与Rvd分别为:97.95%, 94.94%, 94.31%, 96.98%, 92.57%与93.35%。对于形状复杂肺部病灶的分割,具有较高的精度和相对较低的冗余度,总体上优于现有的先进方法。
  • 现代战场环境复杂,电子战装备呈现高度集成化、综合化发展趋势,释放干扰形式多样,特别是数字射频存储器(Digital Radio Frequency Memory, DRFM)技术在雷达对抗领域中的广泛应用[1,2],使得干扰信号与雷达信号在多个参数域重叠,导致常用时频域抗干扰方法失效。在如此严峻的干扰环境下,目标源DOA估计方法的性能将大打折扣。此外,目标源的非合作性导致有效样本数少。所以,研究有源欺骗干扰环境下,基于小样本的DOA估计方法具有重要意义。

    常规的DOA估计算法有两类,第1类是最大似然DOA估计算法,在高信噪比情况下可接近克拉美罗界,但运算量非常大。虽然存在很多优化算法应用到最大似然DOA估计中以降低运算量[35],但还是面临寻优速度慢、精度不够的问题;第2类是子空间类算法,这类算法基于空间搜索,运算量大,而且不适用于相干信号源DOA估计。虽然存在很多算法用于改善相干源下子空间类算法的DOA估计性能[6,7],但多数算法基于特定的阵列结构,限制了算法的实用性。近几年兴起的稀疏重构类算法为DOA估计开辟了新思路[811]。相比于其他稀疏重构类算法,稀疏贝叶斯学习算法具备较大优势。首先,稀疏贝叶斯学习算法的全局最小点通常是稀疏解,而广泛使用的基于L1惩罚项的算法在限定条件下才可以满足[12];其次,当感知矩阵列相关性很强时,大多数稀疏重构类算法失效,但稀疏贝叶斯学习算法仍有较好性能[13]。稀疏贝叶斯DOA估计通常将DOA估计问题转化为基于多测量矢量(Multiple Measurement Vectors, MMV)模型的稀疏重构问题,根据贝叶斯准则获取后验概率函数,利用EM(Evidence Maximization)等算法得到超参数估计,进而估计来波方向。基于块稀疏贝叶斯学习(Block Sparse Bayesian Learning, BSBL)[1315]的DOA估计利用Kronecker积将MMV模型转化为具有块结构的SMV(Single Measurement Vector, SMV)模型,MMV模型下的非零行对应SMV模型下的非零块,再利用稀疏贝叶斯学习得到DOA估计。因为,BSBL算法既利用了统计信息又利用了结构信息,所以DOA估计的稳健性得以提高。

    以上DOA估计算法工作在无干扰环境时性能较好,但有源欺骗干扰的存在会降低算法的DOA估计性能[16,17]。极化域作为继时域、频域、空域后的又一重要信号域,若可以充分利用雷达信号和干扰信号在该域的差异,抗干扰性能将得以提升。Nathanson[18]早先提出自适应极化对消器,用于研究雨杂波对消问题,之后,出现实时性较好的自适应极化滤波(Adaptive Polarization Filter, APF)包括极化状态估计和最佳极化接收两部分,通过调整接收天线极化形式,使其与干扰极化形式正交,从而抑制干扰信号,提高信干比[19,20]

    针对有源欺骗干扰环境下基于小样本的DOA估计问题,本文将APF与BSBL算法联合,实现了干扰环境下的高精度DOA估计。首先通过APF抑制干扰,提高信干比。之后,建立有源欺骗干扰环境下的稀疏贝叶斯模型,利用相邻采样时间相关性,将MMV模型转化为具有块稀疏特性的SMV模型,采用BSBL算法进行DOA估计。在仿真中,先在不同信噪比条件下,分析了所提算法的DOA估计性能与干扰和目标的极化角度差以及算法迭代次数的关系。然后,在有源欺骗干扰、小样本环境下,将所提方法与BSBL算法、APF联合子空间类算法和APF联合最大似然DOA估计算法进行对比,仿真和实测数据处理结果验证了所提方法具有较高的空间分辨率和测角精度。

    正交极化双通道测量是获取入射电磁波极化信息的物理前提,到达接收天线的信号极化矢量表示为

    h=[hh,hv]=[cos(α)sin(α)e(jϕ)] (1)

    其中,h和v表示接收天线正交极化双通道,αϕ决定信号的极化状态。

    雷达信号的极化矢量表示为

    hq=[cos(αq)sin(αq)e(jϕq)],q=1,2,···,Q (2)

    其中,Q为目标数目。干扰信号极化矢量表示为

    h1k=[cos(α1k)sin(α1k)e(jϕk)],k=1,2,···,K (3)

    其中,K为干扰数目。

    弹载雷达接收信号由3部分构成:目标信号、干扰信号和噪声信号。目标信号表示为

    Sq=[e[j2πλdsin(θq)(0:M1)T]gq(t)]hq,q=1,2,···,Q (4)

    其中,θq表示目标方位角,d为均匀线阵的阵元间距,M为阵元数。gq(t)表示第q个目标的回波复包络,表示Kronecker积运算。雷达接收到的干扰信号表示为

    Jk=[e[j2πλdsin(θ1k)(0:M1)T]jk(t)]h1k,k=1,2,···,K (5)

    其中,θ1k表示干扰方位角,jk(t)表示第k个干扰信号的复包络。天线接收到的总信号X表示为

    X=Qq=1Sq+Kk=1Jk+Ns (6)

    其中,Ns表示互不相关的加性高斯白噪声。

    弹载雷达接收信号X中包含多个有源欺骗干扰信号,在有限信噪比和迭代次数下,影响的BSBL算法DOA估计性能。将APF联合BSBL算法可提高BSBL算法在有源欺骗干扰环境下DOA估计性能。

    APF抑制干扰的前提是知道干扰信号的极化信息。记接收电场的极化相干矩阵为C,表示如式(7)

    C=[ChhChvCvhCvv] (7)

    极化信息可完全由C决定,实际应用中不可先验得到,它的最大似然估计为

    ˆC=1NNn=1XHnXn (8)

    其中,N为回波样本数,Xn=[Xnh,Xnv]XnhXnv分别表示XhXv的第n列。假设n时刻极化相干矩阵估计为ˆCn, n+1时刻的极化相干矩阵估计ˆCn+1通过迭代得到,具体步骤如下:

    (1)初始值ˆC0=[1jj1]

    (2)ˆCn+1的迭代公式如式(9)

    ˆCn+1=(1ζ)ˆCn+ζXHn+1Xn+1 (9)

    其中,n=0,1,,N10ζ1为新数据权重因子,反映新数据对相干矩阵估计的重要性。接收回波样本数据量越大,每个新样本对ˆCn+1的作用越小。所以,可以认为与样本数N具有反比关系,取为1/N

    极化相干矩阵ˆC迭代完成后,对其进行特征分解,小特征值对应的特征矢量记为u2。天线最佳接收极化矢量表示为

    hopt=u2Tu2 (10)

    获得天线最佳接收极化矢量hopt后,对雷达接收信号X进行干扰滤除得XA

    XAi=XihTopt,i=1,2,···,N (11)

    其中,XAi表示XA的第i列。

    利用APF提高信干比得到XA后,通过BSBL算法进行DOA估计。BSBL算法的数学模型是将MMV模型转化为具有块稀疏特性的SMV模型。XA在基于MMV的稀疏贝叶斯模型中表示为

    XA=fs+V (12)

    其中,fM×L的学习字典,L是空间划分格数。sL×N维的待恢复稀疏矩阵,为了得到唯一的全局最优解,应保证s是行稀疏的。VM×N维的噪声矢量。无角度欺骗干扰时,s的元素满足

    s(l,:)={zq,θl=θq0,,l=1,2,···,L (13)

    其中,zq表示目标源信号。有角度欺骗干扰时,s的元素满足

    s(l,:)={zq,θl=θqzk,θl=θ1k0,,l=1,2,···,L (14)

    其中,zk表示干扰转发信号。

    y=vec((XA)T) (15)
    D=fIN (16)
    x=vec(sT) (17)
    v=vec(VT) (18)

    其中,vec()代表矩阵矢量化,IN表示N维单位阵。

    利用式(15)到式(18),MMV模型转化为SMV模型,表示为

    y=Dx+v (19)

    式(19)的等价表示为

    y=[f1INf2IN···fLIN][xT1xT2···xTL]T+v (20)

    其中,xTi表示s的第i行,fi表示f的第i列,i=1,2,···,L。由展开式可以看出,xL个块组成,每个块中包含N个元素,由于接收信号采样频率较高,N个元素间通常具有时间相关性。假设噪声矢量中元素独立且同服从参数为的高斯分布,y的似然函数为

    p(y|x;)Ny|x(Dx,I) (21)

    似然函数的概率密度函数形式确定后,未知参数为期望和方差,需要用样本对参数进行估计。

    假定待恢复稀疏矩阵s中的每行之间独立,且服从正态分布

    p(si;γi,Bi)N(0,γiBi),i=1,2,···,L (22)

    其中,γi控制s的行稀疏性,Bi为正定矩阵,用于描述si的相关结构。

    x的先验概率满足

    p(x;γi,Bi,i)Nx(0,Σ0) (23)

    其中,Σ0表示为

    Σ0=[γ1B1γ2B2γLBL] (24)

    为了防止过拟合,L个块采用同一个B描述相关结构[13],得

    Σ0=ΓB (25)

    其中,Γ=diag(γ1,γ2,···,γL),根据贝叶斯公式,后验概率p(x|y)由先验概率和似然函数表示为

    p(x|y)=p(y|x)p(x)p(y)

    利用贝叶斯准则得后验概率分布

    p(x|y;,γi,B,i)Nx|y(μx,Σx) (26)

    其中,

    Σx=(Σ10+1DTD)1=Σ0Σ0DT(I+DΣ0DT)1DΣ0 (27)
    $μx=1ΣxDTy (28)

    x的MAP(Maximum-A-Posterior)估计为

    x (29)

    由此可知,对参数集{{Θ}} = \left\{ {{\gamma _1}, {\gamma _2}, ·\!·\!· , {\gamma _L}, {{B}}, \partial } \right\}进行估计,即求得稀疏解。

    最大化p({{y}};{{Θ}} )可得参数估计,相当于最小化 - \lg p({{y}};{{Θ}} ),目标函数为

    L\left( {{Θ}} \right) = {{{y}}^{\rm{T}}}{{Σ}} _{{y}}^{ - 1}{{y}} + \lg \left| {{{{Σ}} _{{y}}}} \right| (30)

    通过最大期望(Expectation-Maximization, EM)算法,得到参数更新[13]

    \!\!\!\begin{array}{*{20}{c}} {{\gamma _i}\! =\! \frac{{{{\rm{t}}{\rm{r}}}\left[ {{{{B}}^{ - 1}}({{Σ}} _x^i \!+\! {{μ}} _x^i{{({{μ}} _x^i)}^{\rm{T}}})} \right]}}{N}, }&{i \!=\! 1, 2, ·\!·\!· , L} \end{array} (31)

    其中,{{\rm{tr}}}\left[ \bullet \right]表示矩阵求迹,{{{μ}} _x^i}{\underline{\underline \Delta } } {{{μ}} _x}\left(\! {\left( {i \!-\! 1} \right)\!N \!+\! 1\!:iN} \right), {{{Σ}} _x^i}{\underline{\underline \Delta } } {{{Σ}} _x}\left( {\left( {i - 1} \right)N + 1:iN, \left( {i - 1} \right)N + 1:iN} \right)

    {{B}} = \frac{1}{L}\sum\limits_{i = 1}^L {\frac{{{{Σ}} _x^i + {{μ}} _x^i{{({{μ}} _x^i)}^{\rm{T}}}}}{{{\gamma _i}}}} (32)

    为了增加鲁棒性,按以下规则对{{B}}进行估计

    {{B}} = {{\mathop {{B}}\limits^ \approx } /{||\mathop {{B}}\limits^ \approx |{|_{\rm{F}}}}} (33)

    其中,\mathop {{B}}\limits^ \approx = \displaystyle\sum\nolimits_{i = 1}^L {\frac{{{{μ}} _x^i{{({{μ}} _x^i)}^{\rm{T}}}}}{{{\gamma _i}}}} + h{{I}}, h为一正的常量,||\mathop {{B}}\limits^ \approx |{|_{\rm{F}}}表示\mathop {{B}}\limits^ \approx 的Frobenius范数。\partial 的迭代公式为

    \partial = \frac{{\left\| {{{y}} - {{D}}{{{μ}} _x}} \right\|_2^2 + \partial \left[ {LN - {{\rm{tr}}}({{{Σ}} _x}{{Σ}} _0^{ - 1})} \right]}}{{MN}} (34)

    当达到设定的迭代次数小于门限时,停止迭代,此时, {{\gamma _i}, }i = 1, 2, ·\!·\!· , L中最大值对应目标方位。

    仿真条件:仿真采用正交极化双通道阵列天线接收信号,基于7阵元均匀线阵,阵元间距取波长的一半。载波波段为C波段,信号形式为线性调频信号,带宽为4 MHz,采样频率为5 MHz。

    (1)为验证干扰信号和雷达信号的极化角度差以及迭代次数对本文方法测角性能的影响,下面对本文方法测角误差进行仿真分析。目标雷达数目为1,方位角为10°,极化矢量固定为{{{h}}_1} \!=\!\! \left[\!\!\!\! {\begin{array}{*{20}{c}} {\cos(45^\circ)}\;{\sin(45^\circ){{\rm{e}}^{({\rm{j}}0^\circ)}}} \end{array}} \!\!\!\!\right]。干扰数目为1,方位角为–10°,极化矢量为{{h}}_1^1 = \left[\!\!\!\! {\begin{array}{*{20}{c}} {\cos(45^\circ)}\;{\sin(45^\circ){{\rm{e}}^{({\rm{j}}\Delta \phi )}}} \end{array}} \!\!\!\!\right],其中,\Delta \phi 的变化间隔为0.5°,变化范围为[12.0° 24.5°]。接收信号前面采样数据信干比为–3 dB,用于干扰极化状态估计,后面采样数据信干比为0 dB。固定BSBL算法迭代次数为100次,本文方法的测角误差随目标和干扰的极化角度差变化曲线如图1(a)所示。然后,固定干扰极化矢量{{h}}_1^1 = \left[\!\!\!\! {\begin{array}{*{20}{c}} {\cos(45^\circ)}\;{\sin(45^\circ){{\rm{e}}^{({\rm{j}}40^\circ)}}} \end{array}} \!\!\!\!\right],迭代次数的变化间隔为2次,变化范围为[108次 160次],本文方法的测角误差随迭代次数变化的曲线如图1(b)所示。

    图 1  APF联合BSBL算法的测角性能分析

    图1(a)可知,信噪比越高,测角误差越小,同一信噪比下,目标和干扰极化角度差越大,测角误差越小,并逐步趋于稳定;由图1(b)可知,信噪比越高,对迭代次数的要求越小,同一信噪比下,迭代次数越大,测角误差越小,并逐步趋于稳定。

    (2)为验证有源欺骗干扰环境和小样本条件下所提方法DOA估计的性能,将本文方法与BSBL算法、APF联合子空间类算法、APF联合最大似然(Maximum Likelihood, ML)算法进行对比。信噪比取为20 dB,样本数为5,干扰数目为1,方位为10°,目标数目为2,方位分别为18°和25°。干扰极化矢量为{{h}}_1^1 = \left[\!\!\!\! {\begin{array}{*{20}{c}} {\cos(45^\circ)}\;{\sin(45^\circ){{\rm{e}}^{({\rm{j}}90^\circ)}}} \end{array}} \!\!\!\!\right],目标1极化矢量为{{{h}}_1} = \left[\!\!\!\! {\begin{array}{*{20}{c}} {\cos(45^\circ)}\;{\sin(45^\circ){{\rm{e}}^{({\rm{j}}0^\circ)}}} \end{array}} \!\!\!\!\right],目标2极化矢量为{{{h}}_2} = \left[\!\!\!\! {\begin{array}{*{20}{c}} {\cos(45^\circ)}\;{\sin(45^\circ){{\rm{e}}^{({\rm{j}}20^\circ)}}} \end{array}} \!\!\!\!\right]。不同方法DOA估计结果如图2所示。

    图 2  样本数为5时DOA估计结果图

    图2可知,BSBL算法的估计结果偏离正确的方位角,干扰信号影响BSBL算法的稀疏恢复性能,这是因为待测源个数增多要求信噪比和BSBL算法迭代次数增加,导致BSBL算法测角性能下降;通过APF联合子空间类算法进行DOA估计,由于阵元数目较少、样本数少,子空间类算法空间分辨率有限,不可以同时对两个目标源进行准确的DOA估计;APF联合最大似然算法也分辨率不足,无法对两个目标进行准确的DOA估计;本文方法先通过APF滤除干扰,再通过BSBL进行DOA估计,可以分辨两个目标源,测得两个目标源方位角分别为18°和26°。综上所述,在有源欺骗干扰环境、阵元数少和小样本条件下,本文方法具有较高的空间分辨率和测角精度。

    实测场景和条件:实验采用基于弹载的正交极化双通道阵列天线接收信号,基于7阵元非均匀圆阵。为有效掩护雷达信号,干扰辐射功率高于雷达平均副瓣1~3 dB,并低于雷达主瓣约20~25 dB。各干扰源的辐射强度基本相同,天线指向固定,因此,弹载雷达收到的干扰信号功率相对稳定。典型配置为3个干扰,为了更好的干扰弹载雷达系统,使其不能准确测量雷达信号源方向,一般沿雷达两侧及径向布置有源欺骗干扰,布设距离100~300 m。雷达主瓣极化形式多为线极化,而雷达副瓣的极化形式较为杂乱,但此时雷达功率低于干扰功率较多。干扰场景如图3所示。

    图 3  干扰场景图

    为在时-频-空域保护目标,干扰信号脉冲覆盖雷达信号脉冲的前后沿。干扰信号与雷达信号的载频、重频等参数相同或接近,3个干扰分布在雷达主瓣内,时-频-空域抑制干扰手段失效。导弹对雷达进行初始探测时,接收到的信号来自雷达副瓣和干扰。所以,初始探测采样数据可以近似为干扰数据,用于极化状态估计,进而在极化域实现抗干扰。在导弹攻击过程中,初始阶段干扰与弹载雷达的空间角度差较小,随着弹目不断接近,空间角度差逐渐变大。参考方向如图4所示。

    图 4  干扰和弹载雷达方位角和仰角分布图

    因为仰角和方位角的2维测量导致冗余字典长度增加,所以利用本文方法进行DOA估计时,先进行大范围粗略估计,再进行小范围精确估计。仿真实验中用到的ESPRIT算法利用自相关矩阵信号子空间旋转不变性,从子阵固定关系中求得来波方向,在测角前需要先将总阵分为几个布局一致的子阵。由此可知,ESPRIT算法不适用于基于非均匀圆阵的DOA估计。所以实测数据处理时仅将所提方法与APF联合MUSIC算法和APF联合ML算法进行对比。为了定量评估DOA估计精度,测角误差表示为方位和仰角测角误差的均方根。基于接收到的20个脉冲信号,3种方法的测角均方根误差如图5所示。

    图 5  实测数据测角均方根误差图

    图5可知,本文方法同样适用于干扰环境下基于非均匀圆阵的2维DOA估计。在有源欺骗干扰和小样本环境下,相比APF联合MUSIC算法或最大似然算法,本文方法具有更高的测角精度。

    有源欺骗干扰的存在使得待测源个数增多,影响BSBL算法测向性能。因此,本文提出APF联合BSBL算法,用于有源欺骗干扰环境下基于小样本的DOA估计。本文方法先基于接收数据估计干扰极化状态,进而在极化域抑制干扰信号。然后,通过BSBL算法估计目标方向,有效提高了有源欺骗干扰环境下BSBL算法的测向性能。仿真和实测实验处理结果表明本文方法在有源欺骗干扰环境下具有较高的测角精度和空间分辨率。如何进一步降低本文方法运算量,使其可以应用于更为复杂的战场环境,将是今后的研究重点。

  • 图  1  C2 Transformer U-Net网络架构

    图  2  多模态上下文感知处理器

    图  3  Transformer多头注意力编-解码分支

    图  4  跨模态语义相关性的不同编码器分割网络的雷达图和可视化分割结果图

    图  5  不同分割网络的雷达图和可视化分割结果图

    图  6  上下文语义相关的雷达图和可视化分割结果图

    表  1  评价指标定义

    评价指标定义评价指标定义
    Acc {\text{Acc = }}\dfrac{{{\text{TP + TN}}}}{{{\text{TP + FP + FN + TN}}}} Pre {\text{Pre = }}\dfrac{{{\text{TP}}}}{{{\text{TP + FP}}}}
    Dice{\rm{Dice}} = \dfrac{ {2 \times \left| {P \cap G} \right|} }{ {\left| P \right| + \left| G \right|} }Recall{\text{Recall = }}\dfrac{{{\text{TP}}}}{{{\text{TP + FN}}}}
    Voe{\rm{Voe} } = {\rm{abs} }\left(1 - \left| {\dfrac{ {P \cap G} }{ {P \cup G} } } \right|\right)Rvd {\text{Rvd}} = \dfrac{{{\text{abs}}(P{{ - }}G)}}{G}
    下载: 导出CSV

    表  2  跨模态语义相关性的不同编码器分割结果(%)

    模型AccPreRecallDiceVoeRvd
    U-Net[16]90.2390.3890.3390.2890.9792.09
    Y-Net[17]90.1690.0990.1890.0991.4292.45
    本文97.9594.9494.3196.9892.5793.35
    下载: 导出CSV

    表  3  不同分割网络的分割结果(%)

    模型ACCPreRecallDiceVOERVD
    SegNet[18]89.2389.3888.3387.2879.9781.13
    WNet[19]90.1689.4991.2888.5982.0883.45
    Attention UNet[20]91.3090.9491.3189.9884.5784.35
    ResUNet[21]91.2390.0890.3289.0183.4584.02
    SEResUNet[22]92.3892.1792.0792.2090.9391.04
    UTNet[23]94.5893.8693.4492.8392.0793.20
    本文97.9594.9494.3196.9892.5793.35
    下载: 导出CSV

    表  4  上下文语义相关的分割结果(%)

    模型AccPreRecallDiceVoeRvd
    RMUNet93.2690.6991.1492.6889.4591.10
    RTMUNet94.5992.8092.5593.5089.8791.37
    RTMMUNet95.1893.1392.6994.0190.0292.04
    RTMMSUNet96.6293.6093.1594.4090.0992.05
    本文97.9594.9494.3196.9892.5793.35
    下载: 导出CSV
  • [1] DALCA A V, GUTTAG J, and SABUNCU M R. Anatomical priors in convolutional networks for unsupervised biomedical segmentation[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake, USA, 2018: 9290–9299.
    [2] ZHOU Tao, LU Huiling, YANG Zaoli, et al. The ensemble deep learning model for novel COVID-19 on CT images[J]. Applied Soft Computing, 2021, 98: 106885. doi: 10.1016/j.asoc.2020.106885
    [3] JAMES A P and DASARATHY B V. Medical image fusion: A survey of the state of the art[J]. Information Fusion, 2014, 19: 4–19. doi: 10.1016/j.inffus.2013.12.002
    [4] LI Haoming, JIANG Huiyan, LI Siqi, et al. DenseX-Net: An end-to-end model for lymphoma segmentation in whole-body PET/CT Images[J]. IEEE Access, 2020, 8: 8004–8018. doi: 10.1109/ACCESS.2019.2963254
    [5] HUSSEIN S, GREEN A, WATANE A, et al. Automatic segmentation and quantification of white and brown adipose tissues from PET/CT Scans[J]. IEEE Transactions on Medical Imaging, 2017, 36(3): 734–744. doi: 10.1109/TMI.2016.2636188
    [6] MU Wei, CHEN Zhe, SHEN Wei, et al. A segmentation algorithm for quantitative analysis of heterogeneous tumors of the cervix with 18F-FDG PET/CT[J]. IEEE Transactions on Biomedical Engineering, 2015, 62(10): 2465–2479. doi: 10.1109/TBME.2015.2433397
    [7] ZHOU Tao, DONG YaLi, LU HuiLing, et al. APU-Net: An attention mechanism parallel U-Net for lung tumor segmentation[J]. BioMed Research International, 2022, 2022: 5303651. doi: 10.1155/2022/5303651
    [8] CUI Hui, WANG Xiuying, LIN W, et al. Primary lung tumor segmentation from PET-CT volumes with spatial-topological constraint[J]. International Journal of Computer Assisted Radiology and Surgery, 2016, 11(1): 19–29. doi: 10.1007/s11548-015-1231-0
    [9] ZHAO Hengshuang, SHI Jianping, QI Xiaojuan, et al. Pyramid scene parsing network[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 6230–6239.
    [10] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Identity mappings in deep residual networks[C]. The 14th European Conference on Computer Vision, Amsterdam, The Netherlands, 2016: 630–645.
    [11] HAN Guang, ZHU Mengcheng, ZHAO Xuechen, et al. Method based on the cross-layer attention mechanism and multiscale perception for safety helmet-wearing detection[J]. Computers and Electrical Engineering, 2021, 95: 107458. doi: 10.1016/j.compeleceng.2021.107458
    [12] WANG Sinong, LI B Z, KHABSA M, et al. Linformer: Self-attention with linear complexity[EB/OL]. https://arxiv.org/abs/2006.04768, 2020.
    [13] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]. The 31st International Conference on Neural Information Processing Systems (NIPS'17), Long Beach, USA, 2017: 6000–6010.
    [14] BELLO L, ZOPH B, LE Q, et al. Attention augmented convolutional networks[C]. 2019 IEEE/CVF International Conference on Computer Vision (ICCV), Seoul, Korea (South), 2019: 3285–3294.
    [15] PARMAR N, VASWANI A, USZKOREIT J, et al. Image transformer[C]. The 35th International Conference on Machine Learning, Stockholm, Sweden, 2018: 4052–4061.
    [16] RONNEBERGER O, FISCHER P, and BROX T. U-Net: Convolutional networks for biomedical image segmentation[C]. The 18th International Conference on Medical Image Computing and Computer-assisted Intervention, Munich, Germany, 2015: 234−241.
    [17] LAN Hengrong, JIANG Daohuai, YANG Changchun, et al. Y-Net: Hybrid deep learning image reconstruction for photoacoustic tomography in vivo[J]. Photoacoustics, 2020, 20: 100197. doi: 10.1016/j.pacs.2020.100197
    [18] BADRINARAYANAN V, KENDALL A, and CIPOLLA R. SegNet: A deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481–2495. doi: 10.1109/TPAMI.2016.2644615
    [19] XU Lina, TETTEH G, LIPKOVA J, et al. Automated whole-body bone lesion detection for multiple myeloma on 68Ga-pentixafor PET/CT imaging using deep learning methods[J]. Contrast Media & Molecular Imaging, 2018, 2018: 2391925. doi: 10.1155/2018/2391925
    [20] OKTAY O, SCHLEMPER J, LE FOLGOC L, et al. Attention U-Net: Learning where to look for the pancreas[EB/OL]. https://arxiv.org/abs/1804.03999, 2018.
    [21] LIU Jin, KANG Yanqin, QIANG Jun, et al. Low-dose CT imaging via cascaded ResUnet with spectrum loss[J]. Methods, 2022, 202: 78–87. doi: 10.1016/j.ymeth.2021.05.005
    [22] CAO Zheng, YU Bohan, LEI Biwen, et al. Cascaded SE-ResUnet for segmentation of thoracic organs at risk[J]. Neurocomputing, 2021, 453: 357–368. doi: 10.1016/j.neucom.2020.08.086
    [23] GAO Yunhe, ZHOU Mu, and METAXAS D. UTNet: A hybrid transformer architecture for medical image segmentation[EB/OL]. https://arxiv.org/abs/2107.00781, 2021.
  • 期刊类型引用(7)

    1. 赵书红,董绍武,白杉杉,高喆. 一种优化的频率驾驭算法研究. 电子与信息学报. 2021(05): 1457-1464 . 本站查看
    2. 陶贵丽,刘文强,张兴华,牛晓霞. 带丢包不确定广义系统鲁棒Kalman预报器. 系统科学与数学. 2021(05): 1215-1232 . 百度学术
    3. 谢卫,王前东. 一种基于自适应网格剖分的协方差交集融合新算法. 电讯技术. 2019(09): 1067-1074 . 百度学术
    4. 刘振亚,高敏,程呈. 基于理想弹道鲁棒容积卡尔曼滤波视线角估计. 系统工程与电子技术. 2018(02): 409-416 . 百度学术
    5. 秦文利,胡捍英,陈松. 基于带势概率假设密度粒子滤波的MIMO雷达检测前跟踪算法. 信息工程大学学报. 2018(02): 140-145 . 百度学术
    6. 王雪梅,刘文强,邓自立. 带丢失观测和不确定噪声方差系统改进的鲁棒协方差交叉融合稳态Kalman滤波器. 控制理论与应用. 2016(07): 973-979 . 百度学术
    7. 王雪梅,刘文强,邓自立. 带不确定协方差线性相关白噪声系统改进的鲁棒协方差交叉融合稳态Kalman估值器. 控制与决策. 2016(10): 1749-1756 . 百度学术

    其他类型引用(5)

  • 加载中
图(6) / 表(4)
计量
  • 文章访问数:  1354
  • HTML全文浏览量:  1093
  • PDF下载量:  250
  • 被引次数: 12
出版历程
  • 收稿日期:  2022-04-14
  • 修回日期:  2022-08-24
  • 录用日期:  2022-08-25
  • 网络出版日期:  2022-08-30
  • 刊出日期:  2023-05-10

目录

/

返回文章
返回