高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于改进U-Net网络的甲状腺结节超声图像分割方法

王波 李梦翔 刘侠

时晨光, 蒋泽宇, 严牧, 周建江, 闻雯. 针对组网雷达的无人机集群航迹欺骗综合误差分析[J]. 电子与信息学报, 2024, 46(12): 4451-4458. doi: 10.11999/JEIT240289
引用本文: 王波, 李梦翔, 刘侠. 基于改进U-Net网络的甲状腺结节超声图像分割方法[J]. 电子与信息学报, 2022, 44(2): 514-522. doi: 10.11999/JEIT210015
SHI Chenguang, JIANG Zeyu, YAN Mu, ZHOU Jianjiang, WEN Wen. Comprehensive Error in UAV Cluster Trajectory Deception for Networked Radar[J]. Journal of Electronics & Information Technology, 2024, 46(12): 4451-4458. doi: 10.11999/JEIT240289
Citation: WANG Bo, LI Mengxiang, LIU Xia. Ultrasound Image Segmentation Method of Thyroid Nodules Based on the Improved U-Net Network[J]. Journal of Electronics & Information Technology, 2022, 44(2): 514-522. doi: 10.11999/JEIT210015

基于改进U-Net网络的甲状腺结节超声图像分割方法

doi: 10.11999/JEIT210015
基金项目: 国家自然科学基金(61172167),哈尔滨理工大学“理工英才”计划科学研究项目(LGYC2018JC013),黑龙江省青年科学基金项目(QC2017076)
详细信息
    作者简介:

    王波:男,1982年生,博士,副教授,研究方向为医学图像处理、模式识别、机器学习

    李梦翔:男,1996年生,硕士生,研究方向为医学图像分割、机器学习

    刘侠:男,1975年生,博士,教授,研究方向为医学图像处理、模式识别、机器学习

    通讯作者:

    刘侠 liuxia@hrbust.edu.cn

  • 中图分类号: TN911.73; TP391

Ultrasound Image Segmentation Method of Thyroid Nodules Based on the Improved U-Net Network

Funds: The National Natural Science Foundation of China (61172167), The Scientific Research Project of Talent Plan of Harbin University of Science and Technology (LGYC2018JC013), The Youth Science Foundation of Heilongjiang Province (QC2017076)
  • 摘要: 针对甲状腺结节尺寸多变、超声图像中甲状腺结节边缘模糊导致难以分割的问题,该文提出一种基于改进U-net网络的甲状腺结节超声图像分割方法。该方法首先将图片经过有残差结构和多尺度卷积结构的编码器路径进行降尺度特征提取;然后,利用带有注意力模块的跳跃长连接部分对特征张量进行边缘轮廓保持操作;最后,使用带有残差结构和多尺度卷积结构的解码器路径得到分割结果。实验结果表明,该文所提方法的平均分割Dice值达到0.7822,较传统U-Net方法具有更优的分割性能。
  • 组网雷达系统由于其雷达站点分布广泛、信号体制、工作频段和极化方式多样等特点,具备信息融合能力,显著增强了雷达系统的抗干扰能力,使传统电子对抗手段难以有效压制组网雷达[1,2]。而随着分布式协同技术与无人机技术的快速发展,无人机因其小巧灵活,成本低廉等优势在电子战中的应用越来越广泛。因此,利用无人机集群对组网雷达实施航迹欺骗已成为未来电子战的重要策略之一[3]

    目前,关于无人机集群对组网雷达航迹欺骗策略的研究,取得了诸多成果。吕炫[4]考虑了雷达站址误差与无人机预设位置误差对虚假航迹的影响,提出了两种复合干扰方法,将压制干扰分别与航迹欺骗和角度欺骗相结合,与单一干扰方法相比,干扰效果大幅提高。郭文元[5]提出了复合噪声干扰技术,并引入了利用遗传蚁群融合算法寻找最佳干扰资源分配方案的航迹欺骗策略,增强了全局寻优能力。陈保亮[6]提出了一种在限定虚假目标轨迹条件下求解多无人机运动规律和协同策略的方法,该方法采用了分段拟合的思想,具有较好的实用性。Fan等人[7]研究了虚假航迹与组网雷达的空间几何关系,在简化无人机运动模型的基础上,探索了多无人机协同分组优化方法。丁宸聪等人[8]提出了基于改进鲸鱼算法的多无人机协同欺骗干扰技术,其算法效率、精度及全局寻优能力均有所提高。刘宇蕊等人[9]针对使用传统粒子群算法规划无人机飞行任务时求解效率低下的问题,提出了一种基于改进粒子群优化算法的多无人机协同欺骗干扰技术,该方法具备更快的收敛速度和更强的全局寻优能力,对利用无人机协同干扰组网雷达具有一定的参考价值。李松等人[10]利用无人机搭载基站对系统进行辅助计算,以最小化系统时间均方误差为目标,联合优化无人机轨迹、去噪因子以及地面传感器发射功率,提出了一种有效的迭代求解算法。赵艳丽等人[11]提出了对空间探测雷达网形成高逼真多机协同航迹欺骗技术,有效提高了欺骗干扰效率。

    上述文献中关于无人机集群对组网雷达实施航迹欺骗的研究,绝大部分是在假设不存在误差的情况下展开的。然而,在实际航迹欺骗过程中,侦测组网雷达位置会引入量测误差,无人机集群编队飞行和调制干扰信号时也会引入随机误差,因此,虚假航迹和真实航迹会存在一定的统计特性差异[12]。部分学者针对误差存在情况下的航迹欺骗问题开展了研究。闻雯等人[13]分析了数字射频存储器(Digital Radio Frequency Memory, DRFM)精度受限而存在时延误差时对组网雷达进行有效航迹欺骗的边界条件,总结了转发时延误差对欺骗干扰效果的影响规律。Liu等人[14]提出了一种存在无人机抖动误差和雷达站址误差时的虚假航迹偏差补偿方法,该方法能有效降低虚假航迹识别率。王国宏等人[15]则研究了雷达站址误差对航迹欺骗干扰的影响。

    总的来说,针对多种误差同时存在情况下的航迹欺骗研究仍存在一些不足,因此,有必要对3种误差同时存在的航迹欺骗问题开展深入研究。本文推导了在雷达站址误差、无人机抖动误差及转发时延误差3种误差同时存在时,无人机集群成功欺骗组网雷达的边界条件,总结了上述误差对航迹欺骗效果的影响规律。数值分析结果表明,当3种误差同时存在时,推导结果可以有效评估无人机集群对组网雷达的欺骗能力。

    航迹欺骗干扰分为转发式航迹欺骗干扰和生成式航迹欺骗干扰,本文基于转发式航迹欺骗干扰进行误差分析。转发式航迹欺骗干扰是指无人机利用DRFM对截获的雷达信号进行处理,并在延迟(或提前)一定时间后重新发射出去,使雷达接收到一个或多个与真实目标距离不符的回波信号,使其误认为目标比实际位置更远(或更近),从而实现假目标或多假目标的欺骗效果。在此技术上,多个连续的假目标点可以形成一段虚假航迹,利用无人机集群之间的深度协同还可以实现更高级别的虚假航迹欺骗干扰。图1为转发式航迹欺骗干扰示意图。

    图 1  转发式航迹欺骗干扰示意图

    雷达距离分辨率是衡量雷达性能的指标之一,由有效脉冲信号带宽Bw决定,有效带宽越宽,距离分辨率越好。组网雷达的空间分辨单元对于评估航迹欺骗效果至关重要,其定义为各雷达对应距离分辨率的重叠区域。图2为空间分辨单元示意图。

    图 2  空间分辨单元示意图

    在组网雷达系统中,多个雷达站点相互协同,能够显著提高对真实目标的探测精度和抗干扰能力,并基于同源检验思想进行假目标的识别与剔除。在同一坐标系下,不同雷达测量到的真实目标的空间状态是一致的,而由单部干扰机产生的虚假目标的空间状态因其相对各部雷达的空间位置不同而存在差异,组网雷达通过信息融合后,能够利用真假目标的空间状态差异对假目标进行识别和剔除[16]

    为了对抗组网雷达的同源检验,无人机集群对组网雷达进行分布式协同干扰,通过控制各无人机的飞行轨迹,进而生成虚假航迹,实现对组网雷达的有效欺骗。图3为无人机集群对组网雷达实施航迹欺骗示意图。

    图 3  无人机集群对组网雷达实施航迹欺骗示意图

    理想情况下,无人机集群生成的虚假目标点应聚焦于同一处,使组网雷达各个节点测得的虚假目标空间状态一致。然而,实际情况中无人机集群生成的虚假目标点是分散的。因此,对组网雷达进行有效航迹欺骗需要满足一定条件。无人机C、雷达Ri和雷达Rj和虚假目标点AB的空间位置关系如图4所示。

    图 4  无人机同时欺骗任意两部雷达示意图

    无人机C与雷达Ri和雷达Rj的距离分别表示为ρi, ρj,与虚假目标点AB的距离均为Δd/,雷达Ri和雷达Rj的距离分辨率分别为δi, δj

    由于组网雷达系统具备同源检验能力,只有当无人机生成的虚假目标点AB同处于一个空间分辨单元中时,无人机才能满足成功对组网雷达进行航迹欺骗的条件。由组网雷达空间分辨单元的定义可知,若式(1)中的两个不等式

    |ARiBRj|δi|ARiBRj|δj}
    (1)

    均成立,则无人机能够同时对两部雷达实施航迹欺骗。式中,δi, δj分别表示雷达Ri和雷达Rj的距离分辨率。

    无人机集群在对组网雷达进行航迹欺骗过程中,利用DRFM对截获的雷达信号进行模数转换时,会引入一定的量化误差,此外,DRFM使用的时钟还可能存在漂移或者不稳定性,导致采样时刻与实际时刻之间存在误差,这些误差最终会造成转发截获信号时的时延误差。无人机受气流、传感器噪声和控制系统不稳定等影响会产生抖动误差。多径效应、系统误差以及信号处理精度低等问题也会一定程度上影响雷达的定位精度,进而造成雷达站址误差。在上述3种误差叠加影响下,无人机集群实际生成的虚假航迹点将可能偏离预设的虚假航迹点,使得航迹欺骗效果恶化。因此,开展针对组网雷达航迹欺骗的综合误差分析,将有助于评估和改善航迹欺骗效果。

    假设空间中分布着N部雷达,分别表示为R1, R2, ···, RN,其距离分辨率分别表示为δ1, δ2, ···, δN, C表示预设的虚假目标点。假设一架无人机欺骗干扰一部雷达,则需要有N架无人机,分别表示为A1, A2, ···, AN,且每架无人机均位于预设虚假目标点和对应雷达的连线上。雷达站址误差分别表示为er1, er2, ···, erN,无人机抖动误差分别表示为ej1, ej2,···, ejN,DRFM转发时延误差分别表示为et1, et2,···,etN。由雷达站址误差造成预设虚假目标点偏离后的位置分别表示为K1, K2,···,KN,由无人机抖动误差造成虚假目标点2次偏离后的位置分别表示为P1, P2,···,PN,由DFRM转发时延误差造成虚假目标点3次偏离后的位置分别表示为Q1, Q2,···,QN,在这些误差叠加影响下,实际生成的虚假目标点将会严重偏离预设位置。各架无人机与预计生成的虚假目标点之间的距离分别表示为d1/d122,d2/d222,···, dN/dN22,与其对应干扰雷达之间的距离分别表示为ρ1, ρ2,···, ρN。为简化计算和分析,不失一般性地,本文以两架无人机干扰两部雷达为例来进行理论推导和定性分析,如图5所示。

    图 5  两架无人机干扰两部雷达综合误差分析

    图5中所示场景进行分析可知,雷达由站址误差导致其实际位置R1, R2位于以R1, R2为圆心,以er1, er2为半径的圆上。为了简化该模型,假设无人机集群位于远场区域,且站址误差er1, er2远小于无人机与其干扰雷达之间的距离ρ1, ρ2,即ρ1er1, ρ2er2, ···, ρNerN。不妨令ρ1=ρ1ρ2=ρ2, ···, ρN=ρN,则由相似三角形关系可得

    ¯K1C = d1er12ρ1¯K2C = d2er22ρ2}
    (2)

    无人机由抖动误差导致其位置在以A1, A2为球心,以ej1, ej2为半径的球面上运动。根据几何关系可知,以无人机A1为例,其实际生成的虚假目标点在以K1为中心,长轴为ρ1+d1/d122ρ1ej1,短轴为ej1的椭球面上,即

    ¯P1K1 = ρ1+d1/d122ρ1ej1¯P2K2 = ρ2+d2/d222ρ2ej2}
    (3)

    转发时延和距离之间需满足

    t=dc
    (4)

    式中,t表示时延;c表示光速;d表示距离。

    无人机A1, A2由DRFM转发时延误差et1, et2导致最终实际生成的虚假目标点Q1, Q2位于R1P1, R2P2的延长线上,结合式(4)可得

    ¯Q1P1 = Δd12=cet12¯Q2P2 = Δd22=cet22}
    (5)

    式中,Δd1Δd2分别表示无人机A1, A2的欺骗距离误差。

    由组网雷达航迹欺骗的条件可知,当实际生成的虚假目标点Q1, Q2之间的距离¯Q1Q2小于组网雷达的最小距离分辨率δmin,即满足式(6)所示不等式时,由两部雷达组成的雷达网将同时被欺骗

    ¯Q1Q2¯Q1P1 + ¯Q2P2 + ¯P1K1 + ¯P2K2 + ¯K1C + ¯K2Cδmin
    (6)

    N架无人机欺骗N部雷达组成的雷达网场中,先分析成功欺骗R1的条件,而成功欺骗R1需要满足式(7)所示不等式组

    |cet12| + |cet22| + |ρ1+d1/d122ρ1ej1| + |ρ2+d2/d222ρ2ej2|+|d1er12ρ1|+|d2er22ρ2|δ1|cet12| + |cet32| + |ρ1+d1/d122ρ1ej1| + |ρ3+d3/d322ρ3ej3|+|d1er12ρ1|+|d3er32ρ3|δ1|cet12| + |cetN2| + |ρ1+d1/d122ρ1ej1| + |ρN+dN/dN22ρNejN|+|d1er12ρ1|+|dNerN2ρN|δ1|cet22| + |cet32| + |ρ2+d2/d222ρ2ej2| + |ρ3+d3/d322ρ3ej3|+|d2er22ρ2|+|d3er32ρ3|δ1|cet22| + |cet42| + |ρ2+d2/d222ρ2ej2| + |ρ4+d4/d422ρ4ej4|+|d2er22ρ2|+|d4er42ρ4|δ1|cetN12| + |cetN2| + |ρN1+dN1/dN122ρN1ejN1| + |ρN+dN/dN22ρNejN|+|dN1erN12ρN1|+|dNerN2ρN|δ1}
    (7)

    根据不等式的性质,将式(7)中的N(N1)2个不等式同向相加,可得

    |cet12| +  + |cetN2| + |ρ1+d1/d122ρ1ej1| +  + |ρN+dN/dN22ρNejN|+|d1er12ρ1| + +|dNerN2ρN|δ1
    (8)

    由式(7)和式(8),可得

    |cet1| + |2ρ1+d1ρ1ej1|+|d1er1ρ1|δ1|cet2| + |2ρ2+d2ρ2ej2|+|d2er2ρ2|δ1|cetN| + |2ρN+dNρNejN|+|dNerNρN|δ1}
    (9)

    因此,无人机集群成功对组网雷达实施航迹欺骗的充分不必要条件为

    |cetk| + |(2 + dkρk)ejk|+|dkerkρk|δmin,kN+
    (10)

    式中,c表示光速;dk表示第k架无人机对其干扰雷达的欺骗距离;ρk表示第k架无人机与其干扰雷达的距离;etk表示第k架无人机搭载DRFM的转发延时误差;ejk表示第k架无人机的抖动误差;erk表示第k个雷达的站址误差;δmin表示组网雷达的最小距离分辨率;N+表示正整数集。

    从式(10)可以看出,由雷达站址误差和无人机抖动误差引起的虚假航迹点偏移量受无人机与其干扰雷达的距离ρk和无人机对其干扰雷达的欺骗距离dk影响,ρk越小,dk越大,则虚假航迹点偏移量越大,反之越小,而由转发时延误差引起的虚假航迹点偏移量固定不变。当上述3种误差引起的虚假航迹点偏移量相互叠加后的总偏移量小于组网雷达的最小距离分辨率δmin时,能够对组网雷达成功实施航迹欺骗,若超过式(10)范围,则无人机集群将无法对组网雷达进行有效的航迹欺骗,还需要依靠其他技术手段进一步评估欺骗效果。

    假设组网雷达由3部雷达构成,其最小分辨率表示为δmin=min{δR1,δR2,δR3},雷达R1的站址误差er1y轴方向上的误差,雷达R2的站址误差er2x轴方向上的误差,雷达R3的站址误差er3为绕x60方向上的误差;无人机A1的抖动误差ej1为方位角30俯仰角60上的误差,无人机A2的抖动误差ej2为方位角120、俯仰角225上的误差,无人机A3的抖动误差ej3为方位角45、俯仰角135上的误差;无人机A1对雷达R1的时延误差表示为et1,无人机A2对雷达R2的时延误差表示为et2,无人机A3对雷达R3的时延误差表示为et3。雷达、无人机以及预设虚假目标点的坐标参数设置如表1所示。

    表 1  坐标参数设置
    名称位置(km)
    雷达R1(0.00,0.00,0.00)
    雷达R2(8.00,6.00,0.00)
    雷达R3(14.00,20.00,0.00)
    无人机A1(4.25,10.20,17.00)
    无人机A2(5.75,10.50,15.00)
    无人机A3(8.15,14.80,13.00)
    虚假目标点C(5.00,12.00,20.00)
    下载: 导出CSV 
    | 显示表格

    由对组网雷达航迹欺骗的条件可知,当式(11)成立时,无人机集群可以成功欺骗组网雷达

    ¯Q1Q2δmin¯Q1Q3δmin¯Q2Q3δmin}
    (11)

    在保证欺骗效果的前提下,当组网雷达的最小分辨率和3种误差中的2种已知时,由式(10)可以计算出另外一种误差的最大范围;当3种误差均已知时,可计算出组网雷达最小分辨率的下限,如表2所示。

    表 2  组网雷达误差和最小分辨率计算表
    雷达站址误差(m) 无人机抖动误差(m) 转发时延误差(μs) 最小分辨率(m)
    er14250.0 ej1=0.0 et1=0.0 δmin=1500.0
    er22250.0 ej2=0.0 et2=0.0
    er31392.9 ej3=0.0 et3=0.0
    er1=0.0 ej1637.5 et1=0.0 δmin=1500.0
    er2=0.0 ej2562.5 et2=0.0
    er3=0.0 ej3487.5 et3=0.0
    er1=0.0 ej1=0.0 et15.0 δmin=1500.0
    er2=0.0 ej2=0.0 et25.0
    er3=0.0 ej3=0.0 et35.0
    er1700.0 ej1=150.0 et1=3.0 δmin=1500.0
    er2725.0 ej2=100.0 et2=2.5
    er3692.9 ej3=50.0 et3=2.0
    er1=1200.0 ej175.0 et1=3.0 δmin=1500.0
    er2=800.0 ej281.3 et2=2.5
    er3=600.0 ej382.5 et3=2.0
    er1=1200.0 ej1=150.0 et12.4 δmin=1500.0
    er2=800.0 ej2=100.0 et22.3
    er3=600.0 ej3=50.0 et32.3
    er1=1200.0 ej1=150.0 et1=3.0 δmin1400.0
    er2=800.0 ej2=100.0 et2=2.5
    er3=600.0 ej3=50.0 et3=2.0
    下载: 导出CSV 
    | 显示表格

    组网雷达的最小距离分辨率设为1500.0 m。从表2可以看出,当3类误差单独存在时,无人机集群进行航迹欺骗所允许的误差范围较大,对组网雷达实施航迹欺骗的成功率较大。其中任何一种误差都不能超过该误差单独存在时的上限,即er14250.0 m,er22250.0 m,er31392.9 m,ej1≤637.5 m,ej2≤562.5 m,ej3≤487.5 m,et1≤5.0  μset2≤5.0  μset3≤5.0  μs。将3类误差中的两种给定,便可得到另外一类误差的范围。从表2可以看出,这些误差对于虚假目标点偏离程度的影响不同,无人机与干扰的雷达之间距离越大,欺骗距离越短,这两种误差对航迹欺骗效果的影响越小;而组网雷达最小分辨率越大,转发时延误差对航迹欺骗效果的影响越小。此外,在3类误差均已知的情况下,求出组网雷达最小分辨率的下限为1400.0 m。

    假设在两种误差大小和方向已知的情况下,由式(10)计算,对能够成功欺骗组网雷达的第3种误差取值范围进行数值分析,以验证表2中计算结果的可靠性与准确性,结果分别如图6图8所示。

    图 6  时延误差不同情况下实际虚假目标点之间的距离
    图 8  无人机抖动误差不同情况下实际虚假目标点之间的距离

    组网雷达最小距离分辨率δmin=1500.0 m时,由图6图7图8可以看出,给定雷达站址误差1200.0 m, 800.0 m, 600.0 m和无人机抖动误差150.0 m, 100.0 m, 50.0 m,将各无人机搭载的DRFM时延误差控制在2.4 μs,2.3 μs,2.3 μs内,实际生成虚假目标点之间的距离始终小于最小分辨率1500.0 m,则可以成功欺骗组网雷达。给定时延误差3.0 μs,2.5 μs,2.0 μs和无人机抖动误差150.0 m, 100.0 m, 50.0 m,将雷达站址误差控制在700.0 m, 725.0 m, 692.9 m内,则可以成功欺骗组网雷达。给定时延误差3.0 μs,2.5 μs,2.0 μs和雷达站址误差1200.0 m, 800.0 m, 600.0 m,将无人机抖动误差控制在75.0 m, 81.3 m, 82.5 m内,则可以成功欺骗组网雷达。

    图 7  雷达站址误差不同情况下实际虚假目标点之间的距离

    综合考虑上述3种误差,本文通过数值分析发现,当这些误差被控制在由式(10)所计算的参数范围内时,无人机集群能够有效地对组网雷达进行航迹欺骗干扰,超出这个范围以后,航迹欺骗效果无法得到保证。若能获取无人机与量测所得雷达位置间的距离、欺骗距离及组网雷达的最小距离分辨率,则可以计算得到3种误差之间的耦合关系。3种误差按照该耦合关系取值叠加以后不超过组网雷达的最小分辨率,才能保证无人机集群能够成功欺骗组网雷达。由以上仿真结果可知,当任意两种误差给定后,可以计算得到另外一种误差的取值范围,若该误差不超过此范围,则生成虚假目标点间的距离始终小于组网雷达的最小距离分辨率,此时,无人机集群可以成功欺骗组网雷达。另外,当组网雷达的最小距离分辨率一定时,雷达站址误差和无人机抖动误差对组网雷达欺骗效果的影响与雷达位置、无人机位置以及预设虚假目标位置有关,而时延误差对航迹欺骗效果的影响仅取决于无人机搭载的DRFM精度。

    本文在雷达站址误差、无人机抖动误差和时延误差均存在的情况下,由上述3类误差与航迹点偏离程度之间的几何关系,推导出成功欺骗组网雷达时3种误差的边界条件,经过分析得出了雷达站址误差和无人机抖动误差对虚假目标点偏离程度的影响与雷达位置、无人机位置以及预设虚假目标位置有关,而时延误差与这些参量无关的结论。通过数值分析,验证了模型假设和公式推导的有效性与准确性,对实际应用中改善针对组网雷达的航迹欺骗效果具有一定指导意义。

  • 图  1  基于残差多尺度卷积和注意力机制的深度卷积神经网络模型

    图  2  本文中所使用的残差块

    图  3  多尺度卷积结构

    图  4  注意力模块网络结构

    图  5  不同网络分割结果对比

    图  6  空间注意力权重图可视化后的结果

    图  7  通道注意力模块输出特征张量的不同通道可视化后的结果

    表  1  不同模型的量化分割结果

    方法DSCIoUHausdorffFPRFNR
    U-Net0.6254±0.07190.4550±0.070935.1372±4.23800.0703±0.02160.1857±0.0532
    A-Deeplabv3+0.6874±0.02410.5258±0.028026.7047±2.13340.0553±0.01230.2364±0.0244
    BCDU-Net0.7132±0.00860.5554±0.010422.8483±2.94900.0540±0.02450.2052±0.0416
    U-Net++0.7177±0.03070.5597±0.021427.2110±2.35880.0407±0.00370.2556±0.0785
    AU-Net0.7413±0.04510.5889±0.058125.2377±1.13630.0426±0.00230.3024±0.0785
    AU-Net+SE0.7432±0.02310.5934±0.028924.3763±2.06820.0366±0.00220.2720±0.0301
    本文方法0.7822±0.01130.6423±0.015119.2769±1.26940.0306±0.00640.1991±0.0197
    下载: 导出CSV
  • [1] HAUGEN B R, ALEXANDER E K, BIBLE K C, et al. 2015 American Thyroid Association management guidelines for adult patients with thyroid nodules and differentiated thyroid cancer: The American Thyroid Association guidelines task force on thyroid nodules and differentiated thyroid cancer[J]. Thyroid, 2016, 26(1): 1–133. doi: 10.1089/thy.2015.0020
    [2] MAROULIS D E, SAVELONAS M A, IAKOVIDIS D K, et al. Variable background active contour model for computer-aided delineation of nodules in thyroid ultrasound images[J]. IEEE Transactions on Information Technology in Biomedicine, 2007, 11(5): 537–543. doi: 10.1109/TITB.2006.890018
    [3] SAVELONAS M A, IAKOVIDIS D K, LEGAKIS I, et al. Active contours guided by echogenicity and texture for delineation of thyroid nodules in ultrasound images[J]. IEEE Transactions on Information Technology in Biomedicine, 2009, 13(4): 519–527. doi: 10.1109/TITB.2008.2007192
    [4] 邵蒙恩, 严加勇, 崔崤峣, 等. 基于CV-RSF模型的甲状腺结节超声图像分割算法[J]. 生物医学工程研究, 2019, 38(3): 336–340. doi: 10.19529/j.cnki.1672-6278.2019.03.15

    SHAO Meng’en, YAN Jiayong, CUI Xiaoyao, et al. Ultrasound image segmentation of thyroid nodule based on CV-RSF algorithm[J]. Journal of Biomedical Engineering Research, 2019, 38(3): 336–340. doi: 10.19529/j.cnki.1672-6278.2019.03.15
    [5] ZHAO Jie, ZHENG Wei, ZHANG Li, et al. Segmentation of ultrasound images of thyroid nodule for assisting fine needle aspiration cytology[J]. Health Information Science and Systems, 2013, 1: 5. doi: 10.1186/2047-2501-1-5
    [6] ALRUBAIDI W M H, PENG Bo, YANG Yan, et al. An interactive segmentation algorithm for thyroid nodules in ultrasound images[C]. The 12th International Conference on Intelligent Computing, Lanzhou, China, 2016: 107–115. doi: 10.1007/978-3-319-42297-8_11.
    [7] RONNEBERGER O, FISCHER P, and BROX T. U-Net: Convolutional networks for biomedical image segmentation[C]. The 18th International Conference on Medical Image Computing and Computer-Assisted Intervention, Munich, Germany, 2015: 234–241. doi: 10.1007/978-3-319-24574-4_28.
    [8] CHAN T F and VESE L A. Active contours without edges[J]. IEEE Transactions on Image Processing, 2001, 10(2): 266–277. doi: 10.1109/83.902291
    [9] LI Chunming, KAO C Y, GORE J C, et al. Minimization of region-scalable fitting energy for image segmentation[J]. IEEE Transactions on Image Processing, 2008, 17(10): 1940–1949. doi: 10.1109/TIP.2008.2002304
    [10] DING Jianrui, HUANG Zichen, SHI Mengdie, et al. Automatic thyroid ultrasound image segmentation based on u-shaped network[C]. The 12th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics, Suzhou, China, 2019: 1–5. doi: 10.1109/CISP-BMEI48845.2019.8966062.
    [11] WANG Jianrong, ZHANG Ruixuan, WEI Xi, et al. An attention-based semi-supervised neural network for thyroid nodules segmentation[C]. 2019 IEEE International Conference on Bioinformatics and Biomedicine, San Diego, USA, 2019: 871–876. doi: 10.1109/BIBM47256.2019.8983288.
    [12] WU Yating, SHEN Xueliang, BU Feng, et al. Ultrasound image segmentation method for thyroid nodules using ASPP fusion features[J]. IEEE Access, 2020, 8: 172457–172466. doi: 10.1109/ACCESS.2020.3022249
    [13] ABDOLALI F, KAPUR J, JAREMKO J L, et al. Automated thyroid nodule detection from ultrasound imaging using deep convolutional neural networks[J]. Computers in Biology and Medicine, 2020, 122: 103871. doi: 10.1016/j.compbiomed.2020.103871
    [14] OKTAY O, SCHLEMPER J, FOLGOC L L, et al. Attention U-Net: Learning where to look for the pancreas[J]. arXiv preprint arXiv: 1804.03999, 2018.
    [15] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module[C]. The 15th European Conference on Computer Vision, Munich, Germany, 2018: 3–19. doi: 10.1007/978-3-030-01234-2_1.
    [16] FU Jun, LIU Jing, TIAN Haijie, et al. Dual attention network for scene segmentation[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 3146–3154. doi: 10.1109/CVPR.2019.00326.
    [17] LEE H J, KIM J U, LEE S, et al. Structure boundary preserving segmentation for medical image with ambiguous boundary[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 4817–4826. doi: 10.1109/CVPR42600.2020.00487.
    [18] ZHONG Zilong, LIN Zhongqiu, BIDART R, et al. Squeeze-and-attention networks for semantic segmentation[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 13065–13074. doi: 10.1109/CVPR42600.2020.01308.
    [19] SZEGEDY C, IOFFE S, VANHOUCKE V, et al. Inception-v4, inception-ResNet and the impact of residual connections on learning[J]. arXiv preprint arXiv: 1602.07261, 2016.
    [20] KINGMA D P and BA J. Adam: A method for stochastic optimization[J]. arXiv preprint arXiv: 1412.6980, 2017.
    [21] AZAD R, ASADI-AGHBOLAGHI M, FATHY M, et al. Attention deeplabv3+: Multi-level context attention mechanism for skin lesion segmentation[C]. The European Conference on Computer Vision, Glasgow, UK, 2020. doi: 10.1007/978-3-030-66415-2_16.
    [22] AZAD R, ASADI-AGHBOLAGHI M, FATHY M, et al. Bi-directional ConvLSTM U-Net with densley connected convolutions[C]. 2019 IEEE/CVF International Conference on Computer Vision Workshop, Seoul, Korea (South), 2019: 406–415, doi: 10.1109/ICCVW.2019.00052.
    [23] ZHOU Zongwei, SIDDIQUEE M M R, TAJBAKHSH N, et al. Unet++: A nested u-net architecture for medical image segmentation[C]. The 4th International Workshop, DLMIA 2018, and 8th International Workshop, ML-CDS 2018, Held in Conjunction with MICCAI 2018, Granada, Spain, 2018: 3–11. doi: 10.1007/978-3-030-00889-5_1.
    [24] HU Jie, SHEN Li, and SUN Gang. Squeeze-and-excitation networks[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 7132–7141. doi: 10.1109/cvpr.2018.00745.
  • 加载中
图(7) / 表(1)
计量
  • 文章访问数:  3655
  • HTML全文浏览量:  1660
  • PDF下载量:  411
  • 被引次数: 0
出版历程
  • 收稿日期:  2021-01-05
  • 修回日期:  2021-03-31
  • 网络出版日期:  2021-04-16
  • 刊出日期:  2022-02-25

目录

/

返回文章
返回