Deep Image Prior Acceleration Method for Target Offset in Low-dose CT Images Denoising
-
摘要: 低剂量CT(LDCT)图像可大幅降低X射线辐射剂量,但存在大量噪声影响医生诊断。深度图像先验(DIP)是用随机张量作为神经网络的输入图像,以单张LDCT图像为目标进行迭代的无监督深度学习算法。但DIP方法需经过上千次的网络迭代才能得到最佳降噪结果,导致该方法运行速度过慢。因此,该文提出一种用于LDCT降噪的目标偏移DIP加速算法,旨在保持降噪图像质量的基础上提高运行速度。根据一个器官(如肺部)LDCT切片序列图像的相似性,该算法将以各切片分别作为目标图像对应的相互独立的网络迭代通过继承参数关联起来,在上一切片对应的网络参数的基础上更新当前切片对应的网络参数,并将当前切片对应的网络参数作为下一切片对应的网络迭代的基础;由于DIP网络的输入是固定的随机张量,与目标图像差距较大,该文利用传统降噪模型预处理后的LDCT图像作为网络输入,进一步提高网络迭代速度。实验表明,不使用传统模型预处理时,与原DIP网络运行速度相比,该文所提出的加速算法可以将迭代速度提高10.45%;当使用经过相对全变分(RTV)模型预处理的LDCT作为网络输入时,图像峰值信噪比不仅可以达到29.13,而且总迭代速度可以提高94.31%。综上所述,该文算法可在保持DIP降噪效果的基础上,大幅度提高运行速度,特别是RTV模型预处理后的CT图像作为网络输入时,对提高运行速度的效果更加明显。Abstract: Low Dose CT (LDCT) images can significantly reduce the X-ray radiation dose, but there is a lot of noise that affects doctors' diagnosis. Deep Image Prior (DIP) is an unsupervised deep learning algorithm that uses random tensor as the input of neural network and iterates with a single LDCT image as the target. However, DIP needs thousands of iterations to get the best denoised results, resulting in the slow running speed of this method. Therefore, a DIP acceleration method for target offset in low-dose CT images is proposed, which aims to improve the running speed while maintaining the quality of denoised image. According to the similarity of LDCT slice images of an organ (such as lungs), the algorithm associates independent networks whose target images are different slices by inheriting parameters, updates the network parameters corresponding to the current slice based on the network parameters corresponding to the previous slice, and takes the network parameters corresponding to the current slice as the basis of next network corresponding to next slice to update parameters; Since the input of DIP network is a fixed random tensor, which is different from the target image greatly, this paper uses the LDCT image preprocessed by the traditional models as the network input to improve further the network iteration speed. Experiments show that the proposed acceleration algorithm can improve the iteration speed by 10.45% compared with the original DIP network without traditional model preprocessing. When LDCT preprocessed by Relative Total Variation (RTV) model is used as the network input, the image peak signal-to-noise ratio can not only reach 29.13, but also the total iterative speed can be increased by 94.31%. Therefore, this algorithm can greatly improve the running speed while maintaining the denoised quality of DIP, especially when the CT image preprocessed by RTV model is used as the network input, the effect of improving the running speed is more obvious.
-
Key words:
- Image denoising /
- Low Dose CT (LDCT) /
- Deep learning /
- Deep Image Prior (DIP) /
- Acceleration method
-
1. 引言
计算机断层切片成像(Computed Tomography, CT)的原理是用X射线对人或者物体进行透射扫描并旋转一周,由探测器接收X射线,将经过信号转换后得到数字投影数据,用CT图像重建算法重建出CT图像。X射线的剂量与成像质量息息相关,剂量增加可能会对人体产生危害,剂量降低可能会影响医生的诊断。具体来说,噪声增加是导致CT图像质量降低的主要因素之一,而低剂量CT图像带有大量的噪声。强大的噪声可能会掩盖潜在的低对比度病变,这将导致诊断疾病或指导手术变得困难。因此,通常需要一个去噪器来有效地抑制噪声,同时尽可能地保持图像分辨率,从而提高图像质量。因此如何在降低CT图像中X射线剂量的基础上,兼顾去伪影、去噪和增强医生对CT图像的可阅读性,是当下面临的严峻挑战[1]。由于在医学图像中很难找到对应的干净(无噪声)CT图,因此本文将低剂量CT(Low-Dose CT, LDCT)图像去噪后的结果与正常剂量CT(Normal-Dose CT, NDCT)图像作对比,进而分析降噪效果的优劣。
传统的图像降噪模型中,应用最广泛的全变分(Total-Variation, TV)模型是由Rudin等人[2]提出的降噪模型。随着迭代次数的增加,图像平坦区域会出现灰度相同,即块状图像,这一现象就是“阶梯效应”。TV模型的缺陷在于其不符合图像处理的形态学原则[3],直接表现为其稳态解会出现阶梯效应。为改善TV模型,Xu等人[4]提出了相对全变分(Relative Total Variation, RTV)模型来捕捉图像的结构特征。该方法使噪声和结构表现出不同的性质,使它们更容易分开处理,可以更有效地处理噪声,保护结构边缘。传统模型可以一定程度上去除噪声并保持结构信息,但是随着迭代次数的增加,仍会出现细节丢失与边缘模糊等现象,所以基于深度学习的图像降噪算法的出现就显得尤为重要。
随着以人工智能特别是深度学习为主导的计算新时代的出现,医学图像重建和处理领域发生了革命性的变化,新一代人工智能图像增强工具在医学图像上广泛应用。目前出现了很多关于图像去噪的监督学习算法,如Zhang等人[5]提出了一种将批量归一化方法集成到残差学习框架DnCNN等。但有监督的深度学习方法需要大量精确配对的正常剂量CT图像和低剂量CT图像进行训练,从而给实际应用带来困难。Moran等人[6]提出了一种无需真实图像(ground truth,即无噪声对应图像)的训练神经网络的方法Nr2N(Noisier2Noise),通过估计出图像噪声来得到重建图像,但低剂量CT图像的噪声类型主要是泊松噪声。Yie等人[7]探讨了基于测量的PET(正电子成像)数据集进行PET图像去噪的自监督方法的可行性,只使用单个噪声数据集训练的Nr2N网络在保持纹理的同时能够有效降低噪声,但不太适用于低剂量CT图像。
深度图像先验(Deep Image Prior, DIP)[8]即使只在单张损坏图像上进行反复迭代,也同样能学习到图像的结构信息,进而完成图像修复。由于DIP是从头开始训练的,对输入图像之外的图像统计数据的访问权限有限,这限制了在图像着色等任务中的适用性[9],且DIP网络的迭代速度过慢并缺少停止准则。Dittmer等人[10]将DIP方法视作了吉洪诺夫泛函的优化而非网络优化,从贝叶斯观点说明了其选择的损失函数与最大后验概率扩展到合适解的合理性。Cheng等人[11]从贝叶斯的观点出发,提出了一种避免过度拟合的方法来减轻DIP对停止准则的需要。更多改进方法如Cui等人[12]、Hashimoto等人[13]与Mataev等人[14]在DIP的基础上优化网络和改变输入来提高PET上的降噪效果。但是DIP网络最大的问题在于需要人为设定停止条件,此外,对计算机内存的要求较高;尽管该方法显示出适应各种PET图像降噪方法的潜力,但该网络结构并未充分利用解剖引导图像的语义特征或图像细节[15]。
本文在低剂量CT图像降噪领域,提出了一种基于目标偏移DIP加速方法,通过使用一系列相似的LDCT图像作为网络逼近的目标图像并继承网络参数,并用传统模型对LDCT图像进行预处理,在加快DIP迭代速度的基础上,可以尽可能多地保留细节和去除噪声,后续的实验结果验证了其有效性。
2. DIP网络
深度图像先验[8]认为人为设计的网络结构本身就能够抓取大量低层级的图像统计先验信息,从而实现类似HOG(Histogram of Oriented Gradients)这样人为设计的特征提取。DIP证明了网络结构本身就是一种很好的先验,这种网络结构的先验不需要经过大量的数据训练,就可以捕获很多低水平的图像统计知识,网络对图片特征的学习会对“坏”特征(如噪声)具备高阻抗特性,即网络会优先学习更加“自然”的特征(如结构)。在迭代次数到达某个阈值前,每次生成的图像都在向着原始无噪声图片“靠近”,之后会用更多的时间和代价来拟合噪声图像中的噪声。
x∗=argminxE(x;x0)+R(x) (1) 其中,
x 是神经网络输出的图像,x0 是含噪图像(作为DIP的目标图像),E(x;x0) 是一个由任务决定的数据项(保真项),R(x) 是一个正则化项,当任务需求发生改变时,E(x;x0) 也发生改变,这里主要用于去噪,所以E(x;x0)=‖ 。式(1)需要找出使得E\left( {x;{x_0}} \right) + R(x) 最小的x ,作为最后网络的输出{x^*} 。将卷积网络视作有一系列参数的函数映射,通过不断优化参数来使得固定的随机输入可以映射到逼近原无噪声图像。将R(x) 由神经网络捕获的隐式先验替换,故而式(1)可写作\qquad\quad {\theta ^*} = \mathop {\arg \min }\limits_\theta E\left( {{f_\theta }(z);{x_0}} \right) (2) \qquad\quad {x^*} = {f_{{\theta ^*}}}(z) (3) DIP是基于U-Net的无监督神经网络,使用了Leaky-ReLU作为激活函数,下采样是基于卷积调整stride来实现的。当迭代次数趋于无穷时,网络输出图像将逼近目标图像(即含噪图像),但在迭代的过程中,网络输出图像将先逼近对应的无噪图像,这已经得到实验证实。DIP只需要一幅含噪图像即可通过优化参数得到网络输出,该网络输出会根据迭代次数和损失函数来逼近原无噪图像。
U-Net网络的输入是与网络深度一致,固定的随机张量。采用的是Adam优化算法,在训练过程中限制迭代次数,对每次的输出不断地迭代,通过观测图像降噪优劣来停止迭代。所采用的损失函数为
{\theta ^*} = \mathop {\arg \min }\limits_\theta \left\| {{x_0} - f\left( {\theta \mid z} \right)} \right\|^2_2,\hat x = f\left( {\hat \theta \left| z \right.} \right) (4) 其中,
\hat \theta 表示网络最后的参数,{x_0} 为低信噪比CT图像及z 表示随机的固定张量。3. 基于目标偏移的DIP加速算法
由于DIP网络的输入是固定的随机张量,和LDCT差别太大,需要经过数千次迭代才能获得较好的降噪图像,耗时过多。利用CT图像集的特殊性:一个器官(如肺部)CT图像集是具有相近噪声水平的相似图像切片序列组成的集合,根据作为目标图像的低剂量CT系列切片图像的相似性,本文提出基于目标偏移的DIP加速算法,该算法将各切片对应的相互独立的网络迭代通过继承参数关联起来,从而大幅减少迭代次数。最后,将传统模型降噪预处理和基于目标偏移的DIP加速算法结合起来,进一步减少运行时间。
3.1 网络输入为随机张量的目标偏移的DIP加速算法
由于DIP网络是基于U-Net的神经网络,其深度较深、运行速度较慢,本文提出的基于目标偏移的DIP加速算法,其基本流程如下:
(1)第1张切片对应的DIP网络:将固定的随机张量(只与网络深度有关,与目标图像无关)输入该DIP网络,其目标图像为低剂量CT切片图像1,在合适的迭代次数下输出降噪结果图像1并得到相应的网络参数DIP_1;
(2)第2张切片对应的DIP网络:将固定的随机张量输入该DIP网络,其目标图像为低剂量CT图像2,在网络参数DIP_1的基础上迭代,在合适的迭代次数下输出降噪结果图像2并得到相应的网络参数DIP_2;
(3)依此类推,每一张切片对应的网络使用的目标图像都是同一噪声水平的不同但相似的CT图像(所以称为目标偏移),并将这张切片得到的网络参数用到下一张切片对应的网络迭代过程中(称为参数继承,这是网络迭代加速的关键)。算法流程如图1所示(以3张切片为例,可推广到更多切片类似处理,下同):
需要说明的是,目标偏移的DIP加速算法,和一般网络的迁移学习有相似但有所不同。迁移学习是一种机器学习方法,就是把任务A训练的网络(如用自然图像降噪训练网络)作为初始点,重新使用在为任务B训练的网络中(如医学图像降噪中),从而减少任务B的网络训练时间和训练样本数量。迁移学习中任务A和任务B的输入图像可能有较大差异,但目标函数往往相同。而目标偏移的DIP加速算法,各切片对应网络的输入图像(固定的随机张量)相同,但目标函数略有不同。
3.2 网络输入为传统模型预处理后图像的目标偏移的DIP加速算法
考虑到传统方法(TV模型与RTV模型)对于降噪方面有良好的效果,本文将随机输入更改为由传统模型降噪后的图像,加入DIP加速算法,进一步提高迭代速度;其算法流程如图2所示。
4. 实验
本实验方法在MATLAB软件与Pytorch框架上实现,使用显卡为NVIDIA GeForce RTX 3060 Ti,内存为32 GByte,并主要使用Python3.6作为编程语言。为了验证基于目标偏移算法对图像降噪的速度,分别采用上述提到的算法对低剂量CT图像降噪处理并对算法的速度进行评价。本文试验过程中使用的优化器为ADMM,学习率为0.001;由于DIP是即插即用的网络,只需要一张含噪图片即可实现去噪功能。
4.1 数据准备
通过观察真实低剂量CT图像的噪声分布发现:噪声水平为200的泊松噪声可以很好地模拟真实噪声(如图3红色框内的噪声灰度分布所示),由于实验中真实的低剂量CT图像无对应的正常剂量CT图像,为比较降噪效果,利用对正常剂量CT图像集加入泊松200的噪声来模拟低剂量CT图像数据集。注意:实验中正常剂量CT图像集仅作为评价降噪效果的基准图像(金标准),而不参与降噪过程。
为定量比较低剂量模拟CT图像的降噪效果,本文使用了峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)与结构相似度(Structural Similarity, SSIM)作为衡量降噪效果优劣的指标,PSNR量化了基准图像与去噪后图像之间的相似度,SSIM可以衡量图片结构的失真程度。限定DIP迭代次数在8000次以内,当PSNR达到最大值时迭代停止输出最佳结果。
图4采用的原始DIP,其输入为随机张量,目标图像为含噪图像(模拟低剂量CT图像),目标函数中无正则项。最佳结果处的PSNR值为29.16 dB,在4412次迭代达到,所需时间为1132.43 s,此时输出图像最接近基准图像(正常剂量CT图像);迭代8000次所需的时间为1924.35 s。如在达到最佳结果后继续迭代,PSNR值会不断降低,输出图像将逼近目标图像(LDCT图像)。
如图5所示,可以通过观察损失函数(即式(1)中的数据保真项)和PSNR在迭代过程中的变化来观察效果,可以看到的是,在输入为随机张量的原始DIP网络中,经过一定次数的迭代(如3500次),PSNR值会达到一个较高的值,然后需要花更多的时间和代价来提高0.1 dB峰值信噪比,即可以通过舍弃0.1 dB的峰值信噪比来减少1 000次甚至更多的迭代次数,但这里为了对比本文仍采用最高的峰值信噪比及对应的迭代次数输出最佳结果。
4.2 传统模型作为DIP网络预处理
本文均采用同一低剂量CT图像做网络目标图像,将输入分别改为该低剂量CT图像由TV模型或RTV模型预处理后的张量(图像),在DIP网络迭代过程中检测每一次输出图像与正常剂量CT图像的PSNR和SSIM,如图6所示,其中第1列是DIP网络的输入,第2列是经过DIP网络迭代8 000次的结构,第3列是在迭代8 000次的过程中PSNR值最高的结果,其中每幅子图右上角小图为红色框对应的放大图。
从图6可以看出相比RTV模型预处理后的张量,TV模型预处理后的张量模糊了LDCT中的细节信息,但两张量并未达到较好的视觉效果,经过DIP网络处理后二者达到了难分伯仲的去噪结果,但所花费的时间却有待考察。用TV模型预处理后的张量作为网络输入,在第4416次迭代的PSNR值为28.41 dB,但迭代到最高PSNR值时需要6 140次,PSNR值为28.77 dB,由此可见,DIP网络确实是为了提高0.3 dB的PSNR花了接近2 000次迭代。在后续实际应用中,可以舍弃0.3 dB的PSNR来提高迭代速度。下面将定量对比原始DIP网络和在改变输入情况下PSNR变化和程序运行时间,如表1所示。
表 1 DIP网络改变输入前后质量对比网络输入 DIP处理前PSNR (dB) DIP处理后PSNR (dB) 迭代时间(s) 此刻SSIM 固定的随机张量 29.16 1132.43 0.87 经TV模型作为预处理所得张量 27.01 28.77 1092.46 0.87 经RTV模型作为预处理所得张量 28.30 28.60 196.08 0.88 由于原始DIP网络的输入是固定的随机张量,因此表1不计算随机张量与正常剂量CT图像之间的PSNR值。由上可知,将输入改变为TV模型预处理后的图像可提高3%的运行速度,但输出图像质量有所下降;而RTV模型的加入可以使得运行速度提高了82.68%,图像PSNR下降不多且此刻的SSIM值也有一定的提高。除此以外,可以看出在TV模型和 RTV模型对LDCT处理后再经过DIP网络处理能够使LDCT降噪效果进一步提升。这为后续使用改变输入情况下基于目标偏移的加速算法提供了思路。
4.3 随机输入下基于目标偏移的DIP网络加速算法
本节将展示基于目标偏移的加速算法,首先是固定的随机张量作为网络输入,图7展示由5个模拟低剂量CT切片图像组成的图像集,其中右上角小图为红色框对应的放大图,经本文算法处理的结果,在实际的系列CT图像中可以重复操作。
目标图像均为模拟的低剂量CT图像,最佳结果为在迭代8 000次以内PSNR值最高时的图像。从图7结果可以看到随着网络参数的继承使用,图像视觉效果有明显提高,能够在恢复图像结构和细节信息的同时,有效地去除噪声,避免了TV模型与RTV模型导致边缘信息损失的情况。下面进一步比较本文算法对于DIP网络加速的时间及降噪量化指标。
4.4 传统模型预处理下基于目标偏移的DIP网络加速算法
可以通过定量地观察每幅图像相应的去噪网络在迭代过程中得到的PSNR最大值、达到最大PSNR值所需运行时间及此刻的SSIM值来分析加速效果。本节展示将低剂量CT图像通过传统降噪模型预处理后作为网络输入下的加速算法。考虑了不同输入情况下的目标偏移的DIP网络加速算法,如表2所示。
表 2 5个不同的图像经本加速算法处理结果目标图像 固定的随机张量作为
DIP网络输入TV模型处理后的张量作为DIP网络输入 RTV模型处理后的张量作为DIP网络输入 PSNR最大值(dB) 迭代时间(s) SSIM PSNR最大值(dB) 迭代时间(s) SSIM PSNR最大值(dB) 迭代时间(s) SSIM 1 29.16 1132.43 0.87 28.77 1092.46 0.87 28.60 196.08 0.88 2 29.04 969.01 0.87 28.65 767.31 0.86 28.59 26.62 0.88 3 29.07 847.19 0.88 28.74 226.01 0.87 28.68 33.25 0.88 4 29.14 778.07 0.88 28.82 128.02 0.87 28.43 16.22 0.88 5 29.05 726.38 0.88 29.18 122.54 0.87 29.13 17.24 0.88 通过表2结果可以看出,当输入为固定的随机张量时,基于目标偏移的DIP算法可以稳定地提高10.45%的运行速度,且每幅图像PSNR值与SSIM值波动不大。传统模型预处理的加入与目标偏移参数继承相结合可以有效地提高运行速度,并且PSNR值的下降是可以接受的范围。在TV模型预处理后作为DIP网络输入的基础上结合目标偏移算法,每幅图像相应的去噪网络可以稳定地提高运行52.86%的速度,虽然PSNR值有所下降,但是仍处于可以接受的范围,可以看出传统模型的加入使得每个网络逼近目标图像的速度也加快了,即拟合目标图像的噪声速度加快了;RTV的使用使得每幅图像相应的去噪网络运行速度平均增加94.31%,并且从表2可以看出第5个图像其运行速度在得到提高的基础上,PSNR值和SSIM值也有所保证。由此可以说明,本文提出的基于目标偏移的DIP加速算法可以在保证图像降噪质量的基础上大幅度提升运行速度。
图8为基于目标偏移的DIP加速算法在不同输入下PSNR值变化图。与随机张量作为网络输入相比,经过预处理的图像作为网络输入,网络迭代输出图像的PSNR更快(迭代次数更少)地达到第1个峰值,所以运行速度可大幅提高。
与一般深度学习需要大量图像训练不同,改进的DIP仅用需要降噪的LDCT序列进行实验,其条件和传统方法类似,所以本文将和传统方法比较去噪性能。TV模型、RTV模型以及BM3D算法[16]均为高效的去噪方法,本文在同一含噪图片上进行去噪性能比较。但由于TV模型、RTV模型以及BM3D算法均含有参数,对不同的图像或不同程度的噪声需要调整参数,从4.3节的分析可以看出当使用RTV模型预处理后的张量作为DIP网络的输入可以得到更好更快的结果,因此在进行去噪性能比较时使用基于RTV模型输入的目标偏移DIP加速算法。从表3可以看出本文方法能在缺少基准图像的基础上较好地实现去噪性能,并且可以避免调参的麻烦。
表 3 不同方法的降噪性能比较降噪方法 PSNR (dB) SSIM TV 28.49 0.78 RTV 28.62 0.74 BM3D 29.12 0.73 本文算法 29.13 0.88 5. 结束语
本文受到DIP网络的启发,发现DIP网络可以实现图像复原,并且对图像噪声分布的要求较低,但是DIP网络的运行速度过慢,不能很好地应用于实际。由此本文提出了基于目标偏移的DIP加速算法,利用CT切片的相似性与网络参数的继承来提升DIP网络的迭代速度。
通过实验结果发现,TV模型与RTV模型预处理后的图像作为DIP网络输入可以提高运行速度,并且PSNR值的下降仍是可以接受的。由此得到启发,可以通过DIP模型改变网络输入与目标偏移算法的结合来提高速度,使得运行时间得到有效降低。从实验结果可以看到,目标偏移算法确实可以有效地提高运行速度,特别是RTV模型预处理后的CT图像作为网络输入时,对提高运行速度的效果更加明显。
-
表 1 DIP网络改变输入前后质量对比
网络输入 DIP处理前PSNR (dB) DIP处理后PSNR (dB) 迭代时间(s) 此刻SSIM 固定的随机张量 29.16 1132.43 0.87 经TV模型作为预处理所得张量 27.01 28.77 1092.46 0.87 经RTV模型作为预处理所得张量 28.30 28.60 196.08 0.88 表 2 5个不同的图像经本加速算法处理结果
目标图像 固定的随机张量作为
DIP网络输入TV模型处理后的张量作为DIP网络输入 RTV模型处理后的张量作为DIP网络输入 PSNR最大值(dB) 迭代时间(s) SSIM PSNR最大值(dB) 迭代时间(s) SSIM PSNR最大值(dB) 迭代时间(s) SSIM 1 29.16 1132.43 0.87 28.77 1092.46 0.87 28.60 196.08 0.88 2 29.04 969.01 0.87 28.65 767.31 0.86 28.59 26.62 0.88 3 29.07 847.19 0.88 28.74 226.01 0.87 28.68 33.25 0.88 4 29.14 778.07 0.88 28.82 128.02 0.87 28.43 16.22 0.88 5 29.05 726.38 0.88 29.18 122.54 0.87 29.13 17.24 0.88 表 3 不同方法的降噪性能比较
降噪方法 PSNR (dB) SSIM TV 28.49 0.78 RTV 28.62 0.74 BM3D 29.12 0.73 本文算法 29.13 0.88 -
[1] BAI Ti, WANG Biling, NGUYEN D, et al. Deep interactive denoiser (DID) for X-ray computed tomography[J]. IEEE Transactions on Medical Imaging, 2021, 40(11): 2965–2975. doi: 10.1109/TMI.2021.3101241 [2] RUDIN L I, OSHER S, and FATEMI E. Nonlinear total variation based noise removal algorithms[J]. Physica D:Nonlinear Phenomena, 1992, 60(1/4): 259–268. doi: 10.1016/0167-2789(92)90242-F [3] 王大凯, 侯榆青, 彭进业. 图像处理的偏微分方程方法[M]. 北京: 科学出版社, 2008: 146–147.WANG Dakai, HOU Yuqing, and PENG Jinye. Partial Differential Equation Method for Image Processing[M]. Beijing: Science Press, 2008: 146–147. [4] XU Li, YAN Qiong, XIA Yang, et al. Structure extraction from texture via relative total variation[J]. ACM Transactions on Graphics, 2012, 31(6): 139. doi: 10.1145/2366145.2366158 [5] ZHANG Kai, ZUO Wangmeng, CHEN Yunjin, et al. Beyond a Gaussian denoiser: Residual learning of deep CNN for image denoising[J]. IEEE Transactions on Image Processing, 2017, 26(7): 3142–3155. doi: 10.1109/TIP.2017.2662206 [6] MORAN N, SCHMIDT D, ZHONG Yu, et al. Noisier2Noise: Learning to denoise from unpaired noisy data[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 12061–12069. [7] YIE S Y, KANG S K, HWANG D, et al. Self-supervised PET denoising[J]. Nuclear Medicine and Molecular Imaging, 2020, 54(6): 299–304. doi: 10.1007/s13139-020-00667-2 [8] LEMPITSKY V, VEDALDI A, and ULYANOV D. Deep image prior[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 9446–9454. [9] PAN Xingang, ZHAN Xiaohang, DAI Bo, et al. Exploiting deep generative prior for versatile image restoration and manipulation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(11): 7474–7489. doi: 10.1109/TPAMI.2021.3115428 [10] DITTMER S, KLUTH T, MAASS P, et al. Regularization by Architecture: A deep prior approach for inverse problems[J]. Journal of Mathematical Imaging and Vision, 2020, 62(3): 456–470. doi: 10.1007/s10851-019-00923-x [11] CHENG Zezhou, GADELHA M, MAJI S, et al. A Bayesian perspective on the deep image prior[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 5438–5446. [12] CUI Jianan, GONG Kuang, GUO Ning, et al. PET image denoising using unsupervised deep learning[J]. European Journal of Nuclear Medicine and Molecular Imaging, 2019, 46(13): 2780–2789. doi: 10.1007/s00259-019-04468-4 [13] HASHIMOTO F, OHBA H, OTE K, et al. Dynamic PET image denoising using deep convolutional neural networks without prior training datasets[J]. IEEE Access, 2019, 7: 96594–96603. doi: 10.1109/ACCESS.2019.2929230 [14] MATAEV G, ELAD M, and MILANFAR P. DeepRED: Deep image prior powered by RED[J]. arXiv: 1903.10176, 2019. [15] ONISHI Y, HASHIMOTO F, OTE K, et al. Anatomical-guided attention enhances unsupervised pet image denoising performance[J]. Medical Image Analysis, 2021, 74: 102226. doi: 10.1016/j.media.2021.102226 [16] DABOV K, FOI A, KATKOVNIK V, et al. Image denoising by sparse 3-D transform-domain collaborative filtering[J]. IEEE Transactions on Image Processing, 2007, 16(8): 2080–2095. doi: 10.1109/TIP.2007.901238 期刊类型引用(2)
1. 周成,刘洋,邱迎伟,何代均,闫宇,罗敏,雷有缘. 基于最邻近层自监督学习人工智能降噪用于泌尿系结石超低剂量CT. 中国医学影像技术. 2024(08): 1249-1253 . 百度学术
2. 徐少平,熊明海,周常飞. 利用近清图像空间搜索的深度图像先验降噪模型. 电子与信息学报. 2024(11): 4229-4235 . 本站查看
其他类型引用(1)
-