ISSN 1004-4140
CN 11-3017/P

基于深度学习的EPRI稀疏重建方法

杜聪聪, 乔志伟

杜聪聪, 乔志伟. 基于深度学习的EPRI稀疏重建方法[J]. CT理论与应用研究(中英文), xxxx, x(x): 1-9. DOI: 10.15953/j.ctta.2025.047.
引用本文: 杜聪聪, 乔志伟. 基于深度学习的EPRI稀疏重建方法[J]. CT理论与应用研究(中英文), xxxx, x(x): 1-9. DOI: 10.15953/j.ctta.2025.047.
Du C C, Qiao Z W. EPRI Sparse-Reconstruction Method Based on Deep Learning[J]. CT Theory and Applications, xxxx, x(x): 1-9. DOI: 10.15953/j.ctta.2025.047. (in Chinese).
Citation: Du C C, Qiao Z W. EPRI Sparse-Reconstruction Method Based on Deep Learning[J]. CT Theory and Applications, xxxx, x(x): 1-9. DOI: 10.15953/j.ctta.2025.047. (in Chinese).

基于深度学习的EPRI稀疏重建方法

详细信息
  • 中图分类号: TP391.41

EPRI Sparse-Reconstruction Method Based on Deep Learning

  • 摘要:

    电子顺磁共振成像(EPRI)是一种先进的肿瘤氧气浓度成像方法。当前,EPRI的瓶颈问题是扫描时间过长。稀疏重建,即从稀疏视角下采集的投影数据中重建图像,是一种有效的快速成像方法。然而,使用经典的滤波反投影(FBP)算法稀疏重建出的图像含有严重的条状伪影,影响了其后续处理。为此,本文研究基于深度学习的EPRI稀疏重建方法。我们提出了一种残差式的、基于注意力的、密集UNet网络(Residual,Attention-based,Dense UNet,RAD-UNet)来实现条状伪影的压制。该网络的输入是FBP稀疏重建出来的含条状伪影的图像,标签是FBP稠密重建出来的高质量图像。通过大规模数据的训练,网络具有了压制条状伪影的能力。图像重建时,首先用FBP算法稀疏重建出含条状伪影的EPRI图像,然后将其输入RAD-UNet网络进行伪影压制处理,最后得到高精度重建图像。该网络耦合了残差连接、注意力机制、密集连接和感知损失等先进策略,提高了网络的非线性拟合能力,提升了网络的压制条状伪影的能力。实际数据重建实验结果表明,相比于现有的3种具有代表性的深度卷积网络,该网络的稀疏重建精度更高,压制条状伪影的能力更强。

    Abstract:

    Electron paramagnetic resonance imaging (EPRI) is an advanced method for imaging tumor oxygen concentration. The current bottleneck of EPRI is the extremely long scanning time. Sparse reconstruction, i.e., image reconstruction from projection data obtained from a sparse perspective, is an effective rapid-imaging method. However, sparse-reconstructed images using the classical filtered back-projection (FBP) algorithm contain severe streak artifacts, which affects their subsequent processing. Therefore, this study investigates the EPRI sparse-reconstruction method based on deep learning. We propose a residual, attention-based, dense U-network (RAD-UNet) to suppress streak artifacts. The input of the network is an image with streak artifacts from FBP sparse reconstruction, whereas the label is a high-quality image from FBP dense reconstruction. Through large-scale data training, the network suppresses streak artifacts. In image reconstruction, an EPRI image with streak artifacts is first sparse reconstructed from the FBP algorithm. Subsequently, it is input to the RAD-UNet for artifact suppression. Finally, a high-quality reconstructed image is obtained. The network couples advanced strategies such as residual connection, attention mechanism, dense connection, and perceptual loss, thus improving the nonlinear fitting ability of the network and the network’s ability to suppress streak artifacts. Experimental results of actual data reconstruction show that compared with the existing three representative deep convolution networks, the investigated network offers a higher sparse-reconstruction accuracy and greater ability in suppressing streak artifacts.

  • 电子顺磁共振成像(electron paramagnetic resonance imaging,EPRI)是一种基于顺磁性探针(如三苯甲基自由基)的非侵入式活体氧成像技术,能够高分辨率、动态地定量检测组织微环境中的氧分压。研究表明,肿瘤内部的氧气浓度对放疗效率有重要影响。缺氧区域对放射线有抵制效应,而高氧区域对射线更为敏感。所以,自适应精准放疗要求,对肿瘤内部的高氧区域和低氧区域应该分别施加低剂量和高剂量射线[1]。可见,肿瘤氧成像是实现精准放疗的关键技术[2]。EPRI是一种公认的高分辨高精度的肿瘤氧成像模态[3]

    当前,EPRI的瓶颈问题是扫描时间过长。如,在O2 M Technologies JIVA-25型号的小动物电子顺磁共振氧气成像仪中,扫描小鼠肿瘤,一般需要约10分钟。实现快速扫描的一种有效策略是稀疏重建,即从稀疏角度下的投影数据中重建图像。然而,经典的滤波反投影(filtered back projection,FBP)算法稀疏重建出的EPRI图像往往包含严重的条状伪影,影响其后的氧图像构建[4]。所以,需要探索高精度稀疏重建方法。

    2014年,Johnson等人提出了一种基于压缩感知的空间EPRI稀疏重建方法,重建出了高精度图像[5]。2015年,乔等人提出了一种约束的总变差(Total Varivation,TV)最小EPRI稀疏重建模型,并采用ASD-POCS算法求解之,实现了脉冲式EPRI的高精度稀疏重建。2017年,Chou等人提出了一种部分傅里叶压缩感知算法, 在加速4倍扫描过程的情况下,实现了高精度重建[6]。2017年,Durand等人提出了耦合TV和curvelets的优化模型,进一步提高了空间EPRI的稀疏重建精度[7]。2018年,乔等人提出了一种TV约束的数据分离最小重建模型, 推导了Chambolle-Pock (CP) 求解算法,实现了脉冲式EPRI的高精度稀疏重建[8]。这些方法,都是基于压缩感知原理,将成像问题建模为一个最优化问题,通过解最优化模型,实现高精度稀疏重建。其缺点是迭代过程异常耗时。

    2016年以来,深度学习被引入图像重建领域,展示了其潜在的优势[9-12]。其根本原因是,深度学习可以学习到复杂的难易被数学建模的非线性映射。比如,就图像去噪而言,实际的噪声往往类型不确定,因此很难设计出性能优越的正则器。而深度学习图像去噪却可以表现出优异的性能[13]。深度学习图像重建,大致可以分为4类:①从投影到图像的端到端直接重建,比如AUTOMAP[14]。②投影域深度学习,比如将CT的稀疏正弦图智能插值为完备的投影图[15]。③图像域深度学习,即对重建图像使用深度学习方法进行图像后处理,以获得高精度的重建图像[16-19]。④将迭达法展开的深度学习重建方法。这类方法是将迭代法展开成一个网络的形式,然后将图像正则部分使用CNN来代替,进而通过训练整个网络,实现从投影到图像的重建[20-23]。就三维脉冲式EPRI而言,我们无法获得大量的三维图像对以构建训练数据集,所以无法使用第一类和第四类方法。三维EPRI的投影数据无法构成正弦图,所以也不适宜采用第二类方法。唯一可行的方法是第三类方法,即图像域深度学习。分别将FBP重建出来的低质量和高质量三维EPRI图像拆分成一系列二维EPRI图像。二维低质图像作为深度网络的输入,二维高质图像作为网络的标签,可以用来构建训练数据集,以训练深度网络。本文聚焦EPRI的深度学习稀疏重建,所以将重点探讨如果构建深度神经网络对FBP稀疏重建的含条状伪影的图像进行伪影压制。据我们所知,目前关于深度学习EPRI的文章很少[24-25,47-49],所以有必要对其他成像模态中的深度学习稀疏重建方法进行分析。

    我们仅仅关注在图像域进行深度学习压制条状伪影的稀疏重建方法。

    2016年,Han等人和Jin等人几乎同时提出使用经典的UNet网络压制条状伪影[26-27]。2018年,Zhang等人进一步提出结合了密集连接和反卷积的DD-Net网络,实现了高精度稀疏CT重建[28]。2018年,Han等人提出了一种改进的UNet网络,增强了图像的高频特征,提升了压制条状伪影的精度[29]。2018年,Lee等人提出了一种深度残差学习网络去除MRI图像产生的条状伪影[30]。2019年,Guan等人提出基于密集连接的FD-UNet网络来抑制条状伪影,实现了高精度稀疏光声断层重建[31]。显然,在CT、MRI及光声断层成像等成像模态中,卷积神经网络,尤其是UNet网络,均展现了其高精度压制条状伪影的能力。

    深度学习研究表明,残差学习可以在训练更深网络时一定程度上解决梯度消失和梯度爆炸问题[32];密集连接可以增加浅层网络的特征映射在深层网络中的复用,提升网络的表达能力;注意力机制通过对空间或通道信息加权,强调有用信息,可以提升网络性能[33-39];感知损失可以弥补均方误差(mean square error,MSE)仅描述像素级损失的缺点,提高深度学习图像处理的精度[40-43]

    基于这些观察并借鉴现有的压制条状伪影深度网络的设计,我们提出了一种残差式的、基于注意力的、密集UNet网络(Residual,Attention-based,Dense UNet,RAD-UNet)来实现条状伪影的压制。

    第二部分介绍我们提出的RAD-UNet网络,第三部分介绍数据集并展示实验结果,第四部分给出一个简洁的结论。

    本节首先介绍基于CNN的EPRI稀疏重建方法,然后介绍RAD-UNet网络,最后介绍与本文提出的方法进行对比的3种深度学习稀疏重建算法。

    CNN是一种在图像处理中非常适宜的深度神经网络,可以很好的表示输入输出之间的非线性映射。基于CNN的EPRI稀疏重建方法示意图如图1所示。使用CNN对FBP算法稀疏重建的含条状伪影的EPRI图像进行处理,可以有效压制条状伪影。含条状伪影的EPRI图像$ x $是网络的输入,高精度EPRI图像$ y $是网络的标签。网络可以学习从$ x $$ y $的映射,用公式表示为:$ y=f\left(x\right) $。训练好的网络就是函数$ f\left(x\right) $的近似表达。条状伪影是一种复杂的非线性伪影且在图像中分布不均匀,难以用数学的方法进行建模。而深度学习方法能从大量的训练数据中学习条状伪影的特征,有实现高精度压制条状伪影的潜力。

    图  1  基于CNN的EPRI稀疏重建示意图
    Figure  1.  Schematic diagram of CNN-based EPRI sparse reconstruction

    本文提出的的RAD-UNet网络结构如图2所示。网络结构以大小为80×80的EPRI图像作为输入,在U型结构的左侧,第一个卷积单元(这里将每次下采样后到下一次下采样之前的卷积操作称作一个卷积单元)包含一个通道数为32的3×3卷积层、BN(Batch Normalization)层、ReLU(Rectified Linear Unit)激活层和RAD块(Residual Attention-based Dense Block)等操作,其余3个卷积单元只包含RAD块操作[33]

    图  2  RAD-UNet网络结构图
    Figure  2.  Architectural diagram of RAD-UNet

    在U型结构的右侧,每一次上采样之后的输出与U型结构左侧相同大小的特征映射图进行拼接,之后进行1×1卷积层、BN层、ReLU激活层和RD块(Residual Dense Block)等操作[33]。1×1卷积将输入的特征图的通道数减少为原来的$ \displaystyle \dfrac{1}{4} $倍,RD块操作将输入的特征图通道数转换为原来的2倍。其中,上采样过程中转置卷积操作卷积核大小为4×4,步长为2,padding为1。

    输入为32通道输出为64通道的RAD块如图3所示,它是整个网络第一单元中的RAD块,其余单元中的RAD块有类似结构。在图3中,RAD块共包含5个单元。前4个单元构成密集连接块,具体的特征映射图变化流程如图3所示。第5个单元是一个通道注意力模块,如图4所示。它通过学习到一个64×1的通道注意力权重,并将之与输入的通道数为64的特征映射图相乘,获得特定通道被加强的特征映射图。RD块与RAD块的区别是没有第五个单元即注意力模块。

    图  3  RAD块示意图
    Figure  3.  Structure of RAD block
    图  4  注意力模块示意图
    Figure  4.  Attention module

    本文选取具有代表性的RED-CNN、FBPConvNet和FD-UNet三种经典的方法作为压制EPRI图像条状伪影的深度网络,从而与本文算法进行对比。

    RED-CNN网络结合了残差、反卷积和跳跃连接,没有池化操作,取得了高精度的CT图像去噪[16]。FBPConvNet网络其实是经典的残差UNet网络,在CT稀疏重建中取得了较好的效果[27]。FD-UNet网络在UNet网络的收缩和扩展路径中均加入了密集连接,在光声断层稀疏重建中性能优于经典UNet[31]

    本文使用小动物电子顺磁共振氧气成像仪扫描获取到三维EPRI图像,对图像进行切片处理构建了训练CNN需要的EPRI数据集。该成像仪是由 O2 M Technologies 生产的用于小动物的 JIVA-25 EPRI 氧气成像仪。实验模型由装有三苯甲基溶液的小型瓶体组成。在实验中,我们一共设计了25个模体,其中单瓶模型5个,双瓶模型10个,三瓶模型10个。EPRI成像仪和小型瓶体的照片分别如图5图6所示。

    图  5  JIVA-25小动物电子顺磁共振氧气成像仪示意图
    Figure  5.  Photograph of JIVA-25 small-animal EPR oxygen imager
    图  6  小型瓶体示意图
    Figure  6.  Photograph of small bottle

    对于每个模体,我们使用等立体角采样模式[44]采集208个完备投影,并通过三维FBP算法重建出大小为80×80×80的高质量三维EPRI图像。使用投影数为50、80、100、150的稀疏投影数据进行稀疏重建。每组稀疏投影可以通过最大间隔投影排序(Maximally spaced projection sequencing,MSPS)技术从完备的投影数据中选择[45]。以100个投影角度的稀疏重建为例,从208个完备的投影中均匀采集100个投影,然后使用FBP算法稀疏重建出含条状伪影的EPRI图像。对于每个80×80×80大小的三维EPRI图像,我们在三个方向上对其进行切片,得到240张80×80大小的二维图像。从所有的25个模型中,可以获取得到6000个二维EPRI图像。其中,一张含条状伪影的低质量图像和对应的高精度图像组成一个样本,这样一共可以获得6000个样本。将它们分成样本数4800、600和600三个部分,分别构建训练集、验证集和测试集。部分样品的示意图如图7所示。

    图  7  二维EPRI图像示意图,显示窗口为[0, 0.0018]
    Figure  7.  2D EPRI images,Display window: [0, 0.0018]

    在实验中,RED-CNN、FBPConvNet、FD-UNet三种网络使用RMSE损失函数,RAD-UNet网络中损失函数使用RMSE与感知损失组合的复合损失函数,其它参数保持一致。所有的网络使用Adam算法($ {\beta }_{1} $=0.5,$ {\beta }_{2} $=0.999),迭代次数为6000,初始学习率为0.002,迭代3000次以后学习率下降到0.0001,batch size为32。所有的卷积和反卷积滤波器采用何等人提出的初始化方法[46]。网络训练时间约为1小时。

    实验配置CPU是Inter(R) Xeon(R) CPU E5-2620v4 @ 2.10 GHz,GPU是NVIDIA Geforce GTX 1080 Ti。本实验在Windows操作系统下,基于Tensorflow和Keras深度学习框架实现。

    本文开展了2个实验,首先是RAD-UNet网络与RED-CNN、FBPConvNet、FD-UNet三种经典的深度学习稀疏重建方法进行实验对比,然后是RAD-UNet方法在不同的投影稀疏度情形下的重建性能实验对比。

    为了探索RAD-UNet方法重建EPRI稀疏图像的性能,将其与RED-CNN、FBPConvNet、FD-UNet三种稀疏重建算法进行实验对比,采集100个角度下的投影数据进行FBP稀疏重建的含条状伪影的EPRI图像作为网络的输入图像,相对应的高精度EPRI图像采取208个投影角度,作为RAD-UNet网络的标签进行训练。

    重建结果如图8所示,ROI区域图像重建结果如图9所示,从图中可以看到,FBP算法稀疏重建的图(b)具有明显的条状伪影,RED-CNN网络重建的图(c)细节信息被平滑掉了,FBPConvNet网络重建的图像(图(d))与FD-UNet网络重建的图像(图(e))中的伪影明显减少且细节信息增多,而RAD-UNet网络重建的图像(图(f))较为清晰,保留了更多的图像细节。

    图  8  稀疏重建结果,显示窗口为[0, 0.0018]
    Figure  8.  Sparse-reconstruction results, Display window: [ 0, 0.0018]
    图  9  ROI图像稀疏重建结果,显示窗口为[0, 0.0018]
    Figure  9.  ROI sparse-reconstruction results,Display window: [ 0, 0.0018]

    本文采用测试集对应的重建图像的峰值信噪比(PSNR)、均方根误差(RMSE)和结构相似性(SSIM)的均值$ \pm $标准差作为评价指标,来定量分析重建精度(表1)。从表1中可以看出,RAD-UNet网络重建的EPRI图像PSNR高出 FD-UNet 网络1.3 dB,RMSE降低了将近0.9 e-5,SSIM略微领先。

    表  1  稀疏重建实验对比结果
    Table  1.  Comparison results of sparse-reconstruction experiments
    重建算法 FBP RED-CNN FBPConvNet FD-UNet RAD-UNet
    RMSE 0.00011 ± 4.2 e-5 7.0 e-5 ± 2.5 e-5 6.6 e-5 ± 1.6 e-5 5.7 e-5 ± 1.5 e-5 4.8 e-5 ± 1.1 e-5
    SSIM 0.999979 ± 2.1 e-5 0.999992 ± 9.3 e-6 0.999993 ± 4.3 e-6 0.999996 ± 2.7 e-6 0.999997 ± 1.5 e-6
    PSNR 85.42 ± 3.18 89.54 ± 2.74 89.83 ± 1.90 91.17 ± 2.14 92.43 ± 1.82
    下载: 导出CSV 
    | 显示表格

    定性和定量分析均表明,RAD-UNet网络与RED-CNN、FBPConvNet、FD-UNet三种稀疏重建方法相比,保留的细节信息更多,重建出的EPRI图像精度更高。

    为了探索在不同投影角度下RAD-UNet网络稀疏重建算法的性能,分别采集50、80、100、150个角度下的投影数据进行稀疏重建。

    实验结果如图10所示,稀疏度为50时,该方法重建的图(f)缺少很多的细节信息,在稀疏度为80时,图(g)仍然存在明显的条状伪影,稀疏度为100时,图(h)保留的细节信息明显增加,从图(i)中可以看出,150个投影角度下保留的细节信息更多,纹理结构更加明显。

    图  10  不同稀疏度下的重建图像对比图,显示窗口为[0, 0.0018]
    Figure  10.  Comparison results of reconstructed images with different sparsity degrees,Display window: [ 0, 0.0018]

    定量比较结果如表2所示,在150个稀疏角度下重建出的EPRI图像PSNR值比100个稀疏度下重建的EPR图像高出0.5,RMSE值降低了1 e-6,SSIM的值也略微领先。

    表  2  不同稀疏度下重建图像的PSNR值、SSIM值、RMSE值
    Table  2.  PSNR, SSIM, and RMSE values of reconstructed images with different sparsity degrees
    稀疏度 RAD-UNet-50 RAD-UNet-80 RAD-UNet-100 RAD-UNet-150
    RMSE 5.6 e-5±1.3 e-5 5.6 e-5±1.8 e-5 4.8 e-5$ \pm $1.1 e-5 4.7 e-5±1.3 e-5
    SSIM 0.999996±2.3 e-6 0.999996±6.4 e-6 0.999997$ \pm $1.5 e-6 0.999997±2.8 e-6
    PSNR 91.15±2.01 91.44±2.48 92.43$ \pm $1.82 92.92±2.38
    下载: 导出CSV 
    | 显示表格

    定性和定量实验结果表明,本文提出的方法在一定投影角度范围内重建的EPRI图像有效地压制了条状伪影,投影角度越少的EPRI图像在该网络中越不容易训练出高精度EPRI图像,投影角度越多的EPRI图像在该网络中越容易训练出高精度EPRI图像。

    EPRI 稀疏重建具有非常重要的意义。目前,基于压缩感知的方法已经实现了高质量的EPRI稀疏重建。然而,基于迭代的方法重建图像需要很长时间。受CT、MRI和PAT等成像模态中深度学习的稀疏重建的启发,我们提出了RAD-UNet方法,并应用于EPRI领域,探索深度网络在EPRI领域的适用性。该方法结合了多损失机制、密集连接、残差学习和注意力机制,实现密集连接、残差学习与注意力机制的多级耦合,突破传统UNet的层级限制,从而实现高精度EPRI稀疏重建;其次,针对EPRI领域的特性定制RAD块与RD块,为医学成像算法提供新范式。

    与经典的基于深度学习的稀疏重建算法RED-CNN、FBPConvNet和FD-UNet相比,所提出的RAD-UNet网络重建的EPRI图像中的条状伪影得到了很好的压制,图像纹理和细节信息都得到了更好的保留。此外,我们发现投影个数越多,RAD-UNet网络就越容易实现高精度EPRI稀疏重建。在这项工作中获得的见解也可以应用于其他成像模态,如MRI和PET。

  • 图  1   基于CNN的EPRI稀疏重建示意图

    Figure  1.   Schematic diagram of CNN-based EPRI sparse reconstruction

    图  2   RAD-UNet网络结构图

    Figure  2.   Architectural diagram of RAD-UNet

    图  3   RAD块示意图

    Figure  3.   Structure of RAD block

    图  4   注意力模块示意图

    Figure  4.   Attention module

    图  5   JIVA-25小动物电子顺磁共振氧气成像仪示意图

    Figure  5.   Photograph of JIVA-25 small-animal EPR oxygen imager

    图  6   小型瓶体示意图

    Figure  6.   Photograph of small bottle

    图  7   二维EPRI图像示意图,显示窗口为[0, 0.0018]

    Figure  7.   2D EPRI images,Display window: [0, 0.0018]

    图  8   稀疏重建结果,显示窗口为[0, 0.0018]

    Figure  8.   Sparse-reconstruction results, Display window: [ 0, 0.0018]

    图  9   ROI图像稀疏重建结果,显示窗口为[0, 0.0018]

    Figure  9.   ROI sparse-reconstruction results,Display window: [ 0, 0.0018]

    图  10   不同稀疏度下的重建图像对比图,显示窗口为[0, 0.0018]

    Figure  10.   Comparison results of reconstructed images with different sparsity degrees,Display window: [ 0, 0.0018]

    表  1   稀疏重建实验对比结果

    Table  1   Comparison results of sparse-reconstruction experiments

    重建算法 FBP RED-CNN FBPConvNet FD-UNet RAD-UNet
    RMSE 0.00011 ± 4.2 e-5 7.0 e-5 ± 2.5 e-5 6.6 e-5 ± 1.6 e-5 5.7 e-5 ± 1.5 e-5 4.8 e-5 ± 1.1 e-5
    SSIM 0.999979 ± 2.1 e-5 0.999992 ± 9.3 e-6 0.999993 ± 4.3 e-6 0.999996 ± 2.7 e-6 0.999997 ± 1.5 e-6
    PSNR 85.42 ± 3.18 89.54 ± 2.74 89.83 ± 1.90 91.17 ± 2.14 92.43 ± 1.82
    下载: 导出CSV

    表  2   不同稀疏度下重建图像的PSNR值、SSIM值、RMSE值

    Table  2   PSNR, SSIM, and RMSE values of reconstructed images with different sparsity degrees

    稀疏度 RAD-UNet-50 RAD-UNet-80 RAD-UNet-100 RAD-UNet-150
    RMSE 5.6 e-5±1.3 e-5 5.6 e-5±1.8 e-5 4.8 e-5$ \pm $1.1 e-5 4.7 e-5±1.3 e-5
    SSIM 0.999996±2.3 e-6 0.999996±6.4 e-6 0.999997$ \pm $1.5 e-6 0.999997±2.8 e-6
    PSNR 91.15±2.01 91.44±2.48 92.43$ \pm $1.82 92.92±2.38
    下载: 导出CSV
  • [1]

    EPEL B, REDLER G, HALPERN H J. How in vivo EPR measures and images oxygen[J]. Advances in Experimental Medicine & Biology, 2014, 812: 113-119,2014.

    [2]

    EPEL B, REDLER G, TORMYSHEV V et al. Towards human oxygen images with electron paramagnetic resonance imaging[J]. Advances in Experimental Medicine & Biology, 2016, 876: 363-369.

    [3]

    EATON S S, EATON G R. EPR imaging[J]. Journal of Magnetic Resonance, 1984, 59(3): 474-477.

    [4]

    QIAO Z, REDLER G, EPEL B, et al. Comparison of parabolic filtration methods for 3D filtered back projection in pulsed EPR imaging[J]. Journal of Magnetic Resonance, 2014, 248: 42-53. DOI: 10.1016/j.jmr.2014.08.010.

    [5]

    JOHNSON D H, AHMAD R, HE G, et al. Compressed sensing of spatial electron paramagnetic resonance imaging[J]. Magnetic resonance in medicine, 2014, 72(3): 893-901. DOI: 10.1002/mrm.24966.

    [6]

    CHOU C C, CHANDRAMOULI G V, SHIN T, et al. Accelerated electron paramagnetic resonance imaging using partial Fourier compressed sensing reconstruction[J]. Magnetic resonance imaging, 2017, 37: 90-99. DOI: 10.1016/j.mri.2016.10.029.

    [7]

    DURAND S, FRAPART Y M, KEREBEL M. Electron paramagnetic resonance image reconstruction with total variation and curvelets regularization[J]. Inverse Problems, 2017, 33(11): 114002. DOI: 10.1088/1361-6420/aa8412.

    [8]

    QIAO Z, ZHANG Z, PAN X, et al. Optimization-based image reconstruction from sparsely sampled data in electron paramagnetic resonance imaging[J]. Journal of Magnetic Resonance, 2018, 294: 24-34. DOI: 10.1016/j.jmr.2018.06.015.

    [9]

    WANG G, KALRA M, ORTON C G. Machine learning will transform radiology significantly within the next 5 years[J]. Medical physics, 2017, 44(6): 2041-2044. DOI: 10.1002/mp.12204.

    [10]

    WANG G. A perspective on deep imaging[J]. IEEE Access, 2017, 4: 8914-8924.

    [11]

    WANG G, YE J C, MUELLER K, et al. Image reconstruction is a new frontier of machine learning[J]. IEEE transactions on medical imaging, 2018, 37(6): 1289-1296. DOI: 10.1109/TMI.2018.2833635.

    [12]

    WANG G, YE J C, MAN B D. Deep learning for tomographic image reconstruction[J]. Nature Machine Intelligence, 2020, 2(12): 737-748. DOI: 10.1038/s42256-020-00273-z.

    [13]

    ZHANG K, ZUO W, CHEN Y, et al. Beyond a gaussian denoiser: Residual learning of deep cnn for image denoising[J]. IEEE transactions on image processing, 2017, 26(7): 3142-3155. DOI: 10.1109/TIP.2017.2662206.

    [14]

    ZHU B, JEREMIAH et al. Image reconstruction by domain-transform manifold learning[J]. Nature, 2018, 555: 487-492. DOI: 10.1038/nature25988.

    [15]

    LEE H, LEE J, CHO S. View-interpolation of sparsely sampled sinogram using convolutional neural network[J].

    [16]

    HU C, YI Z, KALRA M K, et al. Low-Dose CT with a Residual Encoder-Decoder Convolutional Neural Network (RED-CNN)[J]. IEEE Transactions on Medical Imaging, 2017, 36(99): 2524-2535.

    [17]

    KANG E, MIN J, YE J C. A deep convolutional neural network using directional wavelets for low‐dose X‐ray CT reconstruction[J]. Medical physics, 2017, 44(10): e360-e375.

    [18]

    PARK J, HWANG D, KIM K Y, et al. Computed tomography super-resolution using deep convolutional neural network[J]. Physics in Medicine & Biology, 2018, 63(14): 145011.

    [19]

    SHAN H, PADOLE A, HOMAYOUNIEH F, et al. Competitive performance of a modularized deep neural network compared to commercial algorithms for low-dose CT image reconstruction[J]. Nature Machine Intelligence, 2019, 1(6): 269-276. DOI: 10.1038/s42256-019-0057-9.

    [20]

    CHEN H, ZHANG Y, CHEN Y, et al. LEARN: Learned Experts' Assessment-based Reconstruction Network for Sparse-data CT[J]. IEEE Transactions on Medical Imaging, 2018, 37(6): 1333-1347. DOI: 10.1109/TMI.2018.2805692.

    [21]

    YANG Y, LI H, XU Z, et al. ADMM-Net: A Deep Learning Approach for Compressive Sensing MRI[J]. 2016, 10-18.

    [22]

    HE J, YANG Y, WANG Y, et al. Optimizing a parameterized plug-and-play ADMM for iterative low-dose CT reconstruction[J]. IEEE transactions on medical imaging, 2018, 38(2): 371-382.

    [23]

    GUPTA H, JIN K H, NGUYEN H Q, et al. CNN-based projected gradient descent for consistent CT image reconstruction[J]. IEEE transactions on medical imaging, 2018, 37(6): 1440-1453. DOI: 10.1109/TMI.2018.2832656.

    [24] 钱佩璋, 乔志伟, 杜聪聪. 基于3MNet去噪网络的快速EPRI成像[J]. CT理论与应用研究, 2023, 32(01): 55-66. DOI: 10.15953/j.ctta.2022.065.

    QIAN P Z, QIAO Z W, DU C C. Fast EPRI Imaging Based on 3MNet Denoising Network[J]. CT Theory and Applications, 2023, 32(01): 55-66. DOI: 10.15953/j.ctta.2022.065.

    [25]

    DU C C, QIAO Z W, EPRI sparse reconstruction method based on deep learning[J]. Magnetic resonance imaging. 2023, 97, 24-30.

    [26]

    HAN Y S, YOO J, YE J C. Deep Residual Learning for Compressed Sensing CT Reconstruction via Persistent Homology Analysis[J]. 2016.

    [27]

    JIN K H, MCCANN M T, FROUSTEY E, et al. Deep Convolutional Neural Network for Inverse Problems in Imaging[J]. IEEE Transactions on Image Processing, 2016, 26(9): 4509-4522.

    [28]

    ZHANG Z, LIANG X, XU D, et al. A Sparse-View CT Reconstruction Method Based on Combination of DenseNet and Deconvolution[J]. IEEE Transactions on Medical Imaging, 2018, 37(6): 1407-1417. DOI: 10.1109/TMI.2018.2823338.

    [29]

    HAN Y, YE J C. Framing U-Net via Deep Convolutional Framelets: Application to Sparse-View CT[J]. IEEE Transactions on Medical Imaging, 2018, 37(6): 1418-1429. DOI: 10.1109/TMI.2018.2823768.

    [30]

    LEE D, YOO J, TAK S, et al. Deep Residual Learning for Accelerated MRI using Magnitude and Phase Networks[J]. IEEE Transactions on Biomedical Engineering, 2018, 65(9): 1985-1995. DOI: 10.1109/TBME.2018.2821699.

    [31]

    GUAN S, KHAN A, SIKDAR S, et al. Fully Dense UNet for 2D Sparse Photoacoustic Tomography Artifact Removal[J]. IEEE Jorunal of Biomedical & Health Informatics, 2019, 24(2): 568-576.

    [32] 韩泽芳, 上官宏, 张雄, 等. 基于深度学习的低剂量CT成像算法研究进展[J]. CT理论与应用研究, 2022, 31(01): 117-134. DOI: 10.15953/j.1004-4140.2022.31.01.14.

    HAN Z F, SHANG G H, ZHANG X, et al. Research Progress on Deep Learning-Based Low-Dose CT Imaging Algorithms[J]. CT Theory and Applications, 2022, 31(01): 117-134. DOI: 10.15953/j.1004-4140.2022.31.01.14.

    [33]

    QIAO Z, DU C. RAD-UNet: a Residual, Attention-Based, Dense UNet for CT Sparse Reconstruction[J]. Journal of Digital Imaging, 2022.

    [34]

    JIE H, LI S, GANG S, et al. Squeeze-and-Excitation Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 42(8): 2011-2023.

    [35]

    WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional Block Attention Module[J]. Springer, Cham, 2018, 11211: 3-19.

    [36]

    TAY C P, ROY S, YAP K H. AANet: Attribute Attention Network for Person Re-Identifications[J]. 7127-7136.

    [37]

    LI H, XIONG P, AN J, et al. Pyramid Attention Network for Semantic Segmentation[J]. 2018.

    [38] 杜聪聪, 乔志伟. 基于对抗式残差密集深度神经网络的CT稀疏重建[J]. CT理论与应用研究, 2022, 31(02): 163-172. DOI: 10.15953/j.ctta.2021.032.

    DU C C, QIAO Z W. CT Sparse Reconstruction Based on Adversarial Residual Dense Deep Neural Network[J]. CT Theory and Applications, 2022, 31(02): 163-172. DOI: 10.15953/j.ctta.2021.032.

    [39] 乔一瑜, 乔志伟. 基于CNN和Transformer耦合网络的低剂量CT图像重建方法[J]. CT理论与应用研究, 2022, 31(06): 697-707+694. DOI: 10.15953/j.ctta.2022.114.

    QIAO Y Y, QIAO Z W. Low-dose CT Image Reconstruction Method Based on CNN and Transformer Coupled Network[J]. CT Theory and Applications, 2022, 31(06): 697-707+694. DOI: 10.15953/j.ctta.2022.114.

    [40]

    JOHNSON J, ALAHI A, LI F F. Perceptual Losses for Real-Time Style Transfer and Super-Resolution[J]. Springer, Cham, 2016, 9906: 694-711.

    [41]

    YANG Q, YAN P, ZHANG Y, et al. Low-Dose CT Image Denoising Using a Generative Adversarial Network with Wasserstein Distance and Perceptual Loss[J]. IEEE Transactions on Medical Imaging, 2018, 37(6): 1348-1357. DOI: 10.1109/TMI.2018.2827462.

    [42]

    MARYAM, GHOLIZADEH A, JAVAD, et al. Low-dose CT Denoising Using Edge Detection Layer and Perceptual Loss[J]. 2019, 6247-6250.

    [43] 樊雪林, 文昱齐, 乔志伟. 基于Transformer增强型U-net的CT图像稀疏重建与伪影抑制[J]. CT理论与应用研究, 2024, 33(01): 1-12. DOI: 10.15953/j.ctta.2023.183.

    FAN X L, WEN Y Q, QIAO Z W. CT Image Sparse Reconstruction and Artifact Suppression Based on Transformer-Enhanced U-net[J]. CT Theory and Applications, 2024, 33(01): 1-12. DOI: 10.15953/j.ctta.2023.183.

    [44]

    SIDKY E Y, JøRGENSEN J H, PAN X. Convex optimization problem prototyping for image reconstruction in computed tomography with the Chambolle-Pock algorithm[J]. Physics in Medicine & Biology, 2011, 57(10): 3065-3091.

    [45]

    REDLER G, EPEL B, HALPERN, et al. Maximally spaced projection sequencing in electron paramagnetic resonance imaging[J]. Concepts in Magnetic Resonance Part B Magnetic Resonance Engineering, 2015, 45(1): 33-45. DOI: 10.1002/cmr.b.21280.

    [46]

    HE K, ZHANG X, REN S, et al. Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification[J]. IEEE International Conference on Computer Vision (ICCV), 2015, 1026-1034.

    [47]

    LIU P, ZHANG Y, XI Y, et al. PU-CDM: A pyramid UNet based conditional diffusion model for sparse-view reconstruction in EPRI[J]. Biomedical Signal Processing and Control, 2025, 100.

    [48]

    ZHANG Z, EPEL B, CHEN B, et al. Preliminary investigation of image reconstruction from sparse data in spectra-spatial electron paramagnetic resonance imaging, 2023 NSS MIC RTSD, 2023, 1-1.

    [49]

    PENG L, CHEN F, ZHI Q, An edge-preserving total nuclear variation minimization algorithm in EPR image reconstruction[J]. Biomedical Signal Processing and Control, 2024, 87, DOI: 10.1016/j.bspc.2023.105426.

图(10)  /  表(2)
计量
  • 文章访问数:  32
  • HTML全文浏览量:  2
  • PDF下载量:  7
  • 被引次数: 0
出版历程
  • 收稿日期:  2025-02-16
  • 修回日期:  2025-04-25
  • 录用日期:  2025-04-27
  • 网络出版日期:  2025-07-01

目录

/

返回文章
返回
x 关闭 永久关闭