Quality Improvement of CBCT-Synthesized CT Images Based on Improved CycleGAN
-
摘要:
目的:本研究提出一种基于改进型CycleGAN的无监督学习ViTD-CycleGAN,以从锥形束计算机断层扫描(CBCT)合成计算机断层扫描(CT)图像,旨在提高合成CT(sCT)图像质量和真实性。方法:ViTD-CycleGAN在生成器中引入了基于视觉转换器(ViT)的U-Net框架和深度卷积(DW),结合Transformer的自注意力机制,以提取并保留重要特征和细节信息。同时,引入梯度惩罚(GP)和像素级损失函数(PL),以增强模型训练的稳定性和图像一致性。结果:在头颈部和胸部数据集上的定量评价指标(MAE、PSNR、SSIM)均优于现有无监督学习方法。消融实验显示,DW对模型性能提升最为显著。视觉可视化分析进一步证实ViTD-CycleGAN生成的sCT图像具有更高的图像质量和真实性。结论:本研究提出的方法与其他无监督学习方法相比,可提高CBCT合成CT图像质量,具有一定的临床应用价值。
-
关键词:
- 锥形束计算机断层扫描 /
- 合成CT /
- CycleGAN /
- 图像质量改进 /
- 深度学习
Abstract:Objective: This study proposes an unsupervised learning model, ViTD-CycleGAN, based on an improved CycleGAN to synthesize computed tomography (CT) images from cone-beam computed tomography (CBCT) images. Our aim is to enhance the quality and realism of synthetic CT (sCT) images. Methods: ViTD-CycleGAN incorporates a U-Net framework based on a vision Transformer (ViT) and depth-wise convolution (DW) into its generator, where the self-attention mechanism of the Transformer is leveraged to extract and preserve crucial features and detailed information. Additionally, a gradient penalty and pixel-wise loss function are introduced to enhance the stability of the model training and image consistency. Results: Quantitative evaluation metrics (MAE, PSNR, and SSIM) for head and neck as well as chest datasets indicate the superior performance of the proposed model compared with existing unsupervised learning methods. Ablation experiments show that the DW significantly improved the model performance. Visual-display analysis confirms that the sCT images generated using the ViTD-CycleGAN exhibit higher image quality and realism. Conclusion: Compared with other unsupervised learning methods, the proposed method can improve the quality of CBCT-synthesized CT images and thus offer potential clinical application value.
-
随着肝脏恶性肿瘤的发病率持续上升,肝脏局灶性病变的准确鉴别和诊断非常关键[1]。在各种检查手段中,肝脏多时相增强CT扫描在探测肝病变方面得到了广泛应用[2]。然而,该检查方式需要患者多次重复扫描,这增加了辐射剂量累积的风险。据报道,多时相肝脏CT扫描的剂量可达到标准腹部和骨盆CT扫描的两倍[3]。由于肝脏CT图像的软组织对比度相对较低,因此,实现高质量图像重建并有效检测出病灶显得尤为重要。这一挑战是在保障图像质量的基础上,实现放射剂量的显著降低,并确保病灶的准确检出[4]。迭代重建技术(iterative reconstruction,IR)是一种广泛应用的图像重建算法,在降低辐射剂量的同时,为提升图像质量提供了可行方案[5]。比如,肝脏图像重建常用的一种IR技术是自适应统计迭代重建(adaptive statistical iterative reconstruction-V,ASIR-V)[6]。尽管IR技术在医学成像领域具有广泛的应用,但由于其非线性计算特性,在处理超低剂量CT生成高噪声图像中经常出现失真现象[7]。这种情况在一定程度上影响了对疾病的诊断。
近年来,深度学习图像重建(deep learning image reconstruction,DLIR)技术,作为一种利用神经网络模型训练以优化图像质量的方法,为低剂量CT扫描的发展提供了新的途径。通过应用DLIR技术,能够在维持图像空间分辨率和缩短重建时间的同时,有效降低图像中的噪声和伪影,同时保持噪声的纹理特征和组织的解剖细节[8-9]。与IR技术相比,基于神经网络的DLIR展现出在提升图像质量方面的显著优势,特别是在提高信噪比(signal-to-noise ratio,SNR)和对比噪声比(contrast-to-noise ratio,CNR)方面[10-11]。标准体模研究和腹部肿瘤临床研究均表明,DLIR技术在大幅减少辐射剂量的同时,能够显著提升图像质量[8,12]。
为了在尽可能降低CT剂量的同时保证肝脏病灶的显示质量,需要首先进行标准肝脏密度体模研究。鉴于此,本研究通过使用不同的扫描剂量,扫描模拟标准肝脏密度体模,比较DLIR与ASIR-V图像重建的质量,从而探索DLIR图像重建算法在低对比度图像质量提升方面的潜力。此外,我们比较DLIR算法在4.5 mGy(本实验采用的最低辐射剂量)和ASIR-V在15 mGy(肝脏扫描推荐剂量)[13]下的图像质量,通过定量分析探索DLIR在确保显示肝病变时所能达到的最低辐射剂量。
1. 材料与方法
1.1 研究体模
本研究使用标准体模(Gammex CT phantom,model 472,Sun Nuclear)[14]。此体模设计为直径33 cm、层厚5 cm的圆盘形状,内含16个直径2.8 cm、长7 cm的插入物,用于模拟不同的人体组织密度。在本实验中,我们特别测量了代表标准肝脏密度(ρew=1.06)的插入物(图1箭头指示)。在整个扫描过程中,体模的位置始终保持固定不变。
1.2 CT扫描和算法重建
使用一台256排CT(Revolution CT,GE医疗)完成体模扫描工作(图1)。在进行扫描时,参照腹部诊断CT扫描参数设置(表1),将管电压设定为120 kVp[15],并根据需要调整管电流,以产生6种不同的辐射剂量(CTDIvol:30、20、15、10、7.5和4.5 mGy)。其中,以15 mGy的剂量为标准的腹部扫描剂量[13]。重建图像的层厚和层距都是1.25 mm,重建图像视野为30 cm×30 cm,图像重建矩阵为512×512。为了评估不同重建算法的效果,我们将体模扫描图像重建两次:一次使用高强度DLIR(DLIR-H)算法,另一次使用50%强度ASIR-V(ASIR-V-50%)算法作为对照。为确保数据的准确性,模拟不同扫描间CT值的微小差异,我们在每种剂量条件下对体模进行5次重复扫描。
表 1 CT设备的参数Table 1. Parameters of CT Equipment变量 参数 管电压 120 kVp 层厚 1.25 mm 辐射剂量 CTDIvol 30、20、15、10、7.5、4.5 mGy 视野 30.0 cm×30.0 cm 重建图像矩阵 512×512 重建算法 ASIR-V-50%,DLIR-H 1.3 定量图像质量分析
本研究使用imQuest软件(版本7.2,Duke大学)进行系统的图像质量定量分析。分析过程中,主要测量了平均CT值(Hounsfield unit,HU)、图像噪声、SNR和CNR。计算SNR和CNR的公式如下,这里以水为基准计算CNR:
$$ \mathrm{SNR=HU}_{ \mathrm{object}} \mathrm{/SD}_{ \mathrm{object}} \mathrm{,} $$ (1) $$ \mathrm{CNR=(HU}_{ \mathrm{object}} \mathrm{–HU}_{ \mathrm{watermean}} \mathrm{)/SD}_{ \mathrm{watermean}} \mathrm{。} $$ (2) 其次,我们通过测量噪声功率普(noise power spectrum,NPS)和基于任务的传递函数(task-based transfer function,TTF)对图像噪声纹理和空间分辨率进行分析。NPS空间分布频率(NPS spatial frequency,NPS-fpeak)是指NPS达到峰值(NPS-peak)所对应的频率,这一指标用于评估图像的噪声纹理和噪声数值幅度,而TTF用于评价图像的空间分辨率[16]。此外,为更客观地评估图像质量,本研究引入可检测度
$d' $ (detectability index)作为评价指标,它与图像质量呈正相关关系[2,16]。1.4 统计学
正态分布的定量数据以均值±标准差的形式表示。经P-P图检验,所有数据均呈现正态分布特征,因此我们采用成组t检验比较两组之间的差异。使用Bland-Altman分析评价DLIR算法在4.5 mGy(本实验的最低辐射剂量)和ASIR-V在15 mGy(肝脏扫描推荐剂量)的图像质量差异。本研究使用GraphPad Prism 10和SPSS Statistics 27统计软件包进行数据分析,考虑P<0.05具有统计学意义。
2. 结果
2.1 体模扫描
在6种不同辐射剂量条件下(即CTDIvol为30、20、15、10、7.5和4.5 mGy),使用多层CT成功扫描代表标准肝脏密度的标准体模,对DLIR和ASIR-V两种图像重建算法的图像质量进行全面评估。
2.2 DLIR与ASIR-V重建图像的基本测量
表2记录了在不同辐射剂量条件下,两种算法重建图像的CT值、噪声、SNR和CNR的平均值及标准差。图2展示了这些关键指标随辐射剂量变化的趋势。在30 mGy的剂量下,DLIR的CT值高于ASIR-V。而在其它剂量下,DLIR的CT值均显著低于ASIR-V(P=0.001)。关于噪声水平,我们发现随着辐射剂量的增加,噪声水平逐渐降低。值得注意的是,在所有的剂量水平上,DLIR算法的噪声都显著低于ASIR-V(P<0.001)。对于SNR和CNR,随着剂量增加,这两个指标呈上升趋势。在所有剂量条件下,DLIR算法的SNR和CNR均显著超过ASIR-V(P<0.001)。这些数据统计结果表明,DLIR算法在多个关键性指标上均展现出一定的优势。
表 2 在不同辐射剂量下,DLIR与ASIR-V算法重建图像的测量值比较Table 2. Comparison of measurements of reconstructed images by DLIR and ASIR-V algorithms at different radiation dosesCTDIvol/mGy CT value(P=0.001) Noise(P<0.001) SNR(P<0.001) CNR(P<0.001) DLIR ASIR-V DLIR ASIR-V DLIR ASIR-V DLIR ASIR-V 30 62.66±3.17 62.06±3.55 11.12±0.69 17.19±1.05 5.65±0.38 3.62±0.19 5.3±0.12 3.69±0.15 20 55.91±2.08 57.58±2.81 12.15±0.34 19.39±0.33 4.61±0.22 2.97±0.15 4.09±0.26 3.2±0.17 15 55.94±1.7 56.91±2.27 13.66±0.55 21.17±0.67 4.1±0.16 2.69±0.14 3.89±0.26 2.87±0.11 10 55.74±2.18 57.71±3.17 15.18±0.3 24.19±1.06 3.67±0.1 2.39±0.17 3.83±0.33 2.63±0.27 7.5 55.35±2.32 59.86±3.34 15.79±0.57 26.37±1.5 3.51±0.2 2.28±0.24 3.78±0.14 2.44±0.17 4.5 55.88±3.31 59.94±4.77 17.41±0.32 29.33±0.91 3.21±0.24 2.05±0.2 3.42±0.35 2.18±0.3 2.3 DLIR与ASIR-V重建图像的量化分析
表3展示在不同剂量辐射下,两种算法重建图像的NPS-peak、NPS-fpeak、TTF50%和d’的平均值及标准差。图3描绘这些指标随辐射剂量变化的曲线。观察曲线可知,NPS-peak随着辐射剂量的增加呈下降趋势。在任一剂量下,DLIR的NPS-peak均显著大于ASIR-V(P<0.001)。对于NPS-fpeak,其值随着放射剂量的升高而增加。具体来说,在20 mGy和30 mGy的剂量下,DLIR的NPS-fpeak值大于ASIR-V;在7.5 mGy和10 mGy的剂量下,两者值相等;而在4.5 mGy和15 mGy的剂量下,DLIR的值小于ASIR-V的值(P=0.379)。TTF50%随着辐射剂量的增加呈现上升趋势。在4.5、20和30 mGy的剂量下,DLIR的NPS-fpeak值大于ASIR-V;在7.5 mGy的剂量下,两者值相等;在10 mGy和15 mGy剂量下,DLIR的值小于ASIR-V(P=0.61)。此外,
$d' $ 的值随着辐射剂量的增加而升高。在所有剂量水平上,DLIR的$d' $ 值均显著超过ASIR-V(P<0.001)。表 3 在不同辐射剂量下,DLIR与ASIR-V算法重建图像的量化分析比较Table 3. Comparison of quantitative analysis of reconstructed images by DLIR and ASIR-V algorithms at different radiation dosesCTDIvol/mGy NPS-peak(P<0.001) NPS-fpeak(P=0.379) TTF50%(P=0.61) $d' $(P<0.001) DLIR ASIR-V DLIR ASIR-V DLIR ASIR-V DLIR ASIR-V 30 189.02±34.5 528.47±75.13 0.2±0.07 0.18±0.06 0.52±0.13 0.46±0.08 15.95±2.64 9.16±1.43 20 234.72±6.99 786.15±119.99 0.18±0.06 0.17±0.04 0.47±0.06 0.45±0.05 13.49±1.18 6.93±1.09 15 303.35±25.14 850.79±78.38 0.14±0.07 0.19±0.07 0.42±0.02 0.46±0.06 11.94±2.09 5.61±1.28 10 391.89±36.38 1168.32 ±84.180.15±0.05 0.15±0.04 0.4±0.02 0.44±0.11 9.64±0.72 4.94±0.64 7.5 418.12±63.66 1674.62 ±316.680.12±0.05 0.12±0.03 0.35±0.06 0.35±0.04 10.26±1.84 4.68±0.95 4.5 650.8±151.44 2385.55 ±474.440.09±0.02 0.12±0.04 0.35±0.04 0.3±0.06 8.81±0.63 4.43±0.4 综上所述,DLIR和ASIR-V在不同辐射剂量下的图像重建性能存在差异,这些差异反映了两种算法在不同辐射剂量条件下对图像细节的捕捉能力和整体图像质量的处理效果。
2.4 DLIR与ASIR-V重建图像的Bland-Altman分析
经过Bland-Altman差异性分析(表4和图4),与常用的15 mGy剂量下的ASIR-V重建扫描比较,我们发现DLIR在4.5 mGy的辐射剂量下表现出显著的优势。具体来说,DLIR的噪声水平平均下降3.758(95% CI:-5.231,-2.285)(P<0.001),这意味着其图像具有更低的噪声水平。此外,DLIR的SNR提高0.522(0.090,0.954)(P=0.006),CNR上升0.552(0.171,1.274)(P=0.029)。最后,DLIR的可检测度指数(d’)提高3.198(0.638,5.758)(P=0.005)。以上结果表明DLIR的图像质量显著优于ASIR-V。
表 4 4.5 mGy剂量下的DLIR图像质量测量值与15 mGy剂量下的ASIR-V图像质量测量值差异性的Bland-Altman分析Table 4. Bland–Altman analysis of the difference in image quality measurements between DLIR (4.5 mGy) and ASIR-V (15 mGy)指标 DLIR vs ASIR-V平均值(95%置信区间) CT Value -1.026(-6.450~4.398) Noise -3.758(-5.231~-2.285) SNR 0.522(0.090~0.954) CNR 0.552(0.171~1.274) NPS-peak -200.0(-398.3~-1.681) NPS-fpeak -0.104(-0.254~ 0.0457 )TTF50% -0.110(-0.256~0.036) d’ 3.198(0.638~5.758) 3. 讨论
经过6种不同辐射剂量下的体模扫描和图像质量评价实验,结果显示,DLIR重建图像的质量均优于ASIR-V重建。特别值得关注的是,在辐射剂量仅为4.5 mGy的情况下,DLIR的图像质量已达到相当于15 mGy ASIR-V的水平。这一发现对于优化放射影像学的图像质量和降低患者接受的辐射剂量具有重要的实际意义。
在CT肝脏扫描领域,为了在减少辐射剂量的同时保证图像质量,目前广泛采用迭代重建技术[17-18]。尽管迭代重建技术在正常剂量和低剂量CT图像中取得了显著成效,但在处理超低剂量CT图像时,由于其噪声较大,可能会导致图像出现“斑片感”和“蜡像感”,从而影响肝脏病变诊断的准确性[9]。Mileto等[19]指出,迭代重建算法在腹部病灶成像方面,仍存在噪声纹理不自然,进而影响放射医生诊断的问题。近年来出现了基于深度学习的DLIR算法,其主要目标是在保留图像纹理细节的同时降低噪声干扰[20]。Cao等[21]通过临床实验证明在肝脏病灶的增强CT扫描中,DLIR相比于ASIR-V在减少76%辐射剂量的同时,获得更优秀的CNR和诊断置信度。本实验通过扫描标准体模,定量探究DLIR和ASIR-V在重建后,图像质量方面各个参数上的差异,进一步证明在标准肝脏密度扫描中,DLIR相比于ASIR-V的优越性。
本研究的结果表明,在降噪、提高信噪比和对比噪声比方面,DLIR算法的表现优于ASIR-V。在不同辐射剂量下,DLIR和ASIR-V之间的CT值没有显著差异。值得注意的是,随着辐射剂量的增加,两种算法之间的CT值差异逐渐减小。此外,DLIR和ASIR-V的测量结果均显示,随着剂量的增加,噪声逐渐降低,并且DLIR始终低于ASIR-V(P<0.001)。同时,SNR和CNR逐渐提高,DLIR在这方面始终优于ASIR-V(P<0.001)。van STIPHOUT等[4]的系统性综述通过总结16篇论著,也证明在腹部CT扫描中,测量CT值时DLIR和IR无明显不同,测量SNR和CNR时DLIR显著优于ASIR-V。
在图像的量化方面,随着剂量的增加,DLIR和ASIR-V两种算法处理下的NPS-peak均呈下降趋势,其中DLIR的降低幅度显著大于ASIR-V(P<0.001)。然而,尽管两种算法处理下的NPS-fpeak(P=0.379)和TTF 50%(P=0.61)随剂量增加均呈上升趋势,但二者并未达到统计学上的显著差异。此外,随着剂量的增加,d’在DLIR和ASIR-V两种算法下均有所增加,其中DLIR的增加幅度显著超过了ASIR-V(P<0.001)。这与Greffier等[8,22]实验研究结果相一致,其通过两次体模实验证明了在增加辐射剂量的条件下,采用ASIR-V算法得到的所有NPS-peak值均高于DLIR,同时ASIR-V获得的所有d’值也均低于DLIR。
本研究证实了DLIR在降噪方面的优势,相较于ASIR-V,DLIR在同是15 mGy的辐射剂量下能降低噪声64%,SNR增加64%,CNR增加36%,NPS-peak减少64%,其d’值更是ASIR-V的两倍。即使在实验测得的最小剂量4.5 mGy条件下,相较于15 mGy的ASIR-V,DLIR噪声仍下降18%,SNR提高19%,CNR提高19%,NPS-peak下降24%,其d’值仍然是ASIR-V的1.6倍。DLIR能够在低对比度下优化肝脏病变的图像质量,比ASIR-V优化能力更强。在本研究中,我们针对上腹部CT扫描的典型临床应用,进行参数设置,其他研究发现即使在参数设置不同的情况下,DLIR相比于ASIR-V在图像优化能力上仍然表现更优秀[14,23]。尽管如此,DLIR在肝脏病变扫描中仍存在潜在不足,Jensen等[24]提出,DLIR可能对小于0.5 cm的肝脏病灶和血管的检测图像造成模糊,并且其识别微小结构的能力可能有限,而这在肝脏病变诊断中尤为重要。本研究在图像重建方面采用了ASIR-V与DLIR两种方法。ASIR-V作为一种迭代重建技术的代表,而DLIR则代表了深度学习重建技术。尽管这两种特定的命名方式源于某品牌设备,但其他品牌设备亦存在类似技术,只是命名上有所差异[22,25-27]。本研究中从特定角度展现了深度学习图像重建在提升图像质量方面的优势。尽管难以涵盖所有设备,但其仍具备一定的代表性。
本研究存在一些局限性。①在实验设计上,本研究对实验参数的设定相对有限,仅限于特定的电压和层厚。根据Ja等[4]的研究,层厚的选择可能会直接影响信噪比和对比噪声比的测量结果,以及诊断的置信度。②本研究采用的所有算法均来自同一制造商。Greffier等[22]通过比较不同CT供应商的迭代算法,证明不同制造商提供的算法可能会导致研究结果出现差异。③本研究设置的辐射剂量范围还不够大,未来需要扩大范围做进一步研究。以上这些因素可能对本研究结果产生一定的影响。④本实验扫描的是体模下的标准肝脏密度(1.06 g/cm3),未来我们将把本实验的结论和数据应用于不同碘密度及真实患者的CT扫描中,以此为将来的研究奠定基础。
综上所述,在模拟标准肝脏密度的局灶性病变体模CT扫描实验中,DLIR相较于ASIR-V,不仅显著提升了SNR,CNR和
$d' $ 值,而且大幅度降低了图像噪声,进而优化了图像的空间分辨率和整体质量。实验数据表明,DLIR技术能够在4.5 mGy的较低辐射剂量下,实现优于常规15 mGy剂量下ASIR-V重建图像的质量效果。这一发现为腹部CT增强扫描提供了新的可能性,即采用4.5 mGy的扫描剂量配合DLIR重建技术,有望在保障图像质量的同时,降低患者接受的辐射剂量。 -
表 1 不同网络在头颈部数据集上的指标比较
Table 1 Comparison of metrics of different networks on head and neck dataset
网络 MAE PSNR SSIM CycleGAN 15.24 29.1025 0.9713 DualGAN 18.63 28.5974 0.9627 AttentionGAN 25.71 27.1345 0.9518 ADCycleGAN 13.53 30.1609 0.9763 ViTD-CycleGAN 10.96 31.8561 0.9832 表 2 不同网络在胸部数据集上的指标比较
Table 2 Comparison of metrics for different networks on chest dataset
网络 MAE PSNR SSIM CycleGAN 20.82 27.6613 0.9613 DualGAN 27.54 25.3516 0.9427 AttentionGAN 23.23 26.1269 0.9524 ADCycleGAN 15.14 28.4558 0.9647 ViTD-CycleGAN 13.41 29.1315 0.9721 表 3 头颈部数据集消融定量结果
Table 3 Quantitative results of ablation for head and neck dataset
消融实验 MAE PSNR SSIM CycleGAN-ViT 14.92 29.2558 0.9728 CycleGAN-ViT-DW 13.17 29.8635 0.9765 CycleGAN-ViT-GP 13.52 29.3921 0.9757 CycleGAN-ViT-PL 14.67 29.3332 0.9749 CycleGAN-ViT-DW-GP 11.79 31.4937 0.9827 CycleGAN-ViT-DW-PL 12.66 30.3532 0.9784 CycleGAN-ViT-GP-PL 12.35 31.0169 0.9809 ViTD-CycleGAN 10.98 31.8565 0.9836 表 4 胸部数据集消融定量结果
Table 4 Quantitative results of ablation for chest dataset
消融实验 MAE PSNR SSIM CycleGAN-ViT 16.89 27.9829 0.9632 CycleGAN-ViT-DW 15.07 28.5627 0.9687 CycleGAN-ViT-GP 15.38 28.3597 0.9663 CycleGAN-ViT-PL 16.15 28.0131 0.9643 CycleGAN-ViT-DW-GP 13.79 28.9657 0.9704 CycleGAN-ViT-DW-PL 14.37 28.6819 0.9697 CycleGAN-ViT-GP-PL 14.02 28.7719 0.9706 ViTD-CycleGAN 13.41 29.1323 0.9724 -
[1] JAFFRAY D A. Image-guided radiotherapy: From current concept to future perspectives[J]. Nature Reviews Clinical Oncology, 2012, 9(12): 688-699. DOI: 10.1038/nrclinonc.2012.194.
[2] 张帅楠, 田龙, 赵鑫. 前列腺癌图像引导放疗中锥形束CT为合成CT提供质量保证的可行性研究[J]. 医疗卫生装备, 2023, 44(8): 50-54. DOI: 10.19745/j.1003-8868.2023161. ZHANG S N, TIAN L, ZHAO X. Feasibility study of cone-beam CT for quality assurance of synthetic CT in image-guided radiotherapy for prostate cancer[J]. Chinese Medical Equipment Journal, 2023, 44(8): 50-54. DOI: 10.19745/j.1003-8868.2023161.
[3] LIU Y, LEI Y, WANG T, et al. MRI-based treatment planning for liver stereotactic body radiotherapy: Validation of a deep learning-based synthetic CT generation method[J]. The British Journal of Radiology, 2019, 92(1100): 20190067. DOI: 10.1259/bjr.20190067.
[4] 冉雪琪, 李建锋, 曹绍艾. 探讨低剂量口腔CBCT检查中耳鼻喉相关组织的表现[J]. CT理论与应用研究, 2022, 31(3): 392-398. DOI: 10.15953/j.ctta.2021.035. RAN X Q, LI J F, CAO S A. Analysis of the manifestations of ENT in low-dose oral CBCT examination[J]. CT Theory and Applications, 2022, 31(3): 392-398. DOI: 10.15953/j.ctta.2021.035.
[5] HUNTER A K, MCDAVID W D. Characterization and correction of cupping effect artifacts in cone beam CT. Dentomaxillofacial Radiol, 2012, 41(3): 217. DOI: 10.1259/dmfr/19015946.
[6] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2015: 3431-3440. DOI: 10.1109/CVPR.2015.7298965.
[7] CHEN S, QIN A, ZHOU D, et al. U-net-generated synthetic CT images for magnetic resonance imaging-only prostate intensity-modulated radiation therapy treatment planning[J]. Medical Physics, 2018, 45(12): 5659-5665. DOI: 10.1002/mp.13247.
[8] ZHANG S, HUANG W, WANG H. Lesion detection of computed tomography and magnetic resonance imaging image based on fully convolutional networks[J]. Journal of Medical Imaging and Health Informatics, 2018, 8(9): 1819-1825. DOI: 10.1166/jmihi.2018.2565.
[9] KIDA S, NAKAMOTO T, NAKANO M, et al. Cone beam computed tomography image quality improvement using a deep convolutional neural network[J]. Cureus, 2018, 10(4). DOI: 10.7759/cureus.2548.
[10] LI Y, ZHU J, LIU Z, et al. A preliminary study of using a deep convolution neural network to generate synthesized CT images based on CBCT for adaptive radiotherapy of nasopharyngeal carcinoma[J]. Physics in Medicine & Biology, 2019, 64(14): 145010. DOI: 10.1088/1361-6560/ab2770.
[11] JAMES G, WITTEN D, HASTIE T, et al. Unsupervised learning[M]//An Introduction to Statistical Learning: with Applications in Python. Cham: Springer International Publishing, 2023: 503-556. DOI: 10.1007/978-3-031-38747-0_12.
[12] SANDFORT V, YAN K, PICKHARDT P J, et al. Data augmentation using generative adversarial networks (CycleGAN) to improve generalizability in CT segmentation tasks[J]. Scientific reports, 2019, 9(1): 16884. DOI: 10.1038/s41598-019-52737-x.
[13] LIU Y, LEI Y, WANG T, et al. CBCT-based synthetic CT generation using deep-attention CycleGAN for pancreatic adaptive radiotherapy[J]. Medical Physics, 2020, 47(6): 2472-2483. DOI: 10.1002/mp.14121.
[14] HARMS J, LEI Y, WANG T, et al. Paired cycle-GAN-based image correction for quantitative cone-beam computed tomography[J]. Medical Physics, 2019, 46(9): 3998-4009. DOI: 10.1002/mp.13656.
[15] ZENG G, ZHENG G. Hybrid generative adversarial networks for deep MR to CT synthesis using unpaired data[C]//Medical Image Computing and Computer Assisted Intervention-MICCAI 2019: 22nd International Conference, Shenzhen, China, October 13-17, 2019, Proceedings, Part IV 22. Springer International Publishing, 2019: 759-767. DOI: 10.1007/978-3-030-32251-9_83.
[16] TORBUNOV D, HUANG Y, YU H, et al. Uvcgan: Unet vision transformer cycle-consistent gan for unpaired image-to-image translation[C]//Proceedings of the IEEE/CVF winter conference on applications of computer vision. 2023: 702-712. DOI: 10.48550/arXiv.2203.02557.
[17] TORBUNOV D, HUANG Y, TSENG H H, et al. UVCGAN v2: An Improved Cycle-consistent GAN for Unpaired Image-to-Image Translation[J]. arXiv preprint arXiv: 2303.16280, 2023. DOI: 10.48550/arXiv.2303.16280.
[18] ZHENG M, LI T, ZHU R, et al. Conditional Wasserstein generative adversarial network-gradient penalty-based approach to alleviating imbalanced data classification[J]. Information Sciences, 2020, 512: 1009-1023. DOI: 10.1016/j.ins.2019.10.014.
[19] YU Z, LI X, SHI J, et al. Revisiting pixel-wise supervision for face anti-spoofing[J]. IEEE Transactions on Biometrics, Behavior, and Identity Science, 2021, 3(3): 285-295. DOI: 10.1109/TBIOM.2021.3065526.
[20] AVANTS B B, TUSTISON N J, SONG G, et al. A reproducible evaluation of ANTs similarity metric performance in brain image registration[J]. Neuroimage, 2011, 54(3): 2033-2044. DOI: 10.1016/j.neuroimage.2010.09.025.
[21] MOLLINK J, VAN BAARSEN KM, DEDEREN PJ, et al. Dentatorubrothalamic tract localization with postmortem MR diffusion tractography compared to histological 3D reconstruction[J]. Brain Struct Funct, 2016, 221(7): 3487-3501. DOI: 10.1007/s00429-015-1115-7.
[22] 樊雪林, 文昱齐, 乔志伟. 基于 Transformer 增强型 U-net的CT图像稀疏重建与伪影抑制[J]. CT理论与应用研究(中英文), 2024, 33(1): 1-12. DOI: 10.15953/j.ctta.2023.183. FAN X L, WEN Y Q, QIAO Z W. Sparse reconstruction of computed tomography images with transformer enhanced U-net[J]. CT Theory and Applications, 2024, 33(1): 1-12. DOI: 10.15953/j.ctta.2023.183.
[23] JIQING C, DEPENG W, TENG L, et al. All-weather road drivable area segmentation method based on CycleGAN[J]. The Visual Computer, 2023, 39(10): 5135-5151. DOI: 10.1007/s00371-022-02650-8.
[24] MAO X, QI G, CHEN Y, et al. Towards robust vision transformer[C]//Proceedings of the IEEE/CVF conference on Computer Vision and Pattern Recognition. 2022: 12042-12051. DOI: 10.48550/arXiv.2105.07926.
[25] BANNER R, NAHSHAN Y, SOUDRY D. Post training 4-bit quantization of convolutional networks for rapid-deployment[J]. Advances in Neural Information Processing Systems, 2019, 32.