ISSN 1004-4140
CN 11-3017/P

深度学习定量测量对新型冠状病毒感染预后的分析

赵建华, 梁丹艳, 吕高星, 闫昕, 刘宇, 王晓兰, 柴军

赵建华, 梁丹艳, 吕高星, 等. 深度学习定量测量对新型冠状病毒感染预后的分析[J]. CT理论与应用研究, 2023, 32(5): 587-594. DOI: 10.15953/j.ctta.2023.044.
引用本文: 赵建华, 梁丹艳, 吕高星, 等. 深度学习定量测量对新型冠状病毒感染预后的分析[J]. CT理论与应用研究, 2023, 32(5): 587-594. DOI: 10.15953/j.ctta.2023.044.
ZHAO J H, LIANG D Y, LYU G X, et al. Analysis of Prognosis of Coronavirus Disease 2019 Using Quantitative Measurement of Deep Learning[J]. CT Theory and Applications, 2023, 32(5): 587-594. DOI: 10.15953/j.ctta.2023.044. (in Chinese).
Citation: ZHAO J H, LIANG D Y, LYU G X, et al. Analysis of Prognosis of Coronavirus Disease 2019 Using Quantitative Measurement of Deep Learning[J]. CT Theory and Applications, 2023, 32(5): 587-594. DOI: 10.15953/j.ctta.2023.044. (in Chinese).

深度学习定量测量对新型冠状病毒感染预后的分析

基金项目: 内蒙古自治区人民医院院内基金项目(基于深度学习的病毒性肺炎不同临床转归胸部CT评价(2020YN08));包头医学院研究生教育教学改革项目(人工智能在放射影像学专业学位研究生教学中的初步应用(B-YJSJG202303));内蒙古医科大学2023年度高等教育教学改革研究项目(“人工智能+教学”模式在医学影像学专业教学中的应用探索(NYJXGG2023139));内蒙古自治区卫生健康科技计划项目(超高分辨率CT靶扫描技术联合低剂量对诊断亚实性肺结节的价值(202201015))
详细信息
    作者简介:

    赵建华: 男,内蒙古自治区人民医院影像医学科副主任医师,主要从事影像诊断工作,E-mail:zjh2822yyjh@163.com

    通讯作者:

    柴军: 男,内蒙古自治区人民医院影像医学科主任医师,主要从事影像诊断工作,E-mail:amaschai@126.com

  • 中图分类号: O  242;R  814;R  563.1

Analysis of Prognosis of Coronavirus Disease 2019 Using Quantitative Measurement of Deep Learning

  • 摘要: 目的:分析基于深度学习定量测量新型冠状病毒感染(COVID-19)患者胸部CT炎性病灶的特征,预警重症的发生,提高对COVID-19预后的认识。方法:回顾性分析477例首次确诊为中型COVID-19患者的胸部CT,男276例,女201例,根据是否转为重症(重型/危重型)分为A组(未转为重症)、B组(转为重症),比较两组病例病灶分布、累及肺叶侧别、数目等CT基本征象及基于深度学习的病灶体积、体积占比和密度等的差异。结果:477例COVID-19患者均有流行病学史,年龄、性别在两组间的差异无统计学意义。B组全肺及各肺叶病灶体积及体积占比高于A组。A组病灶以右肺下叶为主,占比高于其它肺叶,达3.32%;其次为左肺下叶,占比为2.08%;左肺上叶病灶体积占比较其他肺叶低,仅为0.25%。A组部分患者右肺上叶、右肺中叶及左肺上叶无病灶。B组病灶呈双肺分布,各肺叶均有;其中以右肺下叶、左肺下叶分布为主,占比最高,分别为57.86% 和54.76%;右肺中叶体积占比较其他肺叶低,为34.73%。各组病灶均以磨玻璃密度影为主。A组以密度为 -570~-470 HU病灶为主,占比达13.89%;其次为 -470~-370 HU,占比为11.07%;密度为30~70 HU实性病灶及密度为 -70~30 HU较少,占比仅3.22% 和4.75%。B组大部分呈磨玻璃密度影,以病灶密度为 -570~-470 HU、-470~-370 HU与 -370~-270 HU为主,占比分别为13.18%、12.58%、12.52%;密度为 -570~-470 HU的病灶占比与A组差异无统计学意义,余各密度病灶体积及体积占比高于A组,呈病灶密度越高,B组占比较A组越高的趋势。结论:感染病灶体积较大、实性成分较多及多种CT征象并存常提示肺部炎症较重,容易进展为重症,基于深度学习的胸部CT定量测量有助于评估COVID-19预后及预警重症。
    Abstract: Objective: To analyze the differences of chest computed tomography (CT) inflammatory lesions in patients with coronavirus disease 2019 (COVID-19), which were quantitatively measured based on deep learning, to warn the occurrence of severe cases and improve the understanding of the prognosis of COVID-19. Methods: The chest CT scans of 477 local patients with COVID-19 diagnosed for the first time at Inner Mongolia Autonomous Region People's Hospital were retrospectively analyzed. A total of 276 men and 201 women were divided into group A (not serious) and group B (serious) based on whether their diseases turned serious (severe/critical). Comparison was made between the two groups on the basic CT signs, such as lesion distribution, involved lobe side, number, differences in lesion volume, volume proportion, and density based on deep learning. Results: All 477 patients with COVID-19 had epidemiological history, and no statistical difference was noted in age and gender between the two groups. The volume and proportion of the lesions in the whole lung and each lobe of the lung in group B were higher than those in group A. The lesions in group A were mainly in the lower lobe of the right lung, accounting for 3.32% more than that in other lobes. The lower lobe of the left lung was the next, accounting for 2.08%. The volume of lesions in the upper lobe of the left lung was lower than that in other lobes, accounting for only 0.25%. No lesions were noted in the upper lobe of the right lung, middle lobe of the right lung, and upper lobe of the left lung in part of group A. In group B, the lesions were distributed in both lungs and in each lung lobe. The lower lobes of the right lung and left lung were predominant, accounting for 57.86% and 54.76%, respectively. The volume of the middle lobe of the right lung was 34.73% compared with the other lobes. The main lesions in each group were ground-glass density shadows, and the main lesions in group A were −570 ~ −470 HU density, accounting for 13.89%, followed by −470 ~ −370 HU, accounting for 11.07%. Only 3.22% and 4.75% of solid lesions with densities of 30 ~ 70 HU and −70 ~ 30 HU were found. Most of the lesions in group B were ground-glass density shadows, and the focal densities were mainly −570 ~ −470 HU, −470 ~ −370 HU, and −370 ~ −270 HU, accounting for 13.18%, 12.58%, and 12.52%, respectively. No statistical difference was noted between the proportion of lesions with a density of −570 ~ −470 HU and that of group A; however, the volume and proportion of other lesions with different densities were higher than those of group A, showing a trend that the higher the density of the lesions, the higher the proportion of group B was compared with group A. Conclusion: Larger infection volume, more lesion solid components, and multiple CT signs often indicate more severe lung inflammation, which easily progresses to severe disease. Quantitative measurement of chest CT based on deep learning is helpful for the prognosis assessment of COVID-19 and the early warning of severe outcome.
  • 安全检查是货物运输和旅客出行安全保障不可或缺的重要环节,安检技术也在持续的发展进步。目前,能够对货物和行李包裹实施非侵入式查验的X光机已经广泛的应用于各种类型的安检场景,经过培训的工作人员判读X光机生成的二维扫描图像后,给出安全放行或者拦截开检的结论。由于二维图像中可能存在物体之间相互遮挡以及复杂多样的背景物体的干扰,机场、海关等场所正在逐步增加更先进的安检CT扫描设备的部署应用[1]。三维CT图像为安检员准确辨识禁止运输或携带的目标物提供了更多的信息,使得改变不同的视角检查图像成为了现实,并为基于密度和等效原子序数等特征区分不同的材料提供了可能性。研究表明,虽然目前的三维图像质量与二维X光机图像相比视觉感受仍有不足,三维成像能够使安检员更好的辨识威胁[2]

    无论是判读二维X光机图像还是三维CT图像,人类安检员的表现存在主观性,且严重依赖于经验,疲劳、工作单调乏味等因素导致注意力不集中,影响了安检质量的可靠性和稳定性。为了缓解上述问题,实际场景中也采取了基于危险品图像插入(threat image projection,TIP)的培训和考核、更短的换班时间等一系列积极的措施,成本也不断增加,却并不能有效消除安检漏洞,毕竟安检员需要在极为有限的时间内从混乱的背景物体中辨识出包裹中存在的可能威胁,保证正常的安检通过率,这是一个难度极大的挑战性任务。因此,任何自动化、半自动化或辅助完成识别任务、减轻安检工作人员压力的尝试都是极有意义的。

    由于二维X光机图像模态更接近研究广泛的可见光图像且存在一批公开数据集,对于二维安检图像中目标物自动识别方法的研究较为深入[3-4]。然而对于三维CT图像,简单的将二维方法拓展到三维并不可行,一方面由于维度的变化使得三维数据量增长了2~3个数量级,对于识别效率的要求却并未降低;另一方面由于算力和内存限制,难以利用与二维方法中同样复杂的深度神经网络结构。

    此外,与三维图像中目标物识别相关的研究来自于医学和自动驾驶等领域。相比安检CT领域仅有公开数据集ALERT包含188个包裹421个目标物,医学领域已有DeepLesion、NLST、TCIA、LIDC-IDRI、MICCAI、ISBI、BraTS、LiTS、WORD等一批公开三维数据集,其中DeepLesion包含约1万组CT扫描图像的超过3.2万个病灶标注,NLST收集了超过7.5万组肺部CT扫描图像的超过17万处异常的信息。自动驾驶领域也有KITTI、Waymo、ApolloScape、BLVD、Synthia、Oxford RobotCar、nuScenes、Argoverse、A2D2等10余个公开三维数据集,其中KITTI针对3D目标检测任务提供了1.5万张图像超过8万个标记对象,Waymo含有超过20万帧图像的约1200万个3D标注框。3D CNN模型已被用于医学CT/MRI图像[5-6]、激光雷达点云数据[7-8]、RGBD数据[9-10]的物体分类和检测。

    Hu等[5]对基于医学图像的肿瘤检测和诊断研究工作进行了综述,其中多数方法应用了3D CNN的技术;Monkam等[6]回顾了基于3D CNN的CT图像中肺结节检测和分类工作进展。医学CT/MRI图像具有亚毫米级近各向同性的分辨率,自动识别研究一般限定于特定的器官或疾病,可以利用任务有关的先验信息,器官数量和布局是固定已知的,任何偏离将被视为异常。然而在安检场景中由于高通过率的要求,CT图像普遍具有毫米级各项异性的分辨率,图像质量相对较低且包含较多的噪声和金属伪影;扫描对象也是无限制的,包裹中可能包含不确定数量和种类的物品,即便已知物品的种类和数量,其组合和相对位置也有无数种可能,因此可利用的先验信息很少。

    在自动驾驶领域,感兴趣目标如车辆行人等有相对固定的尺寸和朝向,行人的3D包围框在不同的场景中有类似的尺寸比例,行人应当是站立的姿态,这些先验知识可以用于生成候选框和减少误报,然而这种先验知识在行包目标检测中不成立,行包中的违禁品可以有任意的尺寸、朝向和位置。自动驾驶数据集如KITTI[11]中一组典型的点云包含约1万个点,点云中复杂的背景物体通常与目标物是分离的,相对容易处理,然而一组典型安检CT扫描数据通常包含1亿个以上的体素,箱包中的目标物往往与其它物品距离很近且交叠在一起。总之,安检CT图像的目标物识别方法也不能机械借鉴医学或自动驾驶领域,仍需要兼顾准确率和效率针对性的开展研究。

    虽然安检CT图像自动识别领域已存在几篇综述性文献,如文献[412-13]。其中Crawford等[12]和Mouton等[13]仅总结了2015年以前的工作,缺少近年来的特别是深度学习技术的应用研究进展;Velayudhan等[4]涉及的内容包括了对X射线成像系统的介绍和数据集,但重点在于2D X射线图像中的危险目标识别,对于3D图像中的危险目标识别方法的分析不够全面,且着重于经典图像分析和机器学习方法。本文不仅对于2015年以来本领域的代表性学术研究成果进行系统总结,而且首次将工业界的相关专利也纳入分析范围,从而使本领域研究人员能够更全面的了解最新的研究进展和发展趋势。

    已有的安检图像自动识别综述性文献中常见两种归类法,一种是根据技术路线划分,一般包括经典图像分析方法、机器学习方法和深度学习方法;另一种是根据任务类型划分,一般包括目标物分类方法、检测方法和分割方法。然而既有研究工作往往会综合使用多种技术路线,并在多个任务类型上进行实验验证,使得上述两种归类法的可分性略显不足。

    本文除了继续沿用这两种归类法之外,根据计算空间维度的差异提出一种新的归类法,即二维识别方法和三维识别方法,前者在二维空间完成最主要的识别计算,其中有的方法会将二维识别结论整合以获得三维空间中的识别结论,后者则直接在三维空间完成所有的识别计算并输出识别结论。

    根据上述3种归类法,我们对检索到的代表性学术研究成果和相关专利进行多标签归类,归类结果列于表1中,每篇文献的主要技术思路简述于本文的第2和第3部分。文献及其简要描述按论文发表或专利公开时间顺序一览如图1。为了增强可分性、避免交叉,在第2和第3两部分的叙述中我们仅使用计算空间维度归类法。

    表  1  3种归类法及文献归类结果
    Table  1.  Three taxonomies and literature classification results
    归类法 技术路线 任务类型 计算空间维度
    经典图像
    分析方法
    机器学习
    方法
    深度学习
    方法
    分类方法 检测方法 分割方法 二维识别
    方法
    三维识别
    方法
    文献多
    标签归
    类结果
    [14][19] [20][22] [26][29] [30][34] [17][18]
    [20][21]
    [22]
    [15][16] [23][24] [25][26] [27][28] [29][30] [31][32]
    [33]
    [16][17] [20][21] [22][23] [14][15] [16][19] [23][24] [25][26] [27][28] [29][30] [31][33] [34] [15][16] [18][19] [20][21] [22][25] [26][29] [30][32] [14][15]
    [16][26]
    [27][28]
    [29][30]
    [31][32]
    [33]
    [17][18]
    [19][20]
    [21][22]
    [23][24]
    [25][34]
    注: 黑色字体文献为学术论文,蓝色字体文献为专利申请。
    下载: 导出CSV 
    | 显示表格
    图  1  文献按论文发表或专利公开时间顺序一览图
    Figure  1.  Chronological overview of relevant literature

    文献[14]基于箱包中的大多数液体包括危险液体都有一个水平表面的特点,提出了一种两阶段的几何拟合方法以自动定位CT数据中的液体表面,而无需样本训练过程。第1阶段使用RANSAC技术在连续多个水平切片中拟合一个三维平面方程的参数,第2阶段在第1阶段结果的基础上拟合一个二维椭圆方程的参数。测试数据使用Reveal公司的CT-80XL采集并插值为各项同性的CT数据,测试集为100个包裹,其中15个没有包含液体。第1阶段液体表面所在平面的检出率达到98%,两个阶段后液体表面具体位置的检出率为85%、误报率为12%。

    文献[15]提出了一个基于伪标签的半监督学习框架,使用有限的切片标注数据训练二维语义分割网络,识别无固定形状特征的违禁品物质。以少量人工标注的切片数据训练一个语义分割模型,使用该模型对其它不带标注的切片数据进行伪标注,然后用3个方向的所有切片数据及其标签重新训练一个语义分割模型。预测时3个方向的分割结果可以使用投票方式融合获得更准确的分割结果。对于分割结果进行形态学运算和联通区域分析等后处理,获得目标检测结果。在ALERT数据集[35]上实验,结果表明即便使用有限的切片标注数据,半监督学习方法能够获得与全监督方法相近的违禁品物质识别性能,各类别综合的精度/召回达到91.2% 和87.5%,检出率/误报率达到90% 和3%。

    文献[16]提出了一种先切片后融合的识别框架,并设计了两种检测器,即一步法的Retinal-SliceNet和两步法的U-SliceNet。切片操作沿着3个正交坐标轴方向进行,通过特定厚度切片的最大池化,将体数据转换成若干幅2D图像。对于Retinal-SliceNet检测器,获得每幅2D图像中的目标包围框和置信度,将每个坐标轴方向上的2D预测结果累积成3D预测结果,对3组3D预测结果逐体素平均池化完成融合操作。对于U-SliceNet检测器,获得每幅2D图像的像素级类别标记,通过上述累积和融合操作得到3D预测结果,基于3D预测结果设定若干个锚框,使用枪支3D分类网络和锐器3D分类网络分析每个锚框,输出整个包裹的分类结论,或者生成目标物更精细的语义分割结果。实验使用IDSS公司DETECT 1000采集的含枪支和锐器的1001组真实数据和15700组合成数据,以及11400组无目标物数据,得出了Retinal-SliceNet在箱包分类和目标检测任务、U-SliceNet在语义分割任务上的定量实验结果,单包单卡推理计算时间约为5~20 秒。

    文献[17]实验对比研究了基于词袋模型(bag of words,BoW)从人工分割的包裹CT图像中识别危险品的适用性,对比4种3D描述子,即密度直方图、密度梯度直方图、3D SIFT、3D RIFT,还对比了3种码书赋值方式,从而决定了最优的模型参数组合。实验数据为使用Reveal公司CT-80DR采集的CT数据并经过各项同性插值。其中手枪正负样本分别为284/971组,瓶子正负样本分别为534/1170组。在人工分割的手枪和瓶子的分类实验中,3D SIFT关键点位置采样的密度直方图描述子具有最高的识别准确率,瓶子的检出率89.3%误报率3.0%,手枪的检出率97.3% 误报率1.8%,同时基于3D SIFT和3D RIFT描述子的识别性能明显降低,体现了光学反射成像和透视成像两种模态的差异。

    文献[18]没有采用将物体分割和识别作为两个独立步骤的常规做法,提出了一种分割和识别任务联合学习框架。该框架定义了多标签(感兴趣目标、金属、背景)离散优化目标函数并用图割算法求解。目标函数有两项,一是基于P-KNN算法[36]得到每个体素属于某种标签的似然函数值,其中靠近金属区域体素的权重将被降低,金属区域由二值(金属、非金属)离散优化目标函数估计;二是基于边界场计算相邻体素标签的空间平滑函数值。实验仅用到了ALERT数据集中两个包裹的切片,一个包裹用于训练,另一个包裹用于测试,虽然体素标签估计的定性和定量结果表明了方法的有效性,但未经性能优化的算法CPU处理时间长达2 小时。

    文献[19]着重探讨了从CT图像中自适应识别违禁物品的方法,给定拟识别的物体需求描述(object requirement specification,ORS),包括感兴趣目标的材料组成(如密度或线性衰减系数的范围)、物理特征(如质量和厚度)、性能指标(检出率和误报率),系统不必重新训练分类器,即可适用于变化的需求。为此作者提出一种空间一致性松弛方法,此方法首先利用ORS生成的条件概率密度函数为每个体素计算最可能的材料组成,将CT图像转换为ID图像,从而将CT图像分割为若干子区域,为每个体素和每个子区域计算分类统计值,将分类统计值与决策阈值进行比较以判定正确检出或误报的体素和子区域。所谓松弛体现在每个体素的分类统计值是在其空间邻域内计算的条件概率密度值的平均值,一致性松弛参数即邻域大小,参数越大,分割的子区域越完整,但过大的参数可能会导致欠分割。文中提出了3种性能评估方法,分别是基于子区域的性能评估(包括材料组成和物理特征)、基于体素的性能评估(仅包括材料组成)、基于体素的性能评估(包括材料组成和物理特征),并分别在ALERT数据集上进行实验,给出了不同决策阈值下检出率和误报率的ROC曲线。文中还讨论了结合ORS中的性能指标需求和ROC曲线自动估计不同违禁物品决策阈值的方法。本方法使用CPU单核处理一幅512×512×400的单能CT图像约需15~30 秒。

    文献[20]提出一种3D物体分割和分类方法,其中无监督分割基于材料属性(即双能索引值),首先使用多段阈值化和连通成分分析获得粗分割结果,训练一个随机森林评估器对粗分割得到的每个物体计算质量评价分数,分数过低的物体需要细分割,细分割通过寻找并移除物体表面体素中的“热点”结合形态学操作实现。在3D物体分类阶段,原始特征为密集采样的3D关键点位置的密度直方图,每个物体的特征向量由ERC随机森林[37]对原始特征进行编码得到,分类器为使用RBF核函数的多类支持向量机。实验数据为Reveal CT-80DR采集的箱包数据,手枪正/负样本分别有208/150组,瓶子正/负样本分别有146/190组。该工作对比了4种去噪或金属伪影移除(metal artefact reduction,MAR)预处理方法,即简单的阈值操作、非局部平均[38]、基于线性插值的MAR、距离驱动的MAR,发现两种MAR方法对分类准确率提升有限但会导致运行时间的严重增加。综合性能最优的非局部平均预处理方法,手枪的检出率TPR/误报率FPR分别为96.63%/1.33%,瓶子的TPR/FPR分别为100%/2.11%。

    文献[21]提出了两阶段的方法解决自适应目标识别问题,即在第1阶段争取尽量高的召回率且无需针对变化的识别需求重新调整,在第2阶段依据新需求对系统整体性能进行精调。其中第1阶段使用基于图的算法分割得到候选物体集合,第2阶段基于归一化密度直方图等特征训练随机森林分类器。识别需求变化时,使用高斯加权函数对训练样本的权重进行动态调整后重新训练第2阶段的分类器。ALERT数据集上的实验表明,该自适应方法的识别性能不差于用传统方法从头训练一套分类器,成本则显著降低。

    文献[22]研究了爆炸物等主要依靠材料属性识别的危险品自动识别(automatic threat recognition,ATR)技术,包括自适应识别问题。该项工作首先设计多尺度形态学算子,通过反复迭代进行基于形状特征的3D图像分割,然后进行基于强度特征的分割,以处理贴合紧密但材料不同的物体;随后训练4类SVM分类器以识别ALERT数据集中的盐水、橡胶、粘土和其它物质等4个模拟物类别。该项工作还通过加上一个根据检出率需求确定的偏移值调整分类器输出概率,实现了能够自适应危险品类型和检出率等可变需求的ATR。

    文献[23]探索了3D CNN和主流目标检测框架在安检CT图像违禁品分类和检测中的应用,其中ResNet和Voxception-ResNet被用于3D违禁品分类的实验,Faster R-CNN和RetinaNet被用于3D违禁品检测的实验。实验数据来自于Reveal CT-80设备采集的瓶子和手枪的图像。用于分类实验的人工分割的瓶子数据集1704个样本,手枪数据集有1255个样本,评估指标为检出率TPR和误报率FPR,两类目标物的TPR约98%,FPR约1.5%。用于检测实验的瓶子数据集有305个箱包526个实例,手枪数据集有267个箱包282个实例,检测实验的评估指标为平均精度(mean average precision,MAP),瓶子和手枪的mAP分别约为76% 和88%。

    文献[24]在文献[23]的基础上尝试用单一模型解决多类别3D目标检测问题,基于多种不同的骨干网络设计了3D RetinaNet。由瓶子、手枪、望远镜、Glock套筒座、iPods 5个类别构成的数据集包含478组真实CT图像和287组合成CT图像。5类最优的召回Recall分别为74%、91%、87%、54% 和57%,对应的精度Precision分别为81%、75%、78%、64% 和33%,其中Glock套筒座和iPods两类的误报较多导致召回率和精准度较低。实验发现合适的数据增强技术有利于提升检测器的性能。

    文献[25]研究了从CT体数据中检测炸药、毒品等无特定形状但由特定材料构成的物质,把这一问题定义为三维语义分割问题。该工作尝试两条不同的技术路线,一是应用3D U-Net及其变种从三维体数据中提取特征并给出体素级的语义分割结果;二是先通过体素筛选和采样将三维体数据转换成点云数据,再应用pointnet[39]/pointnet++[40]从点云数据中提取特征并给出体素级的语义分割结果。两条技术路线都需要对分割结果进行后处理运算将分割结果转化为目标检测结果。在ALERT数据集上测试对比两种技术路线的性能,指出第1条技术路线的分割和检测效果明显优于第2条技术路线。此外,该研究仅分析了网络推理步骤的计算复杂度,缺少整个检测过程的运算效率。

    文献[26]基于CT断层图像判断物体中是否有燃爆物,给出燃爆物报警;基于物体的二维投影图像完成燃爆物之外的违禁品识别,给出违禁品报警;二维投影图像可能是扫描直接得到,或者从物体的原始投影数据重组而来,或者从三维断层图像投影而来。其中,将CT断层数据沿Z向(即物体运动方向)累加后进行360°正投影形成正弦图,正弦图上宽度最大的行所对应的视角方向设定为优选的二维投影视角方向。

    文献[27]可对三维CT数据设定任意多个方向(不限于安检过程中物体行进方向的正交方向),按照所述多个方向进行投影或渲染,生成多个二维降维视图;针对任意多个二维视图进行目标物识别,获得目标物的二维语义描述集合;将所述二维语义描述集合利用反投影技术映射到三维空间,获得语义特征矩阵,并将语义特征矩阵压缩为三维概率图;对三维概率图进行特征提取,例如连通区域分析、主成分分析等运算,获得三维图像语义描述集合以及目标物的三维识别结果。

    文献[28]围绕X轴、Y轴或Z轴对三维数据旋转不同角度,并对每个角度下的三维几何结构体数据进行投影形成投影图像,根据图像识别方法对不同角度的投影图像进行目标物识别,获得每一幅投影图像中的若干个包围框。在沿着同一坐标轴旋转得到的若干幅投影图像中,同一个物体的包围框的二维坐标中总有一维近似相同。基于这一特点,设计坐标匹配算法判断某角度的投影图像中的包围框与另一角度的投影图像中的包围框的差异指标是否小于预设阈值,若小于预设阈值则认为表征了同一个物体。最后同一个物体在所有投影图像中的包围框在三维空间中进行切割融合,得到某一目标物的三维包围框。

    文献[29]和文献[30]在投影图像中检测瓶、罐等容器的边界框,根据不同角度的识别结果进行交集运算,得到容器三维识别的边界框;从每个二维断层中分割出若干个二维物体,并根据二维物体特征相似性的综合评分,将具有连通性的二维物体组合形成三维物体,完成三维物体分割;将每个三维物体的边界框与识别出的容器的边界框进行匹配,判断三维物体是否被一个容器包裹着;如果是,则该三维物体进入液体和粉末状爆炸物识别库进行匹配;如果不是,则该三维物体进入固体爆炸物识别库进行匹配。

    文献[31]和文献[32]两份专利与其他学术机构早期发表的SliceNets论文[16]中的方法完全相同,其中文献[31]等价于SliceNets中的一阶段检测器,文献[32]等价于SliceNets中的二阶段检测器。

    文献[33]将待检测目标的三维体数据转化为二维切片数据,转化方法与SliceNets[16]雷同;然后对二维切片数据利用RPN(region proposal network)等网络进行预分割得到多个单独的待检测子目标;将每个待检测子目标进行多个方向的投影得到多个待检测子目标的二维投影图像,利用预训练的目标检测模型,对每个所述待检测子目标的二维投影图像进行目标检测识别,获得对应的检测结果;将所述检测结果按照投影时的方向反映射回CT重建图像中,得到各个物品的三维包围框信息,实现对待检测目标的三维目标检测。

    文献[34]基于密度、等效原子序数、形状等特征识别物品之间的边缘,将三维图像分割为一系列的物品;从物品中识别电子产品等容易藏匿炸药等违禁品的藏匿容器;对所有物品或者藏匿容器,通过沿着物品主轴分层等方式将物品划分为若干个子区域,依据子区域中CT值(密度和/或等效原子序数等)的分布将每个子区域分类为安全或有嫌疑,如果一个子区域被分类为有嫌疑,则该物品乃至整个包裹即可判定为可能藏匿有违禁品。

    通过总结分析2015年以来安检CT图像目标物识别方法的代表性文献,不难看出有以下几个特点。

    (1)本领域研究成果近3年来呈现明显上升态势,特别是工业界出现了较多的专利申请:主要原因在于部分国家地区或者行业出台了引导性的政策,使得安检CT扫描设备部署应用规模显著增长,从而吸引了更多的研究资源和企业投资。

    (2)学术界和工业界的研究路径和关注重点存在明显差异。学术界的技术路线和任务类型呈现多元化特点,兴趣广泛,同时计算空间维度以三维识别为主,偏好技术难度更高、更富有挑战性的目标。工业界的技术路线则结合使用跨代的经典图像分析方法和深度学习方法,任务类型聚焦于目标物检测,计算空间维度以相对成熟的二维识别为主,实用化色彩浓厚,选择研究路径以成本低和能够满足现场应用需要为出发点。

    (3)本领域研究的广泛性和影响力仍然有较大的上升空间。从公开发表的文献数量和频度来看,本领域与可见光图像中目标物识别领域的研究参与度不具有可比性,即使与二维X光机图像中目标物识别领域相比研究力度也有一定的差距,这一现象是与安检行业原始数据的敏感性以及安检CT公开数据集的稀缺性密切相关的,ALERT[35]是本领域目前仅有的半公开数据集,且并非实际应用现场的真实数据。

    在系统回顾现有文献研究成果的基础上,并深入思考本领域痛点和趋势,我们针对新的研究方向提出如下3点建议。

    (1)研究巨大类内差异下的学习和表征。有的目标物类别中不同实例存在形状、结构或材料的显著变化,如生活刀具、自制爆炸装置等,依靠训练数据集覆盖所有变化或者数据增强是不现实的。

    (2)研究仅学习正常样本的目标物检测。本领域普遍存在无安全风险的正常样本,包含违禁品的样本稀缺而且不同类别的样本数量也严重不均衡,通过学习正常样本的模式发掘新样本中的异常势在必行。

    (3)研究机器智能与安检工作人员的最佳协同机制。机器完全代替人工存在较大安全风险时,如何设计机器智能结论因人而异的展示时机和方式,协助安检员在有限的判图时间内做出可靠决策,将是安检CT图像目标物识别技术成功运用的关键一环。

  • 图  1   推想人工智能评估新型冠状病毒奥密克戎变异株感染患者肺内病灶体积示意图

    患者,男,86岁,确诊为新型冠状病毒奥密克戎变异株感染。

    Figure  1.   Schematic diagram of InferVision artificial Intelligence evaluating the volume of lesions in the lung of patients infected with the COVID-19 omicron variant

    图  2   新型冠状病毒感染中型未转重症患者

    男,34岁,右肺上叶胸膜下斑片状磨玻璃密度影,可见小血管穿行。

    Figure  2.   COVID-19 medium type that was not converted to a severe case

    图  4   新型冠状病毒感染中型未转重症患者

    女,59岁,左肺上叶胸膜下束带状实变影、周围磨玻璃影。

    Figure  4.   COVID-19 medium type that was not converted to a severe case

    图  3   新型冠状病毒感染中型未转重症患者

    男,52岁,双肺下叶多发斑片状、小片状或小结节状磨玻璃密度影及条索,外带为主,可见小血管穿行。

    Figure  3.   COVID-19 medium type that was not converted to a severe case

    图  5   新型冠状病毒感染中型未转重症患者

    男性,53岁。(a)和(b)2022.12.15右肺下叶胸膜下斑片状磨玻璃密度影,边缘模糊、内可见增粗小血管。(c)和(d)2023.01.06复查,病灶基本吸收,可见淡薄磨玻璃影残留。

    Figure  5.   COVID-19 medium type that was not converted to a severe case

    图  6   新型冠状病毒感染中型未转重症患者

    男性,66岁,右肺上叶片状GGO,左肺上叶斑片状GGO,可见小叶间隔增厚及增粗小血管。

    Figure  6.   COVID-19 medium type that was not converted to a severe case

    图  7   新型冠状病毒感染中型转重症患者

    男性,67岁,双肺外周带分布磨玻璃密度影,沿支气管血管束分布,内见网格影、条索,血管增粗及胸膜增厚。

    Figure  7.   COVID-19 medium type that was converted to a severe case

    表  1   A组和B组全肺及各肺叶病灶体积及体积占比

    Table  1   The lesion volume and proportion of the whole lung and each lung lobe in groups A and B

    指标组别统计检验
    A组(n=450)B组(n=27)ZP
     全肺病灶体积占比/%2.43(0.45~7.43)40.45(33.47~46.60)75.868<0.001
     全肺病灶体积87.12(17.73~262.20)1239.21(841.54~1395.12)72.842<0.001
     右肺上叶病灶体积占比/%0.50(0~3.00)35.70(20.84~50.32)69.027<0.001
     右肺上叶病灶体积4.56(0~24.22)225.10(120.17~317.48)64.978<0.001
     右肺中叶病灶体积占比/%0.53(0~4.45)34.73(20.29~51.61)64.665<0.001
     右肺中叶病灶体积1.87(0~12.77)101.87(54.41~153.72)62.733<0.001
     右肺下叶病灶体积占比/%3.32(0.42~14.45)57.96(38.89~63.36)67.346<0.001
     右肺下叶病灶体积28.11(3.75~86.83)292.99(219.19~430.41)62.544<0.001
     左肺上叶病灶体积占比/%0.25(0~2.49)36.66(19.28~53.40)72.725<0.001
     左肺上叶病灶体积2.46(0~22.60)217.79(128.16~347.07)70.645<0.001
     左肺下叶病灶体积占比/%2.08(0.20~12.09)54.76(37.02~64.50)57.120<0.001
     左肺下叶病灶体积15.62(1.64~73.52)283.51(168.11~329.39)53.018<0.001
    下载: 导出CSV

    表  2   A组和B组病灶密度及各密度病灶体积占比

    Table  2   Lesion densities and volume proportion of each density in groups A and B

    病灶密度(HU)及占比组别统计检验
    A组B组ZP
     -570~-470体积12.15(2.46~35.315)141.75(101.24~197.83)70.193<0.001
     -570~-470体积占比/%13.89(11.38~16.24)13.18(11.11~15.10) 0.662 0.416
     -470~-370体积9.79(1.91~28.07)144.65(113.14~181.30)73.162<0.001
     -470~-370体积占比/%11.07(8.58~13.55)12.58(10.80~15.05) 8.352 0.004
     -370~-270体积7.42(1.37~21.21)125.49(100.26~174.70)73.630<0.001
     -370~-270体积占比/%8.48(6.12~10.93)12.52(9.88~15.32)22.392<0.001
     -270~-170体积5.28(1.03~15.84)107.73(84.18~174.06)72.647<0.001
     -270~-170体积占比/%6.27(4.32~8.95)10.10(8.18~14.70)22.871<0.001
     -170~-70体积3.76(0.72~12.42)88.10(55.36~146.54)68.923<0.001
     -170~-70体积占比/%4.75(2.76~7.27)7.69(6.34~11.04)17.093<0.001
     -70~30体积2.33(0.44~9.57)62.38(29.04~83.22)63.385<0.001
     -70~30体积占比/%3.22(1.49~5.77)5.25(3.41~6.60) 9.336 0.002
     30~70体积0.47(0.05~2.08)10.84(5.74~18.90)57.192<0.001
     30~70体积占比/%0.60(0.18~1.50)1.27(0.60~1.63) 5.928 0.015
     其他39.63(8.42~110.95)307.92(250.60~534.06)57.426<0.001
     其他占比/%47.91(35.69~59.69)36.02(23.45~42.65)16.879<0.001
    下载: 导出CSV
  • [1] 中华人民共和国国家卫生健康委员会. 关于印发对新型冠状病毒感染实施“乙类乙管”总体方案的通知 [EB/OL]. (2022-12-26)[2023-01-05]. http://www.nhc.gov.cn/xcs/zhengcwj/202212/e97e4c449d7a475794624b8ea12123c6.shtml.
    [2] 中华医学会放射学分会. 新型冠状病毒肺炎的放射学诊断: 中华医学会放射学分会专家推荐意见(第一版)[J]. 中华放射学杂志, 2020,54: E001−E001. DOI: 10.3760/cma.j.issn.1005-1201.2020.0001.

    Chinese Society of Radiology. Radiological diagnosis of new coronavirus infected pneumonitis: Expert recommendation from the Chinese Society of Radiology (First edition)[J]. Chinese Journal of Radiology, 2020, 54: E001−E001. DOI: 10.3760/cma.j.issn.1005-1201.2020.0001. (in Chinese).

    [3] 孙莹, 李玲, 刘晓燕, 等. 早期新型冠状病毒肺炎的胸部薄层平扫CT表现特征[J]. CT理论与应用研究, 2023,32(1): 131−138. DOI: 10.15953/j.ctta.2023.006.

    SUN Y, LI L, LIU X Y, et al. Imaging features of early COVID-19 on chest thin-slice non-enhanced CT[J]. CT Theory and Applications, 2023, 32(1): 131−138. DOI: 10.15953/j.ctta.2023.006. (in Chinese).

    [4] 中华人民共和国国家卫生健康委员会. 新型冠状病毒感染诊疗方案(试行第十版)[EB/OL]. (2023-01-06)[2023-01-20]. http://www.nhc.gov.cn/ylyjs/pqt/202301/32de5b2ff9bf4eaa88e75bdf7223a65a.shtml.
    [5]

    LI Q, GUAN X, WU P, et al. Early transmission dynamics in Wuhan, china, of novel coronavirus infected pneumonia[J]. The New England Journal of Medicine, 2020, 382(13): 1199−1207. DOI: 10.1056/NEJMoa2001316.

    [6]

    MUNSTER V J, KOOPMANS M, VAN D N, et al. A novel coronavirus emerging in China-key questions for impact assessment[J]. The New England Journal of Medicine, 2020, 382(8): 692−694. DOI: 10.1056/NEJMp2000929.

    [7] 靳英辉, 蔡林, 程真顺, 等. 新型冠状病毒 (2019-nCoV) 感染的肺炎诊疗快速建议指南(标准版)[J]. 解放军医学杂志, 2020,45(1): 1−20. DOI: 10.11855/j.issn.0577-7402.2020.01.01.

    JIN Y H, CAI L, CHENG Z S, et al. A rapid advice guideline for the diagnosis and treatment of 2019 novel coronavirus (2019-nCoV) infected pneumonia (Standard version)[J]. Medical Journal of Chinese People's Liberation Army, 2020, 45(1): 1−20. DOI: 10.11855/j.issn.0577-7402.2020.01.01. (in Chinese).

    [8]

    KERMANY D S, GOLDBAUM M, CAI W J, et al. Identifying medical diagnoses and treatable diseases by image-based deep learning[J]. Cell, 2018, 172(5): 1122−1131. DOI: 10.1016/j.cell.2018.02.010.

    [9]

    CHEN J, WU L L, ZHANG J, et al. Deep learning-based model for detecting 2019 novel coronaviruspneumonia on high-resolution computed tomography[J]. Scientificreports, 2020, 10(1): 1−11. DOI: 10.1038/s41598-020-76282-0.

    [10]

    YANG S, JIANG L, CAO Z, et al. Deep learning for detecting corona virus disease 2019 (COVID-19) on high resolution computed tomography: A pilot study[J]. Annals of Translational Medicine, 2020, 8(7): 450. DOI: 10.21037/atm.2020.03.132.

    [11]

    WANG R, JIAO Z, YANG L, et al. Artificial intelligence for prediction of COVID-19 progression using CT imaging and clinical data[J]. European Radiology, 2022, 32(1): 205−212. DOI: 10.1007/s00330-021-08049-8.

    [12]

    NICHOLLS J M, POON L L, LEE K C, et al. Lung pathology of severe acute respiratory syndrome[J]. Lancet, 2003, 361(9371): 1773−1778. DOI: 10.1016/s0140-6736(03)13413-7.

    [13]

    HUANG C L, WANG Y M, LI X W, et al. Clinical features of patients infected with 2019 novel coronavirus in Wuhan, China[J]. Lancet, 2020, 395(10223): 497−506. DOI: 10.1016/S0140-6736(20)30183-5.

    [14] 黄益龙, 张振光, 李翔, 等. CT影像组学联合征象鉴别新型冠状病毒肺炎与其他病毒性肺炎的价值[J]. 中华放射学杂志, 2022,56(1): 36−42. DOI: 10.3760/cma.j.cn112149-20201220-01318.

    HUANG Y L, ZHANG Z G, LI X, et al. The value of CT signs combined with radiomics in the differentiation of COVID-19 from other viral pneumonias[J]. Chinese Journal of Radiology, 2022, 56(1): 36−42. DOI: 10.3760/cma.j.cn112149-20201220-01318. (in Chinese).

    [15] 赵小二, 邓克学, 王朋. 不同阶段新型冠状病毒肺炎的CT影像演变分析[J]. 实用放射学杂志, 2021,37(8): 1254−1257. doi: 10.3969/j.issn.1002-1671.2021.08.008

    ZHAO X E, DENG K X, WANG P. Analysis of the CT manifestations changes of COVID-19 at different stages[J]. Journal of Practical Radiology, 2021, 37(8): 1254−1257. (in Chinese). doi: 10.3969/j.issn.1002-1671.2021.08.008

    [16] 吴杰, 肖安岭, 顾金凤. 多层螺旋CT对新型冠状病毒肺炎的临床诊断价值[J]. 实用放射学杂志, 2021,37(5): 746−748. DOI: 10.3969/j.issn.1002-1671.2021.05.013.

    WU J, XIAO A L, GU J F. Clinical value of MSCT in the diagnosis of COVID-19[J]. Journal of Practical Radiology, 2021, 37(5): 746−748. DOI: 10.3969/j.issn.1002-1671.2021.05.013. (in Chinese).

    [17] 余成成, 杨彦鸿, 胡天丽, 等. 新型冠状病毒B.1.617.2变异株感染者高分辨率CT与临床特点[J]. 中华放射学杂志, 2021,55(10): 1054−1058. DOI: 10.3760/cma.j.cn112149-20210618-00574.

    YU C C, YANG Y H, HU T L, et al. High resolution CT findings and clinical features of the novel corona-virus B.1.617.2 variant[J]. Chinese Journal of Radiology, 2021, 55(10): 1054−1058. DOI: 10.3760/cma.j.cn112149-20210618-00574. (in Chinese).

    [18] 赵建华, 柴军, 张晓琴, 等. 基于深度学习的新型冠状病毒肺炎转归胸部CT评价[J]. 国际放射医学核医学杂志, 2020,44(12): 737−743. DOI: 10.3760/cma.j.cn121381-202004048-00101.

    ZHAO J H, CHAI J, ZHANG X Q, et al. Chest CT evaluation of COVID-19 outcome based on deep learning[J]. International Journal of Radiation Medicine and Nuclear Medicine, 2020, 44(12): 737−743. DOI: 10.3760/cma.j.cn121381-202004048-00101. (in Chinese).

    [19] 谢正平, 戴峰, 蒋燕, 等. 重症甲型H1N1流感急性肺损伤的高分辨率CT影像学分析[J]. 现代医学, 2012,40(3): 276−280. doi: 10.3969/j.issn.1671-7562.2012.03.007

    XIE Z P, DAI F, JIANG Y, et al. HRCT imaging analysis of influenza a H1N1 complicated with severe lung injury[J]. Modern Medical Journal, 2012, 40(3): 276−280. (in Chinese). doi: 10.3969/j.issn.1671-7562.2012.03.007

    [20] 刘玉建, 仲建全, 冯浩, 等. 新型冠状病毒肺炎患者的高分辨率CT影像学特征[J]. 医疗装备, 2022,35(11): 1−4. doi: 10.3969/j.issn.1002-2376.2022.11.001

    LIU Y J, ZHONG J Q, FENG H, et al. Imaging characteristics of high resolution CT for patients with corona virus disease 2019[J]. Medical Equipment, 2022, 35(11): 1−4. (in Chinese). doi: 10.3969/j.issn.1002-2376.2022.11.001

  • 期刊类型引用(1)

    1. 刘俊杰,冯鹏,廖望,王羲. YOLO-STM:基于Swin-Transformer与MSDA的X光安检图像危险品识别网络. 中国体视学与图像分析. 2024(03): 230-241 . 百度学术

    其他类型引用(0)

图(7)  /  表(2)
计量
  • 文章访问数:  206
  • HTML全文浏览量:  61
  • PDF下载量:  28
  • 被引次数: 1
出版历程
  • 收稿日期:  2023-03-09
  • 修回日期:  2023-03-16
  • 录用日期:  2023-04-11
  • 网络出版日期:  2023-04-26
  • 发布日期:  2023-09-21

目录

/

返回文章
返回
x 关闭 永久关闭