ISSN 1004-4140
CN 11-3017/P

基于深度学习的面食异物检测方法

唐浩奇, 杨君, 陈荣昌

唐浩奇, 杨君, 陈荣昌. 基于深度学习的面食异物检测方法[J]. CT理论与应用研究(中英文), xxxx, x(x): 1-10. DOI: 10.15953/j.ctta.2025.066.
引用本文: 唐浩奇, 杨君, 陈荣昌. 基于深度学习的面食异物检测方法[J]. CT理论与应用研究(中英文), xxxx, x(x): 1-10. DOI: 10.15953/j.ctta.2025.066.
TANG H Q, YANG J, CHEN R C. A Method for Detecting Foreign Objects in Pastries Based on Deep Learning[J]. CT Theory and Applications, xxxx, x(x): 1-10. DOI: 10.15953/j.ctta.2025.066. (in Chinese).
Citation: TANG H Q, YANG J, CHEN R C. A Method for Detecting Foreign Objects in Pastries Based on Deep Learning[J]. CT Theory and Applications, xxxx, x(x): 1-10. DOI: 10.15953/j.ctta.2025.066. (in Chinese).

基于深度学习的面食异物检测方法

基金项目: 国家重点研发计划(双模式融合断层扫描成像技术研究与模块研制(2022YFA1604002));广东特支计划(青年拔尖人才(2023TQ07Z464));国家自然科学基金(高灵敏度X射线双相位光栅干涉仪研究,(12405366))。
详细信息
    作者简介:

    唐浩奇,男,凝聚态物理博士,工程师,主要从事控制软件开发、CT成像算法开发等工作,E-mail:tanghq@mail.iasf.ac.cn

    通讯作者:

    陈荣昌✉,男,核技术及应用博士,研究员,主要从事X射线成像技术及仪器研发等工作,E-mail:chenrc@mail.iasf.ac.cn

  • 中图分类号: TS219

A Method for Detecting Foreign Objects in Pastries Based on Deep Learning

  • 摘要:

    在面食工业的生产加工过程中,产品不慎被掺入塑料、橡胶等异物会严重影响消费者的健康安全,因此,检测面食产品中是否含有异物是一项非常重要的品控步骤。X射线计算机断层扫描(CT)是一种非接触、无损的产品检测方法,被广泛应用于面食工业生产线的检测步骤中。然而,由于面食工业生产线的高通量检测需求,对于单个产品的检测通常要求在1秒以内完成,不可能有充裕的成像时间获取大量投影图,限制了普通CT方法的使用。因此,在本文的工作中,我们提出一种基于U-Net网络的异物检测方法,通过对小样本CT重建数据进行精确分割,获得仅含有异物的虚拟投影图进行训练。验证结果表明本文的方法仅需数张投影图即可识别多个异物的数量,准确率较高,能够大幅提高面食工业生产线的异物检测效率。

    Abstract:

    During the industrial production of pastries, foreign substances such as plastic and rubber can accidentally enter the processing chain, posing serious risks to consumer health and safety. Therefore, detecting foreign substances in pastries is a critical quality control step. X-ray computed tomography (CT) is a fast, non-contact, and non-destructive testing method that is widely used in quality inspection processes on of industrial pastry production lines. However, owing to the high-throughput detection requirements of such production lines, the analysis of a single product typically needs to be completed within 1 s. This limited time frame makes it impossible to capture a sufficient number of projection images, restricting the use of conventional CT methods. In this study, we propose a foreign-object detection method based on the U-Net network, which is trained using CT data from the same type of samples and foreign objects. The experimental results show that this method requires only a few projection images to accurately identify multiple foreign objects. It can quickly and efficiently detect foreign objects from CT data on industrial production lines, greatly improving detection efficiency in the pastry industry.

  • 食品工业是关系到国计民生的基础行业,对国民的基本生活保障起着重要的压舱石功能[1-2]。面食工业是以主粮为原材料进行加工、生产的基础工业,面食产品是人民群众日常饮食中最常用的食品,在国民经济中的地位极为重要。面食工业的产业链很长,面食产品在原材料处理、加工、运输的过程中不慎被掺入橡胶、塑料等异物是难以避免的。据相关数据统计,食品行业的顾客投诉中异物投诉的比例超过60%,如此高的占比也引起社会各方的广泛关注[3-4]。如果食品中存在异物,除了会给消费者带来心理影响之外,还会使食品品牌声誉受到严重损害。因此,在面食工业生产线上对出厂产品进行准确的异物检测是非常有必要的。

    食品工业生产线上的异物检测方法主要有X射线技术、微波技术、近红外技术、核磁共振技术等[5-6],其中最为有效的检测方法是X射线技术。X射线技术以低成本和非侵入性的方式可视化对象的内部结构,基于采集的数据中观察到的不同衰减的物体即可在射线照片上发现隐藏的异物,具有高度灵敏性和准确性,从而确保了食品的安全。因此,X射线技术在食品工业异物检测领域得到了广泛的应用[7-11]

    X射线技术在食品工业的异物检测应用中分为两类:平面型(Planar)和计算机断层扫描法(computed tomography,CT)。平面型是X射线光源以直线位置向样品发射X射线后产生二维图像,然后对单张图像进行数据分割,进而对异物进行识别。但仅通过单张图像无法从各个角度对食品和异物进行全面的检测,尤其是当食品内存在多个异物时,无法对多个异物的叠加进行分割。CT是对食品和异物进行不同角度的扫描,并借助计算机处理产生样品内部结构的三维图像。CT图像以不同的灰度反映食品和异物对X射线的吸收程度,能够清晰地显示出食品和异物的细微结构。普通CT方法进行异物检测的缺点是需要旋转多个角度,实验耗时较长。在成像时间充裕、投影图较多的情况下,普通CT方法进行异物检测是高度准确的。但是,由于面食工业生产线上的产品数量巨大,对于单个产品的检测要求一般要在1 s以下完成,不可能有充裕的成像时间获取每个产品的大量、精细的投影图,可能一个样品只有<10张投影图可以使用。此时,普通CT方法无法仅通过<10张投影图来进行准确地识别。因此,面食工业迫切需求研发更加准确的异物检测算法,来解决快速异物检测问题。

    近年来,随着人工智能(artificial intelligence)相关软硬件的跨越式发展,人工智能已经越来越频繁的被用于食品工业中。2011年,DOMINGO等[12]研究者采用10×10窗口和24个强度特征检测鱼类样品平面型X射线二维数据中的鱼骨,经过图像采集、预处理、分割、特征提取、分类后,通过支持向量机(SVM)将图像区分为鱼肉和骨块。交叉验证表明该算法对大型、中型和小型鱼类的检测准确度分别为100%、98.5%和93.5%。随着深度学习(deep learning)算法的不断进步,研究者逐渐将深度学习算法引入到图像处理领域,因其强大的特征学习能力,在实际应用中有显著的优势[13-20]。2014年,JONATHAN等[21]提出的全卷积网络奠定了深度学习在语义分割领域的基础,因其普适性和有效性,广泛应用于工业领域。为改善卷积神经网络的上下文信息提取能力,PSPnet[22]、DeepLab[23]和Non-Local[24]等一系列网络陆续被提出。Wang等[25]提出了基于Deeplabv3+网络的自动分割模型,能更好捕捉物体边缘信息,使得分割精度进一步提升。近年来,Transformer模型应用于图像分割取得成功,它以能提取图像全局信息的特点占有独特优势,大量基于Transformer模型的分割网络被提出[22],但Transformer模型的缺点是作为大模型,模型的训练会耗费更多的硬件资源。2015年,Olaf等[26]提出了U-Net网络,U-Net的设计来源于全卷积网络,通过引入跳过连接和对称编码器—解码器结构,显著提升了模型在小样本数据集上的性能。由于U-Net网络的优越性能,很快被引入到工业领域。目前,U-Net及其变体已经成为CT图像分割领域的首选方法之一,至今仍在CT图像分割领域中占据主导地位,它支持小样本数据训练,提取多尺度图像特征,拥有良好的分割性能,能满足CT投影图在少量训练数据情况下的分割要求。2021年,tim等[27]训练U-Net模型用于检测梨的内部疾病,对梨的X射线CT扫描结果中的健康组织、核心和受内部疾病影响的区域进行分割。分割得到的定量数据用于衡量“可消费”与“非可消费”水果,分类准确率分别为99.4%和92.2%。2021年,Kazuya等[28]提出了一种新的基于卷积神经网络和合成图像的鱼骨检测方法,克服了鱼类X射线数据难以进行手动注释的缺点,生成鱼骨骼状轮廓,从而合成训练数据,不需要手动注释训练数据集。2021年,Lee等[29]提出了采用YOLO模型对异常的枣类进行识别的方法,通过对4725张平面型X射线数据进行训练,达到了99%的识别准确率。2023年,Michael等[30]利用卷积神经网络模型将甜瓜果实分类为适销、适合鲜切、储存损失3类。2023年,Vladyslav等[31]提出了一种自动标记算法来获得深度卷积神经网络(DCNN)的训练数据,仅需要少量CT扫描数据,大幅减少了必需的数据采集量。训练结果表明,即使是单次CT扫描也可以训练出一个能够准确检测异物的模型,这种方法简化了深度学习在食品异物检测领域的应用,解决了获得训练数据时手动标记工作量大的问题。2023年,WU等[32]提出了一种基于卷积神经网络的春砂仁果实网络(amomum villosum fruit network,AFNet),采用X射线无损检测技术识别春砂仁的内部结构,实现果实的快速无损质量分类,质量分类的准确率可达96.33%。2024年,Vladyslav等[33]将深度卷积神经网络模型用于CT实验中检测鸡肉中的碎骨,并采用不同曝光时间下的POD曲线来表征模型生成的质量,实验结果表明该方法可以有效地用于工业产品的高通量在线检测。2025年,Miroslav等[34]利用卷积神经网络生成CT训练数据以检测和分类稻米的常见缺陷(白垩质和孔隙),显示了该方法的潜力,可扩展用于各种其他类型的食品缺陷检测,如种子、果实的腐烂部分。

    面食工业生产线上有大量产品需要进行异物检测,为解决异物检测速度跟不上生产线的难题,缩短面食产品异物检测时间,本文基于U-Net网络,提出一种异物检测方法,该方法通过对小样本CT数据重建结果进行分割、再投影后获得仅含有异物的虚拟投影图,以此生成的数据来训练U-Net模型。训练获得的U-Net模型在验证集上取得的效果很好,验证集结果表明本文方法对于多个异物的检测精度很高,可准确识别多个异物的数量。用于测试集时,若异物的形状与训练集相似,该模型能取得较好的识别效果;但若异物的形状与训练集差异较大,则识别效果较差。因此,本文的异物检测方法适用于面食工业生产线上需要检测的高度相似的产品和异物,可大幅提高面食工业生产线的异物检测效率,应用前景广阔。

    本文采用的U-Net网络是一种基于卷积神经网络的架构,最初提出时是专门用于生物医学图像分割任务。U-Net网络的结构如图1所示。该网络一共有4层,分别对输入的图像进行了4次下采样和4次上采样。输入的图像首先经过64个3×3的卷积核进行卷积,再通过ReLU函数后得到64个特征通道。然后把结果再经过64个3×3的卷积核进行卷积,同样通过ReLU函数后得到这是第一层的处理结果。第一层的处理结果再通过2×2的池化核,对图像下采样为原来大小的一半,然后通过128个卷积核进一步提取图像特征。后面的下采样过程也是以此类推,每一层都会经过两次卷积来提取图像特征;每下采样一层,都会把图像减小一半,卷积核数目增加一倍。右半部分从下往上则是4次上采样过程。从最右下角开始,把特征矩阵经过512个2×2的卷积核进行反卷积,由于反卷积只能扩大图像而不能还原图像,为了减少数据丢失,采取把左边降采样时的图像裁剪成相同大小后直接拼过来的方法增加特征层,再进行卷积来提取特征。由于每一次valid卷积都会使得结果变小一圈,因此每次拼接之前都需要先把左边下采样过程中的图像进行裁剪。矩阵进行拼接后,再一次进行上采样,重复上述过程。每一层都会进行两次卷积来提取特征,每上采样一层,都会把图像扩大一倍,卷积核数目减少一半。在最后一步中,选择了2个1×1的卷积核把64个特征通道变成2个,也就是最后的输出的图像。

    图  1  U-Net网络的基本结构
    Figure  1.  Basic structure of the U-Net network

    面食工业生产线上的产品数量巨大,对于单个产品的检测要求一般要在1 s以下完成,不可能有充裕的成像时间获取每个产品的大量、精细的投影图。本文采用的方法可以解决面食工业生产线中的异物检测难题,以满足面食工业中的快速、精确检测需求。该方法首先采用预先采集的与待测样品相似的CT投影图和经过重建、分割后的仅含有异物的虚拟投影图作为训练数据;然后经过训练得到U-Net网络模型;最后将训练得到的U-Net网络模型应用于待测数据(验证集和测试集),得到检测结果。具体工作流程如图2所示:

    图  2  基于U-Net网络模型的异物检测方法的具体工作流程
    Figure  2.  Specific workflow of the proposed foreign-object detection method based on the U-Net network model

    本文所使用的训练数据是包含样品与异物的CT投影图和经过重建、分割后仅含有异物的虚拟投影图,如图2中红框内所示。红框内的上半部分是包含样品与异物的CT投影图,本文所采用的包含样品与异物的CT投影图是来源于网上的公开实验数据[35],该数据的样品是采用Play-Doh公司的黏土制成的,异物是使用砾石,砾石的平均直径为约7 mm(范围从3 mm到11 mm),形状略有不同。该数据是由20套CT数据组成,每套CT数据由1800张间隔0.2°的投影图组成。我们将20套CT数据中随机选取18套数据作为训练集,用于训练U-Net网络模型;剩余2套数据作为验证集,用于验证训练出的U-Net网络模型的性能。图3为20套CT数据的0°投影图:

    图  3  蓝框内为训练集中每套包含样品与异物的CT数据的0°投影图,红框内为验证集中每套包含样品与异物的CT数据的0°投影图
    Figure  3.  The blue box represents the 0°projection of CT data containing samples and foreign objects in each training set, whereas the red box represents the 0°projection of CT data containing samples and foreign objects in each validation set

    图2中红框内的下半部分是仅含有异物的虚拟投影图。仅含有异物的虚拟投影图是通过对包含样品与异物的投影图进行处理得到的,处理方法如下:首先对包含样品与异物的投影图进行CT重建,获得三维体数据。然后采用全局阈值法对体数据进行分割,使可能的异物与样品进行分离,获得分割后的仅含有异物的体数据之后,再通过该体数据生成异物在虚拟探测器上的虚拟投影,这些虚拟投影即为图2中红框内的下半部分。图4图3中每套包含样品与异物的0°投影图经过上述处理后,生成的仅含有异物的0°虚拟投影图:

    图  4  蓝框内为训练集中每套CT数据生成的仅含有异物的0°虚拟投影图,红框内为验证集中每套CT数据生成的仅含有异物的0°虚拟投影图
    Figure  4.  The blue box represents the 0°virtual projection generated from the training set containing only foreign objects, whereas the red box represents the 0°virtual projection generated from the validation set containing only foreign objects

    接下来使用上一节中获得的数据来训练U-Net网络,本文使用的U-Net网络模型的结构如图5所示,U-Net网络由编码器和解码器两部分组成,编码器部分主要包含卷积和最大池化,解码器包含卷积和上采样。编码器进行了两次最大池化2×2的降采样,设置特征图的初始数量为32,并且特征图的数量对于每个下采样层加倍。解码器采用双线性插值,使用的卷积核为3×3,激活函数为ReLU。在解码器进行上采样和特征融合前,先将特征通道的维度恢复到前一层特征的通道数量,保持特征维度一致,随后把编码器提取的特征与解码器获得的位置信息在通道上进行融合。损失函数是采用交叉熵(cross-entropy)损失函数和Dice损失函数各50%权重,交叉熵损失函数是通过衡量预测分布与真实分布(虚拟投影图)之间的差异,来评估模型输出的准确性;Dice损失函数计算涉及交叉像素的点乘和像素总数的比较,与交叉熵损失函数结合使用后,可显著提升模型性能。U-Net网络是在NVIDIA GeForce RTX 3090上进行训练,CUDA版本为10.2.89,采用PyTorch来实现,学习率(LR)为0.001,训练次数(Epochs)为3000次,训练时间为7.5 h。

    图  5  本文使用的U-Net网络模型的结构示意图
    Figure  5.  Schematic diagram of the structure of the U-Net network model used in this study

    为了评估训练出的U-Net网络模型在验证集上的检测精度,我们采用F1分数(Dice系数)、平均精度两个指标来衡量验证集数据生成分割数据的准确性。F1 分数又称 Dice系数,定义为:

    $$ \mathrm{D}\mathrm{i}\mathrm{c}\mathrm{e}=\frac{2\mathrm{*}\mathrm{Y}\mathrm{*}\widehat{\mathrm{Y}}}{\mathrm{Y}+\widehat{\mathrm{Y}}}=\frac{2(\mathrm{Y}\bigcap \widehat{\mathrm{Y}})}{\mathrm{Y}+\widehat{\mathrm{Y}}} 。 $$ (1)

    其中,Y为真实值(即图4中红框生成的仅含有异物的虚拟投影图),$ \widehat{Y} $为模型预测值(即经过U-Net模型处理的验证集数据)。Dice系数的最大值1代表完美的准确性和灵敏度;最小值0代表最差,真实值和模型预测值毫无相似性。

    平均精度的定义为:

    $$ \frac{\mathrm{T}\mathrm{P}}{\mathrm{T}\mathrm{P}+\mathrm{F}\mathrm{P}} 。 $$ (2)

    其中,TP(true position)是正确预测为异物的数量,FP(false position)是错误识别为异物的数量。

    表1为训练出的U-Net网络模型在验证集上的处理结果,可以看到获得的U-Net模型在样品与异物形状都与训练集相似的验证集数据中表现很好。两套验证集数据经过U-Net模型处理后的F1分数分别为0.914和0.905(均为1800个投影数据的平均F1分数),平均精度分别为0.99650.9952(均为1800个投影数据的总平均精度)。从验证集数据结果的F1分数、平均精度看来,本文训练的U-Net模型在异物的形状、样品与异物的衬度差异都与训练集相似时,能取得较好的识别效果。此外,为了更好地满足食品工业上的需求,本文还根据U-Net模型处理结果增加了识别多个异物数量的功能,如表1中“识别异物数量”一栏所示。该样品中实际含有6个异物,但有很多角度的投影图识别出的异物数量是5个,这是由于某些角度下两个异物互相遮挡所致。本文统计了该样品的1800个投影图的U-Net模型处理结果的识别异物数量(表2)。由表2可以看到,除了受异物互相遮挡导致的4个、5个的识别结果,还有7.5%(135/1800)的7、8、9和10个的识别结果,这些异常识别是由于程序将噪音白点误认为是异物所致。因此,本文先采用腐蚀算法对1800个投影图的U-Net模型处理结果进行了处理,去除噪音白点后,再进行异物数量识别。识别结果如表3所示。由表3可以看到,经过腐蚀算法处理后,超过6个异物的异常识别仅占千分之一(2/1800)。

    表  1  验证集数据用训练出的U-Net网络模型的处理结果
    Table  1.  The processing results of the U-Net network model trained on the validation set data
    投影图角度15°30°45°
    原始数据
    经U-Net模型处理后
    识别异物数量6556
    投影图角度60°75°90°
    原始数据
    经U-Net模型处理后
    识别异物数量556
    下载: 导出CSV 
    | 显示表格
    表  2  1800个投影图的U-Net模型处理结果的识别异物数量统计
    Table  2.  Statistics on the number of foreign objects identified by the U-Net model obtained by processing results from 1800 projection images
    识别异物数量/个 4 5 6 7 8 9 10
    对应的投影图数量 22 1070 573 111 19 4 1
    下载: 导出CSV 
    | 显示表格
    表  3  经过腐蚀算法处理后的识别异物数量统计
    Table  3.  Statistics for the number of identified foreign objects processed using the corrosion algorithm
    识别异物数量/个 4 5 6 7
    对应的投影图数量 11 1154 633 2
    下载: 导出CSV 
    | 显示表格

    为了克服某些角度下异物互相遮挡导致识别数量偏少的问题,本文采用多个角度投影取最大值的方法(之前的腐蚀算法已解决了识别数量偏多的问题)。例如表1中的0°、15°、30°、45°、60°、75°和90°7个投影图,取7个投影图中识别异物数量的最大值,即可得出6个异物的正确结论。表4统计了1350组相差15°的7个投影图(例如第2组为0.2°、15.2°、30.2°、45.2°、60.2°、75.2°和90.2°)用上述方法识别出的异物数量,由表4可以看到,1350组数据中识别正确(异物个数为6)的比例为96.8%(1307/1350)。

    表  4  1350组相差15°的七个投影图识别出的异物数量
    Table  4.  Number of foreign objects identified by seven projection images with a difference of 15° in 1350 sets
    识别异物数量/个 5 6 7
    对应的投影图数量 29 1307 14
    下载: 导出CSV 
    | 显示表格

    本文的方法在曝光步骤耗时0.14 s(7张投影图,每张投影图的曝光时间为20 ms),在数据导入(7张投影图)步骤耗时0.09 s,在模型计算(7张投影图)步骤耗时0.23 s,在识别异物数量步骤耗时0.03 s,因此,识别一个样品的异物数量共耗时0.49 s。为显示出本文方法在耗时上的优势,下面将CT重建方法的耗时与本文方法进行比较。表5为不同投影图数量下CT重建算法的耗时,表6为不同投影图数量下CT重建的切片图效果,可以看到当投影图数量降低至12张时,切片图已无法判断异物情况,因此CT重建方法获得切片图的最低耗时为每个样品2.86 s(其中绝大部分时间花在了CT重建步骤上)。对比之下,本文的方法每个样品识别多个异物数量的总耗时仅为0.49 s,有明显的优势。

    表  5  不同投影图数量下CT重建方法的耗时
    Table  5.  Time consumption of the CT reconstruction algorithm for different numbers of projection images
    投影图数量/张 360 90 60 45 30 20 15 12
    导入数据耗时/s 1.08 0.71 0.59 0.39 0.13 0.09 0.078 0.076
    CT重建耗时/s 7.79 3.78 3.06 2.9 2.68 2.53 2.48 2.43
    曝光耗时/s 7.2 1.8 1.2 0.9 0.6 0.4 0.3 0.24
    总耗时/s 16.1 6.29 4.85 4.19 3.41 3.02 2.86 2.75
    下载: 导出CSV 
    | 显示表格
    表  6  不同投影图数量下CT重建切片图效果
    Table  6.  CT reconstruction slice effects for different projection image quantities
    投影图数量/张 360 90 45
    第484层切片图
    投影图数量/张 30 15 12
    第484层切片图
    下载: 导出CSV 
    | 显示表格

    测试集进行实验的光源是采用液态金属靶X射线源,液态金属靶X射线源是一种先进的X射线光源,它使用液态金属(常用的例如液态镓)作为靶材,通过高速电子流撞击液态金属靶,产生X射线。液态金属靶X射线源有着相当高的空间稳定性。根据附加在光源上的针孔相机所拍摄的焦点位置分布图,其焦斑在24 h内距中心的位置标准偏差在0.1 μm以下。测试集进行实验的探测器是Photonic Science公司的sCMOS探测器,像素数为6144 x 6144,像素尺寸为25微米,动态范围为30000∶1,最大帧频为11 FPS,像素深度为16位/32位,采集CT投影图时曝光时间为2 s。进行CT实验时光源到样品的距离(source to object distance,SOD)为430 mm,光源到探测器的距离(source to detector distance,SDD)为980 mm,每个样品采集的投影图数量为360张,本文进行的实验所使用的样品是采用中粮集团香雪牌高筋面粉(执行标准GB/T1355),异物使用不同形状的塑料块、橡胶块(图6)。

    图  6  测试集实验所使用的样品和异物
    Figure  6.  Samples and foreign objects used in the test set experiment

    用第2节训练出的U-Net模型对测试集实验结果进行处理,处理结果(图7)。

    图  7  采用训练出的U-Net模型对测试集数据进行处理
    Figure  7.  Trained U-Net model used to process the test set data

    图7的结果可以看到训练数据得出的U-Net模型的泛化性能。当异物为橡胶块时,U-Net模型对近似圆形或正方形异物的识别较好,而对于长条形异物的识别出现困难,原因是训练数据中的石子都是近似圆形或方形的,因此对形状变化太大的异物难以识别;当异物为塑料块时,U-Net模型的识别较好。测试集结果表明,当异物的形状与训练集类似时,该模型能取得较好的异物识别效果;但当异物的形状与训练集差异较大时,该模型的异物识别效果较差。由于面食工业生产线上的产品是高度相似的食品和异物,因此,本文的方法足以满足面食工业生产线异物检测的需求。

    与国际上的先进算法对比,如Vladyslav等[33]的自动标记算法采用物理模型人工生成训练数据,获得的深度卷积神经网络(DCNN)可以对梨、粘土、鹅卵石多种样品进行异物检测,精度较高(95%),相比之下,本文的U-Net网络的泛化能力还需提高。

    本文采用U-Net网络来解决面食工业生产线上的异物检测问题。面食工业生产线的产品数量庞大,无法采用传统CT方法完成异物的快速检测,迫切需求研发更加快速的异物检测算法。本文使用经过CT重建后分割、再投影后获得的仅含有异物的虚拟投影图生成训练数据,训练获得的U-Net模型经过验证集、测试集数据的测试,当异物的形状与训练集相似时,该模型能取得较好的识别效果。由于面食工业生产线上需要检测的是高度相似的产品和异物,因此,本文的方法足以满足面食工业生产线的异物检测需求。采用本文的方法通过7张投影图即可准确识别多个异物的数量,从而实现快速、无损的生产线实时异物检测,大幅提高了面食工业生产线的检测效率。

  • 图  1   U-Net网络的基本结构

    Figure  1.   Basic structure of the U-Net network

    图  2   基于U-Net网络模型的异物检测方法的具体工作流程

    Figure  2.   Specific workflow of the proposed foreign-object detection method based on the U-Net network model

    图  3   蓝框内为训练集中每套包含样品与异物的CT数据的0°投影图,红框内为验证集中每套包含样品与异物的CT数据的0°投影图

    Figure  3.   The blue box represents the 0°projection of CT data containing samples and foreign objects in each training set, whereas the red box represents the 0°projection of CT data containing samples and foreign objects in each validation set

    图  4   蓝框内为训练集中每套CT数据生成的仅含有异物的0°虚拟投影图,红框内为验证集中每套CT数据生成的仅含有异物的0°虚拟投影图

    Figure  4.   The blue box represents the 0°virtual projection generated from the training set containing only foreign objects, whereas the red box represents the 0°virtual projection generated from the validation set containing only foreign objects

    图  5   本文使用的U-Net网络模型的结构示意图

    Figure  5.   Schematic diagram of the structure of the U-Net network model used in this study

    图  6   测试集实验所使用的样品和异物

    Figure  6.   Samples and foreign objects used in the test set experiment

    图  7   采用训练出的U-Net模型对测试集数据进行处理

    Figure  7.   Trained U-Net model used to process the test set data

    表  1   验证集数据用训练出的U-Net网络模型的处理结果

    Table  1   The processing results of the U-Net network model trained on the validation set data

    投影图角度15°30°45°
    原始数据
    经U-Net模型处理后
    识别异物数量6556
    投影图角度60°75°90°
    原始数据
    经U-Net模型处理后
    识别异物数量556
    下载: 导出CSV

    表  2   1800个投影图的U-Net模型处理结果的识别异物数量统计

    Table  2   Statistics on the number of foreign objects identified by the U-Net model obtained by processing results from 1800 projection images

    识别异物数量/个 4 5 6 7 8 9 10
    对应的投影图数量 22 1070 573 111 19 4 1
    下载: 导出CSV

    表  3   经过腐蚀算法处理后的识别异物数量统计

    Table  3   Statistics for the number of identified foreign objects processed using the corrosion algorithm

    识别异物数量/个 4 5 6 7
    对应的投影图数量 11 1154 633 2
    下载: 导出CSV

    表  4   1350组相差15°的七个投影图识别出的异物数量

    Table  4   Number of foreign objects identified by seven projection images with a difference of 15° in 1350 sets

    识别异物数量/个 5 6 7
    对应的投影图数量 29 1307 14
    下载: 导出CSV

    表  5   不同投影图数量下CT重建方法的耗时

    Table  5   Time consumption of the CT reconstruction algorithm for different numbers of projection images

    投影图数量/张 360 90 60 45 30 20 15 12
    导入数据耗时/s 1.08 0.71 0.59 0.39 0.13 0.09 0.078 0.076
    CT重建耗时/s 7.79 3.78 3.06 2.9 2.68 2.53 2.48 2.43
    曝光耗时/s 7.2 1.8 1.2 0.9 0.6 0.4 0.3 0.24
    总耗时/s 16.1 6.29 4.85 4.19 3.41 3.02 2.86 2.75
    下载: 导出CSV

    表  6   不同投影图数量下CT重建切片图效果

    Table  6   CT reconstruction slice effects for different projection image quantities

    投影图数量/张 360 90 45
    第484层切片图
    投影图数量/张 30 15 12
    第484层切片图
    下载: 导出CSV
  • [1] 马敬军, 李东鑫, 曹岩, 王正华. 食品加工中异物及其控制措施探讨[J]. 质量与认证, 2024, 1: 38-42.
    [2] 李娟. 食品生产过程的异物来源与预防控制[J]. 现代食品. 2019, 11: 107-111.

    LI J. Foreign matter source and prevention and control in food production[J]. XIANDAISHIPIN, 2019, 11: 107-111.

    [3] 周振华, 朱鹏, 幸波. 食品的异物管理与检测[J]. 食品安全导刊, 2023, 22: 82-85. DOI: 10.3969/j.issn.1674-0270.spaqdk202326033.
    [4] 张文英, 林乾洋. 韩国食品异物报告制度对我国的启示[J]. 福建轻纺, 2022, 8: 24-27. DOI: 10.3969/j.issn.1007-550X.2022.04.007.
    [5] 孙军. 食品原材料中异物的有效检测[J]. 食品安全导刊, 2018, 36: 98. DOI: 10.3969/j.issn.1674-0270.2018.03.074.
    [6] 靳欣欣, 潘立刚, 王冬. 食品中异物种类来源及检测技术评述[J]. 食品安全质量检测学报, 2016, 7(7): 2803-2808.

    JIN X X, PAN L G, WANG D. Review on the source and detection technology of foreign bodies in food[J]. Journal of Food Safety and Quality, 2016, 7(7): 2803-2808.

    [7] 张文建, 邵华. 基于 X射线的食品异物检测系统设计[J]. 机电一体化, 2016, 22(8): 44-47.

    ZHANG W J, SHAO H. Design of food foreign obiect detection system based on X-ray[J]. Mechatronics, 2016, 22(8): 44-47.

    [8] DANICLA V. 如何用异物检测技术避免食品安全问题[J]. 食品安全导刊, 2016, 7: 42-43.
    [9] 安立工业自动化(上海)有限公司. 食品原材料的异物检测方案[J]. 食品安全导刊, 2011, 4: 32-33.
    [10] 冯琼丹. 食品异物检测技术研究现状[J]. 江苏调味副食品, 2009, 26(3): 25-27. DOI: 10.3969/j.issn.1006-8481.2009.03.007.

    FENG Q D. Research on the detecting technology of foreign body in food[J]. Jiangsu Condiment and Subsidiary Food, 2009, 26(3): 25-27. DOI: 10.3969/j.issn.1006-8481.2009.03.007.

    [11] 虞伟晨, 蔡云升. 食品中异物的在线检测和控制[J]. 食品工业, 2002, 5: 33-35.
    [12]

    DOMINGO M, IVAN L, HANS L, et al. Automated fish bone detection using X-ray imaging[J]. Journal of Food Engineering, 2011, 105: 485-492. DOI: 10.1016/j.jfoodeng.2011.03.007.

    [13]

    HEMAMALINI V, RAJARAJESWARI S, NACHIYAPPAN S, et al. Food quality inspection and grading using efficient image segmentation and machine learning-based system[J]. Journal of Food Quality, 2022: 5262294.

    [14]

    ZHU L L, PETROS S, ERICA P, et al. Deep learning and machine vision for food processing: A survey[J]. Current Research in Food Science, 2021, 4: 233-249. DOI: 10.1016/j.crfs.2021.03.009.

    [15]

    DENG Z W, WANG T, ZHENG Y, et al. Deep learning in food authenticity: Recent advances and future trends[J]. Trends in Food Science & Technology, 2024, 144: 104344.

    [16]

    JANMENJOY N, KANITHI V, PAIDI D, et al. Intelligent food processing: Journey from artificial neural network to deep learning[J]. Computer Science Review, 2020, 38: 110297.

    [17]

    BEATRIZ E MOLINA P. Deep learning: The great challenge to innovate: Highlighting Colombia’s food industry[C]//12th International Conference on Intellectual Capital, Knowledge Management and Organisational Learning, 2015: 429-436.

    [18]

    WANG Y, WU J B, DENG H, et al. Food image recognition and food safety detection method based on deep learning[J]. Computational Intelligence and Neuroscience, 2021, 13: 126845.

    [19]

    VIJAY K, VAN H N, BASIVI P K, et al. A critical review on computer vision and artificial intelligence in food industry[J]. Journal of Agriculture and Food Research, 2020, 2: 100033. DOI: 10.1016/j.jafr.2020.100033.

    [20]

    DENG Z W, WANG Y, ZHENG Y, et al. Hyperspectral imaging and deep learning for quantification of Clostridium sporogenes spores in food products using 1D-convolutional neural networks and random forest model[J]. Food Research International, 2021, 147: 110577. DOI: 10.1016/j.foodres.2021.110577.

    [21]

    JONATHAN L, EVAN S, TREVOR D. Fully Convolutional Networks for Semantic Segmentation[C]//Processing of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 3431-3440.

    [22]

    HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.

    [23]

    CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 40(4): 834-848.

    [24]

    WANG X, GIRSHICK R, GUPTA A, et al. Proceedings of the IEEE neural conference on computer vision and pattern recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2018: 7794-7803.

    [25]

    WANG J, LIU X P. Medical image recognition and segmentation of pathological slices of gastric cancer based on deeplab v3+ neural network[J]. Comput Methods Programs Biomed, 2021, 207: 106210. DOI: 10.1016/j.cmpb.2021.106210.

    [26]

    OLAF R, PHILIPP F, THOMAS B, et al. U-Net: Convolutional Networks for Biomedical Image Segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention, 2015: 234-241.

    [27]

    TIM V D L, ELLEN R, PIETER V, et al. Non-destructive internal disorder detection of Conference pears by semantic segmentation of X-ray CT scans using deep learning[J]. Expert Systems with Applications, 2021, 176: 114925. DOI: 10.1016/j.eswa.2021.114925.

    [28]

    KAZUYA U, NOBUTAKA K, AKIHIRO M, et al. Automated fish bone detection in X-ray images with convolutional neural network and synthetic image generation[J]. IEEJ Transactions on Electrical and Electronic Engineering, 2021, 16: 1510-1517. DOI: 10.1002/tee.23448.

    [29]

    LEE D H, KIM E S, CHO J S, et al. A two-stage automatic labeling method for detecting abnormal food items in X-ray images[J]. Journal of Food Measurement and Characterization, 2022, 16: 2999-3009. DOI: 10.1007/s11694-022-01387-1.

    [30]

    MICHAEL A, SIAMAK K, FOROUZANDEH S, et al. Novel models to predict stored melon fruit marketability using convolutional neural networks[J]. Journal of Ambient Intelligence and Humanized Computing, 2023, 14: 11863-11871. DOI: 10.1007/s12652-022-03741-z.

    [31]

    VLADYSLAV A, ROBERT V L, TRISTAN V L, et al. CT-based data generation for foreign object detection on a single X-ray projection[J]. scientificreports, 2023, 13: 1881.

    [32]

    WU Z Y, XUE Q L, MIAO P Q, et al. Deep learning network of amomum villosum quality classification and origin identification based on X-ray technology[J]. Foods, 2023, 12: 1775. DOI: 10.3390/foods12091775.

    [33]

    VLADYSLAV A, ROBERT V L, TRISTAN V L, et al. X-ray image generation as a method of performance prediction for real-time inspection: A case study[J]. Journal of Nondestructive Evaluation, 2024, 43: 79. DOI: 10.1007/s10921-024-01091-8.

    [34]

    MIROSLAV Y, THOMAS L, VIRGINIA F, et al. Degradation detection in rice products via shape variations in XCT simulation-empowered AI[J]. Journal of Nondestructive Evaluation, 2025, 44: 10. DOI: 10.1007/s10921-024-01147-9.

    [35]

    MATHE T Z, TRISTAN V L, DANIEL M P, et al. A tomographic workflow to enable deep learning for X-ray based foreign object detection[J]. Expert Systems with Applications, 2022, 206: 117768. DOI: 10.1016/j.eswa.2022.117768.

图(7)  /  表(6)
计量
  • 文章访问数:  16
  • HTML全文浏览量:  3
  • PDF下载量:  0
  • 被引次数: 0
出版历程
  • 收稿日期:  2025-02-23
  • 修回日期:  2025-04-06
  • 录用日期:  2025-04-06
  • 网络出版日期:  2025-04-25

目录

/

返回文章
返回
x 关闭 永久关闭