Two-stage CNNs用于计算机处理的乳腺超声图像BI-RADS分类(BioMedical Engineering OnLine)
Two-stage卷积神经网络模型用于乳腺超声图像的计算机辅助BI-RADS分类
一、摘要
背景: 将单一超声模式下的乳腺成像报告和数据系统(BI-RADS)标准转换为不同类别一直是难以解决的问题。为了实现这一目标,我们开发出一种基于卷积神经网络(CNNs)的两阶段分级系统,并通过超声图像自动将乳腺肿瘤分类为五类。
该系统主要包含两个关键环节:肿瘤识别与肿瘤分级模块。其中所设计成一个两步并运算器模型的是 tumor recognition 网络 ROI-CNN, 该网络能够从原始乳腺超声图像中提取出具有判别性的特征信息, 进而识别出包含病变组织的空间区域分布情况。基于此, tumor classification network (G-CNN) 能够提取出具有判别性的特征信息, 将已识别的目标区域归类为 Category "3"、"4A"、"4B"、"4C" 和 "5". 在这一过程中, 为了进一步优化 ROI-CNN 的预测结果以使其更加贴近真实病变区域, 我们通过采用水平集模型进行细化处理, 在不同层次之间建立联系。
结果:
结论
在乳腺超声检查中发现的肿瘤特征可以通过构建基于BI-RADS的标准构建的乳腺成像报告数据库实现自动分类研究。研究人员开发了一种新的深度卷积神经网络模型来提高肿瘤识别的准确性。
二、背景
乳腺癌已成为全球女性中最常见的发病率和死亡原因之一[1-3]。通过实施筛查超声技术来减少不必要的检查频率、节省相关成本并减轻受检查者的焦虑水平[4,5],该方法已成为大多数常规检查和临床诊断的标准手段[6-9]。在医学影像学领域中,乳腺成像报告和数据系统(BI-RADS)[10]为医生根据医学图像准确判断乳腺肿瘤类型提供了标准化参考依据及指导原则。根据表1所列评估标准以及中国成都四川大学华西医院指导委员会成员在临床实践中的广泛经验,在超声评估过程中主要可分为三级、四级及五级评价体系[10]。其中一至二级评价指标表明超声检查未发现任何恶性病变迹象,则建议实施另一种适合年龄范围的常规筛查方式。而六级则特指活组织取样检查结果呈阳性的情况。值得注意的是,在临床实践中尤其关注的是四级病变患者(见表1),因为这类患者的恶性风险介于2%至95%之间具有显著不确定性。基于此,在分级诊断方面可将其进一步划分为四级A、B、C三个亚类[10]。对于接受过相关转诊的患者而言,在完成活检后应依据实际情况做出合理的诊疗决策考虑因素包括患者的医疗期望与现实需求等多方面因素的影响)。从医疗专业角度出发设计一个自动化的乳腺肿瘤分级方案至少应具备以下功能:能够客观地对第3级至第5级病变进行诊断判断包括四级亚类(见表1)的内容)。然而需要注意的是尽管BI-RADS提供了重要的参考框架但不同个体可能因主观判断差异导致最终诊断结论存在分歧因此开发自动化分类系统不仅有助于减轻人工诊断的工作负担还能有效降低个体诊断偏差带来的影响

乳房肿瘤的半自动分类方法有很多,采用手工设计的特征来更好的对应恶性概率[11,12]。然而,半自动化方法并不能自然的完全减轻医师诊断负担。此外,以往的研究主要集中在乳腺肿瘤的良恶性分类上[14-17]。当将乳腺超声(BUS)图像提取的特征与相应的恶性概率之间的关系扩展到更复杂的类别时,医生需要花费额外的时间和精力提供详细且适当的手工特征。近年来,深度学习技术通过利用从大规模数据集中自动的层次特征表征学习,成功地解决了众多医学图像分析问题[18-24]。由于深度学习在自动特征提取方面的优势,在从超声图像中检测乳腺肿瘤的相关工作中,有几项采用了深度学习方法,而不是传统的特征工程[20,21,23 - 26]。例如,Yap等人[25]尝试使用不同的卷积神经网络(CNN)模型来检测乳腺超声病变,包括基于Patch的LeNet模型、U-Net模型和使用预先训练的FCN-AlexNet的迁移学习方法。Bian等人[26]利用深度卷积编码器-解码器网络开发了全自动全乳超声(AWBU)的检测工作。一般来说,乳腺肿瘤的检测可以为后续的肿瘤分类任务提供初步的感兴趣区域(ROIs)。更有效的肿瘤/病变区域可以指导神经网络学习更好的识别特征,用于分类任务。一些研究证实了利用CNN对乳腺肿瘤进行不同分类的可行性[23,27 - 29]。Huynh等人[27]强调,通过与典型方法(量化特征+典型分类器)的结果进行比较,深度学习可以成为一个获得用于乳腺肿瘤自动分类的“良好”特征的很有前途的新方向。然而,关于乳腺肿瘤分类网络的详细信息并没有提供。Zhang等人[28]证明了使用CNN对剪切波弹性成像(SWE)的乳腺肿瘤进行分类的可行性。尽管SWE图像的特征有助于乳腺肿瘤的定位,但为每个超声设备配备SWE并不实用。由于SWE所确定的轮廓比较粗糙,图像特征可能会包含大量的干涉。此外,该尝试只侧重于将BUS图像分类为良性或恶性。目前,基于BI-RADS的自动多类分类研究较少。He等人[29]从自然语言描述方面实现了基于电子病历的多类别分类。在临床上,根据采集到的BUS图像直接分析肿瘤的类别,可以更好地帮助医生减轻诊断负担。由于BUS图像中存在大量的噪声和其他组织的干扰,仅利用BUS图像实现精确的对应于BI-RADS的多类别分类是一项相当具有挑战性的任务。
本研究以CNN架构为基础,在乳腺肿瘤分级领域展开了系统性探讨。为了实现对更细致分类特征的学习目标, 我们的自动化分类体系重点考虑了以下两个关键因素:(1)通过在_BUS_图像中定位肿瘤区域,尽可能排除其他组织的干扰。(2)充分挖掘_BUS_图像中的关键特征信息,从而提升分类性能。本文的主要贡献体现在以下几个方面:
该系统是一种基于BUS图像进行综合量化分级的新方法。
它能够实现BI-RADS标准下的五级分类体系。
其中涵盖从III至V类的所有分类等级。
这种设计使得它可能显著减轻了复杂图像审查工作的负担。
同时减少了医生在临床实践中由于主观判断带来的影响。
基于我们提出的two-stage架构,在检测与分类两个阶段均能独立提取特征
三、材料和方法
1、受试者
本研究获取了大量用于研究的2-D乳腺超声(BUS)图像,并且这些图像均为女性患者的检查结果。这些图像中包含了多个独立的乳腺肿瘤病例。在开展该研究前的所有阶段中,在完成所有相关伦理审批后,并非每位参与者都会经历全部的研究流程。具体来说,在数据采集过程中会遵循严格的步骤:首先对每位受试者进行健康评估并获得书面同意;其次在获得伦理委员会批准后开始实施整个观察计划;最后通过先进的成像设备获取高质量的临床医学影像资料。
2、方法概述
该种医学图像分析任务常采用的深度学习架构是CNN体系结构[18,30]。一般情况下,在神经网络模型中卷积操作通常与池化操作相结合以提升特征提取效率。此外,在神经网络模型中普遍采用的激活函数包括整流线性单元(ReLU)、sigmoid函数以及双曲正切函数(tanh)[35]。
基于卷积神经网络架构的乳腺癌图像分类系统结构示意图见图1所示。该系统的构建分为三个关键步骤:第一步是将所有输入图像按统一大小(288×288)进行缩放处理;第二步是设计一种定位算法以实现对乳腺癌组织的大致识别;第三步是对初步识别结果进行优化以提高准确性。具体而言,在初步定位过程中所得到的候选区域(ROIs)可能存在非癌性组织干扰并可能导致重要纹理和边界信息被遗漏;为此我们采用了区域滤波技术和改进型Chan-Vese水平集方法[36]来优化 ROI 的边界准确性;最后我们利用广域卷积神经网络(G-CNN)对优化后的 ROI 进行特征提取与分类评估,并根据系统性能指标对其进行了多维度评分工作

3、基于CNN的定位和分级模型
由于超声图像固有的斑点噪声和对比度较低的特点,在特征提取过程中可能引入不必要的干扰,并给乳腺超声图像的自动分类带来挑战。在筛选出关键特征进行分类的过程中,首先是在BUS全图中应用肿瘤识别网络(ROI-CNN)配合细化技术来确定有效的区域-of-interest(ROI)。随后建立肿瘤分级网络(G-CNN),其主要任务是聚焦于从特征中提取能够区分不同类型的肿瘤的关键信息。
识别模型—ROI-CNN
通过有效减少其他组织(如库珀韧带)的影响,在识别相应BUS图像中的肿瘤方面完成了自动分级系统的构建工作。我们所采用的区域感兴趣点识别网络(ROI-CNN)基于全卷积神经网络(FCN)进行了开发 [37]
鉴于患者间的肿瘤尺寸存在差异性特点, 因此, 所设计出的人工智能识别网络必须具备针对各种尺寸肿瘤的高度鲁棒性和有效性. 在此基础上, 以增强该方法在处理可变尺寸目标时的实际应用价值, 我们采用了基于FCN-16s典型结构的设计理念, 在此基础上构建了一个多尺度架构. 具体而言, 首先利用典型的VGG网络(参见图2中的蓝色虚线框)来提取深层特征. 通过连续四次下采样操作, 获得其输出的空间维度为18×18. 由于该分辨率已经无法满足后续提炼深层特征的需求, 因此, 在后续处理中需要适当缩小特征图的空间分辨率.
然而,在乳腺肿瘤边界细节方面,过小尺寸的特征图表现欠佳。本研究通过将空洞卷积层(如图2所示)融入到ROI-CNN架构中,并对其设计参数进行了优化配置。具体而言,在空洞卷积层部分采用了3×3核尺寸并结合扩张系数为2的设计策略。此外,在该模块之后引入了一种过渡层(见第4节),其作用是将不同深度层级提取出的高度特异性和广度特异性特征进行融合处理。这种设计不仅有效降低了计算开销和模型参数量的增长幅度(参考文献[38–40]),还能使系统在识别乳腺肿瘤区域时展现出更高的置信度和准确性

分级模型—G-CNN
具有较强的分类器能够提升来自不同类别肿瘤特征间的区分度,并有助于实现精准分类。在临床实践中中(注:此处需确认标点符号使用是否正确),除了乳腺癌组织内部存在的纹理特征外,在识别乳腺癌组织等级时还应关注其边缘信息[10,14]。基于此,在构建分级模型的过程中有必要考虑多模态图像中的纹理与边缘特性,并通过这些特性来强化模型对各等级别癌症的认识能力。
通常,纹理和边界信息在低层卷积层中得到很好的表征,并且用更多的卷积层可以很好地提取基本特征。在我们提出的G-CNN中,来自不同深度的特征地图被连接在一起,以充分利用低层和高层信息。参考图3,G-CNN模型由9个模块组成。前四个块(从模块1到模块4)形成编码路径。编码路径中的每个模块共享相同的结构,该结构包含两个卷积层和一个最大池层。在编码路径中,卷积层的特征通道数量在最大池层之后增加了一倍。编码路径接着是包含三个卷积层的模块5。然后,拼接路径之后是四个相同的模块(从模块6到模块9)。拼接路径中的每个模块块由拼接层和卷积层组成。在我们的G-CNN模型中,来自较低层的特征地图还与来自较深层的特征地图相连接。利用编码路径中的每个模块为拼接路径中的相应块提供低级特征。例如,模块3和模块7拼接在一起。注意,为了确保导入到级联层的两个输入的大小是一致的,编码路径中的前三个块后跟卷积层和最大池层。

总体而言
4、改进
由于动态斑点噪声及其他组织的存在影响,ROI-CNN在实际应用中可能会将肿瘤区域以外的部分误判为肿瘤区域。与此同时,在某些情况下,预测区域的边缘可能会偏离真实肿瘤的边缘。因此,在确保ROI的有效性方面,进一步优化是必要的
以确保仅输出病变并提高分类精度

其中图像I被定义为空间中的一个二维矩阵;分割区域的边界曲线C被定义为其分段连续曲线;c1代表该区域内所有像素点的空间加权平均... c2代表该区域外所有像素点的空间加权平均... 其曲率由κ表示
实现细节
a. 损失函数
在ROI-CNN中,骰子损失函数可以表示如下:

其中PRED表示预测的ROI,而GT对应于真实标签。

和

分别指的是预测肿瘤区域和实际肿瘤区域。
在G-CNN中,多类交叉熵[42]被用作损失函数,

设m为类别数量,则y为每个样本对应的类别标签。其取值范围限定在1至5之间。ϑ则代表用于构建该模型的关键参数。

对应于从输入图像I到预测输出

(I).的映射关系。
在G-CNN架构中,每一个输入样本都能产生一个大小设定为1×m的输出向量集合,在这些输出向量中被识别出具有最高可能性的那一类作为最终预测结果。
b. 训练过程
我们的框架已在Tensorflow平台上得到验证,并将在配备先进硬件条件下进行所有实验。具体来说,在配备2.4 GHz Intel至强E5-2630处理器和NVIDIA GF100GL Quadro 4000显卡的基础上构建了实验环境。
在ROI-CNN的训练过程中,在图2所示的蓝色虚线框内存在一组特定层。这些层基于2012年ImageNet大规模视觉识别挑战赛(ILSVRC-2012 CLS)提供的预先训练数据集,并通过预训练的VGG网络[43]进行参数初始化。其余层则采用高斯随机数生成器进行参数初始化。每个minibatch包含16张图像,并采用SGD优化器[44,45]配置学习率为0.0001和动量因子为0.9直至收敛。
在G-CNN训练阶段,在使用随机初始化时能够带来优化效果并加快收敛速度。具体而言,在训练过程中,在G-CNN模型中设定16个图像组成一个minibatch,并使用SGD优化器配置学习速率为0.001,并按指数衰减到最终收敛。
5、性能评估
为了评估乳腺肿瘤分级方案的准确性,通过对三个专家医生手动标注相同区域的影像数据进行对比分析。该研究从两个维度展开评估:一是探讨不同特征提取策略对分类效果的影响;二是考察该系统在区分不同类型乳腺癌方面的性能。
a. 识别肿瘤准确率
采用三个指标对预测轮廓与真实轮廓间的相似性进行量化评估。具体而言,
计算其Dice相似性系数(DSC)[46,47],
并计算两边界间的Hausdorff距离(HDist)[47,48],
同时计算两边界间的平均距离(AvgDist)[47]。
其中,
DSC用于衡量两种比较区域的重叠程度;
而HDist和AvgDist则用于衡量计算机识别的肿瘤边界与医生确定的边界间的欧几里得距离。
当DSC值较高且HDist及AvgDist值较小时,
表明两者的几何形状较为接近,
从而反映出较高的相似度。
此外,
在不同ROIs变化范围内采用AUC-ROC曲线分析不同实验的表现
实验配置
6、实验配置
a. 分类系统每个阶段包含的图像数据
我们采用了两阶段分类系统的输入维度设定为288×288。采用五折交叉验证方法生成训练集和验证集。
- 图像标注
所有涉及的图像都会被这三名三年以上具备BI-RADS标准下的_BUS_检查经验的专业医师按照该标准进行评估。在出现不同注释时,这些医师会讨论以确定乳腺肿瘤的确诊类别
- 数据预处理和扩增
因志愿者样本数量有限,在进行医学图像数据集的处理与增强时必须充分工作以保证质量。在进行数据增强时必须确保所有增强的数据都包含 ROI 以保证准确性。
1. ROI-CNN模型上的数据扩增
在训练中的ROI-CNN阶段中,我们配置了每个样本图像对应的增强次数与当前轮次的数量一致.这些增强措施能够提升数据集的整体多样性,并有助于减少模型在训练过程中出现过拟合的风险.随后依次包含一系列计算周期的任务流程:包括如亮度调节,对比度优化等操作步骤;每一个样本能够生成N次独立输出结果的同时经历了N个不同的成长时期 epochs.而在此时阶段,在测试环节仅对原始样本实施标准化处理以确保评估的一致性和准确性.
2. G-CNN模型上的数据扩增
在G-CNN的训练过程中,在保留乳腺肿瘤的形态特征用于分类的同时,仅包括几何平移和翻转操作。原始数据集经过随机移动增加了四倍的数量,在第二次扩增后实施了水平翻转。
b. 识别精度对最终分级的影响
定位所覆盖的区域代表ROI区域面积,在理论上这将影响特征映射的结果,并可能对最终分类产生影响。为了研究来自BUS图像最终分类结果与乳腺肿瘤识别准确度的关系,G-CNN采用了三种不同的输入形式,分别作为'无ROI-CNN'、'未优化ROI-CNN'以及'优化后的ROI- CNN'三种形式出现。在'无ROI- CNN'实验中,直接将超声图像导入G- CNN进行处理,而未经优化的情况下(即'未优化ROI- CNN'实验),其输出结果也被直接传递给G- CNN。而经过优化后(即'改进后的ROI- CNN'实验),超声图像被完整地按照设计方案进行预处理后再输入到G- CNN。
在我们的实验方法中采用改进型ROI-CNN模型进行参数配置。(1)在公式(4)中对μ₁、μ₂以及α赋值均为1;(2)其轮廓演化迭代的最大次数设定为50次。此外,在C–V水平集模型中所使用的参数设定与我们改进后的ROI模型一致。值得注意的是,在‘No ROI-CNN’实验中将其最大轮廓演化迭代次数设定为了1000次。
c. 超声图像的one-stage与two-stage分类
充分挖掘有效特征有助于实现乳腺肿瘤更为精准的分类。为了评估two-stage分级系统在BUS图像分级上的优势,我们采用了基于肿瘤预测分类准确性这一指标,对比分析了两者的分类性能:其中,one-stage系统采用直接将输入乳腺超声图像划分为六个类别的方式进行处理:其中包括背景以及五个乳腺肿瘤类别。
该方法分为两类:一类具备改进环节的过程,在另一类则完全缺乏这一特性。在每一类中,则将本研究提出的G-CNN架构与两个典型分类网络展开了系统对比:一方面采用VGG网络[43]架构作为基准;另一方面则采用ResNet50网络[49]作为对比对象。总共设计了六组实验来全面评估两阶段分类方法的效果表现。对于基于单阶段的分类策略,则采用了三组典型实验来进行深入研究:(1) 实验One-stage G-CNN架构直接将输入样本划分为五个类别;(2) 实验One-stage VGG体系则直接实现了对输入BUS图像的五类划分;(3) 实验One-stage ResNet-50架构同样用于对输入BUS图像进行五类判别任务。
四、结果
1、识别对最终分级准确性的影响
采用DSC、AvgDist和HDist作为评估指标,并根据表2中的数据可以看出,在针对不同测试方案的研究中发现:来自改进方案(即"改进的 ROI-CNN")能够获得最大的DSC平均值(最大值),最低的AvgDist和HDist平均值(最小值),从而使三个测试方案与真实肿瘤区域最为接近。相比之下,在基于CNN的传统方法中使用水平集识别肿瘤的过程存在明显不足:即在DSC较低、AvgDist较高且HDist较大的情况下,在未进行进一步优化的情况下预测结果不如改进方案准确。这是因为传统方法依赖于图像对比度较高的条件以及BUS图像中的清晰斑点分布情况等因素,在初始轮廓设置不合理的前提下可能导致C-V演化过程出现偏差并最终影响预测结果的质量。因此根据表2中的数据可以看出:随着测试方案逐步优化预测ROI与真实标签之间的相似性也会逐步提高。

此外,请参考图4中的曲线图。这些不同预测区域来自实验"No ROI-CNN"、"No 改进的 ROI-CNN"以及改进后的"Improved ROI-CNN"。通过观察各类别的ROC曲线变化情况可以看出,在所有实验中"AUC最大的 Improved ROI-CNN"能够实现最佳分类效果。相比之下,在G-CNN中仅提供低质量区域输入数据的"No 改进的 ROI-CNN"与"No ROI-CNN"实验表现较差。特别地,在评估各分类器性能时发现:随着区域质量降低,AUC值也随之下降。具体而言,在表2中可以看到,No ROI-CNN提供的最低相似性特征在所有测试用例中均表现出最差的结果。基于此,综合比较DSC、AvgDist、HDist指标以及ROC曲线的变化趋势,采用改进版"IRO-CNN"算法能够显著提升感兴趣区域定位性能

2、One-stage与two-stage框架
表3详细记录了one-stage与two-stage实验在各肿瘤类别中的分级准确度数据。one-stage方法指的是无需识别阶段直接从标准图像(尺寸288×288)预测至五个类别。两阶段法则要求在分类过程中额外引入一个识别阶段以辅助任务完成。两阶段法可分为两种类型:一种是带有改进过程的方法另一种是非改进型的方法。采用改进过程的两阶段法包括以下几种实验案例:"改进型ROI-CNN + G-CNN""改进型ROI-CNN + VGG"及"改进型ROI-CNN + ResNet"等项目。未采用改进措施的两阶段法则涉及以下几种实验案例:"常规ROI-CNN + G-CNN""常规ROI-CNN + VGG"及"常规ROI-CNN + ResNet"等方案

参考表3,在具有图像级分类的一阶方法(如"一阶G-CNN""一阶VGG"以及"一阶ResNet")中,在平均分级准确性方面表现最差。值得注意的是这些方法在""4A类""""4B类"以及""5类"上的预测精度均未超过0.5。通过附加额外的识别网络模块未优化的一阶方法(如"区域兴趣+G-CNN""区域兴趣卷积神经网络+VGG"以及"区域兴趣卷积神经网络+ResNet")与基础的一阶方法相比能够在各个类别上提升预测精度。具体而言除了未改进的两阶段方法中""4B类""外其他四个类别在该指标下的平均精度均超过0.8。在所列出的三个实验(如""区域兴趣卷积神经网络+G-CNN""区域兴趣卷积神经网络+VGG"以及""区域兴趣卷积神经网络+ResNet")中 ""区域兴趣卷积神经网络+G-CNN""实验在所有类别上均实现了最高的准确度。三种实验方案中 ""区域兴趣卷积神经网络+VGG""实验表现出最低的准确度水平。通过持续添加一个改进环节我们可以观察到带改进两阶段方法(如改进型 ""区域兴趣卷积神经网络+G-CNN"" 改进型 ""区域兴趣卷积神经网络+VGG"" 以及改进型 ""区域 interest 卷积神经 网络 + ResNet""")可在各个类别中的评估指标上均超越表3中的其他对比对象尤其是与典型分类模型(如 VGG [43] 和 ResNet50 [49])相比本研究提出的 G-NN 网络架构在分级准确性方面依然展现出更好的性能
该研究采用改进型ROI-CNN与G-CNN组合模型进行实验验证,在各类别上的性能表现值得肯定。具体而言,在测试集上,“3”类别的分类准确度达到了接近1的程度。“4A”和“4C”两类的表现均优于0.9这一阈值,“5”类别的准确度则降至约87.6%。“4B”类的表现相对较弱,在接近87%时仍无法达到理想水平。值得注意的是,在类别“5”的性能中存在明显不足:一方面是因为该分类任务所包含的样本数量显著少于其他分类任务;另一方面则是由于在该分类任务中良性样本的比例显著高于恶性样本的比例这一特性所致。尽管如此,“4B”类依然展现了较高的识别能力——其概率分布较为均匀的状态使得即使是经验丰富的医生也难以仅凭超声图像做出准确判断。为了进一步确认这些分类结果的真实可靠性,在临床诊断阶段通常还需要结合组织学切片等手段进行辅助分析。此外,在现有的两阶段分级系统架构下,“US超声图像”的判别能力已显著超越现有文献中报道的各种方法。
3、由我们的two-stage分类系统预测的分级准确度
如图5所示,在对比实验中我们采用了三种不同的分割算法进行了验证对比实验并记录了实验结果

五、讨论
通过基于US扫描的自动定量分类系统辅助识别乳腺肿瘤类别,在复杂诊断流程中提供帮助。该研究首次提出了一种基于BI-RADS标准的乳腺超声图像量化分级评估方法。我们设计了一个双阶段分类体系(Two-Stage System),采用深度卷积神经网络(CNN)架构能够自动生成目标相关特征并完成肿瘤区域识别任务。该评分系统达到BI-RADS 5级分类标准 覆盖所有临床判读等级 包括3类 4a类 4b类 4c类及5类划分 从而显著降低影像评估负担 并减少临床实践中因经验不足导致的人为误判风险。通过区分识别特征与分类特征的学习过程 我们构建了一个具有高鲁棒性和可靠性的全自动分类系统
该研究提出的两阶段架构成功地实现了对识别和分类信息的分离,并充分提取了乳腺超声图像的关键特征。这一方法在提升分级准确性的同时也明确了两种任务的独特性:识别模块专注于从背景区域中提取肿瘤特征;而分类模块则负责将乳腺肿瘤划分为不同的类别。由此可知,在提取肿瘤特征时所采用的方法与后续进行分类时所采用的方法存在显著差异。参考表3的数据结果表明,在完成US图像处理的过程中;两阶段架构在分级任务上展现出明显优势;其关键原因在于两种模块之间无法很好地融合特性。基于这一发现;我们构建了一个专门针对乳腺癌组织分层检测的任务体系:通过这种双重策略可以实现比单一阶段方法更好的检测效果;这在医学图像分析领域具有重要的理论价值。
在two-stage分级系统中, 所设计的识别模型与改进方案有助于随后分类模型达成有效的区域标记, 最终实现理想化的分级效果. 通常情况下, 被引入到G-CNN中的非相关信息可能会造成干扰并导致不令人满意的分级结果. 表2及图4的数据进一步表明, 随着更加精确与可靠的区域标记被输入至G-CNN, 实现乳腺肿瘤更加准确的分级成为可能. 由于超声图像中存在丰富的斑点噪声, 水平集方法[36]所生成的目标轮廓在演化的过程中可能会出现较大的偏差. 因此, 单一改进方案无法为后续G-CNN提供有效的区域标记(如表2所示). 同时, ROI-CNN模型所呈现出来的预测边界通常较为平滑的特点尤其适用于恶性肿瘤分析, 然而这会丢失一些重要的细节信息. 因此单一ROI-CNN模型不足以为后续分类网络提供理想的区域标记. 因此通过将ROI-CNN与改进方案相结合能够显著提高预测区域的质量并使后续对称结构G-CNN能够获得更为精细且准确的目标标记
从表3可以看出,在分类准确性方面表现更为突出的是我们提出的G-CNN架构。增强低级特征的表现通常有助于提升分类系统的区分能力。在我们提出的G-CNN架构中(如图3所示),通过融合连接路径与跳跃连接中的层信息能够实现低维特征与高维特征的有效结合。这不仅有助于提高对不同乳腺肿瘤类别进行区分的能力而且显著提升了分类系统的整体性能相比传统的VGG [43]与ResNet 50 [49]模型而言后者仅依赖于编码路径提取高级特征进而实现分类任务这一策略未能充分考虑纹理或边界等重要细节信息导致其在乳腺超声图像分类中存在一定的局限性
我们的分级系统在"3类"、"4A类"和"4C类"上展现出良好的表现,其预测精度超过90%。然而,对于第4B类与第5类而言,系统的准确性明显低于其他三个类别(参见表3)。这一现象可能源于这两个类别样本数量较少的原因。尽管对类别4B的预测无法达到80%的精度,但其结果仍显著优于人工决策标准。根据表1所列评估指标,每个属于4B类别的肿瘤可能被判定为良性和恶性之一的可能性均存在。即使是经验丰富的医生,仅依据超声图像进行分类也可能存在误判风险。在临床实践中,为了获得最终确诊结果,我们建议进行活检检查等补充测试手段。值得注意的是,只有单一类型的来源与超声图像相关联,我们的分级方案能够充分实现乳腺肿瘤类型的预测分类工作。未来计划持续补充关于第4B与第五个类别的新数据,旨在进一步提升系统的预测准确性。此外,我们还规划将编号为0、1、2及6的图像纳入现有分级体系中,以期构建一个涵盖全面且完整的计算机辅助诊断系统BI-RADs(Computerized BI-RADs)。
六、结论
在本研究中
