文献速递:人工智能医学影像分割---基于合成MRI辅助的深度注意力全卷积网络的CT前列腺分割
文献速递:综上所述,在AI驱动的医学图像分割领域取得了重要进展。研究者们开发了一种基于合成MRI辅助的深度注意力全卷积网络模型,在CT前列腺图像分割任务中表现出色
01文献速递介绍
Prostate cancer is the most common male cancer and ranks as the second leading cause of male cancer deaths in the United States. Depending on individual recurrence risk and disease extent, approximately 30% of prostate cancer patients opt for radiation therapy. External beam radiotherapy is a non-invasive treatment modality that delivers localized doses, widely adopted for definitive prostate cancer treatment. Prostate delineation is a prerequisite for treatment planning. In clinical practice, manual contouring of the prostate is commonly performed. However, due to low soft tissue contrast in CT images, inter- and intra-observer variability affects prostate delineation accuracy, which heavily depends on clinician expertise. Studies have shown that CT-defined prostate volumes often overestimate actual volumes by over 30%. To enhance delineation accuracy, computer-aided segmentation methods have been developed.
作为美国男性最常见的癌症之一,在癌症死亡率排名中也位列第二。基于复发几率及病情扩展情况的不同阶段,在接受放疗的选择上有所差异:约有30%的选择接受放射治疗干预;而其余患者则可能选择手术切除或其他治疗方法。外照射放疗作为一种无创疗法,在降低放疗副作用方面具有显著优势;此外它还可以提供更为精准的空间剂量分布能力;因此这种技术已被广泛应用于前列腺癌的确诊与定位工作中。准确地勾画出前列腺区域是制定个性化治疗方案的第一步;然而在实际操作中这一过程并不简单:特别是在临床环境中;由于CT成像设备受限于软组织对比度的问题;导致不同医生之间的勾画结果可能存在较大的偏差;这种不一致往往会影响后续诊断工作的准确性并进而影响最终疗效评估结果。研究发现:利用CT影像所定义出的前列腺体积通常会比实际体积高估约30%以上;这可能与设备参数设置不当或者算法优化不够有关;因此为了提高诊断精度相关软件工具的应用越来越受到重视;其中一种有效的方法就是采用计算机辅助分割技术来替代传统的手工勾画方式从而显著提升诊断效率与准确性水平。
Title
题目
prostate CT image segmentation dependent on a synthetic-based approach incorporating deep learning-based attention mechanisms combined with a fully convolutional network
基于合成MRI辅助的深度注意力全卷积网络的CT前列腺分割
Methods
方法
The proposed method incorporates an sMRI-assisted deep attention network for accurate prostate segmentation on CT scans. The approach is structured into three main stages. Initially, a cycle generative adversarial network (GAN) is employed to generate an sMRI image from given CT data. Subsequently, a deep attention-based convolutional network is trained using paired sMRI and deformed prostate contours derived from MRIs. Attention mechanisms are then utilized to enhance focus on the prostate boundaries. Finally, by inputting the patient's CT images into the trained models, we successfully generated and segmented the prostate contour.
我们开发了一种基于sMRI辅助的深度注意力网络用于前列腺分割的方法。该策略通过结合循环生成对抗网络(CGAN)和深度注意力全卷积网络(DAFCN)在CT图像上实现了对sMRI数据的高度准确分割。本方法包含三个关键步骤:首先,在获得CT图像的基础上利用循环生成对抗网络(CGAN)估计对应的sMRI数据;其次,在获得sMRI数据后,我们通过结合该数据与经修改后的前列腺边界信息训练了一个深度注意力全卷积网络;最后,在测试阶段中,我们将目标患者的CT图像输入至已训练好的CGAN生成器和分割器中以获取其对应的sMRI影像及其前列腺区域的精确边界。
Results
结果
This segmentation technique was validated through a clinical trial involving 49 patients using leave-one-out validation and an additional 50 patients through hold-out testing. The Dice similarity index was calculated.
Our segmented and deformed MRI-defined prostate manual contours' coefficient index (系数指数), Hausdorff distance (Hausdorff距离), and mean surface distance index (均 surf 面距离指数) compared to the deformed MRI-defined prostate manual contours (变形后的MRI定义前列腺手动轮廓) were respectively achieved as [...]
该分割技术通过临床研究中的留一实验进行了系统验证,并结合保留测试进一步确认其有效性
Conclusions
结论
We have developed a novel CT-only prostate segmentation strategy utilizing CT-based sequential MRI, which has been evaluated against manually outlined prostate contours derived from MRI images that were subsequently transformed into CT space. This innovative technique provides accurate prostate volume measurements for treatment planning without the need for MRI acquisition, thereby significantly enhancing routine clinical workflows.
Key words: computed tomography (CT), CT-based synthetic magnetic resonance imaging (MRI), deep attention model, prostate segmentation using U-Net architecture
我们开发了一种创新性地仅依赖 CT 进行前列腺分割的技术方案。该方案利用基于 CT 的 sMRI 模型,并通过将手动标注在 MRI 图像上的前列腺区域变形至对应的 CT 图像来验证其准确性。该技术能在无需进行 MRI 成像的情况下精确计算出前列腺体积,并可用于制定治疗计划,并显著提升了常规临床工作流程的整体效率。
Figure
图

_FIG. 1. 该示意图展示了所提方法的核心流程图。第一行详细描述了使用CycleGAN进行合成磁共振成像的过程以及分割模型的训练步骤。第二行则聚焦于对新患者CT图像进行分割处理的具体流程。
图1. 所提出方法的示意流程图。第一部分详细阐述了基于CycleGAN生成合成磁共振成像的方法以及分割模型的训练流程。第二部分则具体说明了针对新患者的计算机断层扫描图像分割的具体步骤。

FIG. 2. The architectures of proposed networks.
图2. 所提出网络的架构。

_FIG. 3. 图形展示了生成的人工合成磁共振成像(sMRI)的结果。(a1)和(b1)分别展示了CT图像在两个轴向平面的情况。(a2)和(b2)展示了生成的sMRI图像。(a3)和(b3)展示了发生形变的手动轮廓。(a4)和(b4)详细描绘了CT、sMRI和手动轮廓在黄虚线处的曲线变化情况。
本研究中生成的合成磁共振成像(sMRI)及其视觉结果如图3所示。(a1)-(b1)呈现了两个轴向层面的标准计算机断层扫描(CT)图像。(a2)-(b2)显示对应的生成体素模型sMRI。(a3)-(b3)描绘了手动分割所形成的变形边界。(a4)-(b4)分别展示出(a1)-(b1)中黄线标记区域对应的CT、sMRI以及手动分割解剖学边缘分布情况。

FIG. 4. 展示了一个具有代表性的效益对比示例来说明我们的深度注意力卷积网络(DAFCN)相对于未引入注意门控的DSFCN的优势(a1),显示横断面上的真实CT图像。(a2),显示相应的手动轮廓。(a3),生成合成磁共振成像(sMRI),(a4),展示来自sMRI中抽取出的部分样本块中心位置分布情况,在这些样本块中被前列腺组织标记的部分用绿色圆圈标注,在非前列腺组织中的则用红色星号标注。(b1–b4),分别展示了使用DSFCN在各个压缩路径输出下对应的特征图中前三个主成分的散点图。(c1–c4),分别展示了应用我们提出的DAFCN在各个压缩路径输出下对应的特征图中前三个主成分的散点图
(b1–b4) and (c1–c4) is azimuth = 10° and elevation = 30°.
图4. 深度注意力全卷积网络(DAFCN)与未使用注意力门的DSFCN对比实验结果,(a1) 展示了横断面上的原始断层扫描图像。(a2) 展示了相应的手动轮廓。(a3) 展示了生成的合成磁共振成像(MRI),其中前列腺样本用绿色圆圈标注而非前列腺样本用红色星号标注。(b1-b4) 分别展示了DSFCN在每个解压分支输出特征图中相应补丁样本前三主成分的空间分布特征图。(c1-c4) 分别展示了DAFCN在每个解压分支输出特征图中相应补丁样本前三主成分的空间分布特征图。观察者位置设置为方位角=10°仰角=30°

FIG. 5. Comparative analysis between the proposed method and existing U-Net models demonstrates a comprehensive assessment of various imaging techniques._ (a1) and (c1) depict the computed tomography (CT) images, while (a2) and (c2) illustrate the magnetic resonance imaging (MRI). The synthetic MRI (sMRI) results are shown in both (a3)-(c3). Additionally, zoomed-in regions are provided for each modality: CT scans in (a4, c4) and sMRI scans in (a5, c5_). The segmented contours obtained from each model are displayed across all modalities, including manual contours (b1–b5), CT U-Net (b6), sMRI U-Net (b7), CT deep attention fully convolution network (DAFCN, b8_), and sMRI DAFCN (b9)._
图5. 展示了所提出方法与最新U-Net模型在医学图像分割方面的对比实验。(a组和c组分别展示了CT图像的原始结果。(b组和d组则展示了 MRI 的原始图像。(c 组展示的是合成 MRI (s MRI ) 的结果。e 组展示的是 a 组矩形框内 CT 图像的放大效果。(f 组展示的是 c 组矩形框内 s MRI 图像的放大效果.b 组到 b 五分别展示了手动轮廓二值掩膜的效果.d 组到 d 五则展现了各分割算法的具体表现.]
Table
表

TABLE I. A numerical comparison utilizing a deep attention-based convolutional neural network for CT and sMRI data.
表I. 基于深度注意力全卷积网络对CT和sMRI合成数据集的性能评估

TABLE II. A detailed numerical comparison based on the application of deep attention fully convolution network (DAFCN) and dual-scale feature fusion network (DSFCN) for synthetic magnetic resonance imaging (sMRI) data.
表 II展示了基于深度注意力全卷积模型(DAFCN)与DSFCN在合成磁共振成像数据集上的数值对比结果分析

_TABLE III. 通过留一出实验对CT扫描与合成磁共振成像(sMRI)上的系统性评估显示了我们的所提算法与U-Net之间的对比结果。
改写说明

Table IV: Quantitative metrics of the introduced algorithm on the hold-out subset.
表IV. 在保留测试集上我们提出的算法的定量指标。
