基于U-Net的特征交互分割方法
孙君顶1,2, 惠朕堃1, 唐朝生1, 毋小省1,2
1.河南理工大学 计算机科学与技术学院 焦作 454000
2.苏州大学 江苏省计算机信息处理技术重点实验室 苏州 215006
通讯作者:

毋小省,硕士,副教授,主要研究方向为图像处理、模式识别.E-mail:wuxs@hpu.edu.cn.

作者简介:

孙君顶,博士,教授,主要研究方向为图像处理、模式识别.E-mail:sunjd@hpu.edu.cn.

惠朕堃,硕士研究生,主要研究方向为医学图像分割.E-mail:923351352@qq.com.

唐朝生,博士,讲师,主要研究方向为医学图像处理.E-mail:tcs@hpu.edu.cn.

摘要

针对肝脏分割中存在误分割及小目标漏分割的问题,文中提出基于U-Net的特征交互分割方法,采用ResNet34作为主干网络.为了实现不同尺度间的非局部交互,设计基于转换器机制的特征交互金字塔模块作为网络的桥接器,获得具有丰富上下文信息的特征图.设计多尺度注意力机制替代U-Net中的跳跃连接,关注图像中的小目标,充分获取目标层的上下文信息.在公开数据集LiTS及3Dircadb和CHAOS组成的数据集上的实验证实文中方法能取得较好的分割效果.

关键词: 肝脏分割; 转换器; 注意力机制; 特征交互
中图分类号:TP391.41
U-Net Based Feature Interaction Segmentation Method
SUN Junding1,2, HUI Zhenkun1, TANG Chaosheng1, WU Xiaosheng1,2
1. College of Computer Science and Technology, Henan Polytechnic University, Jiaozuo 454000
2. Provincial Key Laboratory for Computer Information Processing Technology, Soochow University, Suzhou 215006
Corresponding author:
WU Xiaosheng, master, associate professor. Her research interests include image processing and pattern recognition.

About Author:
SUN Junding, Ph.D., professor. His research interests include image processing and pattern recognition.
HUI Zhenkun, master student. His research interests include medical image segmentation.
TANG Chaosheng, Ph.D., lecturer. His research interests include medical image processing.

Abstract

To address the problems of mis-segmentation and missing segmentation of small targets in liver segmentation, a U-Net based feature interaction segmentation method is proposed using ResNet34 as the backbone network. To achieve non-local interactions between different scales, a transformer-based feature interaction pyramid module is designed as the bridge of the network to obtain feature maps with richer contextual information. A multi-scale attention mechanism is designed to replace the jumping connection in U-Net, considering the small targets in the image and sufficiently acquiring the contextual information of the target layer. Experiments on the public dataset LiTS and the dataset consisting of 3Dircadb and CHAOS demonstrate that the proposed method achieves good segmentation results.

Key words: Key Words Liver Segmentation; Transformer; Attention Mechanism; Feature Interaction

本文责任编委 桑 农

Recommended by Associate Editor SANG Nong

肿瘤切除手术是治疗肝癌的常用手段, 在手术之前肝脏分割是手术中的重要步骤.传统的手动分割往往依赖于医生丰富的经验, 并且需要耗费大量的时间, 因此需要开发精确高效的肝脏自动分割方法.

针对图像分割问题, 研究人员进行大量有效工作.传统方法主要依赖图像的浅层特征, 受噪声和目标尺寸的影响较大, 无法满足高精度分割的需求[1, 2, 3].近年来, 随着深度学习技术研究的逐步深入, 卷积神经网络(Convolutional Neural Networks, CNN)在医学分割问题上得到广泛应用[4, 5, 6, 7].在这些方法中, 全卷积神经网络(Fully Convolutional Net-works, FCN)[8]将用于分类的全连接层替换为卷积层, 同时使用上采样确保特征图恢复为原图像大小, 解决像素级分类问题.

与FCN不同, Ronneberger等[4]提出U型网络(U-Net), 使用完全对称的编码器-解码器结构, 在编码器和解码器之间添加跳跃连接, 确保网络能得到编码器中不同尺度的特征, 获得较好的分割性能.尤其是针对医学图像领域内训练数据集较少的情况, U-Net依然能取得较优结果.鉴于U-Net的优良性能, 学者们提出多种改进模型[5, 6, 7].为了获取更深更抽象的语义信息及防止发生梯度消失问题, 残差连接U型网络(Residual Connection UNet, ResUNet)[5]和密集连接U型网络(Densely Connected UNet, Dense-UNet)[6]分别使用具有残差连接的残差模块(Res-block)[9]和密集连接的密集连接模块(Dense-block)[10]替换U-Net的每个子模块, 在解决梯度消失问题的同时得到网络更深层次的特征, 并使网络的训练变得更容易.为了增强网络对目标像素的敏感度, 注意力U型网络(Attention U-Net)[7]引入注意力机制, 提高网络精度.

此外, 在进行图像分割时, 往往采用上下文语义提高分割性能.如采用堆叠池化[11]、带有步长的卷积[12]或扩张卷积[13]等方法编码上下文语义, Lin等[14]采用特征金字塔网络(Feature Pyramid Networks, FPN)融合不同尺度语义信息, 获取更强的语义特征图.在此基础上, 受到非局部交互启发[15], Zhang等[16]提出特征金字塔转换(Feature Pyramid Trans-former, FPT), 设计3个转换器(Transformer), 使FPN的输出特征图实现不同尺度间的非局部信息交互.

虽然上述方法取得较好的分割效果, 但若肝脏图像中出现断裂区域时, 由于缺乏不同尺度间的非局部交互, 容易造成断开区域的背景被误检.其次, 小目标的分割难度较大, 如果只关注目标区域, 经验丰富的医生也很难识别这些目标.但如果考虑目标所在的背景, 根据背景中其它脏器的位置, 可较好地识别该目标.本文认为如果将小目标周围背景的上下文作为补充信息, 可更好地实现小目标的分割.

因此, 本文提出基于U-Net的特征交互分割方法(Feature Interaction U-Net, FIU-Net), 设计特征交互金字塔模块(Feature Interactive Pyramid Block, FIPB)和多尺度注意力机制模块(Multi-scale Attention Mechanism, MSAM).FIPB引入FPT中3个转换器[16], 建立不同尺度之间的非局部上下文语义联系, 同时融入图像全局信息, 得到具有丰富语义信息的特征图.MSAM设计一个简洁的U-Net代替原U-Net中的跳跃连接, 同时加入CBAM(Convolutional Block Attention Module)[17]注意力机制, 得到具有小目标周围丰富上下文且消除冗余信息的特征图.在LiTs数据集[18]及3Dircadb[19]和CHAOS[20]组成的数据集上进行实验, 结果表明本文方法能取得较好的分割效果.

1 基于U-Net的特征交互分割方法
1.1 网络结构

针对U-Net无法使跨越空间和尺度的信息进行交互且对较小目标难以检测的问题, 本文提出基于U-Net的特征交互分割方法(FIU-Net), 基本结构如图1所示, 图中Upsample表示最后一个上采样的操作.

图1 FIU-Net结构图Fig.1 Structure of FIU-Net

FIU-Net采用ResNet34作为编码器.图1中Conv 7× 7表示ResNet34中第1个7× 7的卷积, Conv2_x、Conv3_x、Conv4_x、Conv5_x分别表示ResNet34中4个模块.与ResNet34不同的是, FIU-Net将Conv5_x中的普通卷积替换为扩张率为2的扩张卷积, 目的是在增加感受野的同时保证特征图的尺寸是原图的1/16.经过编码器后的特征图送入FIPB模块, 使跨越空间和尺度的信息能进行交互, 输出的特征图和经过MSAM(MSAM1、MSAM2和MSAM3)变换的高层特征拼接, 拼接后的特征经过和U-Net相同的两层3× 2卷积进行降维和优化.

1.2 特征交互金字塔模块

为了融合不同尺度下的特征, 基于FPT, 本文设计特征交互金字塔模块(FIPB), 结构如图2所示, 其中T表示3个转换器, 即渲染转换器(Rendering Transformer, RT), 接地转换器(Grounding Transformer, GT), 自转换器(Self-Transformer, ST).

图2 FIPB结构图Fig.2 Architecture of FIPB

首先, 从编码器输出的32× 32特征图依次经过卷积核大小为7× 7、5× 5、3× 3的卷积进行下采样, 得到特征图fm1fm2fm3.然后, 3幅特征图经过3个转换器处理, 共得到9幅特征图.将这9幅特征图进行特征重组, 拼接尺寸相同的特征图, 拼接后的特征图和尺寸对应的fm1fm2fm3分别进行拼接, 得到f mT1f mT2f mT3.在此基础上, 对fm3进行3× 3卷积并和f mT3拼接, 并进行上采样, 得到的特征图和f mT2拼接后再次进行上采样, 再次上采样之后的特征图和f mT1拼接并上采样, 恢复到32× 32的尺寸, 从而实现不同尺度的特征融合.最后, 由于下采样中7× 7的卷积存在降维操作, 考虑到降维操作可能会造成信息损失, 进一步对编码器的输出特征图进行1× 1的卷积, 并和融合后的特征相乘.另外, 对从编码器输出的特征图进行全局平均池化, 得到全局信息, 并将该全局信息进行1× 1的卷积后上采样, 恢复32× 32的尺寸, 将拥有全局信息的特征图和经过相乘的特征图进行拼接, 得到最终具有丰富语义的特征图.

特征图fm1fm2fm3经过转换器的操作过程如图3所示.

图3 转换器的操作过程Fig.3 Transformer operation process

具体地说, fm1fm3fm1fm2经过RT得到f mRT3, 1f mRT2, 1, fm1经过ST得到f mST1.fm2fm3经过RT得到f mRT3, 2, fm2fm1经过GT得到f m1, 2GT, fm2经过ST得到f m2ST. fm3fm2fm3fm1经过GT得到f m2, 3GTf m1, 3GT, fm3经过ST得到f m3ST.通过转换器的操作, 完成3幅特征图之间不同空间不同尺度的信息交互.

1.3 多尺度注意力机制

U-Net中简单的跳跃连接可能会因为深度特征和浅层特征的语义差别过大而造成语义鸿沟的问题, 并且跳跃连接不足以学习到特征图中不同尺度的语义信息.为此, 本文设计多尺度注意力机制模块(MSAM).

在图1中, Conv2_x的输出结果经过MSAM1模块和解码器中对应层上采样后的特征图进行拼接操作, 之后采用和U-Net相同的两层3× 3卷积对融合不同尺度语义信息的上采样特征图进行降维和优化.Conv3_x和Conv4_x的输出经过MSAM2和MSAM3进行处理, 不同的是, MSAM1经过4次下采样, MSAM2经过3次下采样, MSAM3经过2次下采样.

MSAM1模块结构如图4所示, 具体如下.首先, 对来自编码器的特征图进行2次3× 3的卷积, 再采用2× 2的最大池化进行下采样, 下采样后的特征图经过一次3× 3的卷积进行优化, 重复此操作直到进行四次下采样, 将最后的特征图进行2次3× 3卷积后进行上采样, 上采样后的特征图和对应的编码器中经过CBAM注意力机制[17]的特征图进行拼接, 并使用一次3× 3的卷积降低通道.随后重复这样的操作, 直到得到最后的特征图.

图4 MSAM1模块结构图Fig.4 Architecture of MSAM1

2 实验及结果分析
2.1 实验环境

实验选择2个数据集:LiTs数据集[18]、3Dircadb数据集[19]和CHAOS数据集[20]的组合(简记为3D& C)数据集.LiTs数据集包含131组有标签的腹部电子计算机断层扫描(Computed Tomography, CT)图像和70组没有公开标签的腹部CT图像.3Dircabd数据集包含22组有标签的腹部CT图像, CHAOS数据集包括40组腹部CT图像(其中20组提供标签)及120组磁共振成像(Magnetic Resonance Imaging, MRI)图像.

实验时选择CHAOS数据集中提供标签的20组腹部CT图像和3Dircabd数据集中22组有标签的腹部CT图像组成3D& C数据集.

首先, 采用文献[21]的预处理方法对肝脏图像进行预处理.将肝脏的窗宽设为150, 窗位设为30, 之后将CT值转换为0~255的灰度值.腹部人体组织常用的窗宽窗位[22]表1所示.

表1 腹部人体组织的常用窗宽窗位 Table 1 Common window width and window level of abdominal human tissue

为了验证本文方法的性能, 采用分割模型中常用的评价指标Dice系数、准确率(Precision)和召回率(Recall)作为评价标准[23].

Dice系数定义为

Dice= 2TP2TP+FP+FN.

准确率和召回率定义为

Precision= TPTP+FP,

Recall= TPTP+TN,

其中, TP表示预测和标签全是正样本的数量, FP表示预测是正样本、但标签为负样本的数量, TN表示预测是负样本、但标签为正样本的数量.

实验选择Pytorch环境, 使用自适应矩估计(Adaptive Moment Estimation, Adam)优化器.GPU采用Nvidia GeForce RTX 2070S.

2.2 交叉验证实验结果

针对LiTs数据集, 将提供有标签的131组腹部肝脏图像平均分为5组, 每次将其中一组作为测试集进行训练, 重复5次.FIU-NetLiTS数据集上的交叉验证结果如表2所示.

表2 FIU-Net在LiTS数据集上的交叉验证结果 Table 2 Results of cross-validation of FIU-Net on LiTS dataset %

针对3D& C数据集, 同样将数据集上所有图像分为5组, 每次将其中一组作为测试集进行训练, 重复5次.FIU-Net在3D& C数据集上的交叉验证结果如表3所示.

表3 FIU-Net在3D& C数据集上的交叉验证结果 Table 3 Results of cross-validation of FIU-Net on 3D& C dataset %
2.3 模块性能验证

为了进一步验证本文的FIPB模块和MSAM模块的性能, 设计3组对比实验.同时对比去掉FIPB模块和MSAM模块的原网络(简记为原网络).

首先, 在LiTS、3D& C数据集上进行消融实验, 结果如表4所示.由表可看出, 在原网络分别加入FIPB模块和MSAM模块后, 指标值均有提升.将二者都加入到原网络(即FIU-Net)后, 指标值得到较大提升.

表4 消融实验结果 Table 4 Results of ablation experiment %

其次, 为了验证MSAM模块的性能, 分别使用CBAM、选择性核网络(Selective Kernel Networks, SKNet)[24]、压缩和激励网络(Squeeze-and-Excita-tion Networks, SENet)[25]作为原网络的跳跃连接, 再将这些注意力机制分别加入MSAM结构中, 具体实验结果如表5所示.由表可看出, 相比直接使用这些注意力作为原网络的跳跃连接, 融合MSAM机制后取得更优性能.由表还可看出, 将CBAM加入MSAM后, 网络性能最优.

表5 注意力机制对方法性能的影响 Table 5 Effect of attention mechanism on method performance %

最后对比FPN、FPT、FIPB对性能的影响. 在原网络分别加上FPN、FPT、FIPB进行对比, 结果如表6所示.由表可见, 原网络加入FIPB后, 网络性能最优.

表6 特征金字塔网络对方法性能的影响 Table 6 Effect of feature pyramid networks on method performance %
2.4 实验结果对比

实验中选择如下对比方法:U-Net[4]、ResUNet[5]、Attention U-Net[7]、嵌套U型网络(Nested U-Net, U-Net++)[26]、上下文编码网络(Context Encoder Network, CE-Net)[27]、密集特征选择U型网络(Dense Feature Selection U-Net, DFS U-Net)[28]、多尺度上下文嵌套U型网络(Multi-scale Context Nested U-Net, MSN-Net)[23].在LiTS数据集上的对比结果如表7所示, 由表可知, FIU-Net取得最优性能.

表7 各方法在LiTs数据集上的指标值对比 Table 7 Index value comparison of different methods on LiTs dataset %

各方法在CT图像上的分割结果如图5所示.由图可见, 当目标尺寸较小时, 相比其它网络, FIU-Net不仅可较好地分割目标, 并且也较好地保留目标的边缘部分.当肝脏存在断开区域时, 对比网络会出现将断开区域误检为肝脏、断开区域的边缘会出现模糊的伪影、一部分肝脏区域被漏检的情况.在两个独立的肝脏区域且其中一个较小时, 对比网络往往会漏检较小的部分, ResUNet虽然未漏检, 但肝脏较小的部分也出现大量伪影并出现误检的情况.面对肝脏区域的边缘不规律的情况, 对比其它网络, FIU-Net可较好地保留边界的细节信息.

图5 各方法在LiTs数据集上的分割结果对比Fig.5 Segmentation result comparison of different methods on LiTs dataset

各方法在3D& C数据集上的指标值对比如表8所示.由表可知, FIU-Net取得最优结果.

表8 各方法在3D& C数据集上的指标值对比 Table 8 Index value comparison of different methods on 3D& C dataset %

各方法在3D& C数据集上的分割结果如图6所示.由图6可知, 各方法在肝脏较小时都可较好分割肝脏, 但会出现背景被误分割为肝脏和伪影的情况.

图6 各方法在3D& C数据集上的分割结果对比Fig.6 Segmentation result comparison of different methods on 3D& C dataset

在肝脏存在断开且其中有一部分的尺寸很小时, 对比网络针对尺寸较小的部分容易漏分或分割不全.在肝脏出现多个独立目标时, FIU-Net能较好地分割图中3个独立的目标区域, 也能较好地分割最小的区域, 保留图像的边缘细节.

3 结束语

针对肝脏图像中因存在断开区域造成的误检及小目标漏检的问题, 本文提出基于U-Net的特征交互分割方法(FIU-Net).基于设计的特征交互模块, 建立不同尺度间的非局部交互.基于改进的多尺度注意力机制, 融合图像中的小目标信息和小目标周围上下文信息.在LiTS、3D& C数据集上的实验验证FIU-Net取得较好的分割效果.下一步将考虑在其它的脏器CT图像上进行实验, 测试本文方法在CT图像上的泛化能力.

参考文献
[1] 姜慧研, 冯锐杰. 基于改进的变分水平集和区域生长的图像分割方法的研究. 电子学报, 2012, 40(8): 1659-1664.
(JIANG H Y, FENG R J. Image Segmentation Method Research Based on Improved Variational Level Set and Region Growth. Acta Electronica Sinica, 2012, 40(8): 1659-1664. ) [本文引用:]
[2] 李敏, 梁久祯, 廖翠萃. 基于聚类信息的活动轮廓图像分割模型. 模式识别与人工智能, 2015, 28(7): 665-672.
(LI M, LIANG J Z, LIAO C C. Active Contour Model for Image Segmentation Based on Clustering Information. Pattern Recognition and Artificial Intelligence, 2015, 28(7): 665-672. ) [本文引用:]
[3] 张荣国, 刘小君, 董磊, . 物体轮廓形状超像素图割快速提取方法. 模式识别与人工智能, 2015, 28(4): 344-353.
(ZHANG R G, LIU X J, DONG L, et al. Superpixel Graph Cuts Rapid Algorithm for Extracting Object Contour Shapes. Pattern Reco-gnition and Artificial Intelligence, 2015, 28(4): 344-353. ) [本文引用:]
[4] RONNEBERGER O, FISCHER P, BROX T. U-Net: Convolutional Networks for Biomedical Image Segmentation // Proc of the International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin, Germany: Springer, 2015: 234-241. [本文引用:]
[5] HAN X. Automatic Liver Lesion Segmentation Using a Deep Convo-lutional Neural Network Method[C/OL]. [2021-05-21]. https://arxiv.org/pdf/1704.07239.pdf. [本文引用:]
[6] LI X M, CHEN H, QI X J, et al. H-DenseUNet: Hybrid Densely Connected UNet for Liver and Tumor Segmentation From CT Vo-lumes. IEEE Transactions on Medical Imaging, 2018, 37(12): 2663-2674. [本文引用:]
[7] OKTAY O, SCHLEMTER J, LE FOLGOC L, et al. Attention U-Net: Learning Where to Look for the Pancreas[C/OL]. [2021-05-21]. https://arxiv.org/pdf/1804.03999v2.pdf. [本文引用:]
[8] LONG J, SHELHAMER E, DARRELL T. Fully Convolutional Networks for Semantic Segmentation // Proc of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2015: 3431-3440. [本文引用:]
[9] HE K M, ZHANG X Y, REN S Q, et al. Deep Residual Learning for Image Recognition // Proc of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2016: 770-778. [本文引用:]
[10] HUANG G, LIU Z, VAN DER MAATEN L, et al. Densely Connected Convolutional Networks // Proc of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2016: 2261-2269. [本文引用:]
[11] HE K M, ZHANG X Y, REN S Q, et al. Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 37(9): 1904-1916. [本文引用:]
[12] SPERINGENBERG J T, DOSOVITSKIY A, BROX T, et al. Striving for Simplicity: The All Convolutional Net[C/OL]. [2021-05-21]. https://arxiv.org/pdf/1412.6806.pdf. [本文引用:]
[13] YU F, KOLTUN V. Multi-scale Context Aggregation by Dilated Con-volutions[C/OL]. [2021-05-21]. https://arxiv.org/pdf/1511.07122v1.pdf. [本文引用:]
[14] LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature Pyramid Networks for Object Detection // Proc of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2017: 936-944. [本文引用:]
[15] WANG X L, GIRSHICK R, GUPTA A, et al. Non-local Neural Networks // Proc of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2018: 7794-7803. [本文引用:]
[16] ZHANG D, ZHANG H W, TANG J H, et al. Feature Pyramid Transformer[C/OL]. [2021-05-21]. https://arxiv.org/pdf/2007.09451.pdf. [本文引用:]
[17] WOO S, PARK J, Lee J Y, et al. CBAM: Convolutional Block Attention Module // Proc of the European Conference on Computer Vision. Berlin, Germany: Springer, 2018: 3-19. [本文引用:]
[18] BILIC P, CHRIST P F, VORONTSOV E, et al. The Liver Tumor Segmentation Benchmark[C/OL]. [2021-05-21]. https://arxiv.org/pdf/1901.04056.pdf. [本文引用:]
[19] CHRIST P F, ELSHAER M E A, ETTLINGER F, et al. Automa-tic Liver and Lesion Segmentation in CT Using Cascaded Fully Convolutional Neural Networks and 3D Conditional Rand om Fields // Proc of the International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin, Germany: Springer, 2016: 415-423. [本文引用:]
[20] KAVUR A E, GEZER N S, BARIS M, et al. CHAOS Challenge-Combined(CT-MR) Healthy Abdominal Organ Segmentation. Medical Image Analysis, 2021, 69. DOI: DOI:10.1016/j.media.2020.101950. [本文引用:]
[21] CAI K, YANG R Q, CHEN H Z, et al. A Framework Combining Window Width-Level Adjustment and Gaussian Filter-Based Multi-Resolution for Automatic Whole Heart Segmentation. Neurocompu-ting, 2017, 220: 138-150. [本文引用:]
[22] SAHI K, JACKSON S, WIEBE E. et al. The Value of "Liver Windows" Settings in the Detection of Small Renal Cell Carcinomas on Unenhanced Computed Tomography. Canadian Association of Radiologists Journal, 2014, 65(1): 71-76. [本文引用:]
[23] LIU Z, HAN K, WANG Z H, et al. Automatic Liver Segmentation from Abdominal CT Volumes Using Improved Convolution Neural Networks. Multimedia Systems, 2020, 27: 111-124. [本文引用:]
[24] LI X, WANG W H, HU X L, et al. Selective Kernel Networks // Proc of the IEEE Conference on Computer Vision and Pattern Re-cognition. Washington, USA: IEEE, 2019: 510-519. [本文引用:]
[25] HU J, SHEN L, ALBANIE S, et al. Squeeze-and -Excitation Networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023. [本文引用:]
[26] ZHOU Z W, SIDDIQUEE M M R, TAJBAKHSH N, et al. UNet++: A Nested U-Net Architecture for Medical Image Segmentation // Proc of the International Workshop on Deep Learning in Medical Image Analysis. Berlin, Germany: Springer, 2018: 3-11. [本文引用:]
[27] GU Z W, CHENG J, FU H Z, et al. CE-Net: Context Encoder Network for 2D Medical Image Segmentation. IEEE Transactions on Medical Imaging, 2019, 38(10): 2281-2292. [本文引用:]
[28] FAN T L, WANG G L, WANG X, et al. MSN-Net: A Multi-scale Context Nested U-Net for liver Segmentation. Signal, Image and Video Processing, 2021, 15: 1089-1097. [本文引用:]