基于深度学习的图像分割总结
图像 segmentation 是一种将图像分解为不同区域的技术,在计算机视觉中具有重要意义。它主要分为三种类型:语义 segmentation、实例 segmentation 和像素级分类。语义 segmentation 关注全局类别信息的提取与像素级别的分类;实例 segmentation 则不仅区分类别还要明确各个实例的位置;像素级分类则通过二值化 mask 实现对每个像素的标注。
传统的密集卷积网络(FCN)在语义 segmentation 中表现优异但存在计算资源消耗大等问题[1]。近年来提出了多种改进方法如 FCN[2]、U-Net[3] 和 DeepLab[4] 等[5]−[7] 。这些方法各有特点:FCN 通过反卷积提升特征图尺寸;U-Net 利用双扩张层实现上下文信息融合;DeepLab 结合带洞卷积和全局信息捕捉技术提升了性能[8]−[9] 。此外还探讨了全连接条件随机场(CRF)、边缘检测器(EDT)、多尺度特征融合(MSF)等后处理技术以优化结果[10]−[12] 。
未来研究可能集中在模型效率提升、轻量化设计以及跨领域应用等方面。参考文献
Long J, Shelhamer E, Darrell T. Fully Convolutional Networks for Semantic Segmentation[J]. IEEE Trans Pattern Anal Mach Intell, 2015.
Chen L C, Long J, Shochen A Y, et al. U-Net: Convolutional Neural
一、图像分割类别
随着人工智能技术深度学习的演变,在图像处理领域中涌现出了众多高效的网络架构。基于实际应用需求的不同特点, 分割技术主要可分为三大主要研究领域:图像级别的目标识别与边界提取、针对单个物体的精细识别以及覆盖整个场景的空间信息分析。这些不同类型的分划手段, 实际上并存于同一个目标空间中, 并通过互补性形成一个完整的图像理解体系。
语义分割:
基于像素的语义分割模型旨在完成对图像中每一个像素的精细分类。
实例分割:
具体对象属于某类,则该类中的实例分割不仅要在像素级别上进行分类处理,在具体类别层次上还需区分不同类型的实例
全景分割
全景划分可被视为语义划分与实例划分的一种扩展形式。相较于仅实现单一物体识别的任务特征(如语义划分),针对复杂场景下的精确对象定位需求(如实例划分),该方法在实现过程中必须识别独立的目标实例;这一特点使得基于全卷积神经网络的传统架构体系面临技术难题。值得注意的是,在该框架下所获得的目标边界划分结果必须满足互不重叠的要求;这种特殊性给完全卷积的目标检测方法带来了新的限制。
在实际应用研究领域中, 不同类型的分割方法之间具有较强的相关性, 同时, 对于语义分割方法的实际应用研究已经取得了较为丰富的成果. 其中, 许多具体的应用场景也经过了大量技术尝试. 具体而言, 在后续章节中将重点介绍与本章内容相关的语义分割技术及其应用进展.
二、CNN图像语义分割基本套路:
1. 下采样+上采样:Convlution + Deconvlution/Resize
2. 多尺度特征融合:特征逐点相加/特征channel维度拼接
3. 获得像素级别的segement map:对每一个像素点进行判断类别
该方法在计算机视觉领域占据重要地位的任务即为图像语义分割(Semantic Segmentation),其核心目标是实现对图像每个像素级别的分类工作。若能实现高效且精确地完成该目标,则许多实际问题都将迎刃而解。鉴于此性质,在实际应用中该技术已涵盖范围广泛的应用领域包括但不限于自动驾驶、图像美化和三维重建等技术。
语义分割是一个具有显著挑战性的问题,在基于深度学习之前就已经面临诸多难以解决的技术难题。在此基础上,我们整理并总结了近年来最具影响力的图像分割方法及其对应的论文研究。
1. Fully Convolutional Networks (FCN)
我们综述的第一篇开创性论文是Fully Convolutional Networks for Semantic Segmentation(简称FCN)。该研究主要涉及深度学习在图像语义分割领域的创新应用。本文的主要贡献体现在两个方面:一是首次提出了一种基于卷积神经网络的全卷积网络模型,并成功实现了图像语义分割的任务;二是同时将深度学习技术成功应用于图像语义分割领域,并验证了其有效性。
提出了全卷积网络。将全连接网络替换成了卷积网络,使得网络可以接受任意大小的图片,并输出和原图一样大小的分割图。只有这样,才能为每个像素做分类。 使用了反卷积层(Deconvolution)。分类神经网络的特征图一般只有原图的几分之一大小。想要映射回原图大小必须对特征图进行上采样,这就是反卷积层的作用。虽然名字叫反卷积层,但其实它并不是卷积的逆操作,更合适的名字叫做转置卷积(Transposed Convolution),作用是从小的特征图卷出大的特征图。 这是神经网络做语义分割的开山之作,需彻底理解。
2. DeepLab
DeepLab分为v1、v2、v3三个版本,并于首篇命名为《DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs》的研究综述中奠定了基础。这些研究综述涵盖了若干关键的技术要点。
带洞卷积(Dilated Convolution/Atrous Convolution)是一种在深度学习模型中用于增强特征提取能力的技术。其核心机制在于通过在卷积核中引入空洞来扩大感受野(field of view),从而实现更高效的特征捕捉。与传统卷积操作相比,在保持计算复杂度的同时(即计算复杂度与普通卷 convolution相同),带洞卷积能够显著提升模型对长距离边缘检测的能力(即对提升模型对长距离边缘检测的能力具有重要意义)。具体而言,在实际应用中,当使用普通3×3卷conv时,其有效观察范围为3×3区域;而通过在卷conv核中引入空洞后,则有效观察范围扩大至5×5区域。这种设计不仅有助于减少参数规模(即有助于减少参数规模),还能使模型更加高效地处理图像信息(即对提升模型对长距离边缘检测的能力具有重要意义)。
3. Pyramid Scene Parsing Network
Pyramid Scene Parsing Network(PSPNet)的核心创新在于引入了全局金字塔池化(Global Pyramid Pooling)机制。该网络能够对输入的特征图进行多尺度的尺寸调整,并通过这一过程有效提取图像中的长程依赖关系和细节层次信息。这种机制在提升模型性能方面起到了显著作用
4. Mask R-CNN
Mask R-CNN是计算机视觉领域的杰作之一,由大神何凯明提出。该模型创新性地将Object Detection技术和Semantic Segmentation技术进行了高度融合与集成。其主要贡献体现在以下几个方面:
首先提出了一种具有多路输出设计的新架构。“基于与Faster R-CNN相似的设计架构”,其主要输出包括目标边界框及其对应的分类信息。“在功能模块上有所拓展”,此外,在功能模块上有所拓展。“其中一项功能模块专门用于生成像素级别的语义分割结果”。“值得注意的是,在这样的架构下,“这两项任务之间存在相互促进的关系”。
第二,在语义分割中使用Binary Mask。传统的语义分割方法通常会利用数字编码(如0、1、2等)来标识不同的类别。在Mask R-CNN架构中,检测模块主要负责分类任务。此时分割仅需通过0和1值即可定义目标物体的边界框。
第三部分中,Mask R-CNN采用了RoiAlign替代Faster R-Cnn中的RoIPool机制
为了解决这一问题,RoiAlign不再依赖传统的分块整合方法,而是转而采用线性插值算法来进行精确对齐.其结果是实现了更为精确的对齐效果.实验结果表明该方法具有良好的性能.通过对比实验可以看出,下面展示的是Mask R-CNN,其表现更加卓越.
5. U-Net
该方法由原作者在ISBI Challenge中提出,并专为极小规模的数据集设计(约30张图像)。与FCN等其他方法相比,在不采用空洞卷积技术的同时,并未连接CRF模型以实现分割任务。
整体而言,U-Net架构呈现出显著的U型特征。具体而言,在编码器部分执行了一系列的卷积加池化操作以实现下采样;接着,在解码器部分运用反向卷积过程完成上采样,并通过截取早期生成的特征图实现跨尺度信息整合;最后再通过反复迭代上述步骤直至生成指定尺寸(388x388)且通道数为2的特征图。这一流程最终经过Softmax激活函数处理以获得分割掩码输出。从整体架构来看,该方法与经典的FCN方法具有相似性。
语义分割网络在特征融合时也有2种办法:
基于卷积神经网络(CNN)中的特征金字塔网络(FCN)架构设计的一种逐像素叠加操作,在caffe框架中该操作被实现为EltwiseLayer层,在tensorflow框架中的具体实现则等同于调用tf.add()函数
在channel维度上的拼接融合操作等同于caffe中的ConcatLayer层,并等价于tensorflow中的tf.concat()函数。
三、综述介绍
前端:FCN, SegNet/DeconvNet, DeepLab等主流模型的基础上,在此基础上进一步发展出一些新的架构设计思路。此外还有一些其他的结构方法可选,在此基础上进一步发展出一些新的架构设计思路,并且这些方法中还包含了一些基于RNN的应用实例以及弱监督学习的方法等。
该领域采用以下几种主流模型架构:包括DenseCRF(全连接条件随机场)、CRFasRNN(基于循环神经网络的条件随机场)、MRF(马尔科夫随机场)以及G-CRF(高斯条件随机场)等具有后处理功能的技术框架。
具体的细节信息可参考以下位置:首先是一个独立的链接:;其次是一个详细的博客文章[()
图像分割资源总结:
基础学习
Deep Learning-Based Semantic Segmentation: A Comprehensive Guide (2017 Edition) —— An Overview of Using Deep Learning Techniques for Image Understanding and Pixel Classification
通过应用深度学习技术实现图像语义分割
- linkhttp://blog.qure.ai/notes/semantic-segmentation-deep-learning-review
- linkhttp://simonduan.site/2017/07/23/notes-semantic-segmentation-deep-learning-review/
2. 从全卷积网络到大型卷积核:深度学习的语义分割全指南
1)linkhttps://www.jiqizhixin.com/articles/2017-07-14-10
3. Fully Convolutional Networks
链接
连接
链接
链接
4. 语义分割中的深度学习方法全解:从FCN、SegNet到各代DeepLab
1)linkhttps://zhuanlan.zhihu.com/p/27794982
5. 语义分割实际应用
第1个)
6. Segmentation Results: VOC2012 PASCAL语义分割比赛排名
identifierhttps://robots.ox.ac.uk:8080/leaderboard/displaylb.php?challenge_id=11&component_id=6
7. 图像语义分割之FCN和CRF
1) link https://zhuanlan.zhihu.com/p/22308032
强化学习
1. U-Net [https://arxiv.org/pdf/1505.04597.pdf]
2. SegNet [https://arxiv.org/pdf/1511.00561.pdf]
3. DeepLab [https://arxiv.org/pdf/1606.00915.pdf]
4. FCN [https://arxiv.org/pdf/1605.06211.pdf]
5. ENet [https://arxiv.org/pdf/1606.02147.pdf]
6. LinkNet [https://arxiv.org/pdf/1707.03718.pdf]
7. DenseNet [https://arxiv.org/pdf/1608.06993.pdf]
8. Tiramisu [https://arxiv.org/pdf/1611.09326.pdf]
9. DilatedNet [https://arxiv.org/pdf/1511.07122.pdf]
10. PixelNet [https://arxiv.org/pdf/1609.06694.pdf]
11. ICNet [https://arxiv.org/pdf/1704.08545.pdf]
12. ERFNet [http://www.robesafe.uah.es/personal/eduardo.romera/pdfs/Romera17iv.pdf]
13. RefineNet [https://arxiv.org/pdf/1611.06612.pdf]
14. PSPNet [https://arxiv.org/pdf/1612.01105.pdf]
15. CRFasRNN [http://www.robots.ox.ac.uk/~szheng/papers/CRFasRNN.pdf]
16. Dilated convolution [https://arxiv.org/pdf/1511.07122.pdf]
17. DeconvNet [https://arxiv.org/pdf/1505.04366.pdf]
18. FRRN [https://arxiv.org/pdf/1611.08323.pdf]
19. GCN [https://arxiv.org/pdf/1703.02719.pdf]
20. DUC, HDC [https://arxiv.org/pdf/1702.08502.pdf]
21. Segaware [https://arxiv.org/pdf/1708.04607.pdf]
第22条采用对抗网络进行语义分割的方法[参考文献:《生成对抗网络综述》]
综述资料
An overview of the application of deep learning methods in semantic segmentation was presented by Alberto Garcia-Garcia and colleagues in 2017.
[https://arxiv.org/abs/1704.06857]
2. Computer Vision Techniques in Autonomous Vehicle Development: Challenges, Data Sets and State-of-the-Art Methods
[https://arxiv.org/abs/1704.05519]
3。 基于内容的图像分割方法综述 姜 枫 顾 庆 郝慧珍 李 娜 郭延文 陈道蓄 2017
[http://www.jos.org.cn/ch/reader/create_pdf.aspx?file_no=5136&journal_id=jos]
视频资料
CS231n: Convolutional Neural Networks in Visual Recognition Lecture 11 Object Detection and Image Segmentation.
[http://cs231n.stanford.edu/syllabus.html]
机器学习在语义分割中的应用基础 - 现代图像分析技术的基础
[https://www.youtube.com/watch?v=psLChcm8aiU]
代码资料:
Semantic segmentation
1.U-Net (https://arxiv.org/pdf/1505.04597.pdf)
1. https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/ (Caffe - Matlab)
2. https://github.com/jocicmarko/ultrasound-nerve-segmentation (Keras)
”,同样,“
3. 《GitHub》上的超声神经段落分割模型基于Keras框架
4. https://github.com/ZFTurbo/ZF_UNET_224_Pretrained_Model (Keras)
5. https://github.com/yihui-he/u-net (Keras)
6. https://github.com/jakeret/tf_unet (Tensorflow)
该代码仓库提供的是Tensorflow版本的示例代码
8. https://github.com/divamgupta/image-segmentation-keras (Keras)
9. https://github.com/ZijunDeng/pytorch-semantic-segmentation (PyTorch)
10. https://github.com/akirasosa/mobile-semantic-segmentation (Keras)
11. https://github.com/orobix/retina-unet (Keras)
2. SegNet (https://arxiv.org/pdf/1511.00561.pdf)
https://github.com/alexgkendall/caffe-segnet (Caffe)
https://github.com/developmentseed/caffe/tree/segnet-multi-gpu (Caffe)
https://github.com/preddy5/segnet (Keras)
https://github.com/imlab-uiip/keras-segnet (Keras)
https://github.com/andreaazzini/segnet (Tensorflow)
https://github.com/fedor-chervinskii/segnet-torch (Torch)
https://github.com/0bserver07/Keras-SegNet-Basic (Keras)
https://github.com/tkuanlun350/Tensorflow-SegNet (Tensorflow)
https://github.com/divamgupta/image-segmentation-keras (Keras)
https://github.com/ZijunDeng/pytorch-semantic-segmentation (PyTorch)
https://git_hu(changer_cv._chAINERCV-segmentation_net_in_examples)
https://github.com/ykamikawa/keras-SegNet (Keras)
3. DeepLab (https://arxiv.org/pdf/1606.00915.pdf)
https://bitbucket.org/deeplab/deeplab-public/ (Caffe)
https://github.com/cdmh/deeplab-public (Caffe)
https://bitbucket.org/aquariusjay/deeplab-public-ver2 (Caffe)
https://github.com/TheLegendAli/DeepLab-Context (Caffe)
该存储库提供了一个基于深度卷积神经网络的实现,并在MXNet框架下进行了优化以支持端到端训练
https://github.com/DrSleep/tensorflow-deeplab-resnet (Tensorflow)
[https://github.com/muyang0320/$$TensorFlow**$$TensorFlow-deeplab-resnet-crf$$](https://github.com/muyang0320/$$TensorFlow$$$($$TensorFlow$$))
https://github.com/isht7/pytorch-deeplab-resnet (PyTorch)
https://github.com/bermanmaxim/jaccardSegment (PyTorch)
https://github.com/martinkersner/train-DeepLab (Caffe)
https://github.com/chenxi116/TF-deeplab (Tensorflow)
4. FCN (https://arxiv.org/pdf/1605.06211.pdf)
https://github.com/vlfeat/matconvnet-fcn (MatConvNet)
https://github.com/shelhamer/fcn.berkeleyvision.org (Caffe)
https://github.com/MarvinTeichmann/tensorflow-fcn (Tensorflow)
https://github.com/aurora95/Keras-FCN (Keras)
该GitHub地址提供了一个基于深度学习的神经网络模型实现,并使用了Keras框架进行开发
https://github.com/k3nt0w/FCN_via_keras (Keras)
https://github.com/shekkizh/FCN.tensorflow (Tensorflow)
https://github.com/seewalker/tf-pixelwise (Tensorflow)
https://github.com/divamgupta/image-segmentation-keras (Keras)
https://github.com/ZijunDeng/pytorch-semantic-segmentation (PyTorch)
https://github.com/wkentaro/pytorch-fcn (PyTorch)
https://github.com/wkentaro/fcn (Chainer)
[https://github.com/apache/incubator-mxnet/tree/master/example/fcn-xs(MxNet)](https://github.com/apache/incubator-mxnet/tree/master/example/fcn-xs(MxNet))
https://github.com/muyang0320/tf-fcn (Tensorflow)
https://github.com/ycszen/pytorch-seg (PyTorch)
https://github.com/Kaixhin/FCN-semantic-segmentation (PyTorch)
5. ENet (https://arxiv.org/pdf/1606.02147.pdf)
https://github.com/TimoSaemann/ENet (Caffe)
https://github.com/e-lab/ENet-training (Torch)
https://github.com/PavlosMelissinos/enet-keras (Keras)
6. LinkNet (https://arxiv.org/pdf/1707.03718.pdf)
https://github.com/e-lab/LinkNet (Torch)
7. DenseNet (https://arxiv.org/pdf/1608.06993.pdf)
https://github.com/flyyufelix/DenseNet-Keras (Keras)
8. Tiramisu (https://arxiv.org/pdf/1611.09326.pdf)
https://github.com/0bserver07/One-Hundred-Layers-Tiramisu (流行深度学习框架) https://github.com/SimJeg/FC-DenseNet (另一个流行深度学习框架)>
9. DilatedNet (https://arxiv.org/pdf/1511.07122.pdf)
https://github.com/nicolov/segmentation_keras (Keras)
10. PixelNet (https://arxiv.org/pdf/1609.06694.pdf)
https://github.com/aayushbansal/PixelNet (Caffe)
11. ICNet (https://arxiv.org/pdf/1704.08545.pdf)
https://github.com/hszhao/ICNet (Caffe)
12. ERFNet (http://www.robesafe.uah.es/personal/eduardo.romera/pdfs/Romera17iv.pdf)
https://github.com/Eromera/erfnet (Torch)
13. RefineNet (https://arxiv.org/pdf/1611.06612.pdf)
https://github.com/guosheng/refinenet (MatConvNet)
14. PSPNet (https://arxiv.org/pdf/1612.01105.pdf)
https://github.com/hszhao/PSPNet (Caffe)
https://github.com/ZijunDeng/pytorch-semantic-segmentation (PyTorch)
https://github.com/mitmul/chainer-pspnet (Chainer)
https://github.com/Vladkryvoruchko/PSPNet-Keras-tensorflow(Keras/Tensorflow)
https://github.com/pudae/tensorflow-pspnet (Tensorflow)
15. CRFasRNN (http://www.robots.ox.ac.uk/~szheng/papers/CRFasRNN.pdf)
https://github.com/torrvision/crfasrnn (Caffe)
https://github.com/sadeepj/crfasrnn_keras (Keras)
16. Dilated convolution (https://arxiv.org/pdf/1511.07122.pdf)
https://github.com/fyu/dilation (Caffe)
https://github.com/fyu/drn#semantic-image-segmentataion (PyTorch)
https://github.com/hangzhaomit/semantic-segmentation-pytorch (PyTorch)
17. DeconvNet (https://arxiv.org/pdf/1505.04366.pdf)
http://cvlab.postech.ac.kr/research/deconvnet/ (Caffe)
https://github.com/HyeonwooNoh/DeconvNet (Caffe)
GitHub仓库 Fabian Bormann 提供了一个基于 TensorFlow 框架实现的 Segmentation 算法
18. FRRN (https://arxiv.org/pdf/1611.08323.pdf)
https://github.com/TobyPDE/FRRN (Lasagne)
19. GCN (https://arxiv.org/pdf/1703.02719.pdf)
这两个GitHub项目的仓库信息分别展示了PyTorch 1.9.0版本和PyTorch 1.8.0版本的代码库资源。
20. DUC, HDC (https://arxiv.org/pdf/1702.08502.pdf)
该Python库提供基于PyTorch的深度学习框架支持
21. Segaware (https://arxiv.org/pdf/1708.04607.pdf)
https://github.com/aharley/segaware (Caffe)
语义分割基于生成对抗网络(https://arxiv.org/pdf/1611.08408.pdf)
Instance aware segmentation
FCIS [https://arxiv.org/pdf/1611.07709.pdf]
https://github.com/msracver/FCIS [MxNet]
MNC [https://arxiv.org/pdf/1512.04412.pdf]
https://github.com/daijifeng001/MNC [Caffe]
DeepMask [https://arxiv.org/pdf/1506.06204.pdf]
https://github.com/facebookresearch/deepmask [Torch]
SharpMask [https://arxiv.org/pdf/1603.08695.pdf]
https://github.com/facebookresearch/deepmask [Torch]
Mask-RCNN [https://arxiv.org/pdf/1703.06870.pdf]
https://github.com/CharlesShang/FastMaskRCNN [TensorFlow框架] 提供了该领域中较为先进的实现方案;https://github.com/jasjeetIM/Mask-RCNN [Caffe框架] 基于经典的Mask-RCNN算法构建了这一库;https://github.com/TuSimple/mx-maskrcnn [MXNet框架] 提供了mx-maskrcnn模型的具体实现方案;https://github.com/matterport/Mask_RCNN [Keras框架] 则实现了经典的Mask-RCNN算法。
RIS [https://arxiv.org/pdf/1511.08250.pdf]
https://github.com/bernard24/RIS [Torch]
FastMask [https://arxiv.org/pdf/1612.08843.pdf]
https://github.com/voidrank/FastMask [Caffe]
Satellite images segmentation
https://github.com/mshivaprakash/sat-seg-thesis
https://github.com/KGPML/Hyperspectral
https://github.com/lopuhin/kaggle-dstl
https://github.com/mitmul/ssai
https://github.com/mitmul/ssai-cnn
https://github.com/azavea/raster-vision
https://github.com/nshaud/DeepNetsForEO
https://github.com/trailbehind/DeepOSM
Video segmentation
https://github.com/shelhamer/clockwork-fcn
https://github.com/JingchunCheng/Seg-with-SPN
Autonomous driving
https://github.com/MarvinTeichmann/MultiNet
https://github.com/MarvinTeichmann/KittiSeg
https://github.com/vxy10/p5_VehicleDetection_Unet [Keras]
https://github.com/ndrplz/self-driving-car
https://github.com/mvirgo/MLND-Capstone
Annotation Tools:
https://github.com/AKSHAYUBHAT/ImageSegmentation
https://github.com/kyamagu/js-segment-annotator
https://github.com/CSAILVision/LabelMeAnnotationTool
https://github.com/seanbell/opensurfaces-segmentation-ui
https://github.com/lzx1413/labelImgPlus
https://github.com/wkentaro/labelme
datasets
- Stanford大学背景数据集[http://dags.stanford.edu/projects/scenedataset.html]
1. Sift Flow Dataset[http://people.csail.mit.edu/celiu/SIFTflow/]
2. Barcelona Dataset[http://www.cs.unc.edu/~jtighe/Papers/ECCV10/]
3. Microsoft COCO dataset[http://mscoco.org/]
第4章、基于微软研究 Cambridge 的物体分类数据集(MSRC Data Set):该数据集基于 Microsoft Research Cambridge 开发,并包含丰富的图像分类数据集和评估基准
The LITS Liver Tumor Segmentation Dataset provides a comprehensive collection of benchmark data for evaluating segmentation algorithms in liver tumor imaging. The dataset is widely used in medical imaging research to assess the performance of automated segmentation techniques.
6. KITTI[http://www.cvlibs.net/datasets/kitti/eval_road.php]
7. Stanford's Background Dataset[http://dags.stanford.edu/projects/scenedataset.html]
Data set available from the game-based dataset[https://download.visinf.tu-darmstadt.de/data/from_games/]
9. Human parsing dataset[https://github.com/lemondan/HumanParsing-Dataset]
10. Silenko person database[https://github.com/Maxfashko/CamVid]
11. Mapillary Vistas Dataset[https://www.mapillary.com/dataset/vistas]
12. Microsoft AirSim[https://github.com/Microsoft/AirSim]
13. MIT Scene Parsing Benchmark[http://sceneparsing.csail.mit.edu/]
14. COCO 2017 Stuff Segmentation Contest[http://cocodataset.org/#stuff-challenge2017]
15. ADE20K Dataset[http://groups.csail.mit.edu/vision/datasets/ADE20K/]
National INRIA (National Institute for Research in Computer Science and Automation) provides commentaries on Graz-02 [https://lear.inrialpes.fr/people/marszalek/data/ig02/].
领域专家
1. Jonathan Long
[http://people.eecs.berkeley.edu/~jonlong/]
2. Liang-Chieh Chen
3. Hyeonwoo Noh
[http://cvlab.postech.ac.kr/~hyeonwoonoh/]
4. Bharath Hariharan
5. Fisher Yu
6. Vijay Badrinarayanan
[https://sites.google.com/site/vijaybacademichomepage/home/papers]
7. Guosheng Lin
[https://sites.google.com/site/guoshenglin/]
主要内容整理自WeisongZhao博主,并已发布于其个人博客中
