《SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers》
本文是将Transformer模型应用于语义分割任务的一个新的尝试,主要创新点如下:
● 使用分级的Transformer block设计,可以产生多种尺度的特征。
● 使用重叠的patch融合策略,解决了各patch特征不连续问题。
● 轻量级全MLP解码器设计,无需复杂和计算要求高的模块即可产生强大的表示。
● 在三个公开可用的语义分割数据集的效率、准确性和鲁棒性方面创下了最新水平。