爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      深度学习从入门到精通——图像分割技术原理解析

      首页 知识中心 其他 文章详情页

      深度学习从入门到精通——图像分割技术原理解析

      2024-11-06 07:24:46 阅读次数:29

      像素,分割,采样

      图像分割

      模型

      • 早期基于深度学习的图像分割以FCN为核心,旨在重点解决如何更好从卷积下采样中恢复丢掉的信息损失。
        后来逐渐形成了以U-Net为核心的这样一种编解码对称的U形结构。
      • 语义分割界迄今为止最重要的两个设计,一个是以U-Net为代表的U形结构,目前基于U-Net结构的创新就层出不穷,比如说应用于3D图像的V-Net,嵌套U-Net结构的U-Net++等。除此在外还有SegNet、RefineNet、HRNet和FastFCN。另一个则是以DeepLab系列为代表的Dilation设计,主要包括DeepLab系列和PSPNet。随着模型的Baseline效果不断提升,语义分割任务的主要矛盾也逐从downsample损失恢复像素逐渐演变为如何更有效地利用context上下文信息。

      全卷积网络(FCN)

      FCN(Fully Convilutional Networks)是语义分割领域的开山之作。FCN的提出是在2016年,相较于此前提出的AlexNet和VGG等卷积全连接的网络结构,FCN提出用卷积层代替全连接层来处理语义分割问题,这也是FCN的由来,即全卷积网络。FCN的关键点主要有三,一是全卷积进行特征提取和下采样,二是双线性插值进行上采样,三是跳跃连接进行特征融合。

      深度学习从入门到精通——图像分割技术原理解析

      import torch
      import torch.nn as nn
      import torch.nn.init as init
      import torch.nn.functional as F
      from torch.utils import model_zoo
      from torchvision import models
      class FCN8(nn.Module):
      def __init__(self, num_classes):
      super().__init__()
      self.feats = nn.Sequential(*feats[0:9])
      self.feat3 = nn.Sequential(*feats[10:16])
      self.feat4 = nn.Sequential(*feats[17:23])
      self.feat5 = nn.Sequential(*feats[24:30])
      for m in self.modules():
      if isinstance(m, nn.Conv2d):
      m.requires_grad = False
      self.fconn = nn.Sequential(
      nn.Conv2d(512, 4096, 7),
      nn.ReLU(inplace=True),
      nn.Dropout(),
      nn.Conv2d(4096, 4096, 1),
      nn.ReLU(inplace=True),
      nn.Dropout()
      )
      self.score_feat3 = nn.Conv2d(256, num_classes, 1)
      self.score_feat4 = nn.Conv2d(512, num_classes, 1)
      self.score_fconn = nn.Conv2d(4096, num_classes, 1)
      def forward(self, x):

      feats = self.feats(x)
      feat3 = self.feat3(feats)
      feat4 = self.feat4(feat3)
      feat5 = self.feat5(feat4)
      fconn = self.fconn(feat5)
      score_feat3 = self.score_feat3(feat3)
      score_feat4 = self.score_feat4(feat4)
      score_fconn = self.score_fconn(fconn)
      score = F.upsample_bilinear(score_fconn, score_feat4.size()[2:])
      score += score_feat4
      score = F.upsample_bilinear(score, score_feat3.size()[2:])
      score += score_feat3
      return F.upsample_bilinear(score, x.size()[2:])
      • vgg16作为FCN-8的编码部分,这使得FCN-8具备较强的特征提取能力。

      UNet

      • 早期基于深度学习的图像分割以FCN为核心,旨在重点解决如何更好从卷积下采样中恢复丢掉的信息损失。后来逐渐形成了以UNet为核心的这样一种编解码对称的U形结构。UNet结构能够在分割界具有一统之势,最根本的还是其效果好,尤其是在医学图像领域。所以,做医学影像相关的深度学习应用时,一定都用过UNet,而且最原始的UNet一般都会有一个不错的baseline表现。2015年发表UNet的MICCAI,是目前医学图像分析领域最顶级的国际会议,UNet为什么在医学上效果这么好非常值得探讨一番。U-Net结构如下图所示:

        乍一看很复杂,U形结构下貌似有很多细节问题。我们来把UNet简化一下,如下图所示:

        从图中可以看到,简化之后的UNet的关键点只有三条线:
      • 下采样编码
      • 上采样解码
      • 跳跃连接

      下采样进行信息浓缩和上采样进行像素恢复
      UNet进行了4次的最大池化下采样,每一次采样后都使用了卷积进行信息提取得到特征图,然后再经过4次上采样恢复输入像素尺寸。
      但UNet最关键的、也是最特色的部分在于图中红色虚线的Skip Connection。
      特点:每一次下采样都会有一个跳跃连接与对应的上采样进行级联,这种不同尺度的特征融合对上采样恢复像素大有帮助,具体来说就是高层(浅层)下采样倍数小,特征图具备更加细致的图特征,底层(深层)下采样倍数大,信息经过大量浓缩,空间损失大,但有助于目标区域(分类)判断,当high level和low level的特征进行融合时,分割效果往往会非常好。

      import torch
      from torch.nn import functional as F

      class CNNLayer(torch.nn.Module):
      def __init__(self, C_in, C_out):
      '''
      卷积层
      :param C_in:
      :param C_out:
      '''
      super(CNNLayer, self).__init__()
      self.layer = torch.nn.Sequential(
      torch.nn.Conv2d(C_in, C_out, kernel_size=(3,3), stride=(1,1), padding=(1,1)),
      torch.nn.BatchNorm2d(C_out),
      torch.nn.Dropout(0.3),
      torch.nn.LeakyReLU(),
      torch.nn.Conv2d(C_out, C_out, kernel_size=(3,3), stride=(1,1), padding=(1,1)),
      torch.nn.BatchNorm2d(C_out),
      torch.nn.Dropout(0.4),
      torch.nn.LeakyReLU()
      )

      def forward(self, x):
      return self.layer(x)


      class DownSampling(torch.nn.Module):
      def __init__(self, C):
      '''
      下采样
      :param C:
      '''
      super(DownSampling, self).__init__()
      self.layer = torch.nn.Sequential(
      torch.nn.Conv2d(C, C,kernel_size=(3,3), stride=(2,2), padding=(1,1)),
      torch.nn.LeakyReLU()
      )

      def forward(self, x):

      return self.layer(x)


      class UpSampling(torch.nn.Module):

      def __init__(self, C):
      '''
      上采样
      :param C:
      '''
      super(UpSampling, self).__init__()
      self.C = torch.nn.Conv2d(C, C // 2, kernel_size=(1,1), stride=(1,1))

      def forward(self, x, r):
      up = F.interpolate(x, scale_factor=2, mode='nearest')
      x = self.C(up)
      return torch.cat((x, r), 1)


      class Unet(torch.nn.Module):

      def __init__(self):
      super(Unet, self).__init__()

      self.C1 = CNNLayer(3, 64)
      self.D1 = DownSampling(64)
      self.C2 = CNNLayer(64, 128)
      self.D2 = DownSampling(128)
      self.C3 = CNNLayer(128, 256)
      self.D3 = DownSampling(256)
      self.C4 = CNNLayer(256, 512)
      self.D4 = DownSampling(512)
      self.C5 = CNNLayer(512, 1024)
      self.U1 = UpSampling(1024)
      self.C6 = CNNLayer(1024, 512)
      self.U2 = UpSampling(512)
      self.C7 = CNNLayer(512, 256)
      self.U3 = UpSampling(256)
      self.C8 = CNNLayer(256, 128)
      self.U4 = UpSampling(128)


      self.C9 = CNNLayer(128, 64)
      self.pre = torch.nn.Conv2d(64, 3, kernel_size=(3,3), stride=(1,1), padding=(1,1))
      self.sigmoid = torch.nn.Sigmoid()

      def forward(self, x):
      '''
      U型结构
      :param x:
      :return:
      '''
      R1 = self.C1(x)
      R2 = self.C2(self.D1(R1))
      R3 = self.C3(self.D2(R2))
      R4 = self.C4(self.D3(R3))
      Y1 = self.C5(self.D4(R4))

      O1 = self.C6(self.U1(Y1, R4))
      O2 = self.C7(self.U2(O1, R3))
      O3 = self.C8(self.U3(O2, R2))
      O4 = self.C9(self.U4(O3, R1))

      return self.sigmoid(self.pre(O4))


      if __name__ == '__main__':
      a = torch.randn(2, 3, 256, 256) #.cuda()
      net = Unet() #.cuda()
      print(net(a).shape)

      显著性目标检测/图像分割 U2net

      • 更强的连接
      • 套娃无止境
      • 每一层其实都可以作为一个单层模型进行训练计算
      • 训练速度快,精度高。建议使用
      • pytorch实现代码如下:
      import torch
      import torch.nn as nn
      import torch.nn.functional as F


      class REBNCONV(nn.Module):
      def __init__(self, in_ch=3, out_ch=3, dirate=1):
      super(REBNCONV, self).__init__()

      self.conv_s1 = nn.Conv2d(in_ch, out_ch, kernel_size=(3, 3), padding=(1 * dirate, 1 * dirate),
      dilation=(1 * dirate, 1 * dirate))
      self.bn_s1 = nn.BatchNorm2d(out_ch)
      self.relu_s1 = nn.ReLU(inplace=True)

      def forward(self, x):
      hx = x
      xout = self.relu_s1(self.bn_s1(self.conv_s1(hx)))
      return xout


      ## upsample tensor 'src' to have the same spatial size with tensor 'tar'
      def _upsample_like(src, tar):
      '''
      :param src:
      :param tar:
      :return:
      '''
      src = F.interpolate(src, size=tar.shape[2:], mode='bilinear', align_corners=True)
      return src


      ### RSU-7 ###
      class RSU7(nn.Module): # UNet07DRES(nn.Module):

      def __init__(self, in_ch=3, mid_ch=12, out_ch=3):
      super(RSU7, self).__init__()

      self.rebnconvin = REBNCONV(in_ch, out_ch, dirate=1)

      self.rebnconv1 = REBNCONV(out_ch, mid_ch, dirate=1)
      self.pool1 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv2 = REBNCONV(mid_ch, mid_ch, dirate=1)
      self.pool2 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv3 = REBNCONV(mid_ch, mid_ch, dirate=1)
      self.pool3 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv4 = REBNCONV(mid_ch, mid_ch, dirate=1)
      self.pool4 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv5 = REBNCONV(mid_ch, mid_ch, dirate=1)
      self.pool5 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv6 = REBNCONV(mid_ch, mid_ch, dirate=1)

      self.rebnconv7 = REBNCONV(mid_ch, mid_ch, dirate=2)

      self.rebnconv6d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv5d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv4d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv3d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv2d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv1d = REBNCONV(mid_ch * 2, out_ch, dirate=1)

      def forward(self, x):
      hx = x
      hxin = self.rebnconvin(hx)

      hx1 = self.rebnconv1(hxin)
      hx = self.pool1(hx1)

      hx2 = self.rebnconv2(hx)
      hx = self.pool2(hx2)

      hx3 = self.rebnconv3(hx)
      hx = self.pool3(hx3)

      hx4 = self.rebnconv4(hx)
      hx = self.pool4(hx4)

      hx5 = self.rebnconv5(hx)
      hx = self.pool5(hx5)

      hx6 = self.rebnconv6(hx)

      hx7 = self.rebnconv7(hx6)

      hx6d = self.rebnconv6d(torch.cat((hx7, hx6), 1))
      hx6dup = _upsample_like(hx6d, hx5)

      hx5d = self.rebnconv5d(torch.cat((hx6dup, hx5), 1))
      hx5dup = _upsample_like(hx5d, hx4)

      hx4d = self.rebnconv4d(torch.cat((hx5dup, hx4), 1))
      hx4dup = _upsample_like(hx4d, hx3)

      hx3d = self.rebnconv3d(torch.cat((hx4dup, hx3), 1))
      hx3dup = _upsample_like(hx3d, hx2)

      hx2d = self.rebnconv2d(torch.cat((hx3dup, hx2), 1))
      hx2dup = _upsample_like(hx2d, hx1)

      hx1d = self.rebnconv1d(torch.cat((hx2dup, hx1), 1))

      return hx1d + hxin


      ### RSU-6 ###
      class RSU6(nn.Module): # UNet06DRES(nn.Module):

      def __init__(self, in_ch=3, mid_ch=12, out_ch=3):
      super(RSU6, self).__init__()

      self.rebnconvin = REBNCONV(in_ch, out_ch, dirate=1)

      self.rebnconv1 = REBNCONV(out_ch, mid_ch, dirate=1)
      self.pool1 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv2 = REBNCONV(mid_ch, mid_ch, dirate=1)
      self.pool2 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv3 = REBNCONV(mid_ch, mid_ch, dirate=1)
      self.pool3 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv4 = REBNCONV(mid_ch, mid_ch, dirate=1)
      self.pool4 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv5 = REBNCONV(mid_ch, mid_ch, dirate=1)

      self.rebnconv6 = REBNCONV(mid_ch, mid_ch, dirate=2)

      self.rebnconv5d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv4d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv3d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv2d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv1d = REBNCONV(mid_ch * 2, out_ch, dirate=1)

      def forward(self, x):
      hx = x

      hxin = self.rebnconvin(hx)

      hx1 = self.rebnconv1(hxin)
      hx = self.pool1(hx1)

      hx2 = self.rebnconv2(hx)
      hx = self.pool2(hx2)

      hx3 = self.rebnconv3(hx)
      hx = self.pool3(hx3)

      hx4 = self.rebnconv4(hx)
      hx = self.pool4(hx4)

      hx5 = self.rebnconv5(hx)

      hx6 = self.rebnconv6(hx5)

      hx5d = self.rebnconv5d(torch.cat((hx6, hx5), 1))
      hx5dup = _upsample_like(hx5d, hx4)

      hx4d = self.rebnconv4d(torch.cat((hx5dup, hx4), 1))
      hx4dup = _upsample_like(hx4d, hx3)

      hx3d = self.rebnconv3d(torch.cat((hx4dup, hx3), 1))
      hx3dup = _upsample_like(hx3d, hx2)

      hx2d = self.rebnconv2d(torch.cat((hx3dup, hx2), 1))
      hx2dup = _upsample_like(hx2d, hx1)

      hx1d = self.rebnconv1d(torch.cat((hx2dup, hx1), 1))

      return hx1d + hxin


      ### RSU-5 ###
      class RSU5(nn.Module): # UNet05DRES(nn.Module):

      def __init__(self, in_ch=3, mid_ch=12, out_ch=3):
      super(RSU5, self).__init__()

      self.rebnconvin = REBNCONV(in_ch, out_ch, dirate=1)

      self.rebnconv1 = REBNCONV(out_ch, mid_ch, dirate=1)
      self.pool1 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv2 = REBNCONV(mid_ch, mid_ch, dirate=1)
      self.pool2 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv3 = REBNCONV(mid_ch, mid_ch, dirate=1)
      self.pool3 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv4 = REBNCONV(mid_ch, mid_ch, dirate=1)

      self.rebnconv5 = REBNCONV(mid_ch, mid_ch, dirate=2)

      self.rebnconv4d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv3d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv2d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv1d = REBNCONV(mid_ch * 2, out_ch, dirate=1)

      def forward(self, x):
      hx = x

      hxin = self.rebnconvin(hx)

      hx1 = self.rebnconv1(hxin)
      hx = self.pool1(hx1)

      hx2 = self.rebnconv2(hx)
      hx = self.pool2(hx2)

      hx3 = self.rebnconv3(hx)
      hx = self.pool3(hx3)

      hx4 = self.rebnconv4(hx)

      hx5 = self.rebnconv5(hx4)

      hx4d = self.rebnconv4d(torch.cat((hx5, hx4), 1))
      hx4dup = _upsample_like(hx4d, hx3)

      hx3d = self.rebnconv3d(torch.cat((hx4dup, hx3), 1))
      hx3dup = _upsample_like(hx3d, hx2)

      hx2d = self.rebnconv2d(torch.cat((hx3dup, hx2), 1))
      hx2dup = _upsample_like(hx2d, hx1)

      hx1d = self.rebnconv1d(torch.cat((hx2dup, hx1), 1))

      return hx1d + hxin


      ### RSU-4 ###
      class RSU4(nn.Module): # UNet04DRES(nn.Module):

      def __init__(self, in_ch=3, mid_ch=12, out_ch=3):
      super(RSU4, self).__init__()

      self.rebnconvin = REBNCONV(in_ch, out_ch, dirate=1)

      self.rebnconv1 = REBNCONV(out_ch, mid_ch, dirate=1)
      self.pool1 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv2 = REBNCONV(mid_ch, mid_ch, dirate=1)
      self.pool2 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.rebnconv3 = REBNCONV(mid_ch, mid_ch, dirate=1)

      self.rebnconv4 = REBNCONV(mid_ch, mid_ch, dirate=2)

      self.rebnconv3d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv2d = REBNCONV(mid_ch * 2, mid_ch, dirate=1)
      self.rebnconv1d = REBNCONV(mid_ch * 2, out_ch, dirate=1)

      def forward(self, x):
      hx = x

      hxin = self.rebnconvin(hx)

      hx1 = self.rebnconv1(hxin)
      hx = self.pool1(hx1)

      hx2 = self.rebnconv2(hx)
      hx = self.pool2(hx2)

      hx3 = self.rebnconv3(hx)

      hx4 = self.rebnconv4(hx3)

      hx3d = self.rebnconv3d(torch.cat((hx4, hx3), 1))
      hx3dup = _upsample_like(hx3d, hx2)

      hx2d = self.rebnconv2d(torch.cat((hx3dup, hx2), 1))
      hx2dup = _upsample_like(hx2d, hx1)

      hx1d = self.rebnconv1d(torch.cat((hx2dup, hx1), 1))

      return hx1d + hxin


      ### RSU-4F ###
      class RSU4F(nn.Module): # UNet04FRES(nn.Module):

      def __init__(self, in_ch=3, mid_ch=12, out_ch=3):
      super(RSU4F, self).__init__()

      self.rebnconvin = REBNCONV(in_ch, out_ch, dirate=1)

      self.rebnconv1 = REBNCONV(out_ch, mid_ch, dirate=1)
      self.rebnconv2 = REBNCONV(mid_ch, mid_ch, dirate=2)
      self.rebnconv3 = REBNCONV(mid_ch, mid_ch, dirate=4)

      self.rebnconv4 = REBNCONV(mid_ch, mid_ch, dirate=8)

      self.rebnconv3d = REBNCONV(mid_ch * 2, mid_ch, dirate=4)
      self.rebnconv2d = REBNCONV(mid_ch * 2, mid_ch, dirate=2)
      self.rebnconv1d = REBNCONV(mid_ch * 2, out_ch, dirate=1)

      def forward(self, x):
      hx = x

      hxin = self.rebnconvin(hx)

      hx1 = self.rebnconv1(hxin)
      hx2 = self.rebnconv2(hx1)
      hx3 = self.rebnconv3(hx2)

      hx4 = self.rebnconv4(hx3)

      hx3d = self.rebnconv3d(torch.cat((hx4, hx3), 1))
      hx2d = self.rebnconv2d(torch.cat((hx3d, hx2), 1))
      hx1d = self.rebnconv1d(torch.cat((hx2d, hx1), 1))

      return hx1d + hxin


      ##### U^2-Net ####
      class U2NET(nn.Module):

      def __init__(self, in_ch=3, out_ch=1):
      super(U2NET, self).__init__()

      self.stage1 = RSU7(in_ch, 32, 64)
      self.pool12 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.stage2 = RSU6(64, 32, 128)
      self.pool23 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.stage3 = RSU5(128, 64, 256)
      self.pool34 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.stage4 = RSU4(256, 128, 512)
      self.pool45 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.stage5 = RSU4F(512, 256, 512)
      self.pool56 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      self.stage6 = RSU4F(512, 256, 512)

      # decoder
      self.stage5d = RSU4F(1024, 256, 512)
      self.stage4d = RSU4(1024, 128, 256)
      self.stage3d = RSU5(512, 64, 128)
      self.stage2d = RSU6(256, 32, 64)
      self.stage1d = RSU7(128, 16, 64)

      self.side1 = nn.Conv2d(64, out_ch, kernel_size=(3, 3), padding=(1, 1))
      self.side2 = nn.Conv2d(64, out_ch, kernel_size=(3, 3), padding=(1, 1))
      self.side3 = nn.Conv2d(128, out_ch, kernel_size=(3, 3), padding=(1, 1))
      self.side4 = nn.Conv2d(256, out_ch, kernel_size=(3, 3), padding=(1, 1))
      self.side5 = nn.Conv2d(512, out_ch, kernel_size=(3, 3), padding=(1, 1))
      self.side6 = nn.Conv2d(512, out_ch, kernel_size=(3, 3), padding=(1, 1))

      self.outconv = nn.Conv2d(6, out_ch, kernel_size=(1, 1))

      def forward(self, x):
      hx = x

      # stage 1
      hx1 = self.stage1(hx)
      hx = self.pool12(hx1)

      # stage 2
      hx2 = self.stage2(hx)
      hx = self.pool23(hx2)

      # stage 3
      hx3 = self.stage3(hx)
      hx = self.pool34(hx3)

      # stage 4
      hx4 = self.stage4(hx)
      hx = self.pool45(hx4)

      # stage 5
      hx5 = self.stage5(hx)
      hx = self.pool56(hx5)

      # stage 6
      hx6 = self.stage6(hx)
      hx6up = _upsample_like(hx6, hx5)

      # -------------------- decoder --------------------
      hx5d = self.stage5d(torch.cat((hx6up, hx5), 1))
      hx5dup = _upsample_like(hx5d, hx4)

      hx4d = self.stage4d(torch.cat((hx5dup, hx4), 1))
      hx4dup = _upsample_like(hx4d, hx3)

      hx3d = self.stage3d(torch.cat((hx4dup, hx3), 1))
      hx3dup = _upsample_like(hx3d, hx2)

      hx2d = self.stage2d(torch.cat((hx3dup, hx2), 1))
      hx2dup = _upsample_like(hx2d, hx1)

      hx1d = self.stage1d(torch.cat((hx2dup, hx1), 1))

      # side output
      d1 = self.side1(hx1d)

      d2 = self.side2(hx2d)
      d2 = _upsample_like(d2, d1)

      d3 = self.side3(hx3d)
      d3 = _upsample_like(d3, d1)

      d4 = self.side4(hx4d)
      d4 = _upsample_like(d4, d1)

      d5 = self.side5(hx5d)
      d5 = _upsample_like(d5, d1)

      d6 = self.side6(hx6)
      d6 = _upsample_like(d6, d1)

      d0 = self.outconv(torch.cat((d1, d2, d3, d4, d5, d6), 1))

      return torch.sigmoid(d0), torch.sigmoid(d1), torch.sigmoid(d2), torch.sigmoid(d3), torch.sigmoid(
      d4), torch.sigmoid(d5), torch.sigmoid(d6)


      ### U^2-Net small ###
      class U2NETP(nn.Module):

      def __init__(self, in_ch=3, out_ch=1):
      super(U2NETP, self).__init__()

      # 左一
      self.stage1 = RSU7(in_ch, 16, 64)
      self.pool12 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      # 左2
      self.stage2 = RSU6(64, 16, 64)
      self.pool23 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      # 左3
      self.stage3 = RSU5(64, 16, 64)
      self.pool34 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      # 左4
      self.stage4 = RSU4(64, 16, 64)
      self.pool45 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      # 左5
      self.stage5 = RSU4F(64, 16, 64)
      self.pool56 = nn.MaxPool2d(2, stride=2, ceil_mode=True)

      # 左6
      self.stage6 = RSU4F(64, 16, 64)

      # decoder
      self.stage5d = RSU4F(128, 16, 64)
      self.stage4d = RSU4(128, 16, 64)
      self.stage3d = RSU5(128, 16, 64)
      self.stage2d = RSU6(128, 16, 64)
      self.stage1d = RSU7(128, 16, 64)

      self.side1 = nn.Conv2d(64, out_ch, (3, 3), padding=(1, 1))
      self.side2 = nn.Conv2d(64, out_ch, (3, 3), padding=(1, 1))
      self.side3 = nn.Conv2d(64, out_ch, (3, 3), padding=(1, 1))
      self.side4 = nn.Conv2d(64, out_ch, (3, 3), padding=(1, 1))
      self.side5 = nn.Conv2d(64, out_ch, (3, 3), padding=(1, 1))
      self.side6 = nn.Conv2d(64, out_ch, (3, 3), padding=(1, 1))

      self.outconv = nn.Conv2d(6, out_ch, kernel_size=(1, 1))

      def forward(self, x):
      hx = x

      # stage 1
      hx1 = self.stage1(hx)
      hx = self.pool12(hx1)

      # stage 2
      hx2 = self.stage2(hx)
      hx = self.pool23(hx2)

      # stage 3
      hx3 = self.stage3(hx)
      hx = self.pool34(hx3)

      # stage 4
      hx4 = self.stage4(hx)
      hx = self.pool45(hx4)

      # stage 5
      hx5 = self.stage5(hx)
      hx = self.pool56(hx5)

      # stage 6
      hx6 = self.stage6(hx)
      hx6up = _upsample_like(hx6, hx5)

      # decoder
      hx5d = self.stage5d(torch.cat((hx6up, hx5), 1))
      hx5dup = _upsample_like(hx5d, hx4)

      hx4d = self.stage4d(torch.cat((hx5dup, hx4), 1))
      hx4dup = _upsample_like(hx4d, hx3)

      hx3d = self.stage3d(torch.cat((hx4dup, hx3), 1))
      hx3dup = _upsample_like(hx3d, hx2)

      hx2d = self.stage2d(torch.cat((hx3dup, hx2), 1))
      hx2dup = _upsample_like(hx2d, hx1)

      hx1d = self.stage1d(torch.cat((hx2dup, hx1), 1))

      # side output
      d1 = self.side1(hx1d)

      d2 = self.side2(hx2d)
      d2 = _upsample_like(d2, d1)

      d3 = self.side3(hx3d)
      d3 = _upsample_like(d3, d1)

      d4 = self.side4(hx4d)
      d4 = _upsample_like(d4, d1)

      d5 = self.side5(hx5d)
      d5 = _upsample_like(d5, d1)

      d6 = self.side6(hx6)
      d6 = _upsample_like(d6, d1)

      d0 = self.outconv(torch.cat((d1, d2, d3, d4, d5, d6), 1))

      return torch.sigmoid(d0), torch.sigmoid(d1), torch.sigmoid(d2), torch.sigmoid(d3), torch.sigmoid(
      d4), torch.sigmoid(d5), torch.sigmoid(d6)


      if __name__ == '__main__':
      model = U2NET(in_ch=3, out_ch=1)
      print(model)
      x = torch.randn(1, 3, 224, 224)
      print(model(x)[0].shape)

      SegNet

      SegNet网络是典型的编码-解码结构。SegNet编码器网络由VGG16的前13个卷积层构成,所以通常是使用VGG16的预训练权重来进行初始化。每个编码器层都有一个对应的解码器层,因此解码器层也有13层。编码器最后的输出输入到softmax分类器中,输出每个像素的类别概率。SegNet如下图所示。

      深度学习从入门到精通——图像分割技术原理解析

       

      …实现太简单,不写了,以后写吧

      其实还有deeplab系列,也后面补充

      现在的图像分割技术常用

      • 空洞卷积
      • 通过更改空洞数量大小进而来获取到更大的感受野,感受到全局区域内的图像特征变化
      • 编解码
      • encoder - decoder
      • 主要是Unet开始之后,现在都使用的是编解码模式进行图像分割
      • skip-connection
      • 跳跃连接
      • 防止梯度弥散或者梯度爆炸
      • 补充尺度信息中缺少的以前的高频部分

      常用损失函数

      损失函数

      常用的分类损失均可用作语义分割的损失函数。
      最常用的就是交叉熵损失函数,

      • 如果只是前景分割,则可以使用二分类的交叉熵损失(Binary CrossEntropy Loss, BCE loss)
      • 对于目标物体较小的情况我们可以使用Dice损失
      • 对于目标物体类别不均衡的情况可以使用加权的交叉熵损失(Weighted CrossEntropy Loss, WCE Loss)。

      精度描述

      语义分割作为经典的图像分割问题,其本质上还是一种图像像素分类。

      语义分割常见的评价指标包括

      像素准确率(Pixel Accuracy)

      像素准确率跟分类中的准确率含义一样,即所有分类正确的像素数占全部像素的比例。准确率 ,参考分类算法

      PA的计算公式如下:

      深度学习从入门到精通——图像分割技术原理解析

      平均像素准确率(Mean Pixel Accuracy)

      平均像素准确率(MPA)。

      平均像素准确率其实更应该叫平均像素精确率,

      是指分别计算每个类别分类正确的像素数占所有预测为该类别像素数比例的平均值。

      所以,从定义上看,这是精确率(Precision)的定义,MPA的计算公式如下:

      深度学习从入门到精通——图像分割技术原理解析

      平均交并比(Mean IoU)

      平均交并比(MIoU)。 交并比(Intersection over Union)的定义很简单,将标签图像和预测图像看成是两个集合,计算两个集合的交集和并集的比值。而平均交并比则是将所有类的IoU取平均。 MIoU的计算公式如下:

      深度学习从入门到精通——图像分割技术原理解析

      频权交并比(FWIoU)

      • 针对数据集不均衡的情况下,特别关注某类或者某几类
        频权交并比(FWIoU)。 频权交并比顾名思义,就是以每一类别的频率为权重和其IoU加权计算出来的结果。FWIoU的设计思想很明确,语义分割很多时候会面临图像中各目标类别不平衡的情况,对各类别IoU直接求平均不是很合理,所以考虑各类别的权重就非常重要了。FWIoU的计算公式如下:

      Dice系数(Dice Coeffcient)

      Dice系数。 Dice系数是一种度量两个集合相似性的函数,是语义分割中最常用的评价指标之一。Dice系数定义为两倍的交集除以像素和,跟IoU有点类似,其计算公式如下:

      深度学习从入门到精通——图像分割技术原理解析

       

      dice本质上跟分类指标中的F1-Score类似。作为最常用的分割指标之一,实现方式 如下:

      import torch
      def dice_coef(pred, target):
      """ Dice = (2*|X & Y|)/ (|X|+ |Y|) = 2*sum(|A*B|)/(sum(A^2)+sum(B^2)) """
      smooth = 1.
      m1 = pred.reshape(-1).float()
      m2 = target.reshape(-1).float()
      intersection = (m1 * m2).sum().float()
      dice = (2. * intersection + smooth) / (torch.sum(m1*m1) + torch.sum(m2*m2) + smooth)
      return dice
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/u_13859040/5814655,作者:qq5b42bed9cc7e9,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:MacOS切换JDK版本

      下一篇:linux删除文件的前n行

      相关文章

      2025-05-08 09:03:57

      分割字符频率相等的最少子字符串。

      用go语言,给定一个字符串 s,你需要将其分割成一个或多个“平衡”子字符串。所谓“平衡”字符串是指其中所有字符出现的次数相同。

      2025-05-08 09:03:57
      分割 , 字符 , 字符串 , 平衡
      2025-04-11 07:08:26

      用go语言,有一个由x轴和y轴组成的坐标系, “y下“和“y上“表示一条无限延伸的道路,“y下“表示这个道路的下限,“y上“表示这个道路的上限

      用go语言,有一个由x轴和y轴组成的坐标系,"y下"和"y上"表示一条无限延伸的道路,"y下"表示这个道路的下限,"y上"表示这个道路的上限

      2025-04-11 07:08:26
      34 , int , 像素 , 查找 , 边界
      2025-03-28 07:42:50

      传统CV算法——图像基本操作与形态学操作

      传统CV算法——图像基本操作与形态学操作

      2025-03-28 07:42:50
      cv2 , 像素 , 图像 , 操作 , 运算
      2025-03-28 06:55:13

      分割时间方法

      分割时间方法

      2025-03-28 06:55:13
      分割 , 数组 , 时间 , 时间段
      2025-03-26 09:08:50

      numpy+PIL实现图片的合成与分割

      numpy+PIL实现图片的合成与分割

      2025-03-26 09:08:50
      numpy , 分割 , 图片
      2025-03-21 06:59:32

      OpenCV学习笔记八(图像模糊)

      OpenCV学习笔记八(图像模糊)

      2025-03-21 06:59:32
      像素 , 卷积 , 图像
      2025-03-14 09:11:57

      opencv学习笔记12(图像金字塔)

      opencv学习笔记12(图像金字塔)

      2025-03-14 09:11:57
      src , 图像 , 采样 , 金字塔
      2025-03-14 09:11:57

      opencv学习笔记二(矩阵的掩膜操作)

      opencv学习笔记二(矩阵的掩膜操作)

      2025-03-14 09:11:57
      src , 像素
      2025-03-14 09:11:57

      opencv学习笔记四(读写像素)

      opencv学习笔记四(读写像素)

      2025-03-14 09:11:57
      img , src , 像素 , 图像 , 灰度
      2025-03-14 09:05:42

      opencv学习笔记五(图像混合)

      opencv学习笔记五(图像混合)

      2025-03-14 09:05:42
      像素 , 参数 , 图像
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5243182

      查看更多

      最新文章

      分割时间方法

      2025-03-28 06:55:13

      numpy+PIL实现图片的合成与分割

      2025-03-26 09:08:50

      OpenCV学习笔记八(图像模糊)

      2025-03-21 06:59:32

      opencv学习笔记12(图像金字塔)

      2025-03-14 09:11:57

      opencv学习笔记二(矩阵的掩膜操作)

      2025-03-14 09:11:57

      opencv学习笔记四(读写像素)

      2025-03-14 09:11:57

      查看更多

      热门文章

      OpenCV从入门到精通——图像金字塔

      2024-11-06 07:16:52

      岩洞施工(JAVA)

      2024-11-14 08:54:10

      深度学习之上采样方法PixelShuffle

      2024-11-28 09:02:25

      深度学习从入门到精通——感知损失介绍及基本实现

      2025-01-08 08:33:04

      matlab中图像分割技术之二阈值分割

      2025-02-13 08:29:17

      Android 性能优化-过度绘制的实际解决措施

      2025-03-11 09:35:06

      查看更多

      热门标签

      linux java python javascript 数组 前端 docker Linux vue 函数 shell git 节点 容器 示例
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      深度学习从入门到精通——感知损失介绍及基本实现

      分割时间方法

      opencv学习笔记四(读写像素)

      Android 性能优化-过度绘制的实际解决措施

      matlab图像四种类型

      深度学习之上采样方法PixelShuffle

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号