爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      深度学习之超分辨率算法——VDSR

      首页 知识中心 大数据 文章详情页

      深度学习之超分辨率算法——VDSR

      2024-11-22 08:11:42 阅读次数:24

      采样

       

      • 比较于之前的FSRCNN来说,VDSR我认为主要引入了以下优秀特点
      • 首先是卷积层数的上的增加,卷积层数直接代表着模型提取特征的能力强弱
      • 小卷积核的进一步引入,利用卷积核3x3堆叠层数,模型一共20层。
      • 引入残差网络
      • 缺点:
      • 原文依然采用的MSE损失,单纯比较像素之间的差异。图像相对比较平滑。
      • 训练依然采用是SRCNN的训练方法,先上采样到高分辨率尺寸大小再进行训练。

      深度学习之超分辨率算法——VDSR

      两张图理解:

      深度学习之超分辨率算法——VDSR

      (输入尺寸等于输出尺寸的模型实现)

      • 使用数据集:train.h5

      model.py

      import torch
      import torch.nn as nn
      from math import sqrt

      class VDSR(nn.Module):

      def __init__(self):
      super(VDSR, self).__init__()
      # 残差网络
      self.residual_layer = self.make_layer(Conv_ReLU_Block, 18)

      # 输入
      self.input = nn.Conv2d(in_channels=1, out_channels=64, kernel_size=(3,3), stride=(1,1), padding=(1,1), bias=False)
      self.output = nn.Conv2d(in_channels=64, out_channels=1, kernel_size=(3,3), stride=(1,1), padding=(1,1), bias=False)
      self.relu = nn.ReLU(inplace=True)

      self.init_weights()

      def init_weights(self):
      # 模型初始化参数
      for m in self.modules():
      if isinstance(m, nn.Conv2d):
      n = m.kernel_size[0] * m.kernel_size[1] * m.out_channels
      m.weight.data.normal_(0, sqrt(2. / n))

      def make_layer(self, block, num_of_layer):
      # 做18层网络呀.....
      layers = []
      for _ in range(num_of_layer):
      layers.append(block())
      return nn.Sequential(*layers)

      def forward(self, x):
      residual = x
      # 1
      out = self.relu(self.input(x))
      # 18
      out = self.residual_layer(out)
      # 1
      out = self.output(out)
      # 残差
      out = residual+out
      return out


      class Conv_ReLU_Block(nn.Module):

      def __init__(self):
      super(Conv_ReLU_Block, self).__init__()
      self.sequential = nn.Sequential(
      nn.Conv2d(in_channels=64, out_channels=64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False),
      nn.ReLU(inplace=True)
      )

      def forward(self, x):
      return self.sequential(x)


      if __name__ == '__main__':
      x= torch.randn(1,1,224,224)
      net = VDSR()
      print(net(x).shape)

      dataset.py (数据读取方式)

      import torch.utils.data as data
      import torch
      import h5py
      from PIL import Image
      import numpy as np


      class DatasetFromHdf5(data.Dataset):
      def __init__(self, file_path="./data/train.h5"):
      super(DatasetFromHdf5, self).__init__()
      hf = h5py.File(file_path)
      self.data = hf.get('data')
      self.target = hf.get('label')

      def __getitem__(self, index):
      image = torch.from_numpy(self.data[index,:,:,:]).float()
      label = torch.from_numpy(self.target[index,:,:,:]).float()

      return image,label


      def __len__(self):
      return self.data.shape[0]

      if __name__ == '__main__':
      data = DatasetFromHdf5()
      print(len(data))
      image = data[0][0]
      label = data[0][1]
      print(image.numpy()[0].shape)
      # 显示图片
      image = Image.fromarray(image.numpy()[0]*255)
      label = Image.fromarray(label.numpy()[0] * 255)
      image.show()
      label.show()
      • train.py
      import argparse, os
      import torch
      import random
      import torch.backends.cudnn as cudnn
      import torch.nn as nn
      import torch.optim as optim
      from torch.autograd import Variable
      from torch.utils.data import DataLoader
      from vdsr import VDSR
      from dataset import DatasetFromHdf5

      def init():
      # Training settings
      parser = argparse.ArgumentParser(description="the VDSR of Pytorch")

      # batch_size 每次投入模型的图像数据数
      parser.add_argument("--batch_size", type=int, default=128, help="Training batch size")
      # 训练轮次
      parser.add_argument("--epochs", type=int, default=1000, help="Number of epochs to train for")
      # 学习率
      parser.add_argument("--lr", type=float, default=0.0001, help="Learning Rate. Default=0.1")
      # 动态学习率调整系数
      parser.add_argument("--step", type=int, default=10, help="Sets the learning rate to the initial LR decayed by momentum every n epochs, Default: n=10")
      # 使用cuda
      parser.add_argument("--cuda", action="store_true",default=True,help="Use cuda?")
      # 已训练权重
      parser.add_argument("--resume", default="", type=str, help="Path to checkpoint (default: none)")
      # 开始轮次
      parser.add_argument("--start-epoch", default=1, type=int, help="Manual epoch number (useful on restarts)")
      # 梯度裁剪系数
      parser.add_argument("--clip", type=float, default=0.4, help="Clipping Gradients. Default=0.4")
      # 单线程
      parser.add_argument("--num_workers", type=int, default=1, help="Number of threads for data loader to use, Default: 1")
      # 优化器动量
      parser.add_argument("--momentum", default=0.9, type=float, help="Momentum, Default: 0.9")
      # 正则化系数
      parser.add_argument("--weight-decay", "--wd", default=1e-4, type=float, help="Weight decay, Default: 1e-4")
      # 预训练
      parser.add_argument('--pretrained', default='', type=str, help='path to pretrained model (default: none)')
      # 默认GPU为0
      parser.add_argument("--gpus", default="0", type=str, help="gpu ids (default: 0)")
      return parser

      def main():

      parser = init()
      # 获得所有参数
      opt = parser.parse_args()
      print(opt)
      # cuda设置gpu参数
      cuda = opt.cuda

      # gpu配置
      if cuda:
      print("=> use gpu id: '{}'".format(opt.gpus))
      os.environ["CUDA_VISIBLE_DEVICES"] = opt.gpus
      if not torch.cuda.is_available():
      raise Exception("No GPU found or Wrong gpu id, please run without --cuda")
      # 随机种子参数
      opt.seed = random.randint(1, 10000)
      print("Random Seed: ", opt.seed)
      torch.manual_seed(opt.seed)

      if cuda:
      # 设置固定生成随机数的种子,使得每次运行该.py
      # 文件时生成的随机数相同
      torch.cuda.manual_seed(opt.seed)

      # 设置加速,优化运行效率
      cudnn.benchmark = True

      print("===> Loading datasets")
      train_set = DatasetFromHdf5()

      # training_data_loader = DataLoader(dataset=train_set,num_workers=opt.num_workers, batch_size=opt.batch_size, shuffle=True)
      training_data_loader = DataLoader(dataset=train_set, batch_size=opt.batch_size,
      shuffle=True)
      print("===> Building model")
      model = VDSR()


      criterion = nn.MSELoss()

      print("===> Setting GPU")
      if cuda:
      model = model.cuda()
      criterion = criterion.cuda()

      # optionally resume from a checkpoint
      if opt.resume:
      if os.path.isfile(opt.resume):
      print("=> loading checkpoint '{}'".format(opt.resume))
      checkpoint = torch.load(opt.resume)
      opt.start_epoch = checkpoint["epoch"] + 1
      model.load_state_dict(checkpoint["model"].state_dict())
      else:
      print("=> no checkpoint found at '{}'".format(opt.resume))

      # optionally copy weights from a checkpoint
      if opt.pretrained:

      if os.path.isfile(opt.pretrained):
      print("=> loading model '{}'".format(opt.pretrained))
      weights = torch.load(opt.pretrained)
      model.load_state_dict(weights['model'].state_dict())
      else:
      print("=> no model found at '{}'".format(opt.pretrained))

      print("===> Setting Optimizer")

      optimizer = optim.SGD(model.parameters(), lr=opt.lr, momentum=opt.momentum, weight_decay=opt.weight_decay)

      print("===> Training")

      for epoch in range(opt.start_epoch, opt.epochs + 1):
      train(opt,training_data_loader, optimizer, model, criterion, epoch)
      save_checkpoint(model, epoch)

      def adjust_learning_rate(opt, epoch):
      """Sets the learning rate to the initial LR decayed by 10 every 10 epochs"""
      lr = opt.lr * (0.1 ** (epoch //opt.step))
      return lr

      def train(opt,training_data_loader, optimizer, model, criterion, epoch):
      # lr = adjust_learning_rate(opt, epoch-1)
      lr = opt.lr
      for param_group in optimizer.param_groups:
      param_group["lr"] = lr

      print("Epoch = {}, lr = {}".format(epoch, optimizer.param_groups[0]["lr"]))

      model.train()

      for iteration, batch in enumerate(training_data_loader):
      input, target = torch.Tensor(batch[0]), torch.Tensor(batch[1])

      if opt.cuda:
      input = input.cuda()
      target = target.cuda()

      # print("meodel:",model(input).shape)
      # print(target.shape)
      loss = criterion(model(input), target)
      optimizer.zero_grad()
      loss.backward()
      torch.nn.utils.clip_grad_norm_(model.parameters(),opt.clip)
      optimizer.step()

      if iteration%100 == 0:
      print("===> Epoch[{}]({}/{}): Loss: {:.10f}".format(epoch, iteration, len(training_data_loader), loss.item()))

      def save_checkpoint(model, epoch):
      model_out_path = "checkpoint/" + "model_epoch_{}.pth".format(epoch)
      state = {"epoch": epoch ,"model": model}
      if not os.path.exists("checkpoint/"):
      os.makedirs("checkpoint/")

      torch.save(state, model_out_path)

      print("Checkpoint saved to {}".format(model_out_path))

      if __name__ == "__main__":
      main()

      eval.py

      import argparse, os
      import torch
      from torch.autograd import Variable
      import numpy as np
      import time, math, glob
      import scipy.io as sio

      parser = argparse.ArgumentParser(description="PyTorch VDSR Eval")
      parser.add_argument("--cuda", action="store_true", help="use cuda?")
      parser.add_argument("--model", default="model/model_epoch_100.pth", type=str, help="model path")
      parser.add_argument("--dataset", default="Set5", type=str, help="dataset name, Default: Set5")
      parser.add_argument("--gpus", default="0", type=str, help="gpu ids (default: 0)")

      def PSNR(pred, gt, shave_border=0):
      height, width = pred.shape[:2]
      pred = pred[shave_border:height - shave_border, shave_border:width - shave_border]
      gt = gt[shave_border:height - shave_border, shave_border:width - shave_border]
      imdff = pred - gt
      rmse = math.sqrt(np.mean(imdff ** 2))
      if rmse == 0:
      return 100
      return 20 * math.log10(255.0 / rmse)

      opt = parser.parse_args()
      cuda = opt.cuda

      if cuda:
      print("=> use gpu id: '{}'".format(opt.gpus))
      os.environ["CUDA_VISIBLE_DEVICES"] = opt.gpus
      if not torch.cuda.is_available():
      raise Exception("No GPU found or Wrong gpu id, please run without --cuda")

      model = torch.load(opt.model, map_location=lambda storage, loc: storage)["model"]

      scales = [2,3,4]

      image_list = glob.glob(opt.dataset+"_mat/*.*")

      for scale in scales:
      avg_psnr_predicted = 0.0
      avg_psnr_bicubic = 0.0
      avg_elapsed_time = 0.0
      count = 0.0
      for image_name in image_list:
      if str(scale) in image_name:
      count += 1
      print("Processing ", image_name)
      # 加载模型
      im_gt_y = sio.loadmat(image_name)['im_gt_y']
      # 双线性插值
      im_b_y = sio.loadmat(image_name)['im_b_y']

      im_gt_y = im_gt_y.astype(float)
      im_b_y = im_b_y.astype(float)

      psnr_bicubic = PSNR(im_gt_y, im_b_y,shave_border=scale)
      avg_psnr_bicubic += psnr_bicubic


      im_input = im_b_y/255.

      im_input =torch.Tensor(torch.from_numpy(im_input).float()).reshape(1, -1, im_input.shape[0], im_input.shape[1])

      if cuda:
      model = model.cuda()
      im_input = im_input.cuda()
      else:
      model = model.cpu()

      start_time = time.time()
      HR = model(im_input)
      elapsed_time = time.time() - start_time
      avg_elapsed_time += elapsed_time

      HR = HR.cpu()

      im_h_y = HR.data[0].numpy().astype(np.float32)

      im_h_y = im_h_y * 255.
      im_h_y[im_h_y < 0] = 0
      im_h_y[im_h_y > 255.] = 255.
      im_h_y = im_h_y[0,:,:]

      psnr_predicted = PSNR(im_gt_y, im_h_y,shave_border=scale)
      avg_psnr_predicted += psnr_predicted

      print("Scale=", scale)
      print("Dataset=", opt.dataset)
      print("PSNR_predicted=", avg_psnr_predicted/count)
      print("PSNR_bicubic=", avg_psnr_bicubic/count)
      print("It takes average {}s for processing".format(avg_elapsed_time/count))

      像素重采样的VDSR

      • 原文VDSR训练时,直接将原图上采样后"高分辨率"图像加入到模型中进行计算。
      • 使用训练集VOC2012,RGB图
      • 训练集目录如下:
      • data存放数据假设bat_size = 1(1,3,224,224)
      • SRF_2下:target:(1,3,448,448)
      • SRF_3下:target(1,3,2243,2243)
      • 深度学习之超分辨率算法——VDSR

      • dataset.py
      class DatasetFromVoc(data.Dataset):
      def __init__(self, file_path="./train",scale=2):
      super(DatasetFromVoc, self).__init__()
      if scale==2:
      dir_path = os.path.join(file_path,"SRF_2")
      elif scale==3:
      dir_path = os.path.join(file_path,"SRF_3")
      else:
      dir_path = os.path.join(file_path,"SRF_4")

      self.data_path = os.path.join(dir_path,"data")
      self.target_path = os.path.join(dir_path,"target")
      self.dataset = []
      for img_name in os.listdir(self.data_path):
      img_path = os.path.join(self.data_path,img_name)
      img_target = os.path.join(self.target_path,img_name)
      self.dataset.append([img_path,img_target])


      def __getitem__(self, index):
      img_path,label_path = self.dataset[index]
      img_data = cv.imread(img_path)
      label_data = cv.imread(label_path)
      # print(img_data.shape)
      # print(label_data.shape)
      img_data = img_data.transpose([2,0,1])
      label_data = label_data.transpose([2,0,1])

      img_data = np.array(img_data,dtype=np.float32)/255.
      label_data = np.array(label_data,dtype=np.float32)/255.
      return img_data,label_data

      def __len__(self):

      return len(self.dataset)

      vsnr.py

      模型中我采取ESPCN的输出方式,采用像素混洗的方法,最后输出的时候才进行上采样,节约计算量。
      进一步改进:损失函数应该加入感受损失

      class VDSR_ESPCN(nn.Module):

      def __init__(self,input_channel=1,scale=2):
      super(VDSR_ESPCN, self).__init__()
      # 残差网络
      self.residual_layer = self.make_layer(Conv_ReLU_Block, 18)

      # 输入
      self.input = nn.Conv2d(in_channels=input_channel, out_channels=64, kernel_size=(3,3), stride=(1,1), padding=(1,1), bias=False)
      self.output = nn.Conv2d(in_channels=64, out_channels=input_channel, kernel_size=(3,3), stride=(1,1), padding=(1,1), bias=False)
      self.relu = nn.ReLU(inplace=True)
      self.last_part = nn.Sequential(
      nn.Conv2d(input_channel, input_channel* (scale ** 2), kernel_size=(3, 3), padding=(3 // 2, 3 // 2)),
      nn.PixelShuffle(scale)
      )

      self.init_weights()

      def init_weights(self):
      # 模型初始化参数
      for m in self.modules():
      if isinstance(m, nn.Conv2d):
      n = m.kernel_size[0] * m.kernel_size[1] * m.out_channels
      m.weight.data.normal_(0, sqrt(2. / n))

      def make_layer(self, block, num_of_layer):
      # 做18层网络呀.....
      layers = []
      for _ in range(num_of_layer):
      layers.append(block())
      return nn.Sequential(*layers)

      def forward(self, x):
      residual = x
      # 1
      out = self.relu(self.input(x))
      # 18
      out = self.residual_layer(out)
      # 1
      out = self.output(out)
      # 残差
      out = residual+out
      # print(out.shape)
      out = self.last_part(out)
      return out


      class Conv_ReLU_Block(nn.Module):

      def __init__(self):
      super(Conv_ReLU_Block, self).__init__()
      self.sequential = nn.Sequential(
      nn.Conv2d(in_channels=64, out_channels=64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False),
      nn.ReLU(inplace=True)
      )

      def forward(self, x):
      return self.sequential(x)

      trian_VDSR_ESPCN.py

      import argparse, os
      import torch
      import random
      import torch.backends.cudnn as cudnn
      import torch.nn as nn
      import torch.optim as optim
      from torch.utils.data import DataLoader
      from vdsr import VDSR_ESPCN
      from dataset import DatasetFromVoc

      def init():
      # Training settings
      parser = argparse.ArgumentParser(description="the VDSR of Pytorch")

      # batch_size 每次投入模型的图像数据数
      parser.add_argument("--batch_size", type=int, default=32, help="Training batch size")
      # 训练轮次
      parser.add_argument("--epochs", type=int, default=1000, help="Number of epochs to train for")
      # 学习率
      parser.add_argument("--lr", type=float, default=0.0001, help="Learning Rate. Default=0.1")
      # 动态学习率调整系数
      parser.add_argument("--step", type=int, default=10, help="Sets the learning rate to the initial LR decayed by momentum every n epochs, Default: n=10")
      # 使用cuda
      parser.add_argument("--cuda", action="store_true",default=True,help="Use cuda?")
      # 已训练权重
      parser.add_argument("--resume", default="", type=str, help="Path to checkpoint (default: none)")
      # 开始轮次
      parser.add_argument("--start-epoch", default=1, type=int, help="Manual epoch number (useful on restarts)")
      # 梯度裁剪系数
      parser.add_argument("--clip", type=float, default=0.4, help="Clipping Gradients. Default=0.4")
      # 单线程
      parser.add_argument("--num_workers", type=int, default=1, help="Number of threads for data loader to use, Default: 1")
      # 优化器动量
      parser.add_argument("--momentum", default=0.9, type=float, help="Momentum, Default: 0.9")
      # 正则化系数
      parser.add_argument("--weight-decay", "--wd", default=1e-4, type=float, help="Weight decay, Default: 1e-4")
      # 预训练a
      parser.add_argument('--pretrained', default='', type=str, help='path to pretrained model (default: none)')
      # 默认GPU为0
      parser.add_argument("--gpus", default="0", type=str, help="gpu ids (default: 0)")
      return parser

      def main():

      parser = init()
      # 获得所有参数
      opt = parser.parse_args()
      print(opt)
      # cuda设置gpu参数
      cuda = opt.cuda

      # gpu配置
      if cuda:
      print("=> use gpu id: '{}'".format(opt.gpus))
      os.environ["CUDA_VISIBLE_DEVICES"] = opt.gpus
      if not torch.cuda.is_available():
      raise Exception("No GPU found or Wrong gpu id, please run without --cuda")
      # 随机种子参数
      opt.seed = random.randint(1, 10000)
      print("Random Seed: ", opt.seed)
      torch.manual_seed(opt.seed)

      if cuda:
      # 设置固定生成随机数的种子,使得每次运行该.py
      # 文件时生成的随机数相同
      torch.cuda.manual_seed(opt.seed)

      # 设置加速,优化运行效率
      cudnn.benchmark = True

      print("===> Loading datasets")
      train_set = DatasetFromVoc(scale=2)

      # training_data_loader = DataLoader(dataset=train_set,num_workers=opt.num_workers, batch_size=opt.batch_size, shuffle=True)
      training_data_loader = DataLoader(dataset=train_set, batch_size=opt.batch_size,
      shuffle=True)
      print("===> Building model")
      model = VDSR_ESPCN(scale=2,input_channel=3)


      criterion = nn.MSELoss()

      print("===> Setting GPU")
      if cuda:
      model = model.cuda()
      criterion = criterion.cuda()

      # optionally resume from a checkpoint
      if opt.resume:
      if os.path.isfile(opt.resume):
      print("=> loading checkpoint '{}'".format(opt.resume))
      checkpoint = torch.load(opt.resume)
      opt.start_epoch = checkpoint["epoch"] + 1
      model.load_state_dict(checkpoint["model"].state_dict())
      else:
      print("=> no checkpoint found at '{}'".format(opt.resume))

      # optionally copy weights from a checkpoint
      if opt.pretrained:

      if os.path.isfile(opt.pretrained):
      print("=> loading model '{}'".format(opt.pretrained))
      weights = torch.load(opt.pretrained)
      model.load_state_dict(weights['model'].state_dict())
      else:
      print("=> no model found at '{}'".format(opt.pretrained))

      print("===> Setting Optimizer")

      optimizer = optim.SGD(model.parameters(), lr=opt.lr, momentum=opt.momentum, weight_decay=opt.weight_decay)

      print("===> Training")

      for epoch in range(opt.start_epoch, opt.epochs + 1):
      train(opt,training_data_loader, optimizer, model, criterion, epoch)
      save_checkpoint(model, epoch)

      def adjust_learning_rate(opt, epoch):
      """Sets the learning rate to the initial LR decayed by 10 every 10 epochs"""
      lr = opt.lr * (0.1 ** (epoch //opt.step))
      return lr

      def train(opt,training_data_loader, optimizer, model, criterion, epoch):
      # lr = adjust_learning_rate(opt, epoch-1)
      lr = opt.lr
      for param_group in optimizer.param_groups:
      param_group["lr"] = lr

      print("Epoch = {}, lr = {}".format(epoch, optimizer.param_groups[0]["lr"]))

      model.train()

      for iteration, batch in enumerate(training_data_loader):
      input, target = torch.Tensor(batch[0]), torch.Tensor(batch[1])

      if opt.cuda:
      input = input.cuda()
      target = target.cuda()

      # print("meodel:",model(input).shape)
      # print(target.shape)
      loss = criterion(model(input), target)
      optimizer.zero_grad()
      loss.backward()
      torch.nn.utils.clip_grad_norm_(model.parameters(),opt.clip)
      optimizer.step()

      if iteration%100 == 0:
      print("===> Epoch[{}]({}/{}): Loss: {:.10f}".format(epoch, iteration, len(training_data_loader), loss.item()))

      def save_checkpoint(model, epoch):
      model_out_path = "checkpoint_vdsrespcn/" + "model_epoch_{}.pth".format(epoch)
      state = {"epoch": epoch ,"model": model}
      if not os.path.exists("checkpoint_vdsrespcn/"):
      os.makedirs("checkpoint_vdsrespcn/")

      torch.save(state, model_out_path)

      print("Checkpoint saved to {}".format(model_out_path))

      if __name__ == "__main__":
      main()

      训练比较久…

      深度学习之超分辨率算法——VDSR

      • 以上我自己的改写,具体测试还在进行汇总,关于单通道的图片PSNR达到27.65
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/u_13859040/5814433,作者:qq5b42bed9cc7e9,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:【Flask项目2】python对象分页数据序列化基类(5)

      下一篇:【django】新闻模块——新闻数据表设计和抽象模型类的用法【22】

      相关文章

      2025-03-14 09:11:57

      opencv学习笔记12(图像金字塔)

      opencv学习笔记12(图像金字塔)

      2025-03-14 09:11:57
      src , 图像 , 采样 , 金字塔
      2024-11-14 08:54:10

      岩洞施工(JAVA)

      岩洞施工(JAVA)

      2024-11-14 08:54:10
      输入 , 输出 , 采样
      2024-11-06 07:24:46

      深度学习从入门到精通——图像分割技术原理解析

      深度学习从入门到精通——图像分割技术原理解析

      2024-11-06 07:24:46
      像素 , 分割 , 采样
      2024-11-06 07:16:52

      OpenCV从入门到精通——图像金字塔

      OpenCV从入门到精通——图像金字塔

      2024-11-06 07:16:52
      图像 , 采样
      2023-02-08 10:33:55

      R语言Rstan概率编程规划MCMC采样的贝叶斯模型

      概率编程使我们能够实现统计模型,而无需担心技术细节。它对基于MCMC采样的贝叶斯模型特别有用。视频:R语言中RStan贝叶斯层次模型分析示例 stan简介Stan是用于贝叶斯推理的C ++库。它基于No-U-Turn采样器(NUTS),该采

      2023-02-08 10:33:55
      R语言 , 采样
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5243559

      查看更多

      热门标签

      算法 leetcode python 数据 java 数组 节点 大数据 i++ 链表 golang c++ 排序 django 数据类型
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号