爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      深度学习之超分辨率算法——SRCNN

      首页 知识中心 服务器 文章详情页

      深度学习之超分辨率算法——SRCNN

      2024-11-06 07:16:52 阅读次数:29

      算法,配置文件

      网络为基础卷积层

      • tensorflow 1.14
      • scipy 1.2.1
      • numpy 1.16
      • 大概意思就是针对数据,我们先把图片按缩小因子照整数倍进行缩减为小图片,再针对小图片进行插值算法,获得还原后的低分辨率的图片作为标签。
      • main.py 配置文件
      from model import SRCNN
      from utils import input_setup
      import numpy as np
      import tensorflow as tf
      import pprint
      import os

      flags = tf.app.flags
      # 设置轮次
      flags.DEFINE_integer("epoch", 1000, "Number of epoch [1000]")
      # 设置批次
      flags.DEFINE_integer("batch_size", 128, "The size of batch images [128]")
      # 设置image大小
      flags.DEFINE_integer("image_size", 33, "The size of image to use [33]")
      # 设置label
      flags.DEFINE_integer("label_size", 21, "The size of label to produce [21]")
      # 学习率
      flags.DEFINE_float("learning_rate", 1e-4, "The learning rate of gradient descent algorithm [1e-4]")
      # 图像颜色的尺寸
      flags.DEFINE_integer("c_dim", 1, "Dimension of image color. [1]")
      # 对输入图像进行预处理的比例因子大小
      flags.DEFINE_integer("scale", 3, "The size of scale factor for preprocessing input image [3]")
      # 步长
      flags.DEFINE_integer("stride", 14, "The size of stride to apply input image [14]")
      # 权重位置
      flags.DEFINE_string("checkpoint_dir", "checkpoint", "Name of checkpoint directory [checkpoint]")
      # 样本目录
      flags.DEFINE_string("sample_dir", "sample", "Name of sample directory [sample]")
      # 训练还是测试
      flags.DEFINE_boolean("is_train", False, "True for training, False for testing [True]")
      FLAGS = flags.FLAGS

      # 格式化打印
      pp = pprint.PrettyPrinter()

      def main(_):
      # 打印参数
      pp.pprint(flags.FLAGS.__flags)

      # 没有就新建~
      if not os.path.exists(FLAGS.checkpoint_dir):
      os.makedirs(FLAGS.checkpoint_dir)
      if not os.path.exists(FLAGS.sample_dir):
      os.makedirs(FLAGS.sample_dir)

      # Session提供了Operation执行和Tensor求值的环境;
      with tf.Session() as sess:
      srcnn = SRCNN(sess,
      image_size=FLAGS.image_size,
      label_size=FLAGS.label_size,
      batch_size=FLAGS.batch_size,
      c_dim=FLAGS.c_dim,
      checkpoint_dir=FLAGS.checkpoint_dir,
      sample_dir=FLAGS.sample_dir)

      srcnn.train(FLAGS)

      if __name__ == '__main__':
      tf.app.run()
      from utils import (
      read_data,
      input_setup,
      imsave,
      merge
      )
      import time
      import os
      import matplotlib.pyplot as plt
      import numpy as np
      import tensorflow as tf

      try:
      xrange
      except:
      xrange = range


      class SRCNN(object):
      # 模型初始化
      def __init__(self,
      sess,
      image_size=33,
      label_size=21,
      batch_size=128,
      c_dim=1,
      checkpoint_dir=None,
      sample_dir=None):

      self.sess = sess
      # 判断灰度图
      self.is_grayscale = (c_dim == 1)

      self.image_size = image_size
      self.label_size = label_size
      self.batch_size = batch_size

      self.c_dim = c_dim

      self.checkpoint_dir = checkpoint_dir
      self.sample_dir = sample_dir

      self.build_model()

      def build_model(self):
      # tf.placeholder(
      # dtype,
      # shape = None,
      # name = None
      # )
      # 定义image,labels 输入形式 N W H C
      self.images = tf.placeholder(dtype=tf.float32, shape=[None, self.image_size, self.image_size, self.c_dim], name='images')
      self.labels = tf.placeholder(tf.float32, [None, self.label_size, self.label_size, self.c_dim], name='labels')
      # tf.Variable(initializer, name), 参数initializer是初始化参数,name是可自定义的变量名称,
      # shape为[filter_height, filter_width, in_channel, out_channels]
      # 构建模型参数
      self.weights = {
      'w1': tf.Variable(initial_value=tf.random_normal([9, 9, 1, 64], stddev=1e-3), name='w1'),
      'w2': tf.Variable(initial_value=tf.random_normal([1, 1, 64, 32], stddev=1e-3), name='w2'),
      'w3': tf.Variable(initial_value=tf.random_normal([5, 5, 32, 1], stddev=1e-3), name='w3')
      }
      # the dim of bias== c_dim
      self.biases = {
      'b1': tf.Variable(tf.zeros([64]), name='b1'),
      'b2': tf.Variable(tf.zeros([32]), name='b2'),
      'b3': tf.Variable(tf.zeros([1]), name='b3')
      }
      # 构建模型 返回MHWC
      self.pred = self.model()

      # Loss function (MSE)
      self.loss = tf.reduce_mean(tf.square(self.labels - self.pred))
      # 保存和加载模型
      # 如果只想保留最新的4个模型,并希望每2个小时保存一次,
      self.saver = tf.train.Saver(max_to_keep=4,keep_checkpoint_every_n_hours=2)

      def train(self, config):

      if config.is_train:
      # 训练状态
      input_setup(self.sess, config)
      else:
      nx, ny = input_setup(self.sess, config)


      if config.is_train:

      data_dir = os.path.join('./{}'.format(config.checkpoint_dir), "train.h5")

      else:

      data_dir = os.path.join('./{}'.format(config.checkpoint_dir), "test.h5")


      train_data, train_label = read_data(data_dir)

      # Stochastic gradient descent with the standard backpropagation
      self.train_op = tf.train.GradientDescentOptimizer(config.learning_rate).minimize(self.loss)

      tf.initialize_all_variables().run()

      counter = 0
      start_time = time.time()

      if self.load(self.checkpoint_dir):
      print(" [*] Load SUCCESS")
      else:
      print(" [!] Load failed...")

      if config.is_train:
      print("Training...")

      for ep in xrange(config.epoch):
      # Run by batch images
      batch_idxs = len(train_data) // config.batch_size
      for idx in xrange(0, batch_idxs):
      batch_images = train_data[idx * config.batch_size: (idx + 1) * config.batch_size]
      batch_labels = train_label[idx * config.batch_size: (idx + 1) * config.batch_size]

      counter += 1
      _, err = self.sess.run([self.train_op, self.loss],
      feed_dict={self.images: batch_images, self.labels: batch_labels})

      if counter % 10 == 0:
      print("Epoch: [%2d], step: [%2d], time: [%4.4f], loss: [%.8f]" \
      % ((ep + 1), counter, time.time() - start_time, err))

      if counter % 500 == 0:
      self.save(config.checkpoint_dir, counter)

      else:
      print("Testing...")
      # print(train_data.shape)
      # print(train_label.shape)
      # print("---------")
      result = self.pred.eval({self.images: train_data, self.labels: train_label})
      # print(result.shape)
      result = merge(result, [nx, ny])
      result = result.squeeze()
      image_path = os.path.join(os.getcwd(), config.sample_dir)
      image_path = os.path.join(image_path, "test_image.png")
      imsave(result, image_path)

      def model(self):
      # input : 输入的要做卷积的图片,要求为一个张量,shape为 [ batch, in_height, in_width, in_channel ],其中batch为图片的数量,in_height 为图片高度,in_width 为图片宽度,in_channel 为图片的通道数,灰度图该值为1,彩色图为3。(也可以用其它值,但是具体含义不是很理解)
      # filter: 卷积核,要求也是一个张量,shape为 [ filter_height, filter_width, in_channel, out_channels ],其中 filter_height 为卷积核高度,filter_width 为卷积核宽度,in_channel 是图像通道数 ,和 input 的 in_channel 要保持一致,out_channel 是卷积核数量。
      # strides: 卷积时在图像每一维的步长,这是一个一维的向量,[ 1, strides, strides, 1],第一位和最后一位固定必须是1
      # padding: string类型,值为“SAME” 和 “VALID”,表示的是卷积的形式,是否考虑边界。"SAME"是考虑边界,不足的时候用0去填充周围,"VALID"则不考虑
      # use_cudnn_on_gpu: bool类型,是否使用cudnn加速,默认为true
      # padding = “SAME”输入和输出大小关系如下:输出大小等于输入大小除以步长向上取整,s是步长大小;
      # padding = “VALID”输入和输出大小关系如下:输出大小等于输入大小减去滤波器大小加上1,最后再除以步长(f为滤波器的大小,s是步长大小)。

      conv1 = tf.nn.relu(
      tf.nn.conv2d(self.images, self.weights['w1'], strides=[1, 1, 1, 1], padding='VALID',use_cudnn_on_gpu=True) + self.biases['b1'])
      conv2 = tf.nn.relu(
      tf.nn.conv2d(conv1, self.weights['w2'], strides=[1, 1, 1, 1], padding='VALID',use_cudnn_on_gpu=True) + self.biases['b2'])
      conv3 = tf.nn.conv2d(conv2, self.weights['w3'], strides=[1, 1, 1, 1], padding='VALID',use_cudnn_on_gpu=True) + self.biases['b3']

      return conv3

      def save(self, checkpoint_dir, step):
      model_name = "SRCNN.model"
      model_dir = "%s_%s" % ("srcnn", self.label_size)
      # 目录
      checkpoint_dir = os.path.join(checkpoint_dir, model_dir)
      # 不存在就新建
      if not os.path.exists(checkpoint_dir):
      os.makedirs(checkpoint_dir)
      # 保存
      # 参数
      '''
      sess,
      save_path,
      global_step=None,
      latest_filename=None,
      meta_graph_suffix="meta",
      write_meta_graph=True,
      write_state=True,
      strip_default_attrs=False,
      save_debug_info=False)
      '''
      self.saver.save(self.sess,
      os.path.join(checkpoint_dir, model_name),
      global_step=step)

      def load(self, checkpoint_dir):
      print(" [*] Reading checkpoints...")
      model_dir = "%s_%s" % ("srcnn", self.label_size)
      # 加载模型
      checkpoint_dir = os.path.join(checkpoint_dir, model_dir)
      # 通过checkpoint文件找到模型文件名
      ckpt = tf.train.get_checkpoint_state(checkpoint_dir)

      if ckpt and ckpt.model_checkpoint_path:
      # 返回path最后的文件名。如果path以/或\结尾,那么就会返回空值。即os.path.split(path)的第二个元素。
      ckpt_name = os.path.basename(ckpt.model_checkpoint_path)
      self.saver.restore(self.sess, os.path.join(checkpoint_dir, ckpt_name))
      # 加载成功
      return True
      else:
      # 加载失败
      return False
      • utils.py 配置工具函数
      """
      Scipy version > 0.18 is needed, due to 'mode' option from scipy.misc.imread function
      """

      import os
      import glob
      import h5py
      import random
      import matplotlib.pyplot as plt

      from PIL import Image # for loading images as YCbCr format
      import scipy.misc
      import scipy.ndimage
      import numpy as np

      import tensorflow as tf

      try:
      xrange
      except:
      xrange = range

      FLAGS = tf.app.flags.FLAGS


      def read_data(path):
      """
      Read h5 format data file

      Args:
      path: file path of desired file
      data: '.h5' file format that contains train data values
      label: '.h5' file format that contains train label values
      """
      with h5py.File(path, 'r') as hf:
      data = np.array(hf.get('data'))
      label = np.array(hf.get('label'))
      return data, label


      def preprocess(path, scale=3):
      """
      Preprocess single image file
      (1) Read original image as YCbCr format (and grayscale as default)
      (2) Normalize
      (3) Apply image file with bicubic interpolation

      Args:
      path: file path of desired file
      input_: image applied bicubic interpolation (low-resolution)
      label_: image with original resolution (high-resolution)
      """
      # 读取灰度图
      image = imread(path, is_grayscale=True)
      label_ = modcrop(image, scale)

      # Must be normalized
      # 归一化
      image = image / 255.
      label_ = label_ / 255.
      # zoom:类型为float或sequence,沿轴的缩放系数。 如果float,每个轴的缩放是相同的。 如果sequence,zoom应包含每个轴的一个值。
      # output:放置输出的数组,或返回数组的dtype
      # order:样条插值的顺序,默认为3.顺序必须在0-5范围内。
      # prefilter: bool, optional 。参数预滤波器确定输入是否在插值之前使用spline_filter进行预过滤(对于 > 1
      # 的样条插值所必需的)。 如果为False,则假定输入已被过滤。 默认为True。
      input_ = scipy.ndimage.interpolation.zoom(input=label_,zoom=(1. / scale), prefilter=False)
      input_ = scipy.ndimage.interpolation.zoom(input=input_,zoom=(scale / 1.), prefilter=False)

      return input_, label_


      def prepare_data(sess, dataset):
      """
      Args:
      dataset: choose train dataset or test dataset
      For train dataset, output data would be ['.../t1.bmp', '.../t2.bmp', ..., '.../t99.bmp']
      dataset:
      "Train" or "Test":to choose the data is train or test
      """
      if FLAGS.is_train:
      filenames = os.listdir(dataset)
      # 获取数据目录
      data_dir = os.path.join(os.getcwd(), dataset)
      data = glob.glob(os.path.join(data_dir, "*.bmp"))
      else:
      # 获取测试集路径
      data_dir = os.path.join(os.sep, (os.path.join(os.getcwd(), dataset)), "Set5")
      data = glob.glob(os.path.join(data_dir, "*.bmp"))
      # 返回文件目录
      return data


      def make_data(sess, data, label):
      """
      Make input data as h5 file format
      Depending on 'is_train' (flag value), savepath would be changed.
      """
      if FLAGS.is_train:
      savepath = os.path.join(os.getcwd(), 'checkpoint/train.h5')
      else:
      savepath = os.path.join(os.getcwd(), 'checkpoint/test.h5')

      with h5py.File(savepath, 'w') as hf:
      hf.create_dataset('data', data=data)
      hf.create_dataset('label', data=label)


      def imread(path, is_grayscale=True):
      """
      Read image using its path.
      Default value is gray-scale, and image is read by YCbCr format as the paper said.
      """
      if is_grayscale:
      return scipy.misc.imread(path, flatten=True, mode='YCbCr').astype(np.float)
      else:
      return scipy.misc.imread(path, mode='YCbCr').astype(np.float)


      def modcrop(image, scale=3):
      """
      To scale down and up the original image, first thing to do is to have no remainder while scaling operation.

      We need to find modulo of height (and width) and scale factor.
      Then, subtract the modulo from height (and width) of original image size.
      There would be no remainder even after scaling operation.
      要缩小和放大原始图像,首先要做的是在缩放操作时没有剩余。
      我们需要找到高度(和宽度)和比例因子的模。
      然后,从原始图像的高度(和宽度)中减去模。
      即使经过缩放操作,也不会有余数。
      """
      if len(image.shape) == 3:
      # 取整
      h, w, _ = image.shape
      h = h - np.mod(h, scale)
      w = w - np.mod(w, scale)
      image = image[0:h, 0:w, :]
      else:
      h, w = image.shape
      h = h - np.mod(h, scale)
      w = w - np.mod(w, scale)
      image = image[0:h, 0:w]
      return image


      def input_setup(sess, config):
      """
      Read image files and make their sub-images and saved them as a h5 file format.
      """
      # Load data path
      if config.is_train:

      data = prepare_data(sess, dataset="Train")
      else:
      data = prepare_data(sess, dataset="Test")

      sub_input_sequence = []
      sub_label_sequence = []
      # 计算padding
      padding = abs(config.image_size - config.label_size) / 2 # 6

      if config.is_train:
      for i in xrange(len(data)):
      # TODO 获取原图和低分辨率还原标签
      input_, label_ = preprocess(data[i], config.scale)
      if len(input_.shape) == 3:
      h, w, _ = input_.shape
      else:
      h, w = input_.shape

      for x in range(0, h - config.image_size + 1, config.stride):
      for y in range(0, w - config.image_size + 1, config.stride):
      sub_input = input_[x:x + config.image_size, y:y + config.image_size] # [33 x 33]
      sub_label = label_[x + int(padding):x + int(padding) + config.label_size,
      y + int(padding):y + int(padding) + config.label_size] # [21 x 21]

      # Make channel value
      sub_input = sub_input.reshape([config.image_size, config.image_size, 1])
      sub_label = sub_label.reshape([config.label_size, config.label_size, 1])

      sub_input_sequence.append(sub_input)
      sub_label_sequence.append(sub_label)
      else:
      input_, label_ = preprocess(data[1], config.scale)
      if len(input_.shape) == 3:
      h, w, _ = input_.shape
      else:
      h, w = input_.shape

      # Numbers of sub-images in height and width of image are needed to compute merge operation.
      nx = ny = 0
      for x in range(0, h - config.image_size + 1, config.stride):
      # 保存索引
      nx += 1
      ny = 0
      for y in range(0, w - config.image_size + 1, config.stride):
      ny += 1
      sub_input = input_[x:x + config.image_size, y:y + config.image_size] # [33 x 33]
      sub_label = label_[x + int(padding):x + int(padding) + config.label_size,
      y + int(padding):y + int(padding) + config.label_size] # [21 x 21]

      sub_input = sub_input.reshape([config.image_size, config.image_size, 1])
      sub_label = sub_label.reshape([config.label_size, config.label_size, 1])

      sub_input_sequence.append(sub_input)
      sub_label_sequence.append(sub_label)

      """
      len(sub_input_sequence) : the number of sub_input (33 x 33 x ch) in one image
      (sub_input_sequence[0]).shape : (33, 33, 1)
      """
      # Make list to numpy array. With this transform
      arrdata = np.asarray(sub_input_sequence) # [?, 33, 33, 1]
      arrlabel = np.asarray(sub_label_sequence) # [?, 21, 21, 1]
      make_data(sess, arrdata, arrlabel)

      if not config.is_train:
      return nx, ny


      def imsave(image, path):
      return scipy.misc.imsave(path, image)


      def merge(images, size):
      # 合并图片
      h, w = images.shape[1], images.shape[2]
      img = np.zeros((h * size[0], w * size[1], 1))
      for idx, image in enumerate(images):
      i = idx % size[1]
      j = idx // size[1]
      img[j * h:j * h + h, i * w:i * w + w, :] = image

      return img
      • 原图
      • 深度学习之超分辨率算法——SRCNN

      • 效果图
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/u_13859040/5814463,作者:qq5b42bed9cc7e9,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:DataWhale——推荐系统实战之数据库基本操作

      下一篇:java动态表查询系统

      相关文章

      2025-05-19 09:04:38

      完美解决tomcat启动异常:Invalid byte tag in constant pool: 19;Unable to process Jar entry [module-info.class]

      完美解决tomcat启动异常:Invalid byte tag in constant pool: 19;Unable to process Jar entry [module-info.class]

      2025-05-19 09:04:38
      jar , tomcat , 版本 , 配置文件
      2025-05-19 09:04:14

      《剑指Offer》搜索算法题篇——更易理解的思路~

      《剑指Offer》搜索算法题篇——更易理解的思路~

      2025-05-19 09:04:14
      算法
      2025-05-19 09:04:14

      复杂度的OJ练习

      复杂度的OJ练习

      2025-05-19 09:04:14
      代码 , 复杂度 , 思路 , 数组 , 算法
      2025-05-19 09:04:14

      背包问题——“0-1背包”,“完全背包”(这样讲,还能不会?)

      背包问题——“0-1背包”,“完全背包”(这样讲,还能不会?)

      2025-05-19 09:04:14
      动态规划 , 算法
      2025-05-16 09:15:17

      多源BFS问题(2)_飞地的数量

      多源BFS问题(2)_飞地的数量

      2025-05-16 09:15:17
      bfs , grid , 单元格 , 算法
      2025-05-16 09:15:17

      BFS解决最短路问题(4)_为高尔夫比赛砍树

      BFS解决最短路问题(4)_为高尔夫比赛砍树

      2025-05-16 09:15:17
      BFS , lt , 复杂度 , 算法
      2025-05-16 09:15:17

      递归,搜索,回溯算法(3)之穷举,暴搜,深搜,回溯,剪枝

      递归,搜索,回溯算法(3)之穷举,暴搜,深搜,回溯,剪枝

      2025-05-16 09:15:17
      回溯 , 子集 , 数组 , 算法 , 递归
      2025-05-16 09:15:17

      多源BFS问题(4)_地图分析

      多源BFS问题(4)_地图分析

      2025-05-16 09:15:17
      单元格 , 算法 , 网格 , 距离
      2025-05-16 09:15:10

      BFS解决FloodFill算法(3)_岛屿的最大面积

      BFS解决FloodFill算法(3)_岛屿的最大面积

      2025-05-16 09:15:10
      grid , 复杂度 , 算法
      2025-05-14 10:33:31

      【数据结构】第一章——绪论(2)

      【数据结构】第一章——绪论(2)

      2025-05-14 10:33:31
      函数 , 实现 , 打印 , 理解 , 算法 , 输入 , 输出
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5274380

      查看更多

      最新文章

      完美解决tomcat启动异常:Invalid byte tag in constant pool: 19;Unable to process Jar entry [module-info.class]

      2025-05-19 09:04:38

      webpack5基础--02_基本配置( 5 大核心概念)

      2025-05-14 10:33:25

      webpack2.4.* 加载loader的两种方式

      2025-05-09 08:51:21

      spring Bean的作用域和生命周期

      2025-05-08 09:03:07

      springboot项目如何将配置文件外挂

      2025-05-06 09:19:12

      【Hive】使用Ambari修改 默认队列

      2025-04-23 08:18:38

      查看更多

      热门文章

      找寻一款redis数据库可视化工具(RedisDesktopManager)

      2023-02-27 09:14:47

      webpack使用ts-loader导出export default问题

      2023-02-22 09:24:05

      Linux上彻底卸载mysql

      2022-12-28 07:22:30

      前端工作总结195-vue带参数跳转其他页面

      2023-04-07 06:40:45

      前端hook项目重构笔记2-重构之裁剪上传功能

      2023-03-10 10:21:07

      k8s搭建自定义dns

      2024-06-27 09:20:52

      查看更多

      热门标签

      服务器 linux 虚拟机 Linux 数据库 运维 网络 日志 数据恢复 java python 配置 nginx centos mysql
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      创建K8S开机自启动脚本

      YAML文件格式详解及应用

      spring Bean的作用域和生命周期

      LINUX下Samba服务器的配置(高级版)(2.0)

      python学习——编写配置文件

      webpack2.4.* 加载loader的两种方式

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号