爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      深度学习基础案例2--从0到1构建CNN卷积神经网络(以识别CIFR10为例)

      首页 知识中心 物联网 文章详情页

      深度学习基础案例2--从0到1构建CNN卷积神经网络(以识别CIFR10为例)

      2024-12-11 06:19:22 阅读次数:21

      卷积,梯度,模型,训练

      1、前期准备

      1、导入GPU

      作用:导入必要的库和检查是否支持cuda

      import numpy as np
      import torch
      import torchvision    # 视觉库
      import torch.nn as nn  # 神经网络库
      import matplotlib.pylab as plt
      
      device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
      print(device)
      print(torch.__version__)
      print(torchvision.__version__)
      

      输出结果如下:

      cuda
      2.4.0
      0.19.0
      

      2、导入数据

      train_ds = torchvision.datasets.CIFAR10('data', train=True, transform=torchvision.transforms.ToTensor(), download=True)
      
      test_ds = torchvision.datasets.CIFAR10('data', train=False, transform=torchvision.transforms.ToTensor(), download=True)
      
      • 函数原型:

      • torchvision.datasets.CIFAR10(root, train=True, transform=None, target_transform=None, download=False)
        
        • root:数据地址,如果从网上下载数据,则自动会创建文件目录data并且数据存入
        • train:训练集还是测试集,训练集为True,训练集为False
        • transform:数据类型
        • taget_transform:接受目标并对其进行转换的函数/转换
        • download:是否从网上下载数据(pytorch有个好处就是可以自动从网上下载数据)
      # 动态加载数据
      batch_size = 32  # 每一批加载32个数据,可以自己根据数据定
      
      train_dl = torch.utils.data.DataLoader(train_ds, batch_size=batch_size, shuffle=True)
      
      test_dl = torch.utils.data.DataLoader(test_ds, batch_size=batch_size)
      
      • 注意:每一批加载的数据是随机划分的
      • DataLoader是pytorch的动态数据加载器,支持并行化,可以加快存储数据

      查看自己上面划分数据的信息:

      # 取一个批次查看数据
      # 数据得shape为:[batch_size, channel, heigh, weight]
      # batch_size 是自己设定得,channel,height,weight分别是图片得通道数,高度,宽度
      imgs, labels = next(iter(train_dl))
      imgs.shape
      

      数据信息输出如下:

      torch.Size([32, 3, 32, 32])
      

      3、数据可视化

      展示20张图片:

      # 输出一部分图片,可视化
      
      plt.figure(figsize=(20,5))
      for i, imgs in enumerate(imgs[: 20]):
          # 进行轴变换
          npimg = imgs.numpy().transpose((1, 2, 0))
          # 拆分子图
          plt.subplot(2, 10, i + 1)
          plt.imshow(npimg, cmap=plt.cm.binary)
          plt.axis('off')
      

      2、构建CNN神经网络

      ​ CNN网络一般由三部分构成:

      • 卷积层:提取图片特征
      • 池化层:用于数据降维
      • 全连接层:特征提取,用来输出想要的结果,即作用是降维,可以将数据降到自己想要的维度

      1、卷积层原理介绍与计算

      # 函数原型
      torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None)
      
      • in_channels:输入通道数

      • out_channels:输出通道数

      • kernel_size:卷积层大小

      • stride:卷积步伐大小

      • padding:添加到输入的所有四个边的填充。默认值:0

      • dilation :扩张操作,控制kernel点(卷积核点)的间距,默认值:1。

      • groups:将输入通道分组成多个子组,每个子组使用一组卷积核来处理。默认值为 1,表示不进行分组卷积。

      • padding_mode:‘zeros’, ‘reflect’, ‘replicate’或’circular’. 默认:‘zeros’

      卷积维度的计算

      卷积输出维度计算公式如下:

      $o=\lfloor\frac{(w-k+2p)}s+1\rfloor $

      • 输入图片矩阵大小:w * w
      • 卷积核大小:k * k
      • 步长:s
      • 填充大小:p

      本文模型构建的卷积计算在下面模型构建流程中

      2、池化层原理介绍与计算

      函数原型

      torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)
      
      • kernel_size:最大的窗口大小
      • stride:窗口的步幅,默认值为kernel_size
      • padding:填充值,默认为0
      • dilation:控制窗口中元素步幅的参数,默认为1

      池化层的计算

      •   I n p u t :   ( N ,   C ,   H i n ,   W i n )   o r   ( C ,   H i n ,   W i n )   O u t p u t :   ( N ,   C ,   H o u t ,   W o u t )   o r   ( C ,   H o u t ,   W o u t ) \begin{aligned}&\mathrm{~Input:~(N,~C,~H_{in},~W_{in})~or~(C,~H_{in},~W_{in})}\\&\mathrm{~Output:~(N,~C,~H_{out},~W_{out})~or~(C,~H_{out},~W_{out})}\end{aligned} ​ Input: (N, C, Hin​, Win​) or (C, Hin​, Win​) Output: (N, C, Hout​, Wout​) or (C, Hout​, Wout​)​

      H o u t = ⌊ H i n   + 2 ∗   p a d d i n g   [ 0 ] −   d i l a t i o n   [ 0 ] × (   k e r n e l s i z e   [ 0 ] − 1 ) − 1 s t r i d e [ 0 ] + 1 ⌋ W o u t = ⌊ W i n   + 2 ∗   p a d d i n g   [ 1 ] −   d i l a t i o n   [ 1 ] × (   k e r n e l s i z e   [ 1 ] − 1 ) − 1 s t r i d e   [ 1 ] + 1 ⌋ \begin{gathered} H_{out} =\left\lfloor\frac{H_{\mathrm{in~}}+2*\mathrm{~padding~}[0]-\mathrm{~dilation~}[0]\times(\mathrm{~kernel_size~}[0]-1)-1}{\mathrm{stride}[0]}+1\right\rfloor \\ W_{\mathrm{out}} =\left\lfloor\frac{W_{\mathrm{in~}}+2*\mathrm{~padding~}[1]-\mathrm{~dilation~}[1]\times(\mathrm{~kernel_size~}[1]-1)-1}{\mathrm{stride~}[1]}+1\right\rfloor \end{gathered} Hout​=⌊stride[0]Hin ​+2∗ padding [0]− dilation [0]×( kernels​ize [0]−1)−1​+1⌋Wout​=⌊stride [1]Win ​+2∗ padding [1]− dilation [1]×( kernels​ize [1]−1)−1​+1⌋​

      案例解释在下面模型构建流程中

      3、模型构建流程

      • 本文构建的CNN神经网络,有三层卷积层和三层池化层,分类类别为10类。

      • Model的构建函数,作用是分别构建卷积层、池化层和全连接层

      • Model中forward()函数,作用是构建CNN神经网络,

      • 卷积层的计算:以卷积层一nn.Conv2d(3, 64, kernel_size=3)为例

        • 参数解释:输入通道为3,输出通道为64,卷积核大小为3
        • 输入图片通道和大小(3, 32, 32),通过卷积层一得到**(64, 30, 30)**,30计算过程如下:
          • [(32 - 3 + 2 * 0) / 1 + 1] == 30
      • 池化层的计算:一池化层一nn.MaxPool2d(kernel_size=2)为例

        • 输入参数:池化核大小为2
        • 通过卷积层一得到数据(64, 30, 30),在通过池化层一得到结果(64, 15, 15),结合**(2、池化层的计算公式可知)**, 15就算过程如下(以Hout为例):
          • Hin:30, padding[0]:0,dilation[0]:1,kernelize:2,stride:1,带入公式有:[(30 + 2 * 0 - 1 * (2 - 1) - 1) / 1 + 1] == 30
      • 构建模型代码如下

      import torch.nn.functional as F
      
      num_classes = 10   # 一共有10种类别
      
      class Model(nn.Module):
          def __init__(self):
              super().__init__() 
              
              # 特征提起网络
              self.conv1 = nn.Conv2d(3, 64, kernel_size=3)  # 第一层卷积层,卷积核大小 3 * 3
              self.pool1 = nn.MaxPool2d(kernel_size=2)      # 第一层池化层,池化核大小 2 * 2
              self.conv2 = nn.Conv2d(64, 64, kernel_size=3) # 第二层卷积层,卷积核大小为 3 * 3
              self.pool2 = nn.MaxPool2d(kernel_size=2)      # 第二层池化层,池化核大小 2 * 2
              self.conv3 = nn.Conv2d(64, 128, kernel_size=3) # 第三层卷积层,卷积大小 3 * 3
              self.pool3 = nn.MaxPool2d(kernel_size=2)     # 第三层池化层,卷积大小 2 * 2
              
              # 分类网络
              self.fc1 = nn.Linear(512, 256)  # 512维度降到256维度
              self.fc2 = nn.Linear(256, num_classes)  # 256维度降到 10 维度,对应分成10类
              
              # 前向传播,即构建cnn网络:卷积、池化…… 全连接
          def forward(self, x):
              x = self.pool1(F.relu(self.conv1(x)))
              x = self.pool2(F.relu(self.conv2(x)))
              x = self.pool3(F.relu(self.conv3(x)))
                  
              x = torch.flatten(x, start_dim=1)   # 将 x 多维数据 ** 展开到一维 **
                  
              x = F.relu(self.fc1(x))
              x = self.fc2(x)
                  
              return x
      

      4、将模型导入GPU中

      # 打印并且加载模型
      from torchinfo import summary
      
      # 将模型转移到GPU种
      model = Model().to(device)
      
      summary(model)
      

      构建的模型参数如下:

      =================================================================
      Layer (type:depth-idx)                   Param #
      =================================================================
      Model                                    --
      ├─Conv2d: 1-1                            1,792
      ├─MaxPool2d: 1-2                         --
      ├─Conv2d: 1-3                            36,928
      ├─MaxPool2d: 1-4                         --
      ├─Conv2d: 1-5                            73,856
      ├─MaxPool2d: 1-6                         --
      ├─Linear: 1-7                            131,328
      ├─Linear: 1-8                            2,570
      =================================================================
      Total params: 246,474
      Trainable params: 246,474
      Non-trainable params: 0
      =================================================================
      

      3、模型训练

      1、设置超参数

      loss_fn = nn.CrossEntropyLoss()  # 插件损失函数
      learn_rate = 1e-2  # 设置学习率
      opt = torch.optim.SGD(model.parameters(), lr=learn_rate)   # 初始化梯度下降
      
      1. loss_fn = nn.CrossEntropyLoss()

        这一行代码创建了一个CrossEntropyLoss对象,它是PyTorch中用于多分类任务的标准损失函数。CrossEntropyLoss结合了log_softmax和NLLLoss(负对数似然损失)的功能,它可以接收未归一化的预测输出(通常来自模型的输出层)和真实的标签,然后计算损失。在多分类问题中,目标是使模型预测的类别的概率最大,而CrossEntropyLoss正好可以衡量模型预测概率分布与真实标签之间的差距。

      2. learn_rate = 1e-2

        这里设置了学习率(learn_rate)为1e-2,即0.01。**学习率是梯度下降算法中的一个重要超参数,**它决定了权重更新的步长。较高的学习率可以让模型快速收敛,但可能会导致训练不稳定;较低的学习率可以使训练过程更加稳定,但可能需要更多的迭代次数才能收敛。

      3. opt = torch.optim.SGD(model.parameters(), lr = learn_rate)

        这一行代码初始化了一个随机梯度下降(Stochastic Gradient Descent, SGD)优化器,它将用于更新模型的参数以最小化损失函数。model.parameters()返回模型的所有可训练参数,这些参数将在每次迭代中根据计算出的梯度进行更新。lr参数指定了学习率,这里是之前定义的learn_rate。

      2、编写训练函数

      训练函数通常有一个循环,里面包含有(与深度学习基础一案例一样):

      • 前向传播:将输入数据通过模型得到预测输出
      • 计算损失:使用loss_fn来计算预测值和实际值的损失
      • 反向传播:使用loss.backward()来自动计算损失关于模型参数的梯度
      • 更新权重:使用opt.step()来更具计算出的梯度和学习率更新模型参数
      • 清理梯度:在每一次迭代前开始,调用opt.zero_grad()来清理梯度缓存,防止梯度积累

      训练函数参数解析

      • dataloader,传入的是动态加载的数据
      • model,前面构建好的模型(导入了GPU)
      • loss_fn,损失函数
      • optimizer,初始化梯度下降
      def train(dataloader, model, loss_fn, optimizer):
          size = len(dataloader.dataset)  # 训练集的大小,一共60000张图片
          num_batches = len(dataloader)   # 批次数目,60000/32
          
          train_acc, train_loss = 0, 0   # 初始化准确率和损失
          
          for X, y in dataloader:   # 获取数据和标签
              X, y = X.to(device), y.to(device)   # 模型已经导入GPU中,
              
              # 计算acc和loss
              pred = model(X)   # 网络输出
              loss = loss_fn(pred, y)  # 计算网络输出和真实值之间的差距
              
              # 反向传播
              optimizer.zero_grad()  # grad属性归零,即梯度归零
              loss.backward()     # 反向传播
              optimizer.step()  # 更新权重
              
              # 记录 acc 和 loss
              train_acc += (pred.argmax(1) == y).type(torch.float).sum().item()
              train_loss += loss.item()
              
          train_acc /= size
          train_loss /= num_batches
          
          return train_acc, train_loss
              
      

      训练函数API介绍

      • optimizer.zero_grad():会遍历模型所有参数,降反向传播的梯度设置为0(数据经过神经网络的一个神经元中,如果没有达到要求回反向传播继续计算)
      • loss.backward():反向传播中自动跟新梯度,必须在optimizer.step()前
      • optimizer.step():通过梯度下降法更新模型参数的值

      3、编写测试函数

      测试函数和训练函数思路大概一样

      def test(dataloader, model, loss_fn):
          size = len(dataloader.dataset)   # 测试集的大小,一共 10000张图片
          num_batches = len(dataloader)   # 批次数目,10000/32
          
          test_loss, test_acc = 0, 0
          
          # 当不进行训练的时候,停止梯度更新,节省计算内存消耗
          with torch.no_grad():
              for imgs, target in dataloader:
                  imgs, target = imgs.to(device), target.to(device)
                  
                  # 计算loss
                  target_pred = model(imgs)
                  loss = loss_fn(target_pred, target)
                  
                  test_loss += loss.item()
                  test_acc += (target_pred.argmax(1) == target).type(torch.float).sum().item()
                  
          test_acc /= size
          test_loss /= num_classes
          
          return test_acc, test_loss
      

      4、正式训练

      epochs = 10
      train_loss = []
      train_acc = []
      test_loss = []
      test_acc = []
      
      for epoch in range(epochs):
          model.train()
          epoch_train_acc, epoch_train_loss = train(train_dl, model, loss_fn, opt)
          
          model.eval()
          epoch_test_acc, epoch_test_loss = test(test_dl, model, loss_fn)
          
          train_acc.append(epoch_train_acc)
          train_loss.append(epoch_train_loss)
          test_acc.append(epoch_test_acc)
          test_loss.append(epoch_test_loss)
          
          template = ('Epoch:{:2d}, Train_acc:{:.1f}%, Train_loss:{:.3f}, Test_acc:{:.1f}%, Test_loss:{:.3f}')
          print(template.format(epoch+1, epoch_train_acc*100, epoch_train_loss, epoch_test_acc*100, epoch_test_loss))
      print('Done')
      
      Epoch: 1, Train_acc:14.4%, Train_loss:2.273, Test_acc:22.1%,Test_loss:66.199
      Epoch: 2, Train_acc:26.6%, Train_loss:1.982, Test_acc:27.9%,Test_loss:62.358
      Epoch: 3, Train_acc:36.3%, Train_loss:1.747, Test_acc:39.5%,Test_loss:51.392
      Epoch: 4, Train_acc:42.3%, Train_loss:1.585, Test_acc:40.7%,Test_loss:50.576
      Epoch: 5, Train_acc:46.2%, Train_loss:1.481, Test_acc:46.0%,Test_loss:46.421
      Epoch: 6, Train_acc:50.2%, Train_loss:1.384, Test_acc:52.3%,Test_loss:41.735
      Epoch: 7, Train_acc:53.8%, Train_loss:1.303, Test_acc:54.8%,Test_loss:39.633
      Epoch: 8, Train_acc:56.3%, Train_loss:1.235, Test_acc:55.8%,Test_loss:39.389
      Epoch: 9, Train_acc:58.6%, Train_loss:1.174, Test_acc:59.2%,Test_loss:36.206
      Epoch:10, Train_acc:60.8%, Train_loss:1.120, Test_acc:61.0%,Test_loss:34.810
      Done
      

      5、结果可视化

      import matplotlib.pyplot as plt
      #隐藏警告
      import warnings
      warnings.filterwarnings("ignore")               # 忽略警告信息
      plt.rcParams['font.sans-serif']    = ['SimHei'] # 用来正常显示中文标签
      plt.rcParams['axes.unicode_minus'] = False      # 用来正常显示负号
      plt.rcParams['figure.dpi']         = 100        # 分辨率
      
      epochs_range = range(epochs)
      
      plt.figure(figsize=(12, 3))
      plt.subplot(1, 2, 1)
      
      plt.plot(epochs_range, train_acc, label='Training Accurary')
      plt.plot(epochs_range, test_acc, label='Test Accurary')
      plt.legend(loc='lower right')
      plt.title('Training and Validation Accurary')
      
      plt.subplot(1, 2, 2)
      plt.plot(epochs_range, train_loss, label='Training Loss')
      plt.plot(epochs_range, test_loss, label='Test Loss')
      plt.legend(loc='upper right')
      plt.title('Training and Validation Loss')
      plt.show()
      
      • 通过上面分析,在准确度上,训练姐和测试集都达到了百分之60多,但是在损失函数上,训练集的loss函数非常特别,理解不了

      6、总结

      1、CNN模型总结

      • CNN模型主要由卷积层、池化层、全连接层组成,卷积层用于特征提取,池化层用于降维,全连接层用于将维度展开计算与分类,进行特征提取原因:每一图片有很多地方是相同的,通过特征提取可以降低计算难度。
      • 一张图片在pytorch可以存储为:(颜色通道数量,图片长维度,图宽度维度)
      • 熟悉了卷积层如何进行、池化层如何进行的数学原理

      2、API总结

      • optimizer.zero_grad():在每一次反向传播的时候梯度设置为0
      • loss.backward():反向传播中自动跟新梯度,必须在optimizer.step()前
      • optimizer.step():通过梯度下降法更新模型参数的值

      3、待解决

      卷积神经网络参数不太明白:

      • padding:添加到输入的所有四个边的填充。默认值:0

      • dilation :扩张操作,控制kernel点(卷积核点)的间距,默认值:1。

      • groups:将输入通道分组成多个子组,每个子组使用一组卷积核来处理。默认值为 1,表示不进行分组卷积。

      • padding_mode:‘zeros’, ‘reflect’, ‘replicate’或’circular’. 默认:‘zeros’

      • 训练集的loss函数非常特别,理解不了

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://yxzbk.blog.csdn.net/article/details/141068257,作者:羊小猪~~,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:详细分析Pytorch中的register_buffer基本知识(附Demo)

      下一篇:【知识科普】关于领域模型设计的一些思考

      相关文章

      2025-05-19 09:04:30

      开源与闭源:AI模型发展的两条路径

      开源与闭源:AI模型发展的两条路径

      2025-05-19 09:04:30
      开源 , 模型 , 用户
      2025-05-14 09:51:21

      Transformer模型:Position Embedding实现

      在自然语言处理(NLP)中,Transformer 模型是一个非常重要的里程碑,它通过自注意力(self-attention)机制极大地提高了处理序列数据的能力。

      2025-05-14 09:51:21
      位置 , 序列 , 模型
      2025-05-14 09:51:21

      python 加载 TensorFlow 模型

      为了加载一个TensorFlow模型,我们首先需要明确模型的格式。TensorFlow支持多种模型格式,但最常见的两种是SavedModel和HDF5(对于Keras模型)。

      2025-05-14 09:51:21
      model , TensorFlow , 加载 , 模型 , 示例 , 签名
      2025-05-13 09:53:23

      AIGC的底层技术:底层逻辑代码分析与原理实现

      AIGC(AI Generated Content)的底层技术主要涉及深度学习和自然语言处理技术,其核心目的是通过机器学习和模型训练来生成高质量的内容。

      2025-05-13 09:53:23
      AIGC , 学习 , 技术 , 案例 , 模型 , 生成
      2025-05-13 09:53:23

      AIGC工具的使用测评:代码分析与原理实现

      AIGC(Artificial Intelligence Guided Coding)工具是一种基于人工智能技术的开发辅助工具,旨在通过智能化的代码分析和预测,为开发者提供更快速、准确的开发体验。

      2025-05-13 09:53:23
      AIGC , 代码 , 工具 , 开发者 , 模型 , 生成 , 示例
      2025-05-06 09:19:30

      【30天玩转python】机器学习入门

      机器学习(Machine Learning, ML)是一种使计算机能够在没有显式编程的情况下自动改进的技术。它广泛应用于分类、回归、图像处理、自然语言处理等领域。通过数据训练模型,机器可以从经验中学习,并预测或决定新的数据结果。

      2025-05-06 09:19:30
      数据 , 机器 , 模型 , 算法
      2025-05-06 09:18:38

      【 数据建模与预测】数据建模的基本方法与预测技术

      在大数据时代,数据建模与预测技术是将数据转化为可操作性洞察的关键手段。数据建模通过数学模型表达数据中的关系,预测技术则利用这些模型对未来进行推测。

      2025-05-06 09:18:38
      序列 , 建模 , 数据 , 模型 , 预测
      2025-04-18 08:02:02

      django从入门到精通(五)——表单与模型

      Django 模型是一个 Python 类,用于定义数据库中的数据结构。每个模型类对应数据库中的一张表,类的属性对应表中的字段。

      2025-04-18 08:02:02
      Django , 定义 , 模型 , 用于 , 表单 , 验证
      2025-04-18 08:02:02

      diffusionAI从入门到精通——基本组件介绍

      diffusionAI从入门到精通——基本组件介绍

      2025-04-18 08:02:02
      图像 , 文本 , 模型 , 生成 , 示例 , 输入
      2025-04-18 08:02:02

      传统CV算法——边缘检测算法综述

      边缘是不同区域的分界线,是周围(局部)灰度值有显著变化的像素点的集合,有幅值与方向两个属性。这个不是绝对的定义,主要记住边缘是局部特征,以及周围灰度值显著变化产生边缘。

      2025-04-18 08:02:02
      图像 , 梯度 , 检测 , 算子 , 边缘
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5255440

      查看更多

      最新文章

      开源与闭源:AI模型发展的两条路径

      2025-05-19 09:04:30

      Transformer模型:Position Embedding实现

      2025-05-14 09:51:21

      python 加载 TensorFlow 模型

      2025-05-14 09:51:21

      django从入门到精通(五)——表单与模型

      2025-04-18 08:02:02

      diffusionAI从入门到精通——基本组件介绍

      2025-04-18 08:02:02

      python 无监督生成模型

      2025-04-09 09:13:17

      查看更多

      热门文章

      Django入门:第五章、模型建立与迁移

      2023-03-22 09:02:52

      PyTorch 06: PyTorch保存和加载模型

      2023-05-06 08:59:26

      AIGC从入门到大神:解锁人工智能生成内容的奥秘

      2024-12-17 08:34:36

      什么是模型

      2024-04-18 09:42:00

      深度学习TensorFlow---保存和加载 Keras 模型

      2025-03-05 09:22:35

      数学建模系列(1/4):数学建模简介

      2024-10-30 08:59:10

      查看更多

      热门标签

      模型 生成 学习 django python 图像 训练
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      统计分析:判别分析(机器学习)

      TensorFlow模型导出到OpenCV调用

      数学建模系列(4/4):Matlab建模实战

      Matlab数学建模实战应用:案例3 - 投资组合优化

      统计学习方法——机器学习和统计学习介绍及基本入门

      Django入门:第五章、模型建立与迁移

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号