爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      使用pytorch构建一个神经网络、损失函数、反向传播、更新网络参数

      首页 知识中心 其他 文章详情页

      使用pytorch构建一个神经网络、损失函数、反向传播、更新网络参数

      2023-07-19 07:52:37 阅读次数:431

      pytorch,神经网络

      • 关于torch.nn:
        • 使用Pytorch来构建神经网络, 主要的工具都在torch.nn包中.
        • nn依赖于autograd来定义模型, 并对其自动求导.

      构建神经网络的典型流程:

      • 定义一个拥有可学习参数的神经网络
      • 遍历训练数据集
      • 处理输入数据使其流经神经网络
      • 计算损失值
      • 将网络参数的梯度进行反向传播
      • 以一定的规则更新网络的权重
      • 我们首先定义一个Pytorch实现的神经网络:
      #  导入若干工具包
      import torch
      import torch.nn as nn
      import torch.nn.functional as F
      
      #  定义一个简单的网络
      class Net(nn.Module):
          def __init__(self):
              super().__init__()
              #  定义第一层卷积神经网络,输入通道维度为1,输出通道维度为6,卷积核大小为3*3
              self.conv1 = nn.Conv2d(1, 6, 3)
              #  定义第二层卷积神经网络,输入通道为6,输出通道维度为16,卷积核大小为3*3
              self.conv2 = nn.Conv2d(6, 16, 3)
              #  定义三层全连接层网络
              self.fc1 = nn.Linear(16 * 6 * 6, 120)
              self.fc2 = nn.Linear(120, 84)
              self.fc3 = nn.Linear(84, 10)  # 最终输出的结果要分为10类
      
          def forward(self, x):
              #  注意:任何卷积层后面要加激活层、池化层
              #  在(2,2)的池化窗口下执行最大池化操作
              x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))
              x = F.max_pool2d(F.relu(self.conv2(x)), 2)
              #  经过卷积层的处理后,张量要进入全连接层,进入前需要调整张量的形状
              x = x.view(-1, self.num_flat_features(x))
              x = F.relu(self.fc1(x))
              x = F.relu(self.fc2(x))
              x = self.fc3(x)
              return x
      
          def num_flat_features(self, x):
              #  计算size,除了第0个维度上的batch_size
              size = x.size()[1:]
              num_features = 1
              for s in size:
                  num_features *= s
              return num_features
      
      
      net = Net()
      print(net)
      

      运行效果:

      使用pytorch构建一个神经网络、损失函数、反向传播、更新网络参数

      • 注意:
        • 模型中所有的可训练参数, 可以通过net.parameters()来获得.
      print(net.parameters())  # <generator object Module.parameters at 0x00000167595C8C48>
      params = list(net.parameters())
      print(len(params))
      # for i in params:
      #     print(i)
      print(params[0].size())

      使用pytorch构建一个神经网络、损失函数、反向传播、更新网络参数

      • 假设图像的输入尺寸为32 * 32:
      #  假设图像的输入尺寸为32 * 32
      input_value = torch.randn(1, 1, 32, 32)
      output = net(input_value)
      print(output)

      使用pytorch构建一个神经网络、损失函数、反向传播、更新网络参数

      • 有了输出张量后, 就可以执行梯度归零和反向传播的操作了.
      net.zero_grad()
      output.backward()
      • 注意:
        • torch.nn构建的神经网络只支持mini-batches的输入, 不支持单一样本的输入.
        • 比如: nn.Conv2d 需要一个4D Tensor, 形状为(nSamples, nChannels, Height, Width). 如果你的输入只有单一样本形式, 则需要执行input.unsqueeze(0), 主动将3D Tensor扩充成4D Tensor.

      损失函数

      • 损失函数的输入是一个输入的pair: (output, target), 然后计算出一个数值来评估output和target之间的差距大小.

      • 在torch.nn中有若干不同的损失函数可供使用, 比如nn.MSELoss就是通过计算均方差损失来评估输入和目标值之间的差距.

      • 通过loss.backward()进行反向传播计算时, 整张计算图将对loss进行自动求导, 所有属性requires_grad=True的Tensors都将参与梯度求导的运算, 并将梯度累加到Tensors中的.grad属性中.

      • 应用nn.MSELoss计算损失的一个例子
      target = torch.randn(10)
      #  改变target的形状为二维张量,为了和output匹配
      target = target.view(1, -1)  # 第一个维度设置为1,第二个维度自动适配维度为10
      criterion = nn.MSELoss()
      
      loss = criterion(output, target)
      print(loss)

      使用pytorch构建一个神经网络、损失函数、反向传播、更新网络参数

      • 关于方向传播的链条: 如果我们跟踪loss反向传播的方向, 使用.grad_fn属性打印, 将可以看到一张完整的计算图如下:
      input -> conv2d -> relu -> maxpool2d -> conv2d -> relu -> maxpool2d
            -> view -> linear -> relu -> linear -> relu -> linear
            -> MSELoss
            -> loss
      • 当调用loss.backward()时, 整张计算图将对loss进行自动求导, 所有属性requires_grad=True的Tensors都将参与梯度求导的运算, 并将梯度累加到Tensors中的.grad属性中.
      print(loss.grad_fn)  # MseLoss
      print(loss.grad_fn.next_functions[0][0])  # Linear
      print(loss.grad_fn.next_functions[0][0].next_functions[0][0])  # ReLU

      使用pytorch构建一个神经网络、损失函数、反向传播、更新网络参数

      反向传播(backpropagation)

      • 在Pytorch中执行反向传播非常简便, 全部的操作就是loss.backward().
      • 在执行反向传播之前, 要先将梯度清零, 否则梯度会在不同的批次数据之间被累加.
      • net.zero_grad()
      • loss.backward()

      • 执行一个反向传播的小例子:
      # Pytorch中执行梯度清零的代码
      net.zero_grad()
      
      print('conv1.bias.grad before backward')
      print(net.conv1.bias.grad)
      
      # Pytorch中执行反向传播的代码
      loss.backward()
      
      print('conv1.bias.grad after backward')
      print(net.conv1.bias.grad)

      使用pytorch构建一个神经网络、损失函数、反向传播、更新网络参数

      更新网络参数

      • 更新参数最简单的算法就是SGD(随机梯度下降).
      • 具体的算法公式表达式为: weight = weight - learning_rate * gradient

      • 首先用传统的Python代码来实现SGD如下:
      learning_rate = 0.01
      for f in net.parameters():
          f.data.sub_(f.grad.data * learning_rate)
      • 然后使用Pytorch官方推荐的标准代码如下:
      # 首先导入优化器的包, optim中包含若干常用的优化算法, 比如SGD, Adam等
      import torch.optim as optim
      
      # 通过optim创建优化器对象
      optimizer = optim.SGD(net.parameters(), lr=0.01)
      
      # 将优化器执行梯度清零的操作
      optimizer.zero_grad()
      
      output = net(input_value)
      loss = criterion(output, target)
      
      # 对损失值执行反向传播的操作
      loss.backward()
      #  参数的更新通过一行标准代码来执行
      optimizer.step()

      参数的更新方法:

      • 定义优化器来执行参数的优化与更新.
        • optimizer = optim.SGD(net.parameters(), lr=0.01)
      • 通过优化器来执行具体的参数更新.
        • optimizer.step()
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/weixin_44799217/article/details/121789220,作者:IT之一小佬,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:python中defaultdict用法详解

      下一篇:Sass中的变量

      相关文章

      2025-05-07 09:08:42

      深入理解循环神经网络(RNN):原理、应用与挑战

      在深度学习的众多模型中,循环神经网络(RNN)因其对序列数据处理的特性而备受关注。无论是自然语言处理、时间序列预测,还是语音识别,RNN都展现出了强大的能力。

      2025-05-07 09:08:42
      序列 , 时间 , 神经网络 , 隐藏
      2025-04-09 09:11:38

      图神经网络与图表示学习: 从基础概念到前沿技术

      随着复杂网络数据的快速增长,图数据的处理和分析成为机器学习领域的一个重要方向。图神经网络(Graph Neural Networks, GNNs)和图表示学习技术逐渐崭露头角,成为处理图数据的有效工具。

      2025-04-09 09:11:38
      学习 , 模型 , 神经网络 , 节点 , 表示
      2025-03-17 07:50:34

      【人工智能五】人工智能基础习题

      【人工智能五】人工智能基础习题

      2025-03-17 07:50:34
      神经网络 , 虚拟
      2025-03-17 07:50:34

      【人工智能基础】学习线路

      【人工智能基础】学习线路

      2025-03-17 07:50:34
      TensorFlow , 人工智能 , 学习 , 深度 , 神经网络
      2025-03-17 07:50:34

      【人工智能基础07】卷积神经网络基础(CNN):卷积神经网络结构、各层计算原理,以及常见卷积神经网络

      【人工智能基础07】卷积神经网络基础(CNN):卷积神经网络结构、各层计算原理,以及常见卷积神经网络

      2025-03-17 07:50:34
      卷积 , 矩阵 , 神经网络 , 输入
      2025-03-05 09:19:11

      BP神经网络理论

      神经网络包括生物神经网络和人工神经网络。

      2025-03-05 09:19:11
      函数 , 梯度 , 神经网络 , 节点
      2025-02-28 09:27:35

      深度学习基础(一)神经网络基本原理

      深度学习基础(一)神经网络基本原理

      2025-02-28 09:27:35
      学习 , 机器 , 深度 , 神经元 , 神经网络
      2025-02-14 08:18:57

      LSTM唐诗生成

      LSTM唐诗生成

      2025-02-14 08:18:57
      LSTM , 信息 , 神经网络 , 输入
      2025-02-10 08:56:02

      深度学习基础(二)卷积神经网络(CNN)

      深度学习基础(二)卷积神经网络(CNN)

      2025-02-10 08:56:02
      卷积 , 图像 , 图像处理 , 学习 , 模型 , 神经网络
      2024-12-11 06:14:38

      神经网络基础--什么是神经网络?? 常用激活函数是什么???

      人工神经网络( Artificial Neural Network, 简写为ANN)也简称为神经网络(NN),是一种模仿生物神经网络结构和功能的 计算模型。

      2024-12-11 06:14:38
      函数 , 激活 , 神经元 , 神经网络 , 输出
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5244871

      查看更多

      最新文章

      深入理解循环神经网络(RNN):原理、应用与挑战

      2025-05-07 09:08:42

      【人工智能五】人工智能基础习题

      2025-03-17 07:50:34

      【人工智能基础】学习线路

      2025-03-17 07:50:34

      BP神经网络理论

      2025-03-05 09:19:11

      深度学习基础(一)神经网络基本原理

      2025-02-28 09:27:35

      LSTM唐诗生成

      2025-02-14 08:18:57

      查看更多

      热门文章

      解决导入torch报错from torch._C import xxxx

      2023-04-17 10:58:24

      解决pytorch多进程ValueError: Error initializing torch.distributed using env:// rendezvou...报错

      2023-04-19 09:37:46

      【PyTorch】获取Tensor大小,size与shape的区别

      2023-02-24 08:29:11

      【PyTorch】SiLU激活函数

      2023-02-13 07:55:59

      解决pytorch二分类任务交叉熵损失函数CrossEntropyLoss报错:IndexError: Target 1 is out of bounds.

      2023-04-19 09:38:09

      【PyTorch】rand/randn/randint/randperm的区别

      2023-02-13 07:54:19

      查看更多

      热门标签

      linux java python javascript 数组 前端 docker Linux vue 函数 shell git 节点 容器 示例
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      文本分类的目的和分类的方法

      机器学习、深度学习、和神经网络之间的联系

      解决pytorch二分类任务交叉熵损失函数CrossEntropyLoss报错:IndexError: Target 1 is out of bounds.

      深度学习入门到精通——基本的卷积神经网络

      pytorch使用torch.nn.Sequential构建网络

      注意力机制学习(二)——空间注意力与pytorch案例

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号