爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      Pytorch完成基础的模型-线性回归

      首页 知识中心 大数据 文章详情页

      Pytorch完成基础的模型-线性回归

      2023-08-03 08:01:29 阅读次数:432

      Pytorch,算法

      Pytorch完成基础的模型-线性回归

      1. Pytorch完成模型常用API

      在前一部分博文中,实现了通过torch的相关方法完成反向传播和参数更新,在pytorch中预设了一些更加灵活简单的对象,让我们来构造模型、定义损失,优化损失等。那么接下来,我们一起来了解一下其中常用的API。

      1.1 nn.Module

      nn.Modul 是torch.nn提供的一个类,是pytorch中我们自定义网络的一个基类,在这个类中定义了很多有用的方法,让我们在继承这个类定义网络的时候非常简单

      当我们自定义网络的时候,有两个方法需要特别注意:

      1. __init__需要调用super方法,继承父类的属性和方法

      2. farward方法必须实现,用来定义我们的网络的向前计算的过程

      用前面的y = wx+b的模型举例如下:

      from torch import nn
      class Lr(nn.Module):
          def __init__(self):
              super(Lr, self).__init__()  #继承父类init的参数
              self.linear = nn.Linear(1, 1) 
      
          def forward(self, x):   #  完成一次向前计算的过程
              out = self.linear(x)
              return out

      注意:

      1. nn.Linear为torch预定义好的线性模型,也被称为全链接层,传入的参数为输入的数量,输出的数量(in_features, out_features),是不算(batch_size的列数)  【linear=nn.Linear(input的特征数量,输出的特征数量)】

      2. nn.Module定义了__call__方法,实现的就是调用forward方法,即Lr的实例,能够直接被传入参数调用,实际上调用的是forward方法并传入参数

      # 实例化模型
      model = Lr()
      # 传入数据,计算结果
      predict = model(x)

      1.2 优化器类

      优化器(optimizer),可以理解为torch为我们封装的用来进行更新参数的方法,比如常见的随机梯度下降(stochastic gradient descent,SGD)

      优化器类都是由torch.optim提供的,例如

      1. torch.optim.SGD(参数,学习率)

      2. torch.optim.Adam(参数,学习率)  【学习率默认为0.01】

      注意:

      1. 参数可以使用model.parameters()来获取,获取模型中所有requires_grad=True的参数

      2. 优化类的使用方法

        1. 实例化

        2. 所有参数的梯度,将其值置为0

        3. 反向传播计算梯度

        4. 更新参数值

      示例如下:

      optimizer = optim.SGD(model.parameters(), lr=1e-3) #1. 实例化
      optimizer.zero_grad() #2. 梯度置为0
      loss.backward() #3. 计算梯度
      optimizer.step()  #4. 更新参数的值

      1.3 损失函数

      前面的例子是一个回归问题,torch中也预测了很多损失函数

      1. 均方误差:nn.MSELoss(),常用于回归问题

      2. 交叉熵损失:nn.CrossEntropyLoss(),常用于分类问题

      使用方法:

      model = Lr() #1. 实例化模型
      criterion = nn.MSELoss() #2. 实例化损失函数
      optimizer = optim.SGD(model.parameters(), lr=1e-3) #3. 实例化优化器类
      for i in range(100):
          y_predict = model(x_true) #4. 向前计算预测值
          loss = criterion(y_true,y_predict) #5. 调用损失函数传入真实值和预测值,得到损失结果
          optimizer.zero_grad() #5. 当前循环参数梯度置为0
          loss.backward() #6. 计算梯度
          optimizer.step()  #7. 更新参数的值

      1.4 线性回归完整代码

      import torch
      from torch import nn
      from torch import optim
      from matplotlib import pyplot as plt
      
      #  1.定义数据
      x = torch.rand([50, 1])
      y = x * 3 + 0.8
      
      
      #  2.定义模型
      class Lr(nn.Module):
          def __init__(self):
              super().__init__()
              self.linear = nn.Linear(1, 1)
      
          def forward(self, x):
              out = self.linear(x)
              return out
      
      
      #  3.实例化模型,loss, 和优化器
      model = Lr()
      criterion = nn.MSELoss()
      optimizer = optim.SGD(model.parameters(), lr=1e-3)
      
      #  4.训练模型
      for i in range(30000):
          #  4.1获取预测值
          out = model(x)
          #  4.2计算损失
          loss = criterion(y, out)
          #  4.3梯度归0
          optimizer.zero_grad()
          #  4.4计算梯度
          loss.backward()
          #  4.5更新梯度
          optimizer.step()
          if (i + 1) % 20 ==0:
              print('Epoch[{}/{}], loss:{:.6f}'.format(i, 30000, loss.data))
      
      #  5.模型评估
      model.eval()  # 设置模型为评估模型,即预测模型
      predict = model(x)
      predict = predict.data.numpy()
      plt.scatter(x.data.numpy(), y.data.numpy(), c="r")
      plt.plot(x.data.numpy(), predict)
      plt.show()

      运行结果:

      Pytorch完成基础的模型-线性回归

      Pytorch完成基础的模型-线性回归

      Pytorch完成基础的模型-线性回归

      注意:

      model.eval()表示设置模型为评估模式,即预测模式

      model.train(mode=True) 表示设置模型为训练模式

      在当前的线性回归中,上述并无区别

      但是在其他的一些模型中,训练的参数和预测的参数会不相同,到时候就需要具体告诉程序我们是在进行训练还是预测,比如模型中存在Dropout,BatchNorm的时候

      2. 在GPU上运行代码

      当模型太大,或者参数太多的情况下,为了加快训练速度,经常会使用GPU来进行训练

      此时我们的代码需要稍作调整:

      • 判断GPU是否可用torch.cuda.is_available()

      torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
      >>device(type='cuda', index=0)  #使用gpu
      >>device(type='cpu') #使用cpu
      • 把模型参数和input数据转化为cuda的支持类型
      model.to(device)
      x_true.to(device)
      • 在GPU上计算结果也为cuda的数据类型,需要转化为numpy或者torch的cpu的tensor类型
      predict = predict.cpu().detach().numpy()

      detach()的效果和data的相似,但是detach()是深拷贝,data是取值,是浅拷贝

       

      修改之后的代码如下:

      import torch
      from torch import nn
      from torch import optim
      from matplotlib import pyplot as plt
      
      #  1.定义数据
      x = torch.rand([50, 1])
      y = x * 3 + 0.8  #  此时x,y为cpu类型,要把x,y转为gpu类型
      
      
      #  2.定义模型
      class Lr(nn.Module):
          def __init__(self):
              super().__init__()
              self.linear = nn.Linear(1, 1)
      
          def forward(self, x):
              out = self.linear(x)
              return out
      
      
      #  3.实例化模型,loss, 和优化器
      device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
      print(device)
      x, y = x.to(device), y.to(device)
      
      model = Lr().to(device)
      criterion = nn.MSELoss()
      optimizer = optim.SGD(model.parameters(), lr=1e-3)
      
      #  4.训练模型
      for i in range(30000):
          #  4.1获取预测值
          out = model(x)
          #  4.2计算损失
          loss = criterion(y, out)
          #  4.3梯度归0
          optimizer.zero_grad()
          #  4.4计算梯度
          loss.backward()
          #  4.5更新梯度
          optimizer.step()
          if (i + 1) % 20 ==0:
              print('Epoch[{}/{}], loss:{:.6f}'.format(i, 30000, loss.data))
      
      #  5.模型评估
      model.eval()  # 设置模型为评估模型,即预测模型
      predict = model(x)
      predict = predict.cpu().detach().numpy()  # 转化为numpy数组
      plt.scatter(x.cpu().data.numpy(), y.cpu().data.numpy(), c="r")
      plt.plot(x.cpu().data.numpy(), predict,)
      plt.show()
      

      运行效果:

      Pytorch完成基础的模型-线性回归

      Pytorch完成基础的模型-线性回归

      3. 常见的优化算法介绍

      3.1 梯度下降算法(batch gradient descent BGD)  【全局最优,有可能局部最优】

      每次迭代都需要把所有样本都送入,这样的好处是每次迭代都顾及了全部的样本,做的是全局最优化,但是有可能达到局部最优。

      3.2 随机梯度下降法 (Stochastic gradient descent SGD)  【随机的从样本中抽出一个样本进行梯度的更新】

      针对梯度下降算法训练速度过慢的缺点,提出了随机梯度下降算法,随机梯度下降算法算法是从样本中随机抽出一组,训练后按梯度更新一次,然后再抽取一组,再更新一次,在样本量及其大的情况下,可能不用训练完所有的样本就可以获得一个损失值在可接受范围之内的模型了。

      torch中的api为:torch.optim.SGD()

      3.3 小批量梯度下降 (Mini-batch gradient descent MBGD) 【以上两种算法的优化,找一波数据进行统计,使用均值进行更新参数】

      SGD相对来说要快很多,但是也有存在问题,由于单个样本的训练可能会带来很多噪声,使得SGD并不是每次迭代都向着整体最优化方向,因此在刚开始训练时可能收敛得很快,但是训练一段时间后就会变得很慢。在此基础上又提出了小批量梯度下降法,它是每次从样本中随机抽取一小批进行训练,而不是一组,这样即保证了效果又保证的速度。

      3.4 动量法

      mini-batch SGD算法虽然这种算法能够带来很好的训练速度,但是在到达最优点的时候并不能够总是真正到达最优点,而是在最优点附近徘徊。

      另一个缺点就是mini-batch SGD需要我们挑选一个合适的学习率,当我们采用小的学习率的时候,会导致网络在训练的时候收敛太慢;当我们采用大的学习率的时候,会导致在训练过程中优化的幅度跳过函数的范围,也就是可能跳过最优点。我们所希望的仅仅是网络在优化的时候网络的损失函数有一个很好的收敛速度同时又不至于摆动幅度太大。

      所以Momentum优化器刚好可以解决我们所面临的问题,它主要是基于梯度的移动指数加权平均,对网络的梯度进行平滑处理的,让梯度的摆动幅度变得更小。

      Pytorch完成基础的模型-线性回归

      (注:t+1的的histroy_gradent 为第t次的gradent)

      Pytorch完成基础的模型-线性回归

      3.5 AdaGrad  【自适应学习率】

      AdaGrad算法就是将每一个参数的每一次迭代的梯度取平方累加后在开方,用全局学习率除以这个数,作为学习率的动态更新,从而达到自适应学习率的效果

      Pytorch完成基础的模型-线性回归

      3.6 RMSProp  【对学习率进行加权】

      Momentum优化算法中,虽然初步解决了优化中摆动幅度大的问题,为了进一步优化损失函数在更新中存在摆动幅度过大的问题,并且进一步加快函数的收敛速度,RMSProp算法对参数的梯度使用了平方加权平均数。

      Pytorch完成基础的模型-线性回归

      3.7 Adam  【动量法+RMSprop,学习率能够自适应,梯度的振幅不会过大】

      Adam(Adaptive Moment Estimation)算法是将Momentum算法和RMSProp算法结合起来使用的一种算法,能够达到防止梯度的摆幅多大,同时还能够加开收敛速度

      Pytorch完成基础的模型-线性回归

      torch中的api为:torch.optim.Adam()

       

      3.8 效果演示:

      Pytorch完成基础的模型-线性回归

       

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/weixin_44799217/article/details/114949132,作者:IT之一小佬,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:聚类算法之特征降维-特征选择、主成分分析

      下一篇:双维度文本查重算法

      相关文章

      2025-05-19 09:04:14

      《剑指Offer》搜索算法题篇——更易理解的思路~

      《剑指Offer》搜索算法题篇——更易理解的思路~

      2025-05-19 09:04:14
      算法
      2025-05-19 09:04:14

      复杂度的OJ练习

      复杂度的OJ练习

      2025-05-19 09:04:14
      代码 , 复杂度 , 思路 , 数组 , 算法
      2025-05-19 09:04:14

      背包问题——“0-1背包”,“完全背包”(这样讲,还能不会?)

      背包问题——“0-1背包”,“完全背包”(这样讲,还能不会?)

      2025-05-19 09:04:14
      动态规划 , 算法
      2025-05-16 09:15:17

      多源BFS问题(2)_飞地的数量

      多源BFS问题(2)_飞地的数量

      2025-05-16 09:15:17
      bfs , grid , 单元格 , 算法
      2025-05-16 09:15:17

      BFS解决最短路问题(4)_为高尔夫比赛砍树

      BFS解决最短路问题(4)_为高尔夫比赛砍树

      2025-05-16 09:15:17
      BFS , lt , 复杂度 , 算法
      2025-05-16 09:15:17

      递归,搜索,回溯算法(3)之穷举,暴搜,深搜,回溯,剪枝

      递归,搜索,回溯算法(3)之穷举,暴搜,深搜,回溯,剪枝

      2025-05-16 09:15:17
      回溯 , 子集 , 数组 , 算法 , 递归
      2025-05-16 09:15:17

      多源BFS问题(4)_地图分析

      多源BFS问题(4)_地图分析

      2025-05-16 09:15:17
      单元格 , 算法 , 网格 , 距离
      2025-05-16 09:15:10

      BFS解决FloodFill算法(3)_岛屿的最大面积

      BFS解决FloodFill算法(3)_岛屿的最大面积

      2025-05-16 09:15:10
      grid , 复杂度 , 算法
      2025-05-14 10:33:31

      【数据结构】第一章——绪论(2)

      【数据结构】第一章——绪论(2)

      2025-05-14 10:33:31
      函数 , 实现 , 打印 , 理解 , 算法 , 输入 , 输出
      2025-05-14 10:33:31

      【数据结构】详细介绍串的简单模式匹配——朴素模式匹配算法

      【数据结构】详细介绍串的简单模式匹配——朴素模式匹配算法

      2025-05-14 10:33:31
      下标 , 元素 , 匹配 , 子串 , 模式匹配 , 算法
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5256908

      查看更多

      最新文章

      《剑指Offer》搜索算法题篇——更易理解的思路~

      2025-05-19 09:04:14

      背包问题——“0-1背包”,“完全背包”(这样讲,还能不会?)

      2025-05-19 09:04:14

      多源BFS问题(2)_飞地的数量

      2025-05-16 09:15:17

      递归,搜索,回溯算法(3)之穷举,暴搜,深搜,回溯,剪枝

      2025-05-16 09:15:17

      BFS解决最短路问题(4)_为高尔夫比赛砍树

      2025-05-16 09:15:17

      多源BFS问题(4)_地图分析

      2025-05-16 09:15:17

      查看更多

      热门文章

      Lc70_爬楼梯

      2024-06-27 09:20:52

      利用函数求出一个数组最大三个数的乘积

      2023-02-13 08:10:07

      冒泡排序法解析

      2024-07-01 01:30:59

      猜字母问题

      2023-02-24 08:30:41

      1791. 找出星型图的中心节点

      2023-02-13 07:55:59

      经典算法——二分查找

      2023-05-11 06:06:36

      查看更多

      热门标签

      算法 leetcode python 数据 java 数组 节点 大数据 i++ 链表 golang c++ 排序 django 数据类型
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      LeetCode算法题---最长回文子串、N 字形变换(四)

      线性回归简介

      截断句子取前k个单词

      文心一言 VS 讯飞星火 VS chatgpt (338)-- 算法导论23.1 7题

      输入年月日判断是本年的第多少天

      《剑指Offer》搜索算法题篇——更易理解的思路~

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号