爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      PyTorch基础

      首页 知识中心 其他 文章详情页

      PyTorch基础

      2024-11-14 08:54:10 阅读次数:24

      梯度

      首先我们会介绍一下pytorch里面的一些基础知识,有了这些基础知识之后我们才能做出更多复杂的变形。

      1.tensor(张量)

      pytorch里面处理的最基本的操作对象就是tensor,tensor是张量的英文,表示的是一个多维的矩阵,比如零维就是一个点,一维就是向量,二维就是一般的矩阵,多维就相当于一个多维的数组,这和numpy是对应的,而且pytorch的tensor可以和numpy的ndarray相互转换,唯一不同的是pytorch可以在GPU上运行,而numpy的ndarray只能在CPU上运行。

      我们先介绍一下一些常用的不同数据类型的tensor,有32位浮点型torch.FloatTensor、64位浮点型torch.DoubleTensor、16位整型torch.ShortTensor、32位整型torch.IntTensor和64位整型torch.LongTensor。

      我们可以通过下面的方式来定义一个三行两列给定元素的矩阵,并且显示出矩阵的元素和大小:

      a=torch.Tensor([[2,3],[4,8],[7,9]])

      print('a is :{}'.format(a))

      print('a size is {}'.format(a.size()))       #a.size()=3,2

      需要注意的是torch.Tensor默认的是torch.FloatTensor数据类型,也可以定义我们想要的数据类型,就像下面这样:

      b=torch.LongTensor([[2,3],[4,8],[7,9]])

      print('b is :{}'.format(b))

      当然也可以创建一个全是0的空Tensor或者取一个正态分布作为随机初始值:

      c=torch.zeros((3,2))

      print('zero tensor:{}'.format(c))

      d=torch.randn((3,2))

      print('normal random is : {}'.format(d))

      我们也可以将numpy一样通过索引的方式取得其中的元素,同时也可以改变它的值,比如将a的第一行第二列改变为100.

      a[0,1]=100

      print('changed a is: {}'.format(a))

      除此之外,还可以在tensor与numpy.ndarray之间相互转换:

      numpy_b=b.numpy()

      print('conver to numpy is \n {}'.format(numpy_b))

      e=np.array([[2,3],[4,5]])

      torch_e=torch.from_numpy(e)

      print('from numpy to torch.Tensor is {}'.format(torch_e))

      f_torch_e=torch_e.float()

      print('change data type to float tensor: {}'.format(f_torch_e))

      通过简单的b.numpy(),就能将b转换为numpy数据类型,同时使用torch.from_numpy()就能将numpy转换为tensor,如果需要更改tensor的数据类型,只需要在转换后的tensor后面加上你需要的类型,比如想将a的类型转换成float,只需a.float()就可以了。

      如果你的电脑支持GPU加速,还可以将tensor放到GPU上。

      首先通过torch.cuda.is_available()判断一下是否支持GPU,如果想把tensor a放到GPU上,只需a.cuda()就能够将tensor a放到GPU上了。

      if torch.cuda.is_available():

      a_cuda=a.cuda()

      print(a_cuda)

      2.variable(变量)

      接着要讲的一个概念就是variable,也就是变量,这个在numpy里面就没有了,是神经网络计算图里特有的一个概念,就是Variable提供了自动求导的功能,之前如果了解过TensorFlow的读者应该清楚神经网络在做运算的时候需要先构造一个计算图谱,然后再里面进行前向传播和反向传播。

      Variable和Tensor本质上没有区别,不过Variable会被放入一个计算图中,然后进行前向传播,反向传播,自动求导。

      首先Variable是在torch.autograd.Variable中,要将一个tensor变成Variable也非常简单,比如想让一个tensor a变成Variable,只需要Variable(a)就可以了。

      Variable有三个比较重要的组成属性:data,grad和grad_fn。通过data可以取出Variable里面的tensor数值,grad_fn表示的是得到这个Variable的操作,比如通过加减还是乘除来得到的,最后grad是这个Variable的反向传播速度,下面通过例子来具体说明一下:

      # Create Variable

      x=Variable(torch.Tensor([1]),requires_grad=True)

      w=Variable(torch.Tensor([2]),requires_grad=True)

      b=Variable(torch.Tensor([3]),requires_grad=True)

      #Build a computational graph.

      y=w*x+b         #y=2*x+3

      #Compute gradients

      y.backward()         #same as y.backward(torch.FloatTensor([1]))

      #Print out the gradients.

      print(x.grad)      #x.grad=2

      print(w.grad)      #w.grad=1

      print(b.grad)       #b.grad=1

      构建Variable,要注意得传入一个参数requires_grad=True,这个参数表示是否对这个变量求梯度,默认的是False,也就是不对这个变量求梯度,这里我们希望得到这些变量的梯度,所以需要传入这个参数。

      从上面的代码中,我们注意到了一行y.backward(),这一行代码就是所谓的自动求导,这其实等价于y.backward(torch.FloatTensor([1])),只不过对于标量求导里面的参数就可以不写了,自动求导不需要你再去明确地写明那个函数对哪个函数求导,直接通过这行代码就能对所有的需要梯度的变量进行求导,得到他们的梯度,然后通过x.grad可以得到x的梯度。

      上面是标量的求导,同时也可以做矩阵求导,比如:

      x=torch.randn(3)

      x=Variable(x,requires_grad=True)

      y=x*2

      print(y)

      y.backward(torch.FloatTensor([1,0.1,0.01]))

      print(x.grad)

      相当于给出了一个三维向量去做运算,这时候得到的结果y就是一个向量,这里对这个向量求导就不能直接写成y.backward(),这样程序是会报错的。这个时候需要传入参数声明,比如y.backward(torch.FloatTensor([1,1,1])),这样得到的结果就是他们每个分量的梯度,或者可以传入y.backward(torch.FloatTensor([1,0.1,0.01])),这样得到的梯度就是它们原本的梯度分别乘上1,0.1和0.01.

      3.Dataset(数据集)

      在处理任何机器学习问题之前都需要数据读取,并进行预处理。pyTorch提供了很多工具使得数据的读取和预处理变得很容易。

      torch.utils.data.Dataset是代表这一数据的抽象类,你可以自己定义你的数据类继承和重写这个抽象类,非常简单,只需要定义_len_和_getitem_这两个函数:

      class myDataset(Dataset):

      def _init_(self,csv_file,txt_file,root_dir,other_file):

      self.csv_data=pd.read_csv(csv_file)

      with open(txt_file,'r') as f:

      data_list=f.readlies()

      self.txt_data=data_list

      self.root_dir=root_dir

      def _len_(self):

      return len(self.csv_data)

      def _getitem_(self,idx):

      data=(self.csv_data[idx],self.txt_data[idx])

      return data

      通过上面的方式,可以定义我们需要的数据类,可以通过迭代的方式来取得每个数据,但是这样很难实现取batch,shuffle或者是多线程去读取数据,所以PyTorch中提供了一个简单的办法来做这个事情,通过torch.utils.data.DataLoader来定义一个新的迭代器,如下:

      dataiter=DataLoader(myDataset,batch_size=32,shuffle=True,

                                        collate_fn=default_collate)

      里面的参数都特别清楚,只有collate_fn是表示如何取样本的,我们可以定义自己的函数来准确地实现想要的功能,默认的函数在一般情况下都是可以使用的。

      另外在torchvision这个包中还有一个更高级的有关于计算机视觉的数据读取类:ImageFolder,主要功能是处理图片,且要求图片是下面这种存放形式:

      root/dog/xxx.png

      root/dog/xxy.png

      root/dog/xxz.png

      root/cat/123.png

      root/cat/asd.png

      root/cat/zxc.png

      之后这样来调用这个类:

      dset=ImageFolder(root='root_path',transform=None,loader=default_loader)

      其中的root需要是根目录,在这个目录下有几个文件夹,每个文件夹表示一个类别:transform和target_transform是图片增强,之后我们会详细讲,loader是图片读取的办法,因为我们读取的是图片的名字,然后通过loader将图片转换成我们需要的图片类型进入神经网络。

      4. nn.Module(模组)

      在pyTorch里面编写神经网络,所有的层结构和损失函数都来自于torch.nm,所有的模型构建都是从这个基类nn.Module继承的,于是有了下面这个模板。

      class net_name(nn.Module):

      def _init_(self,other_arguments):

      super(net_name,self) ._init_()

      self.conv1=nn.Conv2d(in_channels,out_channels,kernel_size)

      #other network layer

      def forward(self,x):

      x=self.conv1(x)

      return x

      这样就建立了一个计算图,并且这个结构可以复用多次,每次调用就相当于用该计算图定义的相同参数做一次前向传播,这得益于PyTorch的自动求导功能,所以我们不需要自己编写反向传播,而所有的网络层都是由nn这个包得到的,比如线性层nn.Linear,等之后使用的时候我们可以详细地介绍每一种网络对应的结构,以及如何调用。

      定义完模型之后,我们需要通过nn这个包来定义损失函数。常见的损失函数都已经定义在了nn中,比如均方误差、多分类的交叉熵,以及二分类的交叉熵,等等,调用这些已经定义好的损失函数也很简单:

      criterion=nn.CrossEntropyLoss()

      loss=criterion(output,target)

      这样就能求得我们的输出和真实目标之间的损失函数了。

      5.torch.option(优化)

      在机器学习或者深度学习中,我们需要通过修改参数使得损失函数最小化(或最大化),优化算法就是一种调整模型参数更新的策略。

      优化算法分为两大类。

      1.一阶优化算法

      这种算法使用各个参数的梯度值来更新参数,最常用的一阶优化算法就是梯度下降。所谓的梯度就是导数的多变量表达式,函数的梯度形成了一个向量场,同时也是一个方向,这个方向上方向导数最大,且等于梯度。梯度下降的功能是通过寻找最小值,控制方差,更新模型参数,最终使模型收敛,网络的参数更新公式是:

      PyTorch基础

      。其中PyTorch基础是学习率,

      PyTorch基础

      是函数的梯度。这是深度学习里面最常用的优化算法。

      2.二阶优化算法

      二阶优化算法使用了二阶导数(也叫做Hessian方法)来最小化或最大化损失函数,主要基于牛顿法,但是由于二阶导数的计算成本很高,所以这种方法并没有广泛使用。torch.optim是一个实现各种优化算法的包,大多数常见的算法都能够直接通过这个包来调用,比如随机梯度下降,以及添加动量的随机梯度下降,自适应学习率等。在调用的时候将需要优化的参数传入,这些参数都必须是Variable,然后传入一些基本的设定,比如学习率和动量等。

      下面举一个例子:

      optimizer=torch.optim.SGD(model.parameters(),lr=0.01,momentum=0.9)

      这样我们就将模型的参数作为需要更新的参数传入优化器,设定学习率是0.01,动量是0.9的随机梯度下降,在优化之前需要先将梯度归零,即optimizer.zeros(),然后通过loss.backward()反向传播,自动求导得到的每个参数的梯度,最后只需要optimizer.step()就可以通过梯度做一步参数更新。

      6.模型的保存和加载

      在PyTorch里面使用torch.save来保存模型的结构和参数,有两种保存方式:

      (1)保存整个模型的结构信息和参数信息,保存的对象是模型model;

      (2)保存模型的参数,保存的对象是模型的状态model.state_dict().

      可以这样保存,save的第一个参数是保存对象,第二个参数是保存路径及名称:

      torch.save (model, './model.pth')

      torch.save(model.state_dict(), './model_state.pth')

      加载模型由两种方式对应于保存模型的方式:

      (1)加载完整的模型结构和参数信息,使用load_model=torch.load('model.pth'),在网络较大的时候加载的时间比较长,同时存储空间也比较大;

      (2)加载模型参数信息,需要先导入模型的结构,然后通过model.load_state_dic(torch.load('model_state.pth'))来导入。

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/u_15888443/5879796,作者:mez_Blog,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:矩阵行平移(JAVA)

      下一篇:React学习笔记(2.0)

      相关文章

      2025-04-18 08:02:02

      传统CV算法——边缘检测算法综述

      边缘是不同区域的分界线,是周围(局部)灰度值有显著变化的像素点的集合,有幅值与方向两个属性。这个不是绝对的定义,主要记住边缘是局部特征,以及周围灰度值显著变化产生边缘。

      2025-04-18 08:02:02
      图像 , 梯度 , 检测 , 算子 , 边缘
      2025-04-01 10:28:07

      传统CV算法——边缘算子与图像金字塔算法介绍

      Sobel算子是一种用于边缘检测的图像梯度算子,它通过计算图像亮度的空间梯度来突出显示图像中的边缘。Sobel算子主要识别图像中亮度变化快的区域,这些区域通常对应于边缘。

      2025-04-01 10:28:07
      图像 , 梯度 , 检测 , 算子 , 边缘 , 金字塔
      2025-03-05 09:19:11

      BP神经网络理论

      神经网络包括生物神经网络和人工神经网络。

      2025-03-05 09:19:11
      函数 , 梯度 , 神经网络 , 节点
      2025-01-06 08:37:58

      传统CV算法——边缘检测算法Canny算法实战

      Canny 边缘检测算法是一种广泛使用的边缘检测技术,由 John F. Canny 在 1986 年提出。它被认为是最优的边缘检测算法之一,因其在检测边缘时具有较好的准确性和低噪声敏感性。Canny 算法的主要目标是识别图像中的边缘,并提供精确的边缘定位。

      2025-01-06 08:37:58
      像素 , 梯度 , 检测 , 算法 , 边缘 , 阈值
      2024-12-11 06:19:22

      深度学习基础案例2--从0到1构建CNN卷积神经网络(以识别CIFR10为例)

      深度学习基础案例2--从0到1构建CNN卷积神经网络(以识别CIFR10为例)

      2024-12-11 06:19:22
      卷积 , 梯度 , 模型 , 训练
      2024-11-06 07:16:52

      OpenCV从入门到精通——边缘检测算法Canny

      OpenCV从入门到精通——边缘检测算法Canny

      2024-11-06 07:16:52
      梯度 , 算子 , 边缘
      2024-11-06 07:12:59

      深度学习实战——numpy手写梯度下降法对价格进行预测

      深度学习实战——numpy手写梯度下降法对价格进行预测

      2024-11-06 07:12:59
      梯度
      2024-10-22 06:27:48

      人工智能基础 - 反向传播

      误差反向传播(Back-propagation, BP)算法的出现是神经网络发展的重大突破,也是现在众多深度学习训练方法的基础。该方法会计算神经网络中损失函数对各参数的梯度,配合优化方法更新参数,降低损失函数。

      2024-10-22 06:27:48
      梯度
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5232888

      查看更多

      最新文章

      BP神经网络理论

      2025-03-05 09:19:11

      深度学习实战——numpy手写梯度下降法对价格进行预测

      2024-11-06 07:12:59

      人工智能基础 - 反向传播

      2024-10-22 06:27:48

      查看更多

      热门文章

      深度学习实战——numpy手写梯度下降法对价格进行预测

      2024-11-06 07:12:59

      人工智能基础 - 反向传播

      2024-10-22 06:27:48

      BP神经网络理论

      2025-03-05 09:19:11

      查看更多

      热门标签

      linux java python javascript 数组 前端 docker Linux vue 函数 shell git 节点 容器 示例
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      BP神经网络理论

      深度学习实战——numpy手写梯度下降法对价格进行预测

      人工智能基础 - 反向传播

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号